Zuckerbergov odhalený e-mail vyvoláva nepríjemnú otázku: mali by platformy menej skúmať svoje škody?

Jednou z podivnejších stimulov v modernej technologickej politike jevýskumný paradoxSpoločnosti, ktoré vykonávajú najviac internej práce na meraní škôd, môžu nakoniec vyzerať ako najhorší aktéri, jednoducho preto, že majú najviac údajov – a pretože tieto údaje môžu uniknúť, byť predvolané alebo odhalené na súde.

Tento paradox je ústrednou témou novo odpečateného interného Meta e-mailu, o ktorom informovalThe Verge, v ktorom Mark Zuckerberg navrhuje, aby spoločnosť zvážila zmenu svojho prístupu k „výskumu a analýzam v oblasti sociálnych otázok“ po tom, čo sa v roku 2021 rozšírilo mediálne pokrytie interných zistení (najmä týkajúcich sa blaha tínedžerov na Instagrame).

Toto nie je len príbeh zvnútra bejzbalu o PR manažmente. Je to pohľad na to, ako sociálne platformy uvažujú o zodpovednosti – a ako hrozba súdnych sporov a únikov informácií môže ovplyvniť to, čo sa bude merať, čo sa bude zverejňovať a na čo sa nikdy nepýtajú.

Nižšie je uvedené praktické vysvetlenie toho, čo sa v e-maile uvádzalo, prečo je to dôležité a ako by mohla vyzerať zdravšia štruktúra stimulov.

Čo v skutočnosti odhalil nezapečatený e-mail

Podľa správy Zuckerberg napísal vrcholovým manažérom 15. septembra 2021 – deň po tom, čo článok vo Wall Street Journal, založený na interných dokumentoch (neskôr spojených s informátorkou Frances Haugenovou), zdôraznil Metin vlastný výskum o dospievajúcich dievčatách a Instagrame.

Kľúčovým bodom nebolo „Meta urobila výskum“. Mnoho veľkých platforiem má výskumné tímy. Pozoruhodné je, že generálny riaditeľ to explicitne spojilvykonávanie proaktívneho výskumu sociálnych problémovsvytváranie záväzkov a rizík poškodenia reputáciekeď sa zistenia stanú verejne dostupnými.

Rámovanie e-mailu je v podstate nasledovné:

  • Študujeme citlivé témy (bezpečnosť tínedžerov, duševné zdravie, zneužívanie detí, dezinformácie atď.).
  • Keď naše zistenia uniknú alebo sa o nich oznámi verejnosť, verejný príbeh sa môže zmeniť na: „Vedeli ste, a neopravili ste to.“
  • Zdá sa, že niektoré partnerské spoločnosti to robiamenejproaktívny výskum – a preto vytvárajú menej dokumentov, ktoré by sa dali použiť proti nim.

To je nepríjemný, ale skutočný problém riadenia: ak „meranie a dokumentovanie problému“ zvyšuje prevádzkové náklady, existuje vstavaná motivácia merať menej.

Paradox výskumu: keď sa transparentnosť stane konkurenčnou nevýhodou

Vo svete, kde platformy kontrolujú regulačné orgány, novinári a súdy, si viete predstaviť dve široké stratégie:

  1. Štúdium hlboko škodía vytvárať interné dashboardy, experimenty a postmortem analýzy.
  2. Štúdium škodí minimálne, zamerať sa na úzke požiadavky na dodržiavanie predpisov a vyhýbať sa vytváraniu „neslušných“ dokumentov.

Ak je nevýhodou stratégie (1) to, že vytvára objaviteľný materiál – e-maily, prezentácie, záznamy z experimentov – potom sa racionálny korporátny aktér môže prikloniť k stratégii (2), aj keď je stratégia (1) pre používateľov lepšia.

To nie je obhajoba menšieho množstva výskumu. Je to vysvetlenie motivácie.

Politickou výzvou je navrhnúť systém, v ktorom sa prístup „zodpovedného konania“ (štúdium škôd a konanie na základe zistení) nestane sebatrestajúcim.

Prečo sa Metin e-mail objavuje teraz: súdne spory a odhalenie

E-mail bol odpečatený po tom, čo ho získala kancelária generálneho prokurátora Nového Mexika v prípade, v ktorom spoločnosť Meta tvrdila, že klamlivo prezentovala Facebook a Instagram ako bezpečné pre tínedžerov, pričom si bola vedomá škodlivých dizajnových rozhodnutí.

Tento prípad sa nachádza popri širšej vlne súdnych sporov a legislatívneho tlaku zameraného na bezpečnosť detí, duševné zdravie mládeže a teórie zodpovednosti za výrobok na sociálnych platformách. Bez ohľadu na to, ako sa ktorýkoľvek jednotlivý prípad skončí, proces je dôležitý: odhalenie premieňa internú diskusiu na verejný dôkaz.

To má dva účinky druhého rádu:

  • Formuje budúce vnútorné písanie.Manažéri sú opatrní nielen v tom, čo robia, ale aj v tom, ako to opisujú.
  • Formuje budúci výskum.Ak je pravdepodobné, že štúdia vygeneruje politicky výbušné grafy, niekto sa opýta, či sa vôbec oplatí ju robiť.

„Zdá sa, že Apple nič z týchto vecí neštuduje“: aký je tu argument?

V e-maile sa údajne nachádza porovnanie so spoločnosťou Apple, čo naznačuje, že Apple „zdá sa, že tieto problémy neštuduje“ rovnakým spôsobom, a preto sa vyhýba veľkej kritike.

Aj keď je toto porovnanie neúplné (Apple publikuje materiály týkajúce sa bezpečnosti a súkromia a čelí intenzívnej kontrole v iných oblastiach), základným bodom je...kategória produktu a povrch rizika:

  • Sociálne platformy hostia obrovské množstvo obsahu generovaného používateľmi vrátane urážlivého obsahu.
  • Produkty na zasielanie správ (najmä tie s end-to-end šifrovaním) štrukturálne obmedzujú to, čo môže poskytovateľ kontrolovať.
  • Platformy zariadení môžu posúvať zodpovednosť smerom nadol („toto robia používatelia na svojich zariadeniach“), zatiaľ čo sociálne kanály sa viac zameriavajú na redakčné zosilňovanie.

Otázka „prečo sa im menej vyhrieva?“ má teda netriviálnu technickú zložku.

Prúžok bezpečnosti detí: objem hlásení môže vyzerať ako pocit viny

Jeden z argumentov v správe je, že Meta poukazuje na skutočnosť, že Národnému centru pre nezvestné a zneužívané deti (NCMEC) nahlasuje množstvo materiálu zobrazujúceho sexuálne zneužívanie detí (CSAM) – a že vysoký objem nahlásených materiálov možno interpretovať ako „na Meta je viac zneužívania“, aj keď čiastočne je dôvodomviac detekcie a hlásenia.

Verejne dostupné údaje NCMEC pomáhajú ilustrovať zložitosť tejto interpretácie. Napríklad NCMEC poznamenáva, že v roku 2024 dostalo 20,5 milióna hlásení (29,2 milióna incidentov po úprave) a opisuje aj zmeny, ako je „zoskupovanie“ hlásení, ktoré môže znížiť počet nespracovaných hlásení bez toho, aby to znamenalo menej základného zneužívania.

Samotné počty sú tupým nástrojom. Dôležité jesadzby,pokrytie detekcieanásledné výsledky:

  • Ako rýchlo sa rušia účty?
  • Sú páchatelia identifikovaní a postúpení orgánom činným v trestnom konaní?
  • Ako často sú maloletí proaktívne chránení (napr. obmedzením kontaktných funkcií, obmedzením dosahu dospelých)?
  • Ako sa vymieňajú falošne pozitívne a falošne negatívne výsledky?

Keď sa verejná diskusia zameriava len na to, „kto má najväčšie číslo“, spoločnosti môžu byť tlačené k nedostatočnému vykazovaniu alebo nedostatočnému meraniu.

Prečo by bolo menej výskumu zlé – dokonca aj pre Metu

Ak beriete obavy z e-mailu doslovne, „riešenie“ v podobe menšieho štúdia je zvodné: menej štúdií, menej slajdov, menej predvolaní.

Ale je to aj sebazničujúce.

1) Nemôžete zlepšiť to, čo nemeriate

Mnohé problémy s bezpečnosťou platformy sú systémové problémy – spôsobené hodnotením, odporúčaniami, mechanizmami kontaktovania a rastovými cyklusmi súvisiacimi so zneužívaním. Tieto sa nedajú vyriešiť jedným vyhlásením o politike. Vyžadujú si meranie.

Bez interného výskumu a analytiky sa „bezpečnostný postoj“ spoločnosti stáva:

  • reaktívny (reaguje na škandály)
  • neoficiálne (verte tomu, čo hovoria najhlasnejšie sťažnosti)
  • neauditovateľné (žiadne východiskové hodnoty, žiadne hodnotenie)

2) Regulačné orgány budú aj tak požadovať dôkazy

Aj keď sa spoločnosť snaží vyhnúť citlivému výskumu, regulačné orgány môžu stále vyžadovať správy o transparentnosti, posúdenia rizík a auditovateľnosť. Inými slovami: ak dôkazy nevygenerujete dobrovoľne, niekto iný vás môže prinútiť ich vygenerovať – a teraz to musíte urobiť pod tlakom.

3) Strácate schopnosť rozlišovaťkompromisyznedbanlivosť

Hlavnou témou e-mailu je, že nie všetky odporúčania sú rozumné na implementáciu, pretože všetko má svoje úskalia.

To je pravda. Ale jediný vierohodný spôsob, ako argumentovať „zvážili sme X a vybrali sme Y, pretože...“, je ukázať svoju prácu. Inak to môže vyzerať ako mávnutie rukou.

Výskum je to, čo premení „dôverujte nám“ na „tu je model, experiment, nameraný výsledok a memorandum o rozhodnutí“.

Hlbší problém: súdny spor mení vnútornú úprimnosť na záťaž

Zdravá organizácia chce úprimnosť: „Táto funkcia môže byť škodlivá“, „Táto skupina je ohrozená“, „Táto metrika vyzerá zle“, „Musíme zmeniť poradie.“

Ale dynamika súdnych sporov a únikov informácií môže trestať úprimnosť dvoma spôsobmi:

  • Účinok výberu:Vedúci pracovníci prestávajú zapisovať citlivé myšlienky.
  • Kultúrny efekt:tímy sa vyhýbajú otázkam, ktoré by mohli viesť k „zlým“ odpovediam.

Oba efekty zhoršujú platformu.

A to nie je jedinečné len pre Metu – je to všeobecný problém každej spoločnosti pôsobiacej na križovatke spotrebiteľských technológií a verejnej bezpečnosti.

Ako by vyzerali lepšie stimuly?

Ak spoločnosť chce, aby platformy merali a znižovali škody, musí túto cestu zabezpečiť prežitie.

Niekoľko praktických nápadov, ktoré sa opakovane objavujú v politických kruhoch:

1) Bezpečné prístavy pre výskum internej bezpečnosti v dobrej viere

Predstavte si rámec, v ktorom spoločnosti získajú obmedzenú ochranu, keď vykonávajú zdokumentovaný výskum škôd v dobrej viere a na základe zistení podnikajú zmysluplné kroky – podobne ako niektoré odvetvia kritické z hľadiska bezpečnosti riešia hlásenie incidentov.

To neznamená imunitu za priestupky. Znamená to zníženie motivácie k...zámerne zostať v nevedomosti.

2) Štandardizované, auditované reportovanie (aby boli porovnania spravodlivé)

Ak každá platforma hlási bezpečnostné metriky s použitím rôznych definícií, surové čísla sa stanú zbraňou.

Štandardné definície, audity tretích strán a jasnejšie menovatele (sadzby na používateľa, sadzby za správu, sadzby za zobrazenie) by z tvrdenia „nahlásili sme viac“ urobili menej PR pascu.

3) Oddelenie výskumu bezpečnosti od stimulov pre rast produktov

Keď je výskum v oblasti bezpečnosti v rámci tej istej hierarchie velenia ako ciele rastu, môže sa stať politicky nevýhodným.

Štrukturálne oddelenie – aj keď nie úplná nezávislosť – môže pomôcť zabezpečiť, aby sa otázky týkajúce sa bezpečnosti neustále kládli.

4) Lepšia verejná gramotnosť o tom, čo metriky znamenajú

Verejná diskusia často vníma interný výskum ako priznanie.

Niekedy áno. Ale niekedy je to naopak: znamenie, že spoločnosť sa na vás pozerá.

Zrelší čitateľ by sa pýtal:

  • Bola škoda meraná zodpovedne?
  • Boli zistenia zdieľané s primeraným dohľadom?
  • Aké zmierňujúce opatrenia boli testované?
  • Čo sa v dôsledku toho zmenilo?

Čo si pozrieť ďalej

E-mail je jeden artefakt. Širší príbeh je o napätí medzi tromi silami:

  • Transparentnosť:Chceme vedieť, čo platformy vedia.
  • Zodpovednosť:Chceme následky, keď sa ignorujú škody.
  • Vzdelávacie systémy:Potrebujeme platformy na neustále meranie a zlepšovanie.

Keď sú tieto sily nesprávne zosúladené, rovnovážny výsledok môže byť zvrátený: menej merania, menej úprimnosti a pomalšie zlepšovanie – a to aj napriek tomu, že hnev verejnosti narastá.

Najlepšia verzia internetu nie je taká, kde platformy skrývajú svoj vlastný výskum. Je to taká, kde je interný výskum rutinný, kontrolovaný a používaný na podporu zmien produktov – a kde právny a politický systém dokáže rozlišovať medzi „študovali sme škody a zlepšili sme sa“ a „študovali sme škody a zámerne sme neurobili nič“.

Zrátané a podčiarknuté

Nezapečatený Zuckerbergov e-mail nie je ani tak dôležitý ako „chytil som vás“, ale skôr ako indícia o stimuloch.

Ak sa seriózny výskum v oblasti vnútornej bezpečnosti a sociálnych otázok spoľahlivo zmení na odhalenie povesti a právnych záležitostí, spoločnosti ho budú robiť menej – a verejnosť sa dozvie...menejprehľad o skutočných rizikách.

Cieľom politiky by nemalo byť hanobiť platformy za to, že vykonávajú výskum. Malo by byť požadovať merateľné zlepšenia.avytvoriť stimuly, vďaka ktorým sa zodpovedné meranie stane štandardom, nie výnimkou.


Zdroje

Document Title
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Title Attribute
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Page Content
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
Blog
/
General
/ By
Abdul Jabbar
One of the stranger incentives in modern tech policy is the
research paradox
: the companies that do the most internal work to measure harms can end up looking like the worst actors, simply because they have the most data — and because that data can leak, be subpoenaed, or be unsealed in court.
That paradox is at the center of a newly unsealed internal Meta email, reported by
The Verge
, in which Mark Zuckerberg suggests the company consider changing its approach to “research and analytics around social issues” after media coverage of internal findings (notably around teen wellbeing on Instagram) blew up in 2021.
This isn’t just an inside-baseball story about PR management. It’s a window into how social platforms think about accountability — and how the threat of litigation and leaks can shape what gets measured, what gets published, and what never gets asked.
Below is a practical explainer of what the email said, why it matters, and what a healthier incentive structure might look like.
What the unsealed email actually revealed
According to the reporting, Zuckerberg wrote to senior executives on September 15, 2021 — a day after a Wall Street Journal story based on internal documents (later tied to whistleblower Frances Haugen) highlighted Meta’s own research about teen girls and Instagram.
The key point wasn’t “Meta did research.” Many large platforms have research teams. The striking part is that the CEO explicitly connected
doing proactive social-issues research
with
creating liabilities and reputational risks
when findings become public.
The email’s framing is essentially:
We study sensitive issues (teen safety, mental health, child exploitation, misinformation, etc.).
When our findings leak or are reported out, the public narrative can turn into: “You knew, and you didn’t fix it.”
Some peer companies appear to do
less
proactive research — and therefore create fewer documents that can be used against them.
That’s an uncomfortable but real governance issue: if “measure and document the problem” increases the cost of operating, there’s a built-in incentive to measure less.
The research paradox: when transparency becomes a competitive disadvantage
In a world where platforms are scrutinized by regulators, journalists, and courts, you can imagine two broad strategies:
Study harms deeply
and build internal dashboards, experiments, and postmortems.
Study harms minimally
, focus on narrow compliance requirements, and avoid producing “bad-sounding” documents.
If the downside of strategy (1) is that it creates discoverable material — emails, slide decks, experiment readouts — then a rational corporate actor may drift toward strategy (2), even if strategy (1) is better for users.
That is not a defense of doing less research. It’s an explanation of the incentive.
The policy challenge is to design a system where the “do the responsible thing” approach (studying harms and acting on findings) does not become self-punishing.
Why Meta’s email is surfacing now: lawsuits and discovery
The email was unsealed after being collected in discovery by the New Mexico Attorney General’s office in a case alleging Meta deceptively positioned Facebook and Instagram as safe for teens while being aware of harmful design choices.
That case sits alongside a broader wave of litigation and legislative pressure focused on child safety, youth mental health, and product liability theories for social platforms. Regardless of how any single case turns out, the process matters: discovery turns internal debate into public evidence.
That has two second-order effects:
It shapes future internal writing.
Executives become cautious not only about what they do, but how they describe it.
It shapes future research.
If a study is likely to generate politically explosive charts, someone will ask whether it’s worth doing at all.
“Apple doesn’t seem to study any of this stuff”: what’s the argument here?
The email reportedly draws a comparison to Apple, suggesting Apple “doesn’t seem to study” these issues in the same way and therefore avoids a lot of the criticism.
Even if that comparison is incomplete (Apple does publish security and privacy material, and it faces intense scrutiny in other domains), the underlying point is about
product category and risk surface
:
Social platforms host massive volumes of user-generated content, including abusive content.
Messaging products (especially end-to-end encrypted ones) structurally limit what the provider can inspect.
Device platforms can push responsibility downward (“this is what users do on their devices”) while social feeds sit closer to editorial-like amplification.
So the “why do they get less heat?” question has a nontrivial technical component.
The child safety lens: reporting volume can look like guilt
One line of argument in the reporting is that Meta points to the fact that it reports a lot of child sexual abuse material (CSAM) to the National Center for Missing and Exploited Children (NCMEC) — and that high reporting volume can be interpreted as meaning “there’s more abuse on Meta,” even when part of the reason is
more detection and reporting
.
NCMEC’s own public data helps illustrate the complexity of that interpretation. For example, NCMEC notes that in 2024 it received 20.5 million reports (29.2 million incidents when adjusted), and it also describes changes like report “bundling” that can reduce raw counts without implying less underlying abuse.
Counts alone are a blunt tool. What matters is
rates
,
detection coverage
, and
downstream outcomes
How quickly are accounts taken down?
Are perpetrators identified and referred to law enforcement?
How often are minors proactively protected (e.g., restricting contact features, limiting adult reach)?
How do false positives and false negatives trade off?
When the public debate focuses only on “who has the biggest number,” companies can be pushed toward under-reporting or under-measuring.
Why doing less research would be bad — even for Meta
If you take the email’s concern at face value, the “solution” of studying less is seductive: fewer studies, fewer slides, fewer subpoenas.
But it’s also self-defeating.
1) You can’t improve what you don’t measure
Many platform safety problems are systems problems — created by ranking, recommendations, contact mechanics, and abuse-adjacent growth loops. Those aren’t fixed with a single policy statement. They require measurement.
Without internal research and analytics, the company’s “safety posture” becomes:
reactive (respond to scandals)
anecdotal (trust what the loudest complaints say)
non-auditable (no baselines, no evaluation)
2) Regulators will demand evidence anyway
Even if a company tries to avoid sensitive research, regulators can still require transparency reports, risk assessments, and auditability. In other words: if you don’t generate the evidence voluntarily, someone else may force you to generate it — and now you have to do it under pressure.
3) You lose the ability to distinguish
tradeoffs
from
negligence
A major theme in the email is that not all recommendations are reasonable to implement because everything has tradeoffs.
That’s true. But the only credible way to argue “we considered X and chose Y because…” is to show your work. Otherwise, it can look like hand-waving.
Research is what turns “trust us” into “here’s the model, the experiment, the measured outcome, and the decision memo.”
The deeper issue: litigation turns internal candor into a liability
A healthy organization wants candor: “This feature might be harmful,” “This cohort is at risk,” “This metric looks bad,” “We need to change ranking.”
But litigation and leak dynamics can punish candor in two ways:
Selection effect:
executives stop putting sensitive thoughts in writing.
Cultural effect:
teams avoid questions that might produce “bad” answers.
Both effects make the platform worse.
And this isn’t unique to Meta — it’s a general problem for any company operating at the intersection of consumer tech and public safety.
What would better incentives look like?
If society wants platforms to measure and reduce harms, it needs to make that path survivable.
A few practical ideas that show up repeatedly in policy circles:
1) Safe harbors for good-faith internal safety research
Imagine a framework where companies get a limited protection when they conduct documented, good-faith research into harms and take meaningful steps based on findings — similar in spirit to how some safety-critical industries handle incident reporting.
This doesn’t mean immunity for wrongdoing. It means reducing the incentive to
stay ignorant on purpose
2) Standardized, audited reporting (so comparisons are fair)
If every platform reports safety metrics using different definitions, raw numbers become weaponized.
Standard definitions, third-party audits, and clearer denominators (rates per user, rates per message, rates per view) would make “we reported more” less of a PR trap.
3) Separation between safety research and product growth incentives
When safety research sits inside the same chain of command as growth targets, it can become politically inconvenient.
Structural separation — even if not full independence — can help ensure safety questions keep getting asked.
4) Better public literacy about what metrics mean
The public conversation often treats internal research like a confession.
Sometimes it is. But sometimes it’s the opposite: a sign the company is looking.
A more mature literacy would ask:
Was the harm measured responsibly?
Were the findings shared with appropriate oversight?
What mitigations were tested?
What changed as a result?
What to watch next
The email is one artifact. The broader story is the tension between three forces:
Transparency:
we want to know what platforms know.
Accountability:
we want consequences when harms are ignored.
Learning systems:
we need platforms to keep measuring and improving.
When those forces are misaligned, the equilibrium outcome can be perverse: less measurement, less candor, and slower improvement — even while public anger increases.
The best version of the internet is not one where platforms hide their own research. It’s one where internal research is routine, audited, and used to drive product changes — and where the legal and political system can distinguish between “we studied the harm and improved” and “we studied the harm and deliberately did nothing.”
Bottom line
The unsealed Zuckerberg email matters less as a “gotcha” and more as a clue about incentives.
If doing serious internal safety and social-issues research reliably turns into reputational and legal exposure, companies will do less of it — and the public will get
visibility into real risks.
The policy goal shouldn’t be to shame platforms for having research. It should be to demand measurable improvements
and
create incentives that make responsible measurement the default, not the exception.
Sources
https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/
Previous Post
→ Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Copyright © 2026 Rill.blog
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Document Title
Page not found - Rill.blog
Image Alt
Rill.blog
Title Attribute
Rill.blog » Feed
RSD
Skip to content
Placeholder Attribute
Search...
Email address
Page Content
Page not found - Rill.blog
Skip to content
Home
Read Now
Urdu Novels
Mukhtasar Kahanian
Urdu Columns
Main Menu
This page doesn't seem to exist.
It looks like the link pointing here was faulty. Maybe try searching?
Search for:
Search
Get all the latest news and info sent to your inbox.
Please enable JavaScript in your browser to complete this form.
Email
*
Subscribe
Categories
Copyright © 2025 Rill.blog
English
العربية
Čeština
Dansk
Nederlands
Eesti
Suomi
Français
Deutsch
Ελληνικά
Magyar
Bahasa Indonesia
Italiano
日本語
한국어
Latviešu valoda
Lietuvių kalba
Norsk bokmål
Polski
Português
Română
Русский
Slovenčina
Slovenščina
Español
Svenska
ไทย
Türkçe
Українська
Tiếng Việt
Notifications
Rill.blog
Rill.blog » Feed
RSD
Search...
Email address
l Slovenčina