De openbaar gemaakte e-mail van Zuckerberg roept een ongemakkelijke vraag op: zouden platformen minder onderzoek moeten doen naar de schade die ze aanrichten?

Een van de vreemdste stimulansen in het moderne technologiebeleid is...onderzoek paradoxDe bedrijven die intern het meeste werk verzetten om de schade te meten, kunnen uiteindelijk als de grootste boosdoeners worden gezien, simpelweg omdat ze over de meeste data beschikken – en omdat die data kunnen lekken, opgevraagd kunnen worden via een dagvaarding of openbaar gemaakt kunnen worden in de rechtbank.

Die paradox staat centraal in een onlangs openbaar gemaakte interne e-mail van Meta, zo meldt de redactie.The Vergewaarin Mark Zuckerberg suggereert dat het bedrijf zijn aanpak van "onderzoek en analyses rond sociale kwesties" zou moeten herzien, nadat interne bevindingen (met name over het welzijn van tieners op Instagram) in 2021 veel media-aandacht kregen.

Dit is niet zomaar een verhaal over interne PR-management. Het geeft inzicht in hoe sociale platforms denken over verantwoording – en hoe de dreiging van rechtszaken en lekken bepaalt wat er gemeten wordt, wat er gepubliceerd wordt en waarover nooit vragen gesteld worden.

Hieronder volgt een praktische uitleg van de inhoud van de e-mail, waarom deze van belang is en hoe een gezondere beloningsstructuur eruit zou kunnen zien.

Wat de openbaar gemaakte e-mail daadwerkelijk onthulde

Volgens de berichtgeving schreef Zuckerberg op 15 september 2021 aan hoge functionarissen – een dag nadat een artikel in de Wall Street Journal, gebaseerd op interne documenten (die later in verband werden gebracht met klokkenluider Frances Haugen), het onderzoek van Meta naar tienermeisjes en Instagram onder de aandacht bracht.

Het belangrijkste punt was niet "Meta heeft onderzoek gedaan". Veel grote platforms hebben onderzoeksteams. Opvallend is dat de CEO expliciet een verband legde.proactief onderzoek doen naar maatschappelijke vraagstukkenmethet creëren van aansprakelijkheden en reputatierisico'swanneer de bevindingen openbaar worden gemaakt.

De e-mail is in essentie als volgt opgebouwd:

  • We bestuderen gevoelige onderwerpen (veiligheid van tieners, geestelijke gezondheid, kinderuitbuiting, desinformatie, enz.).
  • Als onze bevindingen uitlekken of in de media verschijnen, kan het publieke debat omslaan in: "Jullie wisten ervan en jullie hebben er niets aan gedaan."
  • Sommige concurrenten lijken dat wel te doen.minderProactief onderzoek doen — en daardoor minder documenten creëren die tegen hen gebruikt kunnen worden.

Dat is een ongemakkelijk, maar reëel bestuursprobleem: als "het probleem meten en documenteren" de operationele kosten verhoogt, ontstaat er een ingebouwde prikkel om minder te meten.

De paradox in onderzoek: wanneer transparantie een concurrentienadeel wordt.

In een wereld waarin platforms onder de loep worden genomen door toezichthouders, journalisten en rechtbanken, kun je je twee algemene strategieën voorstellen:

  1. De studie brengt grote schade toe.en interne dashboards, experimenten en evaluaties opzetten.
  2. De studie brengt minimale schade toe.Focus op strikte nalevingsvereisten en vermijd het produceren van documenten die "slecht klinken".

Als het nadeel van strategie (1) is dat er vindbaar materiaal ontstaat — e-mails, presentaties, resultaten van experimenten — dan kan een rationele bedrijfsspeler overstappen op strategie (2), zelfs als strategie (1) beter is voor de gebruikers.

Dat is geen pleidooi voor minder onderzoek. Het is een uitleg van de drijfveer.

De beleidsuitdaging is het ontwerpen van een systeem waarin de aanpak "doe het juiste" (schade onderzoeken en op basis van de bevindingen handelen) niet zelfbestraffend wordt.

Waarom Meta's e-mail nu opduikt: rechtszaken en bewijsvergaring

De e-mail werd openbaar gemaakt nadat deze in het kader van een gerechtelijke procedure was verzameld door het Openbaar Ministerie van New Mexico. In deze zaak wordt Meta ervan beschuldigd Facebook en Instagram op misleidende wijze als veilig voor tieners te hebben voorgesteld, terwijl het bedrijf zich bewust was van schadelijke ontwerpkeuzes.

Die zaak past in een bredere golf van rechtszaken en wetgevende druk gericht op de veiligheid van kinderen, de geestelijke gezondheid van jongeren en productaansprakelijkheidstheorieën voor sociale platforms. Ongeacht de uitkomst van een individuele zaak, is het proces van belang: de bewijsvergaring zet interne discussies om in openbaar bewijsmateriaal.

Dat heeft twee indirecte gevolgen:

  • Het geeft vorm aan toekomstig intern schrijven.Directieleden worden niet alleen voorzichtiger met wat ze doen, maar ook met hoe ze het beschrijven.
  • Het geeft richting aan toekomstig onderzoek.Als een onderzoek waarschijnlijk politiek explosieve grafieken zal opleveren, zal iemand zich afvragen of het überhaupt de moeite waard is om het uit te voeren.

“Apple lijkt zich niet met dit soort dingen bezig te houden”: wat is het argument hier?

De e-mail zou een vergelijking trekken met Apple en suggereren dat Apple deze kwesties niet op dezelfde manier lijkt te bestuderen en daardoor veel kritiek ontloopt.

Ook al is die vergelijking onvolledig (Apple publiceert wel degelijk informatie over beveiliging en privacy, en het bedrijf staat op andere gebieden onder intense druk), de onderliggende strekking is dat het hier om het volgende gaat:productcategorie en risicooppervlak:

  • Sociale platforms bevatten enorme hoeveelheden door gebruikers gegenereerde content, waaronder beledigende content.
  • Berichtensystemen (met name end-to-end versleutelde systemen) beperken structureel wat de provider kan inspecteren.
  • Platformen kunnen de verantwoordelijkheid afschuiven op lager niveau ("dit is wat gebruikers op hun apparaten doen"), terwijl sociale media meer neigen naar redactionele versterking.

De vraag "waarom krijgen ze minder warmte?" heeft dus een niet te verwaarlozen technische component.

Het kindveiligheidsperspectief: een hoog aantal meldingen kan op schuldgevoel duiden.

Een van de argumenten in de berichtgeving is dat Meta erop wijst dat het veel materiaal over seksueel misbruik van kinderen (CSAM) meldt aan het National Center for Missing and Exploited Children (NCMEC) — en dat dit hoge meldingsvolume kan worden geïnterpreteerd als "er is meer misbruik op Meta", zelfs als een deel van de reden ismeer opsporing en rapportage.

De eigen openbare gegevens van NCMEC illustreren de complexiteit van die interpretatie. Zo merkt NCMEC bijvoorbeeld op dat het in 2024 20,5 miljoen meldingen ontving (29,2 miljoen incidenten na correctie), en beschrijft het ook veranderingen zoals het 'bundelen' van meldingen die het absolute aantal kunnen verlagen zonder dat dit impliceert dat er minder misbruik plaatsvindt.

Het tellen van aantallen alleen is een bot instrument. Waar het om gaat istarieven,detectiedekking, Envervolgresultaten:

  • Hoe snel worden accounts verwijderd?
  • Worden de daders geïdentificeerd en overgedragen aan de politie?
  • Hoe vaak worden minderjarigen proactief beschermd (bijvoorbeeld door contactmogelijkheden te beperken of de toegang van volwassenen te beperken)?
  • Hoe verhouden vals-positieve en vals-negatieve resultaten zich tot elkaar?

Wanneer het publieke debat zich alleen richt op "wie het grootste aantal heeft", kunnen bedrijven ertoe worden aangezet om cijfers te onderrapporteren of te ondermeten.

Waarom minder onderzoek doen slecht zou zijn — zelfs voor Meta

Als je de bezorgdheid in de e-mail letterlijk neemt, is de "oplossing" om minder te studeren verleidelijk: minder onderzoeken, minder presentaties, minder dagvaardingen.

Maar het werkt ook averechts.

1) Je kunt niet verbeteren wat je niet meet.

Veel problemen met de veiligheid van platformen zijn systeemproblemen – veroorzaakt door ranking, aanbevelingen, contactmechanismen en groeiprocessen die misbruik in de hand werken. Die problemen lossen zich niet op met één beleidsverklaring. Ze vereisen meting.

Zonder intern onderzoek en analyses wordt de "veiligheidspositie" van het bedrijf:

  • reactief (reageren op schandalen)
  • anekdotisch (geloof de luidste klachten)
  • niet controleerbaar (geen basisgegevens, geen evaluatie)

2) Toezichthouders zullen sowieso bewijs eisen.

Zelfs als een bedrijf probeert gevoelig onderzoek te vermijden, kunnen toezichthouders nog steeds transparantierapporten, risicobeoordelingen en controleerbaarheid eisen. Met andere woorden: als u het bewijsmateriaal niet vrijwillig aanlevert, kan iemand anders u ertoe dwingen – en dan moet u dat onder druk doen.

3) Je verliest het vermogen om onderscheid te makenafwegingenvannalatigheid

Een belangrijk thema in de e-mail is dat niet alle aanbevelingen redelijk zijn om te implementeren, omdat aan alles compromissen verbonden zijn.

Dat klopt. Maar de enige geloofwaardige manier om te beargumenteren "we hebben X overwogen en voor Y gekozen omdat..." is door je berekeningen te laten zien. Anders komt het over als een loze belofte.

Onderzoek is wat "vertrouw ons maar" omzet in "hier is het model, het experiment, de gemeten uitkomst en het besluitdocument."

Het dieperliggende probleem: rechtszaken veranderen interne openheid in een aansprakelijkheidsrisico.

Een gezonde organisatie streeft naar openheid: "Deze functie kan schadelijk zijn", "Deze groep loopt risico", "Deze indicator ziet er slecht uit", "We moeten de ranking aanpassen".

Maar rechtszaken en lekken kunnen openhartigheid op twee manieren bestraffen:

  • Selectie-effect:Directieleden stoppen met het opschrijven van gevoelige gedachten.
  • Cultureel effect:Teams vermijden vragen die tot "verkeerde" antwoorden zouden kunnen leiden.

Beide effecten verslechteren het platform.

En dit is niet uniek voor Meta; het is een algemeen probleem voor elk bedrijf dat actief is op het snijvlak van consumententechnologie en openbare veiligheid.

Hoe zouden betere stimulansen eruitzien?

Als de maatschappij platforms wil gebruiken om schade te meten en te verminderen, moet ze ervoor zorgen dat die weg begaanbaar is.

Enkele praktische ideeën die regelmatig terugkomen in beleidskringen:

1) Veilige haven voor intern veiligheidsonderzoek te goeder trouw

Stel je een raamwerk voor waarin bedrijven beperkte bescherming krijgen wanneer ze gedocumenteerd en te goeder trouw onderzoek doen naar schadelijke gevolgen en op basis van de bevindingen zinvolle stappen ondernemen – vergelijkbaar met de manier waarop sommige veiligheidskritische sectoren omgaan met incidentrapportage.

Dit betekent niet dat je immuniteit krijgt voor wangedrag. Het betekent dat de prikkel om wangedrag te plegen wordt verminderd.Bewust onwetend blijven.

2) Gestandaardiseerde, gecontroleerde rapportage (zodat vergelijkingen eerlijk zijn)

Als elk platform veiligheidsstatistieken rapporteert met behulp van verschillende definities, worden ruwe cijfers misbruikt.

Standaarddefinities, audits door derden en duidelijkere noemers (cijfers per gebruiker, cijfers per bericht, cijfers per weergave) zouden ervoor zorgen dat "we hebben meer gerapporteerd" minder een PR-valkuil wordt.

3) Scheiding tussen veiligheidsonderzoek en stimuleringsmaatregelen voor productgroei

Wanneer veiligheidsonderzoek binnen dezelfde hiërarchie valt als groeidoelstellingen, kan dat politiek gezien onwenselijk worden.

Structurele scheiding – ook al is er geen sprake van volledige onafhankelijkheid – kan ervoor zorgen dat er steeds weer vragen over de veiligheid gesteld worden.

4) Betere publieke kennis over de betekenis van meetgegevens

In het publieke debat wordt intern onderzoek vaak als een bekentenis beschouwd.

Soms wel. Maar soms is het juist andersom: een teken dat het bedrijf op zoek is naar een nieuwe collega.

Een meer volwassen lees- en schrijfvaardigheid zou de volgende vraag stellen:

  • Werd de schade op een verantwoorde manier gemeten?
  • Werden de bevindingen onder passend toezicht gedeeld?
  • Welke maatregelen werden getest?
  • Wat veranderde er als gevolg daarvan?

Wat je hierna kunt kijken

De e-mail is slechts één artefact. Het bredere verhaal draait om de spanning tussen drie krachten:

  • Transparantie:We willen weten wat platformen weten.
  • Verantwoordelijkheid:We willen consequenties zien wanneer schadelijke praktijken worden genegeerd.
  • Leersystemen:We hebben platforms nodig om te blijven meten en verbeteren.

Wanneer die krachten niet op elkaar zijn afgestemd, kan het evenwichtsresultaat averechts uitpakken: minder meting, minder openheid en tragere verbetering – terwijl de publieke woede juist toeneemt.

De beste versie van het internet is er niet een waarin platforms hun eigen onderzoek verbergen. Het is er een waarin intern onderzoek routinematig is, gecontroleerd wordt en gebruikt wordt om productverbeteringen door te voeren — en waarin het juridische en politieke systeem onderscheid kan maken tussen "we hebben de schade onderzocht en verbeteringen aangebracht" en "we hebben de schade onderzocht en opzettelijk niets gedaan".

Kortom

De openbaar gemaakte e-mail van Zuckerberg is minder belangrijk als bewijs van schuld, maar geeft meer inzicht in de beweegredenen van de betrokkenen.

Als serieus onderzoek naar interne veiligheid en maatschappelijke vraagstukken consequent leidt tot reputatieschade en juridische problemen, zullen bedrijven er minder van doen – en het publiek profiteert ervan.minderinzicht in reële risico's.

Het beleidsdoel zou niet moeten zijn om platforms te beschamen omdat ze onderzoek doen. Het zou moeten zijn om meetbare verbeteringen te eisen.EnCreëer prikkels die ervoor zorgen dat verantwoord meten de norm wordt, en niet de uitzondering.


Bronnen

Document Title
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Title Attribute
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Page Content
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
Blog
/
General
/ By
Abdul Jabbar
One of the stranger incentives in modern tech policy is the
research paradox
: the companies that do the most internal work to measure harms can end up looking like the worst actors, simply because they have the most data — and because that data can leak, be subpoenaed, or be unsealed in court.
That paradox is at the center of a newly unsealed internal Meta email, reported by
The Verge
, in which Mark Zuckerberg suggests the company consider changing its approach to “research and analytics around social issues” after media coverage of internal findings (notably around teen wellbeing on Instagram) blew up in 2021.
This isn’t just an inside-baseball story about PR management. It’s a window into how social platforms think about accountability — and how the threat of litigation and leaks can shape what gets measured, what gets published, and what never gets asked.
Below is a practical explainer of what the email said, why it matters, and what a healthier incentive structure might look like.
What the unsealed email actually revealed
According to the reporting, Zuckerberg wrote to senior executives on September 15, 2021 — a day after a Wall Street Journal story based on internal documents (later tied to whistleblower Frances Haugen) highlighted Meta’s own research about teen girls and Instagram.
The key point wasn’t “Meta did research.” Many large platforms have research teams. The striking part is that the CEO explicitly connected
doing proactive social-issues research
with
creating liabilities and reputational risks
when findings become public.
The email’s framing is essentially:
We study sensitive issues (teen safety, mental health, child exploitation, misinformation, etc.).
When our findings leak or are reported out, the public narrative can turn into: “You knew, and you didn’t fix it.”
Some peer companies appear to do
less
proactive research — and therefore create fewer documents that can be used against them.
That’s an uncomfortable but real governance issue: if “measure and document the problem” increases the cost of operating, there’s a built-in incentive to measure less.
The research paradox: when transparency becomes a competitive disadvantage
In a world where platforms are scrutinized by regulators, journalists, and courts, you can imagine two broad strategies:
Study harms deeply
and build internal dashboards, experiments, and postmortems.
Study harms minimally
, focus on narrow compliance requirements, and avoid producing “bad-sounding” documents.
If the downside of strategy (1) is that it creates discoverable material — emails, slide decks, experiment readouts — then a rational corporate actor may drift toward strategy (2), even if strategy (1) is better for users.
That is not a defense of doing less research. It’s an explanation of the incentive.
The policy challenge is to design a system where the “do the responsible thing” approach (studying harms and acting on findings) does not become self-punishing.
Why Meta’s email is surfacing now: lawsuits and discovery
The email was unsealed after being collected in discovery by the New Mexico Attorney General’s office in a case alleging Meta deceptively positioned Facebook and Instagram as safe for teens while being aware of harmful design choices.
That case sits alongside a broader wave of litigation and legislative pressure focused on child safety, youth mental health, and product liability theories for social platforms. Regardless of how any single case turns out, the process matters: discovery turns internal debate into public evidence.
That has two second-order effects:
It shapes future internal writing.
Executives become cautious not only about what they do, but how they describe it.
It shapes future research.
If a study is likely to generate politically explosive charts, someone will ask whether it’s worth doing at all.
“Apple doesn’t seem to study any of this stuff”: what’s the argument here?
The email reportedly draws a comparison to Apple, suggesting Apple “doesn’t seem to study” these issues in the same way and therefore avoids a lot of the criticism.
Even if that comparison is incomplete (Apple does publish security and privacy material, and it faces intense scrutiny in other domains), the underlying point is about
product category and risk surface
:
Social platforms host massive volumes of user-generated content, including abusive content.
Messaging products (especially end-to-end encrypted ones) structurally limit what the provider can inspect.
Device platforms can push responsibility downward (“this is what users do on their devices”) while social feeds sit closer to editorial-like amplification.
So the “why do they get less heat?” question has a nontrivial technical component.
The child safety lens: reporting volume can look like guilt
One line of argument in the reporting is that Meta points to the fact that it reports a lot of child sexual abuse material (CSAM) to the National Center for Missing and Exploited Children (NCMEC) — and that high reporting volume can be interpreted as meaning “there’s more abuse on Meta,” even when part of the reason is
more detection and reporting
.
NCMEC’s own public data helps illustrate the complexity of that interpretation. For example, NCMEC notes that in 2024 it received 20.5 million reports (29.2 million incidents when adjusted), and it also describes changes like report “bundling” that can reduce raw counts without implying less underlying abuse.
Counts alone are a blunt tool. What matters is
rates
,
detection coverage
, and
downstream outcomes
How quickly are accounts taken down?
Are perpetrators identified and referred to law enforcement?
How often are minors proactively protected (e.g., restricting contact features, limiting adult reach)?
How do false positives and false negatives trade off?
When the public debate focuses only on “who has the biggest number,” companies can be pushed toward under-reporting or under-measuring.
Why doing less research would be bad — even for Meta
If you take the email’s concern at face value, the “solution” of studying less is seductive: fewer studies, fewer slides, fewer subpoenas.
But it’s also self-defeating.
1) You can’t improve what you don’t measure
Many platform safety problems are systems problems — created by ranking, recommendations, contact mechanics, and abuse-adjacent growth loops. Those aren’t fixed with a single policy statement. They require measurement.
Without internal research and analytics, the company’s “safety posture” becomes:
reactive (respond to scandals)
anecdotal (trust what the loudest complaints say)
non-auditable (no baselines, no evaluation)
2) Regulators will demand evidence anyway
Even if a company tries to avoid sensitive research, regulators can still require transparency reports, risk assessments, and auditability. In other words: if you don’t generate the evidence voluntarily, someone else may force you to generate it — and now you have to do it under pressure.
3) You lose the ability to distinguish
tradeoffs
from
negligence
A major theme in the email is that not all recommendations are reasonable to implement because everything has tradeoffs.
That’s true. But the only credible way to argue “we considered X and chose Y because…” is to show your work. Otherwise, it can look like hand-waving.
Research is what turns “trust us” into “here’s the model, the experiment, the measured outcome, and the decision memo.”
The deeper issue: litigation turns internal candor into a liability
A healthy organization wants candor: “This feature might be harmful,” “This cohort is at risk,” “This metric looks bad,” “We need to change ranking.”
But litigation and leak dynamics can punish candor in two ways:
Selection effect:
executives stop putting sensitive thoughts in writing.
Cultural effect:
teams avoid questions that might produce “bad” answers.
Both effects make the platform worse.
And this isn’t unique to Meta — it’s a general problem for any company operating at the intersection of consumer tech and public safety.
What would better incentives look like?
If society wants platforms to measure and reduce harms, it needs to make that path survivable.
A few practical ideas that show up repeatedly in policy circles:
1) Safe harbors for good-faith internal safety research
Imagine a framework where companies get a limited protection when they conduct documented, good-faith research into harms and take meaningful steps based on findings — similar in spirit to how some safety-critical industries handle incident reporting.
This doesn’t mean immunity for wrongdoing. It means reducing the incentive to
stay ignorant on purpose
2) Standardized, audited reporting (so comparisons are fair)
If every platform reports safety metrics using different definitions, raw numbers become weaponized.
Standard definitions, third-party audits, and clearer denominators (rates per user, rates per message, rates per view) would make “we reported more” less of a PR trap.
3) Separation between safety research and product growth incentives
When safety research sits inside the same chain of command as growth targets, it can become politically inconvenient.
Structural separation — even if not full independence — can help ensure safety questions keep getting asked.
4) Better public literacy about what metrics mean
The public conversation often treats internal research like a confession.
Sometimes it is. But sometimes it’s the opposite: a sign the company is looking.
A more mature literacy would ask:
Was the harm measured responsibly?
Were the findings shared with appropriate oversight?
What mitigations were tested?
What changed as a result?
What to watch next
The email is one artifact. The broader story is the tension between three forces:
Transparency:
we want to know what platforms know.
Accountability:
we want consequences when harms are ignored.
Learning systems:
we need platforms to keep measuring and improving.
When those forces are misaligned, the equilibrium outcome can be perverse: less measurement, less candor, and slower improvement — even while public anger increases.
The best version of the internet is not one where platforms hide their own research. It’s one where internal research is routine, audited, and used to drive product changes — and where the legal and political system can distinguish between “we studied the harm and improved” and “we studied the harm and deliberately did nothing.”
Bottom line
The unsealed Zuckerberg email matters less as a “gotcha” and more as a clue about incentives.
If doing serious internal safety and social-issues research reliably turns into reputational and legal exposure, companies will do less of it — and the public will get
visibility into real risks.
The policy goal shouldn’t be to shame platforms for having research. It should be to demand measurable improvements
and
create incentives that make responsible measurement the default, not the exception.
Sources
https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/
Previous Post
→ Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Copyright © 2026 Rill.blog
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Document Title
Page not found - Rill.blog
Image Alt
Rill.blog
Title Attribute
Rill.blog » Feed
RSD
Skip to content
Placeholder Attribute
Search...
Email address
Page Content
Page not found - Rill.blog
Skip to content
Home
Read Now
Urdu Novels
Mukhtasar Kahanian
Urdu Columns
Main Menu
This page doesn't seem to exist.
It looks like the link pointing here was faulty. Maybe try searching?
Search for:
Search
Get all the latest news and info sent to your inbox.
Please enable JavaScript in your browser to complete this form.
Email
*
Subscribe
Categories
Copyright © 2025 Rill.blog
English
العربية
Čeština
Dansk
Nederlands
Eesti
Suomi
Français
Deutsch
Ελληνικά
Magyar
Bahasa Indonesia
Italiano
日本語
한국어
Latviešu valoda
Lietuvių kalba
Norsk bokmål
Polski
Português
Română
Русский
Slovenčina
Slovenščina
Español
Svenska
ไทย
Türkçe
Українська
Tiếng Việt
Notifications
Rill.blog
Rill.blog » Feed
RSD
Search...
Email address
e Nederlands