Le courriel déclassifié de Zuckerberg soulève une question gênante : les plateformes devraient-elles moins étudier leurs effets néfastes ?

L'une des incitations les plus étranges des politiques technologiques modernes est laparadoxe de la rechercheLes entreprises qui effectuent le plus de travail interne pour mesurer les préjudices peuvent finir par apparaître comme les pires acteurs, simplement parce qu'elles possèdent le plus de données — et parce que ces données peuvent fuiter, faire l'objet d'une citation à comparaître ou être descellées devant un tribunal.

Ce paradoxe est au cœur d'un courriel interne de Meta récemment déclassifié, rapporté parThe Verge, dans lequel Mark Zuckerberg suggère que l'entreprise envisage de modifier son approche en matière de « recherche et d'analyse des questions sociales » après que la couverture médiatique des conclusions internes (notamment concernant le bien-être des adolescents sur Instagram) ait explosé en 2021.

Il ne s'agit pas simplement d'un article sur les coulisses de la gestion des relations publiques. C'est un aperçu de la façon dont les plateformes sociales conçoivent la responsabilité, et comment la menace de poursuites et de fuites peut influencer ce qui est mesuré, ce qui est publié et ce qui n'est jamais demandé.

Vous trouverez ci-dessous une explication pratique du contenu du courriel, de son importance et de ce à quoi pourrait ressembler une structure d'incitation plus saine.

Ce que le courriel déclassifié a réellement révélé

Selon ces informations, Zuckerberg a écrit aux cadres supérieurs le 15 septembre 2021, soit le lendemain d'un article du Wall Street Journal basé sur des documents internes (liés plus tard à la lanceuse d'alerte Frances Haugen) qui mettait en lumière les propres recherches de Meta sur les adolescentes et Instagram.

L'essentiel n'était pas que « Meta ait mené des recherches ». De nombreuses grandes plateformes disposent d'équipes de recherche. Ce qui est frappant, c'est que le PDG ait explicitement fait le lien.mener des recherches proactives sur les enjeux sociauxaveccréation de passifs et de risques de réputationlorsque les résultats sont rendus publics.

La structure du courriel est essentiellement la suivante :

  • Nous étudions des sujets sensibles (sécurité des adolescents, santé mentale, exploitation des enfants, désinformation, etc.).
  • Lorsque nos conclusions font l'objet de fuites ou sont rendues publiques, le discours public peut se transformer en : « Vous le saviez et vous n'avez rien fait pour y remédier. »
  • Certaines entreprises comparables semblent le fairemoinsLa recherche proactive permet ainsi de produire moins de documents susceptibles d'être utilisés contre eux.

Il s'agit là d'un problème de gouvernance délicat mais bien réel : si le fait de « mesurer et documenter le problème » augmente les coûts d'exploitation, il existe une incitation intrinsèque à mesurer moins.

Le paradoxe de la recherche : quand la transparence devient un désavantage concurrentiel

Dans un monde où les plateformes sont scrutées par les autorités de régulation, les journalistes et les tribunaux, on peut imaginer deux grandes stratégies :

  1. Les études sont profondément néfasteset créer des tableaux de bord internes, des expériences et des analyses post-mortem.
  2. Les effets néfastes de l'étude sont minimes, concentrez-vous sur des exigences de conformité précises et évitez de produire des documents qui « sonnent mal ».

Si l’inconvénient de la stratégie (1) est qu’elle crée du matériel découvrable — courriels, présentations, comptes rendus d’expériences —, alors un acteur rationnel de l’entreprise peut dériver vers la stratégie (2), même si la stratégie (1) est meilleure pour les utilisateurs.

Il ne s'agit pas de justifier le fait de faire moins de recherches, mais d'expliquer ce qui motive ces recherches.

Le défi politique consiste à concevoir un système où l’approche « agir de manière responsable » (étudier les préjudices et agir en fonction des conclusions) ne devienne pas auto-punissante.

Pourquoi les courriels de Meta refont surface maintenant : poursuites judiciaires et procédure de découverte

Le courriel a été descellé après avoir été recueilli dans le cadre d'une enquête menée par le bureau du procureur général du Nouveau-Mexique, dans une affaire où Meta aurait présenté de manière trompeuse Facebook et Instagram comme étant sûrs pour les adolescents, tout en étant consciente de choix de conception préjudiciables.

Cette affaire s'inscrit dans un contexte plus large de litiges et de pressions législatives axés sur la sécurité des enfants, la santé mentale des jeunes et la responsabilité du fait des produits pour les plateformes sociales. Quel que soit le dénouement de chaque affaire, la procédure est essentielle : la phase de découverte des preuves transforme les débats internes en éléments de preuve publics.

Cela a deux effets de second ordre :

  • Cela influence les futurs écrits internes.Les dirigeants deviennent prudents non seulement sur ce qu'ils font, mais aussi sur la manière dont ils le décrivent.
  • Elle oriente les recherches futures.Si une étude est susceptible de générer des graphiques politiquement explosifs, quelqu'un se demandera si elle vaut vraiment la peine d'être menée.

« Apple ne semble pas se pencher sur ces questions » : quel est l'argument ici ?

Le courriel établirait une comparaison avec Apple, suggérant qu'Apple « ne semble pas étudier » ces questions de la même manière et échappe ainsi à une grande partie des critiques.

Même si cette comparaison est incomplète (Apple publie des documents sur la sécurité et la confidentialité, et fait l'objet d'un examen minutieux dans d'autres domaines), l'idée principale est la suivante :catégorie de produit et surface à risque:

  • Les plateformes sociales hébergent des volumes massifs de contenu généré par les utilisateurs, y compris du contenu abusif.
  • Les produits de messagerie (en particulier ceux chiffrés de bout en bout) limitent structurellement ce que le fournisseur peut inspecter.
  • Les plateformes d'appareils peuvent se décharger de leur responsabilité sur les utilisateurs (« voici ce que font les utilisateurs sur leurs appareils ») tandis que les flux sociaux s'apparentent davantage à une amplification de type éditorial.

La question « pourquoi reçoivent-ils moins de chaleur ? » comporte donc une composante technique non négligeable.

Le point de vue de la protection de l'enfance : le volume de signalements peut être perçu comme un signe de culpabilité

Un des arguments avancés dans le rapport est que Meta souligne le fait qu'elle signale un grand nombre de contenus pédopornographiques au Centre national pour les enfants disparus et exploités (NCMEC) — et que ce volume élevé de signalements peut être interprété comme signifiant « il y a plus d'abus sur Meta », même si une partie de la raison estdétection et signalement accrus.

Les données publiques du NCMEC permettent d'illustrer la complexité de cette interprétation. Par exemple, le NCMEC indique avoir reçu 20,5 millions de signalements en 2024 (soit 29,2 millions d'incidents après ajustement) et décrit également des changements tels que le regroupement des signalements, qui peuvent réduire le nombre brut de signalements sans pour autant indiquer une diminution des abus sous-jacents.

Les décomptes seuls ne sont qu'un outil grossier. Ce qui compte, c'esttaux,couverture de détection, etrésultats en aval:

  • À quelle vitesse les comptes sont-ils supprimés ?
  • Les auteurs de ces actes sont-ils identifiés et déférés aux forces de l'ordre ?
  • À quelle fréquence les mineurs sont-ils protégés de manière proactive (par exemple, en limitant les fonctionnalités de contact, en restreignant la portée des adultes) ?
  • Comment s'équilibrent les faux positifs et les faux négatifs ?

Lorsque le débat public se concentre uniquement sur « qui a le chiffre le plus élevé », les entreprises peuvent être incitées à sous-déclarer ou à sous-mesurer leurs résultats.

Pourquoi faire moins de recherches serait une mauvaise chose — même pour Meta

Si l'on prend au pied de la lettre l'inquiétude exprimée dans le courriel, la « solution » consistant à étudier moins est séduisante : moins d'études, moins de diapositives, moins de citations à comparaître.

Mais c'est aussi contre-productif.

1) On ne peut améliorer ce qu'on ne mesure pas.

De nombreux problèmes de sécurité des plateformes sont des problèmes systémiques, engendrés par le classement, les recommandations, les mécanismes de contact et les cercles vicieux de croissance propices aux abus. Une simple déclaration de politique ne saurait les résoudre ; une évaluation s’impose.

Sans recherche et analyse internes, la « posture de sécurité » de l’entreprise devient :

  • réactif (réagir aux scandales)
  • anecdotique (fiez-vous à ce que disent les plus virulents mécontents)
  • non auditable (pas de données de référence, pas d'évaluation)

2) Les organismes de réglementation exigeront de toute façon des preuves.

Même si une entreprise tente d'éviter les recherches sensibles, les autorités réglementaires peuvent exiger des rapports de transparence, des évaluations des risques et une auditabilité. Autrement dit : si vous ne fournissez pas volontairement les éléments de preuve, quelqu'un d'autre peut vous y contraindre, et vous devrez alors le faire sous la pression.

3) Vous perdez la capacité de distinguercompromisdepuisnégligence

Un thème majeur de ce courriel est que toutes les recommandations ne sont pas raisonnables à mettre en œuvre car tout comporte des compromis.

C'est vrai. Mais la seule façon crédible d'affirmer « nous avons envisagé X et choisi Y parce que… » est de détailler son raisonnement. Sinon, cela peut paraître superficiel.

La recherche est ce qui transforme le « faites-nous confiance » en « voici le modèle, l'expérience, le résultat mesuré et la note de décision ».

Le problème de fond : les litiges transforment la franchise interne en un handicap.

Une organisation saine privilégie la franchise : « Cette fonctionnalité pourrait être nuisible », « Ce groupe est à risque », « Cet indicateur est mauvais », « Nous devons modifier le classement. »

Mais les litiges et les fuites d'informations peuvent punir la franchise de deux manières :

  • Effet de sélection :Les cadres supérieurs cessent de mettre leurs pensées sensibles par écrit.
  • Effet culturel :Les équipes évitent les questions susceptibles de produire de « mauvaises » réponses.

Ces deux effets aggravent la situation de la plateforme.

Et ce problème n'est pas propre à Meta ; il s'agit d'un problème général pour toute entreprise opérant à la croisée des chemins entre la technologie grand public et la sécurité publique.

À quoi ressembleraient de meilleures incitations ?

Si la société souhaite que des plateformes permettent de mesurer et de réduire les préjudices, elle doit rendre ce processus viable.

Voici quelques idées pratiques qui reviennent régulièrement dans les cercles politiques :

1) Zones de sécurité pour la recherche interne de sécurité menée de bonne foi

Imaginez un cadre dans lequel les entreprises bénéficient d'une protection limitée lorsqu'elles mènent des recherches documentées et de bonne foi sur les préjudices et prennent des mesures concrètes en fonction des résultats – un principe similaire à celui utilisé par certaines industries critiques pour la sécurité pour signaler les incidents.

Cela ne signifie pas l'impunité pour les actes répréhensibles. Cela signifie réduire l'incitation àRestez volontairement ignorant.

2) Des rapports normalisés et audités (pour que les comparaisons soient équitables)

Si chaque plateforme communique ses indicateurs de sécurité en utilisant des définitions différentes, les chiffres bruts deviennent une arme.

Des définitions standardisées, des audits par des tiers et des dénominateurs plus clairs (taux par utilisateur, taux par message, taux par vue) permettraient de réduire le risque que l'affirmation « nous avons déclaré plus » devienne un piège en matière de relations publiques.

3) Séparation entre la recherche en matière de sécurité et les incitations à la croissance des produits

Lorsque la recherche en matière de sécurité se trouve dans la même chaîne de commandement que les objectifs de croissance, cela peut devenir politiquement gênant.

La séparation structurelle — même si elle n'implique pas une indépendance totale — peut contribuer à garantir que les questions de sécurité continuent d'être posées.

4) Une meilleure compréhension, par le public, de la signification des indicateurs

Le débat public traite souvent les recherches internes comme des aveux.

Parfois oui. Mais parfois c'est le contraire : un signe que l'entreprise est à l'affût.

Une culture littéraire plus mature demanderait :

  • Le préjudice a-t-il été mesuré de manière responsable ?
  • Les conclusions ont-elles été communiquées sous une supervision appropriée ?
  • Quelles mesures d'atténuation ont été testées ?
  • Qu'est-ce qui a changé en conséquence ?

Que regarder ensuite ?

Le courriel n'est qu'un élément parmi d'autres. Le problème plus vaste réside dans la tension entre trois forces :

  • Transparence:Nous voulons savoir ce que les plateformes savent.
  • Responsabilité:Nous voulons des conséquences lorsque les préjudices sont ignorés.
  • Systèmes d'apprentissage :Nous avons besoin de plateformes pour continuer à mesurer et à améliorer.

Lorsque ces forces sont désalignées, l'équilibre qui en résulte peut être pervers : moins de mesures, moins de franchise et une amélioration plus lente — alors même que la colère du public augmente.

L'idéal d'Internet n'est pas celui où les plateformes dissimulent leurs propres recherches. C'est celui où la recherche interne est systématique, auditée et sert à orienter les changements de produits, et où le système juridique et politique peut faire la distinction entre « nous avons étudié les conséquences néfastes et apporté des améliorations » et « nous avons étudié les conséquences néfastes et délibérément n'avons rien fait ».

En résumé

Le courriel de Zuckerberg désormais confidentiel est moins important en tant que «piège» qu'en tant qu'indice sur les motivations.

Si les recherches approfondies menées en interne sur la sécurité et les enjeux sociaux entraînent systématiquement des atteintes à la réputation et des poursuites judiciaires, les entreprises y consacreront moins de temps – et le public en subira les conséquences.moinsvisibilité sur les risques réels.

L’objectif politique ne devrait pas être de stigmatiser les plateformes qui mènent des recherches. Il devrait être d’exiger des améliorations mesurables.etCréer des incitations qui fassent de la mesure responsable la norme, et non l'exception.


Sources

Document Title
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Title Attribute
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Page Content
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
Blog
/
General
/ By
Abdul Jabbar
One of the stranger incentives in modern tech policy is the
research paradox
: the companies that do the most internal work to measure harms can end up looking like the worst actors, simply because they have the most data — and because that data can leak, be subpoenaed, or be unsealed in court.
That paradox is at the center of a newly unsealed internal Meta email, reported by
The Verge
, in which Mark Zuckerberg suggests the company consider changing its approach to “research and analytics around social issues” after media coverage of internal findings (notably around teen wellbeing on Instagram) blew up in 2021.
This isn’t just an inside-baseball story about PR management. It’s a window into how social platforms think about accountability — and how the threat of litigation and leaks can shape what gets measured, what gets published, and what never gets asked.
Below is a practical explainer of what the email said, why it matters, and what a healthier incentive structure might look like.
What the unsealed email actually revealed
According to the reporting, Zuckerberg wrote to senior executives on September 15, 2021 — a day after a Wall Street Journal story based on internal documents (later tied to whistleblower Frances Haugen) highlighted Meta’s own research about teen girls and Instagram.
The key point wasn’t “Meta did research.” Many large platforms have research teams. The striking part is that the CEO explicitly connected
doing proactive social-issues research
with
creating liabilities and reputational risks
when findings become public.
The email’s framing is essentially:
We study sensitive issues (teen safety, mental health, child exploitation, misinformation, etc.).
When our findings leak or are reported out, the public narrative can turn into: “You knew, and you didn’t fix it.”
Some peer companies appear to do
less
proactive research — and therefore create fewer documents that can be used against them.
That’s an uncomfortable but real governance issue: if “measure and document the problem” increases the cost of operating, there’s a built-in incentive to measure less.
The research paradox: when transparency becomes a competitive disadvantage
In a world where platforms are scrutinized by regulators, journalists, and courts, you can imagine two broad strategies:
Study harms deeply
and build internal dashboards, experiments, and postmortems.
Study harms minimally
, focus on narrow compliance requirements, and avoid producing “bad-sounding” documents.
If the downside of strategy (1) is that it creates discoverable material — emails, slide decks, experiment readouts — then a rational corporate actor may drift toward strategy (2), even if strategy (1) is better for users.
That is not a defense of doing less research. It’s an explanation of the incentive.
The policy challenge is to design a system where the “do the responsible thing” approach (studying harms and acting on findings) does not become self-punishing.
Why Meta’s email is surfacing now: lawsuits and discovery
The email was unsealed after being collected in discovery by the New Mexico Attorney General’s office in a case alleging Meta deceptively positioned Facebook and Instagram as safe for teens while being aware of harmful design choices.
That case sits alongside a broader wave of litigation and legislative pressure focused on child safety, youth mental health, and product liability theories for social platforms. Regardless of how any single case turns out, the process matters: discovery turns internal debate into public evidence.
That has two second-order effects:
It shapes future internal writing.
Executives become cautious not only about what they do, but how they describe it.
It shapes future research.
If a study is likely to generate politically explosive charts, someone will ask whether it’s worth doing at all.
“Apple doesn’t seem to study any of this stuff”: what’s the argument here?
The email reportedly draws a comparison to Apple, suggesting Apple “doesn’t seem to study” these issues in the same way and therefore avoids a lot of the criticism.
Even if that comparison is incomplete (Apple does publish security and privacy material, and it faces intense scrutiny in other domains), the underlying point is about
product category and risk surface
:
Social platforms host massive volumes of user-generated content, including abusive content.
Messaging products (especially end-to-end encrypted ones) structurally limit what the provider can inspect.
Device platforms can push responsibility downward (“this is what users do on their devices”) while social feeds sit closer to editorial-like amplification.
So the “why do they get less heat?” question has a nontrivial technical component.
The child safety lens: reporting volume can look like guilt
One line of argument in the reporting is that Meta points to the fact that it reports a lot of child sexual abuse material (CSAM) to the National Center for Missing and Exploited Children (NCMEC) — and that high reporting volume can be interpreted as meaning “there’s more abuse on Meta,” even when part of the reason is
more detection and reporting
.
NCMEC’s own public data helps illustrate the complexity of that interpretation. For example, NCMEC notes that in 2024 it received 20.5 million reports (29.2 million incidents when adjusted), and it also describes changes like report “bundling” that can reduce raw counts without implying less underlying abuse.
Counts alone are a blunt tool. What matters is
rates
,
detection coverage
, and
downstream outcomes
How quickly are accounts taken down?
Are perpetrators identified and referred to law enforcement?
How often are minors proactively protected (e.g., restricting contact features, limiting adult reach)?
How do false positives and false negatives trade off?
When the public debate focuses only on “who has the biggest number,” companies can be pushed toward under-reporting or under-measuring.
Why doing less research would be bad — even for Meta
If you take the email’s concern at face value, the “solution” of studying less is seductive: fewer studies, fewer slides, fewer subpoenas.
But it’s also self-defeating.
1) You can’t improve what you don’t measure
Many platform safety problems are systems problems — created by ranking, recommendations, contact mechanics, and abuse-adjacent growth loops. Those aren’t fixed with a single policy statement. They require measurement.
Without internal research and analytics, the company’s “safety posture” becomes:
reactive (respond to scandals)
anecdotal (trust what the loudest complaints say)
non-auditable (no baselines, no evaluation)
2) Regulators will demand evidence anyway
Even if a company tries to avoid sensitive research, regulators can still require transparency reports, risk assessments, and auditability. In other words: if you don’t generate the evidence voluntarily, someone else may force you to generate it — and now you have to do it under pressure.
3) You lose the ability to distinguish
tradeoffs
from
negligence
A major theme in the email is that not all recommendations are reasonable to implement because everything has tradeoffs.
That’s true. But the only credible way to argue “we considered X and chose Y because…” is to show your work. Otherwise, it can look like hand-waving.
Research is what turns “trust us” into “here’s the model, the experiment, the measured outcome, and the decision memo.”
The deeper issue: litigation turns internal candor into a liability
A healthy organization wants candor: “This feature might be harmful,” “This cohort is at risk,” “This metric looks bad,” “We need to change ranking.”
But litigation and leak dynamics can punish candor in two ways:
Selection effect:
executives stop putting sensitive thoughts in writing.
Cultural effect:
teams avoid questions that might produce “bad” answers.
Both effects make the platform worse.
And this isn’t unique to Meta — it’s a general problem for any company operating at the intersection of consumer tech and public safety.
What would better incentives look like?
If society wants platforms to measure and reduce harms, it needs to make that path survivable.
A few practical ideas that show up repeatedly in policy circles:
1) Safe harbors for good-faith internal safety research
Imagine a framework where companies get a limited protection when they conduct documented, good-faith research into harms and take meaningful steps based on findings — similar in spirit to how some safety-critical industries handle incident reporting.
This doesn’t mean immunity for wrongdoing. It means reducing the incentive to
stay ignorant on purpose
2) Standardized, audited reporting (so comparisons are fair)
If every platform reports safety metrics using different definitions, raw numbers become weaponized.
Standard definitions, third-party audits, and clearer denominators (rates per user, rates per message, rates per view) would make “we reported more” less of a PR trap.
3) Separation between safety research and product growth incentives
When safety research sits inside the same chain of command as growth targets, it can become politically inconvenient.
Structural separation — even if not full independence — can help ensure safety questions keep getting asked.
4) Better public literacy about what metrics mean
The public conversation often treats internal research like a confession.
Sometimes it is. But sometimes it’s the opposite: a sign the company is looking.
A more mature literacy would ask:
Was the harm measured responsibly?
Were the findings shared with appropriate oversight?
What mitigations were tested?
What changed as a result?
What to watch next
The email is one artifact. The broader story is the tension between three forces:
Transparency:
we want to know what platforms know.
Accountability:
we want consequences when harms are ignored.
Learning systems:
we need platforms to keep measuring and improving.
When those forces are misaligned, the equilibrium outcome can be perverse: less measurement, less candor, and slower improvement — even while public anger increases.
The best version of the internet is not one where platforms hide their own research. It’s one where internal research is routine, audited, and used to drive product changes — and where the legal and political system can distinguish between “we studied the harm and improved” and “we studied the harm and deliberately did nothing.”
Bottom line
The unsealed Zuckerberg email matters less as a “gotcha” and more as a clue about incentives.
If doing serious internal safety and social-issues research reliably turns into reputational and legal exposure, companies will do less of it — and the public will get
visibility into real risks.
The policy goal shouldn’t be to shame platforms for having research. It should be to demand measurable improvements
and
create incentives that make responsible measurement the default, not the exception.
Sources
https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/
Previous Post
→ Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Copyright © 2026 Rill.blog
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Document Title
Page not found - Rill.blog
Image Alt
Rill.blog
Title Attribute
Rill.blog » Feed
RSD
Skip to content
Placeholder Attribute
Search...
Email address
Page Content
Page not found - Rill.blog
Skip to content
Home
Read Now
Urdu Novels
Mukhtasar Kahanian
Urdu Columns
Main Menu
This page doesn't seem to exist.
It looks like the link pointing here was faulty. Maybe try searching?
Search for:
Search
Get all the latest news and info sent to your inbox.
Please enable JavaScript in your browser to complete this form.
Email
*
Subscribe
Categories
Copyright © 2025 Rill.blog
English
العربية
Čeština
Dansk
Nederlands
Eesti
Suomi
Français
Deutsch
Ελληνικά
Magyar
Bahasa Indonesia
Italiano
日本語
한국어
Latviešu valoda
Lietuvių kalba
Norsk bokmål
Polski
Português
Română
Русский
Slovenčina
Slovenščina
Español
Svenska
ไทย
Türkçe
Українська
Tiếng Việt
Notifications
Rill.blog
Rill.blog » Feed
RSD
Search...
Email address
r Français