O e-mail de Zuckerberg que foi liberado levanta uma questão incômoda: as plataformas deveriam estudar menos os danos que causam?

Um dos incentivos mais estranhos na política tecnológica moderna é oparadoxo da pesquisaAs empresas que mais se dedicam internamente a mensurar danos podem acabar parecendo as piores vilãs, simplesmente porque possuem a maior quantidade de dados — e porque esses dados podem vazar, ser solicitados por intimação ou serem divulgados em tribunal.

Esse paradoxo está no centro de um e-mail interno da Meta recentemente divulgado, conforme relatado porThe Verge, na qual Mark Zuckerberg sugere que a empresa considere mudar sua abordagem em relação à "pesquisa e análise sobre questões sociais" após a repercussão na mídia de descobertas internas (notadamente sobre o bem-estar de adolescentes no Instagram) em 2021.

Esta não é apenas uma história sobre os bastidores da gestão de relações públicas. É uma janela para a forma como as plataformas sociais encaram a responsabilidade — e como a ameaça de processos judiciais e vazamentos pode moldar o que é mensurado, o que é publicado e o que jamais é questionado.

A seguir, uma explicação prática do conteúdo do e-mail, sua importância e como seria uma estrutura de incentivos mais saudável.

O que o e-mail deslacrado realmente revelou

Segundo a reportagem, Zuckerberg escreveu para executivos seniores em 15 de setembro de 2021 — um dia depois de uma matéria do Wall Street Journal baseada em documentos internos (posteriormente ligados à denunciante Frances Haugen) destacar a própria pesquisa da Meta sobre adolescentes e o Instagram.

O ponto crucial não era "A Meta fez pesquisas". Muitas grandes plataformas têm equipes de pesquisa. O que chama a atenção é que o CEO conectou explicitamente o assunto.realizar pesquisas proativas sobre questões sociaiscomcriando responsabilidades e riscos de reputaçãoquando as descobertas se tornarem públicas.

A estrutura do e-mail é essencialmente a seguinte:

  • Estudamos temas sensíveis (segurança de adolescentes, saúde mental, exploração infantil, desinformação, etc.).
  • Quando nossas descobertas vazam ou são divulgadas, a narrativa pública pode se transformar em: "Vocês sabiam e não corrigiram o problema."
  • Algumas empresas do mesmo setor parecem estar fazendo isso.menospesquisa proativa — e, portanto, criar menos documentos que possam ser usados ​​contra eles.

Essa é uma questão de governança incômoda, mas real: se "medir e documentar o problema" aumenta o custo operacional, existe um incentivo intrínseco para medir menos.

O paradoxo da pesquisa: quando a transparência se torna uma desvantagem competitiva

Num mundo em que as plataformas são alvo de escrutínio por parte de reguladores, jornalistas e tribunais, podemos imaginar duas estratégias gerais:

  1. O estudo causa danos profundos.e criar painéis de controle internos, experimentos e análises pós-problema.
  2. O estudo causa danos mínimos., concentre-se em requisitos de conformidade específicos e evite produzir documentos que soem mal.

Se a desvantagem da estratégia (1) é que ela cria material detectável — e-mails, apresentações de slides, resultados de experimentos — então um agente corporativo racional pode tender para a estratégia (2), mesmo que a estratégia (1) seja melhor para os usuários.

Isso não é uma defesa da redução da pesquisa. É uma explicação do incentivo.

O desafio político é conceber um sistema em que a abordagem de "fazer a coisa certa" (estudar os danos e agir de acordo com as conclusões) não se torne autopunitiva.

Por que o e-mail da Meta está vindo à tona agora: processos judiciais e descoberta de provas

O e-mail foi liberado após ser obtido durante um processo de descoberta de provas pelo gabinete do Procurador-Geral do Novo México, em um caso que alega que a Meta posicionou o Facebook e o Instagram de forma enganosa como seguros para adolescentes, mesmo tendo conhecimento de escolhas de design prejudiciais.

Esse caso se insere em meio a uma onda mais ampla de litígios e pressão legislativa focada na segurança infantil, na saúde mental dos jovens e nas teorias de responsabilidade civil por produtos defeituosos em plataformas de mídias sociais. Independentemente do desfecho de cada caso individual, o processo é crucial: a fase de instrução processual transforma o debate interno em evidência pública.

Isso tem dois efeitos de segunda ordem:

  • Isso molda a escrita interna futura.Os executivos tornam-se cautelosos não apenas com o que fazem, mas também com a forma como o descrevem.
  • Isso molda pesquisas futuras.Se um estudo tiver probabilidade de gerar gráficos politicamente explosivos, alguém questionará se vale a pena realizá-lo.

"A Apple parece não estudar nada disso": qual é o argumento aqui?

O e-mail supostamente faz uma comparação com a Apple, sugerindo que a Apple "parece não estudar" essas questões da mesma forma e, portanto, evita muitas das críticas.

Mesmo que essa comparação seja incompleta (a Apple publica material sobre segurança e privacidade e enfrenta intenso escrutínio em outras áreas), a questão fundamental é sobrecategoria de produto e superfície de risco:

  • As plataformas sociais hospedam volumes enormes de conteúdo gerado pelo usuário, incluindo conteúdo abusivo.
  • Os produtos de mensagens (especialmente os criptografados de ponta a ponta) limitam estruturalmente o que o provedor pode inspecionar.
  • As plataformas de dispositivos podem transferir a responsabilidade para baixo ("isto é o que os utilizadores fazem nos seus dispositivos"), enquanto os feeds das redes sociais se aproximam mais da amplificação editorial.

Portanto, a questão "por que eles recebem menos calor?" tem um componente técnico complexo.

Sob a perspectiva da segurança infantil: o volume de denúncias pode ser interpretado como culpa.

Um dos argumentos apresentados na reportagem é que a Meta destaca o fato de denunciar uma grande quantidade de material de abuso sexual infantil (CSAM, na sigla em inglês) ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês) — e que esse alto volume de denúncias pode ser interpretado como significando que “há mais abusos na Meta”, mesmo quando parte da razão é...mais detecção e relatórios.

Os próprios dados públicos do NCMEC ajudam a ilustrar a complexidade dessa interpretação. Por exemplo, o NCMEC observa que em 2024 recebeu 20,5 milhões de denúncias (29,2 milhões de incidentes quando ajustados) e também descreve mudanças como o "agrupamento" de denúncias, que podem reduzir os números brutos sem implicar em menos abusos subjacentes.

Contagens por si só são uma ferramenta imprecisa. O que importa étaxas,cobertura de detecção, eresultados a jusante:

  • Com que rapidez as contas são desativadas?
  • Os autores dos crimes são identificados e encaminhados às autoridades policiais?
  • Com que frequência os menores são protegidos proativamente (por exemplo, restringindo elementos de contato, limitando o alcance de adultos)?
  • Qual é a relação de equilíbrio entre falsos positivos e falsos negativos?

Quando o debate público se concentra apenas em "quem tem o maior número", as empresas podem ser levadas a subnotificar ou subestimar os resultados.

Por que fazer menos pesquisa seria ruim — mesmo para a Meta

Se levarmos a preocupação expressa no e-mail ao pé da letra, a "solução" de estudar menos parece sedutora: menos estudos, menos slides, menos intimações.

Mas também é contraproducente.

1) Você não pode melhorar o que não mede.

Muitos problemas de segurança em plataformas são problemas sistêmicos — criados por sistemas de classificação, recomendações, mecanismos de contato e ciclos de crescimento que levam a abusos. Esses problemas não são resolvidos com uma única declaração de política. Eles exigem mensuração.

Sem pesquisa e análise internas, a “postura de segurança” da empresa se torna:

  • reativo (responder a escândalos)
  • anedótico (confie no que dizem as reclamações mais veementes)
  • não auditável (sem linhas de base, sem avaliação)

2) Os reguladores exigirão provas de qualquer maneira.

Mesmo que uma empresa tente evitar pesquisas sensíveis, os órgãos reguladores ainda podem exigir relatórios de transparência, avaliações de risco e auditabilidade. Em outras palavras: se você não gerar as evidências voluntariamente, alguém pode forçá-lo a gerá-las — e aí você terá que fazer isso sob pressão.

3) Você perde a capacidade de distinguirconcessõesdenegligência

Um tema central no e-mail é que nem todas as recomendações são viáveis, pois tudo envolve concessões.

É verdade. Mas a única maneira crível de argumentar "consideramos X e escolhemos Y porque..." é mostrar os cálculos. Caso contrário, pode parecer que você está apenas dando explicações vagas.

A pesquisa é o que transforma o "confie em nós" em "aqui está o modelo, o experimento, o resultado mensurado e o memorando de decisão".

A questão mais profunda: litígios transformam a franqueza interna em um passivo.

Uma organização saudável preza pela franqueza: "Este recurso pode ser prejudicial", "Este grupo está em risco", "Esta métrica parece ruim", "Precisamos alterar o ranking".

Mas a dinâmica de litígios e vazamentos pode punir a sinceridade de duas maneiras:

  • Efeito de seleção:Executivos param de colocar pensamentos delicados por escrito.
  • Impacto cultural:As equipes evitam perguntas que possam gerar respostas "ruins".

Ambos os efeitos pioram a plataforma.

E isso não é exclusivo da Meta — é um problema geral para qualquer empresa que opere na interseção entre tecnologia de consumo e segurança pública.

Como seriam incentivos melhores?

Se a sociedade quer que as plataformas meçam e reduzam os danos, precisa tornar esse caminho viável.

Algumas ideias práticas que surgem repetidamente nos círculos políticos:

1) Portos seguros para pesquisas internas de segurança de boa-fé

Imagine um modelo em que as empresas recebam proteção limitada quando realizam pesquisas documentadas e de boa-fé sobre danos e tomam medidas significativas com base nas descobertas — semelhante em espírito à forma como alguns setores críticos para a segurança lidam com a notificação de incidentes.

Isso não significa imunidade para atos ilícitos. Significa reduzir o incentivo para...permanecer ignorante de propósito.

2) Relatórios padronizados e auditados (para que as comparações sejam justas)

Se cada plataforma reporta métricas de segurança usando definições diferentes, os números brutos se tornam uma arma.

Definições padronizadas, auditorias de terceiros e denominadores mais claros (taxas por usuário, taxas por mensagem, taxas por visualização) fariam com que a afirmação "relatamos mais" fosse menos uma armadilha de relações públicas.

3) Separação entre pesquisa de segurança e incentivos ao crescimento do produto

Quando a pesquisa de segurança está inserida na mesma cadeia de comando que as metas de crescimento, isso pode se tornar politicamente inconveniente.

A separação estrutural — mesmo que não seja total independência — pode ajudar a garantir que as questões de segurança continuem sendo levantadas.

4) Melhor compreensão pública do significado das métricas

O debate público muitas vezes trata a pesquisa interna como uma confissão.

Às vezes sim. Mas às vezes é o oposto: um sinal de que a empresa está observando.

Um nível de alfabetização mais maduro perguntaria:

  • O dano foi avaliado de forma responsável?
  • Os resultados foram compartilhados com a devida supervisão?
  • Quais medidas de mitigação foram testadas?
  • O que mudou como resultado?

O que assistir a seguir

O e-mail é apenas um artefato. A história mais ampla é a tensão entre três forças:

  • Transparência:Queremos saber o que as plataformas sabem.
  • Responsabilidade:Queremos consequências quando os danos são ignorados.
  • Sistemas de aprendizagem:Precisamos de plataformas para continuar medindo e melhorando.

Quando essas forças estão desalinhadas, o resultado do equilíbrio pode ser perverso: menos medições, menos franqueza e melhorias mais lentas — mesmo com o aumento da indignação pública.

A melhor versão da internet não é aquela em que as plataformas escondem suas próprias pesquisas. É aquela em que a pesquisa interna é rotineira, auditada e usada para impulsionar mudanças nos produtos — e em que o sistema jurídico e político consegue distinguir entre “estudamos o dano e melhoramos” e “estudamos o dano e deliberadamente não fizemos nada”.

Resumindo

O e-mail de Zuckerberg que foi deslacrado importa menos como uma "pegadinha" e mais como uma pista sobre incentivos.

Se a realização de pesquisas internas sérias sobre segurança e questões sociais resultar em exposição reputacional e legal, as empresas farão menos disso — e o público sofrerá as consequências.menosvisibilidade dos riscos reais.

O objetivo da política não deveria ser envergonhar as plataformas por realizarem pesquisas. Deveria ser exigir melhorias mensuráveis.eCriar incentivos que façam da medição responsável a norma, e não a exceção.


Fontes

Document Title
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Title Attribute
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Page Content
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
Blog
/
General
/ By
Abdul Jabbar
One of the stranger incentives in modern tech policy is the
research paradox
: the companies that do the most internal work to measure harms can end up looking like the worst actors, simply because they have the most data — and because that data can leak, be subpoenaed, or be unsealed in court.
That paradox is at the center of a newly unsealed internal Meta email, reported by
The Verge
, in which Mark Zuckerberg suggests the company consider changing its approach to “research and analytics around social issues” after media coverage of internal findings (notably around teen wellbeing on Instagram) blew up in 2021.
This isn’t just an inside-baseball story about PR management. It’s a window into how social platforms think about accountability — and how the threat of litigation and leaks can shape what gets measured, what gets published, and what never gets asked.
Below is a practical explainer of what the email said, why it matters, and what a healthier incentive structure might look like.
What the unsealed email actually revealed
According to the reporting, Zuckerberg wrote to senior executives on September 15, 2021 — a day after a Wall Street Journal story based on internal documents (later tied to whistleblower Frances Haugen) highlighted Meta’s own research about teen girls and Instagram.
The key point wasn’t “Meta did research.” Many large platforms have research teams. The striking part is that the CEO explicitly connected
doing proactive social-issues research
with
creating liabilities and reputational risks
when findings become public.
The email’s framing is essentially:
We study sensitive issues (teen safety, mental health, child exploitation, misinformation, etc.).
When our findings leak or are reported out, the public narrative can turn into: “You knew, and you didn’t fix it.”
Some peer companies appear to do
less
proactive research — and therefore create fewer documents that can be used against them.
That’s an uncomfortable but real governance issue: if “measure and document the problem” increases the cost of operating, there’s a built-in incentive to measure less.
The research paradox: when transparency becomes a competitive disadvantage
In a world where platforms are scrutinized by regulators, journalists, and courts, you can imagine two broad strategies:
Study harms deeply
and build internal dashboards, experiments, and postmortems.
Study harms minimally
, focus on narrow compliance requirements, and avoid producing “bad-sounding” documents.
If the downside of strategy (1) is that it creates discoverable material — emails, slide decks, experiment readouts — then a rational corporate actor may drift toward strategy (2), even if strategy (1) is better for users.
That is not a defense of doing less research. It’s an explanation of the incentive.
The policy challenge is to design a system where the “do the responsible thing” approach (studying harms and acting on findings) does not become self-punishing.
Why Meta’s email is surfacing now: lawsuits and discovery
The email was unsealed after being collected in discovery by the New Mexico Attorney General’s office in a case alleging Meta deceptively positioned Facebook and Instagram as safe for teens while being aware of harmful design choices.
That case sits alongside a broader wave of litigation and legislative pressure focused on child safety, youth mental health, and product liability theories for social platforms. Regardless of how any single case turns out, the process matters: discovery turns internal debate into public evidence.
That has two second-order effects:
It shapes future internal writing.
Executives become cautious not only about what they do, but how they describe it.
It shapes future research.
If a study is likely to generate politically explosive charts, someone will ask whether it’s worth doing at all.
“Apple doesn’t seem to study any of this stuff”: what’s the argument here?
The email reportedly draws a comparison to Apple, suggesting Apple “doesn’t seem to study” these issues in the same way and therefore avoids a lot of the criticism.
Even if that comparison is incomplete (Apple does publish security and privacy material, and it faces intense scrutiny in other domains), the underlying point is about
product category and risk surface
:
Social platforms host massive volumes of user-generated content, including abusive content.
Messaging products (especially end-to-end encrypted ones) structurally limit what the provider can inspect.
Device platforms can push responsibility downward (“this is what users do on their devices”) while social feeds sit closer to editorial-like amplification.
So the “why do they get less heat?” question has a nontrivial technical component.
The child safety lens: reporting volume can look like guilt
One line of argument in the reporting is that Meta points to the fact that it reports a lot of child sexual abuse material (CSAM) to the National Center for Missing and Exploited Children (NCMEC) — and that high reporting volume can be interpreted as meaning “there’s more abuse on Meta,” even when part of the reason is
more detection and reporting
.
NCMEC’s own public data helps illustrate the complexity of that interpretation. For example, NCMEC notes that in 2024 it received 20.5 million reports (29.2 million incidents when adjusted), and it also describes changes like report “bundling” that can reduce raw counts without implying less underlying abuse.
Counts alone are a blunt tool. What matters is
rates
,
detection coverage
, and
downstream outcomes
How quickly are accounts taken down?
Are perpetrators identified and referred to law enforcement?
How often are minors proactively protected (e.g., restricting contact features, limiting adult reach)?
How do false positives and false negatives trade off?
When the public debate focuses only on “who has the biggest number,” companies can be pushed toward under-reporting or under-measuring.
Why doing less research would be bad — even for Meta
If you take the email’s concern at face value, the “solution” of studying less is seductive: fewer studies, fewer slides, fewer subpoenas.
But it’s also self-defeating.
1) You can’t improve what you don’t measure
Many platform safety problems are systems problems — created by ranking, recommendations, contact mechanics, and abuse-adjacent growth loops. Those aren’t fixed with a single policy statement. They require measurement.
Without internal research and analytics, the company’s “safety posture” becomes:
reactive (respond to scandals)
anecdotal (trust what the loudest complaints say)
non-auditable (no baselines, no evaluation)
2) Regulators will demand evidence anyway
Even if a company tries to avoid sensitive research, regulators can still require transparency reports, risk assessments, and auditability. In other words: if you don’t generate the evidence voluntarily, someone else may force you to generate it — and now you have to do it under pressure.
3) You lose the ability to distinguish
tradeoffs
from
negligence
A major theme in the email is that not all recommendations are reasonable to implement because everything has tradeoffs.
That’s true. But the only credible way to argue “we considered X and chose Y because…” is to show your work. Otherwise, it can look like hand-waving.
Research is what turns “trust us” into “here’s the model, the experiment, the measured outcome, and the decision memo.”
The deeper issue: litigation turns internal candor into a liability
A healthy organization wants candor: “This feature might be harmful,” “This cohort is at risk,” “This metric looks bad,” “We need to change ranking.”
But litigation and leak dynamics can punish candor in two ways:
Selection effect:
executives stop putting sensitive thoughts in writing.
Cultural effect:
teams avoid questions that might produce “bad” answers.
Both effects make the platform worse.
And this isn’t unique to Meta — it’s a general problem for any company operating at the intersection of consumer tech and public safety.
What would better incentives look like?
If society wants platforms to measure and reduce harms, it needs to make that path survivable.
A few practical ideas that show up repeatedly in policy circles:
1) Safe harbors for good-faith internal safety research
Imagine a framework where companies get a limited protection when they conduct documented, good-faith research into harms and take meaningful steps based on findings — similar in spirit to how some safety-critical industries handle incident reporting.
This doesn’t mean immunity for wrongdoing. It means reducing the incentive to
stay ignorant on purpose
2) Standardized, audited reporting (so comparisons are fair)
If every platform reports safety metrics using different definitions, raw numbers become weaponized.
Standard definitions, third-party audits, and clearer denominators (rates per user, rates per message, rates per view) would make “we reported more” less of a PR trap.
3) Separation between safety research and product growth incentives
When safety research sits inside the same chain of command as growth targets, it can become politically inconvenient.
Structural separation — even if not full independence — can help ensure safety questions keep getting asked.
4) Better public literacy about what metrics mean
The public conversation often treats internal research like a confession.
Sometimes it is. But sometimes it’s the opposite: a sign the company is looking.
A more mature literacy would ask:
Was the harm measured responsibly?
Were the findings shared with appropriate oversight?
What mitigations were tested?
What changed as a result?
What to watch next
The email is one artifact. The broader story is the tension between three forces:
Transparency:
we want to know what platforms know.
Accountability:
we want consequences when harms are ignored.
Learning systems:
we need platforms to keep measuring and improving.
When those forces are misaligned, the equilibrium outcome can be perverse: less measurement, less candor, and slower improvement — even while public anger increases.
The best version of the internet is not one where platforms hide their own research. It’s one where internal research is routine, audited, and used to drive product changes — and where the legal and political system can distinguish between “we studied the harm and improved” and “we studied the harm and deliberately did nothing.”
Bottom line
The unsealed Zuckerberg email matters less as a “gotcha” and more as a clue about incentives.
If doing serious internal safety and social-issues research reliably turns into reputational and legal exposure, companies will do less of it — and the public will get
visibility into real risks.
The policy goal shouldn’t be to shame platforms for having research. It should be to demand measurable improvements
and
create incentives that make responsible measurement the default, not the exception.
Sources
https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/
Previous Post
→ Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Copyright © 2026 Rill.blog
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Document Title
Page not found - Rill.blog
Image Alt
Rill.blog
Title Attribute
Rill.blog » Feed
RSD
Skip to content
Placeholder Attribute
Search...
Email address
Page Content
Page not found - Rill.blog
Skip to content
Home
Read Now
Urdu Novels
Mukhtasar Kahanian
Urdu Columns
Main Menu
This page doesn't seem to exist.
It looks like the link pointing here was faulty. Maybe try searching?
Search for:
Search
Get all the latest news and info sent to your inbox.
Please enable JavaScript in your browser to complete this form.
Email
*
Subscribe
Categories
Copyright © 2025 Rill.blog
English
العربية
Čeština
Dansk
Nederlands
Eesti
Suomi
Français
Deutsch
Ελληνικά
Magyar
Bahasa Indonesia
Italiano
日本語
한국어
Latviešu valoda
Lietuvių kalba
Norsk bokmål
Polski
Português
Română
Русский
Slovenčina
Slovenščina
Español
Svenska
ไทย
Türkçe
Українська
Tiếng Việt
Notifications
Rill.blog
Rill.blog » Feed
RSD
Search...
Email address
o Português