Zuckerbergs uforseglede e-post reiser et ubehagelig spørsmål: bør plattformer studere skadevirkningene sine mindre?

Et av de merkeligste insentivene i moderne teknologipolitikk erforskningsparadoksetSelskapene som gjør mest internt arbeid for å måle skader kan ende opp med å fremstå som de verste aktørene, rett og slett fordi de har mest data – og fordi disse dataene kan lekke, bli stevnet eller avdekkes i retten.

Det paradokset står i sentrum for en nylig avdekket intern Meta-e-post, rapportert avThe Verge, der Mark Zuckerberg foreslår at selskapet vurderer å endre sin tilnærming til «forskning og analyse rundt sosiale spørsmål» etter at mediedekningen av interne funn (særlig rundt tenåringer og deres velvære på Instagram) eksploderte i 2021.

Dette er ikke bare en historie fra innsiden av baseball om PR-ledelse. Det gir et innblikk i hvordan sosiale plattformer tenker om ansvarlighet – og hvordan trusselen om rettssaker og lekkasjer kan forme hva som blir målt, hva som blir publisert og hva som aldri blir spurt om.

Nedenfor finner du en praktisk forklaring på hva e-posten sa, hvorfor det er viktig, og hvordan en sunnere insentivstruktur kan se ut.

Hva den uforseglede e-posten faktisk avslørte

Ifølge rapportene skrev Zuckerberg til toppledere 15. september 2021 – dagen etter at en Wall Street Journal-artikkel basert på interne dokumenter (senere knyttet til varsleren Frances Haugen) fremhevet Metas egen forskning om tenåringsjenter og Instagram.

Hovedpoenget var ikke «Meta forsket». Mange store plattformer har forskningsteam. Det slående er at administrerende direktør eksplisitt kobletå gjøre proaktiv forskning på sosiale problemstillingermedskaper ansvar og omdømmerisikonår funnene blir offentlige.

Innrammingen av e-posten er i hovedsak:

  • Vi studerer sensitive temaer (tenåringssikkerhet, psykisk helse, utnyttelse av barn, feilinformasjon osv.).
  • Når funnene våre lekker eller rapporteres ut, kan den offentlige fortellingen bli: «Du visste det, og du fikset det ikke.»
  • Noen sammenlignbare selskaper ser ut til å gjøre detmindreproaktiv forskning – og dermed lage færre dokumenter som kan brukes mot dem.

Det er et ubehagelig, men reelt styringsproblem: hvis det å «måle og dokumentere problemet» øker driftskostnadene, er det et innebygd insentiv til å måle mindre.

Forskningsparadokset: når åpenhet blir en konkurranseulempe

I en verden der plattformer granskes av regulatorer, journalister og domstoler, kan man tenke seg to brede strategier:

  1. Studier skader dyptog bygge interne dashbord, eksperimenter og obduksjoner.
  2. Studier skader minimalt, fokuser på snevre samsvarskrav, og unngå å produsere dokumenter som høres «dårlig ut».

Hvis ulempen med strategi (1) er at den skaper oppdagbart materiale – e-poster, lysbildesamlinger, opplesninger av eksperimenter – kan en rasjonell bedriftsaktør bevege seg mot strategi (2), selv om strategi (1) er bedre for brukerne.

Det er ikke et forsvar for å gjøre mindre research. Det er en forklaring på insentivet.

Den politiske utfordringen er å utforme et system der «gjør det ansvarlige»-tilnærmingen (studere skader og handle basert på funn) ikke blir selvstraffende.

Hvorfor Metas e-post dukker opp nå: søksmål og bevisoppdagelse

E-posten ble åpnet etter at den ble samlet inn av New Mexicos justisministers kontor i en sak som påsto at Meta på en villedende måte posisjonerte Facebook og Instagram som trygge for tenåringer, samtidig som de var klar over skadelige designvalg.

Denne saken ligger side om side med en bredere bølge av rettstvister og lovgivende press fokusert på barns sikkerhet, ungdoms psykiske helse og produktansvarsteorier for sosiale plattformer. Uansett hvordan en enkelt sak ender, er prosessen viktig: oppdagelsen gjør intern debatt til offentlige bevis.

Det har to andreordenseffekter:

  • Det former fremtidens interne skriving.Ledere blir forsiktige ikke bare med hva de gjør, men også hvordan de beskriver det.
  • Det former fremtidig forskning.Hvis en studie sannsynligvis vil generere politisk eksplosive diagrammer, vil noen spørre om det i det hele tatt er verdt å gjøre det.

«Apple ser ikke ut til å studere noe av dette»: hva er argumentet her?

E-posten skal angivelig sammenlignes med Apple, og antyder at Apple «ikke ser ut til å studere» disse problemstillingene på samme måte, og derfor unngår mye av kritikken.

Selv om den sammenligningen er ufullstendig (Apple publiserer sikkerhets- og personvernmateriell, og det blir gransket grundig på andre områder), handler det underliggende poenget omproduktkategori og risikoflate:

  • Sosiale plattformer er vert for enorme mengder brukergenerert innhold, inkludert støtende innhold.
  • Meldingsprodukter (spesielt ende-til-ende-krypterte) begrenser strukturelt hva leverandøren kan inspisere.
  • Enhetsplattformer kan presse ansvaret nedover («dette er hva brukerne gjør på enhetene sine»), mens sosiale feeder ligger nærmere redaksjonell forsterkning.

Så spørsmålet «hvorfor får de mindre varme?» har en ikke-triviell teknisk komponent.

Barnesikkerhetsperspektivet: rapporteringsvolum kan virke som skyldfølelse

En argumentasjon i rapporteringen er at Meta peker på det faktum at de rapporterer mye materiale med seksuelle overgrep mot barn (CSAM) til National Center for Missing and Exploited Children (NCMEC) – og at høyt rapporteringsvolum kan tolkes som at «det er mer overgrep på Meta», selv når en del av årsaken ermer deteksjon og rapportering.

NCMECs egne offentlige data bidrar til å illustrere kompleksiteten i denne tolkningen. For eksempel bemerker NCMEC at de i 2024 mottok 20,5 millioner rapporter (29,2 millioner hendelser når de er justert), og de beskriver også endringer som «samling av rapporter» som kan redusere råtall uten å antyde mindre underliggende misbruk.

Tellinger alene er et sløvt verktøy. Det som betyr noe erpriser,deteksjonsdekning, ognedstrøms resultater:

  • Hvor raskt blir kontoer tatt ned?
  • Blir gjerningsmennene identifisert og overført til politiet?
  • Hvor ofte blir mindreårige proaktivt beskyttet (f.eks. ved å begrense kontaktfunksjoner, begrense rekkevidden til voksne)?
  • Hvordan avveier falske positiver og falske negative resultater?

Når den offentlige debatten kun fokuserer på «hvem som har det største tallet», kan selskaper bli presset mot underrapportering eller undermåling.

Hvorfor det ville være dårlig å gjøre mindre forskning – selv for Meta

Hvis man tar e-postens bekymring for god fisk, er «løsningen» med å studere mindre forførende: færre studier, færre lysbilder, færre stevninger.

Men det er også selvdestruktivt.

1) Du kan ikke forbedre det du ikke måler

Mange sikkerhetsproblemer på plattformen er systemproblemer – skapt av rangering, anbefalinger, kontaktmekanismer og vekstsløyfer knyttet til misbruk. Disse løses ikke med en enkelt policyerklæring. De krever måling.

Uten intern forskning og analyse blir selskapets «sikkerhetsholdning»:

  • reaktiv (reagere på skandaler)
  • anekdotisk (stol på hva de høylytteste klagene sier)
  • ikke-reviderbar (ingen grunnlinjer, ingen evaluering)

2) Regulatorer vil kreve bevis uansett

Selv om et selskap prøver å unngå sensitiv forskning, kan regulatorer fortsatt kreve åpenhetsrapporter, risikovurderinger og revideringsmuligheter. Med andre ord: Hvis du ikke genererer bevisene frivillig, kan noen andre tvinge deg til å generere dem – og nå må du gjøre det under press.

3) Du mister evnen til å skilleavveiningerfraforsømmelse

Et hovedtema i e-posten er at ikke alle anbefalinger er rimelige å implementere fordi alt har avveininger.

Det er sant. Men den eneste troverdige måten å argumentere for «vi vurderte X og valgte Y fordi…» er å vise frem arbeidet ditt. Ellers kan det se ut som håndvifting.

Det er forskning som gjør «stol på oss» til «her er modellen, eksperimentet, det målte resultatet og beslutningsnotatet».

Det dypere problemet: rettssaker gjør intern åpenhet til en belastning

En sunn organisasjon ønsker åpenhet: «Denne funksjonen kan være skadelig», «Denne kohorten er i faresonen», «Denne målingen ser dårlig ut», «Vi må endre rangeringen».

Men rettstvister og lekkasjedynamikk kan straffe åpenhet på to måter:

  • Utvalgseffekt:Ledere slutter å nedskrive sensitive tanker.
  • Kulturell effekt:Teamene unngår spørsmål som kan gi «dårlige» svar.

Begge effektene forverrer plattformen.

Og dette er ikke unikt for Meta – det er et generelt problem for ethvert selskap som opererer i skjæringspunktet mellom forbrukerteknologi og offentlig sikkerhet.

Hvordan ville bedre insentiver se ut?

Hvis samfunnet ønsker plattformer for å måle og redusere skader, må det gjøre den veien overlevelig.

Noen praktiske ideer som dukker opp gjentatte ganger i politiske kretser:

1) Trygge havner for intern sikkerhetsforskning i god tro

Tenk deg et rammeverk der selskaper får begrenset beskyttelse når de utfører dokumentert forskning i god tro på skader og tar meningsfulle skritt basert på funn – i likhet med hvordan noen sikkerhetskritiske bransjer håndterer hendelsesrapportering.

Dette betyr ikke immunitet for urettmessig handling. Det betyr å redusere insentivet til åforbli uvitende med vilje.

2) Standardisert, revidert rapportering (slik at sammenligninger er rettferdige)

Hvis hver plattform rapporterer sikkerhetsmålinger ved hjelp av forskjellige definisjoner, blir rå tall brukt som våpen.

Standarddefinisjoner, tredjepartsrevisjoner og tydeligere nevnere (rater per bruker, rater per melding, rater per visning) ville gjort «vi rapporterte mer» til en mindre PR-felle.

3) Skille mellom sikkerhetsforskning og insentiver for produktvekst

Når sikkerhetsforskning sitter innenfor samme kommandokjede som vekstmål, kan det bli politisk ubeleilig.

Strukturell separasjon – selv om det ikke er full uavhengighet – kan bidra til at sikkerhetsspørsmål stadig blir stilt.

4) Bedre offentlig kunnskap om hva målinger betyr

Den offentlige samtalen behandler ofte intern forskning som en tilståelse.

Noen ganger er det det. Men noen ganger er det det motsatte: et tegn på at selskapet ser etter noe.

En mer moden leseferdighet ville spørre:

  • Ble skaden målt på en ansvarlig måte?
  • Ble funnene delt med passende tilsyn?
  • Hvilke avbøtende tiltak ble testet?
  • Hva endret seg som følge av dette?

Hva du skal se på neste gang

E-posten er én gjenstand. Den større historien er spenningen mellom tre krefter:

  • Åpenhet:Vi vil vite hva plattformene vet.
  • Ansvarlighet:Vi ønsker konsekvenser når skader ignoreres.
  • Læringssystemer:Vi trenger plattformer for å fortsette å måle og forbedre oss.

Når disse kreftene er feiljustert, kan likevektsresultatet bli perverst: mindre måling, mindre åpenhet og langsommere forbedring – selv om offentlig sinne øker.

Den beste versjonen av internett er ikke en der plattformer skjuler sin egen forskning. Det er en der intern forskning er rutinemessig, revidert og brukt til å drive produktendringer – og der det juridiske og politiske systemet kan skille mellom «vi studerte skaden og forbedret oss» og «vi studerte skaden og gjorde bevisst ingenting».

Konklusjon

Den uforseglede Zuckerberg-e-posten betyr mindre som en «forståelse» og mer som en ledetråd om insentiver.

Hvis det å utføre seriøs intern undersøkelse av sikkerhet og sosiale problemstillinger på en pålitelig måte fører til omdømme- og juridisk eksponering, vil selskaper gjøre mindre av det – og publikum vil fåmindreinnsikt i reelle risikoer.

Det politiske målet bør ikke være å sette skam over plattformer for å ha forskning. Det bør være å kreve målbare forbedringer.ogskape insentiver som gjør ansvarlig måling til standard, ikke unntaket.


Kilder

Document Title
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Title Attribute
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Page Content
Zuckerberg’s unsealed email raises an uncomfortable question: should platforms study their harms less?
Blog
/
General
/ By
Abdul Jabbar
One of the stranger incentives in modern tech policy is the
research paradox
: the companies that do the most internal work to measure harms can end up looking like the worst actors, simply because they have the most data — and because that data can leak, be subpoenaed, or be unsealed in court.
That paradox is at the center of a newly unsealed internal Meta email, reported by
The Verge
, in which Mark Zuckerberg suggests the company consider changing its approach to “research and analytics around social issues” after media coverage of internal findings (notably around teen wellbeing on Instagram) blew up in 2021.
This isn’t just an inside-baseball story about PR management. It’s a window into how social platforms think about accountability — and how the threat of litigation and leaks can shape what gets measured, what gets published, and what never gets asked.
Below is a practical explainer of what the email said, why it matters, and what a healthier incentive structure might look like.
What the unsealed email actually revealed
According to the reporting, Zuckerberg wrote to senior executives on September 15, 2021 — a day after a Wall Street Journal story based on internal documents (later tied to whistleblower Frances Haugen) highlighted Meta’s own research about teen girls and Instagram.
The key point wasn’t “Meta did research.” Many large platforms have research teams. The striking part is that the CEO explicitly connected
doing proactive social-issues research
with
creating liabilities and reputational risks
when findings become public.
The email’s framing is essentially:
We study sensitive issues (teen safety, mental health, child exploitation, misinformation, etc.).
When our findings leak or are reported out, the public narrative can turn into: “You knew, and you didn’t fix it.”
Some peer companies appear to do
less
proactive research — and therefore create fewer documents that can be used against them.
That’s an uncomfortable but real governance issue: if “measure and document the problem” increases the cost of operating, there’s a built-in incentive to measure less.
The research paradox: when transparency becomes a competitive disadvantage
In a world where platforms are scrutinized by regulators, journalists, and courts, you can imagine two broad strategies:
Study harms deeply
and build internal dashboards, experiments, and postmortems.
Study harms minimally
, focus on narrow compliance requirements, and avoid producing “bad-sounding” documents.
If the downside of strategy (1) is that it creates discoverable material — emails, slide decks, experiment readouts — then a rational corporate actor may drift toward strategy (2), even if strategy (1) is better for users.
That is not a defense of doing less research. It’s an explanation of the incentive.
The policy challenge is to design a system where the “do the responsible thing” approach (studying harms and acting on findings) does not become self-punishing.
Why Meta’s email is surfacing now: lawsuits and discovery
The email was unsealed after being collected in discovery by the New Mexico Attorney General’s office in a case alleging Meta deceptively positioned Facebook and Instagram as safe for teens while being aware of harmful design choices.
That case sits alongside a broader wave of litigation and legislative pressure focused on child safety, youth mental health, and product liability theories for social platforms. Regardless of how any single case turns out, the process matters: discovery turns internal debate into public evidence.
That has two second-order effects:
It shapes future internal writing.
Executives become cautious not only about what they do, but how they describe it.
It shapes future research.
If a study is likely to generate politically explosive charts, someone will ask whether it’s worth doing at all.
“Apple doesn’t seem to study any of this stuff”: what’s the argument here?
The email reportedly draws a comparison to Apple, suggesting Apple “doesn’t seem to study” these issues in the same way and therefore avoids a lot of the criticism.
Even if that comparison is incomplete (Apple does publish security and privacy material, and it faces intense scrutiny in other domains), the underlying point is about
product category and risk surface
:
Social platforms host massive volumes of user-generated content, including abusive content.
Messaging products (especially end-to-end encrypted ones) structurally limit what the provider can inspect.
Device platforms can push responsibility downward (“this is what users do on their devices”) while social feeds sit closer to editorial-like amplification.
So the “why do they get less heat?” question has a nontrivial technical component.
The child safety lens: reporting volume can look like guilt
One line of argument in the reporting is that Meta points to the fact that it reports a lot of child sexual abuse material (CSAM) to the National Center for Missing and Exploited Children (NCMEC) — and that high reporting volume can be interpreted as meaning “there’s more abuse on Meta,” even when part of the reason is
more detection and reporting
.
NCMEC’s own public data helps illustrate the complexity of that interpretation. For example, NCMEC notes that in 2024 it received 20.5 million reports (29.2 million incidents when adjusted), and it also describes changes like report “bundling” that can reduce raw counts without implying less underlying abuse.
Counts alone are a blunt tool. What matters is
rates
,
detection coverage
, and
downstream outcomes
How quickly are accounts taken down?
Are perpetrators identified and referred to law enforcement?
How often are minors proactively protected (e.g., restricting contact features, limiting adult reach)?
How do false positives and false negatives trade off?
When the public debate focuses only on “who has the biggest number,” companies can be pushed toward under-reporting or under-measuring.
Why doing less research would be bad — even for Meta
If you take the email’s concern at face value, the “solution” of studying less is seductive: fewer studies, fewer slides, fewer subpoenas.
But it’s also self-defeating.
1) You can’t improve what you don’t measure
Many platform safety problems are systems problems — created by ranking, recommendations, contact mechanics, and abuse-adjacent growth loops. Those aren’t fixed with a single policy statement. They require measurement.
Without internal research and analytics, the company’s “safety posture” becomes:
reactive (respond to scandals)
anecdotal (trust what the loudest complaints say)
non-auditable (no baselines, no evaluation)
2) Regulators will demand evidence anyway
Even if a company tries to avoid sensitive research, regulators can still require transparency reports, risk assessments, and auditability. In other words: if you don’t generate the evidence voluntarily, someone else may force you to generate it — and now you have to do it under pressure.
3) You lose the ability to distinguish
tradeoffs
from
negligence
A major theme in the email is that not all recommendations are reasonable to implement because everything has tradeoffs.
That’s true. But the only credible way to argue “we considered X and chose Y because…” is to show your work. Otherwise, it can look like hand-waving.
Research is what turns “trust us” into “here’s the model, the experiment, the measured outcome, and the decision memo.”
The deeper issue: litigation turns internal candor into a liability
A healthy organization wants candor: “This feature might be harmful,” “This cohort is at risk,” “This metric looks bad,” “We need to change ranking.”
But litigation and leak dynamics can punish candor in two ways:
Selection effect:
executives stop putting sensitive thoughts in writing.
Cultural effect:
teams avoid questions that might produce “bad” answers.
Both effects make the platform worse.
And this isn’t unique to Meta — it’s a general problem for any company operating at the intersection of consumer tech and public safety.
What would better incentives look like?
If society wants platforms to measure and reduce harms, it needs to make that path survivable.
A few practical ideas that show up repeatedly in policy circles:
1) Safe harbors for good-faith internal safety research
Imagine a framework where companies get a limited protection when they conduct documented, good-faith research into harms and take meaningful steps based on findings — similar in spirit to how some safety-critical industries handle incident reporting.
This doesn’t mean immunity for wrongdoing. It means reducing the incentive to
stay ignorant on purpose
2) Standardized, audited reporting (so comparisons are fair)
If every platform reports safety metrics using different definitions, raw numbers become weaponized.
Standard definitions, third-party audits, and clearer denominators (rates per user, rates per message, rates per view) would make “we reported more” less of a PR trap.
3) Separation between safety research and product growth incentives
When safety research sits inside the same chain of command as growth targets, it can become politically inconvenient.
Structural separation — even if not full independence — can help ensure safety questions keep getting asked.
4) Better public literacy about what metrics mean
The public conversation often treats internal research like a confession.
Sometimes it is. But sometimes it’s the opposite: a sign the company is looking.
A more mature literacy would ask:
Was the harm measured responsibly?
Were the findings shared with appropriate oversight?
What mitigations were tested?
What changed as a result?
What to watch next
The email is one artifact. The broader story is the tension between three forces:
Transparency:
we want to know what platforms know.
Accountability:
we want consequences when harms are ignored.
Learning systems:
we need platforms to keep measuring and improving.
When those forces are misaligned, the equilibrium outcome can be perverse: less measurement, less candor, and slower improvement — even while public anger increases.
The best version of the internet is not one where platforms hide their own research. It’s one where internal research is routine, audited, and used to drive product changes — and where the legal and political system can distinguish between “we studied the harm and improved” and “we studied the harm and deliberately did nothing.”
Bottom line
The unsealed Zuckerberg email matters less as a “gotcha” and more as a clue about incentives.
If doing serious internal safety and social-issues research reliably turns into reputational and legal exposure, companies will do less of it — and the public will get
visibility into real risks.
The policy goal shouldn’t be to shame platforms for having research. It should be to demand measurable improvements
and
create incentives that make responsible measurement the default, not the exception.
Sources
https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/
Previous Post
→ Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
Copyright © 2026 Rill.blog
oEmbed (JSON)
oEmbed (XML)
JSON
View all posts by Abdul Jabbar
Why is the FTC appealing its Meta antitrust loss — and what the appeal is really about
An unsealed Meta email shows how lawsuits and leaks can turn internal safety research into a liability — creating incentives to measure less.
Document Title
Page not found - Rill.blog
Image Alt
Rill.blog
Title Attribute
Rill.blog » Feed
RSD
Skip to content
Placeholder Attribute
Search...
Email address
Page Content
Page not found - Rill.blog
Skip to content
Home
Read Now
Urdu Novels
Mukhtasar Kahanian
Urdu Columns
Main Menu
This page doesn't seem to exist.
It looks like the link pointing here was faulty. Maybe try searching?
Search for:
Search
Get all the latest news and info sent to your inbox.
Please enable JavaScript in your browser to complete this form.
Email
*
Subscribe
Categories
Copyright © 2025 Rill.blog
English
العربية
Čeština
Dansk
Nederlands
Eesti
Suomi
Français
Deutsch
Ελληνικά
Magyar
Bahasa Indonesia
Italiano
日本語
한국어
Latviešu valoda
Lietuvių kalba
Norsk bokmål
Polski
Português
Română
Русский
Slovenčina
Slovenščina
Español
Svenska
ไทย
Türkçe
Українська
Tiếng Việt
Notifications
Rill.blog
Rill.blog » Feed
RSD
Search...
Email address
o Norsk bokmål