Einer der seltsamsten Anreize in der modernen Technologiepolitik ist derForschungsparadoxonDie Unternehmen, die am meisten interne Arbeit leisten, um Schäden zu messen, können am Ende als die schlimmsten Akteure dastehen, einfach weil sie über die meisten Daten verfügen – und weil diese Daten durchsickern, per Vorladung angefordert oder vor Gericht entsiegelt werden können.
Dieses Paradoxon steht im Mittelpunkt einer neu freigegebenen internen E-Mail von Meta, über die berichtet wurde.The Verge, in dem Mark Zuckerberg vorschlägt, dass das Unternehmen seinen Ansatz zur „Forschung und Analyse sozialer Themen“ überdenkt, nachdem die Medienberichterstattung über interne Erkenntnisse (insbesondere zum Wohlbefinden von Teenagern auf Instagram) im Jahr 2021 für großes Aufsehen gesorgt hatte.
Dies ist nicht nur eine Insidergeschichte über PR-Management. Sie bietet Einblicke in die Denkweise sozialer Plattformen hinsichtlich Verantwortlichkeit – und wie die Angst vor Klagen und Leaks beeinflussen kann, was gemessen, was veröffentlicht und was gar nicht erst hinterfragt wird.
Nachfolgend finden Sie eine praktische Erklärung des Inhalts der E-Mail, ihrer Bedeutung und wie eine gesündere Anreizstruktur aussehen könnte.
Was die freigegebene E-Mail tatsächlich enthüllte
Dem Bericht zufolge schrieb Zuckerberg am 15. September 2021 an leitende Angestellte – einen Tag nachdem ein Artikel im Wall Street Journal, der auf internen Dokumenten basierte (und später mit der Whistleblowerin Frances Haugen in Verbindung gebracht wurde), Metas eigene Forschung über Teenager-Mädchen und Instagram hervorgehoben hatte.
Der entscheidende Punkt war nicht: „Meta hat recherchiert.“ Viele große Plattformen haben Forschungsteams. Das Auffällige ist, dass der CEO die Verbindung explizit hergestellt hat.proaktive Forschung zu sozialen Problemenmitdie Haftung und Reputationsrisiken schaffenwenn die Ergebnisse veröffentlicht werden.
Die E-Mail ist im Wesentlichen wie folgt aufgebaut:
- Wir beschäftigen uns mit sensiblen Themen (Sicherheit von Jugendlichen, psychische Gesundheit, Kindesausbeutung, Fehlinformationen usw.).
- Wenn unsere Ergebnisse durchsickern oder in den Medien veröffentlicht werden, kann sich die öffentliche Wahrnehmung dahingehend verändern: „Ihr wusstet es und habt nichts dagegen unternommen.“
- Einige vergleichbare Unternehmen scheinen dies zu tun.wenigerproaktive Recherche – und dadurch weniger Dokumente zu erstellen, die gegen sie verwendet werden können.
Das ist ein unangenehmes, aber reales Problem der Regierungsführung: Wenn das „Messen und Dokumentieren des Problems“ die Betriebskosten erhöht, entsteht ein eingebauter Anreiz, weniger zu messen.
Das Forschungsparadoxon: Wenn Transparenz zum Wettbewerbsnachteil wird
In einer Welt, in der Plattformen von Regulierungsbehörden, Journalisten und Gerichten genauestens unter die Lupe genommen werden, lassen sich zwei grundlegende Strategien vorstellen:
- Studie schädigt tiefund interne Dashboards, Experimente und Postmortems erstellen.
- Die Studie schadet nur minimal.Konzentrieren Sie sich auf eng gefasste Compliance-Anforderungen und vermeiden Sie die Erstellung von Dokumenten mit „schlecht klingendem“ Charakter.
Wenn der Nachteil von Strategie (1) darin besteht, dass dadurch auffindbares Material entsteht – E-Mails, Präsentationen, Ergebnisse von Experimenten –, dann kann ein rationaler Unternehmensakteur dazu tendieren, sich Strategie (2) zuzuwenden, selbst wenn Strategie (1) für die Nutzer besser ist.
Das ist keine Rechtfertigung für weniger Forschung. Es ist eine Erklärung des Anreizes.
Die politische Herausforderung besteht darin, ein System zu entwerfen, in dem der Ansatz „Verantwortungsvoll handeln“ (Schäden untersuchen und auf der Grundlage der Erkenntnisse handeln) nicht zu einer Selbstbestrafung führt.
Warum Metas E-Mail jetzt auftaucht: Klagen und Beweiserhebung
Die E-Mail wurde freigegeben, nachdem sie im Rahmen der Beweisaufnahme durch die Staatsanwaltschaft von New Mexico in einem Fall sichergestellt worden war, in dem Meta vorgeworfen wird, Facebook und Instagram irreführend als sicher für Teenager dargestellt zu haben, obwohl man sich der schädlichen Designentscheidungen bewusst war.
Dieser Fall reiht sich ein in eine breitere Welle von Klagen und gesetzgeberischem Druck, die sich auf Kindersicherheit, psychische Gesundheit von Jugendlichen und Produkthaftungstheorien für soziale Plattformen konzentrieren. Unabhängig vom Ausgang des jeweiligen Falles ist der Prozess von Bedeutung: Die Beweisaufnahme macht interne Debatten zu öffentlichen Beweismitteln.
Das hat zwei Folgeeffekte zweiter Ordnung:
- Es prägt das zukünftige interne Schreiben.Führungskräfte werden nicht nur vorsichtiger in Bezug auf das, was sie tun, sondern auch darauf, wie sie es beschreiben.
- Es prägt die zukünftige Forschung.Wenn eine Studie voraussichtlich politisch brisante Diagramme hervorbringen wird, wird sich jemand fragen, ob es sich überhaupt lohnt, sie durchzuführen.
„Apple scheint sich mit all dem nicht zu beschäftigen“: Was ist hier das Argument?
In der E-Mail wird angeblich ein Vergleich zu Apple gezogen, wobei angedeutet wird, dass Apple diese Probleme „nicht auf die gleiche Weise untersucht“ und daher einen Großteil der Kritik vermeidet.
Auch wenn dieser Vergleich unvollständig ist (Apple veröffentlicht zwar Sicherheits- und Datenschutzinformationen und sieht sich in anderen Bereichen intensiver Beobachtung ausgesetzt), geht es im Kern um Folgendes:Produktkategorie und Risikofläche:
- Soziale Plattformen beherbergen riesige Mengen an nutzergenerierten Inhalten, darunter auch beleidigende Inhalte.
- Messaging-Produkte (insbesondere Ende-zu-Ende-verschlüsselte) schränken strukturell ein, was der Anbieter überprüfen kann.
- Geräteplattformen können die Verantwortung nach unten abwälzen („Das ist es, was die Nutzer auf ihren Geräten tun“), während soziale Feeds eher einer redaktionell geprägten Verstärkung ähneln.
Die Frage „Warum bekommen sie weniger Wärme?“ hat also eine nicht unerhebliche technische Komponente.
Kinderschutz im Fokus: Hohes Meldeaufkommen kann wie Schuldgefühle wirken
Ein Argument in der Berichterstattung lautet, dass Meta darauf hinweist, dass es dem National Center for Missing and Exploited Children (NCMEC) viele Fälle von sexuellem Kindesmissbrauch meldet – und dass dieses hohe Meldeaufkommen so interpretiert werden kann, dass „es mehr Missbrauch auf Meta gibt“, selbst wenn ein Teil des Grundes darin besteht, dass…mehr Erkennung und MeldungDie
Die eigenen öffentlichen Daten des NCMEC verdeutlichen die Komplexität dieser Interpretation. So gibt das NCMEC beispielsweise an, im Jahr 2024 20,5 Millionen Meldungen erhalten zu haben (29,2 Millionen Vorfälle nach Inflationsbereinigung). Zudem beschreibt es Änderungen wie die Zusammenfassung von Meldungen, die die absolute Zahl reduzieren können, ohne dass dadurch weniger Missbrauch impliziert wird.
Zählungen allein sind ein stumpfes Instrument. Was zählt, istPreise,Erfassungsabdeckung, UndFolgewirkungen:
- Wie schnell werden Konten gesperrt?
- Werden die Täter identifiziert und den Strafverfolgungsbehörden gemeldet?
- Wie häufig werden Minderjährige proaktiv geschützt (z. B. durch Einschränkung von Kontaktflächen, Begrenzung der Reichweite von Erwachsenen)?
- Wie verhalten sich falsch positive und falsch negative Ergebnisse zueinander?
Wenn sich die öffentliche Debatte nur darauf konzentriert, „wer die größte Zahl hat“, kann dies dazu führen, dass Unternehmen zu wenig berichten oder zu wenig messen.
Warum weniger Forschung schlecht wäre – selbst für Meta
Nimmt man die Bedenken in der E-Mail für bare Münze, so ist die „Lösung“, weniger zu lernen, verlockend: weniger Studien, weniger Folien, weniger Vorladungen.
Aber es ist auch kontraproduktiv.
1) Was man nicht misst, kann man nicht verbessern.
Viele Sicherheitsprobleme von Plattformen sind systembedingt – verursacht durch Ranking-Systeme, Empfehlungen, Kontaktmechanismen und missbrauchsgefährdende Wachstumsschleifen. Diese lassen sich nicht mit einer einzigen Richtlinie beheben. Sie erfordern Messungen.
Ohne interne Forschung und Analyse sieht die „Sicherheitslage“ des Unternehmens wie folgt aus:
- reaktiv (auf Skandale reagieren)
- anekdotisch (vertrauen Sie den lautesten Beschwerden)
- nicht überprüfbar (keine Ausgangswerte, keine Bewertung)
2) Die Aufsichtsbehörden werden ohnehin Beweise verlangen.
Selbst wenn ein Unternehmen versucht, sensible Forschung zu vermeiden, können Aufsichtsbehörden dennoch Transparenzberichte, Risikobewertungen und Prüfbarkeit verlangen. Anders ausgedrückt: Wenn Sie die Nachweise nicht freiwillig erbringen, kann Sie jemand anderes dazu zwingen – und dann stehen Sie unter Druck.
3) Sie verlieren die Fähigkeit zu unterscheidenKompromisseausFahrlässigkeit
Ein Hauptthema der E-Mail ist, dass nicht alle Empfehlungen sinnvoll umzusetzen sind, da alles mit Kompromissen verbunden ist.
Das stimmt. Aber die einzig glaubwürdige Art zu argumentieren, „wir haben X in Betracht gezogen und uns für Y entschieden, weil…“, besteht darin, den Rechenweg offenzulegen. Andernfalls wirkt es wie bloßes Herumlavieren.
Forschung ist das, was aus „Vertrauen Sie uns“ ein „Hier ist das Modell, das Experiment, das gemessene Ergebnis und das Entscheidungsdokument“ macht.
Das eigentliche Problem: Rechtsstreitigkeiten machen interne Offenheit zu einer Belastung.
Eine gesunde Organisation wünscht sich Offenheit: „Diese Funktion könnte schädlich sein“, „Diese Gruppe ist gefährdet“, „Diese Kennzahl sieht schlecht aus“, „Wir müssen das Ranking ändern“.
Doch Rechtsstreitigkeiten und die Dynamik von Indiskretionen können Offenheit auf zweierlei Weise bestrafen:
- Selektionseffekt:Führungskräfte hören auf, sensible Gedanken schriftlich festzuhalten.
- Kultureller Effekt:Teams vermeiden Fragen, die zu „schlechten“ Antworten führen könnten.
Beide Effekte verschlechtern die Plattform.
Und das ist kein Einzelfall bei Meta – es handelt sich um ein generelles Problem für jedes Unternehmen, das an der Schnittstelle von Konsumtechnologie und öffentlicher Sicherheit tätig ist.
Wie sähen bessere Anreize aus?
Wenn die Gesellschaft Plattformen zur Messung und Reduzierung von Schäden wünscht, muss sie diesen Weg auch überlebbar machen.
Einige praktische Ideen, die in politischen Kreisen immer wieder auftauchen:
1) Sichere Rahmenbedingungen für interne Sicherheitsforschung in gutem Glauben
Stellen Sie sich einen Rahmen vor, in dem Unternehmen einen begrenzten Schutz erhalten, wenn sie dokumentierte, nach bestem Wissen und Gewissen durchgeführte Untersuchungen zu Schäden durchführen und auf der Grundlage der Ergebnisse sinnvolle Maßnahmen ergreifen – ähnlich wie in einigen sicherheitskritischen Branchen die Meldung von Vorfällen gehandhabt wird.
Das bedeutet keine Straffreiheit für Fehlverhalten. Es bedeutet, den Anreiz dazu zu verringern.Absichtlich unwissend bleibenDie
2) Standardisierte, geprüfte Berichterstattung (damit Vergleiche fair sind)
Wenn jede Plattform Sicherheitskennzahlen mit unterschiedlichen Definitionen meldet, werden die Rohdaten zur Waffe.
Standardisierte Definitionen, externe Prüfungen und klarere Bezugsgrößen (Raten pro Nutzer, Raten pro Nachricht, Raten pro Ansicht) würden die Aussage „Wir haben mehr gemeldet“ zu einer weniger problematischen PR-Falle machen.
3) Trennung zwischen Sicherheitsforschung und Anreizen für Produktwachstum
Wenn die Sicherheitsforschung in der gleichen Befehlskette wie die Wachstumsziele angesiedelt ist, kann dies politisch unpraktisch werden.
Eine bauliche Trennung – selbst wenn keine vollständige Unabhängigkeit möglich ist – kann dazu beitragen, dass Sicherheitsfragen weiterhin gestellt werden.
4) Besseres öffentliches Verständnis dafür, was Kennzahlen bedeuten
In der öffentlichen Diskussion werden interne Forschungsergebnisse oft wie ein Geständnis behandelt.
Manchmal ist es so. Manchmal ist es aber auch das Gegenteil: ein Zeichen dafür, dass das Unternehmen sucht.
Eine reifere Lesekompetenz würde fragen:
- Wurde der Schaden verantwortungsvoll gemessen?
- Wurden die Ergebnisse unter angemessener Aufsicht weitergegeben?
- Welche Abhilfemaßnahmen wurden getestet?
- Was hat sich dadurch geändert?
Was Sie als Nächstes sehen sollten
Die E-Mail ist nur ein Artefakt. Im größeren Kontext steht die Spannung zwischen drei Kräften:
- Transparenz:Wir wollen wissen, was die Plattformen wissen.
- Rechenschaftspflicht:Wir wollen Konsequenzen, wenn Schäden ignoriert werden.
- Lernsysteme:Wir brauchen Plattformen, um kontinuierlich zu messen und zu verbessern.
Wenn diese Kräfte nicht aufeinander abgestimmt sind, kann das Gleichgewichtsergebnis pervers sein: weniger Messung, weniger Offenheit und langsamere Verbesserungen – und das, obwohl der öffentliche Unmut zunimmt.
Die beste Version des Internets ist nicht die, in der Plattformen ihre eigenen Forschungsergebnisse verbergen. Es ist eine, in der interne Forschung Routine ist, geprüft wird und zur Produktverbesserung genutzt wird – und in der das Rechts- und Politiksystem zwischen „Wir haben den Schaden untersucht und Verbesserungen vorgenommen“ und „Wir haben den Schaden untersucht und absichtlich nichts unternommen“ unterscheiden kann.
Fazit
Die freigegebene E-Mail von Zuckerberg ist weniger als „Fangfrage“ von Bedeutung, sondern vielmehr als Hinweis auf mögliche Anreize.
Wenn ernsthafte interne Forschung zu Sicherheits- und sozialen Problemen zuverlässig zu Reputations- und Rechtsrisiken führt, werden Unternehmen weniger davon betreiben – und die Öffentlichkeit wird es verstehen.wenigerEinblick in reale Risiken.
Das politische Ziel sollte nicht darin bestehen, Plattformen für die Durchführung von Studien zu beschämen. Vielmehr sollte es darin bestehen, messbare Verbesserungen zu fordern.UndEs müssen Anreize geschaffen werden, die verantwortungsvolles Messen zum Standard und nicht zur Ausnahme machen.
Quellen
- https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
- https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
- https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
- https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/