Een van de vreemdste stimulansen in het moderne technologiebeleid is...onderzoek paradoxDe bedrijven die intern het meeste werk verzetten om de schade te meten, kunnen uiteindelijk als de grootste boosdoeners worden gezien, simpelweg omdat ze over de meeste data beschikken – en omdat die data kunnen lekken, opgevraagd kunnen worden via een dagvaarding of openbaar gemaakt kunnen worden in de rechtbank.
Die paradox staat centraal in een onlangs openbaar gemaakte interne e-mail van Meta, zo meldt de redactie.The Vergewaarin Mark Zuckerberg suggereert dat het bedrijf zijn aanpak van "onderzoek en analyses rond sociale kwesties" zou moeten herzien, nadat interne bevindingen (met name over het welzijn van tieners op Instagram) in 2021 veel media-aandacht kregen.
Dit is niet zomaar een verhaal over interne PR-management. Het geeft inzicht in hoe sociale platforms denken over verantwoording – en hoe de dreiging van rechtszaken en lekken bepaalt wat er gemeten wordt, wat er gepubliceerd wordt en waarover nooit vragen gesteld worden.
Hieronder volgt een praktische uitleg van de inhoud van de e-mail, waarom deze van belang is en hoe een gezondere beloningsstructuur eruit zou kunnen zien.
Wat de openbaar gemaakte e-mail daadwerkelijk onthulde
Volgens de berichtgeving schreef Zuckerberg op 15 september 2021 aan hoge functionarissen – een dag nadat een artikel in de Wall Street Journal, gebaseerd op interne documenten (die later in verband werden gebracht met klokkenluider Frances Haugen), het onderzoek van Meta naar tienermeisjes en Instagram onder de aandacht bracht.
Het belangrijkste punt was niet "Meta heeft onderzoek gedaan". Veel grote platforms hebben onderzoeksteams. Opvallend is dat de CEO expliciet een verband legde.proactief onderzoek doen naar maatschappelijke vraagstukkenmethet creëren van aansprakelijkheden en reputatierisico'swanneer de bevindingen openbaar worden gemaakt.
De e-mail is in essentie als volgt opgebouwd:
- We bestuderen gevoelige onderwerpen (veiligheid van tieners, geestelijke gezondheid, kinderuitbuiting, desinformatie, enz.).
- Als onze bevindingen uitlekken of in de media verschijnen, kan het publieke debat omslaan in: "Jullie wisten ervan en jullie hebben er niets aan gedaan."
- Sommige concurrenten lijken dat wel te doen.minderProactief onderzoek doen — en daardoor minder documenten creëren die tegen hen gebruikt kunnen worden.
Dat is een ongemakkelijk, maar reëel bestuursprobleem: als "het probleem meten en documenteren" de operationele kosten verhoogt, ontstaat er een ingebouwde prikkel om minder te meten.
De paradox in onderzoek: wanneer transparantie een concurrentienadeel wordt.
In een wereld waarin platforms onder de loep worden genomen door toezichthouders, journalisten en rechtbanken, kun je je twee algemene strategieën voorstellen:
- De studie brengt grote schade toe.en interne dashboards, experimenten en evaluaties opzetten.
- De studie brengt minimale schade toe.Focus op strikte nalevingsvereisten en vermijd het produceren van documenten die "slecht klinken".
Als het nadeel van strategie (1) is dat er vindbaar materiaal ontstaat — e-mails, presentaties, resultaten van experimenten — dan kan een rationele bedrijfsspeler overstappen op strategie (2), zelfs als strategie (1) beter is voor de gebruikers.
Dat is geen pleidooi voor minder onderzoek. Het is een uitleg van de drijfveer.
De beleidsuitdaging is het ontwerpen van een systeem waarin de aanpak "doe het juiste" (schade onderzoeken en op basis van de bevindingen handelen) niet zelfbestraffend wordt.
Waarom Meta's e-mail nu opduikt: rechtszaken en bewijsvergaring
De e-mail werd openbaar gemaakt nadat deze in het kader van een gerechtelijke procedure was verzameld door het Openbaar Ministerie van New Mexico. In deze zaak wordt Meta ervan beschuldigd Facebook en Instagram op misleidende wijze als veilig voor tieners te hebben voorgesteld, terwijl het bedrijf zich bewust was van schadelijke ontwerpkeuzes.
Die zaak past in een bredere golf van rechtszaken en wetgevende druk gericht op de veiligheid van kinderen, de geestelijke gezondheid van jongeren en productaansprakelijkheidstheorieën voor sociale platforms. Ongeacht de uitkomst van een individuele zaak, is het proces van belang: de bewijsvergaring zet interne discussies om in openbaar bewijsmateriaal.
Dat heeft twee indirecte gevolgen:
- Het geeft vorm aan toekomstig intern schrijven.Directieleden worden niet alleen voorzichtiger met wat ze doen, maar ook met hoe ze het beschrijven.
- Het geeft richting aan toekomstig onderzoek.Als een onderzoek waarschijnlijk politiek explosieve grafieken zal opleveren, zal iemand zich afvragen of het überhaupt de moeite waard is om het uit te voeren.
“Apple lijkt zich niet met dit soort dingen bezig te houden”: wat is het argument hier?
De e-mail zou een vergelijking trekken met Apple en suggereren dat Apple deze kwesties niet op dezelfde manier lijkt te bestuderen en daardoor veel kritiek ontloopt.
Ook al is die vergelijking onvolledig (Apple publiceert wel degelijk informatie over beveiliging en privacy, en het bedrijf staat op andere gebieden onder intense druk), de onderliggende strekking is dat het hier om het volgende gaat:productcategorie en risicooppervlak:
- Sociale platforms bevatten enorme hoeveelheden door gebruikers gegenereerde content, waaronder beledigende content.
- Berichtensystemen (met name end-to-end versleutelde systemen) beperken structureel wat de provider kan inspecteren.
- Platformen kunnen de verantwoordelijkheid afschuiven op lager niveau ("dit is wat gebruikers op hun apparaten doen"), terwijl sociale media meer neigen naar redactionele versterking.
De vraag "waarom krijgen ze minder warmte?" heeft dus een niet te verwaarlozen technische component.
Het kindveiligheidsperspectief: een hoog aantal meldingen kan op schuldgevoel duiden.
Een van de argumenten in de berichtgeving is dat Meta erop wijst dat het veel materiaal over seksueel misbruik van kinderen (CSAM) meldt aan het National Center for Missing and Exploited Children (NCMEC) — en dat dit hoge meldingsvolume kan worden geïnterpreteerd als "er is meer misbruik op Meta", zelfs als een deel van de reden ismeer opsporing en rapportage.
De eigen openbare gegevens van NCMEC illustreren de complexiteit van die interpretatie. Zo merkt NCMEC bijvoorbeeld op dat het in 2024 20,5 miljoen meldingen ontving (29,2 miljoen incidenten na correctie), en beschrijft het ook veranderingen zoals het 'bundelen' van meldingen die het absolute aantal kunnen verlagen zonder dat dit impliceert dat er minder misbruik plaatsvindt.
Het tellen van aantallen alleen is een bot instrument. Waar het om gaat istarieven,detectiedekking, Envervolgresultaten:
- Hoe snel worden accounts verwijderd?
- Worden de daders geïdentificeerd en overgedragen aan de politie?
- Hoe vaak worden minderjarigen proactief beschermd (bijvoorbeeld door contactmogelijkheden te beperken of de toegang van volwassenen te beperken)?
- Hoe verhouden vals-positieve en vals-negatieve resultaten zich tot elkaar?
Wanneer het publieke debat zich alleen richt op "wie het grootste aantal heeft", kunnen bedrijven ertoe worden aangezet om cijfers te onderrapporteren of te ondermeten.
Waarom minder onderzoek doen slecht zou zijn — zelfs voor Meta
Als je de bezorgdheid in de e-mail letterlijk neemt, is de "oplossing" om minder te studeren verleidelijk: minder onderzoeken, minder presentaties, minder dagvaardingen.
Maar het werkt ook averechts.
1) Je kunt niet verbeteren wat je niet meet.
Veel problemen met de veiligheid van platformen zijn systeemproblemen – veroorzaakt door ranking, aanbevelingen, contactmechanismen en groeiprocessen die misbruik in de hand werken. Die problemen lossen zich niet op met één beleidsverklaring. Ze vereisen meting.
Zonder intern onderzoek en analyses wordt de "veiligheidspositie" van het bedrijf:
- reactief (reageren op schandalen)
- anekdotisch (geloof de luidste klachten)
- niet controleerbaar (geen basisgegevens, geen evaluatie)
2) Toezichthouders zullen sowieso bewijs eisen.
Zelfs als een bedrijf probeert gevoelig onderzoek te vermijden, kunnen toezichthouders nog steeds transparantierapporten, risicobeoordelingen en controleerbaarheid eisen. Met andere woorden: als u het bewijsmateriaal niet vrijwillig aanlevert, kan iemand anders u ertoe dwingen – en dan moet u dat onder druk doen.
3) Je verliest het vermogen om onderscheid te makenafwegingenvannalatigheid
Een belangrijk thema in de e-mail is dat niet alle aanbevelingen redelijk zijn om te implementeren, omdat aan alles compromissen verbonden zijn.
Dat klopt. Maar de enige geloofwaardige manier om te beargumenteren "we hebben X overwogen en voor Y gekozen omdat..." is door je berekeningen te laten zien. Anders komt het over als een loze belofte.
Onderzoek is wat "vertrouw ons maar" omzet in "hier is het model, het experiment, de gemeten uitkomst en het besluitdocument."
Het dieperliggende probleem: rechtszaken veranderen interne openheid in een aansprakelijkheidsrisico.
Een gezonde organisatie streeft naar openheid: "Deze functie kan schadelijk zijn", "Deze groep loopt risico", "Deze indicator ziet er slecht uit", "We moeten de ranking aanpassen".
Maar rechtszaken en lekken kunnen openhartigheid op twee manieren bestraffen:
- Selectie-effect:Directieleden stoppen met het opschrijven van gevoelige gedachten.
- Cultureel effect:Teams vermijden vragen die tot "verkeerde" antwoorden zouden kunnen leiden.
Beide effecten verslechteren het platform.
En dit is niet uniek voor Meta; het is een algemeen probleem voor elk bedrijf dat actief is op het snijvlak van consumententechnologie en openbare veiligheid.
Hoe zouden betere stimulansen eruitzien?
Als de maatschappij platforms wil gebruiken om schade te meten en te verminderen, moet ze ervoor zorgen dat die weg begaanbaar is.
Enkele praktische ideeën die regelmatig terugkomen in beleidskringen:
1) Veilige haven voor intern veiligheidsonderzoek te goeder trouw
Stel je een raamwerk voor waarin bedrijven beperkte bescherming krijgen wanneer ze gedocumenteerd en te goeder trouw onderzoek doen naar schadelijke gevolgen en op basis van de bevindingen zinvolle stappen ondernemen – vergelijkbaar met de manier waarop sommige veiligheidskritische sectoren omgaan met incidentrapportage.
Dit betekent niet dat je immuniteit krijgt voor wangedrag. Het betekent dat de prikkel om wangedrag te plegen wordt verminderd.Bewust onwetend blijven.
2) Gestandaardiseerde, gecontroleerde rapportage (zodat vergelijkingen eerlijk zijn)
Als elk platform veiligheidsstatistieken rapporteert met behulp van verschillende definities, worden ruwe cijfers misbruikt.
Standaarddefinities, audits door derden en duidelijkere noemers (cijfers per gebruiker, cijfers per bericht, cijfers per weergave) zouden ervoor zorgen dat "we hebben meer gerapporteerd" minder een PR-valkuil wordt.
3) Scheiding tussen veiligheidsonderzoek en stimuleringsmaatregelen voor productgroei
Wanneer veiligheidsonderzoek binnen dezelfde hiërarchie valt als groeidoelstellingen, kan dat politiek gezien onwenselijk worden.
Structurele scheiding – ook al is er geen sprake van volledige onafhankelijkheid – kan ervoor zorgen dat er steeds weer vragen over de veiligheid gesteld worden.
4) Betere publieke kennis over de betekenis van meetgegevens
In het publieke debat wordt intern onderzoek vaak als een bekentenis beschouwd.
Soms wel. Maar soms is het juist andersom: een teken dat het bedrijf op zoek is naar een nieuwe collega.
Een meer volwassen lees- en schrijfvaardigheid zou de volgende vraag stellen:
- Werd de schade op een verantwoorde manier gemeten?
- Werden de bevindingen onder passend toezicht gedeeld?
- Welke maatregelen werden getest?
- Wat veranderde er als gevolg daarvan?
Wat je hierna kunt kijken
De e-mail is slechts één artefact. Het bredere verhaal draait om de spanning tussen drie krachten:
- Transparantie:We willen weten wat platformen weten.
- Verantwoordelijkheid:We willen consequenties zien wanneer schadelijke praktijken worden genegeerd.
- Leersystemen:We hebben platforms nodig om te blijven meten en verbeteren.
Wanneer die krachten niet op elkaar zijn afgestemd, kan het evenwichtsresultaat averechts uitpakken: minder meting, minder openheid en tragere verbetering – terwijl de publieke woede juist toeneemt.
De beste versie van het internet is er niet een waarin platforms hun eigen onderzoek verbergen. Het is er een waarin intern onderzoek routinematig is, gecontroleerd wordt en gebruikt wordt om productverbeteringen door te voeren — en waarin het juridische en politieke systeem onderscheid kan maken tussen "we hebben de schade onderzocht en verbeteringen aangebracht" en "we hebben de schade onderzocht en opzettelijk niets gedaan".
Kortom
De openbaar gemaakte e-mail van Zuckerberg is minder belangrijk als bewijs van schuld, maar geeft meer inzicht in de beweegredenen van de betrokkenen.
Als serieus onderzoek naar interne veiligheid en maatschappelijke vraagstukken consequent leidt tot reputatieschade en juridische problemen, zullen bedrijven er minder van doen – en het publiek profiteert ervan.minderinzicht in reële risico's.
Het beleidsdoel zou niet moeten zijn om platforms te beschamen omdat ze onderzoek doen. Het zou moeten zijn om meetbare verbeteringen te eisen.EnCreëer prikkels die ervoor zorgen dat verantwoord meten de norm wordt, en niet de uitzondering.
Bronnen
- https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
- https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
- https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
- https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/