L'une des incitations les plus étranges des politiques technologiques modernes est laparadoxe de la rechercheLes entreprises qui effectuent le plus de travail interne pour mesurer les préjudices peuvent finir par apparaître comme les pires acteurs, simplement parce qu'elles possèdent le plus de données — et parce que ces données peuvent fuiter, faire l'objet d'une citation à comparaître ou être descellées devant un tribunal.
Ce paradoxe est au cœur d'un courriel interne de Meta récemment déclassifié, rapporté parThe Verge, dans lequel Mark Zuckerberg suggère que l'entreprise envisage de modifier son approche en matière de « recherche et d'analyse des questions sociales » après que la couverture médiatique des conclusions internes (notamment concernant le bien-être des adolescents sur Instagram) ait explosé en 2021.
Il ne s'agit pas simplement d'un article sur les coulisses de la gestion des relations publiques. C'est un aperçu de la façon dont les plateformes sociales conçoivent la responsabilité, et comment la menace de poursuites et de fuites peut influencer ce qui est mesuré, ce qui est publié et ce qui n'est jamais demandé.
Vous trouverez ci-dessous une explication pratique du contenu du courriel, de son importance et de ce à quoi pourrait ressembler une structure d'incitation plus saine.
Ce que le courriel déclassifié a réellement révélé
Selon ces informations, Zuckerberg a écrit aux cadres supérieurs le 15 septembre 2021, soit le lendemain d'un article du Wall Street Journal basé sur des documents internes (liés plus tard à la lanceuse d'alerte Frances Haugen) qui mettait en lumière les propres recherches de Meta sur les adolescentes et Instagram.
L'essentiel n'était pas que « Meta ait mené des recherches ». De nombreuses grandes plateformes disposent d'équipes de recherche. Ce qui est frappant, c'est que le PDG ait explicitement fait le lien.mener des recherches proactives sur les enjeux sociauxaveccréation de passifs et de risques de réputationlorsque les résultats sont rendus publics.
La structure du courriel est essentiellement la suivante :
- Nous étudions des sujets sensibles (sécurité des adolescents, santé mentale, exploitation des enfants, désinformation, etc.).
- Lorsque nos conclusions font l'objet de fuites ou sont rendues publiques, le discours public peut se transformer en : « Vous le saviez et vous n'avez rien fait pour y remédier. »
- Certaines entreprises comparables semblent le fairemoinsLa recherche proactive permet ainsi de produire moins de documents susceptibles d'être utilisés contre eux.
Il s'agit là d'un problème de gouvernance délicat mais bien réel : si le fait de « mesurer et documenter le problème » augmente les coûts d'exploitation, il existe une incitation intrinsèque à mesurer moins.
Le paradoxe de la recherche : quand la transparence devient un désavantage concurrentiel
Dans un monde où les plateformes sont scrutées par les autorités de régulation, les journalistes et les tribunaux, on peut imaginer deux grandes stratégies :
- Les études sont profondément néfasteset créer des tableaux de bord internes, des expériences et des analyses post-mortem.
- Les effets néfastes de l'étude sont minimes, concentrez-vous sur des exigences de conformité précises et évitez de produire des documents qui « sonnent mal ».
Si l’inconvénient de la stratégie (1) est qu’elle crée du matériel découvrable — courriels, présentations, comptes rendus d’expériences —, alors un acteur rationnel de l’entreprise peut dériver vers la stratégie (2), même si la stratégie (1) est meilleure pour les utilisateurs.
Il ne s'agit pas de justifier le fait de faire moins de recherches, mais d'expliquer ce qui motive ces recherches.
Le défi politique consiste à concevoir un système où l’approche « agir de manière responsable » (étudier les préjudices et agir en fonction des conclusions) ne devienne pas auto-punissante.
Pourquoi les courriels de Meta refont surface maintenant : poursuites judiciaires et procédure de découverte
Le courriel a été descellé après avoir été recueilli dans le cadre d'une enquête menée par le bureau du procureur général du Nouveau-Mexique, dans une affaire où Meta aurait présenté de manière trompeuse Facebook et Instagram comme étant sûrs pour les adolescents, tout en étant consciente de choix de conception préjudiciables.
Cette affaire s'inscrit dans un contexte plus large de litiges et de pressions législatives axés sur la sécurité des enfants, la santé mentale des jeunes et la responsabilité du fait des produits pour les plateformes sociales. Quel que soit le dénouement de chaque affaire, la procédure est essentielle : la phase de découverte des preuves transforme les débats internes en éléments de preuve publics.
Cela a deux effets de second ordre :
- Cela influence les futurs écrits internes.Les dirigeants deviennent prudents non seulement sur ce qu'ils font, mais aussi sur la manière dont ils le décrivent.
- Elle oriente les recherches futures.Si une étude est susceptible de générer des graphiques politiquement explosifs, quelqu'un se demandera si elle vaut vraiment la peine d'être menée.
« Apple ne semble pas se pencher sur ces questions » : quel est l'argument ici ?
Le courriel établirait une comparaison avec Apple, suggérant qu'Apple « ne semble pas étudier » ces questions de la même manière et échappe ainsi à une grande partie des critiques.
Même si cette comparaison est incomplète (Apple publie des documents sur la sécurité et la confidentialité, et fait l'objet d'un examen minutieux dans d'autres domaines), l'idée principale est la suivante :catégorie de produit et surface à risque:
- Les plateformes sociales hébergent des volumes massifs de contenu généré par les utilisateurs, y compris du contenu abusif.
- Les produits de messagerie (en particulier ceux chiffrés de bout en bout) limitent structurellement ce que le fournisseur peut inspecter.
- Les plateformes d'appareils peuvent se décharger de leur responsabilité sur les utilisateurs (« voici ce que font les utilisateurs sur leurs appareils ») tandis que les flux sociaux s'apparentent davantage à une amplification de type éditorial.
La question « pourquoi reçoivent-ils moins de chaleur ? » comporte donc une composante technique non négligeable.
Le point de vue de la protection de l'enfance : le volume de signalements peut être perçu comme un signe de culpabilité
Un des arguments avancés dans le rapport est que Meta souligne le fait qu'elle signale un grand nombre de contenus pédopornographiques au Centre national pour les enfants disparus et exploités (NCMEC) — et que ce volume élevé de signalements peut être interprété comme signifiant « il y a plus d'abus sur Meta », même si une partie de la raison estdétection et signalement accrus.
Les données publiques du NCMEC permettent d'illustrer la complexité de cette interprétation. Par exemple, le NCMEC indique avoir reçu 20,5 millions de signalements en 2024 (soit 29,2 millions d'incidents après ajustement) et décrit également des changements tels que le regroupement des signalements, qui peuvent réduire le nombre brut de signalements sans pour autant indiquer une diminution des abus sous-jacents.
Les décomptes seuls ne sont qu'un outil grossier. Ce qui compte, c'esttaux,couverture de détection, etrésultats en aval:
- À quelle vitesse les comptes sont-ils supprimés ?
- Les auteurs de ces actes sont-ils identifiés et déférés aux forces de l'ordre ?
- À quelle fréquence les mineurs sont-ils protégés de manière proactive (par exemple, en limitant les fonctionnalités de contact, en restreignant la portée des adultes) ?
- Comment s'équilibrent les faux positifs et les faux négatifs ?
Lorsque le débat public se concentre uniquement sur « qui a le chiffre le plus élevé », les entreprises peuvent être incitées à sous-déclarer ou à sous-mesurer leurs résultats.
Pourquoi faire moins de recherches serait une mauvaise chose — même pour Meta
Si l'on prend au pied de la lettre l'inquiétude exprimée dans le courriel, la « solution » consistant à étudier moins est séduisante : moins d'études, moins de diapositives, moins de citations à comparaître.
Mais c'est aussi contre-productif.
1) On ne peut améliorer ce qu'on ne mesure pas.
De nombreux problèmes de sécurité des plateformes sont des problèmes systémiques, engendrés par le classement, les recommandations, les mécanismes de contact et les cercles vicieux de croissance propices aux abus. Une simple déclaration de politique ne saurait les résoudre ; une évaluation s’impose.
Sans recherche et analyse internes, la « posture de sécurité » de l’entreprise devient :
- réactif (réagir aux scandales)
- anecdotique (fiez-vous à ce que disent les plus virulents mécontents)
- non auditable (pas de données de référence, pas d'évaluation)
2) Les organismes de réglementation exigeront de toute façon des preuves.
Même si une entreprise tente d'éviter les recherches sensibles, les autorités réglementaires peuvent exiger des rapports de transparence, des évaluations des risques et une auditabilité. Autrement dit : si vous ne fournissez pas volontairement les éléments de preuve, quelqu'un d'autre peut vous y contraindre, et vous devrez alors le faire sous la pression.
3) Vous perdez la capacité de distinguercompromisdepuisnégligence
Un thème majeur de ce courriel est que toutes les recommandations ne sont pas raisonnables à mettre en œuvre car tout comporte des compromis.
C'est vrai. Mais la seule façon crédible d'affirmer « nous avons envisagé X et choisi Y parce que… » est de détailler son raisonnement. Sinon, cela peut paraître superficiel.
La recherche est ce qui transforme le « faites-nous confiance » en « voici le modèle, l'expérience, le résultat mesuré et la note de décision ».
Le problème de fond : les litiges transforment la franchise interne en un handicap.
Une organisation saine privilégie la franchise : « Cette fonctionnalité pourrait être nuisible », « Ce groupe est à risque », « Cet indicateur est mauvais », « Nous devons modifier le classement. »
Mais les litiges et les fuites d'informations peuvent punir la franchise de deux manières :
- Effet de sélection :Les cadres supérieurs cessent de mettre leurs pensées sensibles par écrit.
- Effet culturel :Les équipes évitent les questions susceptibles de produire de « mauvaises » réponses.
Ces deux effets aggravent la situation de la plateforme.
Et ce problème n'est pas propre à Meta ; il s'agit d'un problème général pour toute entreprise opérant à la croisée des chemins entre la technologie grand public et la sécurité publique.
À quoi ressembleraient de meilleures incitations ?
Si la société souhaite que des plateformes permettent de mesurer et de réduire les préjudices, elle doit rendre ce processus viable.
Voici quelques idées pratiques qui reviennent régulièrement dans les cercles politiques :
1) Zones de sécurité pour la recherche interne de sécurité menée de bonne foi
Imaginez un cadre dans lequel les entreprises bénéficient d'une protection limitée lorsqu'elles mènent des recherches documentées et de bonne foi sur les préjudices et prennent des mesures concrètes en fonction des résultats – un principe similaire à celui utilisé par certaines industries critiques pour la sécurité pour signaler les incidents.
Cela ne signifie pas l'impunité pour les actes répréhensibles. Cela signifie réduire l'incitation àRestez volontairement ignorant.
2) Des rapports normalisés et audités (pour que les comparaisons soient équitables)
Si chaque plateforme communique ses indicateurs de sécurité en utilisant des définitions différentes, les chiffres bruts deviennent une arme.
Des définitions standardisées, des audits par des tiers et des dénominateurs plus clairs (taux par utilisateur, taux par message, taux par vue) permettraient de réduire le risque que l'affirmation « nous avons déclaré plus » devienne un piège en matière de relations publiques.
3) Séparation entre la recherche en matière de sécurité et les incitations à la croissance des produits
Lorsque la recherche en matière de sécurité se trouve dans la même chaîne de commandement que les objectifs de croissance, cela peut devenir politiquement gênant.
La séparation structurelle — même si elle n'implique pas une indépendance totale — peut contribuer à garantir que les questions de sécurité continuent d'être posées.
4) Une meilleure compréhension, par le public, de la signification des indicateurs
Le débat public traite souvent les recherches internes comme des aveux.
Parfois oui. Mais parfois c'est le contraire : un signe que l'entreprise est à l'affût.
Une culture littéraire plus mature demanderait :
- Le préjudice a-t-il été mesuré de manière responsable ?
- Les conclusions ont-elles été communiquées sous une supervision appropriée ?
- Quelles mesures d'atténuation ont été testées ?
- Qu'est-ce qui a changé en conséquence ?
Que regarder ensuite ?
Le courriel n'est qu'un élément parmi d'autres. Le problème plus vaste réside dans la tension entre trois forces :
- Transparence:Nous voulons savoir ce que les plateformes savent.
- Responsabilité:Nous voulons des conséquences lorsque les préjudices sont ignorés.
- Systèmes d'apprentissage :Nous avons besoin de plateformes pour continuer à mesurer et à améliorer.
Lorsque ces forces sont désalignées, l'équilibre qui en résulte peut être pervers : moins de mesures, moins de franchise et une amélioration plus lente — alors même que la colère du public augmente.
L'idéal d'Internet n'est pas celui où les plateformes dissimulent leurs propres recherches. C'est celui où la recherche interne est systématique, auditée et sert à orienter les changements de produits, et où le système juridique et politique peut faire la distinction entre « nous avons étudié les conséquences néfastes et apporté des améliorations » et « nous avons étudié les conséquences néfastes et délibérément n'avons rien fait ».
En résumé
Le courriel de Zuckerberg désormais confidentiel est moins important en tant que «piège» qu'en tant qu'indice sur les motivations.
Si les recherches approfondies menées en interne sur la sécurité et les enjeux sociaux entraînent systématiquement des atteintes à la réputation et des poursuites judiciaires, les entreprises y consacreront moins de temps – et le public en subira les conséquences.moinsvisibilité sur les risques réels.
L’objectif politique ne devrait pas être de stigmatiser les plateformes qui mènent des recherches. Il devrait être d’exiger des améliorations mesurables.etCréer des incitations qui fassent de la mesure responsable la norme, et non l'exception.
Sources
- https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
- https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
- https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
- https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/