Jednym z dziwniejszych bodźców w nowoczesnej polityce technologicznej jestparadoks badawczy:firmy, które wykonują najwięcej prac wewnętrznych w celu pomiaru szkód, mogą zostać uznane za najgorszych aktorów, po prostu dlatego, że dysponują największą ilością danych — a te dane mogą wyciec, zostać wezwane do sądu lub ujawnione w sądzie.
Ten paradoks leży u podstaw niedawno ujawnionego wewnętrznego e-maila Meta, o którym donosiThe Verge, w którym Mark Zuckerberg sugeruje, aby firma rozważyła zmianę podejścia do „badań i analiz dotyczących kwestii społecznych” po tym, jak w 2021 r. nastąpił gwałtowny wzrost zainteresowania mediów wewnętrznymi ustaleniami (zwłaszcza dotyczącymi dobrego samopoczucia nastolatków na Instagramie).
To nie jest tylko wewnętrzna historia o zarządzaniu PR. To okno na to, jak platformy społecznościowe postrzegają odpowiedzialność – i jak groźba procesów sądowych i przecieków może wpływać na to, co jest mierzone, co jest publikowane, a o co nigdy nie pytają.
Poniżej znajdziesz praktyczne wyjaśnienie treści wiadomości e-mail, dlaczego jest ona ważna i jak mogłaby wyglądać zdrowsza struktura zachęt.
Co tak naprawdę ujawnił odtajniony e-mail
Według doniesień, Zuckerberg napisał do kadry kierowniczej wyższego szczebla 15 września 2021 r. — dzień po tym, jak w Wall Street Journal ukazał się artykuł oparty na wewnętrznych dokumentach (później powiązanych z informatorką Frances Haugen), w którym podkreślono badania firmy Meta dotyczące nastolatek i Instagrama.
Kluczowym punktem nie było stwierdzenie, że „Meta przeprowadziła badania”. Wiele dużych platform ma zespoły badawcze. Uderzające jest to, że prezes wyraźnie powiązałprowadzenie proaktywnych badań nad problemami społecznymiztworzenie zobowiązań i ryzyka reputacyjnegogdy ustalenia staną się publiczne.
Treść wiadomości e-mail jest zasadniczo następująca:
- Zajmujemy się zagadnieniami wrażliwymi (bezpieczeństwo nastolatków, zdrowie psychiczne, wykorzystywanie dzieci, dezinformacja itp.).
- Gdy nasze ustalenia wyciekną lub zostaną ujawnione, publiczna narracja może zmienić się w następującą: „Wiedzieliście i nie naprawiliście tego”.
- Wydaje się, że niektóre firmy partnerskie tak robiąmniejproaktywne badania — i w związku z tym tworzą mniej dokumentów, które można wykorzystać przeciwko nim.
To niewygodna, ale realna kwestia zarządzania: jeśli „mierzenie i dokumentowanie problemu” zwiększa koszty operacyjne, pojawia się wewnętrzna zachęta, aby mniej mierzyć.
Paradoks badawczy: kiedy przejrzystość staje się przeszkodą konkurencyjną
W świecie, w którym platformy są nadzorowane przez organy regulacyjne, dziennikarzy i sądy, można sobie wyobrazić dwie ogólne strategie:
- Studia szkodzą głębokoi tworzyć wewnętrzne pulpity nawigacyjne, eksperymenty i analizy postmortem.
- Badanie szkodzi minimalnie, skup się na wąskich wymogach zgodności i unikaj tworzenia „źle brzmiących” dokumentów.
Jeśli wadą strategii (1) jest to, że tworzy ona materiały łatwe do odkrycia — wiadomości e-mail, prezentacje, wyniki eksperymentów — wówczas racjonalny podmiot korporacyjny może skłaniać się ku strategii (2), nawet jeśli strategia (1) jest lepsza dla użytkowników.
To nie jest argument za ograniczeniem badań. To wyjaśnienie motywacji.
Wyzwaniem politycznym jest zaprojektowanie systemu, w którym podejście polegające na „postępowaniu odpowiedzialnym” (badaniu szkód i podejmowaniu działań na podstawie ustaleń) nie stanie się karą dla samego siebie.
Dlaczego e-mail Meta pojawił się dopiero teraz: pozwy sądowe i ujawnienie informacji
Wiadomość e-mail została ujawniona po tym, jak zostało zgromadzone w toku postępowania dowodowego przez biuro prokuratora generalnego Nowego Meksyku w związku ze sprawą, w której zarzucano firmie Meta wprowadzanie użytkowników w błąd, którzy przedstawiali Facebooka i Instagram jako bezpieczne dla nastolatków, jednocześnie zdając sobie sprawę ze szkodliwych wyborów projektowych.
Ta sprawa wpisuje się w szerszą falę procesów sądowych i presji legislacyjnej skupionych na bezpieczeństwie dzieci, zdrowiu psychicznym młodzieży oraz teoriach odpowiedzialności za produkt dla platform społecznościowych. Niezależnie od wyniku konkretnej sprawy, proces ma znaczenie: ujawnienie dowodów przekształca wewnętrzną debatę w dowód publiczny.
Ma to dwa skutki drugiego rzędu:
- Kształtuje przyszłe wewnętrzne pismo.Kadra kierownicza staje się ostrożna nie tylko w kwestii tego, co robi, ale także sposobu, w jaki to opisuje.
- Kształtuje przyszłe badania.Jeśli istnieje prawdopodobieństwo, że badanie doprowadzi do powstania politycznie kontrowersyjnych wykresów, ktoś zapyta, czy w ogóle warto je przeprowadzać.
„Wygląda na to, że Apple nie zajmuje się żadną z tych kwestii”: jaki jest tu argument?
W e-mailu rzekomo pojawia się porównanie do firmy Apple, sugerujące, że Apple „wydaje się nie analizować” tych kwestii w ten sam sposób i dzięki temu unika dużej części krytyki.
Nawet jeśli porównanie to jest niekompletne (Apple publikuje materiały dotyczące bezpieczeństwa i prywatności, a w innych dziedzinach jest poddawane intensywnej kontroli), sedno sprawy sprowadza się do tego,kategoria produktu i powierzchnia ryzyka:
- Platformy społecznościowe hostują ogromną ilość treści tworzonych przez użytkowników, w tym treści obraźliwych.
- Produkty do przesyłania wiadomości (zwłaszcza te szyfrowane w sposób kompleksowy) strukturalnie ograniczają zakres informacji, które dostawca może sprawdzić.
- Platformy urządzeń mogą przerzucać odpowiedzialność na niższe szczeble („to jest to, co użytkownicy robią na swoich urządzeniach”), podczas gdy kanały społecznościowe bliższe są wzmacnianiu treści o charakterze redakcyjnym.
Tak więc pytanie „dlaczego otrzymują mniej ciepła?” ma nietrywialny komponent techniczny.
Bezpieczeństwo dziecka z perspektywy obiektywu: zgłaszanie dużej liczby zgłoszeń może budzić poczucie winy
Jednym z argumentów w raporcie jest to, że Meta wskazuje na fakt, że zgłasza wiele materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM) do Narodowego Centrum ds. Zaginionych i Wykorzystywanych Dzieci (NCMEC) — i że dużą liczbę zgłoszeń można interpretować jako oznaczającą, że „na Meta jest więcej przypadków wykorzystywania”, nawet jeśli jednym z powodów jestwięcej wykrywania i raportowania.
Publiczne dane NCMEC pomagają zilustrować złożoność tej interpretacji. Na przykład, NCMEC podaje, że w 2024 roku otrzymało 20,5 miliona zgłoszeń (29,2 miliona incydentów po uwzględnieniu danych), a także opisuje zmiany, takie jak „grupowanie” zgłoszeń, które może zmniejszyć liczbę nieprzetworzonych zgłoszeń bez implikowania mniejszej liczby nadużyć.
Same liczby są tępym narzędziem. Ważne jest,stawki,zasięg wykrywania, Iwyniki w dół rzeki:
- Jak szybko konta są usuwane?
- Czy sprawcy są identyfikowani i zgłaszani organom ścigania?
- Jak często osoby niepełnoletnie są chronione proaktywnie (np. poprzez ograniczanie możliwości kontaktu, ograniczanie dostępu osób dorosłych)?
- Jak zmieniają się wyniki fałszywie dodatnie i fałszywie ujemne?
Kiedy debata publiczna skupia się wyłącznie na tym, „kto ma największą liczbę”, firmy mogą popadać w tendencję do zaniżania danych lub niedoszacowywania ich.
Dlaczego mniej badań byłoby złe — nawet dla Meta
Jeśli potraktować obawy wyrażone w e-mailu dosłownie, „rozwiązanie” polegające na mniejszym zgłębianiu tematu wydaje się kuszące: mniej badań, mniej slajdów, mniej wezwań sądowych.
Ale to też jest działanie samobójcze.
1) Nie możesz ulepszyć tego, czego nie mierzysz
Wiele problemów z bezpieczeństwem platformy to problemy systemowe – generowane przez rankingi, rekomendacje, mechanizmy kontaktu i pętle wzrostu związane z nadużyciami. Nie da się ich rozwiązać za pomocą jednego oświadczenia o polityce. Wymagają one pomiaru.
Bez wewnętrznych badań i analiz „postawa bezpieczeństwa” firmy wygląda następująco:
- reaktywny (reagujący na skandale)
- anegdotyczne (zaufaj temu, co mówią najgłośniejsze skargi)
- nie podlegające audytowi (brak danych bazowych, brak oceny)
2) Organy regulacyjne i tak będą żądać dowodów
Nawet jeśli firma stara się unikać badań wrażliwych, organy regulacyjne nadal mogą wymagać raportów przejrzystości, ocen ryzyka i audytowalności. Innymi słowy: jeśli nie dostarczysz dowodów dobrowolnie, ktoś inny może cię do tego zmusić – i teraz musisz to zrobić pod presją.
3) Tracisz zdolność rozróżnianiakompromisyzzaniedbanie
Głównym przesłaniem wiadomości e-mail jest to, że nie wszystkie zalecenia są rozsądne w realizacji, ponieważ wszystko ma swoje wady i zalety.
To prawda. Ale jedynym wiarygodnym sposobem na argumentowanie, że „rozważaliśmy X i wybraliśmy Y, ponieważ…”, jest pokazanie swojej pracy. W przeciwnym razie może to wyglądać jak machnięcie ręką.
Badania sprawiają, że stwierdzenie „zaufaj nam” zmienia się w „oto model, eksperyment, zmierzony wynik i notatka z decyzją”.
Głębszy problem: spory sądowe sprawiają, że wewnętrzna szczerość staje się obciążeniem
Zdrowa organizacja oczekuje szczerości: „Ta funkcja może być szkodliwa”, „Ta kohorta jest zagrożona”, „Ta metryka wygląda źle”, „Musimy zmienić ranking”.
Jednak spory sądowe i wycieki informacji mogą ukarać szczerość na dwa sposoby:
- Efekt selekcji:kadra kierownicza przestaje wyrażać wrażliwe myśli na piśmie.
- Efekt kulturowy:Zespoły unikają pytań, które mogą prowadzić do „złych” odpowiedzi.
Oba efekty pogarszają działanie platformy.
Nie jest to jednak problem wyjątkowy dla Meta — jest to ogólny problem każdej firmy działającej na styku technologii konsumenckich i bezpieczeństwa publicznego.
Jak mogłyby wyglądać lepsze zachęty?
Jeśli społeczeństwo chce, aby platformy mierzyły i ograniczały szkody, musi zadbać o to, aby ta ścieżka była możliwa do przetrwania.
Kilka praktycznych pomysłów, które często pojawiają się w kręgach politycznych:
1) Bezpieczne przystanie dla rzetelnych wewnętrznych badań nad bezpieczeństwem
Wyobraź sobie ramy, w których przedsiębiorstwa uzyskują ograniczoną ochronę, gdy przeprowadzają udokumentowane, rzetelne badania dotyczące szkód i podejmują znaczące kroki na podstawie ustaleń — podobnie jak niektóre branże, w których bezpieczeństwo ma kluczowe znaczenie, radzą sobie ze zgłaszaniem incydentów.
Nie oznacza to immunitetu przed wykroczeniami. Oznacza to zmniejszenie bodźców docelowo pozostawać w niewiedzy.
2) Standaryzowane, audytowane raportowanie (aby porównania były uczciwe)
Jeżeli każda platforma raportuje wskaźniki bezpieczeństwa, korzystając z różnych definicji, surowe liczby stają się bronią.
Standardowe definicje, audyty przeprowadzane przez strony trzecie i jaśniejsze mianowniki (stawki za użytkownika, stawki za wiadomość, stawki za wyświetlenie) sprawiłyby, że hasło „zgłosiliśmy więcej” byłoby mniejszą pułapką PR-ową.
3) Oddzielenie badań nad bezpieczeństwem od zachęt do rozwoju produktu
Jeśli badania nad bezpieczeństwem są objęte tą samą hierarchią co cele wzrostu, może to stać się politycznie niewygodne.
Separacja strukturalna — nawet jeśli nie zapewnia pełnej niezależności — może pomóc w zapewnieniu, że pytania o bezpieczeństwo będą nadal zadawane.
4) Lepsza świadomość społeczeństwa na temat znaczenia wskaźników
W dyskusjach publicznych wewnętrzne badania często traktowane są jak wyznanie.
Czasami tak. Ale czasami jest odwrotnie: to znak, że firma na to zwraca uwagę.
Bardziej dojrzały człowiek zapytałby:
- Czy szkoda została oceniona odpowiedzialnie?
- Czy ustalenia udostępniono pod odpowiednim nadzorem?
- Jakie środki zaradcze zostały przetestowane?
- Co się w rezultacie zmieniło?
Co obejrzeć dalej
E-mail to jeden z artefaktów. Szersza historia to napięcie między trzema siłami:
- Przezroczystość:chcemy wiedzieć, co wiedzą platformy.
- Odpowiedzialność:chcemy konsekwencji, gdy szkody są ignorowane.
- Systemy uczenia się:potrzebujemy platform, które umożliwią nam ciągłe pomiary i udoskonalanie.
Gdy siły te nie są wyrównane, stan równowagi może być odwrotny do zamierzonego: mniej pomiarów, mniej szczerości i wolniejsza poprawa — a jednocześnie wzrasta gniew opinii publicznej.
Najlepsza wersja internetu to nie taka, w której platformy ukrywają własne badania. To taka, w której wewnętrzne badania są rutynowe, audytowane i wykorzystywane do wprowadzania zmian w produktach – a system prawny i polityczny potrafi odróżnić „zbadaliśmy szkodę i poprawiliśmy” od „zbadaliśmy szkodę i celowo nic nie zrobiliśmy”.
Podsumowanie
Nieujawniony e-mail Zuckerberga ma mniejsze znaczenie jako „haczyk”, a większe jako wskazówka dotycząca zachęt.
Jeśli poważne badania bezpieczeństwa wewnętrznego i kwestii społecznych będą niezawodnie prowadzić do narażenia reputacji i kwestii prawnych, firmy będą przeprowadzać je rzadziej, a społeczeństwo będziemniejwidoczność rzeczywistych zagrożeń.
Celem polityki nie powinno być zawstydzanie platform za prowadzenie badań. Powinno być żądanie wymiernych ulepszeń.Istworzyć zachęty, które sprawią, że odpowiedzialny pomiar stanie się normą, a nie wyjątkiem.
Źródła
- https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
- https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
- https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
- https://about.fb.com/news/2024/01/nasza-praca-na-zapewnienie-młodym-ludziom-bezpiecznych-pozytywnych-doświadczeń/