Um dos incentivos mais estranhos na política tecnológica moderna é oparadoxo da pesquisaAs empresas que mais se dedicam internamente a mensurar danos podem acabar parecendo as piores vilãs, simplesmente porque possuem a maior quantidade de dados — e porque esses dados podem vazar, ser solicitados por intimação ou serem divulgados em tribunal.
Esse paradoxo está no centro de um e-mail interno da Meta recentemente divulgado, conforme relatado porThe Verge, na qual Mark Zuckerberg sugere que a empresa considere mudar sua abordagem em relação à "pesquisa e análise sobre questões sociais" após a repercussão na mídia de descobertas internas (notadamente sobre o bem-estar de adolescentes no Instagram) em 2021.
Esta não é apenas uma história sobre os bastidores da gestão de relações públicas. É uma janela para a forma como as plataformas sociais encaram a responsabilidade — e como a ameaça de processos judiciais e vazamentos pode moldar o que é mensurado, o que é publicado e o que jamais é questionado.
A seguir, uma explicação prática do conteúdo do e-mail, sua importância e como seria uma estrutura de incentivos mais saudável.
O que o e-mail deslacrado realmente revelou
Segundo a reportagem, Zuckerberg escreveu para executivos seniores em 15 de setembro de 2021 — um dia depois de uma matéria do Wall Street Journal baseada em documentos internos (posteriormente ligados à denunciante Frances Haugen) destacar a própria pesquisa da Meta sobre adolescentes e o Instagram.
O ponto crucial não era "A Meta fez pesquisas". Muitas grandes plataformas têm equipes de pesquisa. O que chama a atenção é que o CEO conectou explicitamente o assunto.realizar pesquisas proativas sobre questões sociaiscomcriando responsabilidades e riscos de reputaçãoquando as descobertas se tornarem públicas.
A estrutura do e-mail é essencialmente a seguinte:
- Estudamos temas sensíveis (segurança de adolescentes, saúde mental, exploração infantil, desinformação, etc.).
- Quando nossas descobertas vazam ou são divulgadas, a narrativa pública pode se transformar em: "Vocês sabiam e não corrigiram o problema."
- Algumas empresas do mesmo setor parecem estar fazendo isso.menospesquisa proativa — e, portanto, criar menos documentos que possam ser usados contra eles.
Essa é uma questão de governança incômoda, mas real: se "medir e documentar o problema" aumenta o custo operacional, existe um incentivo intrínseco para medir menos.
O paradoxo da pesquisa: quando a transparência se torna uma desvantagem competitiva
Num mundo em que as plataformas são alvo de escrutínio por parte de reguladores, jornalistas e tribunais, podemos imaginar duas estratégias gerais:
- O estudo causa danos profundos.e criar painéis de controle internos, experimentos e análises pós-problema.
- O estudo causa danos mínimos., concentre-se em requisitos de conformidade específicos e evite produzir documentos que soem mal.
Se a desvantagem da estratégia (1) é que ela cria material detectável — e-mails, apresentações de slides, resultados de experimentos — então um agente corporativo racional pode tender para a estratégia (2), mesmo que a estratégia (1) seja melhor para os usuários.
Isso não é uma defesa da redução da pesquisa. É uma explicação do incentivo.
O desafio político é conceber um sistema em que a abordagem de "fazer a coisa certa" (estudar os danos e agir de acordo com as conclusões) não se torne autopunitiva.
Por que o e-mail da Meta está vindo à tona agora: processos judiciais e descoberta de provas
O e-mail foi liberado após ser obtido durante um processo de descoberta de provas pelo gabinete do Procurador-Geral do Novo México, em um caso que alega que a Meta posicionou o Facebook e o Instagram de forma enganosa como seguros para adolescentes, mesmo tendo conhecimento de escolhas de design prejudiciais.
Esse caso se insere em meio a uma onda mais ampla de litígios e pressão legislativa focada na segurança infantil, na saúde mental dos jovens e nas teorias de responsabilidade civil por produtos defeituosos em plataformas de mídias sociais. Independentemente do desfecho de cada caso individual, o processo é crucial: a fase de instrução processual transforma o debate interno em evidência pública.
Isso tem dois efeitos de segunda ordem:
- Isso molda a escrita interna futura.Os executivos tornam-se cautelosos não apenas com o que fazem, mas também com a forma como o descrevem.
- Isso molda pesquisas futuras.Se um estudo tiver probabilidade de gerar gráficos politicamente explosivos, alguém questionará se vale a pena realizá-lo.
"A Apple parece não estudar nada disso": qual é o argumento aqui?
O e-mail supostamente faz uma comparação com a Apple, sugerindo que a Apple "parece não estudar" essas questões da mesma forma e, portanto, evita muitas das críticas.
Mesmo que essa comparação seja incompleta (a Apple publica material sobre segurança e privacidade e enfrenta intenso escrutínio em outras áreas), a questão fundamental é sobrecategoria de produto e superfície de risco:
- As plataformas sociais hospedam volumes enormes de conteúdo gerado pelo usuário, incluindo conteúdo abusivo.
- Os produtos de mensagens (especialmente os criptografados de ponta a ponta) limitam estruturalmente o que o provedor pode inspecionar.
- As plataformas de dispositivos podem transferir a responsabilidade para baixo ("isto é o que os utilizadores fazem nos seus dispositivos"), enquanto os feeds das redes sociais se aproximam mais da amplificação editorial.
Portanto, a questão "por que eles recebem menos calor?" tem um componente técnico complexo.
Sob a perspectiva da segurança infantil: o volume de denúncias pode ser interpretado como culpa.
Um dos argumentos apresentados na reportagem é que a Meta destaca o fato de denunciar uma grande quantidade de material de abuso sexual infantil (CSAM, na sigla em inglês) ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC, na sigla em inglês) — e que esse alto volume de denúncias pode ser interpretado como significando que “há mais abusos na Meta”, mesmo quando parte da razão é...mais detecção e relatórios.
Os próprios dados públicos do NCMEC ajudam a ilustrar a complexidade dessa interpretação. Por exemplo, o NCMEC observa que em 2024 recebeu 20,5 milhões de denúncias (29,2 milhões de incidentes quando ajustados) e também descreve mudanças como o "agrupamento" de denúncias, que podem reduzir os números brutos sem implicar em menos abusos subjacentes.
Contagens por si só são uma ferramenta imprecisa. O que importa étaxas,cobertura de detecção, eresultados a jusante:
- Com que rapidez as contas são desativadas?
- Os autores dos crimes são identificados e encaminhados às autoridades policiais?
- Com que frequência os menores são protegidos proativamente (por exemplo, restringindo elementos de contato, limitando o alcance de adultos)?
- Qual é a relação de equilíbrio entre falsos positivos e falsos negativos?
Quando o debate público se concentra apenas em "quem tem o maior número", as empresas podem ser levadas a subnotificar ou subestimar os resultados.
Por que fazer menos pesquisa seria ruim — mesmo para a Meta
Se levarmos a preocupação expressa no e-mail ao pé da letra, a "solução" de estudar menos parece sedutora: menos estudos, menos slides, menos intimações.
Mas também é contraproducente.
1) Você não pode melhorar o que não mede.
Muitos problemas de segurança em plataformas são problemas sistêmicos — criados por sistemas de classificação, recomendações, mecanismos de contato e ciclos de crescimento que levam a abusos. Esses problemas não são resolvidos com uma única declaração de política. Eles exigem mensuração.
Sem pesquisa e análise internas, a “postura de segurança” da empresa se torna:
- reativo (responder a escândalos)
- anedótico (confie no que dizem as reclamações mais veementes)
- não auditável (sem linhas de base, sem avaliação)
2) Os reguladores exigirão provas de qualquer maneira.
Mesmo que uma empresa tente evitar pesquisas sensíveis, os órgãos reguladores ainda podem exigir relatórios de transparência, avaliações de risco e auditabilidade. Em outras palavras: se você não gerar as evidências voluntariamente, alguém pode forçá-lo a gerá-las — e aí você terá que fazer isso sob pressão.
3) Você perde a capacidade de distinguirconcessõesdenegligência
Um tema central no e-mail é que nem todas as recomendações são viáveis, pois tudo envolve concessões.
É verdade. Mas a única maneira crível de argumentar "consideramos X e escolhemos Y porque..." é mostrar os cálculos. Caso contrário, pode parecer que você está apenas dando explicações vagas.
A pesquisa é o que transforma o "confie em nós" em "aqui está o modelo, o experimento, o resultado mensurado e o memorando de decisão".
A questão mais profunda: litígios transformam a franqueza interna em um passivo.
Uma organização saudável preza pela franqueza: "Este recurso pode ser prejudicial", "Este grupo está em risco", "Esta métrica parece ruim", "Precisamos alterar o ranking".
Mas a dinâmica de litígios e vazamentos pode punir a sinceridade de duas maneiras:
- Efeito de seleção:Executivos param de colocar pensamentos delicados por escrito.
- Impacto cultural:As equipes evitam perguntas que possam gerar respostas "ruins".
Ambos os efeitos pioram a plataforma.
E isso não é exclusivo da Meta — é um problema geral para qualquer empresa que opere na interseção entre tecnologia de consumo e segurança pública.
Como seriam incentivos melhores?
Se a sociedade quer que as plataformas meçam e reduzam os danos, precisa tornar esse caminho viável.
Algumas ideias práticas que surgem repetidamente nos círculos políticos:
1) Portos seguros para pesquisas internas de segurança de boa-fé
Imagine um modelo em que as empresas recebam proteção limitada quando realizam pesquisas documentadas e de boa-fé sobre danos e tomam medidas significativas com base nas descobertas — semelhante em espírito à forma como alguns setores críticos para a segurança lidam com a notificação de incidentes.
Isso não significa imunidade para atos ilícitos. Significa reduzir o incentivo para...permanecer ignorante de propósito.
2) Relatórios padronizados e auditados (para que as comparações sejam justas)
Se cada plataforma reporta métricas de segurança usando definições diferentes, os números brutos se tornam uma arma.
Definições padronizadas, auditorias de terceiros e denominadores mais claros (taxas por usuário, taxas por mensagem, taxas por visualização) fariam com que a afirmação "relatamos mais" fosse menos uma armadilha de relações públicas.
3) Separação entre pesquisa de segurança e incentivos ao crescimento do produto
Quando a pesquisa de segurança está inserida na mesma cadeia de comando que as metas de crescimento, isso pode se tornar politicamente inconveniente.
A separação estrutural — mesmo que não seja total independência — pode ajudar a garantir que as questões de segurança continuem sendo levantadas.
4) Melhor compreensão pública do significado das métricas
O debate público muitas vezes trata a pesquisa interna como uma confissão.
Às vezes sim. Mas às vezes é o oposto: um sinal de que a empresa está observando.
Um nível de alfabetização mais maduro perguntaria:
- O dano foi avaliado de forma responsável?
- Os resultados foram compartilhados com a devida supervisão?
- Quais medidas de mitigação foram testadas?
- O que mudou como resultado?
O que assistir a seguir
O e-mail é apenas um artefato. A história mais ampla é a tensão entre três forças:
- Transparência:Queremos saber o que as plataformas sabem.
- Responsabilidade:Queremos consequências quando os danos são ignorados.
- Sistemas de aprendizagem:Precisamos de plataformas para continuar medindo e melhorando.
Quando essas forças estão desalinhadas, o resultado do equilíbrio pode ser perverso: menos medições, menos franqueza e melhorias mais lentas — mesmo com o aumento da indignação pública.
A melhor versão da internet não é aquela em que as plataformas escondem suas próprias pesquisas. É aquela em que a pesquisa interna é rotineira, auditada e usada para impulsionar mudanças nos produtos — e em que o sistema jurídico e político consegue distinguir entre “estudamos o dano e melhoramos” e “estudamos o dano e deliberadamente não fizemos nada”.
Resumindo
O e-mail de Zuckerberg que foi deslacrado importa menos como uma "pegadinha" e mais como uma pista sobre incentivos.
Se a realização de pesquisas internas sérias sobre segurança e questões sociais resultar em exposição reputacional e legal, as empresas farão menos disso — e o público sofrerá as consequências.menosvisibilidade dos riscos reais.
O objetivo da política não deveria ser envergonhar as plataformas por realizarem pesquisas. Deveria ser exigir melhorias mensuráveis.eCriar incentivos que façam da medição responsável a norma, e não a exceção.
Fontes
- https://www.theverge.com/report/874176/meta-zuckerberg-new-mexico-email-teen-girls-research
- https://www.theverge.com/2023/12/6/23990445/facebook-instagram-meta-lawsuit-child-predators-new-mexico
- https://www.missingkids.org/gethelpnow/cybertipline/cybertiplinedata
- https://about.fb.com/news/2024/01/our-work-to-help-provide-young-people-with-safe-positive-experiences/