Meta avrebbe fatto quello che l’industria del tabacco fece decenni fa: nascondere le ricerche che dimostravano che i suoi prodotti danneggiano le persone. Solo che invece di polmoni e cancro, stiamo parlando di salute mentale e adolescenti. Documenti non censurati di una causa collettiva contro Meta, Google, TikTok e Snapchat rivelano che l’azienda di Zuckerberg avrebbe insabbiato le prove dei danni causati da Facebook e Instagram. Secondo le carte processuali, Meta avrebbe interrotto una ricerca interna proprio quando iniziava a confermare quello che tutti sospettavano.
Cinque anni fa Meta condusse una ricerca chiamata Project Mercury. I risultati erano chiari: i loro prodotti danneggiavano la salute mentale degli utenti. Chi smetteva di usare Facebook e Instagram anche solo per una settimana mostrava meno sintomi di depressione, ansia e solitudine, e si confrontava meno con gli altri. Dati che avrebbero richiesto. Invece, secondo le accuse, Meta avrebbe semplicemente interrotto la ricerca.
La giustificazione interna sarebbe stata che i risultati erano viziati dalla narrativa dei media sui danni dei social media, quindi si potevano ignorare. È come dire che uno studio sul fumo è viziato perché i giornali hanno già parlato dei danni delle sigarette.
Secondo Reuters, il personale di Meta responsabile della ricerca aveva assicurato alla dirigenza che c’era un impatto reale sul confronto sociale. Non correlazione, non associazione, ma causalità.
Se tutti questi dettagli fossero confermati, significherebbe che Meta ha ingannato il Congresso quando ha affermato di non essere in grado di quantificare se i suoi prodotti danneggiassero gli adolescenti. Quando Zuckerberg e altri dirigenti sono stati chiamati a testimoniare, hanno usato linguaggio vago, hanno parlato di non avere dati sufficienti, hanno detto che la questione era complessa. Ma se la documentazione interna è corretta, l’azienda sapeva benissimo quali danni causavano i suoi prodotti. Semplicemente ha scelto di non dirlo.
Se quelle testimonianze sono false o deliberatamente incomplete, le leggi che ne derivano saranno inadeguate a proteggere le persone che dovrebbero proteggere.
Funzioni di sicurezza progettate per fallire
I documenti interni citati nella causa sostengono che Meta abbia progettato funzioni di sicurezza per i giovani in modo che fossero inefficaci e raramente utilizzate. L’azienda avrebbe anche bloccato test sulle funzioni ritenute dannose per la crescita, il che significa che sapevano quali funzioni erano problematiche, ma hanno scelto di non testarle per non dover affrontare risultati scomodi.
Zuckerberg e le priorità sbagliate
I documenti sostengono che nel 2021 il CEO Mark Zuckerberg abbia affermato che la sicurezza dei bambini non era la sua priorità, preferendo concentrarsi sulla costruzione del metaverso. Avrebbe rifiutato richieste di finanziare meglio il lavoro sulla sicurezza dei minori.
Le accuse sostengono anche che Meta avrebbe scoperto che poteva aumentare il coinvolgimento degli adolescenti offrendo loro contenuti più dannosi, ma ha continuato comunque per motivi di profitto. È la logica dell’engagement a tutti i costi. Se i contenuti che fanno male agli utenti li tengono più a lungo sulla piattaforma, allora quei contenuti vengono promossi perché più tempo sulla piattaforma significa più pubblicità vendute.
La risposta di Meta: tutto falso
Il portavoce di Meta Andy Stone ha respinto le accuse definendole “citazioni selezionate ad hoc e opinioni errate“. Ha affermato che Project Mercury è stato interrotto a causa della metodologia errata, non perché i risultati fossero scomodi. Ha sostenuto che le misure di sicurezza dell’azienda per gli adolescenti sono efficaci e che la politica attuale rimuove gli account coinvolti nel traffico sessuale non appena vengono segnalati.
Potrebbe anche essere vero in parte. I documenti interni citati in cause legali sono spesso frammenti di conversazioni più ampie, email strappate dal contesto, memo interni che suonavano diversi quando furono scritti. Ma c’è anche la possibilità che le accuse siano sostanzialmente corrette.
L’udienza relativa al ricorso è fissata per il 26 gennaio 2026 presso la Corte Distrettuale della California Settentrionale. Meta ha presentato una mozione per cancellare i documenti interni citati nel ricorso, comprensibile dal punto di vista legale, ma anche abbastanza eloquente. Se i documenti fossero davvero così decontestualizzati e fuorvianti come sostiene Meta, probabilmente non ci sarebbe bisogno di chiederne la cancellazione.
Questa causa è solo una delle tante che le aziende tecnologiche stanno affrontando riguardo ai danni causati dai social media, specialmente agli adolescenti. Ma i documenti non censurati in questo caso specifico offrono uno sguardo raro su come queste decisioni vengono prese internamente, su quali compromessi vengono accettati, e su quanto le aziende sanno sui danni che causano.

