Nuovi documenti emersi da un’azione legale collettiva negli Stati Uniti stanno mettendo Meta sotto i riflettori per ragioni decisamente poco etiche. Secondo quanto riporta The Japan Times, l’azienda di Menlo Park avrebbe interrotto volontariamente delle ricerche interne proprio quando queste stavano dimostrando un nesso causale tra l’uso dei suoi prodotti e problemi di salute mentale.
Il Project Mercury
La vicenda ruota attorno a “Project Mercury”, uno studio del 2020 in cui i ricercatori di Meta collaborarono con Nielsen per capire cosa succede quando le persone smettono di usare Facebook e Instagram. I risultati? Chi si era preso una pausa di una settimana dalle piattaforme mostrava livelli più bassi di depressione, ansia, solitudine e la tendenza a confrontarsi socialmente con gli altri.
Invece di pubblicare questi dati o approfondire la ricerca, Meta chiuse i rubinetti. La giustificazione ufficiale fu che i risultati erano “contaminati” dalla narrativa mediatica negativa che già circondava l’azienda. Ma, dietro le quinte, alcuni dipendenti confermavano che le conclusioni dello studio erano solide. “Lo studio Nielsen dimostra un impatto causale sul confronto sociale”, avrebbe scritto un ricercatore interno. Un altro fece un paragone scomodo con l’industria del tabacco: “È come quando facevano ricerche, sapevano che le sigarette facevano male e poi tenevano quelle informazioni per sé”.
Il paradosso
Il paradosso è che mentre internamente Meta aveva documenti che mostravano questi collegamenti causali, davanti al Congresso americano l’azienda dichiarava di non avere modo di quantificare se i suoi prodotti fossero dannosi per le adolescenti.
Andy Stone, portavoce di Meta, ha risposto alle accuse sostenendo che lo studio fu interrotto per problemi metodologici e che l’azienda lavora costantemente per migliorare la sicurezza dei suoi prodotti. Ma i documenti depositati venerdì scorso dallo studio legale Motley Rice, che rappresenta diversi distretti scolastici americani, vanno oltre. L’accusa è rivolta anche a TikTok, Google e Snapchat: tutte avrebbero nascosto consapevolmente i rischi delle loro piattaforme a utenti, genitori e insegnanti.
Tra le altre accuse spicca quella secondo cui Meta avrebbe progettato intenzionalmente funzioni di sicurezza per i minori in modo che fossero inefficaci e poco usate, bloccando test su funzionalità che temeva potessero danneggiare la crescita del business. In tutto questo, nel frattempo TikTok si vantava internamente di aver sponsorizzato l’associazione genitori-insegnanti americana per poterla influenzare a piacimento.
Meta contesta duramente, parlando di citazioni decontestualizzate e interpretazioni sbagliate. L’udienza è fissata per il 26 gennaio in California. La questione, però, va oltre le aule di tribunale: stiamo ancora capendo quanto costi davvero questo esperimento sociale planetario che sono diventati i social network.


Mastodon
Telegram
Bluesky
Lascia un commento