Lo dice uno studio indipendente promosso da un ex dirigente di Meta, secondo cui “scelte progettuali deliberate” di Instagram lo rendono non sicuro per gli adolescenti.
Instagram continua a esporre i minori a contenuti pericolosi e contatti inappropriati, nonostante le dichiarazioni di Meta sulla sicurezza.
È fresco di stampa il rapporto “Teen Accounts, Broken Promises: How Instagram is Failing to Protect Minors”, una ricerca inedita condotta dall’ex dirigente e whistleblower di Meta Arturo Béjar, in collaborazione con diverse realtà accademiche e non profit di Stati Uniti e Regno Unito, che accusa la casa madre di Instagram di non occuparsi realmente della sicurezza on line dei minorenni.
Tra le organizzazioni coinvolte figurano la britannica Molly Rose Foundation, che si occupa di prevenire il suicidio e sostenere la salute mentale, e le statunitensi: Fairplay, che proteggere i bambini dai danni del marketing digitale e delle big tech, promuovendo un uso moderato dei dispositivi; ParentsSOS, che dà sostegno ai genitori che hanno perso figli a causa di contenuti o abusi online; e il team accademico di Cybersecurity for Democracy (New York University e Northeastern University) che analizza i rischi delle piattaforme digitali per democrazia e società attraverso auditing algoritmico, test su sicurezza digitale, ecc.
L’indagine, definita la prima nel suo genere per profondità e metodologia, mette in luce le falle delle politiche dichiarate da Meta per la tutela degli adolescenti su Instagram.
Promesse mancate e strumenti inefficaci
Il quadro emerso è allarmante: su 47 strumenti di sicurezza analizzati, il 64% è risultato inefficace o inesistente. Solo otto funzioni hanno superato i test, rivelandosi effettivamente funzionanti.
Secondo gli autori, i cosiddetti “Teen Accounts” non garantiscono la protezione promessa., anzi vengono descritti come “una messinscena mediatica” piuttosto che un impegno serio verso la sicurezza digitale dei minori.
Andy Burrows, CEO della Molly Rose Foundation, non usa mezzi termini:
“Questo rapporto rileva fallimenti sistemici negli Account Teen di Meta e deve essere un campanello d’allarme per governi, regolatori e famiglie.”
Contenuti pericolosi e comportamenti a rischio
Lo studio ha simulato l’attività di adolescenti su Instagram, rivelando che gli utenti minorenni vengono ancora raggiunti da contenuti legati al suicidio, all’autolesionismo e ai disturbi alimentari, spesso promossi direttamente tramite suggerimenti automatici. Ma non solo.
Secondo il rapporto, inoltre, l’algoritmo spinge anche bambini sotto i 13 anni (che non dovrebbero nemmeno poter usare la piattaforma) a comportamenti sessualizzati, come balletti provocanti, premiandoli con like e visibilità. In alcuni casi, questi contenuti ricevono commenti esplicitamente sessuali da parte di adulti.
Anche la funzione di messaggistica privata, che dovrebbe essere moderata, consente invece la circolazione di messaggi offensivi e misogini tra profili adolescenti, senza alcun intervento da parte della piattaforma.
Il problema è il design, non solo i contenuti
Per Béjar, il problema non è semplicemente la presenza di contenuti pericolosi online, ma un design di prodotto irresponsabile, pensato per massimizzare l’engagement a scapito della sicurezza.
“Meta offre ai genitori un falso senso di sicurezza. La realtà è che la maggior parte degli strumenti di protezione sono inefficaci, obsoleti, modificati senza darne conto o eliminati”, afferma Béjar (nella foto, fonte: YouTube).
“Non si tratta di contenuti problematici presenti su Internet, ma di un design del prodotto realizzato con superficialità. Le scelte consapevoli di progettazione e implementazione di Meta selezionano, promuovono e portano ogni giorno davanti ai bambini contenuti inappropriati, contatti indesiderati e spingono ad un uso compulsivo” aggiunge l’ex dipendente Meta.

Di fronte a questa mancanza di trasparenza i genitori, da soli, non riescono a proteggere i propri figli, a cui devono insegnare cosa fare se non riescono a smettere di usare il telefono o nel caso in cui subiscano molestie o ricevano raccomandazioni su autolesionismo o disturbi alimentari, ecc.
Alcune delle principali mancanze rilevate
La piattaforma, secondo i test effettuati, continua a suggerire account e contenuti inappropriati, inclusi video di bambini molto piccoli coinvolti in dinamiche che sfociano in un’ipersessualizzazione o situazioni di pericolo.
Inoltre non è predisposto un modo efficace attraverso cui un minorenne possa segnalare di aver subito un’avance o un contatto anomalo.
E anche la promozione dell’uso dei messaggi che scompaiono, attraverso una grafica animata, è pericolosa, visto che questi sono spesso usati da spacciatori e malintenzionati.
Appello urgente alle istituzioni
Le organizzazioni promotrici dello studio chiedono un intervento legislativo immediato.
Negli Stati Uniti, si sollecita l’approvazione del Kids Online Safety Act, mentre nel Regno Unito si chiede un rafforzamento dell’Online Safety Act e un’azione più decisa da parte dell’authority Ofcom.
“Oltre l’80% degli strumenti di sicurezza non funziona come pubblicizzato. Meta vuole evitare regolamentazioni, non proteggere i giovani. È ora che il Congresso agisca.” Ha dichiarato Josh Golin, direttore di Fairplay.
Parole dure anche da Maurine Molak, co-fondatrice di ParentsSOS, madre di un ragazzo vittima di bullismo online:
“Mark Zuckerberg ci ha chiesto scusa pubblicamente. Ma da allora ha offerto solo strumenti rotti e promesse non mantenute. Questo rapporto dimostra che Meta non è affidabile.”
Proposte concrete
Oltre alla denuncia, il rapporto offre raccomandazioni pratiche: test sistematici contro comportamenti dannosi (red-teaming), miglioramento degli strumenti di segnalazione, maggiore trasparenza sui dati di utilizzo e contenuti proposti, e un controllo più stretto sull’esposizione dei minori a contenuti sensibili.
Dr. Laura Edelson, co-direttrice di Cybersecurity for Democracy, conclude:
“Questi strumenti, così come sono oggi, non sono adatti allo scopo. Ma le verifiche fatte dimostrano anche come possano essere migliorati. Il nostro obiettivo è fornire soluzioni, non solo denunciare il problema.”
Non si tratta di libertà di espressione
Le migliorie del design di una piattaforma social – avverte il report – non devono essere interpretate come un tentativo di censura.
“Valutare gli strumenti di sicurezza e denunciare Meta quando non funzionano come promesso non ha nulla a che vedere con la libertà di espressione. Chiedere conto a Meta per aver ingannato giovani e genitori sulla reale sicurezza di Instagram non è una questione di libertà di parola.”
E c’è chi, come il procuratore generale del New Mexico, Raul Torrez, ha fatto causa alla casa madre di Instagram per non aver protetto i più piccoli dagli adescatori.
“E’ deplorevole che Meta stia raddoppiando gli sforzi per convincere genitori e figli che le sue piattaforme siano sicure, invece di renderle veramente sicure.” ha detto Torrez.
La risposta di Meta
Meta ha definito la ricerca “fuorviante e pericolosamente speculativa”
“Gli Account Teen sono leader nel settore perché offrono protezioni automatiche e controlli parentali semplici. Gli adolescenti che hanno ricevuto queste protezioni hanno visto meno contenuti sensibili, meno contatti indesiderati e trascorso meno tempo su Instagram di notte. Continueremo a migliorare i nostri strumenti e accogliamo feedback costruttivi — ma questo rapporto non lo è” ha risposto Meta, che non ha mai comunicato le percentuali di genitori che usano questi strumenti di parental control.
Secondo gli esperti, si tratta di una piccola parte di genitori, che già si interessano delle abitudini digitali dei propri figli