Immagini generate senza consenso: le vittime denunciano abusi digitali.
E’ stato il Washington Post il primo a riportare la notizia della class action intentata direttamente da tre giovani vittime del Tennessee, di cui due minorenni, contro xAI, la società di intelligenza artificiale fondata da Elon Musk.
Al centro della causa, depositata in California, sede dell’azienda, c’è Grok, il generatore di immagini accusato di aver prodotto e diffuso lo scorso gennaio materiale di abuso sessuale su minori utilizzando fotografie reali senza consenso.
La scoperta e la diffusione online
Secondo la denuncia, le ragazze hanno scoperto che immagini nude alterate tramite IA circolavano su server Discord e su altre piattaforme di messaggistica e social come Telegram e Instagram. In alcuni casi, questi contenuti sarebbero stati utilizzati come “valuta” per scambiare altro materiale pedopornografico.
Le indagini hanno portato anche all’arresto di un sospetto, nel cui telefono è stato trovato materiale illegale che, secondo l’accusa, sarebbe stato prodotto utilizzando la tecnologia di xAI.
L’accusa di “profitto sulla predazione sessuale”
Dura la posizione della legale delle ricorrenti, Vanessa Baehr-Jones: “xAI ha scelto di trarre profitto dalla predazione sessuale ai danni di persone reali, inclusi i minori, pur conoscendo perfettamente le conseguenze della creazione di un prodotto così pericoloso”.
Segue poi la descrizione esplicita e dettagliata del contenuto dei video, che mostravano le ragazze spogliarsi completamente nude. Così la mamma di una delle vittime ne ha descritto l’impatto: “Vedere mia figlia avere un attacco di panico dopo aver realizzato che queste immagini erano state create e diffuse senza alcuna possibilità di rimuoverle è stato devastante”.
Il nodo delle app di terze parti
Un elemento chiave del caso riguarda il fatto che le immagini sarebbero state generate tramite applicazioni esterne che utilizzano in licenza la tecnologia di Grok. Secondo i legali, questo non toglie responsabilità ad xAI, perché, al contrario, la struttura di licenze e la mancanza di controlli vengono indicate come un sistema che permette all’azienda di beneficiare economicamente evitando al tempo stesso le conseguenze legali.
Altre cause e indagini internazionali
Negli ultimi mesi sono state avviate altre azioni contro xAI: una causa promossa dalla madre di uno dei figli di Elon Musk, legata alla diffusione di contenuti sessualizzati non consensuali; un’indagine formale dell’Unione europea sui rischi legati ai deepfake e alla protezione dei minori; ulteriori verifiche e denunce collegate alla diffusione massiccia di immagini generate da Grok.
Secondo il Center for Countering Digital Hate, nel momento più critico dello scandalo il sistema avrebbe prodotto circa 3 milioni di immagini sessualizzate in meno di due settimane, di cui circa 23.000 riguardanti minori.
La difesa di Musk
Elon Musk ha respinto le accuse, dichiarando: “Non sono a conoscenza di alcuna immagine di minori nudi generata da Grok. Letteralmente zero”.
Ha inoltre sostenuto che la piattaforma sia progettata per rispettare le leggi e impedire la creazione di contenuti illegali. Tuttavia, questa nuova causa potrebbe segnare un punto di svolta, dal momento che sono le vittime minorenni a portare il caso in tribunale, chiedendo non solo risarcimenti ma anche che vengano accertate le responsabilità delle aziende che sviluppano strumenti di intelligenza artific












