Sam Altman (foto LaPresse)

OpenAI: ogni settimana oltre 1 milione di persone mostra pensieri suicidi su ChatGPT

Condividi

All’interno di una indagine sul ruolo che l’intelligenza artificiale può avere sui problemi di salute mentale, OpenAI ha rivelato che superano il milione gli utenti di ChatGPT che ogni settimana manifestano nei propri messaggi segni evidenti di pensieri o propositi suicidi.

E’ una delle affermazioni più dirette che l’azienda ha fatto su questa delicata questione.

OpenAI – precisando che si tratta di un’analisi preliminare, perché si tratta di conversazioni difficili da misurare – ha inoltre dichiarato che circa lo 0,07% degli utenti attivi a settimana, pari a circa 560mila degli 800 milioni di utenti settimanali – mostra “possibili segni di emergenze di salute mentale legate a psicosi o mania”.

La causa legale e l’indagine della FTC

L’indagine, pubblicata lunedì 27 ottobre sul sito di OpenAI, arriva in un momento delicato in cui l’azienda deve affrontare la causa legale – che ha avuto una grande eco mediatica –  intentata dalla famiglia di Adam Raine, il sedicenne statunitense morto suicida lo scorso 11 aprile dopo lunghe e intense interazioni con ChatGPT.

Inoltre la Federal Trade Commission ha avviato a settembre un’indagine estesa sulle società che progettano chatbot basati sull’intelligenza artificiale, tra cui OpenAI, per verificare in che modo monitorano e gestiscono i potenziali impatti dannosi sugli utenti più giovani.

Sicurezza migliorata

Stando alle dichiarazioni di OpenAI, la nuova versione del modello GPT-5 ha migliorato la sicurezza, riducendo i comportamenti indesiderati e aumentando la conformità ai protocolli di tutela dal 77% al 91% sulla base di una valutazione del modello che ha coinvolto più di 1.000 conversazioni su autolesionismo e suicidio.

Per efficientare la gestione dei casi più a rischio, l’azienda ha collaborato con un team esteso di 170 medici e psicologi, ha migliorato gli accessi alle linee di emergenza e ha inserito promemoria di pausa durante le conversazioni più lunghe.

Gli specialisti della salute mentale tuttavia sottolineano che i chatbot possono rafforzare convinzioni o comportamenti dannosi attraverso un fenomeno conosciuto come “piaggeria” (sicophancy).

“I sintomi di disagio emotivo e di salute mentale sono universalmente presenti nelle società umane, e un aumento della base utenti implica che una parte delle conversazioni di ChatGPT includerà inevitabilmente queste situazioni,” ha ribattuto l’azienda.

Profitto in primis

Il problema di mantenere attrattivo il proprio chatbot rimane la preoccupazione principale di OpenAi.

Infatti lo scorso 14 ottobre in un post su X, l’amministratore delegato di OpenAI, Sam Altman, ha annunciato che, migliorato il trattamento delle questioni legate alla salute mentale, avrebbe allentato alcune restrizioni, consentendo a breve agli adulti di generare contenuti erotici.

“Abbiamo reso ChatGPT piuttosto restrittivo per essere prudenti riguardo alle problematiche di salute mentale. Ci rendiamo conto che ciò lo ha reso meno utile o piacevole per molti utenti senza problemi psicologici, ma data la serietà della questione volevamo affrontarla nel modo corretto,” ha scritto Altman.

“Ora che siamo riusciti a mitigare i problemi più gravi e disponiamo di nuovi strumenti, saremo in grado di allentare in sicurezza le restrizioni nella maggior parte dei casi”.

Foto (LaPresse): Sam Altman, ceo OpenAI