OpenAI, salta il team sui rischi dell’AI. Uno dei manager: preoccupa sicurezza

Condividi

La società smantella il ‘Superalignment team’. Il co-leader del team Leike su X esprime più di qualche preoccupazione

OpenAI ha sciolto il team dedicato a mitigare i rischi a lungo termine dell’intelligenza artificiale messo in piedi a luglio del 2023. L’azienda con sede a San Francisco, da qualche settimana ha iniziato a reintegrare i membri del gruppo in altri progetti e ricerche.
Ma l’addio, pochi giorni fa del co-fondatore dell’azienda Ilya Sutskever e del co-leader del team Jan Leike, ha di fatto sancito la fine del ‘Superalignment team‘.

Addio polemico

Se le parole di commiato di Sutskever sono state di affetto e riconoscenza per la società – nonostante il manager avesse avuto un ruolo nel licenziamento repentino di Sam Altman pochi mesi fa, accusato di aver “spinto troppo in là” lo sviluppo dei prodotti, salvo poi cambiare idea, come ricorda la Cnn e ribadire il suo sostegno al ceo – il saluto di Leike non è stato privo di polemiche.

“Abbandonare questo lavoro è una delle cose più difficili che abbia mai fatto”, ha esordito Leike su X, “perché abbiamo bisogno urgentemente di capire come si possono guidare e controllare sistemi di AI più intelligenti di noi”.
“Da un po’ di tempo sono in disaccordo con le priorità stabilite dalla leadership”, ha aggiunto spiegando che, dal suo punto di vista, “gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alla sicurezza, al monitoraggio, al super allineamento, e all’impatto sociale delle prossime generazioni di modelli”.
“Ma – è l’affondo – negli ultimi mesi il mio team ha dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca”. “OpenAI ha una responsabilità nei confronti dell’umanità. Ma negli ultimi anni, la cultura e i processi riguardanti la sicurezza sono passati in secondo piano rispetto a prodotti luccicanti”, ha attaccato ancora.
“OpenAI deve diventare una società che mette al primo posto la sicurezza”, ha scritto Leike invitando tutti i dipendenti ad “agire con la responsabilità” necessaria per quello stanno costruendo.

Replica che tanta di smorzare i toni da parte di Altman. “Ha ragione, abbiamo molto altro da fare”, ha scritto, ricordando le collaborazioni con “i governi e altri soggetti interessati per garantire la sicurezza”. Non esiste un manuale collaudato su come percorrere il sentiero verso l’AGI (Intelligenza Artificiale Generale). Pensiamo che la comprensione empirica possa aiutare a tracciare la strada da seguire”, ha scritto ancora.

Ai più potente

In ogni caso, lo smantellamento del gruppo avviene in un momento in cui cresce l’attenzione da parte delle autorità di regolamentazione. E a pochi giorni dal rilascio di Gpt-4o, versione più potente del chatbot.