OpenAI prepara l’AI che ragiona come l’uomo. Ma tornano i timori sulla sicurezza

Condividi

Secondo i dipendenti, scrive il Washington Post, la società nei mesi scorsi avrebbe fallito il primo banco di prova sui test per il rilascio di nuovi prodotti.
Ma intanto, anticipa Reuters, sta lavorando su ‘Strawberry’ per far ragionare l’AI sempre più come un uomo

OpenAi torna a far parlare di sé sui media internazionali per una duplice ragione. Da una parte il riaccendersi dei timori sulla sicurezza dei suoi prodotti, dall’altra l’arrivo che pare immininte di un nuovo sviluppo.

Pressioni per i test

A riaccendere il faro sul tema sicurezza è stato il Washington Post che, nei giorni scorsi, ha ripreso le dichiarazioni di alcune fonti rimaste anonime, ma da individuare tra gli ambienti della società creatrice di ChatGpt.

Secondo quanto ricotruito dal quotidiano, OpenAI avrebbe fatto pressioni al team di sicurezza per accelerare i nuovi test “progettati per impedire alla tecnologia di causare danni catastrofici” su Gpt-4 Omni (che alimenta ChatGpt), compressi in una settimana, senza minimamente prendere in considerazione la possibilità di far sittare la data di rilascio. Fallendo di fatto il primo banco di prova.

Cambio di mentalità?

Dal canto suo, OpenAI tramite la portavoce Lindsey Held ha riconosciuto le circostanze di particolare pressione sui dipendenti per i test di sicurezza, negando però delle semplificazioni.
Ma la circostanza, lascia intendere il giornale, non può che essere una prova del cambio di cultura nella società, ora molto più proiettata al profitto e concentrata sul mantenere il proprio primato nel settore.
Non solo. Il dubbio è che non si risponda in modo esaustivo agli standard di autocontrollo – forse troppo vaghi – che l’amministrazione americana ha chiesto alle big tech di attuare per il rilascio dei nuovi prodotti.

Il precedente

Da ricordare, comunque, è che non è la prima volta che, nel giro di qualche settimana, la società si trova a doversi misurare con tematiche di sicurezza, aprendo più di un dubbio sulla buona fede del suo ceo Sam Altman che, lungi dal definire i prodotti perfetti, ha sempre rivendicato attenzione da parte della società per la sicurezza, oltre a richiedere regole da parte della politica.

A giugno, ad esempio anche alcuni dipendenti di OpenAI hanno firmato una lettera aperta in cui si chiedeva alle società attive nel campo dell’AI – Anthropic e Google comprese – di esentare i lavoratori dagli accordi di riservatezza, lasciandoli liberi di avvertire autorità e pubblico sui rischi per la sicurezza.
Senza dimenticare poi l’addio più o meno polemico di alcuni top manager dopo la decisione dell’azienda di sciogliere il Superalignment team, sui rischi a lungo termine dell’AI, poi sostituito con uno nuovo comitato sulla sicurezza.

Arriva Strawberry?

Ma la sicurezza non è l’unico tema caldo. OpenAI sembra sia al lavoro su un nuovo modello. Nome in codice, scrive Reuters, “Strawberry”, e sarebbe un avanzamento che avvicinerebbe l’organizzazione ad approcciare il concetto di Agi, l’intelligenza artificiale generale.
“Vogliamo che i nostri modelli di Intelligenza artificiale vedano e comprendano il mondo come noi” avrebbe detto un portavoce anonimo all’agenzia.
Tra gli obiettivi del progetto, infatti, c’è quello di consentire ai modelli di scandagliare autonomamente internet per “pianificare in anticipo” attività più complesse, oltre che eseguire ragionamenti pari, se non superiori, a quelli dell’uomo, inerenti anche la matematica e la scienza.

Strawberry è ancora in fase di sviluppo e coperta da riserbo anche all’interno della società. Quello che si sa è che dovrebbe essere la naturale prosecuzione di Q Star, iniziativa precedente della startup, anch’essa associata allo sviluppo dell’intelligenza artificiale generale, annunciata nel novembre 2023 come “apripista verso i successivi modelli di intelligenza artificiale”.