Scienziati e Premi Nobel “Stop finchè non sarà sicura”.
Una schiera di esperti di intelligenza artificiale, leader internazionali e premi Nobel hanno chiesto il divieto dello sviluppo di sistemi di intelligenza artificiale superintelligenti (ASI), di quei sistemi cioè che superano l’intelligenza umana in tutti i compiti cognitivi.
Secondo quanto scritto nel documento, questo divieto dovrebbe restare valido fino a quando non ci sarà un “ampio consenso scientifico” sull’effettiva sicurezza e possibilità di controllo di queste tecnologie, ed un “forte sostegno pubblico”.
Promotori e firmatari
L’iniziativa è stata promossa dal Future of Life Institute (FLI), un’organizzazione statunitense che si occupa di sicurezza nell’ambito dell’intelligenza artificiale e che nel 2023, – quando ChatGPT crebbe molto rapidamente raggiungendo 100 milioni di utenti mensili a pochi mesi dal suo lancio -, chiese una pausa nello sviluppo delle IA avanzate.
Tra i sostenitori del manifesto compaiono: Geoffrey Hinton, pioniere dell’IA e vincitore del Premio Nobel per la fisica; il suo allievo Yosha Benjo, uno dei padri fondatori dell’intelligenza artificiale moderna; Steve Wozniak, cofondatore di Apple, e Richard Branson, imprenditore britannico e fondatore del gruppo Virgin.
Altri firmatari sono i due premi Nobel per la Fisica Frank Wilczek (2004) e John C. Mather (2006), Beatrice Fihn, direttrice dell’International Campaign to Abolish Nuclear Weapons (Ican), premiato con il Nobel per la Pace nel 2017, e Daron Acemoglu, economista.
A questi si sono uniti anche Susan Rice, ex consigliera per la sicurezza nazionale degli Stati Uniti sotto la presidena Obama; Mary Robinson, ex presidente irlandese; l’autore e conduttore britannico Stephen Fry, e il duca e la duchessa del Sussex, Harry e Meghan, attenti alle implicazioni dello sviluppo tecnologico sugli individui e sulla società attraverso la loro associazione Archewell.
Zuckerberg: “La superintelligenza è all’orizzonte”
Sebbene l’Asi non abbia ancora preso forma, le dichiarazioni del ceo di Meta, Mark Zuckerberg, che a luglio ha affermato che lo sviluppo della superintelligenza è “ormai all’orizzonte”, hanno acceso un dibattito intorno ad essa.
I ben informati sostengono che questo tipo di annunci serva più a ribadire la competitività delle big tech – che nel 2025 stanno investendo centinaia di miliardi nell’IA – piuttosto che riflettere un reale avanzamento tecnologico.
Le minacce della superintelligenza secondo il FLI
Il Future of Life Institute avverte che la possibilità di sviluppare l’ASI “nei prossimi 10 anni” comporta rischi enormi, che vanno dalla sostituzione dei lavori umani su larga scala alla perdita di libertà civili, dall’esposizione a rischi per la sicurezza nazionale ad una minaccia esistenziale per l’umanità.
Gli esperti infatti hanno spiegato che c’è la possibilità che un sistema superintelligente sfugga al controllo umano, ignorando le linee guida di sicurezza e prendendo decisioni in contrasto con gli interessi dell’umanità.
Cosa ne pensano i cittadini
A supporto della richiesta di moratoria, il FLI ha pubblicato un sondaggio nazionale condotto su 2000 adulti statunitensi, da cui è emerso che circa il 75% del campione è favorevole a una regolamentazione rigida sull’IA avanzata; il 60% è contrario allo sviluppo di IA superumana finché non ne sia provata la sicurezza e controllabilità, mentre solo il 5% sostiene l’attuale corsa non regolamentata allo sviluppo.
Le aziende puntano sull’AGI, ma i rischi restano
Nel frattempo, i colossi dell’intelligenza artificiale come OpenAI (creatrice di ChatGPT) e Google continuano a dichiarare l’AGI (Artificial General Intelligence), l’IA cioè con intelligenza simile a quella umana, come proprio obiettivo.
Sebbene l’AGI sia tecnicamente un gradino sotto l’ASI, diversi esperti avvertono che potrebbe comunque comportare rischi esistenziali, specialmente se dovesse riuscire ad auto-migliorarsi fino a diventare superintelligente.
Foto (Unsplash, di Steve Johnson)











