Ai Act, via libera definitivo dal Consiglio Ue

Condividi

Approvazione unanime dal Consiglio Ue alla norma, prima al mondo sul tema. Applicabile tra 2 anni, introduce obblighi per produttori e sistemi in funzione al livello di rischio. In caso di violazioni, previste anche sanzioni

Via libera definitivo all’unanimità del Consiglio Ue all’AI Act, la legge europea sull’intelligenza artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue.

Prima in materia

“L’Europa parla con una sola voce sull’IA. (E no, non è una voce clonata)”, ha cinguettato il commissario Thierry Bretono. La norma è la prima iniziativa al mondo in materia e detta una serie di obblighi a fornitori e sviluppatori di sistemi di AI, in base ai diversi livelli di rischio identificati.

Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di AI per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).

L’AI Act si applica solo alle aree che rientrano nel diritto dell’Ue e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa e per la ricerca.
Dopo essere stato firmato dai Presidenti del Parlamento europeo e del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta Ufficiale dell’Ue nei prossimi giorni ed entrerà in vigore venti giorni dopo la pubblicazione.

Classificazione del rischio

La nuova legge classifica i diversi tipi di AI in base al rischio. I sistemi di AI che presentano solo un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, mentre quelli ad alto rischio saranno autorizzati, ma – spiega Ansa – soggetti a una serie di requisiti e obblighi per accedere al mercato dell’Ue.

Quando il rischio è inaccettabile, scattano i divieti. E’ il caso ad esempio delle tecniche manipolative, delle pratiche di polizia predittiva, del riconoscimento delle emozioni vietato sul posto di lavoro e nelle scuole. E ancora del riconoscimento facciale, il cui uso è consentito solo alle forze dell’ordine e soggetto a condizioni rigorose.

I riferimenti all’AI generativa

Altra novità è il capitolo dedicato all’AI generativa, inserito in corso d’opera con l’obiettivo di dare una prima risposta alla diffusione di sistemi come ChatGPT.
I modelli di AI per scopi generali (Gpai) che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio in materia di trasparenza. Quelli con rischi sistemici dovranno rispettare regole più severe, tra cui valutazione del modello, valutazione e mitigazione di rischi sistemici, protezione della sicurezza informatica.

Sanzioni previste

La legge promuove regulatory sandboxes e real-world-testing, istituite dalle autorità nazionali per sviluppare e addestrare l’AI innovativa prima dell’immissione sul mercato.
A seconda della violazione e delle dimensioni dell’azienda, saranno comminate multe che possono andare da un minimo di 7,5 milioni di euro o l’1,5% del fatturato fino a 35 milioni di euro o il 7% del fatturato globale.