ChatGpt, OpenAI: non usiamo chatbot per profilare le persone

Condividi

In una lettera aperta, la società Usa rassicura sui metodi di lavoro per lo sviluppo dell’AI. Impegnandosi a tutelare privacy e minori

“OpenAI si impegna a mantenere l’intelligenza artificiale sicura e vantaggiosa”. E’ la rassicurazione che la società che sviluppa ChatGpt ha voluto dare sul proprio lavoro, in una lettera aperta, dal titolo ‘Il nostro approccio alla sicurezza dell’AI’.

Dati, privacy e sviluppo

“Come qualsiasi altra tecnologia, riconosciamo che questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli”, si legge nel testo, pubblicato sul blog della società, nella quale viene spiegato anche in che modo realizza e rende sicure le piattaforme di AI.

Sull’utilizzo dei dati degli utenti, OpenAI scrive: “Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone. Li usiamo invece per rendere i nostri modelli più utili. ChatGpt, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti”.

La lettera spiega in che modo viene protetta la privacy degli utenti, anche minori, e come riduce il rischio di risposte errate, le cosiddette ‘allucinazioni’. Per azzerare il potenziale dei modelli di generare contenuti che danneggiano i bambini, quando un utente carica materiale pedopornografico negli strumenti di creazione o lettura di immagini, il sistema lo blocca e lo segnala al National Center for Missing and Exploited Children.

“Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio”.
“Ad esempio, dopo aver terminato lo sviluppo del nostro ultimo modello, Gpt-4 (già integrato nella ricerca sperimentale di Microsoft Bing, ndr), abbiamo trascorso più di 6 mesi per renderlo più sicuro e allineato, prima di rilasciarlo pubblicamente”.

Regolamentazione

“Riteniamo che i potenti sistemi di AI debbano essere soggetti a rigorose valutazioni. La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi sulla forma migliore che tale regolamentazione potrebbe assumere”, scrive OpenAi.
“Affrontare i problemi di sicurezza richiede anche un ampio dibattito, sperimentazione e impegno, anche sui limiti del comportamento del sistema di intelligenza artificiale”, ricorda la società. Per poi concludere: “abbiamo promosso e continueremo a promuovere la collaborazione e il dialogo aperto tra le parti interessate per creare un ecosistema di IA sicuro”.

La situazione in Italia

Tra le prime autorità che si sono mosse sul tema dell’intelligenza artificiale c’è il garante italiano della Privacy, con cui tra l’altro i vertici di OpenAi si sono confrontati il 5 aprile in videoconferenza.
Presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Sam Altman, ceo di OpenAI, erano presenti, Che Chang, deputy general counsel della società statunitense, Anna Makanju, responsabile public policy e Ashley Pantuliano, associate general counsel.

L’Autorità ha sottolineato come non vi sia “alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei”.

Ribadendo di “essere convinta di rispettare le norme in tema di protezione dei dati personali”, OpenAi ha confermato “la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGpt”.
OpenAI si è impegnata a “rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare al Garante entro oggi (6 aprile, ndr) un documento che indichi le misure che rispondano alle richieste dell’Autorità”.
Il Garante si è dunque riservato di “valutare le misure proposte dalla società, anche riguardo al provvedimento adottato” nei confronti della società.