OpenAI vieta l’uso di strumenti di AI per le campagne elettorali

Condividi

In vista delle elezioni pronti strumenti per combattere la disinformazione

OpenAI, la casa madre di ChatGpt, non consentirà che la sua tecnologia, sia per generare testi sia immagini, venga utilizzata per le elezioni e introdurrà strumenti per combattere la disinformazione in vista delle dozzine di appuntamenti elettorali del mondo nel 2024, dagli Stati Uniti all’Europa.
Lo afferma la stessa società in un post ufficiale, mentre cresce la preoccupazione che i sistemi di intelligenza artificiale possano produrre disinformazione in massa e influenzare gli elettori.

“Fino a quando non ne sapremo di più, non consentiremo alle persone di creare applicazioni per campagne politiche e lobbying”, ha scritto la società guidata da Sam Altman, specificando che per questo motivo non consentirà agli sviluppatori di creare chatbot che fingano di essere candidati o istituzioni.

Riguardo le immagini generate dal suo software Dall E 3, la società sta sperimentado “un classificatore di provenienza”, uno strumento per rilevare le foto create dall’IA che testerà presto su un gruppo di persone tra cui gioirnalisti e ricercatori.

Invito al voto

Non consentite anche le applicazioni che dissuadono le persone dalla partecipazione ai processi democratici; con l’ultima versione di ChatGpt gli utenti potranno inoltre segnalare potenziali violazioni. Infine, negli Stati Uniti quando dagli utenti verranno poste a ChatGpt domande procedurali relative alle elezioni, OpenAI indirizzerà per le risposte al sito di informazioni sul voto CanIVote.org.
“Vogliamo assicurarci che la nostra tecnologia non venga utilizzata in un modo che possa minare il processo democratico”, ha concluso la società, anicipando ulteriori sviluppi.