A un anno dal voto presidenziale, da novembre un segno distinguerà foto e video verosimili ma non reali
A partire da novembre, sugli annunci politici su Google saranno indicati se questi sono stati realizzati con l’aiuto di software di intelligenza artificiale.
Segnalazioni dagli inserzionisti
Saranno gli inserzionisti a dover avvisare, proattivamente, Google della presenza di una foto o un video che riprende politici mentre parlano o dicono qualcosa che in realtà non hanno mai detto, ha rilevato Bloomberg, citato da Ansa.
Utilizzando un linguaggio chiaro, come “Questo audio è stato generato dal computer” o “Questa immagine non rappresenta eventi reali”.
La novità non si applica a correzioni minori, come il ridimensionamento o la luminosità delle immagini.
In mancanza di tale comunicazione, Big G potrà eliminare l’annuncio dalle sue piattaforme, fino a bloccare del tutto l’account di riferimento da cui è partito.
“L’aggiornamento migliorerà le misure di trasparenza di Google per gli annunci elettorali”, ha scritto la società, “e contribuirà a sostenere ulteriormente la pubblicità politica responsabile, per fornire agli elettori le informazioni di cui hanno bisogno e prendere decisioni informate”.
AI già usata negli spot politica
La mossa segue le varie foto diffuse nei mesi scorsi che riprendevano personaggi famosi, tra cui Donald Trump, in situazioni verosimili ma non reali.
Negli Stati Uniti, infatti, alcune campagne politiche stanno già sfruttando l’intelligenza artificiale per creare annunci pubblicitari. Ad aprile, il Comitato Nazionale Repubblicano ha pubblicato un post contenente immagini generate dall’intelligenza artificiale che prendevano di mira la candidatura alla rielezione del presidente Joe Biden.
Anche il governatore della Florida, Ron DeSantis, ha pubblicato un annuncio che incorpora immagini generate dall’IA, con Donald Trump e Anthony Fauci, immunologo ed ex consigliere della Casa Bianca.