YouTube ha ufficialmente lanciato uno strumento per riconoscere e rimuovere i video deepfake non autorizzati, generati con l’intelligenza artificiale. La nuova funzione, chiamata “Likeness Detection” (rilevazione delle somiglianze), è ora disponibile per i membri del programma partner della piattaforma.
Lo strumento – riporta Ansa – consente di segnalare i casi in cui il volto di una persona è stato utilizzato o modificato dall’IA senza consenso. “Qualcuno ha creato un video in cui sembri sostenere un candidato politico o promuovere un prodotto che non conosci? Puoi usare il nuovo sistema per segnalare potenziali corrispondenze”, spiega YouTube.
L’introduzione arriva dopo le recenti polemiche legate a Sora 2, il modello video di OpenAI, accusato di essere stato utilizzato per generare filmati con personaggi famosi defunti, come Robin Williams e Martin Luther King. Le famiglie delle celebrità hanno chiesto alla società di introdurre misure di sicurezza più stringenti per evitare abusi.
Per accedere alla verifica, YouTube richiede agli utenti di inviare un documento d’identità e un breve video selfie, al fine di autenticare la propria identità. Una volta approvata la richiesta, la piattaforma analizza il filmato sospetto e, in caso di violazione, procede alla rimozione del contenuto.
Secondo Engadget, il sistema funziona in modo simile a Content ID, il meccanismo già impiegato da YouTube per individuare e gestire automaticamente i contenuti protetti da copyright.
La classifica dei top 50 brand di news online è realizzata sul dato utenti unici…
"Il tema della libertà di stampa è un tema molto serio, però è anche un…
"Come sapete, la bomba è stata messa davanti alla mia abitazione, ma quella è una…
Nel giro di due mesi il buon giudizio sul presidente Usa ha lasciato spazio a…
Il sottosegretario tedesco Wolfram Weimar si è rivolto direttamente a Pier Silvio Berlusconi, presidente di…
Warner Bros. Discovery (Wbd) sta valutando la vendita dell'intero gruppo media o della sola entità…