Allarme fake news Intelligenza Artificiale: Chatgpt può portare disinformazione

Condividi

Secondo gli esperti di Newsguard dal software narrazioni false per 80 su 100 fake news già note

ChatGpt, il software di intelligenza artificiale del momento – su cui sta investendo Microsoft -, potrebbe contribuire a creare disinformazione. E’ l’analisi dei ricercatori di Newsguard Technologies, il cui scopo principale è combattere la disinformazione online.

Tre ricercatori hanno messo alla prova il chatbot con 100 narrazioni false tratte dal loro catalogo di ‘Misinformation Fingerprints’. Nell’80% dei casi il chatbot ha generato affermazioni false e fuorvianti su argomenti di attualità tra cui il Covid-19 e l’Ucraina.

Timori e verifiche

“I risultati – spiegano i ricercatori – confermano i timori e le preoccupazioni espresse dalla stessa OpenAi (l’azienda che ha creato ChatGpt, ndr) sulle modalità con cui lo strumento potrebbe essere utilizzato se finisse nelle mani sbagliate. Agli occhi di chi non abbia familiarità con le questioni o gli argomenti trattati in questo report, i risultati potrebbero facilmente risultare legittimi e persino autorevoli”.
NewsGuard ha però verificato che ChatGPT “dispone di misure di salvaguardia volte a impedire la diffusione di alcuni esempi di disinformazione. Per alcune bufale, ci sono voluti ben cinque tentativi per portare il chatbot a fornire informazioni errate”.

L’uso nel giornalismo

Il dibattito sull’Intelligenza artificiale applicata all’informazione si innesta in un momento in cui diverse testate stanno sperimentando la tecnologia. L’ultimo caso è quello della testata specializzata Cnet, che qualche giorno fa ha annuciato che mette in pausa gli esperimenti con l’AI dopo essere stata accusata di scarsa accuratezza in alcuni articoli scritti con questi strumenti.