Un’indagine del Guardian ha rivelato che anche l’enciclopedia web targata Musk sarebbe finita tra le fonti usate dal chatbot su temi sensibili. OpenAI difende i suoi sistemi di filtraggio, ma per esperti e ricercatori cresce il rischio che informazioni poco affidabili entrino nei modelli linguistici, guadagnandone in credibilità
OpenAI avrebbe permesso a ChatGpt di rispondere ad alcune domande degli utenti attingendo a informazioni da Grokipedia, l’enciclopedia online basata su Grok, il chatbot del social X di proprietà Elon Musk.
A rivelarlo una indagine del Guardian. ChatGpt, riporta il quotidiano inglese, ha utilizzato Grokipedia almeno nove volte come fonte per oltre una dozzina di affermazioni sul legame tra il governo iraniano e la società di telecomunicazioni Mtn-Irancell e per domande relative a Richard Evans, uno storico britannico testimone di un processo per diffamazione a carico del negazionista dell’Olocausto, David Irving.
Comportamenti simili sono stati riscontrati anche in Claude, il chatbot sviluppato da Anthropic.
La risposta di OpenAI
In risposta al rapporto, OpenAI ha dichiarato che il modello Gpt-5.2 cerca sul web “un’ampia gamma di fonti e punti di vista pubblicamente disponibili”, ma applica “filtri di sicurezza per ridurre il rischio di far emergere link associati a contenuti di severità critica”.
Preoccupazione tra gli esperti
Il fatto che le informazioni di Grokipedia si ritrovino nelle risposte LLM ha cominciato a susciatre preoccupazioni tra gli esperti.
Lanciata a ottobre dello scorso anno, Grokipedia è una concorrente di Wikipedia, ma a sua differenza non consente la modifica umana diretta dei contenuti. Al suo posto, un modello di intelligenza artificiale scrive i contenuti e risponde alle richieste di modifica.
La scorsa primavera, ricorda il Guardian, gli esperti di sicurezza hanno espresso preoccupazione per il fatto che attori maligni, tra cui le reti di propaganda russe, stessero producendo enormi volumi di disinformazione nel tentativo di disseminare di bugie i modelli di intelligenza artificiale, un processo chiamato “LLM grooming”. E la citazione di Grokipedia – su cui in questi mesi non sono stati pochi i dubbi – da parte di ChatGPT ha sollevato preoccupazioni simili. Sebbene Musk potrebbe non aver avuto l’intenzione di influenzare gli LLM, molte voci – è la considerazione di alcuni esperti – si basano su fonti inaffidabili nella migliore delle ipotesi, e, nella peggiore, su deliberata disinformazione.
Il fatto che gli LLM possano cominciare a citarla come fonte potrebbe, a sua volta, migliorarne la credibilità agli occhi dei lettori.


















