L’intelligenza artificiale entra ufficialmente nella formazione dei giornalisti italiani. Il Centro italiano di studi superiori per la formazione e l’aggiornamento in giornalismo radiotelevisivo di Ponte Felcino (Perugia) ha adottato una nuova Policy sull’uso dell’intelligenza artificiale, a poco più di un mese dall’approvazione della legge italiana sull’IA. L’obiettivo è fornire agli allievi strumenti concreti e regole precise per utilizzare le nuove tecnologie in modo consapevole, etico e trasparente, nel rispetto della deontologia professionale, del diritto d’autore e della privacy.
“L’intelligenza artificiale è ormai parte integrante del lavoro redazionale. Ignorarla o osteggiarla sarebbe un errore. Con regole chiare può rafforzare la qualità dell’informazione e il servizio all’interesse pubblico”, ha dichiarato Flavio Mucciante, presidente del Centro e già direttore di Rai Radio 1.
La Scuola di giornalismo di Perugia, che annovera tra i soci la Rai, l’Università degli Studi di Perugia e l’Ordine nazionale dei giornalisti, riconosce l’IA come uno strumento utile per migliorare efficienza, accessibilità e precisione nel lavoro redazionale, ma ribadisce che nessun modello potrà mai sostituire il giudizio umano, la verifica delle fonti e la responsabilità editoriale.
La Policy, curata dal tutor Nicola Mechelli, definisce i contesti in cui l’intelligenza artificiale può essere impiegata: automatizzazione di compiti tecnici come trascrizioni, riassunti, traduzioni o analisi testuali; esplorazione di diversi registri linguistici e generi di scrittura; miglioramento della chiarezza e dell’inclusione nei contenuti. In ogni caso, gli allievi sono tenuti a dichiarare in modo trasparente l’utilizzo degli strumenti di IA, specificando il contributo umano nel prodotto finale tramite note o etichette visibili (“contenuto realizzato con il supporto di strumenti di IA”).
Il documento vieta invece ogni uso che possa compromettere l’integrità del lavoro giornalistico: generazione o manipolazione di testi, immagini, audio o video; creazione di deepfake o citazioni inventate; scrittura integrale di articoli informativi da parte di un sistema automatizzato; trattamento di temi sensibili come giustizia, salute o minori senza supervisione diretta.
“L’IA non è di per sé una fonte – precisa Mucciante – e ogni informazione proveniente da sistemi automatizzati deve essere verificata con fonti indipendenti e documenti primari.”
La nuova Policy recepisce i principi fondamentali del GDPR, il regolamento europeo sulla protezione dei dati personali, vietando l’inserimento nei sistemi di IA di dati personali o riservati del Centro e dei suoi allievi. Ogni utilizzo dei dati deve avere una base giuridica chiara, rispettare i principi di necessità e trasparenza e prevedere sempre la supervisione umana.
Si tratta di un documento dinamico, aggiornabile periodicamente per adattarsi all’evoluzione tecnologica e ai nuovi scenari del giornalismo. “Le redazioni del futuro avranno bisogno di professionisti capaci di parlare due linguaggi: quello della tecnologia e quello della società – conclude Mucciante –. In un’epoca in cui gli algoritmi tendono a rinchiudere le persone in bolle informative, i giornalisti devono garantire verità, chiarezza e pluralismo, utilizzando l’intelligenza artificiale come strumento per ampliare il perimetro della conoscenza.”
Flavio Mucciante (Foto Ansa)












