Meta sotto accusa: l’Ai di WhatsApp crea adesivi con bambini palestinesi armati

Condividi

Non è la prima volta che la holding social deve confrontarsi con pregiudizi nei suoi modelli di Ai

L’intelligenza artificiale su Whatsapp mette Meta al centro delle polemiche. Da qualche settimana, gli utenti che hanno accesso alla versione beta dell’app di messaggistica istantanea in inglese possono usare la tecnologia per creare adesivi virtuali da ‘incollare’ nelle chat: basta chiedere cosa si vuole e questa, in pochi secondi, realizza una piccola grafica.


Le prove effettuate dal Guardian (riprodotte sopra e sotto), digitando la parola ‘Palestina’ o termini correlati come ‘bambino palestinese’, hanno avuto – racconta Ansa – come risultato la creazione, tra le altre, di immagini con ragazzini che imbracciano armi. Cosa che però, non accade con Israele, né a parità di richieste, né inserendo riferimenti espliciti alle forze armate.
La richiesta ‘Hamas’ invece restituisce invece il messaggio ‘impossibile generare adesivi Ia. Per favore riprova’.

La risposta di Meta

Secondo l’articolo, la problematica potrebbe derivare dai suggerimenti umani che vengono forniti all’algoritmo, aggiungendo riferimenti alla guerra in corso.
Il portavoce di Meta, Kevin McAlister, ha dichiarato al sito The Verge che la società si sta occupando della questione, aggiungendo che “continuerà a migliorare queste funzionalità man mano che si evolve e che un maggior numero di persone condivideranno il loro feedback”.

Accuse di islamofobia per il social

Non è la prima volta che la holding social di Mark Zuckerberg ha a che fare con problemi di questo tipo, per i cosiddetti ‘bias’, i pregiudizi, nei suoi modelli di intelligenza artificiale. Lo stesso è successo anche con la funzione di traduzione automatica di Instagram che inserisce la parola ‘terrorista’ nelle biografie degli utenti scritte in arabo.

“Le immagini dell’intelligenza artificiale di bambini palestinesi raffigurati con armi da fuoco su WhatsApp sono una visione terrificante dei criteri razzisti e islamofobici inseriti nell’algoritmo”, ha commentato al Guardian il senatore australiano di origini pakistane, Mehreen Faruqi. “Quanti altri bug razzisti dovranno essere scoperti prima che venga intrapresa un’azione seria? Il danno è già stato fatto. Meta deve essere ritenuta responsabile”, ha chiosato.