Dipendenti spostati in altre divisioni
Meta avrebbe chiuso Responsible AI, il team di esperti al lavoro sulle tematiche dell’intelligenza artificiale responsabile. A segnalarlo il sito The Information, citando comunicazioni interne dell’azienda.
Dipendenti spostati in altre unità
Nata nel 2019, l’unità era stata creata per identificare le eventuali criticità nello sviluppo e soprattutto l’addestramento di modelli di intelligenza artificiale, con un occhio ai problemi derivanti dall’utilizzo di software IA per la moderazione dei contenuti online.
Secondo il portale, per il gruppo rappresentava un costo da rivedere, tanto che i suoi membri sono stati dedicati ad altre divisioni di Meta, incentrate sullo sviluppo di prodotti e servizi basati sull’intelligenza artificiale generativa.
Il rapporto di The Information, continua Ansa, cita Jon Carvill, direttore delle comunicazioni di Meta, che infatti avrebbe spiegato come la società “continuerà a dare priorità e a investire nello sviluppo sicuro e responsabile dell’IA”.
Il manager ha aggiunto che, sebbene l’organizzazione abbia deciso di chiudere il team, i lavoratori rimarranno in azienda e “continueranno a supportare gli sforzi nei progetti più innovativi”.
Il caso recente sui bambini palestinesi
Negli scorsi anni, i sistemi automatizzati di Meta hanno causato varie problematiche inerenti la traduzione dei post di Facebook e le segnalazioni su contenuti inappropriati.
Più di recente, la funzione sperimentale di generazione di adesivi IA di WhatsApp, tramite richieste via chatbot, ha tradotto termini legati alla Palestina con bambini che imbracciano pistole e fucili.