Sam Altman (foto Ansa)

OpenAI punta sulla trasparenza e lancia un hub sulla sicurezza dell’AI

Condividi

Nel ‘Safety Evaluations Hub’ raccoglierà dati e approfondimenti sulle performance dei suoi modelli. Cercando di lavorare su una comunicazione più attiva

Condividere pubblicamente dati e approfondimenti sulle performance di sicurezza dei suoi modelli di intelligenza artificiale.
E’ l’obiettivo del ‘Safety Evaluations Hub’ appena lanciato da OpenAi attraverso cui la società californiana punta a fornire trasparenza su aspetti cruciali come i tassi di allucinazioni dei modelli, la loro tendenza a generare contenuti dannosi, l’accuratezza con cui seguono le istruzioni e la loro resilienza ai tentativi di violazione.

Come funziona

Il ‘Safety Evaluations Hub’ è concepito per espandere le informazioni già disponibili nelle schede di sistema di OpenAI. Mentre queste offrono un’istantanea delle misure di sicurezza di un modello al momento del lancio, l’hub è progettato per fornire aggiornamenti continui.

All’interno dell’hub, gli utenti interessati possono esplorare diverse sezioni dedicate, trovando informazioni pertinenti per vari modelli, da Gpt-4.1 fino alle versioni più recenti, come la 4.5.

Comunicazione più proattiva

In un momento in cui si trova ad affrontare diverse sfide legali, incluse quelle per presunto utilizzo illecito di materiale protetto da copyright per addestrare i propri modelli, il nuovo hub, secondo la società, rappresenta un passo avanti verso una maggiore apertura.
In una nota ufficiale, OpenAI ha infatti dichiarato di voler ‘condividere i progressi nello sviluppo per misurare la capacità e la sicurezza dei modelli’.
L’intento è duplice: da un lato facilitare la comprensione delle prestazioni dei sistemi e dall’altro aumentare gli sforzi collettivi per incrementare la trasparenza nel settore.

L’azienda ha anche espresso l’intenzione di lavorare per una comunicazione più proattiva in questo ambito a tutti i livelli.