Nel ‘Safety Evaluations Hub’ raccoglierà dati e approfondimenti sulle performance dei suoi modelli. Cercando di lavorare su una comunicazione più attiva
Condividere pubblicamente dati e approfondimenti sulle performance di sicurezza dei suoi modelli di intelligenza artificiale.
E’ l’obiettivo del ‘Safety Evaluations Hub’ appena lanciato da OpenAi attraverso cui la società californiana punta a fornire trasparenza su aspetti cruciali come i tassi di allucinazioni dei modelli, la loro tendenza a generare contenuti dannosi, l’accuratezza con cui seguono le istruzioni e la loro resilienza ai tentativi di violazione.
Come funziona
Il ‘Safety Evaluations Hub’ è concepito per espandere le informazioni già disponibili nelle schede di sistema di OpenAI. Mentre queste offrono un’istantanea delle misure di sicurezza di un modello al momento del lancio, l’hub è progettato per fornire aggiornamenti continui.
All’interno dell’hub, gli utenti interessati possono esplorare diverse sezioni dedicate, trovando informazioni pertinenti per vari modelli, da Gpt-4.1 fino alle versioni più recenti, come la 4.5.
Comunicazione più proattiva
In un momento in cui si trova ad affrontare diverse sfide legali, incluse quelle per presunto utilizzo illecito di materiale protetto da copyright per addestrare i propri modelli, il nuovo hub, secondo la società, rappresenta un passo avanti verso una maggiore apertura.
In una nota ufficiale, OpenAI ha infatti dichiarato di voler ‘condividere i progressi nello sviluppo per misurare la capacità e la sicurezza dei modelli’.
L’intento è duplice: da un lato facilitare la comprensione delle prestazioni dei sistemi e dall’altro aumentare gli sforzi collettivi per incrementare la trasparenza nel settore.
L’azienda ha anche espresso l’intenzione di lavorare per una comunicazione più proattiva in questo ambito a tutti i livelli.