OpenAI lancia CriticGpt per correggere i suoi errori

Condividi

ChatGpt diventa anche controllore di se stesso. I ricercatori di OpenAI hanno lanciato CriticGpt, un nuovo modello di intelligenza artificiale progettato per identificare errori nel codice generato dal chatbot. L’obiettivo è migliorare il processo di controllo dei revisori umani a rendere più accurati i risultati del modello linguistico.

Assistente per i “formatori” umani

Come spiegato dal documento intitolato ‘Llm Critics Help Catch Llm Bugs’, OpenAI ha creato CriticGpt per fungere da assistente ai formatori umani che esaminano il codice di programmazione generato da ChatGpt. CriticGpt si basa su Gpt-4, analizza il codice e segnala potenziali errori.
I ricercatori lo hanno addestrato su un set di dati inserendo dei bug intenzionalmente e insegnando così al sistema a riconoscere e segnalare vari errori di codifica.
Hanno scoperto che le critiche di CriticGpt erano preferite rispetto alle critiche umane nel 63% dei casi.
Il processo ha consentito al modello di apprendere come identificare e criticare vari tipi di errori di codifica.

Limiti

Nonostante i risultati, come tutti i modelli di intelligenza artificiale, CriticGpt presenta dei limiti, fa notare la testata specializzata Ars Technica. Il modello è stato infatti addestrato su risposte di ChatGpt relativamente brevi che potrebbero non bastare completamente alla valutazione di compiti più lunghi e complessi che i futuri sistemi di intelligenza artificiale dovranno affrontare.