Il team di OpenAI ha creato un assistente AI per trovare errori di codice

I ricercatori di OpenAI hanno introdotto CriticGPT, un nuovo modello di intelligenza artificiale progettato per rilevare gli errori nel codice generato da ChatGPT.

1 min.

Il team di OpenAI ha creato un assistente AI per trovare errori di codice

I ricercatori di OpenAI hanno introdotto CriticGPT, un nuovo modello di intelligenza artificiale progettato per rilevare gli errori nel codice generato da ChatGPT. Il modello mira a migliorare l’allineamento dei sistemi di intelligenza artificiale con le aspettative umane attraverso l’apprendimento di rinforzo. Ѐ insomma una sorta di assistente per i formatori umani, utilissimo per migliorare l’accuratezza degli output di un modello linguistico di grandi dimensioni.

CriticGPT analizza il codice ed evidenzia potenziali errori, aiutando i revisori umani a identificare bug che altrimenti potrebbero passare inosservati. Il team di OpenAI ha addestrato CriticGPT attraverso input contenenti errori intenzionali. Il modello è stato gradualmente condotto a imparare a identificare e criticare diversi tipi di errori di codifica.

E le sue capacità non si limitano alla revisione del codice. Ha già dimostrato di essere in grado di scovare errori in dati di addestramento di ogni tipo, errori sfuggiti alle precedenti analisi umane. Tra i dataset di dati sottoposti al modello, il 24% contenevano errori che i tecnici non avevano individuato. Il modello si dimostrerà una enorme risorsa per migliorare le performance delle intelligenze artificiali di OpenAI.


Ultime news


Google ha stretto un accordo multimiliardario con la startup Thinking Machines Lab

L'intesa garantirà alla startup l'accesso ai sistemi Google basati sulle…

Google ha stretto un accordo multimiliardario con la startup Thinking Machines Lab
OpenAI non resta indietro sulla sicurezza: testato GPT-5.4 Cyber con gli stati della Five Eyes

L'obiettivo è fornire agli stati strumenti avanzati per l'individuazione delle…

OpenAI non resta indietro sulla sicurezza: testato GPT-5.4 Cyber con gli stati della Five Eyes
Meta monitorerà i suoi dipendenti al PC per creare nuovi dataset di addestramento per l’AI

L'obiettivo dell'azienda è colmare i punti deboli dei modelli AI…

Meta monitorerà i suoi dipendenti al PC per creare nuovi dataset di addestramento per l’AI
Tesla ha registrato il suo assistente vocale alla guida AI in Cina

La Cina rappresenta il secondo mercato globale per Tesla, con…

Tesla ha registrato il suo assistente vocale alla guida AI in Cina

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026