Il team di OpenAI ha creato un assistente AI per trovare errori di codice

I ricercatori di OpenAI hanno introdotto CriticGPT, un nuovo modello di intelligenza artificiale progettato per rilevare gli errori nel codice generato da ChatGPT.
Il team di OpenAI ha creato un assistente AI per trovare errori di codice

I ricercatori di OpenAI hanno introdotto CriticGPT, un nuovo modello di intelligenza artificiale progettato per rilevare gli errori nel codice generato da ChatGPT. Il modello mira a migliorare l’allineamento dei sistemi di intelligenza artificiale con le aspettative umane attraverso l’apprendimento di rinforzo. Ѐ insomma una sorta di assistente per i formatori umani, utilissimo per migliorare l’accuratezza degli output di un modello linguistico di grandi dimensioni.

CriticGPT analizza il codice ed evidenzia potenziali errori, aiutando i revisori umani a identificare bug che altrimenti potrebbero passare inosservati. Il team di OpenAI ha addestrato CriticGPT attraverso input contenenti errori intenzionali. Il modello è stato gradualmente condotto a imparare a identificare e criticare diversi tipi di errori di codifica.

E le sue capacità non si limitano alla revisione del codice. Ha già dimostrato di essere in grado di scovare errori in dati di addestramento di ogni tipo, errori sfuggiti alle precedenti analisi umane. Tra i dataset di dati sottoposti al modello, il 24% contenevano errori che i tecnici non avevano individuato. Il modello si dimostrerà una enorme risorsa per migliorare le performance delle intelligenze artificiali di OpenAI.


Ultime news


OpenAI presenta Flex Processing: un’AI più lenta, ma a metà prezzo

Questa nuova opzione dell’API permette di dimezzare la spesa optando…

OpenAI presenta Flex Processing: un’AI più lenta, ma a metà prezzo
OpenAI ridisegna la propria line‑up di modelli

La società lancia o3, o4-mini e o4-mini-high, presenta le API…

OpenAI ridisegna la propria line‑up di modelli
Washington vuole impedire a DeepSeek di acquistare chip Nvidia

L'azienda cinese è stata classificata ufficialmente come una minaccia

Washington vuole impedire a DeepSeek di acquistare chip Nvidia
Anche Grok ricorderà le conversazioni passate con gli utenti

Per ora la funzione non sarà disponibile in Unione Europea

Anche Grok ricorderà le conversazioni passate con gli utenti

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025