Da Oxford arriva un metodo per prevenire le allucinazioni

Un nuovo studio dei ricercatori di Oxford ha sviluppato un metodo per prevedere quando modelli come GPT-4 potrebbero generare "allucinazioni"

1 min.

Da Oxford arriva un metodo per prevenire le allucinazioni

Un nuovo studio dei ricercatori di Oxford ha sviluppato un metodo per prevedere quando un modello di intelligenza artificiale come GPT-4 o LLaMA potrebbe generare “allucinazioni” o risposte imprecise. Il metodo misura l’incertezza o la variabilità nel significato degli output attraverso l’entropia semantica, considerando quanto le possibili risposte differiscono nel significato anziché solo nella sequenza di parole.

Ad esempio, se un modello genera diverse risposte a una domanda, l’entropia semantica valuta quanto queste risposte siano diverse in termini di significato. Un’entropia bassa indica un significato simile e quindi una maggiore sicurezza, mentre un’entropia alta suggerisce incertezza sul significato corretto.

Testato su vari modelli di intelligenza artificiale, questo approccio si è dimostrato efficace nell’individuare domande che potrebbero causare risposte false, superando altri metodi. Tuttavia, richiede più risorse di calcolo rispetto alla semplice generazione di testo.

I ricercatori affermano che nelle situazioni in cui l’affidabilità è fondamentale, il calcolo dell’incertezza semantica è un piccolo prezzo da pagare. Le “allucinazioni” dei modelli di intelligenza artificiale sono uno degli elementi più critici dell’AI. Più di un’azienda ha già dovuto affrontare critiche mediatiche importanti a causa delle allucinazioni dei propri modelli.


Ultime news


Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo

L'aggiornamento apporta miglioramenti su realismo, controllo e continuità nelle scene…

Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo
Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari

I costi sono ancora fuori controllo, ma secondo Altman è…

Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari
Meta si affida alle infrastrutture di Arm per le raccomandazioni AI sulle sue piattaforme

L'intesa prevede un ampio utilizzo delle architetture di Arm all'interno…

Meta si affida alle infrastrutture di Arm per le raccomandazioni AI sulle sue piattaforme
Anthropic ha lanciato una nuova versione del modello Haiku

Secondo l'azienda Haiku 4.5 offre prestazioni simili a Sonnet 4…

Anthropic ha lanciato una nuova versione del modello Haiku
Lo Zugzwang di Google

Integrando l'AI nella ricerca, Google mette in crisi gli editori,…

Lo Zugzwang di Google

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025