Da Oxford arriva un metodo per prevenire le allucinazioni

Un nuovo studio dei ricercatori di Oxford ha sviluppato un metodo per prevedere quando modelli come GPT-4 potrebbero generare "allucinazioni"

1 min.

Da Oxford arriva un metodo per prevenire le allucinazioni

Un nuovo studio dei ricercatori di Oxford ha sviluppato un metodo per prevedere quando un modello di intelligenza artificiale come GPT-4 o LLaMA potrebbe generare “allucinazioni” o risposte imprecise. Il metodo misura l’incertezza o la variabilità nel significato degli output attraverso l’entropia semantica, considerando quanto le possibili risposte differiscono nel significato anziché solo nella sequenza di parole.

Ad esempio, se un modello genera diverse risposte a una domanda, l’entropia semantica valuta quanto queste risposte siano diverse in termini di significato. Un’entropia bassa indica un significato simile e quindi una maggiore sicurezza, mentre un’entropia alta suggerisce incertezza sul significato corretto.

Testato su vari modelli di intelligenza artificiale, questo approccio si è dimostrato efficace nell’individuare domande che potrebbero causare risposte false, superando altri metodi. Tuttavia, richiede più risorse di calcolo rispetto alla semplice generazione di testo.

I ricercatori affermano che nelle situazioni in cui l’affidabilità è fondamentale, il calcolo dell’incertezza semantica è un piccolo prezzo da pagare. Le “allucinazioni” dei modelli di intelligenza artificiale sono uno degli elementi più critici dell’AI. Più di un’azienda ha già dovuto affrontare critiche mediatiche importanti a causa delle allucinazioni dei propri modelli.


Ultime news


Con AI Translations Meta punta ad abbattere il muro della lingua nei suoi reels

Meta vuole superare le barriere linguistiche e culturali creando un…

Con AI Translations Meta punta ad abbattere il muro della lingua nei suoi reels
Spotify svilupperà musica prodotta con intelligenza artificiale

L'azienda ha stipulato accordi con alcune major come Sony, Universal,…

Spotify svilupperà musica prodotta con intelligenza artificiale
Secondo uno studio di Oxford l’AI rende gli studenti più pratici e veloci ma anche più superficiali

I ricercatori ritengono che l'AI generativa aiuti gli studenti nella…

Secondo uno studio di Oxford l’AI rende gli studenti più pratici e veloci ma anche più superficiali
Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo

L'aggiornamento apporta miglioramenti su realismo, controllo e continuità nelle scene…

Google ha lanciato un aggiornamento del suo strumento di generazione video AI Veo
Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari

I costi sono ancora fuori controllo, ma secondo Altman è…

Il paradosso di OpenAI: è sempre più centrale ma perde miliardi di dollari

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025