Da Oxford arriva un metodo per prevenire le allucinazioni

Un nuovo studio dei ricercatori di Oxford ha sviluppato un metodo per prevedere quando modelli come GPT-4 potrebbero generare "allucinazioni"
Da Oxford arriva un metodo per prevenire le allucinazioni

Un nuovo studio dei ricercatori di Oxford ha sviluppato un metodo per prevedere quando un modello di intelligenza artificiale come GPT-4 o LLaMA potrebbe generare “allucinazioni” o risposte imprecise. Il metodo misura l’incertezza o la variabilità nel significato degli output attraverso l’entropia semantica, considerando quanto le possibili risposte differiscono nel significato anziché solo nella sequenza di parole.

Ad esempio, se un modello genera diverse risposte a una domanda, l’entropia semantica valuta quanto queste risposte siano diverse in termini di significato. Un’entropia bassa indica un significato simile e quindi una maggiore sicurezza, mentre un’entropia alta suggerisce incertezza sul significato corretto.

Testato su vari modelli di intelligenza artificiale, questo approccio si è dimostrato efficace nell’individuare domande che potrebbero causare risposte false, superando altri metodi. Tuttavia, richiede più risorse di calcolo rispetto alla semplice generazione di testo.

I ricercatori affermano che nelle situazioni in cui l’affidabilità è fondamentale, il calcolo dell’incertezza semantica è un piccolo prezzo da pagare. Le “allucinazioni” dei modelli di intelligenza artificiale sono uno degli elementi più critici dell’AI. Più di un’azienda ha già dovuto affrontare critiche mediatiche importanti a causa delle allucinazioni dei propri modelli.


Ultime news


Emirati Arabi Uniti: in arrivo il più grande campus di AI al di fuori degli USA

Gli Stati Uniti hanno concluso un accordo per la costruzione…

Emirati Arabi Uniti: in arrivo il più grande campus di AI al di fuori degli USA
Meta ritarda il rilascio del modello Behemoth per timori sulle capacità

Le preoccupazioni sugli effettivi miglioramenti del modello di AI Behemoth…

Meta ritarda il rilascio del modello Behemoth per timori sulle capacità
Italia ed Emirati Arabi Uniti svilupperanno un polo di intelligenza artificiale

L'accordo annunciato dal ministro Urso fra iGenius e G42 prevede…

Italia ed Emirati Arabi Uniti svilupperanno un polo di intelligenza artificiale
Siemens, Microsoft e Danieli Automation accelerano la digital transformation della manifattura italiana

Presentata una collaborazione tra Siemens e Microsoft. Al centro Siemens…

Siemens, Microsoft e Danieli Automation accelerano la digital transformation della manifattura italiana

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025