Più le AI sono potenti, più parrebbero presentare problemi di allucinazioni. La questione, già dibattuta in passato, è tornata in auge dopo un’indagine del New York Times. I nuovi modelli di punta di aziende come OpenAI, Google o DeepSeek, sono in grado di analizzare molti più dati ma presentano più errori nei loro output. Sono aumentate le loro capacità matematiche, ma la presa sui fatti è diventata più incerta.
OpenAI ha respinto la teoria secondo cui i nuovi modelli di ragionamento presentino più allucinazioni “in modo intrinseco”. Tuttavia nei suoi stessi ultimi test, l’azienda ha appurato che il suo sistema o3 ha allucinato nel 33% dei casi durante il test ‘PersonQA’, composto da domande su personaggi pubblici. Ѐ più del doppio del tasso di allucinazione del precedente sistema di ragionamento di OpenAI, o1. E lo o4-mini mostrerebbe un tasso di allucinazione ancora più alto: fino al 48%. Per certe attività risulterebbe inutilizzabile, se non addirittura dannoso.
Gli esperti non sanno esattamente il perché di questa deriva, ma qualcuno aveva già ipotizzato che la mole di informazioni processate dalle AI avrebbe aumentato anche le probabilità di errore.
Alcuni dei principali esperti dell’intelligenza artificiale, come Emily Bender e Yann LeCun, sostengono da anni che le allucinazioni non sono qualcosa di arginabile, in quanto frutto dell’architettura stessa degli LLM. Lo stesso Altman fino a pochi anni definiva le allucinazioni ‘caratteristiche’ più che inconvenienti.

Da Oxford arriva un metodo per prevenire le allucinazioni
Un nuovo studio dei ricercatori di Oxford ha sviluppato un…