Wei Xing, professore dell’Università di Sheffield ed esperto di ottimizzazione dell’AI, ha scritto un articolo su Conversation sostenendo che le soluzioni proposte recentemente da OpenAI per limitare il fenomeno delle allucinazioni sarebbero inattuabili, in un’ottica di sostenibilità del prodotto.
Secondo Xing, l’industria non è economicamente incentivata a ridurre la variabile probabilistica degli output generati dai modelli linguistici. Rendere i sistemi più prudenti significherebbe farli ammettere più spesso di “non sapere”, cosa che rischierebbe di frustrare gli utenti abituati a ricevere sempre una risposta sicura, anche quando errata.

OpenAI ha ammesso che le allucinazioni sono sistemiche ma ritiene di poterle limitare
Un team di OpenAI ha proposto una nuova procedura per…
Inoltre, introdurre metodi per calcolare il grado di incertezza comporterebbe un enorme aumento della potenza di calcolo necessaria e quindi dei costi operativi, già altissimi per aziende che hanno speso decine di miliardi di dollari senza, per ora, registrare ritorni significativi.
Secondo Xing, soluzioni di questo tipo risultano indispensabili solo in ambiti dove un errore ha conseguenze molto gravi – come nella finanza, nella logistica o nella sanità – mentre nel mercato consumer la finalità dell’intelligenza artificiale rimangono diverse: offrire risposte rapide e convincenti al minor costo possibile. Per questo, “tirare a indovinare” resta la strategia più conveniente e finché gli incentivi economici non cambieranno, le allucinazioni continueranno a far parte inevitabilmente dei sistemi di intelligenza artificiale.
🤖 Leggi altri articoli sulle allucinazioni:
- Più i modelli AI sono potenti, più sembrerebbero inclini alle allucinazioni
- Da Oxford arriva un metodo per prevenire le allucinazioni
- L’ente che regolamenta i farmaci americani ha adottato un modello AI pieno di allucinazioni
- OpenAI lancia un’anteprima di GPT-4.5: “Ci aspettiamo meno allucinazioni”
- ChatGPT accusa una persona dell’omicidio dei figli, lui denuncia OpenAI














