Il docente avverte OpenAI: rimuovere le allucinazioni renderebbe insostenibile il mercato AI

Wei Xing, dell’Università di Sheffield, sostiene che le soluzioni proposte recentemente da OpenAI per limitare il fenomeno delle allucinazioni sarebbero inattuabili

2 min.

Il docente avverte OpenAI: rimuovere le allucinazioni renderebbe insostenibile il mercato AI

Wei Xing, professore dell’Università di Sheffield ed esperto di ottimizzazione dell’AI, ha scritto un articolo su Conversation sostenendo che le soluzioni proposte recentemente da OpenAI per limitare il fenomeno delle allucinazioni sarebbero inattuabili, in un’ottica di sostenibilità del prodotto.

Secondo Xing, l’industria non è economicamente incentivata a ridurre la variabile probabilistica degli output generati dai modelli linguistici. Rendere i sistemi più prudenti significherebbe farli ammettere più spesso di “non sapere”, cosa che rischierebbe di frustrare gli utenti abituati a ricevere sempre una risposta sicura, anche quando errata.

OpenAI ha ammesso che le allucinazioni sono sistemiche ma ritiene di poterle limitare

Un team di OpenAI ha proposto una nuova procedura per…

Inoltre, introdurre metodi per calcolare il grado di incertezza comporterebbe un enorme aumento della potenza di calcolo necessaria e quindi dei costi operativi, già altissimi per aziende che hanno speso decine di miliardi di dollari senza, per ora, registrare ritorni significativi.

Secondo Xing, soluzioni di questo tipo risultano indispensabili solo in ambiti dove un errore ha conseguenze molto gravi – come nella finanza, nella logistica o nella sanità – mentre nel mercato consumer la finalità dell’intelligenza artificiale rimangono diverse: offrire risposte rapide e convincenti al minor costo possibile. Per questo, “tirare a indovinare” resta la strategia più conveniente e finché gli incentivi economici non cambieranno, le allucinazioni continueranno a far parte inevitabilmente dei sistemi di intelligenza artificiale.


🤖 Leggi altri articoli sulle allucinazioni:


Ultime news


Dal caos silente all’ordine: DEAS Cyber+ ridisegna la cybersecurity nell’era dell’AI

Il caso di ThreatPilot, nuovo strumento dell’eccellenza italiana della cyber…

Dal caos silente all’ordine: DEAS Cyber+ ridisegna la cybersecurity nell’era dell’AI
L’AI del futuro prende forma a Parigi (e altre notizie generative) | Weekly AI

Weekly AI è la newsletter settimanale di AI news sulle…

L’AI del futuro prende forma a Parigi (e altre notizie generative) | Weekly AI
Anthropic è in trattative con fondi di private equity per una joint venture sull’AI per aziende

La società ha inoltre lanciato il Claude Partner Network, un…

Anthropic è in trattative con fondi di private equity per una joint venture sull’AI per aziende
La società di software australiana Atlassian taglia il 10% della sua forza lavoro a causa dell’AI

I licenziamenti riguarderanno circa 1600 dipendenti dislocati soprattutto in Nord…

La società di software australiana Atlassian taglia il 10% della sua forza lavoro a causa dell’AI
L’azienda cinese ByteDance aggira le restrizioni USA e ottiene chip di Nvidia avanzati

Secondo fonti giornalistiche l'azienda starebbe conducendo la fase di installazione…

L’azienda cinese ByteDance aggira le restrizioni USA e ottiene chip di Nvidia avanzati

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026