Sempre più bibliotecari ricevono richieste per libri inesistenti inventati dalle AI

In USA il fenomeno è in crescita: gli utenti richiedono testi frutto di allucinazioni senza prima verificarne l'esistenza

2 min.

Sempre più bibliotecari ricevono richieste per libri inesistenti inventati dalle AI

Se c’è una categoria che tocca con mano la diffusione delle allucinazioni è quella dei bibliotecari, soprattutto americani. Sulla scia di un report della Croce Rossa sull’invenzione di fonti archivistiche dei chatbot, Scientific American ha confermato che sono sempre di più i responsabili di biblioteche che lamentano la perdita di tempo per richieste di testi che si rivelano del tutto inesistenti.

Libri inventati dai chatbot spesso connessi a citazioni a loro volta false: la maggior parte delle persone non verifica l’esistenza o meno di questi testi prima i richiederli alle strutture. Molti di questi sono studenti universitari e ricercatori, alla ricerca spesso di documenti rari o molto specifici.

Sarah Falls è la responsabile del coinvolgimento dei ricercatori presso la Biblioteca della Virginia. Ha dichiarato che il 15% delle richieste inviate via email includono citazioni allucinatorie sia per opere pubblicate che per documenti di fonti primarie uniche (tutti quei documenti con testimonianze dirette e originali di un argomento). “Per il nostro personale – ha dichiarato –è molto più difficile dimostrare che un documento unico non esiste“. Talvolta le email stesse sono direttamente generate da ChatGPT, in un passaggio diretto tra origine dell’allucinazione e richiesta.

Un classico esempio in cui gli errori delle AI conducono a una scia di lavoro ulteriore e infruttuoso. Per proteggersi dal fenomeno, la Biblioteca della Virginia chiederà ai richiedenti uno step in più di pre-verifica delle fonti.

Futurism ha setacciato Bluesky scoprendo che esiste un vero e proprio trend con commenti di bibliotecari sul tema come anche di ricercatori e universitari irritati dalle “derive AI” dei colleghi. L’opinione condivisa è che la situazione di confusione inedita rende più difficile trovare documenti autentici.

La produzione di articoli accademici sull'intelligenza artificiale sarebbe fuori controllo

Le pressioni sul mondo accademico per realizzare articoli sull'AI sempre…


Ultime news


Bioterrorismo e ricadute sul mercato del lavoro: i due grandi rischi dell’AI secondo Bill Gates

Secondo Gates gruppi di malintenzionati potrebbero mettere in serio pericolo…

Bioterrorismo e ricadute sul mercato del lavoro: i due grandi rischi dell’AI secondo Bill Gates
Amazon, accordo con l’azienda Rio Tinto per la fornitura di rame per i data center AI

Gli analisti hanno previsto un aumento della domanda del 50%…

Amazon, accordo con l’azienda Rio Tinto per la fornitura di rame per i data center AI
Emirati Arabi Uniti sul tetto del mondo (e altre notizie generative)

Weekly AI è la newsletter settimanale di AI news sulle…

Emirati Arabi Uniti sul tetto del mondo (e altre notizie generative)
Stati Uniti-Taiwan, raggiunto l’accordo commerciale: dazi al 15% in cambio di corposi investimenti

Le aziende tecnologiche taiwanesi si impegnano a investire 250 miliardi…

Stati Uniti-Taiwan, raggiunto l’accordo commerciale: dazi al 15% in cambio di corposi investimenti

In Evidenza


Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

Privacy policy| Cookie policy| Cookie setting| © 2026