Se c’è una categoria che tocca con mano la diffusione delle allucinazioni è quella dei bibliotecari, soprattutto americani. Sulla scia di un report della Croce Rossa sull’invenzione di fonti archivistiche dei chatbot, Scientific American ha confermato che sono sempre di più i responsabili di biblioteche che lamentano la perdita di tempo per richieste di testi che si rivelano del tutto inesistenti.
Libri inventati dai chatbot spesso connessi a citazioni a loro volta false: la maggior parte delle persone non verifica l’esistenza o meno di questi testi prima i richiederli alle strutture. Molti di questi sono studenti universitari e ricercatori, alla ricerca spesso di documenti rari o molto specifici.
Sarah Falls è la responsabile del coinvolgimento dei ricercatori presso la Biblioteca della Virginia. Ha dichiarato che il 15% delle richieste inviate via email includono citazioni allucinatorie sia per opere pubblicate che per documenti di fonti primarie uniche (tutti quei documenti con testimonianze dirette e originali di un argomento). “Per il nostro personale – ha dichiarato –è molto più difficile dimostrare che un documento unico non esiste“. Talvolta le email stesse sono direttamente generate da ChatGPT, in un passaggio diretto tra origine dell’allucinazione e richiesta.
Un classico esempio in cui gli errori delle AI conducono a una scia di lavoro ulteriore e infruttuoso. Per proteggersi dal fenomeno, la Biblioteca della Virginia chiederà ai richiedenti uno step in più di pre-verifica delle fonti.
Futurism ha setacciato Bluesky scoprendo che esiste un vero e proprio trend con commenti di bibliotecari sul tema come anche di ricercatori e universitari irritati dalle “derive AI” dei colleghi. L’opinione condivisa è che la situazione di confusione inedita rende più difficile trovare documenti autentici.
La produzione di articoli accademici sull'intelligenza artificiale sarebbe fuori controllo
Le pressioni sul mondo accademico per realizzare articoli sull'AI sempre…