Due settimane fa il professore di informatica dell’università di Berkeley Hany Farid ha pubblicato un post di LinkedIn di denuncia al “sistema” ormai conclamato della “turbo-letteratura accademica” sull’intelligenza artificiale. Secondo il docente saremmo ormai sommersi da una marea di articoli spesso qualitativamente bassi, scritti talvolta da figure senza le adeguate competenze.
Pressioni eccessive
La scalata per diventare nomi di punta del settore, infatti, passa anche attraverso la realizzazione di studi e articoli scientifici, ragion per cui chiunque voglia entrare nel mondo dell’AI (nella ricerca ma anche nell’imprenditoria) si cimenta nella scrittura di materiale accademico. E le pressioni, per docenti e studenti, per pubblicare freneticamente, premono sempre di più. Al punto che il professor Jeffrey Walling del Virginia Tech arriva a dire: “Gli accademici vengono premiati più per il volume delle pubblicazioni che per la qualità“. Con uno sbarramento all’ingresso molto basso, la quantità di articoli è diventata altissima.
Secondo più di 4.000 ricercatori l'intelligenza artificiale migliorerà la nostra vita
Aumenterà l'accesso all'istruzione e all'assistenza sanitaria, dicono le risposte di…
Farid ha preso come esempio il lavoro del fondatore della startup di ricerca AI Algoverse, Kevin Zho. Zho, da poco laureato nella stessa università dove Farid è docente, ha pubblicato solo quest’anno 113 articoli sull’AI. Peccato che secondo Farid gli scritti sarebbero “un disastro“: “Non riesco a leggere attentamente 100 articoli tecnici all’anno – ha scritto il docente – quindi immagina la mia sorpresa quando ho scoperto un autore che afferma di aver partecipato alla ricerca e alla stesura di oltre 100 articoli tecnici in un anno“.
Revisioni fantasma
A complicare il quadro è che i processi di revisione paritaria degli articoli scientifici (solitamente piuttosto rigorosi in altre discipline), allentano molto la severità con le pubblicazioni sull’AI. Le principali conferenze di settore hanno processi poco formali per la presentazione di contributi, con il risultato che quest’anno l’incremento di materiale accettato è pubblicato è stato vertiginoso. NeurIPS (una delle istituzioni principali) ha presentato nel 2025 21.575 articoli (nel 2020 erano stati 10.000) e l’International Conference on Learning Representations, ha registrato un aumento del 70% dei suoi contributi annuali per la prossima conferenza del 2026. Le revisioni poi sono spesso demandate a dottorandi o addirittura liceali. E in alcuni casi all’AI stessa, per materiale che alcuni sospettano in larga parte scritto a sua volta con AI: un cortocircuito paradossale che abbassa la qualità e aumenta la massificazione.
A imporsi poi come riferimento principale per aziende e organizzazioni è stato arXiv, portale molto noto della Cornell University che ha sempre ospitato materiale scientifico di nicchia e in attesa di revisione. Sempre più, il materiale consultato su arXiv è considerato da molti alla stregua di letteratura scientifica ufficiale, quando spesso non è stato sottoposto ad alcuna verifica.
“È un vero disastro – ha detto Farid – Non riesci a tenere il passo, non riesci a pubblicare, non riesci a fare un buon lavoro, non riesci a essere riflessivo“.
"Ti fermo qui": Claude Sonnet 4.5 si è accorto che i ricercatori di Anthropic lo stavano testando
E ha manifestato un certo disappunto
Troppo rumore
Soprattutto, nonostante sembri che la mole di notizie permetta di seguire l’evoluzione dell’AI, Farid sostiene che per giornalisti, opinione pubblica e perfino tecnici è praticamente impossibile capire come sta progredendo davvero il settore.
“Non hai alcuna possibilità, nessuna possibilità, come lettore medio – sentenzia Farid – di cercare di capire cosa sta succedendo nella letteratura scientifica. C’è troppo rumore e poco contenuto utile“.
Occorre tenere presente, comunque, che negli anni dalla stessa “macchina accademica” dell’AI che oggi appare fuori controllo sono emersi studi di enorme rilevanza scientifica, tra tutti in particolare lo studio di Google che fece da base teorica per lo sviluppo di ChatGPT, Attention Is All You Need. La ricerca fu presentata proprio al NeurIPS nel 2017.
È un ecosistema insomma che è stato a lungo pienamente funzionale e che può avere gli anticorpi per marginalizzare se non superare le nuove tendenze alla sovrapproduzione accademica.