La produzione di articoli accademici sull’intelligenza artificiale sarebbe fuori controllo

Le pressioni sul mondo accademico per realizzare articoli sull'AI sempre nuovi sono altissime, con il risultato che la letteratura scientifica sta diventando un sistema saturo e impreciso

4 min.

La produzione di articoli accademici sull’intelligenza artificiale sarebbe fuori controllo

Due settimane fa il professore di informatica dell’università di Berkeley Hany Farid ha pubblicato un post di LinkedIn di denuncia al “sistema” ormai conclamato della “turbo-letteratura accademica” sull’intelligenza artificiale. Secondo il docente saremmo ormai sommersi da una marea di articoli spesso qualitativamente bassi, scritti talvolta da figure senza le adeguate competenze.

Pressioni eccessive

La scalata per diventare nomi di punta del settore, infatti, passa anche attraverso la realizzazione di studi e articoli scientifici, ragion per cui chiunque voglia entrare nel mondo dell’AI (nella ricerca ma anche nell’imprenditoria) si cimenta nella scrittura di materiale accademico. E le pressioni, per docenti e studenti, per pubblicare freneticamente, premono sempre di più. Al punto che il professor Jeffrey Walling del Virginia Tech arriva a dire: “Gli accademici vengono premiati più per il volume delle pubblicazioni che per la qualità“. Con uno sbarramento all’ingresso molto basso, la quantità di articoli è diventata altissima.

Secondo più di 4.000 ricercatori l'intelligenza artificiale migliorerà la nostra vita

Aumenterà l'accesso all'istruzione e all'assistenza sanitaria, dicono le risposte di…

Farid ha preso come esempio il lavoro del fondatore della startup di ricerca AI Algoverse, Kevin Zho. Zho, da poco laureato nella stessa università dove Farid è docente, ha pubblicato solo quest’anno 113 articoli sull’AI. Peccato che secondo Farid gli scritti sarebbero “un disastro“: “Non riesco a leggere attentamente 100 articoli tecnici all’anno – ha scritto il docente – quindi immagina la mia sorpresa quando ho scoperto un autore che afferma di aver partecipato alla ricerca e alla stesura di oltre 100 articoli tecnici in un anno“.

Revisioni fantasma

A complicare il quadro è che i processi di revisione paritaria degli articoli scientifici (solitamente piuttosto rigorosi in altre discipline), allentano molto la severità con le pubblicazioni sull’AI. Le principali conferenze di settore hanno processi poco formali per la presentazione di contributi, con il risultato che quest’anno l’incremento di materiale accettato è pubblicato è stato vertiginoso. NeurIPS (una delle istituzioni principali) ha presentato nel 2025 21.575 articoli (nel 2020 erano stati 10.000) e l’International Conference on Learning Representations, ha registrato un aumento del 70% dei suoi contributi annuali per la prossima conferenza del 2026. Le revisioni poi sono spesso demandate a dottorandi o addirittura liceali. E in alcuni casi all’AI stessa, per materiale che alcuni sospettano in larga parte scritto a sua volta con AI: un cortocircuito paradossale che abbassa la qualità e aumenta la massificazione.

A imporsi poi come riferimento principale per aziende e organizzazioni è stato arXiv, portale molto noto della Cornell University che ha sempre ospitato materiale scientifico di nicchia e in attesa di revisione. Sempre più, il materiale consultato su arXiv è considerato da molti alla stregua di letteratura scientifica ufficiale, quando spesso non è stato sottoposto ad alcuna verifica.

È un vero disastro – ha detto Farid Non riesci a tenere il passo, non riesci a pubblicare, non riesci a fare un buon lavoro, non riesci a essere riflessivo“.

Troppo rumore

Soprattutto, nonostante sembri che la mole di notizie permetta di seguire l’evoluzione dell’AI, Farid sostiene che per giornalisti, opinione pubblica e perfino tecnici è praticamente impossibile capire come sta progredendo davvero il settore.

Non hai alcuna possibilità, nessuna possibilità, come lettore medio – sentenzia Farid di cercare di capire cosa sta succedendo nella letteratura scientifica. C’è troppo rumore e poco contenuto utile“.

Occorre tenere presente, comunque, che negli anni dalla stessa “macchina accademica” dell’AI che oggi appare fuori controllo sono emersi studi di enorme rilevanza scientifica, tra tutti in particolare lo studio di Google che fece da base teorica per lo sviluppo di ChatGPT, Attention Is All You Need. La ricerca fu presentata proprio al NeurIPS nel 2017.

È un ecosistema insomma che è stato a lungo pienamente funzionale e che può avere gli anticorpi per marginalizzare se non superare le nuove tendenze alla sovrapproduzione accademica.


Ultime news


Bioterrorismo e ricadute sul mercato del lavoro: i due grandi rischi dell’AI secondo Bill Gates

Secondo Gates gruppi di malintenzionati potrebbero mettere in serio pericolo…

Bioterrorismo e ricadute sul mercato del lavoro: i due grandi rischi dell’AI secondo Bill Gates
Amazon, accordo con l’azienda Rio Tinto per la fornitura di rame per i data center AI

Gli analisti hanno previsto un aumento della domanda del 50%…

Amazon, accordo con l’azienda Rio Tinto per la fornitura di rame per i data center AI
Emirati Arabi Uniti sul tetto del mondo (e altre notizie generative)

Weekly AI è la newsletter settimanale di AI news sulle…

Emirati Arabi Uniti sul tetto del mondo (e altre notizie generative)
Stati Uniti-Taiwan, raggiunto l’accordo commerciale: dazi al 15% in cambio di corposi investimenti

Le aziende tecnologiche taiwanesi si impegnano a investire 250 miliardi…

Stati Uniti-Taiwan, raggiunto l’accordo commerciale: dazi al 15% in cambio di corposi investimenti

In Evidenza


Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

Privacy policy| Cookie policy| Cookie setting| © 2026