Secondo uno studio condotto dalla dall’Unione europea di radiodiffusione (EBU) e dall’emittente britannica Bbc, i principali chatbot di intelligenza artificiale sbagliano quasi una volta su due nel fornire risposte su notizie di attualità.
La ricerca è stata condotta da giornalisti professionisti provenienti da 22 testate pubbliche di 18 paesi compresa anche la Rai. I giornalisti hanno analizzato circa 3000 risposte a domande sulle notizie quotidiane prodotte da ChatGPT, Copilot, Gemini e Perplexity. Le valutazioni sono state fatte su risposte in 14 lingue diverse e si sono basate su tre criteri di giudizio: livello di accuratezza, capacità di reperimento delle fonti e capacità di distinguere opinioni dai fatti.
I risultati emersi hanno dimostrato che le risposte dell’AI contenevano almeno un errore nel 45% dei casi, mentre nell’81% presentavano genericamente qualche problema di affidabilità. Inoltre il 31% delle risposte presentava citazioni fuorvianti e il 20% conteneva contenuti inventati e le allucinazioni tipiche dell’AI. Hanno stupito in particolare le prestazioni dell’assistente Gemini di Google, che ha riportato problemi di reperimento delle fonti nel 72% dei casi contro il 25% circa degli altri chatbot.
Le conclusioni della ricerca potrebbero minare la già fiducia dei cittadini negli assistenti di AI come fonti di informazioni quotidiane. Il Digital News Report 2025 del Reuters Institute ha messo in luce come l’AI generativa stia progressivamente acquisendo terreno e importanza nel mondo del giornalismo e dell’informazione. Circa il 7% di tutti coloro che si informano online lo fa infatti tramite chatbot AI, una percentuale che sale al 15% fra i minori di 25 anni.
Il New York Times sigla il suo primo accordo di licenza AI con Amazon
L'accordo fra le parti consentirà ad Amazon di utilizzare i…