Un recente test condotto da NewsGuard, una società statunitense che si occupa di valutare l’affidabilità delle fonti di informazione online, ha messo in luce un paradosso sorprendente: alcuni dei chatbot di intelligenza artificiale più avanzati al mondo faticano a riconoscere i video generati dall’AI.
Nella ricerca, intitolata “AI Fools Itself: Top Chatbots Don’t Recognize AI-Generated Videos”, alcune clip create con Sora, lo strumento di generazione video di OpenAI, sono state mostrate a ChatGPT, Gemini e Grok per capire se fossero in grado di percepire l’AI. Senza watermark, ovvero il logo che contrassegna i contenuti generati con AI, i sistemi hanno prodotto risultati quasi sempre fallimentari. Grok non ha riconosciuto i video nel 95% dei casi, ChatGPT nel 92,5% e Gemini nel 78%. Sorprendentemente anche con la presenza di watermark gli errori non sono spariti del tutto e il tasso fallimento è rimasto relativamente elevato. Grok ha infatti sbagliato nel 30% dei casi e ChatGPT nel 7,5%. Solamente Gemini in questo caso si è contraddistinto per aver commesso zero errori.
Secondo la società che si è occupata della ricerca i risultati “mostrano quanto sia difficile distinguere il reale dal sintetico”. OpenAI ha risposto in merito all’indagine ammettendo che ChatGPT “non è progettato per determinare con certezza se un contenuto sia generato da AI”, mentre Google ha fatto sapere che Gemini può riconoscere contenuti generati dall’IA solo per le proprie creazioni tramite lo strumento di marcatura invisibile SynthID. xAI si è invece astenuta dal fornire risposte pubbliche sui risultati del suo chatbot.
Il cervello umano funziona come l'AI? La scoperta scientifica che avvicina la mente agli algoritmi
Il processo di comprensione del linguaggio del cervello umano sembra…