Un audio del vicepresidente statunitense JD Vance che critica le azioni di Elon Musk in quanto nocive per l’Amministrazione Trump ha fatto il giro del web. C’è chi è d’accordo con lui, chi lo ha attaccato per la mancanza di attenzione a eventuali leaks e chi si è insospettito (giustamente) pensando che potesse trattarsi di un deepfake.
Well this leaked audio shows cracks in their plan. JD Vance cooked Elon up!! pic.twitter.com/CTqo2jnstX
— Camille (@CamistheOne10) March 24, 2025
Sia Vance che il suo direttore della comunicazione, William Martin, hanno smentito a stretto giro l’autenticità del contenuto, definendolo un falso generato dall’intelligenza artificiale.

Lo è davvero? In questo caso sì, ma il dubbio stesso fa riflettere. Alla fuoriuscita di una dichiarazione privata – e che tale sarebbe dovuta rimanere (solitamente perché compromettente) -, la reazione più naturale è sempre stata il panico. Oggi, grazie all’area grigia offerta dall’AI, si potrebbe tentare la smentita: “È un deepfake”.
Non è più solo il falso che imita il reale a generare disinformazione, ma anche il reale che – se scomodo – viene tacciato di falsità.
I temi trattati all’interno dell’articolo
I contenuti fake: un fenomeno in espansione
Nel panorama digitale attuale, la diffusione di contenuti falsi o manipolati non è più un’eccezione, ma una costante. Dai video alle immagini, passando per gli audio clonati e le notizie false, la rete è invasa da informazioni che spesso ingannano l’occhio e l’orecchio degli utenti. Questi contenuti, apparentemente autentici, possono avere un impatto devastante sulla percezione pubblica, influenzando opinioni politiche, economiche e sociali.
L’aspetto più preoccupante è che, grazie agli sviluppi nell’intelligenza artificiale, la creazione di deepfake è diventata sempre più accessibile, la tecnologia è democraticamente utilizzabile anche in assenza di know-how, ma permette la produzione di contenuti particolarmente sofisticati. In molti casi, è difficile per una persona comune – e a volte persino per professionisti del settore – riconoscere se siano veri o meno.
La sfida per le redazioni giornalistiche
Le redazioni giornalistiche, purtroppo, non sono immuni a questa problematica. Nonostante il ruolo in primo piano nella lotta alla disinformazione, molti giornalisti e redattori si trovano spesso nella difficile situazione di dover verificare la veridicità di contenuti particolarmente realistici, soprattutto quando la realtà supera la fantasia.
Il lavoro di verifica si basa principalmente sul contesto in cui i contenuti vengono pubblicati e sulla credibilità della fonte generatrice o di condivisione. Questo approccio, sebbene utile in molti casi, non è sufficiente per garantire che una notizia sia accurata. Per fortuna, possono aiutare degli strumenti tecnologici avanzati in grado di riconoscere i contenuti AI-generated (i classici sistemi di rilevamento, che però non sono infallibili e, talvolta, possono fare cilecca).
L’impatto dei deepfake e delle tecnologie AI sulla società
Il fenomeno dei deepfake è particolarmente insidioso. E non si verifica solo nell’ambito delle fake news politiche, come nel caso citato, ma anche in quello delle truffe economiche e della manipolazione delle emozioni.

Deepfake del CEO di Ferrari tenta di truffare un dirigente
La situazione è degenerata con una telefonata in cui la…
Le conseguenze sociali sono significative. Se non affrontato in modo adeguato, il fenomeno della disinformazione alimentata dall’AI rischia di minare la fiducia nelle fonti di informazione tradizionali e nelle istituzioni stesse. Un trend cui si è assistito negli anni, ma che si è acuito con l’avvento dell’AI generativa più avanzata. La soluzione? Tanta attenzione, una buona dose di sano scetticismo, miglioramento dei sistemi di rilevamento e soluzioni funzionali (come, per esempio, i watermark nativi nei prodotti dell’AI). Ma forse potrebbe non bastare neanche questo.

SynthID di Google riconosce le opere generate dall'AI
Nasce SynthID, una nuova tecnologia sviluppata da Google per riconoscere…