AI news:

il portale di approfondimento sul mondo dell'intelligenza artificiale

AI news: il portale di approfondimento sul mondo dell'intelligenza artificiale

Fake news e deepfake: l’AI e la disinformazione nella guerra russo-ucraina

fake news

L’intelligenza artificiale sta contribuendo alla creazione e diffusione di fake news anche nel conflitto ucraino. I deepfake fanno sorgere ulteriori problemi.

I social network, si sa, sono popolati da fake news e post creati al solo scopo di disinformare gli utenti – a volte singoli e altre volte parte di un progetto intenzionale più complesso e studiato a tavolino.

La tecnologia costituisce il motore del processo di diffusione di fake news, uno strumento che permette la condivisione istantanea di contenuti con una vasta platea di lettori. Quando però i software utilizzati sono basati sull’intelligenza artificiale, la creazione e diffusione di bufale risultano ulteriormente semplificate e più efficienti e rendono il contenimento del fenomeno ancora più difficoltoso. 

L’intelligenza artificiale e la disinformazione

L’AI è infatti in grado di generare e diffondere fake news e notizie inesatte spacciandole per fatti, in modo tanto credibile da dare del filo da torcere persino agli esperti di cybersecurity. Data l’efficacia con cui le notizie false vengono presentate, anche chi lavora nel settore non è infatti più in grado di discernere sempre con certezza le notizie accurate da quelle fake.

La quantità dei dati disponibili online, inoltre, permette agli algoritmi di machine learning e all’intelligenza artificiale di imparare a personalizzare ancor più efficacemente i risultati prodotti, complicando ulteriormente la distinzione. La stessa AI che semplifica la ricerca di informazioni online è infatti quella che, usata negativamente, potrebbe al contrario far risaltare fake news. Ogni volta che cerchiamo informazioni su Google, infatti, l’AI impara dai risultati da noi cliccati al fine di ordinarli per rilevanza, pertinenza e interesse. Un suo training volontario o un utilizzo erroneo insegna quindi al sistema a proporre risultati non accurati, falsando la visione della realtà degli utenti.

Il problema si è complicato ulteriormente con l’avvento di software in grado di elaborare automaticamente testi, come GPT-3 di OpenAI. Sistemi simili rendono molto più semplice la creazione di messaggi, email e post su qualsiasi argomento e, se questi vengono “diretti” da una persona o da un ente con intenzioni disinformative, le informazioni false possono essere prodotte e condivise molto velocemente. Questo automatizza la macchina della disinformazione, guidata da singoli, gruppi o – talvolta – governi.

La guerra a colpi di fake news e deepfake

Il fenomeno è evidente anche nel conflitto russo-ucraino, scatenatosi il 24 febbraio 2022, che ha visto e continua a vedere una guerra combattuta a due livelli, nel mondo “reale” e in quello virtuale. Due piani che si intrecciano sempre di più, finendo con l’influenzarsi a vicenda.

L’esistenza di strumenti di AI capaci di generare messaggi e di verificare immediatamente se questi siano o meno efficaci – imparando ad adeguarsi di conseguenza – è sicuramente utile alle fonti di informazione pubbliche e private e risulta un asset indispensabile nella diffusione delle notizie. Questo non manca però di generare dubbi e preoccupazioni nei casi in cui chi gestisce i software non abbia le migliori intenzioni. Si pensi alla campagna di disinformazione portata avanti da diversi profili filo-russi e dalla propaganda governativa attualmente ancora in corso. Uno sforzo mediatico capillare adiuvato anche da contenuti multimediali sempre più credibili e virali, che si diffondono a macchia d’olio tra “mi piace” e innumerevoli condivisioni.

Con l’obiettivo di disinformare il pubblico, vengono usati infatti anche i deepfake: immagini, video o audio falsi solitamente creati con lo scopo di imitare un personaggio famoso e fargli dire o fare specifiche frasi e azioni. Questi sono stati e continuano a essere creati e diffusi da svariate fonti filo-russe sempre per dipingere negativamente l’Ucraina e il suo Governo e positivamente Putin e il Cremlino nel corso della guerra.

Ne è un esempio recente la riproduzione digitale del presidente dell’Ucraina, Volodymyr Zelensky, che incita il suo popolo a deporre le armi. Per fortuna, la cattiva riuscita del video – che risulta innaturale e poco credibile – non ha convinto gli utenti del web. Meglio riuscite – seppur con lievi difetti – sono invece le immagini dei profili falsi rimossi da Twitter e Facebook di un “blogger” di Kiev, Vladimir Bondarenko, e della “direttrice responsabile” di Ukraine Today, Irina Kerimova, usate per dare maggiore credibilità ai profili al fine di diffondere il sentimento anti-ucraino online.

Una tecnica, quella dei deep fake, utilizzata anche dagli hacker ucraini per diffondere finti messaggi del presidente Vladimir Putin. Ne è un esempio quello in cui il presidente russo afferma di aver “raggiunto la pace con l’Ucraina” e dichiara di voler ripristinare l’indipendenza della Crimea.

Problemi e prospettive future

Il possibile sviluppo di deepfake sempre più credibili e il loro potenziale utilizzo in contesti simili a quello descritto generano dubbi e preoccupazione. Una ricerca pubblicata nel febbraio 2022 rileva infatti che i visi creati attraverso l’uso di intelligenza artificiale non sono distinguibili da quelli reali e risultano addirittura più affidabili.

In un mondo di dati incerti e sviluppo tecnologico, è dunque necessario informarsi sulle fonti e proseguire nella messa a punto di strumenti utili all’individuazione e alla rimozione di fake news dalla rete. I gestori dei social network e diversi enti pubblici e privati stanno facendo passi avanti, ma la strada rimane ancora in salita.