Cosa sono i deep fake?

Marenzi Margherita 15 Dicembre 2021

6 minuti

Politica, industria, sanità, economia: ogni campo è a rischio deep fake, una particolare tecnica che sfrutta l’intelligenza artificiale per manipolare foto e video.

Con il termine deep fake si fa riferimento ad una tecnica AI grazie alla quale si possono creare contenuti partendo da una base reale di video, foto o registrazioni audio. Un fenomeno in larga ascesa di cui stupisce la capacità di rendere questa finzione incredibilmente simile alla realtà, riproducendo in maniera impeccabile, ad esempio, espressioni facciali e timbro vocale della persona raffigurata. La diffusione di materiale deep fake porta con sé numerosi rischi. In questo articolo, analizziamo la tecnologia dietro questi contenuti, i settori più esposti e le possibili soluzioni.

Nascita e diffusione dei contenuti deep fake

Il termine è stato utilizzato per la prima volta nel 2017 da un utente di Reddit che aveva apostrofato con la parola “deepfakes”, dei finti film hard con famosi attori di Hollywood, sostituendo i loro volti a quelli degli attori del video. Il sistema utilizzato in quel caso (ma non solo) è quello del machine learning, cioè l’apprendimento automatico attraverso algoritmi che analizzano dati e calcolano la probabilità che una cosa sia vera o falsa. Proprio gli algoritmi riescono a generare, grazie ai loro calcoli, un’immagine che sia quanto più veritiera e realistica possibile. A questo scopo vengono sfruttate le reti generative avversarie, o GAN in breve, che rappresentano un approccio alla modellazione generativa che utilizza metodi di apprendimento profondo, come ad esempio le reti neurali.

Le reti neurali sono una famiglia di algoritmi machine learning: gli operatori le programmano per un compito specifico e loro proseguono autonomamente imparando dalle immagini che ricevono. È questa capacità di apprendimento che dà all’algoritmo la sua capacità di “pensiero”. In questo caso specifico, vengono analizzati video, foto, registrazioni di coloro che verranno inseriti nel prodotto finale, in modo tale che poi possa venire processato anche il più piccolo dettaglio: la pronuncia di una parola, una smorfia, un tic, comprendendo anche quando e come questi vengano fatti.

Lo stesso meccanismo è stato utilizzato, ad esempio, sia da TikTok per creare un filtro molto popolare, in grado di rendere animate le foto, facendo muovere e sorridere le persone immortalate sia dal regista Morgan Neville per girare un documentario, Roadrunner, su Anthony Bourdain, il famoso cuoco mancato nel 2018. Grazie a questa tecnologia è stato possibile inserire nel film la voce narrante del cuoco scomparso, dopo che essa è stata ricostruita grazie all’analisi, da parte dell’intelligenza artificiale, di moltissime ore di video.

L’utilizzo dei deep fake in politica

La politica non è esente dal rischio deep fake, anzi. Un uso incontrollato di questa tecnica, se non si interviene prontamente, può portare anche a gravi conseguenze.  Ad aprile 2018, sui social, ha iniziato a spopolare sui social un video in cui Barack Obama insultava pubblicamente Donald Trump. Un comportamento da molti ritenuto insolito per l’ex presidente degli Stati Uniti. Solo successivamente è stato scoperto che quel contenuto era stato realizzato grazie all’utilizzo di questa specifica tecnica AI.

Questo video, che a una prima visione potrebbe risultare anche divertente, apre il vaso di pandora su alcuni rischi che l’uso intenso dei deep fake porta con sé, sia in campo politico che nella società. Basti pensare a cosa succederebbe se venissero fatte pronunciare parole di guerra ad un capo di Stato.

Il fenomeno è tornato agli albori della cronaca anche durante la pandemia da Covid-19. Durante questo periodo storico, in particolare, video deep fake sono stati utilizzati su Zoom. I giornali hanno raccontato come alcuni parlamentari estoni e olandesi siano stati convinti di aver avuto una conversazione con Leonid Volkov, un politico russo a capo del personale della campagna elettorale presidenziale del 2018 di Alexei Navalny, quando invece era tutto falso. Un esempio di come anche politici che hanno alle spalle team di esperti in comunicazione digitale possano cadere nel tranello.

Quali altri settori sono a rischio?

Il settore industriale è esposto a un alto rischio. Nel rapporto CLUSIT del 2020, nel lungo periodo, è stimato che gli attacchi fondati sulla combinazione di tecniche di ingegneria sociale e di intelligenza artificiale, come il deep fake, cresceranno in maniera sostenuta, prettamente a danno di organizzazioni economiche. Basti pensare a tutti i servizi televisivi di denuncia o ai video che circolano sui social. Qualora le immagini riportare fossero false, un’azienda si potrebbe trovare davanti a una crisi reputazionale causata da una fake news ma che porta con sé ripercussioni – anche economiche e sociali – rilevanti. E, una volta rovinata, è difficile ricostruire un’immagine corretta agli occhi dei consumatori.

Anche il mondo dell’editoria non è esente da rischi, se non altro per il proliferare di siti di (dis)informazione in cui risulterebbe semplice far circolare un contenuto manipolato. Una foto, un video o una registrazione possono essere ripresi da tutte le testate giornalistiche e ogni piattaforma social in pochi minuti, rischiando di intaccare la reputazione di soggetti, con notizie non accertate e non verificate. Ad esempio, Striscia la Notizia nel 2019 aveva utilizzato un video fuori onda deep fake di Matteo Renzi, per un servizio, seguito poi da altre puntate. Un episodio che avevano generato molto scalpore e aveva alimentato la discussione anche sull’eticità di questi video deep fake per fare satira.

Come riconoscere i deep fake?

Esistono, però, degli strumenti in grado di comprendere se il contenuto sia originale o meno: un esempio è XceptionNet, programma sviluppato da un team di ricercatori della Università Tecnica di Monaco, proprio per cercare nei file video le tracce di una manipolazione.

Un altro esempio è l’algoritmo sviluppato da Siwei Lyu, professore d’informatica e direttore del Computer Vision e Machine Learning Lab dell’Albany State University di New York. Il software basato su questo algoritmo, quando analizza un contenuto per identificare la manipolazione di un video, come primo elemento scandaglia i pixel in alcuni fotogrammi specifici. In alcuni casi, sebbene il contenuto deep fake sia molto realistico, se il soggetto non guarda direttamente in camera, ciò che lo crea distorce leggermente l’immagine disallineando certi tratti somatici in maniera impercettibile. Queste distorsioni vengono rilevate in modo da verificare l’autenticità o meno del contenuto.

Anche Microsoft ha sviluppato uno strumento per individuare i deep fake. Il software in questione analizza foto e video per dare un punteggio sulla probabilità che il materiale sia stato creato artificialmente. Lo scopo dell’azienda è che la tecnologia aiuti a “combattere la disinformazione”. Per costruirlo, l’azienda ha applicato le proprie tecniche di machine learning a una serie di dati pubblici di circa mille sequenze video deep fake e ha poi testato il modello risultante su un database ancora più grande creato da Facebook.

Sempre Microsoft ha poi creato un metodo che possa certificare un contenuto come originale o meno: nello specifico, inserendo una sorta di filigrana di autenticità, si riuscirà a valutare lo stato dell’oggetto specifico. Su Internet, inoltre, è possibile trovare anche siti, tra cui Deep ware, capaci di valutare, indicativamente, se un contenuto sia originale o modificato.


Articoli simili

Il digitale è stato incluso in tutti i programmi elettorali elaborati dalle coalizioni in campo. Spazio anche per l’intelligenza artificiale.  
29 Agosto 2022

L’intelligenza artificiale può essere usata per garantire il funzionamento della democrazia, ma la sua strumentalizzazione ha effetti opposti.
6 Luglio 2022

Molti sono i vantaggi dell’AI nell’ambito della pubblica amministrazione, ma quali rischi si celano dietro questa tecnologia?
13 Giugno 2022

L'intelligenza artificiale, tra deepfake e post falsi, sta contribuendo alla creazione e diffusione di fake news anche nel conflitto ucraino.

In Evidenza


Cosa sono i Big Data? 

I nostri dati vengono continuamente raccolti e rappresentano un asset…

I reati nel metaverso: quali possono essere commessi? 

I reati possono essere commessi anche nel metaverso e questi…

Il chatbot di Google è realmente senziente?

Un ingegnere di Google ha dichiarato che il modello conversazionale…

Come si crea un algoritmo di machine learning?

Lo sviluppo di un algoritmo di machine learning è un…

Il timore di un AI takeover: opinioni e prospettive future

Dalla finzione alla realtà. Il timore di un AI takeover…