Una grande multinazionale britannica con sede a Hong Kong è stata vittima di una sofisticata truffa resa possibile dall’utilizzo della tecnologia deepfake, basata sull’intelligenza artificiale. Il caso non è isolato, ma è esemplificativo dei rischi concreti (e costosi) che simili tecnologie possono avere, nel limbo della regolamentazione e in assenza di un adeguato livello di attenzione.
I temi trattati all’interno dell’articolo
Cosa è successo a Hong Kong?
Un impiegato dell’azienda vittima della truffa ha ricevuto un’email contenente un invito a partecipare a una videoconferenza con il direttore finanziario e altri manager. La comunicazione elettronica e la successiva videochiamata sembravano del tutto legittime, ma in realtà il direttore finanziario era un deepfake, un contenuto multimediale generato da un’intelligenza artificiale in grado di riprodurre perfettamente il volto e la voce di una persona reale a partire da pochi secondi di contenuti audio e video reali.
Durante la finta call, il falso direttore ha convinto l’impiegato a effettuare un urgente bonifico di 25 milioni di dollari su cinque conti sconosciuti, spacciando la transazione per una “operazione segreta”. L’inganno è stato scoperto solo il giorno successivo, quando il vero direttore finanziario ha contattato l’impiegato negando di aver autorizzato l’operazione.
La polizia sta ora indagando sull’accaduto, ma rintracciare i responsabili attraverso internet si sta rivelando molto complicato.
Serve la massima attenzione
Questo episodio dimostra ancora una volta i rischi legati ai deepfake e alle altre tecnologie di intelligenza artificiale in grado di manipolare immagini e video in modo sempre più credibile.
Per limitare queste minacce, aziende come Meta e Google stanno lavorando a strumenti di riconoscimento automatico dei contenuti creati dall’AI. La difficoltà, una volta raggiunto un livello di accuratezza della detection elevato, starà però anche nell’utilizzabilità di simili strumenti su tutte le piattaforme. La competizione tra i big player del settore, interessati a offrire ecosistemi AI completi e sicuri, si sta giocando e si giocherà anche sulla mitigazione dei rischi.
Al di là dei tool utili all’identificazione dei deepfake, però, dato l’alto livello di realismo già raggiunto, è necessario prestare la massima attenzione ai dettagli.
Importante, inoltre, soprattutto in situazioni che non rientrano nella nostra ‘normalità’ quotidiana, chiedere sempre conferma dell’autenticità di un contenuto all’apparente autore dello stesso. Naturalmente, attraverso mezzi di comunicazione diversi da quelli utilizzati per la condivisione del contenuto sospetto.