Sposta 25 milioni su richiesta del capo, ma era un deepfake

L'inganno è stato scoperto il giorno successivo, quando il vero direttore ha contattato l'impiegato negando di aver autorizzato l'operazione.
Sposta 25 milioni su richiesta del capo, ma era un deepfake

Una grande multinazionale britannica con sede a Hong Kong è stata vittima di una sofisticata truffa resa possibile dall’utilizzo della tecnologia deepfake, basata sull’intelligenza artificiale. Il caso non è isolato, ma è esemplificativo dei rischi concreti (e costosi) che simili tecnologie possono avere, nel limbo della regolamentazione e in assenza di un adeguato livello di attenzione.

Cosa è successo a Hong Kong?

Un impiegato dell’azienda vittima della truffa ha ricevuto un’email contenente un invito a partecipare a una videoconferenza con il direttore finanziario e altri manager. La comunicazione elettronica e la successiva videochiamata sembravano del tutto legittime, ma in realtà il direttore finanziario era un deepfake, un contenuto multimediale generato da un’intelligenza artificiale in grado di riprodurre perfettamente il volto e la voce di una persona reale a partire da pochi secondi di contenuti audio e video reali.

Durante la finta call, il falso direttore ha convinto l’impiegato a effettuare un urgente bonifico di 25 milioni di dollari su cinque conti sconosciuti, spacciando la transazione per una “operazione segreta”. L’inganno è stato scoperto solo il giorno successivo, quando il vero direttore finanziario ha contattato l’impiegato negando di aver autorizzato l’operazione.

La polizia sta ora indagando sull’accaduto, ma rintracciare i responsabili attraverso internet si sta rivelando molto complicato.

Serve la massima attenzione

Questo episodio dimostra ancora una volta i rischi legati ai deepfake e alle altre tecnologie di intelligenza artificiale in grado di manipolare immagini e video in modo sempre più credibile.

Per limitare queste minacce, aziende come Meta e Google stanno lavorando a strumenti di riconoscimento automatico dei contenuti creati dall’AI. La difficoltà, una volta raggiunto un livello di accuratezza della detection elevato, starà però anche nell’utilizzabilità di simili strumenti su tutte le piattaforme. La competizione tra i big player del settore, interessati a offrire ecosistemi AI completi e sicuri, si sta giocando e si giocherà anche sulla mitigazione dei rischi.

Al di là dei tool utili all’identificazione dei deepfake, però, dato l’alto livello di realismo già raggiunto, è necessario prestare la massima attenzione ai dettagli.

Importante, inoltre, soprattutto in situazioni che non rientrano nella nostra ‘normalità’ quotidiana, chiedere sempre conferma dell’autenticità di un contenuto all’apparente autore dello stesso. Naturalmente, attraverso mezzi di comunicazione diversi da quelli utilizzati per la condivisione del contenuto sospetto.


Ultime news


Data center nello spazio? Secondo Jeff Bezos è possibile

L'idea promossa da Bezos sta prendendo piede in tutto il…

Google ha lanciato la piattaforma Gemini Enterprise per le aziende

L'applicazione permette ai dipendenti, fra le altre cose, di creare…

L’ex premier britannico Sunak assumerà ruoli di consulenza in Microsoft e Anthropic

Le attività di Sunak saranno fortemente attenzionate da un ente…

L’imperialismo digitale di Israele e altre storie generative | Weekly AI

Weekly AI è la rassegna settimanale di AI news sulle…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version