Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

Sposta 25 milioni su richiesta del capo, ma era un deepfake

3 minuti

Paolo Marinoni 8 Febbraio 2024
3 minuti

Una grande multinazionale britannica con sede a Hong Kong è stata vittima di una sofisticata truffa resa possibile dall’utilizzo della tecnologia deepfake, basata sull’intelligenza artificiale. Il caso non è isolato, ma è esemplificativo dei rischi concreti (e costosi) che simili tecnologie possono avere, nel limbo della regolamentazione e in assenza di un adeguato livello di attenzione.

I temi trattati all’interno dell’articolo

Cosa è successo a Hong Kong?

Un impiegato dell’azienda vittima della truffa ha ricevuto un’email contenente un invito a partecipare a una videoconferenza con il direttore finanziario e altri manager. La comunicazione elettronica e la successiva videochiamata sembravano del tutto legittime, ma in realtà il direttore finanziario era un deepfake, un contenuto multimediale generato da un’intelligenza artificiale in grado di riprodurre perfettamente il volto e la voce di una persona reale a partire da pochi secondi di contenuti audio e video reali.

Durante la finta call, il falso direttore ha convinto l’impiegato a effettuare un urgente bonifico di 25 milioni di dollari su cinque conti sconosciuti, spacciando la transazione per una “operazione segreta”. L’inganno è stato scoperto solo il giorno successivo, quando il vero direttore finanziario ha contattato l’impiegato negando di aver autorizzato l’operazione.

La polizia sta ora indagando sull’accaduto, ma rintracciare i responsabili attraverso internet si sta rivelando molto complicato.

Serve la massima attenzione

Questo episodio dimostra ancora una volta i rischi legati ai deepfake e alle altre tecnologie di intelligenza artificiale in grado di manipolare immagini e video in modo sempre più credibile.

Per limitare queste minacce, aziende come Meta e Google stanno lavorando a strumenti di riconoscimento automatico dei contenuti creati dall’AI. La difficoltà, una volta raggiunto un livello di accuratezza della detection elevato, starà però anche nell’utilizzabilità di simili strumenti su tutte le piattaforme. La competizione tra i big player del settore, interessati a offrire ecosistemi AI completi e sicuri, si sta giocando e si giocherà anche sulla mitigazione dei rischi.

Al di là dei tool utili all’identificazione dei deepfake, però, dato l’alto livello di realismo già raggiunto, è necessario prestare la massima attenzione ai dettagli.

Importante, inoltre, soprattutto in situazioni che non rientrano nella nostra ‘normalità’ quotidiana, chiedere sempre conferma dell’autenticità di un contenuto all’apparente autore dello stesso. Naturalmente, attraverso mezzi di comunicazione diversi da quelli utilizzati per la condivisione del contenuto sospetto.


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…