Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

L’FBI è sempre più preoccupata per i rischi dell’AI

L’FBI è sempre più preoccupata per i rischi dell’AI

cybersecurity FBI

Uno dei risvolti più inquietanti dell’AI è il contributo sostanziale che può dare al mondo del crimine e della truffa; il direttore dell’FBI Christopher Wray e il capo della divisione cyber Bryan Vorndran hanno parlato di questi rischi durante la puntata del 28 luglio del podcastInside the FBI’, un progetto della stessa FBI.

Durante l’episodio, dal titolo ‘Defending Against AI Threats’, gli ospiti e la conduttrice Ellen Ferrari hanno fatto il punto sulle minacce più allarmanti rappresentate dall’intelligenza artificiale, spiegando brevemente come l’FBI le stia affrontando.

L’occasione è particolarmente interessante perché documenta l’escalation di attenzione da parte delle organizzazioni governative che si occupano di sicurezza.

AI generativa…di crimini 

La minaccia maggiore ad oggi è rappresentata dall’utilizzo che i cybercriminali possono fare dell’AI per incrementare le azioni di attacchi phishing e la diffusione di malware.

«L’uso dell’AI non è un crimine – ha detto la conduttrice del podcast Ellen Ferrante – ma le stesse tecnologie di AI generativa che possono farci risparmiare tempo automatizzando i compiti possono anche essere utilizzate per generare deepfake o codici maligni”. 

Gli hacker sono risaputamente tra i più bravi programmatori al mondo e le possibilità di programmazione generativa, spesso automatica, offerta dall’AI apre scenari inimmaginabili.

Per esempio – prosegue Ferrante – qualcuno potrebbe utilizzare un generatore di chat per scrivere un’email aziendale formale ad un impiegato di banca chiedendo un trasferimento urgente di denaro“.

Il livello di accuratezza imitativa e rapidità dell’AI può rendere molto difficile per una persona con una cultura digitale nella media distinguere la verità dalla finzione in un caso come questo. E gli elementi che fino a poco tempo fa potevano smascherare la truffa saranno sempre più difficili da individuare.

Se spesso in passato le truffe informatiche erano caratterizzate da una certa trascuratezza linguistica, ora questo elemento caratterizzante andrà perdendosi.

Grazie alle nuove tecnologie i criminali informatici, che a loro volta potrebbero non avere una perfetta padronanza dell’inglese o una conoscenza del settore bancario, possono comporre rapidamente un messaggio professionale grammaticalmente corretto”. 

La minaccia delle GAN

E il rischio ovviamente passa anche attraverso i deepfake. Oltre a generare email convincenti, i criminali informatici possono utilizzare l’AI per creare false identità online, in modo che sembrino contatti legittimi.

Possono farlo attraverso le Generative Adversarial Networks (GAN), un tipo di AI che abbina due elementi: un generatore che crea contenuti come l’immagine di un volto e un discriminatore che migliora di volta in volta la ‘performance attoriale’ della macchina. Anche per chi ha una formazione in materia di sicurezza informatica può essere estremamente difficile individuare un’immagine falsa generata da una GAN.

Questione di tempo

Questi attacchi prendono in generale il nome di Adversarial Machine Learning (AML). La buona notizia è che queste minacce altamente sofisticate sono per adesso prevalentemente presenti solo nella letteratura di ricerca e ben meno nella vita di tutti i giorni. 

Ma “con l’aumento dell’adozione pubblica e privata dell’AI, la superficie di attacco AML aumenterà corrispondentemente”.

Secondo Wray quando si arriverà a quel momento le prestazioni dell’AI saranno più efficienti di quelle degli esseri umani meglio addestrati e gli hacker di élite saranno ancora più pericolosi di quanto lo siano oggi.

Mano a mano che l’AI migliorerà nella scrittura di codice e nel trovare vulnerabilità da sfruttare – ha detto – il problema crescerà. Gli hacker diventeranno più efficaci nell’individuare debolezze che non avrebbero potuto individuare da soli”.

Rivolgendosi perlopiù alla popolazione americana, i due ufficiali hanno poi ricordato l’importanza della fiducia nelle istituzioni e del lavoro di squadra e hanno invitato a segnalare e condividere le informazioni.

Le minacce informatiche devono essere affrontate come un team e le organizzazioni del settore privato hanno un ruolo importante da svolgere”.

Tensioni cinesi

Wray ha poi concluso parlando delle minacce rappresentate dalla Cina in questo momento storico, un segnale piuttosto eclatante in un contenuto editoriale governativo.

Il nostro paese è lo standard d’oro per il talento dell’AI nel mondo. E questo rende il nostro settore del machine-learning un obbiettivo molto attraente. Il governo cinese, in particolare, rappresenta una formidabile minaccia cibernetica e di controspionaggio su una scala senza precedenti tra gli avversari stranieri”.

In effetti, quasi in concomitanza con la pubblicazione del podcast, le autorità dell’FBI (incluso Wrey) hanno dichiarato durante un briefing informativo con i giornalisti che la Cina starebbe rubando la tecnologia di intelligenza artificiale sviluppata dagli Stati Uniti per condurre operazioni di influenza straniera.

Il colosso cinese e altri avversari degli Stati Uniti starebbero puntando alle imprese americane, alle università e alle strutture di ricerca governative per ottenere tecnologie e prodotti all’avanguardia nell’ambito dell’AI. La Cina ha negato le accuse.

La controprova che la nuova rivoluzione generativa non sta solo portando la società a inventare sistemi di cybersicurezza solidi e diffusi ma sta anche facendo evolvere rapidamente lo scenario dei rapporti internazionali.


In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…