Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

L’AI entra in guerra: una sfida etica e geopolitica

4 minuti

Andrea Barchiesi 4 Aprile 2023
4 minuti

Con l’AI Act, l’Unione europea prova a dettare i principi etici dell’intelligenza artificiale. Ma la guerra ha già oltrepassato il confine. Ed è solo l’inizio.

Ancora una volta l’Europa non guida ma insegue. Peggio, viene colta di sorpresa. Con l’intelligenza artificiale si ripete l’errore strategico commesso quando ha mancato del tutto la rivoluzione social governata saldamente dagli Usa (Google, Facebook, Twitter…). Ora arriva la ‘rivoluzione AI’, ancora una volta da oltreoceano. E non è un caso: i colossi digitali hanno creato un ecosistema di idee, di ricerca e di massicci investimenti del tutto assente in Europa. Insomma, oggi chi perde un treno importante rischia di perdere anche i successivi.

L’AI è già attorno a noi da tempo, in forme apparentemente innocue come Netflix, che ci suggerisce le serie, o ChatGpt che ci dà risposte stupefacenti. Ma questa è solo una parte, un’altra parte è molto più seria e può avere conseguenze radicali anche nei futuri equilibri geopolitici.

I principi etici dell’intelligenza artificiale

È partita da tempo la corsa dei governi più potenti alle AI. Sul tavolo c’è in gioco quasi tutto, dalle questioni industriali, di informazione, di ricerca, di innovazione, farmaceutica fino a quelle militari. La potenza appena intravista è in realtà tale che gli esperti sono concordi nel fatto che servano regole immediatamente.

Vediamo i blocchi geopolitici come si stanno muovendo in tal senso. L’Europa nel 2019 ha emanato sette requisiti dell’intelligenza artificiale: supervisione umana; robustezza e sicurezza; privacy, controllo e gestione dei dati; trasparenza; diversità, correttezza, assenza di discriminazione; benessere sociale e ambientale; e responsabilità. Regole che dovrebbero limitare anche il diffondersi delle ‘black box’, meccanismi che nascondono il funzionamento degli algoritmi rendendoli di fatto incomprensibili agli umani.

Negli Usa, accanto all’iniziativa privata di aziende come Google e Microsoft, a muoversi è stato il dipartimento della Difesa, che ha individuato nell’AI “la massima priorità di sviluppo tecnologico del dipartimento della Difesa”. Il messaggio direi è molto chiaro. L’innovation board del ministero ha messo nero su bianco i cinque principi che guidano la sua azione nel campo AI: l’intelligenza artificiale deve essere responsabile, equa, tracciabile, affidabile e governabile.

Guardando a Oriente, nel 2019 anche la Cina ha pubblicato i propri principi etici. Sono 15, tra i quali compaiono la progettazione etica, il principio di responsabilità, l’armonia e l’inclusività. Sento quasi suonare i violini. C’è anche una voce sulla ‘pianificazione a lungo termine’. Un rimando ai piani quinquennali voluti dal Partito comunista. Intanto i colossi Tencent e Baidu sono diventati i due principali detentori di brevetti AI.

guerra intelligenza artificiale

Guerra e intelligenza artificiale

L’intelligenza artificiale per sua natura supera i confini nazionali. E così fa anche la guerra, sottraendosi a regole e principi etici. L’intelligenza artificiale è già stata utilizzata sia in Libia sia in Ucraina. Un report Onu ha già dimostrato l’utilizzo di armi AI in Libia. Nel 2020 le forze del generale Khalifa Haftar avrebbero utilizzato uno sciame di droni del tutto autonomi nell’uccidere, “senza che ci fosse bisogno di una comunicazione tra l’operatore e le munizioni”. Droni che vediamo volare anche nel conflitto russo ucraino. Le armi cosiddette ‘intelligenti’ cambiano gli scenari di guerra.

L’intelligenza artificiale è la chiave dell’egemonia futura. Per questa ragione sfuggirà al controllo legislativo, anzi lo ha già fatto. Soprattutto ad alcune longitudini. La sua evoluzione non segue regole. Si basa sul principio, anzi obiettivo, della massima efficacia.

Gli Stati Uniti hanno adottato la dottrina Human in the loop: prevede la presenza fissa di un essere umano nel processo decisionale di queste armi. Uno specchietto per le allodole, che non risolve alcuni dubbi etici e operativi. Su che criteri un sistema autonomo deciderà un bersaglio? A che rischi ci esponiamo? Nulla esclude che, in determinate condizioni, agisca in modo del tutto diverso da quello preventivato.

Mentre l’Europa ragiona su quali principi imporre all’AI, la Cina governativa e gli Usa con il settore privato investono enormi risorse per primeggiare in tutti i campi. Due anni fa, Mohsen Fakhrizadeh, lo scienziato a capo del progetto nucleare iraniano, fu ucciso da una mitragliatrice a controllo remoto installata dentro una Nissan parcheggiata. Senza alcuna persona a comandarla, lo colpì a 150 metri con estrema precisione lasciando totalmente illesa la donna che gli sedeva a fianco. Dopo un paio di minuti l’auto si è autodistrutta per non lasciare tracce.

(Articolo pubblicato sul numero di marzo di Prima Comunicazione)


In Evidenza


Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Chi fermerà l’AI? Riflessione sull’appello di Musk

Elon Musk e altri mille esperti chiedono una pausa di…

Elon Musk e altri mille esperti: “Allarme intelligenza artificiale”

Elon Musk e altri mille esperti hanno chiesto di sospendere…

Microsoft 365 Copilot, un’AI generativa per la produttività

Microsoft ha lanciato 365 Copilot, un servizio di intelligenza artificiale…

OpenAI rilascia GPT-4, più potente e multimodale

GPT-4 è arrivato. Un modello multimodale e con 100 trilioni…