Trends

News - Trend trimestrale

Volume trimestrale

... ..%

Volume semestrale

... ..%

L’AI entra in guerra: una sfida etica e geopolitica

L’AI entra in guerra: una sfida etica e geopolitica

Con l’AI Act, l’Unione europea prova a dettare i principi etici dell’intelligenza artificiale. Ma la guerra ha già oltrepassato il confine. Ed è solo l’inizio.

Ancora una volta l’Europa non guida ma insegue. Peggio, viene colta di sorpresa. Con l’intelligenza artificiale si ripete l’errore strategico commesso quando ha mancato del tutto la rivoluzione social governata saldamente dagli Usa (Google, Facebook, Twitter…). Ora arriva la ‘rivoluzione AI’, ancora una volta da oltreoceano. E non è un caso: i colossi digitali hanno creato un ecosistema di idee, di ricerca e di massicci investimenti del tutto assente in Europa. Insomma, oggi chi perde un treno importante rischia di perdere anche i successivi.

L’AI è già attorno a noi da tempo, in forme apparentemente innocue come Netflix, che ci suggerisce le serie, o ChatGpt che ci dà risposte stupefacenti. Ma questa è solo una parte, un’altra parte è molto più seria e può avere conseguenze radicali anche nei futuri equilibri geopolitici.

I principi etici dell’intelligenza artificiale

È partita da tempo la corsa dei governi più potenti alle AI. Sul tavolo c’è in gioco quasi tutto, dalle questioni industriali, di informazione, di ricerca, di innovazione, farmaceutica fino a quelle militari. La potenza appena intravista è in realtà tale che gli esperti sono concordi nel fatto che servano regole immediatamente.

Vediamo i blocchi geopolitici come si stanno muovendo in tal senso. L’Europa nel 2019 ha emanato sette requisiti dell’intelligenza artificiale: supervisione umana; robustezza e sicurezza; privacy, controllo e gestione dei dati; trasparenza; diversità, correttezza, assenza di discriminazione; benessere sociale e ambientale; e responsabilità. Regole che dovrebbero limitare anche il diffondersi delle ‘black box’, meccanismi che nascondono il funzionamento degli algoritmi rendendoli di fatto incomprensibili agli umani.

Negli Usa, accanto all’iniziativa privata di aziende come Google e Microsoft, a muoversi è stato il dipartimento della Difesa, che ha individuato nell’AI “la massima priorità di sviluppo tecnologico del dipartimento della Difesa”. Il messaggio direi è molto chiaro. L’innovation board del ministero ha messo nero su bianco i cinque principi che guidano la sua azione nel campo AI: l’intelligenza artificiale deve essere responsabile, equa, tracciabile, affidabile e governabile.

Guardando a Oriente, nel 2019 anche la Cina ha pubblicato i propri principi etici. Sono 15, tra i quali compaiono la progettazione etica, il principio di responsabilità, l’armonia e l’inclusività. Sento quasi suonare i violini. C’è anche una voce sulla ‘pianificazione a lungo termine’. Un rimando ai piani quinquennali voluti dal Partito comunista. Intanto i colossi Tencent e Baidu sono diventati i due principali detentori di brevetti AI.

guerra intelligenza artificiale

Guerra e intelligenza artificiale

L’intelligenza artificiale per sua natura supera i confini nazionali. E così fa anche la guerra, sottraendosi a regole e principi etici. L’intelligenza artificiale è già stata utilizzata sia in Libia sia in Ucraina. Un report Onu ha già dimostrato l’utilizzo di armi AI in Libia. Nel 2020 le forze del generale Khalifa Haftar avrebbero utilizzato uno sciame di droni del tutto autonomi nell’uccidere, “senza che ci fosse bisogno di una comunicazione tra l’operatore e le munizioni”. Droni che vediamo volare anche nel conflitto russo ucraino. Le armi cosiddette ‘intelligenti’ cambiano gli scenari di guerra.

L’intelligenza artificiale è la chiave dell’egemonia futura. Per questa ragione sfuggirà al controllo legislativo, anzi lo ha già fatto. Soprattutto ad alcune longitudini. La sua evoluzione non segue regole. Si basa sul principio, anzi obiettivo, della massima efficacia.

Gli Stati Uniti hanno adottato la dottrina Human in the loop: prevede la presenza fissa di un essere umano nel processo decisionale di queste armi. Uno specchietto per le allodole, che non risolve alcuni dubbi etici e operativi. Su che criteri un sistema autonomo deciderà un bersaglio? A che rischi ci esponiamo? Nulla esclude che, in determinate condizioni, agisca in modo del tutto diverso da quello preventivato.

Mentre l’Europa ragiona su quali principi imporre all’AI, la Cina governativa e gli Usa con il settore privato investono enormi risorse per primeggiare in tutti i campi. Due anni fa, Mohsen Fakhrizadeh, lo scienziato a capo del progetto nucleare iraniano, fu ucciso da una mitragliatrice a controllo remoto installata dentro una Nissan parcheggiata. Senza alcuna persona a comandarla, lo colpì a 150 metri con estrema precisione lasciando totalmente illesa la donna che gli sedeva a fianco. Dopo un paio di minuti l’auto si è autodistrutta per non lasciare tracce.

(Articolo pubblicato sul numero di marzo di Prima Comunicazione)


Ultimi articoli


La minaccia dei dazi, l’Africa alla rivoluzione legal e la comparsa di Motorola | Weekly AI

Weekly AI news è la nostra rassegna settimanale sulle notizie…

La minaccia dei dazi, l’Africa alla rivoluzione legal e la comparsa di Motorola | Weekly AI
Artisti contro lo “sfruttamento” di Sora, rilasciato il modello per protesta

Un gruppo di artisti ha reso pubblico per qualche ora…

Artisti contro lo “sfruttamento” di Sora, rilasciato il modello per protesta
AGI, tra possibilità e preparazione

L'industria dell'intelligenza artificiale che va alla ricerca dell'AGI non sa…

AGI, tra possibilità e preparazione
Autonomia, digital distrust ed effetto mosaico, parliamo di AI e diritto con Oreste Pollicino | AI Talks #14

Parliamo di intelligenza artificiale e diritto con Oreste Pollicino, Professor…

Autonomia, digital distrust ed effetto mosaico, parliamo di AI e diritto con Oreste Pollicino | AI Talks #14
L’intelligenza artificiale tra bolle, poesie e potere | Weekly AI

La bolla AI perde potenza, NVIDIA racconta un'altra storia. Intanto…

L’intelligenza artificiale tra bolle, poesie e potere | Weekly AI

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
OpenAI: anche Mira Murati lascia

L'abbandono di Murati si aggiunge a quelli di Ilya Sutskever,…

OpenAI: anche Mira Murati lascia
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali