Risulta ormai chiara una cosa: i dibattiti sulla governance dell’AI hanno completamente fallito. Da anni tutti i protagonisti dell’AI lanciano appelli sui rischi militari e richiedono coordinazione internazionale per evitare l’imbocco di strade senza uscita. Nulla di concreto si è smosso e, alle possibili porte di un ennesimo conflitto ad ampio raggio, l’ONU accelera un vertice di regolamentazione a Ginevra che appare tardivo.
Per capire cosa sta succedendo è importante ripercorrere le tappe della vicenda che vede protagonista Anthropic. Non ci vuole molto per rendersi conto che la società degli Amodei ha attraversato una metamorfosi nelle ultime due settimane. Ne è entrata come uno dei player e ne è uscita come il nome principale, almeno mediaticamente.
L’azienda ha affrontato il Pentagono in uno scontro pubblico durato settimane e inasprito negli ultimi giorni (forse proprio in vista dell’attacco americano all’Iran). Amodei ha rifiutato che la sua tecnologia venisse usata per armi autonome e per controllo di massa. Il Pentagono ha dapprima lanciato un ultimatum, poi ha dovuto prendere atto del muro di Amodei. Pur di mantenere la sua rotta etica, l’azienda di Claude ha perso un contratto con la Difesa da 200 milioni di dollari ed è diventata per Donald Trump un pericoloso nemico sovversivo. Ma si è conquistata anche il plauso di addetti ai lavori e addirittura di personalità molto vicine al Pentagono.
Nonostante il divieto, il Pentagono ha “dovuto” usare comunque il modello di Anthropic durante gli attacchi in Iran. L’architettura software già costruita per il governo dall’azienda fino ad oggi sarà lunghissima da smontare (ci vorrà non meno di sei mesi). Dopo la rottura tra il Pentagono e Anthropic, altro colpo di scena (un po’ prevedibile): OpenAI firma al posto dell’avversario, cedendo la sua tecnologia alla difesa americana. Altman assicura di essere riuscito, a differenza di Anthropic, a far modificare il contratto affinché l’AI non sia usata per armi autonome e sorveglianza. Se ne deve dedurre che Altman sia semplicemente un negoziatore migliore di Amodei? Come fa notare il ricercatore di Google Andreas Kirsch, la realtà è che OpenAI ha accettato un contratto dalle maglie ampie, contenente scappatoie attraverso cui il Pentagono potrà aggirare i vincoli con facilità. La stessa soluzione presumibilmente presentata anche ad Anthropic e rifiutata.
Forse Altman (che dopo gli USA offre anche aiuto alla NATO) sperava di uscirne vincitore morale, nel ruolo di colui che riesce a intraprendere una relazione con il Pentagono e a controllare il gioco. Ma fa male i suoi conti: gli utenti disprezzano il suo gesto e i download di ChatGPT crollano. Al contrario, vola l’apprezzamento per Amodei e per Anthropic, con i download di Claude che si impennano. Non ci vuole un genio del marketing per capire che Amodei ha ponderato la perdita di 200 milioni di dollari nella consapevolezza che il posizionamento “etico” di Anthropic si sarebbe tradotto in un enorme ritorno commerciale.

Anthropic: chi sono i fondatori Dario e Daniela Amodei, gli italoamericani dell'AI etica
Quella dei fratelli Amodei, i creatori di Claude, è una…
Mentre festeggia questo scacco matto, Anthropic ha il tempo di acquisire la startup specializzata in agenti AI Vercept, di far tremare IBM con nuovi strumenti che potrebbero sostituire il codice COBOL e di accusare le tre principali Big Tech cinesi di distillazione per “furto di modelli” (proprio mentre DeepSeek nega l’accesso al suo ultimo V4 ai produttori di hardware USA).
OpenAI invece mitiga l’emorragia di utenti puntando sui successi, che pure non mancano.
Prima l’azienda raggiunge il finanziamento da 110 miliardi di dollari, poi Amazon promette investimenti fino a 50 miliardi se Altman raggiungerà nuovi traguardi nell’AGI. Per accelerare gli obiettivi, OpenAI decide di aprire il suo più grande centro di ricerca fuori dagli USA, a Londra, e ruba a Meta l’ex ricercatore di Apple Ruoming Pang (che era entrato solo sette mesi fa).
Le nuove geografie dell’AI intanto continuano a prendere forma. Da un lato una geografia figurata, sociale, rappresentata dal ripensamento del lavoro umano. Mentre l’ex fondatore di Twitter Jack Dorsey annuncia che taglierà metà dei dipendenti della sua azienda fintech Block, in Australia i sindacati aprono allo scontro con WiseTech per duemila lavoratori sostituiti con l’AI. E se la BCE ribalta la narrativa sostenendo che nel breve periodo l’AI può favorire l’occupazione, l’uomo più ricco d’Italia Andrea Pignataro sostiene che ci stiamo preoccupando “dell’Apocalisse Sbagliata”.
Dall’altro lato una nuova geografia reale si riconfigura attorno alle infrastrutture. A riguardo, spiccano due storie complementari: Google dichiara che coprirà tutti i costi energetici per alimentare il suo data center in Minnesota mentre nel Regno Unito si organizzano due giorni di proteste ambientaliste contro l’espansione dei data center. Occorre però capire cosa quei data center rappresentano, sia negli USA che in Europa: indipendenza.
E vale la pena riflettere su un tipo di imperialismo che di questi tempi passa in secondo piano, quello sulla sovranità dei dati. Non bisogna perdere di vista il fatto che Trump ha ordinato di contrastare il più possibile le leggi straniere che impongono restrizioni sulla gestione dei dati all’estero. In altre parole, gli USA vogliono impedire che altri Paesi, oltre a loro, controllino i dati mondiali dell’AI e l’espansione della loro influenza sul mondo ha il compito anche di mantenere questo status. Ѐ per questo che la nuova guerra contro l’Iran, con le sue implicazioni in tutta la zona del Golfo (da anni nuovo centro nevralgico della tecnologia americana) va forse inquadrata all’interno di un disegno prestabilito che mira a modellare il nuovo imperialismo del tech.














