Accordi con il Pentagono: l’espansione silenziosa di OpenAI

OpenAI aveva detto che non avrebbe permesso l'applicazione della sua tecnologia in ambiti militari: ha cambiato idea.
Accordi con il Pentagono: l’espansione silenziosa di OpenAI

Credit: Haiyun Jiang/The New York Times

Durante i giorni del World Economic Forum di Davos, dove Altman figurava tra gli ospiti più attesi, è emersa una notizia che ha fatto discutere: OpenAI ha iniziato una collaborazione con il Pentagono per sviluppare delle soluzioni in ambito di sicurezza informatica basate sull’intelligenza artificiale. L’obbiettivo principale della partnership sarebbe quello di rafforzare la sicurezza nazionale, certamente in vista delle elezioni americane ma più in generale in luce dello scenario di tensioni internazionale.

‘Voltafaccia’ di Altman?

Nello specifico, l’accordo è tra OpenAI e l’agenzia governativa Darpa, che fa capo al Pentagono ed è incentrata sullo sviluppo di nuove tecnologie di cyber sicurezza

Alcuni dei sostenitori dell’azienda di Sam Altman non avrebbero digerito la novità, proprio perché in passato OpenAI aveva espresso con fermezza il rifiuto di applicare i suoi modelli in ambito militare. Nella casa di ChatGPT vigeva il divieto assoluto di prendere in considerazione questa possibilità ed era anche riportato nelle clausole pubbliche del chatbot più famoso del mondo. A inizio gennaio le restrizioni erano effettivamente sparite dal regolamento e in breve, con l’annuncio dell’accordo, il motivo è diventato chiaro.

In missione per la sicurezza

OpenAI si è giustificata sottolineando che la sicurezza, probabilmente, può essere considerata una faccenda di più ampio respiro e di importanza più trasversale rispetto al semplice ambito militare.

La nostra politica – ha dichiarato un portavoce – non consente che i nostri strumenti vengano utilizzati per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni o distruggere proprietà. Ci sono, tuttavia, casi d’uso legati alla sicurezza nazionale che sono in linea con la nostra missione“. OpenAI ha spiegato che non si tratterebbe di un vero e proprio cambio di rotta della società: precedentemente non ci sarebbe mai stata da parte del gruppo una vera riflessione sulla differenziazione dei casi di applicazione. “Stiamo già lavorando con la DARPA per stimolare la creazione di nuovi strumenti di sicurezza informatica. Nelle nostre politiche precedenti, non era chiaro se questi casi sarebbero stati considerati appartenenti all’ambito militare o meno”. In molti hanno letto in queste parole più un tentativo di arrampicarsi sugli specchi che una vera e propria spiegazione.

“Allineati alla nostra idea del mondo”

La vicepresidente degli affari globali di OpenAI Anna Makanju ha affermato in un’intervista a Bloomberg che la partnership con il Pentagono include lo sviluppo di software di sicurezza informatica open source. OpenAI sta inoltre avviando colloqui con il governo degli Stati Uniti per creare sistemi basati sull’AI per aiutare a prevenire i suicidi dei veterani.

Questi casi d’uso, ha detto Makanju, risultano “molto allineati con ciò che l’azienda vuole vedere nel mondo“.

Sia lei che Altman hanno ribadito ulteriormente in più occasioni che, nonostante questo impegno nella cybersicurezza, l’azienda rifiuta in alcun modo l’applicazione della propria tecnologia per sviluppare armi o ferire le persone. Certo è che, in un accordo con il Dipartimento della Difesa americano, i confini tra applicazione difensiva e militare sono molto labili.

Verso il coinvolgimento globale

La partnership racconta due diversi scenari.

Da un lato è la prova di quanto intelligence, istituzioni e strutture pubbliche delle grandi potenze del mondo necessitino sempre più di aiuto per orientarsi nell’era imprevedibile dell’intelligenza artificiale, un aiuto che non può che arrivare dalle aziende tech private.

Da un altro lato, la notizia testimonia le silenziose “mire espansionistiche” di OpenAI, che pare voglia cavalcare con decisione la sua crescente rilevanza nello scenario economico internazionale, allontanandosi sempre più dalla sua originaria versione di “laboratorio di ricerca” per rendersi indispensabile anche negli equilibri geopolitici e sociali. Indicativo il fatto che, mentre annunciava l’accordo con il Pentagono, OpenAI definiva anche sua prima partnership con una Università, l’Arizona State University, che avrà pieno accesso a ChatGPT Enterprise e potrà utilizzarlo per corsi, tutoraggio e ricerca.

La dipendenza tech internazionale

Nel suo approccio al contesto internazionale, OpenAI sembra prendere spunto dai suoi predecessori di spicco, su tutti il fratello maggiore Microsoft, che da molti anni collabora con le istituzioni governative degli Stati Uniti.

Il paragone sorge spontaneo anche con Deepmind, che a partire dall’acquisizione di Google del 2014 ha perseguito una ramificazione in settori vasti attraverso collaborazioni disparate, fino a diventare una sorta di presenza fissa nelle opere di innovazione tecnologica internazionale, al pari di agenzie scientifiche governative.

Insomma, quello che si osserva è che l’intelligenza artificiale sta accelerando la penetrazione delle aziende tecnologiche dentro le istituzioni mondiali. Le compagnie tech si trasformano così sempre più in elementi centrali per la democrazia e l’ordine pubblico, con conseguenze difficili da prevedere.


Ultime news


OpenAI ridisegna la propria line‑up di modelli

La società lancia o3, o4-mini e o4-mini-high, presenta le API…

OpenAI ridisegna la propria line‑up di modelli
Washington vuole impedire a DeepSeek di acquistare chip Nvidia

L'azienda cinese è stata classificata ufficialmente come una minaccia

Washington vuole impedire a DeepSeek di acquistare chip Nvidia
Anche Grok ricorderà le conversazioni passate con gli utenti

Per ora la funzione non sarà disponibile in Unione Europea

Anche Grok ricorderà le conversazioni passate con gli utenti
Meta utilizzerà i dati degli utenti europei per addestrare la sua AI

Gli utenti avranno la possibilità di negare il consenso

Meta utilizzerà i dati degli utenti europei per addestrare la sua AI
Anthropic, Claude legge Gmail e il tuo Google Calendar

Grazie al servizio, sarà possibile accedere ai propri dati in…

Anthropic, Claude legge Gmail e il tuo Google Calendar

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025