Dopo il caso Anthropic il Pentagono vara linee guida più severe per i contratti governativi di AI

Le aziende del settore dovranno consentire ogni uso lecito dei loro modelli da parte delle agenzie governative statunitensi
Dopo il caso Anthropic il Pentagono vara linee guida più severe per i contratti governativi di AI

In seguito al caso Anthropic, l’amministrazione Trump ha varato delle nuove e severe linee guida per i contratti governativi di intelligenza artificiale, imponendo alle aziende del settore di consentire “qualunque uso lecito” dei propri modelli da parte del governo statunitense. La mossa arriva dopo mesi di tensione tra il Pentagono e Anthropic, che ha visto il Dipartimento della difesa designare Anthropic come “rischio per la catena di approvvigionamento” e vietare l’uso della sua tecnologia nei contratti militari. Secondo il Financial Times, le nuove regole richiedono inoltre alle aziende di dichiarare eventuali modifiche ai modelli per conformarsi a normative estere e di evitare l’inserimento di giudizi partigiani o ideologici nei sistemi di AI.

Il braccio di ferro tra Washington e Anthropic si è inasprito dopo che l’azienda ha rifiutato di rimuovere le proprie “linee rosse” etiche, che limitano l’uso dei suoi modelli in ambiti come la sorveglianza di massa o le armi autonome. “Nessun fornitore privato può inserirsi nella catena di comando limitando l’uso della tecnologia per scopi legali”, ha dichiarato Emil Michael, responsabile AI del Pentagono, sottolineando che la decisione di escludere Anthropic è stata presa dopo il mancato rispetto di un ultimatum. Mentre OpenAI ha recentemente firmato un accordo con il Pentagono, includendo tutele contro l’uso improprio, Anthropic ha scelto di contestare la designazione in tribunale, definendola “legalmente infondata”.

Nel caos etico, politico e giuridico che interessa il mondo dell’AI statunitense, il vero quesito da porsi è perché OpenAI, a differenza di Anthropic, sia riuscita a garantirsi un contratto analogo pur affermando di avere posto gli stessi punti fermi richiesti da Anthropic nella trattativa con il Pentagono.


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026