In seguito al caso Anthropic, l’amministrazione Trump ha varato delle nuove e severe linee guida per i contratti governativi di intelligenza artificiale, imponendo alle aziende del settore di consentire “qualunque uso lecito” dei propri modelli da parte del governo statunitense. La mossa arriva dopo mesi di tensione tra il Pentagono e Anthropic, che ha visto il Dipartimento della difesa designare Anthropic come “rischio per la catena di approvvigionamento” e vietare l’uso della sua tecnologia nei contratti militari. Secondo il Financial Times, le nuove regole richiedono inoltre alle aziende di dichiarare eventuali modifiche ai modelli per conformarsi a normative estere e di evitare l’inserimento di giudizi partigiani o ideologici nei sistemi di AI.
Il braccio di ferro tra Washington e Anthropic si è inasprito dopo che l’azienda ha rifiutato di rimuovere le proprie “linee rosse” etiche, che limitano l’uso dei suoi modelli in ambiti come la sorveglianza di massa o le armi autonome. “Nessun fornitore privato può inserirsi nella catena di comando limitando l’uso della tecnologia per scopi legali”, ha dichiarato Emil Michael, responsabile AI del Pentagono, sottolineando che la decisione di escludere Anthropic è stata presa dopo il mancato rispetto di un ultimatum. Mentre OpenAI ha recentemente firmato un accordo con il Pentagono, includendo tutele contro l’uso improprio, Anthropic ha scelto di contestare la designazione in tribunale, definendola “legalmente infondata”.
Nel caos etico, politico e giuridico che interessa il mondo dell’AI statunitense, il vero quesito da porsi è perché OpenAI, a differenza di Anthropic, sia riuscita a garantirsi un contratto analogo pur affermando di avere posto gli stessi punti fermi richiesti da Anthropic nella trattativa con il Pentagono.

Lo scontro col Pentagono ha scatenato un'ondata di supporto ad Anthropic fra i dipendenti dell'AI
Oltre 300 fra attuali dipendenti ed ex dipendenti di OpenAI…














