Caitlin Kalinowski ha lasciato il suo ruolo di responsabile della robotica e dell’hardware consumer di OpenAI, annunciando la decisione con un post sui social che ha fatto molto scalpore nel mondo tech. La ragione? OpenAI aveva appena concordato di distribuire i propri modelli di intelligenza artificiale sulle reti classificate del Pentagono, senza aver prima definito adeguate salvaguardie etiche. Kalinowski è stata chiara: “La sorveglianza dei cittadini statunitensi senza supervisione giudiziaria e l’autonomia letale senza autorizzazione umana sono linee rosse che meritavano più riflessione”.
L’accordo tra OpenAI e il Dipartimento della difesa era arrivato subito dopo il fallimento delle trattative tra il Pentagono e Anthropic, che aveva insistito per ottenere garanzie contro l’uso della tecnologia in sistemi di sorveglianza di massa e armi autonome. Il Pentagono ha poi classificato Anthropic come un “rischio nella catena di fornitura”. OpenAI ha colto l’occasione infilandosi nello spazio che si è creato con questa rottura, ma lo stesso CEO Sam Altman ha ammesso che la fretta con cui era stato annunciato l’accordo sarebbe potuta sembrare “opportunistica”.
OpenAI ha risposto ribadendo che l’accordo “crea un percorso praticabile per usi responsabili dell’AI nella sicurezza nazionale”, con linee rosse esplicite contro la sorveglianza domestica e le armi autonome. Kalinowski, però, non si è lasciata convincere e ha sottolineato che il suo non era un attacco alle persone, ma una questione di principio e di governance, perché certi temi “sono troppo importanti per essere affrontati con accordi o annunci affrettati”. La sua uscita accende i riflettori su una frattura sempre più visibile nel settore: fino a dove può spingersi l’AI in nome della sicurezza nazionale?
USA, pressioni dal Pentagono sulle aziende di AI per usare le loro funzioni a fini di sicurezza
Il governo federale statunitense vuole che i modelli AI privati…
