Mrinank Sharma è uno scienziato e ricercatore sulla sicurezza AI che negli ultimi anni, dopo un PhD ad Oxford ha legato il suo nome ad Anthropic. All’interno dell’azienda di Claude, ha guidato un team di ricerca che ha sviluppato difese per ridurre i rischi derivanti dal bioterrorismo assistito dall’AI. Con il suo team è riuscito a mettere quelle difese in produzione e ha reportato uno dei primi casi di sicurezza dell’AI.
Improvvisamente Sharma ha lasciato l’azienda il 9 febbraio 2026. E l’ha fatto con una criptica lettera pubblicata sul suo canale X.
Per quanto si tratti di una comunicazione parzialmente misteriosa, Sharma è abbastanza esplicito in almeno un passaggio: “Sembriamo avvicinarci – ha scritto – a una soglia in cui la nostra saggezza deve crescere nella stessa misura della nostra capacità di influenzare il mondo affinché non affrontiamo le conseguenze. Inoltre, durante il mio tempo qui, ho visto ripetutamente quanto sia difficile lasciare davvero che i nostri valori governino le nostre azioni. L’ho visto in me stesso, all’interno dell’organizzazione, dove affrontiamo costantemente pressioni per mettere da parte ciò che conta di più, e anche nella società più ampia”. Dichiarazioni molto chiare. Evidentemente, secondo Sharma, il settore dello sviluppo AI non lascia molto spazio alla rettitudine morale.
Lo scienziato si dichiara comunque molto grato per il tempo passato ad Anthropic, ma le consapevolezze apprese sono state talmente nette da spingerlo ad abbracciare un nuovo percorso di vita che lo porterà ad approfondire tematiche umanistiche. “Mi sento chiamato alla scrittura che affronta e si confronta pienamente con il luogo in cui ci troviamo, e che pone la verità poetica accanto alla verità scientifica come modi di conoscere ugualmente validi“.
Le dichiarazioni di Sharma gettano una nuova luce su un tema non secondario, ossia le pressioni esterne, esplicite ed implicite, che le aziende AI (anche quelle che fanno della virtuosità etica un perno importante come Anthropic) devono gestire. Di recente proprio Anthropic ha fatto muro con il Pentagono per l’utilizzo finale delle sue tecnologie AI.

Anthropic, scontro col Pentagono sull'uso di AI a fini militari: a rischio un contratto da 200 milioni di dollari
La società di AI statunitense teme che le sue tecnologie…














