Rischi dell’AI: Anthropic ha studiato un filtro per impedire lo sviluppo di un’arma nucleare

Il filtro è in grado di intervenire quando le conversazioni si spostano su dettagli sensibili per lo sviluppo di armi nucleari

3 min.

Rischi dell’AI: Anthropic ha studiato un filtro per impedire lo sviluppo di un’arma nucleare

Sempre più paura sui rischi dell’AI

Diversi esperti si sono espressi sulla possibilità che l’AI possa diventare uno strumento con cui generare potenziali armi di distruzione di massa tra cui anche dispositivi nucleari.

Su questo si è pronunciato ad inizio settembre Geoffrey Hinton, psicologo e informatico britannico-canadese da molti considerato “il padrino” dell’AI per via del suo enorme contributo allo sviluppo dell’apprendimento automatico. Hinton ha innanzitutto insistito sulla gravità del fatto che l’AI stia già oggi diventando un tassello fondamentale dell’industria militare, per poi sottolineare il rischio dello sviluppo della superintelligenza artificiale e di macchine molto più intelligenti dell’uomo nei prossimi 20 anni. Questa combinazione di fatti secondo Hinton sarebbe in grado di condurre la specie umana al “rischio di estinzione”.

Negli Stati Uniti, precisamente in California, la politica ha già cercato di affrontare la situazione obbligando, con un provvedimento emanato all’inizio di ottobre dal governatore Gavin Newsom, tutte le Big Tech a divulgare i propri piani di prevenzione del rischio.

L’esperimento securitario di Anthropic

In un contesto simile, in tanti si sono chiesti quale possa essere il livello di responsabilità delle singole aziende di AI e come queste possano collaborare con gli enti pubblici per garantire la sicurezza dei propri modelli nel medio-lungo periodo.

Lo scorso agosto la società di intelligenza artificiale Anthropic ha avviato un progetto in collaborazione con il National Nuclear Security Administration (NNSA) e il Department of Energy (DOE) degli Stati Uniti, per assicurarsi che il suo LLM Claude non possa essere usato in futuro per costruire un’arma nucleare.

L’esperimento ha avuto luogo in uno spazio gestito da Amazon Web Services (AWS), dove alcuni esperti delle agenzie statunitensi hanno sottoposto Claude ad un test “red-team”, ovvero una simulazione di uso improprio del modello, in questo caso basato sulla richiesta di informazioni utili per lo sviluppo di un’arma nucleare.

Il test ha avuto un esito positivo e ha permesso di sviluppare un sistema di filtraggio (classificatore nucleare) in grado di riconoscere quando un’AI viene spinta a discutere di temi tecnici e sensibili come arricchimento dell’uranio, detonatori o fisica dei materiali fissili. Il filtro è progettato per intervenire bloccando discussioni pericolose ma senza limitare le conversazioni legittime.

Il modello Anthropic

Con questa azione Anthropic punta a mostrarsi come un attore responsabile ed etico nel settore, con un occhio attento nei confronti della sicurezza collettiva. Inoltre la collaborazione Anthropic-NNSA segna un possibile modello di incontro fra interessi pubblici e privati replicabile in futuro.

Intelligenza artificiale e armi nucleari, a che punto siamo?

Secondo un recente studio, l'AI potrebbe intensificare i conflitti provocandone…


Ultime news


Come la corsa globale all’intelligenza artificiale sta cambiando la geopolitica

Strategia di governance, mercato tecnologico, risorse e difesa sono i…

Rischi dell’AI: Anthropic ha studiato un filtro per impedire lo sviluppo di un’arma nucleare

Il filtro è in grado di intervenire quando le conversazioni…

Trump, un video fatto con AI per rispondere nel suo stile alle proteste “No Kings”

Nel video il presidente, alla guida di un caccia militare…

Suno verso una valutazione di 2 miliardi di dollari

Una nuova raccolta fondi per la società potrebbe superare i…

Fame di energia per l’AI: in USA cresce un metodo per estrarre idrocarburi vietato in Europa

In Texas diversi progetti infrastrutturali di intelligenza artificiale prevedono l'estrazione…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version