Rischi dell’AI: Anthropic ha studiato un filtro per impedire lo sviluppo di un’arma nucleare

Il filtro è in grado di intervenire quando le conversazioni si spostano su dettagli sensibili per lo sviluppo di armi nucleari

3 min.

Rischi dell’AI: Anthropic ha studiato un filtro per impedire lo sviluppo di un’arma nucleare

Sempre più paura sui rischi dell’AI

Diversi esperti si sono espressi sulla possibilità che l’AI possa diventare uno strumento con cui generare potenziali armi di distruzione di massa tra cui anche dispositivi nucleari.

Su questo si è pronunciato ad inizio settembre Geoffrey Hinton, psicologo e informatico britannico-canadese da molti considerato “il padrino” dell’AI per via del suo enorme contributo allo sviluppo dell’apprendimento automatico. Hinton ha innanzitutto insistito sulla gravità del fatto che l’AI stia già oggi diventando un tassello fondamentale dell’industria militare, per poi sottolineare il rischio dello sviluppo della superintelligenza artificiale e di macchine molto più intelligenti dell’uomo nei prossimi 20 anni. Questa combinazione di fatti secondo Hinton sarebbe in grado di condurre la specie umana al “rischio di estinzione”.

Negli Stati Uniti, precisamente in California, la politica ha già cercato di affrontare la situazione obbligando, con un provvedimento emanato all’inizio di ottobre dal governatore Gavin Newsom, tutte le Big Tech a divulgare i propri piani di prevenzione del rischio.

L’esperimento securitario di Anthropic

In un contesto simile, in tanti si sono chiesti quale possa essere il livello di responsabilità delle singole aziende di AI e come queste possano collaborare con gli enti pubblici per garantire la sicurezza dei propri modelli nel medio-lungo periodo.

Lo scorso agosto la società di intelligenza artificiale Anthropic ha avviato un progetto in collaborazione con il National Nuclear Security Administration (NNSA) e il Department of Energy (DOE) degli Stati Uniti, per assicurarsi che il suo LLM Claude non possa essere usato in futuro per costruire un’arma nucleare.

L’esperimento ha avuto luogo in uno spazio gestito da Amazon Web Services (AWS), dove alcuni esperti delle agenzie statunitensi hanno sottoposto Claude ad un test “red-team”, ovvero una simulazione di uso improprio del modello, in questo caso basato sulla richiesta di informazioni utili per lo sviluppo di un’arma nucleare.

Il test ha avuto un esito positivo e ha permesso di sviluppare un sistema di filtraggio (classificatore nucleare) in grado di riconoscere quando un’AI viene spinta a discutere di temi tecnici e sensibili come arricchimento dell’uranio, detonatori o fisica dei materiali fissili. Il filtro è progettato per intervenire bloccando discussioni pericolose ma senza limitare le conversazioni legittime.

Il modello Anthropic

Con questa azione Anthropic punta a mostrarsi come un attore responsabile ed etico nel settore, con un occhio attento nei confronti della sicurezza collettiva. Inoltre la collaborazione Anthropic-NNSA segna un possibile modello di incontro fra interessi pubblici e privati replicabile in futuro.

Intelligenza artificiale e armi nucleari, a che punto siamo?

Secondo un recente studio, l'AI potrebbe intensificare i conflitti provocandone…


Ultime news


L’India ospita un vertice mondiale sulla governance dell’intelligenza artificiale

Diversi capi di stati e delegazioni da tutto il mondo…

L’India ospita un vertice mondiale sulla governance dell’intelligenza artificiale
Gli USA hanno utilizzato Claude nell’aggressione militare contro il Venezuela

Secondo fonti giornalistiche all'origine dello scontro fra Anthropic e il…

Gli USA hanno utilizzato Claude nell’aggressione militare contro il Venezuela
La “fase del centauro”, il nuovo stadio del rapporto uomo-macchina secondo Dario Amodei

In un intervento pubblico il CEO di Anthropic ha descritto…

La “fase del centauro”, il nuovo stadio del rapporto uomo-macchina secondo Dario Amodei
La Juventus lancia Forward Squad: undici startup AI per innovare il mondo del calcio

Le undici aziende sono state selezionate per collaborare con il…

La Juventus lancia Forward Squad: undici startup AI per innovare il mondo del calcio
La “fatica da AI” (e altre notizie generative) | Weekly AI

Weekly AI è la newsletter settimanale di AI news sulle…

La “fatica da AI” (e altre notizie generative) | Weekly AI

In Evidenza


AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

Privacy policy| Cookie policy| Cookie setting| © 2026