Anthropic presenta alla Casa Bianca raccomandazioni per la regolamentazione dell’AI

Anthropic ha inviato alla Casa Bianca una serie di raccomandazioni di policy che mirano a uno sviluppo responsabile e trasparente dell'AI.

2 min.

Anthropic presenta alla Casa Bianca raccomandazioni per la regolamentazione dell’AI

Anthropic ha recentemente inviato una serie di raccomandazioni di policy alla Casa Bianca. Le proposte della società dei fratelli Amodei mirano a stabilire un quadro normativo che garantisca lo sviluppo responsabile e trasparente delle tecnologie AI.

Le raccomandazioni, in particolare, includono misure per rafforzare la sicurezza dei sistemi di intelligenza artificiale, introducendo standard rigorosi per la valutazione dei rischi, la promozione della trasparenza e della collaborazione tra il settore pubblico e privato e il sostegno della ricerca e dell’innovazione attraverso un monitoraggio continuo degli impatti etici e sociali dell’AI.

Le raccomandazioni di Anthropic

“In risposta alla Richiesta di informazioni della Casa Bianca su un piano d’azione per l’intelligenza artificiale, Anthropic ha inviato delle raccomandazioni all’Office of Science and Technology Policy (OSTP) – dichiara la società – Le nostre raccomandazioni sono pensate per preparare meglio l’America a cogliere i vantaggi economici e le implicazioni per la sicurezza nazionale dei potenti sistemi di intelligenza artificiale.

Come scrive il nostro CEO Dario Amodei in ‘Machines of Loving Grace’, ci aspettiamo che potenti sistemi di intelligenza artificiale emergano verso la fine del 2026 o l’inizio del 2027″.

Per questo motivo, Anthropic ha inviato una proposta che si concentra su sei aree chiave: test per tutelare la sicurezza nazionale, rafforzamento dei controlli sull’export di semiconduttori, miglioramento della sicurezza dei laboratori, ampliamento delle infrastrutture energetiche, accelerazione dell’adozione dell’intelligenza artificiale da parte del governo, preparazione agli impatti economici. Il testo completo delle raccomandazioni di Antrhopic sul sito ufficiale della società.


Ultime news


Goldman Sachs punta sull’AI: previsti licenziamenti e meno assunzioni

I piani aziendali di integrazione dell'AI toccheranno diversi settori ma…

Goldman Sachs punta sull’AI: previsti licenziamenti e meno assunzioni
Il veleno nei dati: così poche righe possono corrompere qualsiasi intelligenza artificiale

Uno studio di Anthropic mostra che basta davvero poco per…

Il veleno nei dati: così poche righe possono corrompere qualsiasi intelligenza artificiale
Google offre il piano Gemini Pro gratis per un anno agli studenti

L'offerta è riservata agli studenti maggiorenni iscritti ad un istituto…

Google offre il piano Gemini Pro gratis per un anno agli studenti
Datapizza lancia un framework open-source tutto italiano per costruire agenti AI

Datapizza intende contribuire al panorama tecnologico nazionale, dimostrando che anche…

Datapizza lancia un framework open-source tutto italiano per costruire agenti AI

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025