Per la prima volta OpenAI e Anthropic hanno collaborato sulla sicurezza dell’AI

I test hanno evidenziato due approcci diversi alla sicurezza da parte delle due startup

1 min.

Per la prima volta OpenAI e Anthropic hanno collaborato sulla sicurezza dell’AI

Due delle principali startup mondiali di intelligenza artificiale, OpenAI e Anthropic, hanno collaborato per la prima volta sulla sicurezza dei propri modelli. Il 27 agosto le due aziende hanno condotto dei test incrociati sui rispettivi sistemi effettuando una revisione completa negli ambiti dove il rischio è maggiore e pubblicando poi i risultati in contemporanea.

Il test ha coperto quattro aspetti fondamentali dei modelli: la capacità di seguire gli ordini, la resistenza agli attacchi informatici, la frequenza con cui vengono prodotte risposte false ed eventuali segni di intenti nascosti e pericolosi. I risultati nel loro complesso hanno evidenziato che le due aziende basano la loro sicurezza su approcci diversi. Anthropic punta più sulla cautela e sulla prevenzione del rischio, anche se questo può talvolta comportare la rinuncia ad alcune risposte. OpenAI invece accetta un margine di rischio maggiore puntando su un utilizzo sempre più ampio.

Si tratta di un esperimento nuovo che può creare un importante precedente nella ricerca di sicurezza delle startup di AI. Le due aziende inoltre collaborano già con l’AI Safety Institute statunitense, un consorzio che coinvolge numerose aziende, università e altri enti per sviluppare linee guida, strumenti, metodi di valutazione, standard tecnici e ambienti di test per garantire misurabilità, sicurezza e affidabilità dei modelli AI.

Dopo il suicidio di un adolescente, OpenAI aumenterà i propri livelli di sicurezza

Prima di togliersi la vita, il sedicenne Adam Raine aveva…


Ultime news


Anthropic ha pubblicato una Costituzione per Claude contenente i principi per lo sviluppo etico del modello

Attraverso la pubblicazione di una Costituzione per Claude Anthropic ha…

Anthropic ha pubblicato una Costituzione per Claude contenente i principi per lo sviluppo etico del modello
Il game changer di Anthropic (e altre notizie generative) | Weekly AI

Weekly AI è la newsletter settimanale di AI news sulle…

Il game changer di Anthropic (e altre notizie generative) | Weekly AI
Intel non riesce a soddisfare la domanda di chip del mercato: azioni giù del 13%

I vertici dell'azienda hanno affermato che le linee produttive sono…

Intel non riesce a soddisfare la domanda di chip del mercato: azioni giù del 13%

In Evidenza


Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

Privacy policy| Cookie policy| Cookie setting| © 2026