Per la prima volta OpenAI e Anthropic hanno collaborato sulla sicurezza dell’AI

I test hanno evidenziato due approcci diversi alla sicurezza da parte delle due startup

1 min.

Per la prima volta OpenAI e Anthropic hanno collaborato sulla sicurezza dell’AI

Due delle principali startup mondiali di intelligenza artificiale, OpenAI e Anthropic, hanno collaborato per la prima volta sulla sicurezza dei propri modelli. Il 27 agosto le due aziende hanno condotto dei test incrociati sui rispettivi sistemi effettuando una revisione completa negli ambiti dove il rischio è maggiore e pubblicando poi i risultati in contemporanea.

Il test ha coperto quattro aspetti fondamentali dei modelli: la capacità di seguire gli ordini, la resistenza agli attacchi informatici, la frequenza con cui vengono prodotte risposte false ed eventuali segni di intenti nascosti e pericolosi. I risultati nel loro complesso hanno evidenziato che le due aziende basano la loro sicurezza su approcci diversi. Anthropic punta più sulla cautela e sulla prevenzione del rischio, anche se questo può talvolta comportare la rinuncia ad alcune risposte. OpenAI invece accetta un margine di rischio maggiore puntando su un utilizzo sempre più ampio.

Si tratta di un esperimento nuovo che può creare un importante precedente nella ricerca di sicurezza delle startup di AI. Le due aziende inoltre collaborano già con l’AI Safety Institute statunitense, un consorzio che coinvolge numerose aziende, università e altri enti per sviluppare linee guida, strumenti, metodi di valutazione, standard tecnici e ambienti di test per garantire misurabilità, sicurezza e affidabilità dei modelli AI.

Dopo il suicidio di un adolescente, OpenAI aumenterà i propri livelli di sicurezza

Prima di togliersi la vita, il sedicenne Adam Raine aveva…


Ultime news


Intel annuncia il lancio di un nuovo chip AI per il 2026

Il nuovo prodotto con cui Intel cerca di rilanciarsi nel…

Intel annuncia il lancio di un nuovo chip AI per il 2026
I vertici militari iniziano ad affidarsi a ChatGPT per prendere decisioni organizzative

Il comandante dell’8ª armata delle truppe statunitensi in Corea del…

I vertici militari iniziano ad affidarsi a ChatGPT per prendere decisioni organizzative
Morgan Stanley rassicura: i maxi investimenti in AI saranno recuperati entro il 2028

La banca d'affari statunitense sconfessa il rischio bolla e definisce…

Morgan Stanley rassicura: i maxi investimenti in AI saranno recuperati entro il 2028
Goldman Sachs punta sull’AI: previsti licenziamenti e meno assunzioni

I piani aziendali di integrazione dell'AI toccheranno diversi settori ma…

Goldman Sachs punta sull’AI: previsti licenziamenti e meno assunzioni

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Privacy policy| Cookie policy| Cookie setting| © 2025