Due delle principali startup mondiali di intelligenza artificiale, OpenAI e Anthropic, hanno collaborato per la prima volta sulla sicurezza dei propri modelli. Il 27 agosto le due aziende hanno condotto dei test incrociati sui rispettivi sistemi effettuando una revisione completa negli ambiti dove il rischio è maggiore e pubblicando poi i risultati in contemporanea.
Il test ha coperto quattro aspetti fondamentali dei modelli: la capacità di seguire gli ordini, la resistenza agli attacchi informatici, la frequenza con cui vengono prodotte risposte false ed eventuali segni di intenti nascosti e pericolosi. I risultati nel loro complesso hanno evidenziato che le due aziende basano la loro sicurezza su approcci diversi. Anthropic punta più sulla cautela e sulla prevenzione del rischio, anche se questo può talvolta comportare la rinuncia ad alcune risposte. OpenAI invece accetta un margine di rischio maggiore puntando su un utilizzo sempre più ampio.
Si tratta di un esperimento nuovo che può creare un importante precedente nella ricerca di sicurezza delle startup di AI. Le due aziende inoltre collaborano già con l’AI Safety Institute statunitense, un consorzio che coinvolge numerose aziende, università e altri enti per sviluppare linee guida, strumenti, metodi di valutazione, standard tecnici e ambienti di test per garantire misurabilità, sicurezza e affidabilità dei modelli AI.
Dopo il suicidio di un adolescente, OpenAI aumenterà i propri livelli di sicurezza
Prima di togliersi la vita, il sedicenne Adam Raine aveva…