I temi trattati all’interno dell’articolo
Il report del Future of Life Institute
L’edizione invernale del report AI Safety Index pubblicato dal Future of Life Institute (FLI) evidenzia come le principali società AI internazionali non abbiano degli standard di sicurezza significativi per quanto riguarda la prevenzione dei rischi della superintelligenza artificiale (ASI). Il FLI è un’organizzazione no profit fondata nel 2014 per indirizzare il potenziale tecnologico, fra cui anche l’intelligenza artificiale, verso un beneficio generale per l’umanità e prevenire i rischi di maggiore impatto su larga scala.
L’AI Safety Index è un indice che gli esperti del FLI assegnano alle aziende leader del settore AI per valutare quanto le loro pratiche siano adeguate a garantire la sicurezza e l’affidabilità dei modelli. Nell’ultima edizione il report ha valutato otto aziende (OpenAI, Anthropic, Google DeepMind, Meta, xAI, DeepSeek, Alibaba Cloud e Z.ai) su 35 indicatori suddivisi su sei macro domini critici basati sul materiale reso pubblico dalle aziende stesse.
Le principali evidenze
In primo luogo lo studio mette in luce un grande divario fra le performance di sicurezza di alcune aziende e tutte le altre. In questo ambito emergono positivamente società come Anthropic, OpenAI, e Google DeepMind.
È però sul versante della cosiddetta “sicurezza esistenziale” che gli esperti hanno trovato delle gravi lacune generalizzate in tutte le aziende. Con sicurezza esistenziale si intendono le misure preventive che ogni azienda sviluppa internamente per prevenire i rischi più gravi associati a modelli AI superintelligenti, cioè dei piani operativi per controllare e allineare un’eventuale perdita di controllo dell’ASI.
In questo ambito tutte le aziende messe sotto analisi presentano delle garanzie troppo deboli e poco dettagliate e credibili. Tutte le misure messe in campo sono inoltre superficiali e “ben lontane” rispetto agli standard indicati dalle normative internazionali come ad esempio la legislazione europea in materia di AI.
Inoltre è emerso chiaramente che le aziende tendono a non condividere pubblicamente informazioni sufficienti su prompt, test di sicurezza, incidenti, o governance interna e questo rende difficile per la comunità di esperti e analisti avere contezza dei rischi e delle misure concrete.
Più di 1000 personaggi pubblici hanno chiesto lo stop allo sviluppo della superintelligenza artificiale
I firmatari chiedono una revisione dei principi su cui si…