Le principali società AI non hanno standard di sicurezza adeguati per i rischi della superintelligenza

Tutte le grandi aziende AI presenti sul mercato non hanno solide garanzie di sicurezza contro i rischi definiti esistenziali

2 min.

Le principali società AI non hanno standard di sicurezza adeguati per i rischi della superintelligenza

I temi trattati all’interno dell’articolo

Il report del Future of Life Institute

L’edizione invernale del report AI Safety Index pubblicato dal Future of Life Institute (FLI) evidenzia come le principali società AI internazionali non abbiano degli standard di sicurezza significativi per quanto riguarda la prevenzione dei rischi della superintelligenza artificiale (ASI). Il FLI è un’organizzazione no profit fondata nel 2014 per indirizzare il potenziale tecnologico, fra cui anche l’intelligenza artificiale, verso un beneficio generale per l’umanità e prevenire i rischi di maggiore impatto su larga scala.

L’AI Safety Index è un indice che gli esperti del FLI assegnano alle aziende leader del settore AI per valutare quanto le loro pratiche siano adeguate a garantire la sicurezza e l’affidabilità dei modelli. Nell’ultima edizione il report ha valutato otto aziende (OpenAI, Anthropic, Google DeepMind, Meta, xAI, DeepSeek, Alibaba Cloud e Z.ai) su 35 indicatori suddivisi su sei macro domini critici basati sul materiale reso pubblico dalle aziende stesse.

Le principali evidenze

In primo luogo lo studio mette in luce un grande divario fra le performance di sicurezza di alcune aziende e tutte le altre. In questo ambito emergono positivamente società come Anthropic, OpenAI, e Google DeepMind.

È però sul versante della cosiddetta sicurezza esistenziale che gli esperti hanno trovato delle gravi lacune generalizzate in tutte le aziende. Con sicurezza esistenziale si intendono le misure preventive che ogni azienda sviluppa internamente per prevenire i rischi più gravi associati a modelli AI superintelligenti, cioè dei piani operativi per controllare e allineare un’eventuale perdita di controllo dell’ASI.

In questo ambito tutte le aziende messe sotto analisi presentano delle garanzie troppo deboli e poco dettagliate e credibili. Tutte le misure messe in campo sono inoltre superficiali e “ben lontane” rispetto agli standard indicati dalle normative internazionali come ad esempio la legislazione europea in materia di AI.

Inoltre è emerso chiaramente che le aziende tendono a non condividere pubblicamente informazioni sufficienti su prompt, test di sicurezza, incidenti, o governance interna e questo rende difficile per la comunità di esperti e analisti avere contezza dei rischi e delle misure concrete.


Ultime news


OpenAI ha acquisito Neptune, una startup di strumenti per l’addestramento di modelli AI

Si tratta della seconda acquisizione in pochi giorni da parte…

OpenAI ha acquisito Neptune, una startup di strumenti per l’addestramento di modelli AI
Anthropic pianifica di quotarsi in borsa già nel corso del 2026

Il prossimo anno l'azienda stima di raggiungere 26 miliardi di…

Anthropic pianifica di quotarsi in borsa già nel corso del 2026
Mediaset contro Perplexity per l’uso dei dati: prima causa italiana tra colossi media e big tech AI

RTI e Medusa Film, entrambe controllate da Mediaset, hanno depositato…

Mediaset contro Perplexity per l’uso dei dati: prima causa italiana tra colossi media e big tech AI
Meta, in arrivo un’indagine antitrust dell’Unione europea per l’introduzione dell’AI su WhatsApp

Secondo le autorità europee l'integrazione delle funzioni AI su WhatsApp…

Meta, in arrivo un’indagine antitrust dell’Unione europea per l’introduzione dell’AI su WhatsApp

Privacy policy| Cookie policy| Cookie setting| © 2025