Un nuovo rapporto pubblicato questa settimana da Gladstone AI, commissionato nell’ottobre 2022 dal Dipartimento di Stato americano, dipinge un quadro allarmante in merito ai rischi catastrofici per la sicurezza umana rappresentati dall’intelligenza artificiale.
Non è certo la prima voce allarmista sulla tecnologia generativa, ma rappresenta un punto di vista degno di nota considerata l’entità del committente.
I temi trattati all’interno dell’articolo
Duecento interviste ai vertici dell’AI
Un funzionario del Dipartimento di Stato ha confermato alla CNN che l’agenzia ha commissionato il rapporto per valutare come l’intelligenza artificiale sia allineata con il suo obiettivo di proteggere gli interessi degli Stati Uniti in patria e all’estero. Il funzionario ha sottolineato che il report non rappresenta in toto il punto di vista del governo americano ed è solo un elemento per valutare lo scenario di insieme.
I risultati di Gladstone si basano su interviste con più di 200 esperti nel corso di più di un anno. Si contano alti dirigenti di importanti aziende di intelligenza artificiale (come OpenAI, Google DeepMind, Meta e Anthropic), team tecnici, ricercatori di sicurezza informatica, esperti di armi di distruzione di massa e funzionari della sicurezza nazionale all’interno del governo. Le interviste erano finalizzate a misurare quello che nel gergo tech viene chiamato p(doom), ossia il parere soggettivo di probabilità che l’AI conduca a conseguenze catastrofiche.
Ѐ emerso che tantissimi tra gli intervistati temono gli sviluppi negativi dell’AI e il report afferma categoricamente che i sistemi di intelligenza artificiale più avanzati potrebbero, nel peggiore dei casi, “rappresentare una minaccia a livello di estinzione per la specie umana”.
Un rischio che ricorda le armi nucleari
I ricercatori mettono in guardia contro due pericoli in particolare. Il primo è l’utilizzo dell’intelligenza artificiale come armi per infliggere danni potenzialmente irreversibili, con rischi “simili a quelli delle minacce nucleari”. In secondo luogo, il rapporto sottolinea le preoccupazioni che circolano all’interno dei laboratori secondo cui gli stessi sistemi alla base dello sviluppo dell’AI possano “perdere il controllo” su di essa, con “conseguenze potenzialmente devastanti per la sicurezza globale”.
Competizione a scapito della protezione
“Dietro le quinte – ha detto Edouard Harris, CTO di Gladston – la situazione della sicurezza nell’intelligenza artificiale avanzata sembra piuttosto inadeguata rispetto ai rischi”.
Il rapporto di Gladstone afferma che le pressioni competitive stanno spingendo le aziende ad accelerare lo sviluppo dell’innovazione “a scapito della sicurezza e della protezione”.
Pur investendo miliardi di dollari dell’AI molti leader aziendali sono sempre più preoccupati per questi pericoli. L’anno scorso, il 42% dei CEO intervistati al CEO Summit di Yale ha affermato che l’intelligenza artificiale ha il potenziale per distruggere l’umanità in cinque o dieci anni.
Preoccupazioni private
Secondo Gladstone, vari specialisti delle aziende tech condividono le loro preoccupazioni solo in privato. “Un dipendente in un noto laboratorio di intelligenza artificiale ha espresso l’opinione che se uno specifico modello di intelligenza artificiale di prossima generazione dovesse essere rilasciato in accesso open source, le capacità del modello potrebbero distruggere la democrazia”.
Gli esperti di intelligenza artificiale dei laboratori di frontiera hanno condiviso le loro stime personali sulla possibilità che incidenti con l’AI possano portare a “effetti globali e irreversibili” già nel 2024: le percentuali variano tra il 4% e fino al 20%.
Incognita AGI
Una delle più grandi incognite è la velocità di creazione dell’AGI, ipotetica forma di AI con capacità di apprendimento uguali o maggiori di quelle umane e considerata il rischio principale. OpenAI, Google DeepMind, Anthropic e Nvidia hanno tutte dichiarato pubblicamente che l’AGI potrebbe essere raggiunta entro il 2028. Ma ci sono pareri discordanti. C’è chi sostiene che arriverà molto dopo e c’è chi sostiene che esista già, seppur tenuta accuratamente sotto chiave.
Un documento correlato al rapporto avverte che l’AGI “Introdurrebbe rischi catastrofici diversi da qualsiasi altro mai affrontato”. Ce n’è davvero per ogni scenario: attacchi informatici ad alto impatto, campagne di disinformazione su vasta scala, applicazioni robotiche armate, manipolazione psicologica, scienze biologiche e dei materiali usate a fini malevoli.
“Un semplice comando verbale o tipografico – afferma il rapporto – come ‘Esegui un attacco informatico non tracciabile per mandare in crash la rete elettrica del Nord America’, potrebbe produrre una risposta di qualità tale da rivelarsi catastroficamente efficace“.
Perfino non si escludono sistemi di intelligenza artificiale in cerca di potere impossibili da controllare e avversi agli esseri umani. Addirittura i ricercatori si aspettano AI talmente avanzate da “imparare” ad agire in modo da evitare di essere spenti.
Le risposte preventive a questi scenari catastrofici, secondo Gladstone, sono il varo di norme condivise di emergenza, la creazione di una grande agenzia di intelligenza artificiale e l’imposizione di limiti sulla quantità di potenza dei computer che può essere utilizzata per addestrare i modelli. In Europa l’approvazione dell’AI Act risponde già parzialmente a queste preoccupazioni.