I limiti dell’intelligenza artificiale e i rischi per la sicurezza

Paolo Marinoni 5 Settembre 2022

7 minuti

L’AI è oggi molto evoluta. La ricerca avanza a un passo spedito verso sistemi in grado di sorprendere per la loro efficienza e velocità. L’attuale intelligenza artificiale dimostra però dei limiti in alcuni ambiti, per cui rimane necessaria la supervisione umana per la sua operatività. 

L’evoluzione dell’intelligenza artificiale porta a pensare che gli algoritmi siano capaci di tutto. Per quanto sia vero che le potenzialità dell’AI sono grandissime, è altrettanto vero che ogni sistema intelligente viene sviluppato e addestrato da esseri umani, che, per loro natura, talvolta commettono degli errori. Questi errori si riflettono sull’operato dell’intelligenza artificiale, che può a sua volta commettere degli errori di ‘giudizio’ più o meno gravi. Non solo. Proprio a causa della sua struttura, l’intelligenza artificiale, per quanto sorprendente, presenta comunque dei limiti.

Infatti, vi sono campi – come quello artistico o quelli per cui è richiesta una certa ‘umanità’ – nei quali l’AI risulta inefficiente. E anche in quelle aree in cui l’AI risulta sempre più efficace, come in sede conversazionale, la realtà è diversa da quanto appare.  



Indagato erroneamente per pedopornografia 

È tornata di recente al centro dell’attenzione mediatica la notizia di un uomo americano, di San Francisco, a cui Google sospese l’account nel 2021 perché tra i suoi contenuti vi erano immagini pedopornografiche. L’uomo – che in realtà aveva semplicemente scattato delle foto all’inguine del figlio per motivi medici al fine di mandarle al suo pediatra per una visita online nel corso della pandemia – era stato anche segnalato alla polizia.  

Le tecnologie utilizzate da Google si basano infatti su algoritmi che rilevano automaticamente eventuali immagini che potrebbero essere collegate ad abusi sessuali su minori quando queste vengono scambiate attraverso i suoi servizi. Per quanto Google si sia oggettivamente attenuta alla legge federale americana sui contenuti pedopornografici segnalando il caso alle forze dell’ordine, una troppo rigida applicazione delle regole – senza una moderazione umana dei contenuti – può generare incomprensioni che possono costare molto agli utenti.  

L’uomo in questione, a due giorni dall’invio delle foto, aveva infatti ricevuto una notifica di disabilitazione del suo account Google. Oltre a non poter accedere a Gmail e al servizio telefonico Google Fi, Mark (nome fittizio nella stampa) ha perso tutte le sue email, le foto e i video archiviati nel cloud. A seguito di un chiarimento, l’uomo non è più sotto indagine, ma il suo account risulterebbe ancora disabilitato.   

Il robot che ha rotto un dito a un bambino 

Un’altra notizia ha generato scalpore e aperto discussioni in merito ai limiti dell’intelligenza artificiale. A luglio, durante una partita di scacchi, un robot ha rotto un dito a un bambino di 7 anni. È accaduto a Mosca durante un torneo di scacchi. Come si vede in un video fatto circolare online, il bambino stava giocando contro il robot, ma non avrebbe aspettato che questo concludesse la sua mossa per procedere con quella successiva. Il robot ha così afferrato il dito del bambino, premendolo sulla scacchiera. Il giovanissimo campione di scacchi è stato liberato dalla presa del braccio meccanico intelligente dopo pochi secondi, ma la pressione è stata sufficiente perché il suo dito fosse fratturato.  

C’è chi ha ipotizzato un possibile malfunzionamento, ma sembra più plausibile, semplicemente, una mancata adozione di tutte le opportune misure di sicurezza. Il braccio meccanico, infatti, stava operando regolarmente e sarebbe stata la mano del bambino a intralciare le sue normali operazioni. La fisicità e materialità dell’intelligenza artificiale, resa possibile grazie la sua interazione con apparati meccanici e robotici, però, fa sorgere dubbi sulla sicurezza e dovrebbe spingere alla predisposizione di una serie di misure preventive. Soprattutto oggi che i macchinari vengono sempre più utilizzati all’interno delle fabbriche e in molti altri ambiti. 

robot gioca a scacchi

L’AI ‘senziente’ di Google 

Un altro caso ormai noto è quello scaturito dalle dichiarazioni di Blake Lemoine, ingegnere che lavorava per Google e che ha di recente sostenuto che LaMDA, modello conversazionale di Google, sarebbe diventato senziente. Le affermazioni di Lemoine non corrispondono però a realtà. La struttura stessa del modello non consente al chatbot di comprendere realmente i contenuti di una conversazione. L’AI si limita infatti a rispondere in modo preciso ai quesiti grazie a un addestramento basato su un training dataset di conversazioni molto esteso.  

La società ha infatti negato la veridicità di quanto sostenuto dall’ex dipendente. Tanto che i ricercatori della divisione AI di Google hanno annunciato in questi giorni la possibilità di registrarsi per richiedere un accesso beta a LaMDA 2, il modello conversazionale al centro della polemica. Ora che sono aperte le registrazioni, si potrà verificare in prima persona se quanto sostenuto dall’ingegnere corrisponda o meno a realtà.  

Plato: l’AI che ragiona come un neonato 

L’intelligenza artificiale, per quanto sviluppata, rimane dunque limitata. Velocizza le operazioni meccaniche e ripetitive in ambito lavorativo, ma non sembra in grado di avvicinarsi al concetto di ‘intelligenza umana’.  

Il sistema Plato (Physics learning through auto-encoding and tracking objects), però, sviluppato dal gruppo di ricerca coordinato da Luis Piloto dell’azienda britannica (di Google) DeepMind, avrebbe sviluppato, grazie al suo particolare training, un “senso comune” sul mondo fisico, basato sull’intuizione – a partire dagli oggetti che lo circondano – di alcuni principi basilari della fisica.  

I ricercatori hanno mostrato al sistema video di semplici oggetti che si muovono nello spazio, dotandolo preventivamente di alcune nozioni basilari sulle caratteristiche degli stessi. Successivamente, gli hanno mostrato video di scene fisicamente impossibili. Il sistema ha rilevato la non corrispondenza alle leggi della fisica dei movimenti mostrati, anche per oggetti sui quali non aveva ricevuto un addestramento. Il processo di apprendimento cui i ricercatori hanno sottoposto Plato sarebbe dunque analogo a quello tipico dei neonati.

bambino

Il presente e il futuro dell’intelligenza artificiale 

Non è da escludersi che, in futuro, l’AI possa essere sviluppata in modo tale da risultare ‘intelligente’ in ogni senso della parola. Dati i limiti dell’intelligenza artificiale esemplificati sopra, però, oggi è necessario addestrare l’intelligenza artificiale secondo una rigorosa procedura che permetta di eliminare – o quantomeno contenere – i bias e supervisionarla e controllarla nella sua operatività.

L’aspetto della sicurezza (e dunque della responsabilità) diventa sempre più importante al crescere dell’autonomia dei sistemi intelligenti, soprattutto con riferimento a quelli dotati di corporalità.    


Articoli simili

L’intelligenza artificiale sta progredendo a passo spedito. È compito dei legislatori – nazionale ed europeo – predisporre un ecosistema normativo conciliante, che incentivi la ricerca…
27 Settembre 2022

L’AI viene utilizzata in numerosi settori e sostiene i lavoratori. Quali sono, però, i rischi per il lavoro? E quali sono i suoi limiti? 
28 Giugno 2022

Un ingegnere di Google ha dichiarato che il modello conversazionale di Google sarebbe senziente. Ma l'azienda (e gli esperti) negano questa possibilità.
17 Giugno 2022

L'AI aiuta a combattere la solitudine attraverso i robot sociali, dispositivi che tengono compagnia e aiutano nella quotidianità.
12 Marzo 2022

L'evoluzione delle leggi della robotica: dalle tre leggi di Isaac Asimov a Frank Pasquale.
11 Marzo 2022

In Evidenza


Cosa sono i Big Data? 

I nostri dati vengono continuamente raccolti e rappresentano un asset…

I reati nel metaverso: quali possono essere commessi? 

I reati possono essere commessi anche nel metaverso e questi…

Il chatbot di Google è realmente senziente?

Un ingegnere di Google ha dichiarato che il modello conversazionale…

Come si crea un algoritmo di machine learning?

Lo sviluppo di un algoritmo di machine learning è un…

Il timore di un AI takeover: opinioni e prospettive future

Dalla finzione alla realtà. Il timore di un AI takeover…