I limiti dell’intelligenza artificiale e i rischi per la sicurezza

L’intelligenza artificiale è oggi molto evoluta. La ricerca avanza a un passo spedito verso sistemi in grado di sorprendere per la loro efficienza e velocità. L’attuale AI dimostra però carenze in alcuni ambiti, per cui rimane necessaria la supervisione umana per la sua operatività.
I limiti dell’intelligenza artificiale e i rischi per la sicurezza

L’AI è oggi molto evoluta. La ricerca avanza a un passo spedito verso sistemi in grado di sorprendere per la loro efficienza e velocità. L’attuale intelligenza artificiale dimostra però dei limiti in alcuni ambiti, per cui rimane necessaria la supervisione umana per la sua operatività. 

L’evoluzione dell’intelligenza artificiale porta a pensare che gli algoritmi siano capaci di tutto. Per quanto sia vero che le potenzialità dell’AI sono grandissime, è altrettanto vero che ogni sistema intelligente viene sviluppato e addestrato da esseri umani, che, per loro natura, talvolta commettono degli errori. Questi errori si riflettono sull’operato dell’intelligenza artificiale, che può a sua volta commettere degli errori di ‘giudizio’ più o meno gravi. Non solo. Proprio a causa della sua struttura, l’intelligenza artificiale, per quanto sorprendente, presenta comunque dei limiti.

Infatti, vi sono campi – come quello artistico o quelli per cui è richiesta una certa ‘umanità’ – nei quali l’AI risulta inefficiente. E anche in quelle aree in cui l’AI risulta sempre più efficace, come in sede conversazionale, la realtà è diversa da quanto appare.  



Indagato erroneamente per pedopornografia 

È tornata di recente al centro dell’attenzione mediatica la notizia di un uomo americano, di San Francisco, a cui Google sospese l’account nel 2021 perché tra i suoi contenuti vi erano immagini pedopornografiche. L’uomo – che in realtà aveva semplicemente scattato delle foto all’inguine del figlio per motivi medici al fine di mandarle al suo pediatra per una visita online nel corso della pandemia – era stato anche segnalato alla polizia.  

Le tecnologie utilizzate da Google si basano infatti su algoritmi che rilevano automaticamente eventuali immagini che potrebbero essere collegate ad abusi sessuali su minori quando queste vengono scambiate attraverso i suoi servizi. Per quanto Google si sia oggettivamente attenuta alla legge federale americana sui contenuti pedopornografici segnalando il caso alle forze dell’ordine, una troppo rigida applicazione delle regole – senza una moderazione umana dei contenuti – può generare incomprensioni che possono costare molto agli utenti.  

L’uomo in questione, a due giorni dall’invio delle foto, aveva infatti ricevuto una notifica di disabilitazione del suo account Google. Oltre a non poter accedere a Gmail e al servizio telefonico Google Fi, Mark (nome fittizio nella stampa) ha perso tutte le sue email, le foto e i video archiviati nel cloud. A seguito di un chiarimento, l’uomo non è più sotto indagine, ma il suo account risulterebbe ancora disabilitato.   

Il robot che ha rotto un dito a un bambino 

Un’altra notizia ha generato scalpore e aperto discussioni in merito ai limiti dell’intelligenza artificiale. A luglio, durante una partita di scacchi, un robot ha rotto un dito a un bambino di 7 anni. È accaduto a Mosca durante un torneo di scacchi. Come si vede in un video fatto circolare online, il bambino stava giocando contro il robot, ma non avrebbe aspettato che questo concludesse la sua mossa per procedere con quella successiva. Il robot ha così afferrato il dito del bambino, premendolo sulla scacchiera. Il giovanissimo campione di scacchi è stato liberato dalla presa del braccio meccanico intelligente dopo pochi secondi, ma la pressione è stata sufficiente perché il suo dito fosse fratturato.  

C’è chi ha ipotizzato un possibile malfunzionamento, ma sembra più plausibile, semplicemente, una mancata adozione di tutte le opportune misure di sicurezza. Il braccio meccanico, infatti, stava operando regolarmente e sarebbe stata la mano del bambino a intralciare le sue normali operazioni. La fisicità e materialità dell’intelligenza artificiale, resa possibile grazie la sua interazione con apparati meccanici e robotici, però, fa sorgere dubbi sulla sicurezza e dovrebbe spingere alla predisposizione di una serie di misure preventive. Soprattutto oggi che i macchinari vengono sempre più utilizzati all’interno delle fabbriche e in molti altri ambiti. 

robot gioca a scacchi

L’AI ‘senziente’ di Google 

Un altro caso ormai noto è quello scaturito dalle dichiarazioni di Blake Lemoine, ingegnere che lavorava per Google e che ha di recente sostenuto che LaMDA, modello conversazionale di Google, sarebbe diventato senziente. Le affermazioni di Lemoine non corrispondono però a realtà. La struttura stessa del modello non consente al chatbot di comprendere realmente i contenuti di una conversazione. L’AI si limita infatti a rispondere in modo preciso ai quesiti grazie a un addestramento basato su un training dataset di conversazioni molto esteso.  

La società ha infatti negato la veridicità di quanto sostenuto dall’ex dipendente. Tanto che i ricercatori della divisione AI di Google hanno annunciato in questi giorni la possibilità di registrarsi per richiedere un accesso beta a LaMDA 2, il modello conversazionale al centro della polemica. Ora che sono aperte le registrazioni, si potrà verificare in prima persona se quanto sostenuto dall’ingegnere corrisponda o meno a realtà.  

Plato: l’AI che ragiona come un neonato 

L’intelligenza artificiale, per quanto sviluppata, rimane dunque limitata. Velocizza le operazioni meccaniche e ripetitive in ambito lavorativo, ma non sembra in grado di avvicinarsi al concetto di ‘intelligenza umana’.  

Il sistema Plato (Physics learning through auto-encoding and tracking objects), però, sviluppato dal gruppo di ricerca coordinato da Luis Piloto dell’azienda britannica (di Google) DeepMind, avrebbe sviluppato, grazie al suo particolare training, un “senso comune” sul mondo fisico, basato sull’intuizione – a partire dagli oggetti che lo circondano – di alcuni principi basilari della fisica.  

I ricercatori hanno mostrato al sistema video di semplici oggetti che si muovono nello spazio, dotandolo preventivamente di alcune nozioni basilari sulle caratteristiche degli stessi. Successivamente, gli hanno mostrato video di scene fisicamente impossibili. Il sistema ha rilevato la non corrispondenza alle leggi della fisica dei movimenti mostrati, anche per oggetti sui quali non aveva ricevuto un addestramento. Il processo di apprendimento cui i ricercatori hanno sottoposto Plato sarebbe dunque analogo a quello tipico dei neonati.

Il presente e il futuro dell’intelligenza artificiale 

Non è da escludersi che, in futuro, l’AI possa essere sviluppata in modo tale da risultare ‘intelligente’ in ogni senso della parola. Dati i limiti dell’intelligenza artificiale esemplificati sopra, però, oggi è necessario addestrare l’intelligenza artificiale secondo una rigorosa procedura che permetta di eliminare – o quantomeno contenere – i bias e supervisionarla e controllarla nella sua operatività.

L’aspetto della sicurezza (e dunque della responsabilità) diventa sempre più importante al crescere dell’autonomia dei sistemi intelligenti, soprattutto con riferimento a quelli dotati di corporalità.    


Ultime news


Google addestra l’AI con i contenuti YouTube all’insaputa dei creatori

Molti creatori YouTube contestano l'uso che Google fa dei loro…

Google addestra l’AI con i contenuti YouTube all’insaputa dei creatori
GPT-5 dietro l’angolo: OpenAI lo annuncia per la fine dell’estate

Il modello annunciato dovrebbe rivoluzionare i prodotti di OpenAI portando…

GPT-5 dietro l’angolo: OpenAI lo annuncia per la fine dell’estate
A due anni dal lancio di ChatGPT, Google perde l’8% al mese di ricerche degli utenti

Google è fortemente preoccupata dal calo di traffico causato dall'utilizzo…

A due anni dal lancio di ChatGPT, Google perde l’8% al mese di ricerche degli utenti
Midjourney presenta il suo primo generatore di video AI V1

Il nuovo strumento presentato da Midjourney permette agli utenti di…

Midjourney presenta il suo primo generatore di video AI V1

In Evidenza


Secondo gli scienziati del MIT l’utilizzo di AI riduce l’attività cerebrale

Lo studio del MIT dimostra come fare affidamento a chatbot…

Secondo gli scienziati del MIT l’utilizzo di AI riduce l’attività cerebrale
Secondo Apple, i modelli ragionanti non ragionano. È davvero così?

Lo abbiamo chiesto a due noti divulgatori in campo AI,…

Secondo Apple, i modelli ragionanti non ragionano. È davvero così?
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

Privacy policy| Cookie policy| Cookie setting| © 2025