I limiti dell’intelligenza artificiale e i rischi per la sicurezza

I limiti dell’intelligenza artificiale e i rischi per la sicurezza

L’AI è oggi molto evoluta. La ricerca avanza a un passo spedito verso sistemi in grado di sorprendere per la loro efficienza e velocità. L’attuale intelligenza artificiale dimostra però dei limiti in alcuni ambiti, per cui rimane necessaria la supervisione umana per la sua operatività. 

L’evoluzione dell’intelligenza artificiale porta a pensare che gli algoritmi siano capaci di tutto. Per quanto sia vero che le potenzialità dell’AI sono grandissime, è altrettanto vero che ogni sistema intelligente viene sviluppato e addestrato da esseri umani, che, per loro natura, talvolta commettono degli errori. Questi errori si riflettono sull’operato dell’intelligenza artificiale, che può a sua volta commettere degli errori di ‘giudizio’ più o meno gravi. Non solo. Proprio a causa della sua struttura, l’intelligenza artificiale, per quanto sorprendente, presenta comunque dei limiti.

Infatti, vi sono campi – come quello artistico o quelli per cui è richiesta una certa ‘umanità’ – nei quali l’AI risulta inefficiente. E anche in quelle aree in cui l’AI risulta sempre più efficace, come in sede conversazionale, la realtà è diversa da quanto appare.  



Indagato erroneamente per pedopornografia 

È tornata di recente al centro dell’attenzione mediatica la notizia di un uomo americano, di San Francisco, a cui Google sospese l’account nel 2021 perché tra i suoi contenuti vi erano immagini pedopornografiche. L’uomo – che in realtà aveva semplicemente scattato delle foto all’inguine del figlio per motivi medici al fine di mandarle al suo pediatra per una visita online nel corso della pandemia – era stato anche segnalato alla polizia.  

Le tecnologie utilizzate da Google si basano infatti su algoritmi che rilevano automaticamente eventuali immagini che potrebbero essere collegate ad abusi sessuali su minori quando queste vengono scambiate attraverso i suoi servizi. Per quanto Google si sia oggettivamente attenuta alla legge federale americana sui contenuti pedopornografici segnalando il caso alle forze dell’ordine, una troppo rigida applicazione delle regole – senza una moderazione umana dei contenuti – può generare incomprensioni che possono costare molto agli utenti.  

L’uomo in questione, a due giorni dall’invio delle foto, aveva infatti ricevuto una notifica di disabilitazione del suo account Google. Oltre a non poter accedere a Gmail e al servizio telefonico Google Fi, Mark (nome fittizio nella stampa) ha perso tutte le sue email, le foto e i video archiviati nel cloud. A seguito di un chiarimento, l’uomo non è più sotto indagine, ma il suo account risulterebbe ancora disabilitato.   

Il robot che ha rotto un dito a un bambino 

Un’altra notizia ha generato scalpore e aperto discussioni in merito ai limiti dell’intelligenza artificiale. A luglio, durante una partita di scacchi, un robot ha rotto un dito a un bambino di 7 anni. È accaduto a Mosca durante un torneo di scacchi. Come si vede in un video fatto circolare online, il bambino stava giocando contro il robot, ma non avrebbe aspettato che questo concludesse la sua mossa per procedere con quella successiva. Il robot ha così afferrato il dito del bambino, premendolo sulla scacchiera. Il giovanissimo campione di scacchi è stato liberato dalla presa del braccio meccanico intelligente dopo pochi secondi, ma la pressione è stata sufficiente perché il suo dito fosse fratturato.  

C’è chi ha ipotizzato un possibile malfunzionamento, ma sembra più plausibile, semplicemente, una mancata adozione di tutte le opportune misure di sicurezza. Il braccio meccanico, infatti, stava operando regolarmente e sarebbe stata la mano del bambino a intralciare le sue normali operazioni. La fisicità e materialità dell’intelligenza artificiale, resa possibile grazie la sua interazione con apparati meccanici e robotici, però, fa sorgere dubbi sulla sicurezza e dovrebbe spingere alla predisposizione di una serie di misure preventive. Soprattutto oggi che i macchinari vengono sempre più utilizzati all’interno delle fabbriche e in molti altri ambiti. 

robot gioca a scacchi

L’AI ‘senziente’ di Google 

Un altro caso ormai noto è quello scaturito dalle dichiarazioni di Blake Lemoine, ingegnere che lavorava per Google e che ha di recente sostenuto che LaMDA, modello conversazionale di Google, sarebbe diventato senziente. Le affermazioni di Lemoine non corrispondono però a realtà. La struttura stessa del modello non consente al chatbot di comprendere realmente i contenuti di una conversazione. L’AI si limita infatti a rispondere in modo preciso ai quesiti grazie a un addestramento basato su un training dataset di conversazioni molto esteso.  

La società ha infatti negato la veridicità di quanto sostenuto dall’ex dipendente. Tanto che i ricercatori della divisione AI di Google hanno annunciato in questi giorni la possibilità di registrarsi per richiedere un accesso beta a LaMDA 2, il modello conversazionale al centro della polemica. Ora che sono aperte le registrazioni, si potrà verificare in prima persona se quanto sostenuto dall’ingegnere corrisponda o meno a realtà.  

Plato: l’AI che ragiona come un neonato 

L’intelligenza artificiale, per quanto sviluppata, rimane dunque limitata. Velocizza le operazioni meccaniche e ripetitive in ambito lavorativo, ma non sembra in grado di avvicinarsi al concetto di ‘intelligenza umana’.  

Il sistema Plato (Physics learning through auto-encoding and tracking objects), però, sviluppato dal gruppo di ricerca coordinato da Luis Piloto dell’azienda britannica (di Google) DeepMind, avrebbe sviluppato, grazie al suo particolare training, un “senso comune” sul mondo fisico, basato sull’intuizione – a partire dagli oggetti che lo circondano – di alcuni principi basilari della fisica.  

I ricercatori hanno mostrato al sistema video di semplici oggetti che si muovono nello spazio, dotandolo preventivamente di alcune nozioni basilari sulle caratteristiche degli stessi. Successivamente, gli hanno mostrato video di scene fisicamente impossibili. Il sistema ha rilevato la non corrispondenza alle leggi della fisica dei movimenti mostrati, anche per oggetti sui quali non aveva ricevuto un addestramento. Il processo di apprendimento cui i ricercatori hanno sottoposto Plato sarebbe dunque analogo a quello tipico dei neonati.

Il presente e il futuro dell’intelligenza artificiale 

Non è da escludersi che, in futuro, l’AI possa essere sviluppata in modo tale da risultare ‘intelligente’ in ogni senso della parola. Dati i limiti dell’intelligenza artificiale esemplificati sopra, però, oggi è necessario addestrare l’intelligenza artificiale secondo una rigorosa procedura che permetta di eliminare – o quantomeno contenere – i bias e supervisionarla e controllarla nella sua operatività.

L’aspetto della sicurezza (e dunque della responsabilità) diventa sempre più importante al crescere dell’autonomia dei sistemi intelligenti, soprattutto con riferimento a quelli dotati di corporalità.    


Ultime news


Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld

I fondi saranno investiti per espandere la presenza sul mercato,…

Altri 275 mln per la startup di sorveglianza Flock Safety; valutazione a 7,5 mld
Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI

Weekly AI è la nostra rassegna settimanale sulle notizie più…

Dragone all’attacco, USA in difesa tra fratture e strette di mano segrete | Weekly AI
Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico

La decisione è stata accolta con opinioni contrastanti e i…

Keir Starmer come Musk? Il leader britannico ‘assume’ l’AI nel settore pubblico
La personalizzazione di Gemini passerà dalle tue ricerche su Google

La funzione Gemini with Personalization sarà resa disponibile gradualmente nel…

La personalizzazione di Gemini passerà dalle tue ricerche su Google
OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

OpenAI ha iniziato un'operazione di influenza del prossimo “Piano d’azione…

OpenAI chiede a Trump di allentare le regolamentazioni per competere con la Cina

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025