L’AI è oggi molto evoluta. La ricerca avanza a un passo spedito verso sistemi in grado di sorprendere per la loro efficienza e velocità. L’attuale intelligenza artificiale dimostra però dei limiti in alcuni ambiti, per cui rimane necessaria la supervisione umana per la sua operatività.
L’evoluzione dell’intelligenza artificiale porta a pensare che gli algoritmi siano capaci di tutto. Per quanto sia vero che le potenzialità dell’AI sono grandissime, è altrettanto vero che ogni sistema intelligente viene sviluppato e addestrato da esseri umani, che, per loro natura, talvolta commettono degli errori. Questi errori si riflettono sull’operato dell’intelligenza artificiale, che può a sua volta commettere degli errori di ‘giudizio’ più o meno gravi. Non solo. Proprio a causa della sua struttura, l’intelligenza artificiale, per quanto sorprendente, presenta comunque dei limiti.
Infatti, vi sono campi – come quello artistico o quelli per cui è richiesta una certa ‘umanità’ – nei quali l’AI risulta inefficiente. E anche in quelle aree in cui l’AI risulta sempre più efficace, come in sede conversazionale, la realtà è diversa da quanto appare.
I temi trattati all’interno dell’articolo
Indagato erroneamente per pedopornografia
Il robot che ha rotto un dito a un bambino
Indagato erroneamente per pedopornografia
È tornata di recente al centro dell’attenzione mediatica la notizia di un uomo americano, di San Francisco, a cui Google sospese l’account nel 2021 perché tra i suoi contenuti vi erano immagini pedopornografiche. L’uomo – che in realtà aveva semplicemente scattato delle foto all’inguine del figlio per motivi medici al fine di mandarle al suo pediatra per una visita online nel corso della pandemia – era stato anche segnalato alla polizia.
Le tecnologie utilizzate da Google si basano infatti su algoritmi che rilevano automaticamente eventuali immagini che potrebbero essere collegate ad abusi sessuali su minori quando queste vengono scambiate attraverso i suoi servizi. Per quanto Google si sia oggettivamente attenuta alla legge federale americana sui contenuti pedopornografici segnalando il caso alle forze dell’ordine, una troppo rigida applicazione delle regole – senza una moderazione umana dei contenuti – può generare incomprensioni che possono costare molto agli utenti.
L’uomo in questione, a due giorni dall’invio delle foto, aveva infatti ricevuto una notifica di disabilitazione del suo account Google. Oltre a non poter accedere a Gmail e al servizio telefonico Google Fi, Mark (nome fittizio nella stampa) ha perso tutte le sue email, le foto e i video archiviati nel cloud. A seguito di un chiarimento, l’uomo non è più sotto indagine, ma il suo account risulterebbe ancora disabilitato.
Il robot che ha rotto un dito a un bambino
Un’altra notizia ha generato scalpore e aperto discussioni in merito ai limiti dell’intelligenza artificiale. A luglio, durante una partita di scacchi, un robot ha rotto un dito a un bambino di 7 anni. È accaduto a Mosca durante un torneo di scacchi. Come si vede in un video fatto circolare online, il bambino stava giocando contro il robot, ma non avrebbe aspettato che questo concludesse la sua mossa per procedere con quella successiva. Il robot ha così afferrato il dito del bambino, premendolo sulla scacchiera. Il giovanissimo campione di scacchi è stato liberato dalla presa del braccio meccanico intelligente dopo pochi secondi, ma la pressione è stata sufficiente perché il suo dito fosse fratturato.
C’è chi ha ipotizzato un possibile malfunzionamento, ma sembra più plausibile, semplicemente, una mancata adozione di tutte le opportune misure di sicurezza. Il braccio meccanico, infatti, stava operando regolarmente e sarebbe stata la mano del bambino a intralciare le sue normali operazioni. La fisicità e materialità dell’intelligenza artificiale, resa possibile grazie la sua interazione con apparati meccanici e robotici, però, fa sorgere dubbi sulla sicurezza e dovrebbe spingere alla predisposizione di una serie di misure preventive. Soprattutto oggi che i macchinari vengono sempre più utilizzati all’interno delle fabbriche e in molti altri ambiti.

L’AI ‘senziente’ di Google
Un altro caso ormai noto è quello scaturito dalle dichiarazioni di Blake Lemoine, ingegnere che lavorava per Google e che ha di recente sostenuto che LaMDA, modello conversazionale di Google, sarebbe diventato senziente. Le affermazioni di Lemoine non corrispondono però a realtà. La struttura stessa del modello non consente al chatbot di comprendere realmente i contenuti di una conversazione. L’AI si limita infatti a rispondere in modo preciso ai quesiti grazie a un addestramento basato su un training dataset di conversazioni molto esteso.
La società ha infatti negato la veridicità di quanto sostenuto dall’ex dipendente. Tanto che i ricercatori della divisione AI di Google hanno annunciato in questi giorni la possibilità di registrarsi per richiedere un accesso beta a LaMDA 2, il modello conversazionale al centro della polemica. Ora che sono aperte le registrazioni, si potrà verificare in prima persona se quanto sostenuto dall’ingegnere corrisponda o meno a realtà.
Plato: l’AI che ragiona come un neonato
L’intelligenza artificiale, per quanto sviluppata, rimane dunque limitata. Velocizza le operazioni meccaniche e ripetitive in ambito lavorativo, ma non sembra in grado di avvicinarsi al concetto di ‘intelligenza umana’.
Il sistema Plato (Physics learning through auto-encoding and tracking objects), però, sviluppato dal gruppo di ricerca coordinato da Luis Piloto dell’azienda britannica (di Google) DeepMind, avrebbe sviluppato, grazie al suo particolare training, un “senso comune” sul mondo fisico, basato sull’intuizione – a partire dagli oggetti che lo circondano – di alcuni principi basilari della fisica.
I ricercatori hanno mostrato al sistema video di semplici oggetti che si muovono nello spazio, dotandolo preventivamente di alcune nozioni basilari sulle caratteristiche degli stessi. Successivamente, gli hanno mostrato video di scene fisicamente impossibili. Il sistema ha rilevato la non corrispondenza alle leggi della fisica dei movimenti mostrati, anche per oggetti sui quali non aveva ricevuto un addestramento. Il processo di apprendimento cui i ricercatori hanno sottoposto Plato sarebbe dunque analogo a quello tipico dei neonati.

Il presente e il futuro dell’intelligenza artificiale
Non è da escludersi che, in futuro, l’AI possa essere sviluppata in modo tale da risultare ‘intelligente’ in ogni senso della parola. Dati i limiti dell’intelligenza artificiale esemplificati sopra, però, oggi è necessario addestrare l’intelligenza artificiale secondo una rigorosa procedura che permetta di eliminare – o quantomeno contenere – i bias e supervisionarla e controllarla nella sua operatività.
L’aspetto della sicurezza (e dunque della responsabilità) diventa sempre più importante al crescere dell’autonomia dei sistemi intelligenti, soprattutto con riferimento a quelli dotati di corporalità.