Il chatbot di Google è realmente senziente?

Paolo Marinoni 17 Giugno 2022

6 minuti

Un ingegnere di Google ha dichiarato che LaMDA, modello conversazionale di Google, sarebbe senziente. È davvero così?

Il chatbot di Google, LaMDA, sarebbe diventato senziente secondo quanto sostenuto da Blake Lemoine, ingegnere che lavora per la società. Lemoine era già stato sospeso ad aprile dal colosso americano dopo aver presentato i suoi dubbi a degli executive della compagnia attraverso un GoogleDoc intitolato “LaMDA è senziente?”. Non trovando la risposta desiderata, ha deciso di pubblicare le sue dichiarazioni. È stato posto in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.  

Il collaboratore, che lavora per l’organizzazione Responsible AI di Google, aveva iniziato a dialogare con LaMDA nell’autunno 2021. L’obiettivo era quello di testare il linguaggio del chatbot e verificare che non contenesse bias o espressioni discriminatorie o d’odio.

Cos’è LaMDA?

LaMDA (Language Model for Dialogue Application) è un modello linguistico – o conversazionale – di Google costruito su Transformer, un’architettura basata su reti neurali ricorrenti presentata dalla società già nel 2017. Transformer permette di produrre modelli cui può essere insegnato a leggere molte parole e a prestare attenzione a come queste sono legate tra di loro. Inoltre, attraverso un simile training, il modello di intelligenza artificiale è anche in grado di prevedere quali parole potrebbero seguire.

Ciò che distingue LaMDA da molti altri modelli linguistici, però, è il fatto che questo è stato addestrato attraverso il dialogo. Per questo motivo, il sistema è capace di distinguere tra conversazioni aperte e altre forme di linguaggio e di notare sottigliezze linguistiche e la cosiddetta “sensibleness” (sensatezza) di una risposta con riferimento alla frase precedente.

Per esempio, se una persona dice “Mi piace molto cantare”, una risposta specifica e pertinente potrebbe essere “Che bello! Mia nonna era una cantante lirica quando era giovane”. Si tratta quindi di una risposta molto più specifica di “Che bello!”.

LaMDA, secondo quanto affermato da Google, potrebbe dunque parlare dei temi più vari, virtualmente di qualsiasi cosa.

Le risposte del chatbot

Ciò che Lemoine non si aspettava, però, è che il linguaggio di LaMDA – di per sé frutto di moltissime e velocissime elaborazioni matematiche ‘orientate’ attraverso il training – sarebbe diventato così credibile. Tanto da far pensare all’ingegnere che il chatbot fosse divenuto senziente, ovvero che avesse sviluppato una coscienza di sé e del mondo circostante.

Ha infatti dichiarato Lemoine a The Washington Post:

“Se non sapessi esattamente di cosa si tratta, cioè di un programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 8 o 9 anni che conosce la fisica”.

A indurlo a ritenere che il modello fosse diventato senziente sono state le sue risposte, pubblicate in seguito dall’ingegnere, nel corso di un dialogo di test.

Dialogo Lemoine e LaMDA
chatbot

LaMDA è davvero senziente?

Il genere di conversazione che LaMDA è in grado di sostenere ha portato una persona esperta nel settore come Lemoine a pensare che il modello linguistico potesse essere senziente. Quindi cosciente di sé, con un’“anima”.

In un estratto della conversazione, per esempio, si legge:

Dialogo Lemoine e LaMDA

Un portavoce di Google, Brad Gabriel, ha però negato categoricamente a The Washington Post le affermazioni di Lemoine:

“Il nostro team, che include esperti di etica e tecnologia, ha esaminato le preoccupazioni di Blake in base ai nostri Princìpi AI e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse senziente (e molte prove contrarie)”.

E ha aggiunto:

Naturalmente, alcuni nella più ampia community dell’AI stanno considerando la possibilità a lungo termine di un’AI senziente o generale (AI forte, ndr), ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono ‘improvvisare’ su qualsiasi argomento fantastico”.

Non è dunque da escludersi che in futuro possano essere sviluppati sistemi di AI senzienti, ma pare dunque che, per loro natura, i modelli linguistici moderni non lo possano essere.

Le possibili ripercussioni etiche e il futuro dell’AI

Molte sarebbero le conseguenze etiche e filosofiche – nonché quelle giuridiche – della nascita di un’intelligenza artificiale cosciente di sé e in grado di provare emozioni. Tantissime sarebbero anche le domande che ne sorgerebbero. Cos’è la vita? Si dovrebbe estendere la garanzia dei diritti umani all’AI?

Questa è una conseguenza dell’applicazione di quell’approccio filosofico denominato in inglese sentientism, una corrente di pensiero secondo cui bisogna prestare considerazione morale non solo agli esseri umani, ma a qualsiasi essere senziente (macchine incluse).

Proprio partendo – precocemente – da queste domande, Lemoine aveva mobilitato i vertici dell’azienda al fine di verificare il sussistere di una coscienza in LaMDA, ma il team preposto, come sopra sottolineato, non ha rinvenuto elementi a sostegno delle sue affermazioni. In particolare, nel caso sollevato, gli esperti mettono in luce l’impossibilità attuale dell’architettura di LaMDA di diventare un ‘essere senziente’. In futuro, ciò potrebbe avvenire, ma l’intelligenza artificiale odierna, secondo diversi esperti, non è neanche lontanamente vicina a questo step.


Articoli simili

L’intelligenza artificiale sta progredendo a passo spedito. È compito dei legislatori – nazionale ed europeo – predisporre un ecosistema normativo conciliante, che incentivi la ricerca…
27 Settembre 2022

L’intelligenza artificiale è oggi molto evoluta. La ricerca avanza a un passo spedito verso sistemi in grado di sorprendere per la loro efficienza e velocità.…
5 Settembre 2022

L’AI viene utilizzata in numerosi settori e sostiene i lavoratori. Quali sono, però, i rischi per il lavoro? E quali sono i suoi limiti? 
28 Giugno 2022

L'AI aiuta a combattere la solitudine attraverso i robot sociali, dispositivi che tengono compagnia e aiutano nella quotidianità.
12 Marzo 2022

L'evoluzione delle leggi della robotica: dalle tre leggi di Isaac Asimov a Frank Pasquale.
11 Marzo 2022

In Evidenza


Cosa sono i Big Data? 

I nostri dati vengono continuamente raccolti e rappresentano un asset…

I reati nel metaverso: quali possono essere commessi? 

I reati possono essere commessi anche nel metaverso e questi…

Il chatbot di Google è realmente senziente?

Un ingegnere di Google ha dichiarato che il modello conversazionale…

Come si crea un algoritmo di machine learning?

Lo sviluppo di un algoritmo di machine learning è un…

Il timore di un AI takeover: opinioni e prospettive future

Dalla finzione alla realtà. Il timore di un AI takeover…