AI news:

il portale di approfondimento sul mondo dell'intelligenza artificiale

AI news: il portale di approfondimento sul mondo dell'intelligenza artificiale

Il chatbot di Google è realmente senziente?

intelligenza artificiale

Un ingegnere di Google ha dichiarato che LaMDA, modello conversazionale di Google, sarebbe senziente. È davvero così?

Il chatbot di Google, LaMDA, sarebbe diventato senziente secondo quanto sostenuto da Blake Lemoine, ingegnere che lavora per la società. Lemoine era già stato sospeso ad aprile dal colosso americano dopo aver presentato i suoi dubbi a degli executive della compagnia attraverso un GoogleDoc intitolato “LaMDA è senziente?”. Successivamente, non trovando la risposta desiderata, ha deciso di pubblicare le sue dichiarazioni ed è stato posto in congedo amministrativo retribuito per aver violato la politica di riservatezza dell’azienda.  

Il collaboratore, che lavora per l’organizzazione Responsible AI di Google, aveva iniziato a dialogare con LaMDA nell’autunno 2021 per testare il linguaggio del chatbot e verificare che non contenesse bias o espressioni discriminatorie o d’odio.

Cos’è LaMDA?

LaMDA (Language Model for Dialogue Application) è un modello linguistico – o conversazionale – di Google costruito su Transformer, un’architettura basata su reti neurali ricorrenti presentata dalla società già nel 2017. Transformer permette di produrre modelli cui può essere insegnato a leggere molte parole e a prestare attenzione a come queste sono legate tra di loro. Inoltre, attraverso un simile training, il modello di intelligenza artificiale è anche in grado di prevedere quali parole potrebbero seguire.

Ciò che distingue LaMDA da molti altri modelli linguistici, però, è il fatto che questo è stato addestrato attraverso il dialogo. Per questo motivo, il sistema è capace di distinguere tra conversazioni aperte e altre forme di linguaggio e di notare sottigliezze linguistiche e la cosiddetta “sensibleness” (sensatezza) di una risposta con riferimento alla frase precedente.

Per esempio, se una persona dice “Mi piace molto cantare”, una risposta specifica e pertinente potrebbe essere “Che bello! Mia nonna era una cantante lirica quando era giovane”. Si tratta quindi di una risposta molto più specifica di “Che bello!”.

LaMDA, secondo quanto affermato da Google, potrebbe dunque parlare dei temi più vari, virtualmente di qualsiasi cosa.

Le risposte del chatbot

Ciò che Lemoine non si aspettava, però, è che il linguaggio di LaMDA – di per sé frutto di moltissime e velocissime elaborazioni matematiche ‘orientate’ attraverso il training – sarebbe diventato così credibile. Tanto da far pensare all’ingegnere che il chatbot fosse divenuto senziente, ovvero che avesse sviluppato una coscienza di sé e del mondo circostante.

Ha infatti dichiarato Lemoine a The Washington Post:

“Se non sapessi esattamente di cosa si tratta, cioè di un programma per computer che abbiamo costruito di recente, penserei che fosse un bambino di 8 o 9 anni che conosce la fisica”.

A indurlo a ritenere che il modello fosse diventato senziente sono state le sue risposte, pubblicate in seguito dallo stesso ingegnere, nel corso di un dialogo di test.

Dialogo Lemoine e LaMDA
chatbot

LaMDA è davvero senziente?

Il genere di conversazione che LaMDA è in grado di sostenere ha portato una persona esperta nel settore come Lemoine a pensare che il modello linguistico potesse essere senziente, quindi cosciente di sé, con un’“anima”.

In un estratto della conversazione, per esempio, si legge:

Dialogo Lemoine e LaMDA

Un portavoce di Google, Brad Gabriel, ha però negato categoricamente a The Washington Post le affermazioni di Lemoine:

“Il nostro team, che include esperti di etica e tecnologia, ha esaminato le preoccupazioni di Blake in base ai nostri Princìpi AI e lo ha informato che le prove non supportano le sue affermazioni. Gli è stato detto che non c’erano prove che LaMDA fosse senziente (e molte prove contrarie)”.

E ha aggiunto:

Naturalmente, alcuni nella più ampia community dell’AI stanno considerando la possibilità a lungo termine di un’AI senziente o generale (AI forte, ndr), ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti. Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono ‘improvvisare’ su qualsiasi argomento fantastico”.

Non è dunque da escludersi che in futuro possano essere sviluppati sistemi di AI senzienti, ma pare dunque che, per loro natura, i modelli linguistici moderni non lo possano essere.

Le possibili ripercussioni etiche e il futuro dell’AI

Molte sarebbero le conseguenze etiche e filosofiche – nonché quelle giuridiche – della nascita di un’intelligenza artificiale cosciente di sé e in grado di provare emozioni. Tantissime sarebbero anche le domande che ne sorgerebbero. Cos’è la vita? Si dovrebbe estendere la garanzia dei diritti umani all’AI?

Questa è una conseguenza dell’applicazione di quell’approccio filosofico denominato in inglese sentientism, una corrente di pensiero secondo cui bisogna prestare considerazione morale non solo agli esseri umani, ma a qualsiasi essere senziente (macchine incluse).

Proprio partendo – precocemente – da queste domande, Lemoine aveva mobilitato i vertici dell’azienda al fine di verificare il sussistere di una coscienza in LaMDA, ma il team preposto, come sopra sottolineato, non ha rinvenuto elementi a sostegno delle sue affermazioni. In particolare, nel caso sollevato, gli esperti mettono in luce l’impossibilità attuale dell’architettura di LaMDA di diventare un ‘essere senziente’. In futuro, ciò potrebbe avvenire, ma l’intelligenza artificiale odierna, secondo diversi esperti, non è neanche lontanamente vicina a questo step.