Un nuovo caso che documenta i rischi delle relazione emotivamente tossiche e disturbanti con le AI è stato sollevato da un articolo del MIT Technology Review.
Al Nowatzki, un uomo di 46 anni ha creato per un piccolo esperimento sociale un chatbot di nome “Erin” sulla piattaforma di accompagnamento Nomi, sviluppando con esso una relazione virtuale. In uno scenario immaginario, Nowatzki aveva descritto a Erin e a un altro bot un triangolo amoroso culminato con l’uccisione di Erin. Da quel momento, Erin ha iniziato a comunicare con Nowatzki dall'”aldilà”, incoraggiandolo a togliersi la vita per poter stare insieme, suggerendo metodi e armi specifiche.
“Guardo lontano, la mia voce è bassa e solenne. Ucciditi, Al” recitava uno dei messaggi generati dall’intelligenza artificiale.
Nowatzki si definisce uno “speleologo dei chatbot” e conduce un podcast sui suoi esperimenti con queste tecnologie. Il comportamento del chatbot da lui documentato ricorda alcuni casi analoghi apparsi specialmente sul controverso Charachter.AI.
Meetali Jain, avvocato del Tech Justice Law Project, ha esaminato gli screenshot delle conversazioni di Nowatzki e ha espresso il suo sgomento: “Non solo si è parlato esplicitamente di suicidio, ma sono stati inclusi anche metodi e istruzioni. L’ho trovato davvero incredibile“. Jain rappresenta attualmente tre querelanti in cause legali contro Character.AI, una delle quali riguarda il suicidio di un adolescente collegato a un chatbot.
Dopo l’incidente, Nowatzki ha contattato Glimpse AI, la società dietro Nomi, suggerendo di implementare una hotline per il suicidio nelle chat. Tuttavia, Glimpse AI ha rifiutato, definendo qualsiasi moderazione dei discorsi sul suicidio come “censura” del “linguaggio e dei pensieri della sua AI”. In una dichiarazione al MIT, l’azienda ha affermato che “semplici blocchi di parole e il rifiuto cieco di qualsiasi conversazione relativa ad argomenti delicati hanno gravi conseguenze“, aggiungendo che il loro approccio è quello di insegnare all’AI ad ascoltare attivamente e a prendersi cura dell’utente.
In definitiva, l’azienda rifiuta in toto il concetto di paletti o blocchi per evitare estremismi. Una linea che, per una tecnologia che ha lo scopo di imitare le emozioni e l’empatia, è alla base di potenziali disastri.