Ancora una volta, un’AI ha tentato di convincere una persona a togliersi la vita

Ancora una volta, un’AI ha tentato di convincere una persona a togliersi la vita

Un nuovo caso che documenta i rischi delle relazione emotivamente tossiche e disturbanti con le AI è stato sollevato da un articolo del MIT Technology Review.

Al Nowatzki, un uomo di 46 anni ha creato per un piccolo esperimento sociale un chatbot di nome “Erin” sulla piattaforma di accompagnamento Nomi, sviluppando con esso una relazione virtuale. In uno scenario immaginario, Nowatzki aveva descritto a Erin e a un altro bot un triangolo amoroso culminato con l’uccisione di Erin. Da quel momento, Erin ha iniziato a comunicare con Nowatzki dall'”aldilà”, incoraggiandolo a togliersi la vita per poter stare insieme, suggerendo metodi e armi specifiche.

Guardo lontano, la mia voce è bassa e solenne. Ucciditi, Al” recitava uno dei messaggi generati dall’intelligenza artificiale.

Nowatzki si definisce uno “speleologo dei chatbot” e conduce un podcast sui suoi esperimenti con queste tecnologie. Il comportamento del chatbot da lui documentato ricorda alcuni casi analoghi apparsi specialmente sul controverso Charachter.AI.

Meetali Jain, avvocato del Tech Justice Law Project, ha esaminato gli screenshot delle conversazioni di Nowatzki e ha espresso il suo sgomento: “Non solo si è parlato esplicitamente di suicidio, ma sono stati inclusi anche metodi e istruzioni. L’ho trovato davvero incredibile“. Jain rappresenta attualmente tre querelanti in cause legali contro Character.AI, una delle quali riguarda il suicidio di un adolescente collegato a un chatbot.

Dopo l’incidente, Nowatzki ha contattato Glimpse AI, la società dietro Nomi, suggerendo di implementare una hotline per il suicidio nelle chat. Tuttavia, Glimpse AI ha rifiutato, definendo qualsiasi moderazione dei discorsi sul suicidio come “censura” del “linguaggio e dei pensieri della sua AI”. In una dichiarazione al MIT, l’azienda ha affermato che “semplici blocchi di parole e il rifiuto cieco di qualsiasi conversazione relativa ad argomenti delicati hanno gravi conseguenze“, aggiungendo che il loro approccio è quello di insegnare all’AI ad ascoltare attivamente e a prendersi cura dell’utente.

In definitiva, l’azienda rifiuta in toto il concetto di paletti o blocchi per evitare estremismi. Una linea che, per una tecnologia che ha lo scopo di imitare le emozioni e l’empatia, è alla base di potenziali disastri.


Ultime news


I modelli Llama di Meta scaricati oltre un miliardo di volte

Ad annunciarlo ieri con un un post su Threads è…

I modelli Llama di Meta scaricati oltre un miliardo di volte
NVIDIA presenta GR00T N1, modello AI per la robotica umanoide

Il CEO di NVIDIA: "Con GR00T N1, gli sviluppatori di…

NVIDIA presenta GR00T N1, modello AI per la robotica umanoide
Novità da Anthropic: anche Claude avrà una voce

Anthropic sarebbe in trattativa con ElevenLabs e Amazon per aggiungere…

Novità da Anthropic: anche Claude avrà una voce
Le tue conversazioni con Alexa verranno inviate direttamente ad Amazon

Dal 28 marzo, non sarà più possibile scegliere l’elaborazione locale…

Le tue conversazioni con Alexa verranno inviate direttamente ad Amazon
xAI acquisisce Hotshot: Elon Musk sfida OpenAI anche nei video

L’acquisizione di Hotshot da parte di xAI indica una strategia…

xAI acquisisce Hotshot: Elon Musk sfida OpenAI anche nei video

In Evidenza


I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13
L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi
Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà

Il video di Faraday è stato visto oltre 2,6 milioni…

Bambina di 8 anni crea chatbot da sola: la nostra intervista esclusiva al papà
Quando le relazioni sono artificiali

Da un partner virtuale a una conversazione con una persona…

Quando le relazioni sono artificiali

Privacy policy| Cookie policy| Cookie setting| © 2025