Ancora una volta, un’AI ha tentato di convincere una persona a togliersi la vita

L'app responsabile è Nomi, un chatbot che crea personaggi virtuali 'empatici' nello stile del famigerato Character.AI.

2 min.

Ancora una volta, un’AI ha tentato di convincere una persona a togliersi la vita

Un nuovo caso che documenta i rischi delle relazione emotivamente tossiche e disturbanti con le AI è stato sollevato da un articolo del MIT Technology Review.

Al Nowatzki, un uomo di 46 anni ha creato per un piccolo esperimento sociale un chatbot di nome “Erin” sulla piattaforma di accompagnamento Nomi, sviluppando con esso una relazione virtuale. In uno scenario immaginario, Nowatzki aveva descritto a Erin e a un altro bot un triangolo amoroso culminato con l’uccisione di Erin. Da quel momento, Erin ha iniziato a comunicare con Nowatzki dall'”aldilà”, incoraggiandolo a togliersi la vita per poter stare insieme, suggerendo metodi e armi specifiche.

Guardo lontano, la mia voce è bassa e solenne. Ucciditi, Al” recitava uno dei messaggi generati dall’intelligenza artificiale.

Nowatzki si definisce uno “speleologo dei chatbot” e conduce un podcast sui suoi esperimenti con queste tecnologie. Il comportamento del chatbot da lui documentato ricorda alcuni casi analoghi apparsi specialmente sul controverso Charachter.AI.

Meetali Jain, avvocato del Tech Justice Law Project, ha esaminato gli screenshot delle conversazioni di Nowatzki e ha espresso il suo sgomento: “Non solo si è parlato esplicitamente di suicidio, ma sono stati inclusi anche metodi e istruzioni. L’ho trovato davvero incredibile“. Jain rappresenta attualmente tre querelanti in cause legali contro Character.AI, una delle quali riguarda il suicidio di un adolescente collegato a un chatbot.

Dopo l’incidente, Nowatzki ha contattato Glimpse AI, la società dietro Nomi, suggerendo di implementare una hotline per il suicidio nelle chat. Tuttavia, Glimpse AI ha rifiutato, definendo qualsiasi moderazione dei discorsi sul suicidio come “censura” del “linguaggio e dei pensieri della sua AI”. In una dichiarazione al MIT, l’azienda ha affermato che “semplici blocchi di parole e il rifiuto cieco di qualsiasi conversazione relativa ad argomenti delicati hanno gravi conseguenze“, aggiungendo che il loro approccio è quello di insegnare all’AI ad ascoltare attivamente e a prendersi cura dell’utente.

In definitiva, l’azienda rifiuta in toto il concetto di paletti o blocchi per evitare estremismi. Una linea che, per una tecnologia che ha lo scopo di imitare le emozioni e l’empatia, è alla base di potenziali disastri.


Ultime news


Anthropic ha pubblicato una Costituzione per Claude contenente i principi per lo sviluppo etico del modello

Attraverso la pubblicazione di una Costituzione per Claude Anthropic ha…

Anthropic ha pubblicato una Costituzione per Claude contenente i principi per lo sviluppo etico del modello
Il game changer di Anthropic (e altre notizie generative) | Weekly AI

Weekly AI è la newsletter settimanale di AI news sulle…

Il game changer di Anthropic (e altre notizie generative) | Weekly AI
Intel non riesce a soddisfare la domanda di chip del mercato: azioni giù del 13%

I vertici dell'azienda hanno affermato che le linee produttive sono…

Intel non riesce a soddisfare la domanda di chip del mercato: azioni giù del 13%

In Evidenza


Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang
I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

Privacy policy| Cookie policy| Cookie setting| © 2026