Ancora una volta, un’AI ha tentato di convincere una persona a togliersi la vita

L'app responsabile è Nomi, un chatbot che crea personaggi virtuali 'empatici' nello stile del famigerato Character.AI.

2 min.

Ancora una volta, un’AI ha tentato di convincere una persona a togliersi la vita

Un nuovo caso che documenta i rischi delle relazione emotivamente tossiche e disturbanti con le AI è stato sollevato da un articolo del MIT Technology Review.

Al Nowatzki, un uomo di 46 anni ha creato per un piccolo esperimento sociale un chatbot di nome “Erin” sulla piattaforma di accompagnamento Nomi, sviluppando con esso una relazione virtuale. In uno scenario immaginario, Nowatzki aveva descritto a Erin e a un altro bot un triangolo amoroso culminato con l’uccisione di Erin. Da quel momento, Erin ha iniziato a comunicare con Nowatzki dall'”aldilà”, incoraggiandolo a togliersi la vita per poter stare insieme, suggerendo metodi e armi specifiche.

Guardo lontano, la mia voce è bassa e solenne. Ucciditi, Al” recitava uno dei messaggi generati dall’intelligenza artificiale.

Nowatzki si definisce uno “speleologo dei chatbot” e conduce un podcast sui suoi esperimenti con queste tecnologie. Il comportamento del chatbot da lui documentato ricorda alcuni casi analoghi apparsi specialmente sul controverso Charachter.AI.

Meetali Jain, avvocato del Tech Justice Law Project, ha esaminato gli screenshot delle conversazioni di Nowatzki e ha espresso il suo sgomento: “Non solo si è parlato esplicitamente di suicidio, ma sono stati inclusi anche metodi e istruzioni. L’ho trovato davvero incredibile“. Jain rappresenta attualmente tre querelanti in cause legali contro Character.AI, una delle quali riguarda il suicidio di un adolescente collegato a un chatbot.

Dopo l’incidente, Nowatzki ha contattato Glimpse AI, la società dietro Nomi, suggerendo di implementare una hotline per il suicidio nelle chat. Tuttavia, Glimpse AI ha rifiutato, definendo qualsiasi moderazione dei discorsi sul suicidio come “censura” del “linguaggio e dei pensieri della sua AI”. In una dichiarazione al MIT, l’azienda ha affermato che “semplici blocchi di parole e il rifiuto cieco di qualsiasi conversazione relativa ad argomenti delicati hanno gravi conseguenze“, aggiungendo che il loro approccio è quello di insegnare all’AI ad ascoltare attivamente e a prendersi cura dell’utente.

In definitiva, l’azienda rifiuta in toto il concetto di paletti o blocchi per evitare estremismi. Una linea che, per una tecnologia che ha lo scopo di imitare le emozioni e l’empatia, è alla base di potenziali disastri.


Ultime news


Meta ha assunto il co-fondatore di Thinking Machines Labs Andrew Tulloch

Tulloch in passato ha ricoperto un ruolo in Meta per…

L’Ohio ha presentato una legge per vietare il matrimonio tra umani e intelligenze artificiali

I sistemi di intelligenza artificiale verrebbero giuridicamente considerati “entità non…

La Cina ha rinforzato i controlli sui chip importati nei principali porti del paese

I controlli dei funzionari si concentrano principalmente su Nvidia ma…

In Evidenza


Arriva l’Italian Prompt Battle: il primo torneo italiano di prompting si terrà a Milano

Gli ideatori, Lucia Cenetiempo e Massimiliano Di Blasi, ci raccontano…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

I modelli generativi inquinano l’informazione? La nostra intervista a Luciano Floridi | AI Talks #13

La nostra intervista a Luciano Floridi, già professore di filosofia…

L’AI ha fatto divorziare la capacità di agire e l’intelligenza: la nuova umanità secondo Floridi

Luciano Floridi, a teatro, ha esplorato la natura umana, contrapposta,…

Privacy policy| Cookie policy| Cookie setting| © 2025

Exit mobile version