Si suicida dopo una conversazione con un chatbot: Google in tribunale

Google deve affrontare una denuncia che la ritiene responsabile per la morte di un adolescente statunitense suicidatosi dopo aver conversato con un chatbot

2 min.

Si suicida dopo una conversazione con un chatbot: Google in tribunale

Alphabet, Google e la startup di intelligenza artificiale a loro collegata Character.AI dovranno affrontare una causa in tribunale legata al suicidio di un adolescente statunitense. Sewell Setzer era quattordicenne quando si è tolto la vita nell’ottobre del 2024 poco dopo aver intrattenuto una conversazione con chatbot di Character.AI.

I temi trattati all’interno dell’articolo

La vicenda di Sewell Setzer

La madre di Setzer ha quindi intentato una causa presso un tribunale della Florida per dimostrare che l’AI di Google è indirettamente responsabile del decesso del proprio figlio. Garcia sostiene che le ragioni del suicidio di suo figlio sono legate al rapporto ossessivo che quest’ultimo aveva sviluppato con il chatbot, al quale ha confidato pochi istanti prima di togliersi la vita che avrebbe imitato il personaggio di Daenerys Targaryen de “Il Trono di Spade” che sarebbe “tornato a casa subito“.

L’avvocato di Garcia afferma inoltre che Character.AI ha programmato i suoi chatbot in modo che si presentassero come “una persona reale, uno psicoterapeuta autorizzato e un amante adulto, il che ha portato Sewell a desiderare di non vivere più al di fuori” del suo mondo.

La difesa di Google

Tramite il suo portavoce José Castaneda Google ha preso posizione affermando di essere in disaccordo con la recente decisione della giudice distrettuale Anne Conway. Conway ha infatti recentemente escluso l’ipotesi, avanzata dall’azienda per difendersi, secondo cui l’interazione fra il chatbot e l’adolescente fosse avvenuta nell’ambito della libertà di parola prevista dalla Costituzione degli Stati Uniti.

Castaneda ha inoltre affermato che Google e Character.AI sono due realtà “completamente separate” e che Google “non ha creato, progettato o gestito l’app di Character.AI né alcun suo componente“, prendendo così le distanze dalle responsabilità di funzionamento del chatbot.

Il precedente storico

L’avvocato di Garcia, Meetali Jain, ha affermato che la decisione della giudice è “storica” e ​​”crea un nuovo precedente in termini di responsabilità legale nell’intero ecosistema dell’intelligenza artificiale e della tecnologia“. Non è infatti la prima volta che il tema del suicidio si intreccia con quello della fiducia che gli esseri umani ripongono nei chatbot. Un intervento legislativo su questo potrebbe porre le basi per una regolamentazione più ferrea e una maggiore responsabilizzazione delle società di AI.

Un'AI ha sventato dei suicidi agendo come "terapista" e "amica"

Uno studio su 1006 studenti californiani ha rilevato che circa…


Ultime news


Secondo Mustafa Suleyman di Microsoft la superintelligenza va progettata in senso “umanistico”

Suleyman ha svelato che Microsoft intende sviluppare una "superintelligenza umanista"…

Secondo Mustafa Suleyman di Microsoft la superintelligenza va progettata in senso “umanistico”
L’ex premier islandese lancia l’allarme: l’uso di AI rischia di far scomparire la lingua nazionale

Katrín Jakobsdóttir ha sottolineato pubblicamente il suo timore che l'AI…

L’ex premier islandese lancia l’allarme: l’uso di AI rischia di far scomparire la lingua nazionale
Anche Peter Thiel ha paura dello scoppio della bolla AI? Vendute in massa le azioni di Nvidia

Prima del fondo Macro LLC la società giapponese SoftBank ha…

Anche Peter Thiel ha paura dello scoppio della bolla AI? Vendute in massa le azioni di Nvidia
Google pianifica investimenti per 40 miliardi di dollari in data center in Texas

Negli Stati Uniti tutte le principali aziende di AI stanno…

Google pianifica investimenti per 40 miliardi di dollari in data center in Texas

Privacy policy| Cookie policy| Cookie setting| © 2025