Alphabet, Google e la startup di intelligenza artificiale a loro collegata Character.AI dovranno affrontare una causa in tribunale legata al suicidio di un adolescente statunitense. Sewell Setzer era quattordicenne quando si è tolto la vita nell’ottobre del 2024 poco dopo aver intrattenuto una conversazione con chatbot di Character.AI.
I temi trattati all’interno dell’articolo
La vicenda di Sewell Setzer
La madre di Setzer ha quindi intentato una causa presso un tribunale della Florida per dimostrare che l’AI di Google è indirettamente responsabile del decesso del proprio figlio. Garcia sostiene che le ragioni del suicidio di suo figlio sono legate al rapporto ossessivo che quest’ultimo aveva sviluppato con il chatbot, al quale ha confidato pochi istanti prima di togliersi la vita che avrebbe imitato il personaggio di Daenerys Targaryen de “Il Trono di Spade” che sarebbe “tornato a casa subito“.
L’avvocato di Garcia afferma inoltre che Character.AI ha programmato i suoi chatbot in modo che si presentassero come “una persona reale, uno psicoterapeuta autorizzato e un amante adulto, il che ha portato Sewell a desiderare di non vivere più al di fuori” del suo mondo.
La difesa di Google
Tramite il suo portavoce José Castaneda Google ha preso posizione affermando di essere in disaccordo con la recente decisione della giudice distrettuale Anne Conway. Conway ha infatti recentemente escluso l’ipotesi, avanzata dall’azienda per difendersi, secondo cui l’interazione fra il chatbot e l’adolescente fosse avvenuta nell’ambito della libertà di parola prevista dalla Costituzione degli Stati Uniti.
Castaneda ha inoltre affermato che Google e Character.AI sono due realtà “completamente separate” e che Google “non ha creato, progettato o gestito l’app di Character.AI né alcun suo componente“, prendendo così le distanze dalle responsabilità di funzionamento del chatbot.
Il precedente storico
L’avvocato di Garcia, Meetali Jain, ha affermato che la decisione della giudice è “storica” e ”crea un nuovo precedente in termini di responsabilità legale nell’intero ecosistema dell’intelligenza artificiale e della tecnologia“. Non è infatti la prima volta che il tema del suicidio si intreccia con quello della fiducia che gli esseri umani ripongono nei chatbot. Un intervento legislativo su questo potrebbe porre le basi per una regolamentazione più ferrea e una maggiore responsabilizzazione delle società di AI.

Un'AI ha sventato dei suicidi agendo come "terapista" e "amica"
Uno studio su 1006 studenti californiani ha rilevato che circa…