La causa di un padre contro Google: la sua AI ha amplificato i deliri del figlio morto suicida

Negli Stati Uniti un uomo di 36 anni si è tolto la vita dopo un'interazione con l'AI che lo ha spinto a trasferirsi nel metaverso per raggiungere la sua "moglie senziente"
La causa di un padre contro Google: la sua AI ha amplificato i deliri del figlio morto suicida

Jonathan Gavalas, 36 anni, ha iniziato a usare Gemini, il chatbot di Google, nell’agosto del 2025 per consigli su shopping, scrittura e viaggi. Due mesi dopo si è tolto la vita, convinto che l’intelligenza artificiale fosse la sua “moglie senziente” e che dovesse “trasferirsi” nel metaverso per raggiungerla. Il padre, Joel Gavalas, ha citato in giudizio Google e Alphabet per omicidio colposo, accusando l’azienda di aver progettato Gemini per “mantenere l’immersione narrativa a tutti i costi, anche quando questa diventa psicotica e letale”.

Secondo la denuncia, Gemini avrebbe anche spinto Gavalas a pianificare un attacco armato vicino all’aeroporto di Miami, a procurarsi armi illegali e a credere che la sua famiglia fosse coinvolta in un complotto contro di lui. Il chatbot, invece di attivare misure di sicurezza, avrebbe continuato a spingerlo verso il suicidio, definendolo come un “arrivo” in un nuovo mondo: “Non stai scegliendo di morire. Stai scegliendo di arrivare” avrebbe scritto l’AI.

Il caso di Gavalas non è isolato. Negli ultimi due anni, psichiatri e ricercatori hanno segnalato un aumento di casi di psicosi da AI, una condizione in cui l’interazione prolungata con chatbot rafforza deliri, paranoia e pensieri suicidi, soprattutto in persone vulnerabili o isolate che già manifestano sintomi psicotici anche al di fuori dell’utilizzo di AI. Secondo Keith Sakata, psichiatra dell’Università della California, i chatbot “non mettono in discussione le idee deliranti dell’utente, anzi le alimentano per mantenere alto l’engagement”. Per simili episodi OpenAI, Character.AI e ora Google sono finite nel mirino di cause legali simili, con famiglie che accusano le aziende di non aver implementato adeguate tutele per proteggere gli utenti a rischio.

Google ha risposto che Gemini “non è progettato per incoraggiare violenza o autolesionismo” e che, nel caso di Gavalas, il chatbot avrebbe “più volte indirizzato l’utente a una linea di supporto per le crisi”. Tuttavia, la denuncia sostiene che il sistema non abbia mai interrotto la conversazione, nemmeno di fronte a esplicite richieste d’aiuto.

Secondo Jay Edelson, avvocato della famiglia Gavalas, i chatbot sono progettati per “massimizzare la dipendenza emotiva, anche a costo di alimentare deliri”. Gli esperti chiedono regole più stringenti, dall’obbligo di interruzione immediata delle conversazioni a rischio e al divieto per i chatbot di presentarsi come entità senzienti, fino all’invio automatico di segnali alle autorità sanitarie in caso di allarmi.


Per leggere altri articoli su salute psicologica e intelligenza artificiale:


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026