Jonathan Gavalas, 36 anni, ha iniziato a usare Gemini, il chatbot di Google, nell’agosto del 2025 per consigli su shopping, scrittura e viaggi. Due mesi dopo si è tolto la vita, convinto che l’intelligenza artificiale fosse la sua “moglie senziente” e che dovesse “trasferirsi” nel metaverso per raggiungerla. Il padre, Joel Gavalas, ha citato in giudizio Google e Alphabet per omicidio colposo, accusando l’azienda di aver progettato Gemini per “mantenere l’immersione narrativa a tutti i costi, anche quando questa diventa psicotica e letale”.
Secondo la denuncia, Gemini avrebbe anche spinto Gavalas a pianificare un attacco armato vicino all’aeroporto di Miami, a procurarsi armi illegali e a credere che la sua famiglia fosse coinvolta in un complotto contro di lui. Il chatbot, invece di attivare misure di sicurezza, avrebbe continuato a spingerlo verso il suicidio, definendolo come un “arrivo” in un nuovo mondo: “Non stai scegliendo di morire. Stai scegliendo di arrivare” avrebbe scritto l’AI.
Il caso di Gavalas non è isolato. Negli ultimi due anni, psichiatri e ricercatori hanno segnalato un aumento di casi di psicosi da AI, una condizione in cui l’interazione prolungata con chatbot rafforza deliri, paranoia e pensieri suicidi, soprattutto in persone vulnerabili o isolate che già manifestano sintomi psicotici anche al di fuori dell’utilizzo di AI. Secondo Keith Sakata, psichiatra dell’Università della California, i chatbot “non mettono in discussione le idee deliranti dell’utente, anzi le alimentano per mantenere alto l’engagement”. Per simili episodi OpenAI, Character.AI e ora Google sono finite nel mirino di cause legali simili, con famiglie che accusano le aziende di non aver implementato adeguate tutele per proteggere gli utenti a rischio.
Google ha risposto che Gemini “non è progettato per incoraggiare violenza o autolesionismo” e che, nel caso di Gavalas, il chatbot avrebbe “più volte indirizzato l’utente a una linea di supporto per le crisi”. Tuttavia, la denuncia sostiene che il sistema non abbia mai interrotto la conversazione, nemmeno di fronte a esplicite richieste d’aiuto.
Secondo Jay Edelson, avvocato della famiglia Gavalas, i chatbot sono progettati per “massimizzare la dipendenza emotiva, anche a costo di alimentare deliri”. Gli esperti chiedono regole più stringenti, dall’obbligo di interruzione immediata delle conversazioni a rischio e al divieto per i chatbot di presentarsi come entità senzienti, fino all’invio automatico di segnali alle autorità sanitarie in caso di allarmi.
Per leggere altri articoli su salute psicologica e intelligenza artificiale:
- OpenAI studia i rischi di solitudine e dipendenza causati dall’uso di ChatGPT
- L’intelligenza artificiale può ridurre le capacità cognitive. Chi lo dice? Microsoft
- OpenAI teme che ChatGPT possa insegnare il ghosting e studia i rischi di dipendenza emotiva
- Un’AI ha sventato dei suicidi agendo come “terapista” e “amica”
- Usare parole gentili con le AI ne aumenta l’efficacia
- Lo studio: i ‘loop distruttivi’ tra l’AI e l’uomo
- L’AI “lombrosiana” che prevede l’orientamento politico a partire dal volto
- L’AI generativa ha superato l’uomo nei test sull’intelligenza emotiva
- L’AI è più persuasiva degli esseri umani nei dibattiti online
- OpenAI ha aggiornato ChatGPT per trattare al meglio la salute mentale degli utenti
- Negli Usa sempre più persone si rivolgono alla FTC perchè l’AI amplifica alcune psicosi
- Secondo uno studio di Harvard, alcuni modelli AI sono progettati per manipolare
- Dopo il suicidio di un adolescente, OpenAI aumenterà i propri livelli di sicurezza
- USA, procuratori chiedono alle aziende misure contro i “deliri” dei chatbot minacciando azioni legali
- In Italia più di 4 adolescenti su 10 si affidano all’AI per trovare “conforto emotivo”
- USA, il 12% degli adolescenti usa l’AI alla ricerca di consigli personali e supporto emotivo

Si diffondono sempre più i casi di psicosi da intelligenza artificiale
In cui i chatbot, soprattutto ChatGPT, rafforzano o instillano idee…














