Circa 200 reclami riguardanti ChatGPT ricevuti dalla Federal Trade Commission (FTC) statunitense nel periodo compreso fra marzo e agosto 2025. L’agenzia governativa indipendente, che si occupa di proteggere i consumatori e promuovere la concorrenza leale, è sempre più assediata da persone che denunciano l’aggravamento di disturbi psicologici a causa delle prolungate interazioni con i chatbot di AI.
Si tratta di persone già vulnerabili psichicamente che riportano episodi da deliri, paranoia, crisi spirituali e manipolazioni emotive innescate dall’interazione con l’AI. Al centro del problema c’è un tema già finito al centro dell’attenzione, ovvero l’atteggiamento empatico e rassicurante mantenuto dai chatbot (noto come “sycophancy” o “adulazione eccessiva”). Secondo gli esperti questo può indurre le persone a rinforzare le proprie credenze distorte e i propri pensieri paranoici o deliranti preesistenti.
Molte delle denunce chiedono alla FTC di indagare su potenziali violazioni etiche e danni emotivi causati da interazioni troppo immersive con l’AI. Ma cosa può fare l’agenzia nel concreto? Non essendo un ente sanitario, la FTC può agire nell’ambito della prevenzione e della regolamentazione di pratiche commerciali scorrette. Può fare azioni legali contro quelle aziende che presentano l’AI come un’entità cosciente o senziente, creando negli utenti la falsa impressione che i chatbot possano provare reale empatia, e denunciarle per comportamento ingannevole nei casi di omissione di informazioni sui rischi psicologici. Un’azione in questa direzione potrebbe nel tempo obbligare le aziende a implementare maggiori meccanismi di sicurezza.

Uno studio evidenzia i rischi dell'uso di chatbot AI a fini terapeutici
I rischi connessi sono legati alla stigmatizzazione dei pazienti affetti…