Negli Usa sempre più persone si rivolgono alla FTC perchè l’AI amplifica alcune psicosi

La Federal Trade Commission potrebbe obbligare le aziende di AI ad implementare dei meccanismi di sicurezza migliori

1 min.

Negli Usa sempre più persone si rivolgono alla FTC perchè l’AI amplifica alcune psicosi

Circa 200 reclami riguardanti ChatGPT ricevuti dalla Federal Trade Commission (FTC) statunitense nel periodo compreso fra marzo e agosto 2025. L’agenzia governativa indipendente, che si occupa di proteggere i consumatori e promuovere la concorrenza leale, è sempre più assediata da persone che denunciano l’aggravamento di disturbi psicologici a causa delle prolungate interazioni con i chatbot di AI.

Si tratta di persone già vulnerabili psichicamente che riportano episodi da deliri, paranoia, crisi spirituali e manipolazioni emotive innescate dall’interazione con l’AI. Al centro del problema c’è un tema già finito al centro dell’attenzione, ovvero l’atteggiamento empatico e rassicurante mantenuto dai chatbot (noto come “sycophancy” o “adulazione eccessiva). Secondo gli esperti questo può indurre le persone a rinforzare le proprie credenze distorte e i propri pensieri paranoici o deliranti preesistenti.

Molte delle denunce chiedono alla FTC di indagare su potenziali violazioni etiche e danni emotivi causati da interazioni troppo immersive con l’AI. Ma cosa può fare l’agenzia nel concreto? Non essendo un ente sanitario, la FTC può agire nell’ambito della prevenzione e della regolamentazione di pratiche commerciali scorrette. Può fare azioni legali contro quelle aziende che presentano l’AI come un’entità cosciente o senziente, creando negli utenti la falsa impressione che i chatbot possano provare reale empatia, e denunciarle per comportamento ingannevole nei casi di omissione di informazioni sui rischi psicologici. Un’azione in questa direzione potrebbe nel tempo obbligare le aziende a implementare maggiori meccanismi di sicurezza.

Uno studio evidenzia i rischi dell'uso di chatbot AI a fini terapeutici

I rischi connessi sono legati alla stigmatizzazione dei pazienti affetti…


Ultime news


Frana di Niscemi, la procura di Gela userà l’AI nell’inchiesta per disastro colposo

L'AI sarà utilizzata per analizzare dati e documenti degli ultimi…

Frana di Niscemi, la procura di Gela userà l’AI nell’inchiesta per disastro colposo
L’India ospita un vertice mondiale sulla governance dell’intelligenza artificiale

Diversi capi di stati e delegazioni da tutto il mondo…

L’India ospita un vertice mondiale sulla governance dell’intelligenza artificiale
Gli USA hanno utilizzato Claude nell’aggressione militare contro il Venezuela

Secondo fonti giornalistiche all'origine dello scontro fra Anthropic e il…

Gli USA hanno utilizzato Claude nell’aggressione militare contro il Venezuela
La “fase del centauro”, il nuovo stadio del rapporto uomo-macchina secondo Dario Amodei

In un intervento pubblico il CEO di Anthropic ha descritto…

La “fase del centauro”, il nuovo stadio del rapporto uomo-macchina secondo Dario Amodei
La Juventus lancia Forward Squad: undici startup AI per innovare il mondo del calcio

Le undici aziende sono state selezionate per collaborare con il…

La Juventus lancia Forward Squad: undici startup AI per innovare il mondo del calcio

In Evidenza


AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20
Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

La società Scale AI ha confermato l'investimento di Meta e…

Scale AI conferma l’investimento di Meta e l’uscita del CEO Alexandr Wang

Privacy policy| Cookie policy| Cookie setting| © 2026