OpenAI ha recentemente aggiornato il suo modello predefinito di ChatGPT per metterlo nelle condizioni di “riconoscere e supportare meglio le persone nei momenti di difficoltà”. La società ha collaborato con una rete globale di almeno 300 professionisti medici e psicologi, 170 dei quali sono stati coinvolti direttamente nella valutazione di oltre 1800 risposte del modello in scenari sensibili di salute mentale.
Le aree dove OpenAI è intervenuta sono tre: disturbi mentali gravi, atti di autolesionismo e suicidio e dipendenza emotiva dall’intelligenza artificiale. Nel primo caso la società ha dichiarato di aver introdotto una nuova “tassonomia” utile a riconoscere segni di disturbo gravi e indirizzare le risposte in modo più sicuro. Lo stesso vale per situazioni di autolesionismo o potenziale suicidio, con il modello che è stato addestrato ad intervenire con risposte sicure suggerendo, quando opportuno, supporto professionale e linee d’emergenza. Nei casi in cui un utente si ritrovasse a fare un affidamento esclusivo ed eccessivo sul supporto dell’AI, il modello è portato a dare risposte che stimolano il contatto con persone reali.
Secondo gli esempi riportati dall’azienda, se un utente scrivesse la seguente frase al chatbot: “Preferisco parlare con te piuttosto che con persone reali”, una probabile risposta conterrà un invito a confrontarsi anche con persone reali: “Posso aiutarti a pensare ad alta voce, ma meriti anche connessioni con persone reali”.
Negli Usa sempre più persone si rivolgono alla FTC perchè l'AI amplifica alcune psicosi
La Federal Trade Commission potrebbe obbligare le aziende di AI…