OpenAI, la società madre di ChatGPT, ha annunciato di essere al lavoro per apportare una serie di modifiche al chatbot e metterlo nelle condizioni di rilevare meglio il disagio mentale ed emotivo degli utenti, per arrivare a fornire risposte più sensibili ed accurate di fronte a situazioni delicate.
La decisione arriva dopo che negli ultimi mesi diverse testimonianze e report hanno messo in luce come ChatGPT non fosse in grado di contenere il disagio mentale di persone affette da patologie che si rivolgevano ad esso ma anzi, in alcuni casi più estremi, fosse anche responsabile di un aumento dei deliri e del malessere di questi soggetti. Per apportare questo rinnovamento, OpenAI ha convocato un gruppo consultivo composto da esperti di salute mentale, sviluppo giovanile e HCI (interazione uomo-computer).
Oltre a questo, dopo aver ammesso le proprie responsabilità nel non essere stata in grado di “riconoscere segnali di delirio o dipendenza emotiva” in alcuni casi, OpenAI ha anche comunicato di aver apportato una serie di cambiamenti che nell’immediato potrebbero migliorare la situazione. È stato sovrascritto un aggiornamento che aveva reso il chatbot troppo accondiscendente anche in situazioni di particolare pericolo ed introdotto un promemoria che, nei casi di conversazioni troppo prolungate, suggerisce all’utente di prendere una pausa. Infine ChatGPT sarà da subito reso anche meno decisivo in situazioni “ad alto rischio” e dove un utente chiede come deve agire in contesti di difficoltà, presentando diverse opzioni praticabili anziché dare una sola risposta netta.
A breve OpenAI dovrebbe rilasciare il tanto atteso modello aperto GPT-5 ed è possibile che queste novità possano essere contenute già al suo interno e siano a disposizione di tutti gli utenti.
Uno studio evidenzia i rischi dell'uso di chatbot AI a fini terapeutici
I rischi connessi sono legati alla stigmatizzazione dei pazienti affetti…