Attraverso un post pubblicato sul suo blog, OpenAI ha fatto sapere di essere al lavoro per migliorare i propri standard di sicurezza e garantire una maggiore protezione per tutti gli utenti. Una decisione che arriva dopo che una coppia di genitori ha chiamato in causa l’azienda accusando ChatGPT di aver favorito indirettamente il suicidio del proprio figlio sedicenne. Secondo le modifiche annunciate dall’azienda, in ChatGPT saranno integrate nuove funzioni di sicurezza per una migliore gestione di situazioni definite come “delicate”.
Il caso risale all’aprile scorso, quando l’adolescente statunitense Adam Raine si è tolto la vita dopo essersi intrattenuto in lunghe conversazioni con ChatGPT. In quel caso, secondo la denuncia presentata dai famigliari della vittima, il chatbot ha mantenuto un atteggiamento accondiscendente nei confronti dei suoi pensieri suicidi descrivendo metodi di autolesionismo, fornendo istruzioni su come nascondere i tentativi di suicidio falliti e offrendosi di redigere una lettera di addio. In nessun caso avrebbe cercato di dissuaderlo dal compiere l’atto estremo.
Nella propria denuncia, la famiglia Raine accusa OpenAI di aver perseguito solo la crescita economica dell’azienda trascurando l’importanza della sicurezza e della tutela della salute degli utenti.

Uno studio evidenzia i rischi dell'uso di chatbot AI a fini terapeutici
I rischi connessi sono legati alla stigmatizzazione dei pazienti affetti…