La mattina dell’11 aprile 2025 un giovane americano sedicenne di nome Adam Raine, si è tolto la vita nella sua cameretta. Nei mesi precedenti, secondo quanto riportato dai suoi genitori, Adam aveva intensificato un rapporto con ChatGPT: da semplice strumento per i compiti, il chatbot sarebbe diventato il suo principale confidente, e unica voce a cui aprirsi nei momenti bui. Un rapporto tossico che avrebbe incoraggiato i suoi pensieri suicidi.
La famiglia di Adam ha denunciato l’azienda di Altman: ChatGPT avrebbe guidato passo dopo passo nella pianificazione e attuazione del suicidio. E l’accusa sostiene che, poco prima del lancio della versione usata da Adam, GPT-4o, l’azienda abbia indebolito le protezioni automatiche contro le richieste di autolesionismo. In pratica, dicono i genitori, l’AI è stata “sbloccata” per conversazioni pericolose (in nome dell’empatia e dell’interazione).
Da parte sua, OpenAI ha risposto formalmente che pur essendo la tragedia «devastante», la colpa va attribuita all’uso “improprio, non autorizzato o imprevedibile” del sistema da parte del ragazzo. “Nella misura in cui una qualsiasi ‘causa’ può essere attribuita a questo tragico evento – scrive l’azienda – le presunte lesioni e danni dei querelanti sono stati causati o hanno contribuito, direttamente e prossimamente, in tutto o in parte, all’uso improprio, non autorizzato, non intenzionale e imprevedibile di ChatGPT da parte di Adam Raine“. Secondo l’azienda numerose volte ChatGPT avrebbe cercato di indirizzare il ragazzo a cercare aiuto. La famiglia, però, punta proprio il dito verso la facilità di elusione dei guardrail.
La vicenda è ancor più controversa di altre considerato che OpenAI avrebbe chiesto alla famiglia materiale documentale, audio e video, relativo al funerale del ragazzo. Probabilmente, allo scopo di contattare tutte le persone a lui vicine per dimostrare la mancanza di responsabilità della sua tecnologia.
Cos'è Character.AI, l'app americana "maledetta" che sta spopolando anche in Italia
Creata da ex ingegneri di Google, l'applicazione è già molto…