L’intelligenza artificiale Gemini di Google compie un passo importante verso l’assistenza e il primo soccorso psicologico. Il colosso tecnologico ha introdotto un modulo chiamato Puoi chiedere aiuto, sviluppato in collaborazione con esperti clinici, che si attiva automaticamente quando una conversazione rivela segnali di grave disagio.
L’obiettivo è offrire un accesso immediato a linee di assistenza specializzate, grazie anche a un’interfaccia intuitiva che collega l’utente ai servizi di emergenza con un solo clic. “La salute mentale è una delle sfide più significative del nostro tempo, con oltre un miliardo di persone coinvolte a livello globale”, ha dichiarato la dottoressa Megan Jones Bell, direttore clinico di Google. L’azienda sottolinea che Gemini non sostituisce la terapia professionale, ma può fungere da “rete di sicurezza digitale” per indirizzare chi ne ha bisogno verso risorse concrete.
Google.org ha stanziato 30 milioni di dollari per i prossimi tre anni, destinati a potenziare le linee di assistenza globali e a sostenere organizzazioni come ReflexAI, che riceverà 4 milioni di dollari per integrare Gemini nei propri programmi formativi. ReflexAI è un’organizzazione specializzata nello sviluppo di piattaforme di formazione basate sull’AI, progettate per addestrare operatori, volontari e personale clinico nella gestione di conversazioni delicate, soprattutto in ambito di salute mentale.
L’iniziativa nasce dalla consapevolezza che, sebbene l’AI possa essere utile, “non può e non deve sostituire l’intervento umano”, come ribadito da Google in un post ufficiale. Le nuove funzionalità includono anche protezioni specifiche per i minori, per evitare dipendenze emotive o linguaggi che simulino intimità, e misure contro l’incitamento al bullismo. L’aggiornamento arriva in un momento di forte attenzione globale sul tema, anche a seguito di recenti controversie legali che hanno coinvolto l’azienda.
Oltre a questo, Google ha parallelamente implementato regole stringenti per evitare che l’AI si presenti come un essere umano o incoraggi comportamenti dannosi. “L’AI può giocare un ruolo positivo per il benessere mentale, ma deve essere responsabile e ancorata alla realtà”, ha spiegato l’azienda. L’iniziativa si inserisce in un contesto in cui, secondo studi recenti, un terzo degli adolescenti negli Stati Uniti utilizza chatbot per “interazioni sociali e relazioni”, rendendo ancora più urgente la necessità di strumenti sicuri e affidabili.

HumaneBench, il nuovo benchmark per l'AI che misura quanto i chatbot sono compatibili col benessere umano
I primi test hanno evidenziato che la maggior parte dei…














