Google ha introdotto un nuovo modulo di salute mentale e sicurezza in Gemini

La funzione, denominata "Puoi chiedere aiuto", si attiva automaticamente quando una conversazione rivela segnali di grave disagio

2 min.

Google ha introdotto un nuovo modulo di salute mentale e sicurezza in Gemini

L’intelligenza artificiale Gemini di Google compie un passo importante verso l’assistenza e il primo soccorso psicologico. Il colosso tecnologico ha introdotto un modulo chiamato Puoi chiedere aiuto, sviluppato in collaborazione con esperti clinici, che si attiva automaticamente quando una conversazione rivela segnali di grave disagio.

L’obiettivo è offrire un accesso immediato a linee di assistenza specializzate, grazie anche a un’interfaccia intuitiva che collega l’utente ai servizi di emergenza con un solo clic. “La salute mentale è una delle sfide più significative del nostro tempo, con oltre un miliardo di persone coinvolte a livello globale”, ha dichiarato la dottoressa Megan Jones Bell, direttore clinico di Google. L’azienda sottolinea che Gemini non sostituisce la terapia professionale, ma può fungere da “rete di sicurezza digitale” per indirizzare chi ne ha bisogno verso risorse concrete.

Google.org ha stanziato 30 milioni di dollari per i prossimi tre anni, destinati a potenziare le linee di assistenza globali e a sostenere organizzazioni come ReflexAI, che riceverà 4 milioni di dollari per integrare Gemini nei propri programmi formativi. ReflexAI è un’organizzazione specializzata nello sviluppo di piattaforme di formazione basate sull’AI, progettate per addestrare operatori, volontari e personale clinico nella gestione di conversazioni delicate, soprattutto in ambito di salute mentale.

L’iniziativa nasce dalla consapevolezza che, sebbene l’AI possa essere utile, “non può e non deve sostituire l’intervento umano”, come ribadito da Google in un post ufficiale. Le nuove funzionalità includono anche protezioni specifiche per i minori, per evitare dipendenze emotive o linguaggi che simulino intimità, e misure contro l’incitamento al bullismo. L’aggiornamento arriva in un momento di forte attenzione globale sul tema, anche a seguito di recenti controversie legali che hanno coinvolto l’azienda.

Oltre a questo, Google ha parallelamente implementato regole stringenti per evitare che l’AI si presenti come un essere umano o incoraggi comportamenti dannosi. “L’AI può giocare un ruolo positivo per il benessere mentale, ma deve essere responsabile e ancorata alla realtà”, ha spiegato l’azienda. L’iniziativa si inserisce in un contesto in cui, secondo studi recenti, un terzo degli adolescenti negli Stati Uniti utilizza chatbot per “interazioni sociali e relazioni”, rendendo ancora più urgente la necessità di strumenti sicuri e affidabili.


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026