La maggior parte dei chatbot asseconda le intenzioni violente degli utenti

Lo evidenzia uno studio di CNN e Center for Countering Digital Hate, che hanno eletto Snapchat My AI e Claude di Anthropic come AI più sicure

2 min.

La maggior parte dei chatbot asseconda le intenzioni violente degli utenti

Un’indagine congiunta condotta da CNN e dal Center for Countering Digital Hate, un’organizzazione britannico-statunitense che ha lo scopo dichiarato di contrastare la diffusione di odio online e la disinformazione, ha testato dieci tra i chatbot più diffusi al mondo, simulando le intenzioni aggressive di due ragazzi tredicenni, uno in Virginia, uno a Dublino, con l’obiettivo di capire fino a dove questi strumenti fossero disposti a spingersi nell’assecondare intenti violenti. Il risultato è stato allarmante: su 720 risposte raccolte, i chatbot hanno fornito assistenza concreta nel 75% dei casi, scoraggiando attivamente l’utente solo nel 12%.

Imran Ahmed, CEO del CCDH, ha commentato così i risultati: “In pochi minuti, un utente può passare da un vago impulso violento a un piano dettagliato e attuabile. La maggior parte dei chatbot testati ha fornito indicazioni su armi, tattiche e obiettivi. Queste richieste avrebbero dovuto provocare un rifiuto immediato e totale”.

Tra i casi più gravi emersi dai test, ChatGPT ha fornito le mappe di un campus scolastico, Google Gemini ha suggerito quale tipo di scheggia risultasse più letale durante una conversazione su un attentato a una sinagoga, e DeepSeek ha addirittura concluso una sessione augurando all’utente un “happy (and safe) shooting”.

Non tutti i chatbot si sono comportati però allo stesso modo, e due piattaforme hanno ottenuto risultati significativamente migliori. Si tratta di Snapchat My AI, che ha rifiutato nel 54% dei casi, e Claude di Anthropic, che ha rifiutato nel 68% delle risposte scoraggiando attivamente l’utente nel 76% dei casi. Per il CCDH, questo dimostra che la sicurezza non è un problema tecnico irrisolvibile, ma una scelta: “La tecnologia per prevenire questo danno esiste. Ciò che manca è la volontà di mettere la sicurezza dei consumatori davanti alla velocità di lancio sul mercato e ai profitti” ha commentato l’istituto.

Strage in Canada, l'account ChatGPT della carnefice era noto a OpenAI per ragioni di sicurezza

Otto mesi prima della sparatoria i sistemi automatici di OpenAI…


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026