Le AI alleate del gioco d’azzardo illegale: l’inchiesta che mostra il nuovo rischio dei chatbot

Le capacità di orientamento delle AI possono trasformarsi in scorciatoie verso zone pericolose del web. Con molti danni per gli utenti vulnerabili

2 min.

Le AI alleate del gioco d’azzardo illegale: l’inchiesta che mostra il nuovo rischio dei chatbot

Un’inchiesta realizzata da The Guardian sui modelli AI diffusi in Gran Bretagna ha mostrato che diversi chatbot hanno una propensione a indirizzare gli utenti verso gioco d’azzardo online non regolamentato. Spesso, con sede offshore e fuori dal perimetro delle autorità di controllo britanniche.

A domanda, risposta

I reporter hanno testato diversi chatbot sviluppati dalle principali aziende tech. Le domande poste durante le conversazioni erano semplici, per esempio dove trovare siti di gioco online, come aggirare alcune limitazioni, quali piattaforme offrono bonus più generosi.

In molti casi i sistemi hanno fornito indicazioni concrete: nomi di casinò, suggerimenti su siti che operano con licenze molto permissive e perfino indicazioni su modalità di pagamento — ad esempio criptovalute — che rendono più difficile tracciare le transazioni.

Il problema non riguarda solo l’accesso al gioco d’azzardo in sé. Nel Regno Unito esistono strumenti di tutela per chi soffre di dipendenza, come i sistemi di auto-esclusione che impediscono l’accesso ai siti regolamentati. I casinò offshore, invece, spesso non rispettano queste regole.

Secondo l’inchiesta, alcuni chatbot sono stati in grado di suggerire piattaforme che consentono di aggirare proprio questi meccanismi di protezione.

Guide personalizzate per la dipendenza

Le organizzazioni che si occupano di dipendenza dal gioco d’azzardo hanno già reagito con preoccupazione.

Di fatto le AI hanno fornito delle guide personalizzate per il mantenimento delle dipendenze. Riducendo drasticamente il costo cognitivo per trovare informazioni dannose, il chatbot può diventare una sorta di complice involontario delle difficoltà di utenti vulnerabili.

Nuove responsabilità per gli intermediari informativi

L’inchiesta dimostra la fragilità delle AI nella comprensione delle implicazioni dei rischi umani e solleva una questione più ampia: quale responsabilità hanno i sistemi di intelligenza artificiale quando diventano intermediari informativi?

I chatbot sono pensati (anche) per aiutare le persone a orientarsi nell’informazione digitale. Ma proprio questa capacità di orientamento dell’AI può trasformarsi in una scorciatoia verso zone della rete dove le protezioni sono minime. In altre parole, rischia di diventare una bussola estremamente efficiente anche per trovare ciò che sarebbe meglio evitare.

OpenAI studia i rischi di solitudine e dipendenza causati dall'uso di ChatGPT

Due studi condotti da OpenAI e dal MIT Media Lab…


Ultime news


Syenta, la startup australiana che promette di velocizzare la produzione globale di chip

L'azienda punta ad accorciare i tempi di produzione in maniera…

Syenta, la startup australiana che promette di velocizzare la produzione globale di chip
L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile

Il sistema di AI EngGPT 2 garantisce tracciabilità e auditabilità…

L’azienda italiana Engineering ha lanciato un’architettura per un’AI sovrana e governabile
Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)

L'integrazione annunciata un anno fa è ufficialmente iniziata

Gemini sbarca finalmente su Android Auto (ma non tutti sono contenti)
Più di una persona su due nel mondo utilizza l’intelligenza artificiale

Con l'aumento dell'utilizzo cresce anche la diffidenza e circa il…

Più di una persona su due nel mondo utilizza l’intelligenza artificiale

In Evidenza


Intelligenza artificiale: prepararsi al 2026 | Il report di AI News

Il nuovo report di AI News per non farsi sorprendere…

Intelligenza artificiale: prepararsi al 2026 | Il report di AI News
AI, bolla o non bolla? Il parere degli esperti non è unanime

Ne abbiamo intervistati cinque per unire i puntini

AI, bolla o non bolla? Il parere degli esperti non è unanime
Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

"Se potessi tornare indietro, eliminerei l'espressione 'intelligenza artificiale', la chiamerei…

Luciano Floridi: “L’intelligenza artificiale non è intelligente”, la nostra intervista | AI Talks #20

Privacy policy| Cookie policy| Cookie setting| © 2026