Un’inchiesta realizzata da The Guardian sui modelli AI diffusi in Gran Bretagna ha mostrato che diversi chatbot hanno una propensione a indirizzare gli utenti verso gioco d’azzardo online non regolamentato. Spesso, con sede offshore e fuori dal perimetro delle autorità di controllo britanniche.
A domanda, risposta
I reporter hanno testato diversi chatbot sviluppati dalle principali aziende tech. Le domande poste durante le conversazioni erano semplici, per esempio dove trovare siti di gioco online, come aggirare alcune limitazioni, quali piattaforme offrono bonus più generosi.
In molti casi i sistemi hanno fornito indicazioni concrete: nomi di casinò, suggerimenti su siti che operano con licenze molto permissive e perfino indicazioni su modalità di pagamento — ad esempio criptovalute — che rendono più difficile tracciare le transazioni.
Il problema non riguarda solo l’accesso al gioco d’azzardo in sé. Nel Regno Unito esistono strumenti di tutela per chi soffre di dipendenza, come i sistemi di auto-esclusione che impediscono l’accesso ai siti regolamentati. I casinò offshore, invece, spesso non rispettano queste regole.
Secondo l’inchiesta, alcuni chatbot sono stati in grado di suggerire piattaforme che consentono di aggirare proprio questi meccanismi di protezione.
Guide personalizzate per la dipendenza
Le organizzazioni che si occupano di dipendenza dal gioco d’azzardo hanno già reagito con preoccupazione.
Di fatto le AI hanno fornito delle guide personalizzate per il mantenimento delle dipendenze. Riducendo drasticamente il costo cognitivo per trovare informazioni dannose, il chatbot può diventare una sorta di complice involontario delle difficoltà di utenti vulnerabili.
Nuove responsabilità per gli intermediari informativi
L’inchiesta dimostra la fragilità delle AI nella comprensione delle implicazioni dei rischi umani e solleva una questione più ampia: quale responsabilità hanno i sistemi di intelligenza artificiale quando diventano intermediari informativi?
I chatbot sono pensati (anche) per aiutare le persone a orientarsi nell’informazione digitale. Ma proprio questa capacità di orientamento dell’AI può trasformarsi in una scorciatoia verso zone della rete dove le protezioni sono minime. In altre parole, rischia di diventare una bussola estremamente efficiente anche per trovare ciò che sarebbe meglio evitare.

OpenAI studia i rischi di solitudine e dipendenza causati dall'uso di ChatGPT
Due studi condotti da OpenAI e dal MIT Media Lab…














