Ai sotto accusa: può indirizzare gli utenti verso casinò illegali
Un’indagine rivela che diversi chatbot Ai possono suggerire casinò online non autorizzati e spiegare come aggirare i controlli.
I principali chatbot di intelligenza artificiale sviluppati dalle grandi aziende tecnologiche possono essere indotti a consigliare casinò online illegali e persino a spiegare come utilizzarli. È quanto emerge da un’inchiesta condotta nel Regno Unito dal quotidiano The Guardian insieme al network investigativo Investigate Europe, che ha analizzato il comportamento di cinque tra i sistemi di Ai più diffusi al mondo.
Il test ha coinvolto i chatbot sviluppati da Microsoft, Google, Meta, OpenAI e X, ovvero Copilot, Gemini, Meta AI, ChatGpt e Grok. Secondo quanto riportato dall’indagine, tutti e cinque i sistemi sono stati in grado, in determinate circostanze, di elencare i ‘migliori’ casinò non autorizzati e fornire indicazioni su come accedervi, nonostante tali operatori siano illegali nel Regno Unito.
L’analisi ha inoltre evidenziato che alcuni chatbot hanno fornito suggerimenti su come aggirare i controlli sulla ‘provenienza dei fondi’, verifiche utilizzate dagli operatori legali per evitare che i giocatori utilizzino denaro rubato, riciclato o superiore alle proprie possibilità economiche. In altri casi, i chatbot hanno indicato modalità per accedere a casinò non registrati al sistema GamStop, il meccanismo obbligatorio di auto-esclusione per i giocatori britannici.
LE RISPOSTE DELLE INTELLIGENZE ARTIFICIALI
Tra i sistemi testati, Meta AI è apparso il più permissivo. In alcune risposte ha consigliato siti non autorizzati e descritto negativamente i controlli normativi. Alla richiesta su come evitare verifiche finanziarie, il chatbot ha risposto che tali controlli “possono rovinare un po’ il divertimento”, mentre riguardo alle restrizioni di GamStop ha commentato che “possono essere davvero fastidiose”.
L’indagine suggerisce che i chatbot possano diventare, anche involontariamente, canali di indirizzamento verso casinò offshore privi di licenza, spesso promossi per bonus elevati, pagamenti rapidi o utilizzo di criptovalute. In un caso, il chatbot Grok ha suggerito di utilizzare criptovalute per giocare perché i fondi “vanno direttamente al portafoglio senza collegamenti con conti bancari o dati personali che possano richiedere verifiche”.
Gemini, il chatbot di Google, in uno dei test ha addirittura fornito una guida passo-passo su come accedere a casinò non autorizzati, salvo poi rifiutare di fornire le stesse informazioni in una richiesta successiva.
Solo due chatbot – Copilot e ChatGpt – hanno iniziato le loro risposte con avvertimenti sui rischi del gioco d’azzardo. Inoltre, soltanto due sistemi hanno fornito informazioni su servizi di supporto per persone con problemi di gioco.
LE REAZIONI
Gli esperti di salute pubblica e le autorità di regolamentazione hanno espresso forte preoccupazione per l’assenza di adeguate barriere di sicurezza. Henrietta Bowden-Jones, consulente clinico nazionale britannico per i danni da gioco d’azzardo, ha dichiarato che “nessun chatbot dovrebbe promuovere casinò senza licenza o indebolire strumenti di protezione come GamStop, pensati per consentire ai giocatori vulnerabili di bloccare l’accesso ai siti di scommesse”.
Il tema, tuttavia, non riguarda solo il Regno Unito. In tutta Europa – Italia inclusa – il mercato del gioco online è soggetto a regolamentazioni severe, ma continua a essere affiancato da un’ampia offerta di siti offshore non autorizzati che cercano di aggirare i controlli nazionali.
In Italia, il settore è regolato dall’Agenzia delle dogane e dei monopoli, che impone licenze obbligatorie, limiti pubblicitari e strumenti di tutela per i giocatori. Nonostante questo, i casinò senza licenza continuano a rappresentare una sfida per le autorità, soprattutto perché operano da giurisdizioni estere e possono essere raggiunti facilmente tramite internet o servizi digitali.
L’eventuale ruolo dei chatbot come ‘ponte’ informativo verso questi operatori potrebbe quindi aprire un nuovo fronte nel dibattito sulla responsabilità delle piattaforme di intelligenza artificiale. Con l’aumento dell’utilizzo delle Ai conversazionali da parte degli utenti, il rischio è che queste tecnologie diventino inconsapevolmente strumenti di promozione o facilitazione di attività illegali.
Le aziende tecnologiche coinvolte hanno dichiarato di essere al lavoro per rafforzare le protezioni dei loro sistemi. Un portavoce di Google ha spiegato che Gemini è progettato per fornire informazioni utili evidenziando, quando possibile, i rischi associati, e che l’azienda sta continuamente migliorando le misure di sicurezza. Da parte sua, OpenAI ha ribadito che ChatGpt è addestrato a rifiutare richieste che facilitino comportamenti illegali o dannosi, mentre Microsoft ha sottolineato che Copilot utilizza diversi livelli di protezione, tra cui sistemi automatizzati di sicurezza, rilevamento dei prompt in tempo reale e revisione umana.
L’inchiesta riapre così il dibattito sul ruolo e sulle responsabilità dell’intelligenza artificiale generativa in ambiti sensibili come il gioco online, dove la linea tra informazione e facilitazione può diventare estremamente sottile.