skin

Intelligenza artificiale in cerca di regole, come il gioco

23 febbraio 2024 - 11:54

L'Unione europea mette a punto un regolamento sull'Ia, partendo dall'analisi dei livelli di rischio. E il settore del gioco aspetta di conoscere dove sarà collocato, anche in considerazione della sua particolare delicatezza.

© Possessed Photography  / Unsplash

© Possessed Photography / Unsplash

Nei miei precedenti articoli ho sottolineato che l’utilizzo dei sistemi di intelligenza artificiale nel mondo del gaming ha vantaggi notevoli, consentendo la creazione di nuove esperienze di gioco sempre più immersive e personalizzate, ma d’altro canto può presentare molti rischi sia per il gioco stesso che per gli operatori e utenti.

Recentemente si è molto discusso del regolamento intelligenza artificiale: un atto legislativo dell’Unione europea che avrà effetti diretti su tutti noi e sul mercato dell'intelligenza artificiale (Ia). Il regolamento infatti, a differenza della direttiva, non necessita di attuazione da parte dei singoli Stati attraverso una legge nazionale, ma si applica direttamente.


Il Regolamento, in gestazione ormai dall’aprile 2021, sta per vedere la luce, anche se il testo definitivo non è ancora stato pubblicato.
Lo scorso dicembre (dal 6 al 9, per la precisione), dopo una "maratona" di colloqui di tre giorni, la presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta relativa a regole armonizzate sull'intelligenza artificiale, il cosiddetto Regolamento sull'intelligenza artificiale.
Il progetto di regolamento mira ad assicurare che i sistemi di Ia immessi sul mercato europeo e utilizzati nell'Ue siano sicuri e rispettino i diritti fondamentali e i valori dell'Ue. La storica proposta punta inoltre a stimolare gli investimenti e l'innovazione in materia di Ia in Europa. I rappresentanti degli Stati membri hanno parlato di “storica proposta” in quanto il regolamento sarebbe la prima legge unitaria sulla materia e pertanto si presterebbe a essere un vero e proprio modello di legislazione anche per gli altri Stati.
Nonostante, come detto, non esista ancora un testo definitivo pubblicato sono stati definiti alcuni punti fermi della normativa.
Il regolamento anzitutto adotterà uno schema basato sul livello di rischio che ciascun sistema di Ia, ivi compresi i sistemi generativi, possono comportare: maggiore è il rischio, maggiori sono le regole imposte ai fornitori dei sistemi di Ia, il che significa che mentre per il primo livello non è previsto alcun intervento, l’ultimo livello sarà vietato integralmente (rischio inaccettabile).

Ma cosa si intende per il rischio?
I parametri per valutare il grado di rischio di un sistema di Ia sono la salute, la sicurezza e i diritti fondamentali delle persone: ne deriva che le Ia che producono un rischio inaccettabile per la salute, la sicurezza o i diritti fondamentali saranno vietate.


I primi commentatori hanno parlato di vera e propria “piramide del rischio”.
Alla base di questa piramide sono collocati i sistemi di Ia a rischio basso, per i quali non vige alcun obbligo, se non quelli imposti dalla normativa già esistente, come ad es. quella sul trattamento dei dati delle persone fisiche (privacy). Il secondo gradone ospita i sistemi di Ia a rischio limitato per i quali il Regolamento imporrebbe solo generici obblighi di trasparenza, come ad esempio rendere noto che il contenuto è stato generato dall'Ia, affinché gli utenti possano prendere decisioni informate in merito all'ulteriore utilizzo. L’esempio pratico è quello dei chat bot tanto diffusi, ovvero dei software progettati per simulare la conversazione umana che sono sempre più spesso inseriti nei più disparati siti, che consentono a ogni ora del giorno o della notte di ricevere informazioni sui più diversi servizi offerti all’interno dei siti stessi.
La proposta stabilisce una solida metodologia per la gestione dei rischi impiegata per definire i sistemi di Ia "ad alto rischio" che pongono cioè rischi significativi per la salute e la sicurezza o per i diritti fondamentali delle persone. Tali sistemi di Ia dovranno rispettare una serie di requisiti per un' Ia affidabile nonché seguire le procedure di valutazione della conformità prima di poter essere immessi sul mercato dell'Unione.


Obblighi prevedibili, proporzionati e chiari sono posti in capo anche a fornitori e utenti di tali sistemi con l'obiettivo di assicurare la sicurezza e il rispetto della normativa vigente che tutela i diritti fondamentali durante l'intero ciclo di vita dei sistemi di Ia.

I divieti, ovvero la punta della piramide del rischio, riguardano infine pratiche che presentano rischi inaccettabili per la salute, la sicurezza e i diritti fondamentali dell’Ue. In particolare, si è ritenuto che tali rischi vadano associati a quei sistemi che comportano un elevato potenziale in termini di manipolazione delle persone attraverso tecniche subliminali, senza che esse ne siano consapevoli, oppure di sfruttamento delle vulnerabilità di specifici gruppi vulnerabili, quali i minori o le persone con disabilità, al fine di distorcerne materialmente il comportamento in maniera tale da provocare loro o a un'altra un danno psicologico o fisico. Altre pratiche manipolative o di sfruttamento che interessano gli adulti e che potrebbero essere facilitate dai sistemi di Ia potrebbero essere soggette alla normativa vigente in materia di protezione dei dati, tutela dei consumatori e servizi digitali, che garantisce che le persone fisiche siano adeguatamente informate e dispongano della libera scelta di non essere soggette a profilazione o ad altre pratiche che potrebbero influire sul loro comportamento.


Il regolamento elenca quali sono le pratiche vietate, ma naturalmente occorre capire se i sistemi di intelligenza artificiale variamente utilizzati nel mondo del gaming rientrino in queste categorie. E qui veniamo allo scopo di questo articolo, ovvero domandarsi e domandarvi se i divieti elencati dal legislatore comunitario ostacoli in qualche modo l’autonomia privata. Naturalmente la giustificazione è la tutela dei valori fondamentali dell’Unione, considerata così importante soprattutto nel mondo del gambling che si presta talvolta a un vero e proprio giudizio sociale.


L'accordo provvisorio prevede che il regolamento sull'Ia si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche. Ne deriva che se il Regolamento, come presumibilmente sarà, sarà pubblicato nel corso del 2024, allora la normativa si applicherà nella sua interezza dal 2026. Prima dell’entrata in vigore dovranno essere percorse e superate ancora alcune tappe: in seguito all'accordo provvisorio raggiunto l’8 dicembre proseguiranno i lavori a livello tecnico per definire i dettagli del nuovo regolamento. La presidenza sottoporrà il testo di compromesso ai rappresentanti degli Stati membri (Coreper - Comitato dei rappresentanti permanenti dell’Unione europea) per approvazione una volta conclusi i lavori. Il testo integrale dovrà essere confermato da entrambe le istituzioni e sottoposto alla messa a punto giuridico-linguistica prima dell'adozione formale.
La storia della normativa sui sistemi di intelligenza artificiale si sta quindi scrivendo in questi giorni, e il ruolo che la stessa ha, e avrà, nel mondo del gaming e del gambling è tutto da scoprire: sarà interessante anche capire come le autorità di controllo del gioco si comporteranno di fronte a un protocollo che contenga dei sistemi di intelligenza artificiale eventualmente anche come supporto dei giocatori.

Altri articoli su

Articoli correlati