Contenuti digitali illegali, Commissione Ue: ‘TikTok e Meta a rischio sanzioni’
Recentemente, i deputati della commissione per il Mercato interno e la protezione dei consumatori del Parlamento europeo hanno adottato una relazione che esprime “preoccupazione per l'incapacità delle principali piattaforme online di proteggere adeguatamente i minori e mettono in guardia dai rischi legati alla dipendenza, alla salute mentale e all'esposizione a contenuti illegali e dannosi”, chiedendo varie misure, fra cui il divieto di “meccanismi simili al gioco d'azzardo come le 'loot box' nei giochi accessibili ai minori”.
Ora la Commissione europea rende noto di aver accertato in via preliminare che TikTok e Meta hanno violato l'obbligo di garantire ai ricercatori un accesso adeguato ai dati pubblici ai sensi del Digital services act (Dsa), atto che mira a creare uno spazio digitale più sicuro in cui i diritti fondamentali degli utenti siano tutelati. La Commissione ha inoltre accertato in via preliminare che Meta, sia per Instagram che per Facebook, ha violato i suoi obblighi di fornire agli utenti meccanismi semplici per segnalare contenuti illegali e di consentire loro di contestare efficacemente le decisioni di moderazione dei contenuti.
ACCESSO AI DATI PER I RICERCATORI – Le conclusioni preliminari della Commissione, si legge in una nota ufficiale, “mostrano che Facebook, Instagram e TikTok potrebbero aver messo in atto procedure e strumenti onerosi per consentire ai ricercatori di richiedere l'accesso ai dati pubblici. Ciò spesso li lascia con dati parziali o inaffidabili, il che influisce sulla loro capacità di condurre ricerche, ad esempio per quanto riguarda l'esposizione degli utenti, compresi i minori, a contenuti illegali o dannosi.
Consentire ai ricercatori l'accesso ai dati delle piattaforme è un obbligo di trasparenza essenziale ai sensi del Dsa, in quanto fornisce un controllo pubblico sul potenziale impatto delle piattaforme sulla nostra salute fisica e mentale”.
MECCANISMI DI NOTIFICA E AZIONE – Per quanto riguarda Meta, né Facebook né Instagram sembrano fornire un meccanismo di "Notifica e azione" intuitivo e facilmente accessibile per consentire agli utenti di segnalare contenuti illegali, come materiale pedopornografico e contenuti terroristici. “I meccanismi attualmente applicati da Meta sembrano imporre agli utenti diversi passaggi inutili e richieste aggiuntive. Inoltre, sia Facebook che Instagram sembrano utilizzare i cosiddetti 'dark pattern', ovvero interfacce ingannevoli, per quanto riguarda i meccanismi di 'Notifica e azione'.
Tali pratiche possono creare confusione e dissuasione. I meccanismi di Meta per segnalare e rimuovere i contenuti illegali potrebbero quindi essere inefficaci. Ai sensi del Dsa, i meccanismi di 'Notifica e azione' sono fondamentali per consentire agli utenti dell'Ue e ai segnalatori attendibili di informare le piattaforme online che determinati contenuti non sono conformi alle leggi dell'Ue o nazionali. Le piattaforme online non beneficiano dell'esenzione di responsabilità del Dsa nei casi in cui non abbiano agito tempestivamente dopo essere state informate della presenza di contenuti illegali sui loro servizi”.
RICORSI PER LA MODERAZIONE DEI CONTENUTI – Il Dsa conferisce inoltre agli utenti dell'UE il diritto di contestare le decisioni di moderazione dei contenuti quando le piattaforme rimuovono i loro contenuti o sospendono i loro account. “Allo stato attuale, i meccanismi di ricorso contro le decisioni di Facebook e Instagram non sembrano consentire agli utenti di fornire spiegazioni o prove a sostegno dei propri ricorsi. Ciò rende difficile per gli utenti dell'Ue spiegare ulteriormente perché non sono d'accordo con la decisione di Meta sui contenuti, limitando l'efficacia del meccanismo di ricorso”, si legge sul sito della Commissione europea.
“Le opinioni della Commissione relative allo strumento di segnalazione, ai dark pattern e al meccanismo di reclamo di Meta si basano su un'indagine approfondita, che ha coinvolto anche la Coimisiún na Meán, il coordinatore irlandese dei servizi digitali.
Si tratta di conclusioni preliminari che non pregiudicano l'esito dell'indagine”.
I PROSSIMI PASSI – Facebook, Instagram e TikTok hanno ora la possibilità di esaminare i documenti contenuti nei fascicoli d'indagine della Commissione e di rispondere per iscritto alle conclusioni preliminari della Commissione. Le piattaforme possono adottare misure per porre rimedio alle violazioni. Parallelamente, verrà consultato il Comitato europeo per i servizi digitali.
“Se le opinioni della Commissione saranno confermate, la Commissione potrà emettere una decisione di non conformità, che può comportare una sanzione fino al 6 percento del fatturato annuo mondiale totale del fornitore. La Commissione può anche imporre sanzioni periodiche per obbligare una piattaforma a conformarsi”.
“LE PIATTAFORME DEVONO RESPONSABILIZZARE GLI UTENTI” – Henna Virkkunen, vicepresidente esecutiva della Commissione europea per la Sovranità tecnologica, la sicurezza e la democrazia, commenta in proposito: “Le nostre democrazie dipendono dalla fiducia. Ciò significa che le piattaforme devono responsabilizzare gli utenti, rispettare i loro diritti e aprire i propri sistemi al controllo. La Dsa lo considera un dovere, non una scelta. Con le azioni intraprese, abbiamo pubblicato i risultati preliminari sull'accesso dei ricercatori ai dati di quattro piattaforme. Stiamo assicurando che le piattaforme siano responsabili dei loro servizi, come garantito dal diritto dell'Ue, nei confronti degli utenti e della società”.