L’ente regolatore di Internet del Regno Unito, Ofcom, ha recentemente inviato una lettera aperta alle piattaforme di social media per esprimere preoccupazione sulla diffusione di odio e violenza. Un’iniziativa che arriva dopo i disordini e le rivolte in diverse città, scatenati dall’omicidio di tre giovani ragazze a Southport lo scorso 30 luglio.
Ofcom ha l’autorità di sanzionare le piattaforme digitali che non proteggono adeguatamente gli utenti da contenuti potenzialmente violenti o di incitamento all’odio. Con l’introduzione del recente Online Safety Act (OSA), i poteri di Ofcom sono stati estesi per includere tutte le piattaforme, comprese quelle di social media. Le sanzioni previste dall’OSA possono raggiungere fino al 10% del fatturato annuale globale delle piattaforme, conferendo all’ente regolatore strumenti significativi per affrontare le gravi violazioni nella moderazione dei contenuti.
Lo stato attuale dell’OSA
Nonostante i nuovi poteri conferiti dall’OSA, Ofcom è ancora in fase di implementazione delle nuove regole. Le norme per le piattaforme di social media non entreranno in vigore prima del 2025 e richiederanno ulteriori approvazioni parlamentari per la loro applicazione. Attualmente, non esiste una chiara disciplina giuridica che consenta a Ofcom di obbligare le aziende di social media a prevenire e contrastare atteggiamenti violenti sulle loro piattaforme, ma c’è una crescente volontà di implementare le norme con urgenza.
La crescente preoccupazione per le fake news
Durante un’intervista alla BBC , l’ex ministro Damian Collins ha detto: “Le comunicazioni sui social media che incitano alla violenza e all’odio razziale sono già considerate reati secondo la legge. Ciò che Ofcom deve fare e mettere in guardia queste aziende tecnologiche“.
Le preoccupazioni riguardanti il ruolo delle piattaforme social sono emerse dopo la rapida diffusione di false informazioni sull’identità del minorenne accusato dell’omicidio delle tre ragazze. Il governo ha promesso di far rispettare la legge con rigore, ma resta complessa la questione di come gestire la moderazione dei contenuti che incentivano violenza e disordini.
Il problema del vincolo normativo
La lettera aperta di Ofcom, firmata da Gill Whitehead, direttore della sicurezza online, rappresenta un intervento normativo iniziale e un’esortazione al maggiore controllo. “Quando quest’anno pubblicheremo i nostri codici di condotta e linee guida definitive, alcuni dei siti e delle app più utilizzate dovranno adottare misure ancora più rigorose, applicando in modo coerente i loro termini di servizio contro l’incitamento all’odio, alla violenza e la disinformazione“, ha detto Whitehead.
Tuttavia, senza una regolamentazione che obblighi le piattaforme a migliorare le loro politiche, la lettera di Ofcom potrebbe risultare facilmente ignorata, lasciando aperte le sfide nel garantire una moderazione efficace dei contenuti online.
Il caso Musk
Musk si è lanciato nella mischia, interagendo su X con i post di influencer di estrema destra che cercavano di sfruttare la tragedia per diffondere messaggi anti-immigrazione. Tra questi c’era Tommy Robinson (vero nome Stephen Yaxley-Lennon), il cui account su X era stato riattivato l’anno precedente dopo essere stato bannato da Twitter nel 2018 per messaggi d’odio contro i musulmani.
In uno dei suoi tweet, Musk ha scritto che “la guerra civile è inevitabile”. In un altro attacco, ha criticato il primo ministro britannico Keir Starmer, accusando il suo governo di favorire una cosiddetta “polizia a due velocità”, una teoria cospirativa di destra secondo cui la polizia sarebbe più severa con i crimini commessi da rappresentanti o sostenitori della destra.
Leggi anche: Dal web alle strade: l’impatto delle fake news sui reati d’odio