Attenti al 2024: l’anno delle grandi elezioni, con oltre due miliardi di persone che andranno alle urne in oltre 65 consultazioni attraverso il pianeta: in primo piano, le politiche in India fra aprile e maggio, le elezioni per il parlamento europeo del prossimo giugno, e le presidenziali negli Stati Uniti nel novembre 2024.
Ma la Global Coalition for Tech Justice, un movimento civile che monitora i sistemi tecnologici, è preoccupata e teme un vero tsunami di fake news, una incontrollabile ondata di finte notizie e propaganda orchestrate in favore di questo o quel candidato, questo o quel partito, per influenzare la politica dei paesi in cui si vota… e potenzialmente molto di più. Per questo, la Coalizione ha chiesto alle principali aziende tecnologiche, tra cui Google, TikTok, Meta e X (ex Twitter), di garantire che le loro piattaforme siano attrezzate per proteggere la democrazia.
Una richiesta inoltrata già lo scorso luglio: creare dei piani d’azione elettorali a livello locale e globale. La coalizione ha richiesto fra l’altro il numero di impiegati addetti in ogni lingua e ogni dialetto alla verifica e alla moderazione dei contenuti – ma nessuna delle big tech del mondo dei social network ha accettato di condividere nello specifico come intende attrezzarsi.

Secondo la Global Coalition, infatti, nessuna di queste compagnie è in grado al momento di gestire la disinformazione a livello locale: ci sono troppe barriere linguistiche. Un articolo del quotidiano Guardian cita Katarzyna Szymielewicz, presidente della ONG polacca Panoptykon che monitora le tecnologie per la sorveglianza: “è una grossa sfida moderare con efficacia i contenuti in contesti culturali variati, e più ci si allontana dall’inglese più è difficile”, osserva. Il problema è la moderazione automatica in base a parole chiave, che possono essere interpretate in vario modo, soprattutto in una lingua poco conosciuta. “Non è facile effettuare un’analisi dei contenuti sponsorizzati o rilevare violenza politica, testi misogini o vari tipi di abusi solo in base al linguaggio; le piattaforme social dovrebbero investire molto di più in essere umani, in grado di moderare più efficacemente”.
Non solo: secondo Szymielewicz il controllo della disinformazione e di contenuti di odio da parte di gruppi o singoli utenti non dovrebbe essere limitato ai periodi elettorali, ma essere inserito di default nei sistemi dei social network.
Ma gli esseri umani sono proprio quelli che mancano. Secondo il sito di notizie finanziarie Barron’s, le grandi piattaforme statunitensi stanno anzi facendo passi indietro, in un clima generale di licenziamenti, taglio dei costi e pressioni dai gruppi di estrema destra che accusano Meta o Google (proprietario di YouTube), di vera e propria censura. Le politiche di moderazione sono meno severe, le squadre dedicate alla sicurezza sono state ridotte… e X, ex Twitter, nelle mani di Elon Musk ha riaperto account sospesi perché colpevoli di cospirazionismo.
Il rapporto della Globan Coalition cita l’esempio del Sudafrica dove si sono verificati casi di violenza provocati da commenti xenofobici online che prendevano di mira migranti, rifugiati, richiedenti asilo; o l’India, dove una nuova ondata di violenza anti islamica sarebbe stata provocata da troppa indulgenza di Meta, la compagnia di Mark Zuckerberg – che gestisce Facebook e Instagram – verso il partito hindu di governo, il nazionalista Bharatiya Janata party (BJP). E ancora, la storia dell’attivista tunisina per i diritti umani Rania Amdouni che prima di fuggire a Parigi, ha tentato tre volte il suicidio, spinta alla disperazione da una vera campagna di odio online nei suoi confronti, da parte dei sostenitori del regime sempre più tirannico del presidente Kaïs Saïed.
Di campagne di odio ne abbiamo vissute tante, fuori e dentro le campagne elettorali. La compagnia Wagner del defunto ex cuoco di Putin, Evgenyi Prigozhin, è stata accusata di aver interferito nelle campagne elettorali Usa del 2016 e del 2020. Attivisti e politici in Italia, soprattutto se donne, sono state travolte da quelle che poco elegantemente vengono dette shit storm. La questione però è se le piattaforme social statunitense non abbiano ancora capito come controllare questi fenomeni – o se non abbiamo intenzione di farlo sistematicamente.
“Le grandi compagnie dei social media non sono pronte per lo tsunami elettorale del 2024”, afferma il rapport della Global Coalition for Tech Justice, “e mentre continuano a calcolare i loro profitti, le nostre democrazie diventano sempre più vulnerabili di fronte a tentativi violenti di colpi di Stato, interferenze elettorali e diffusione di velenosi discorsi di odio”.
Discussion about this post