Dopo alcuni mesi l’Oversight Board di Meta si è espresso su un video fake che era stato pubblicato su Facebook a maggio 2023, in cui il presidente Biden compariva con la nipote Natalie; secondo Meta il filmato rispetta le regole sui contenuti alterati.
Il video, girato nell’ottobre 2022, mostrava il presidente che aveva accompagnato la nipote a votare per la prima volta e le applicava un adesivo sul vestito dopo l’uscita dal seggio con la scritta: “Ho votato”.
Un utente della nota piattaforma ne aveva successivamente condiviso una versione modificata che riproduceva il momento in maniera fuorviante: sembrava infatti che Biden toccasse ripetutamente il seno alla ragazza. Inoltre nella didascalia che accompagnava la clip, il politico veniva definito un “pedofilo malato” e i suoi elettori “mentalmente malati”.
Il caso aveva sollevato diverse polemiche ed era stato sottoposto a verifiche da parte dell’Oversight Board, uno speciale comitato di controllo indipendente composto da esperti esterni a Meta, che ha il compito di supervisionare i contenuti e rilasciare indicazioni in merito a eventuali controversie.
Secondo l’organo di controllo, Facebook (che all’epoca dei fatti non aveva immediatamente rimosso il video) non avrebbe sbagliato, considerato che la manipolazione appare “ovvia” e difficilmente può risultare ingannevole. Nella sua decisione infine, l’Oversight Board afferma che la clip non ha violato le politiche aziendali perché non è stata modificata con strumenti di intelligenza artificiale.
“Tuttavia, il Consiglio – si legge nella nota rilasciata – si ritiene preoccupato dalle attuali norme sui media manipolati nella sua forma attuale, trovandole incoerenti e focalizzate in maniera inappropriata su come i contenuti sono creati piuttosto che su quali danni specifici si mira a prevenire. Meta quindi dovrebbe riconsiderare rapidamente questa politica, dati i molti appuntamenti elettorali del 2024″.
Il rischio infatti è che l’attenzione dei moderatori dei social media si concentri esclusivamente sui deepfake creati con l’IA e che si trascurino altre forme di disinformazione. Inoltre il Consiglio suggerisce a Meta di non rimuove i post manipolati ma di “applicare un’etichetta che indichi che il contenuto è significativamente stratificato e potrebbe ingannare”.
In una dichiarazione, un portavoce della multinazionale creata da Mark Zuckerber, ha affermato che la società “è in fase di revisione delle linee guida e risponderà pubblicamente” entro i prossimi 60 giorni.