Il primo banco di prova sono state le primarie in New Hampshire. Una chiamata robotica con la voce del presidente degli Stati Uniti Joe Biden invitava gli elettori democratici a saltare le urne delle primarie per concentrarsi sulle elezioni di novembre. Sono stati in centinaia a ricevere questo invito, ma non è noto quanti ci hanno creduto e quanti invece hanno scelto comunque di votare. L’esempio del New Hampshire ha sollevato le preoccupazioni dei legislatori, ma anche delle stesse aziende tecnologiche, sempre più nel mirino della politica, della giustizia e degli stessi utenti, che si approcciano con sempre maggiore criticità alle piattaforme e ai social, di cui hanno fatto la fortuna. L’allarme ha spinto 20 tra giganti tech come Microsoft, Meta, Google, Amazon, IBM, Adobe e piattaforme social quali X, Snap, TikTok a siglare un patto contro le deepfake. L’iniziativa presentata a Monaco di Baviera, in Germania, durante la Conferenza per la Sicurezza ha registrato l’adesione del progettista di chip, Arm, e delle società di Intelligenza Artificiale, OpenAI, Anthropic e Stability. Tra i firmatari c’è anche Eleven Labs, la cui tecnologia di clonazione vocale potrebbe essere dietro il falso audio di Biden.
L’accordo è un insieme volontario di principi e impegni da parte delle 20 aziende tech e prende di mira immagini, video e audio generati dall’intelligenza artificiale che potrebbero ingannare volutamente gli elettori sui candidati, sui funzionari elettorali e sul processo di voto; tuttavia non chiede divieti assoluti alla pubblicazione di tali contenuti. “Affermiamo che la tutela dell’integrità elettorale e della fiducia pubblica è una responsabilità condivisa e un bene comune che trascende gli interessi di parte e i confini nazionali”, si legge nel documento a sottolineare l’importanza di un’azione comune, e non solo delle aziende, nella tutela delle democrazie e dei processi che le regolano. L’accordo non specifica come verranno rispettati gli impegni, ma si concentra sulla necessità della trasparenza, di aprire processi educativi e di individuare ed etichettare i contenuti ingannevoli, senza toccare tuttavia il tasto dolente della rimozione. Rimuovere contenuti, durante le campagne elettorali, potrebbe scatenare contestazioni giuridiche e processi di cui tutte le compagnie tech fanno volentieri a meno.
Nel documento di Monaco, ogni azienda si impegna a implementare policy che ha già messo in atto. Meta, TikTok e Google, ad esempio, richiedono agli utenti di rivelare quando pubblicano contenuti realistici generati dall’intelligenza artificiale. TikTok ha vietato le deepfake collegate a personaggi pubblici quando vengono utilizzate per sponsorizzazioni politiche o commerciali. OpenAI non consente che i suoi strumenti vengano utilizzati per campagne politiche, per creare chatbot che si spacciano per candidati o per scoraggiare le persone dal votare. Meta, società madre di Facebook, la piattaforma che insieme a Twitter ha scontato i peggiori attacchi durante le elezioni del 2020 inizierà a etichettare le immagini create con i principali strumenti di intelligenza artificiale, utilizzando marcatori invisibili che si ritrovano nei contenuti IA. Meta richiede inoltre agli inserzionisti di rivelare l’uso dell’intelligenza artificiale negli annunci su elezioni, politica e questioni sociali e impedisce di utilizzare gli strumenti di intelligenza artificiale generativa di Meta per creare annunci.
Quanto dirompente sarà la forza dell’intelligenza artificiale in questo anno elettorale, che vede coinvolte oltre 40 nazioni e più di 4 miliardi di persone, rimane una domanda aperta e in parte senza risposta. I dati di una società di machine learning, Clarity, sono molto preoccupanti a riguardo: in un solo anno i deepfake collegati alla disinformazione elettorale sono in aumento del 900 per cento. Di altro parere sono, invece, i ricercatori dello Stern Center for Business and Human Rights della New York University. Per loro più che i deepfake a dominare il ciclo elettorale saranno ancora “la distribuzione di contenuti falsi, pieni di odio e violenti distribuiti tramite le piattaforme di social media”.