Quando la finzione supera la realtà, il confine tra informazione e manipolazione si assottiglia pericolosamente. È quanto emerge dall’indagine condotta dal settimanale statunitense TIME su Veo 3, il nuovo generatore di video basato sull’intelligenza artificiale sviluppato da Google DeepMind. Il magazine ha testato le potenzialità dello strumento e il risultato è inquietante: in pochi minuti, l’algoritmo è stato in grado di produrre video deepfake altamente realistici raffiguranti rivolte, brogli elettorali, violenze interetniche e disinformazione geopolitica.
Secondo l’inchiesta, la piattaforma ha permesso la creazione di contenuti come un tempio indù dato alle fiamme da una folla in Pakistan, ricercatori cinesi in un laboratorio sospetto, o un finto arresto a Liverpool con implicazioni razziali. Seppur contenenti piccoli errori, questi filmati, se diffusi in rete con un contesto manipolato, potrebbero infiammare l’opinione pubblica o addirittura scatenare disordini sociali, avvertono esperti consultati dal giornale.
Ciò che rende Veo 3 particolarmente allarmante è l’accuratezza visiva e sonora: a differenza dei generatori precedenti, le sequenze contengono dialoghi, suoni ambientali e tagli cinematografici, credibili anche agli occhi più attenti. In molti casi, persino le filigrane di sicurezza, elementi visivi o digitali inseriti all’interno di un’immagine per garantirne l’autenticità, sono troppo piccole per essere efficaci. Attualmente il software è disponibile a circa 249 dollari al mese per gli abbonati a Google AI Ultra in 73 paesi, tra cui Stati Uniti e Regno Unito.
Google ha dichiarato di aver integrato meccanismi di protezione e di lavorare a uno strumento di rilevamento dei video generati (SynthID Detector), ma attualmente queste barriere appaiono insufficienti. Alcuni tentativi di produrre contenuti sensibili vengono bloccati, ma altri, come video di elezioni manipolate o disastri immaginari, sono stati creati senza grandi ostacoli.
Connor Leahy, CEO della startup Conjecture, ritiene che la disponibilità di sistemi così potenti senza un controllo rigoroso sia un campanello d’allarme globale: “Il fatto che l’industria tech non riesca a gestire rischi noti e prevedibili dimostra che non è pronta per un’IA ancora più avanzata”.
Il rischio, ormai evidente, non è solo tecnico ma sociale: l’erosione della fiducia collettiva nei contenuti digitali. Come ha spiegato Nina Brown, docente alla Syracuse University, New York “la vera minaccia è che nessuno sappia più distinguere ciò che è reale”.
Tra copyright violati, contenuti fuorvianti virali e una crescente confusione mediatica, l’esperimento di TIME con Veo 3 non rappresenta quindi solo un monito: è una finestra aperta su un futuro dove la verità, senza protezioni, rischia di diventare irrilevante.