L’Intelligenza Artificiale generativa (AI) è un tipo di Intelligenza Artificiale in grado di produrre vari tipi di contenuti, inclusi testo, immagini, audio, ma anche conversazioni, musica e altri media. L’obiettivo principale dell’Intelligenza Artificiale generativa è dunque creare nuovi contenuti artificiali.
Recentemente, INHOPE (una rete mondiale che associa 25 hotline) ha scoperto che l’utilizzo di questa tecnologia per creare immagini di abusi sessuali su minori, spesso indistinguibili dal materiale di abuso reale, è tutt’altro che sporadica. Le immagini di abusi sessuali su minori generate utilizzando l’Intelligenza Artificiale rappresentano un’area di preoccupazione nuova e crescente e dall’inizio del 2023 le segnalazioni in merito sono sempre più numerose.
L’Internet Watch Foundation ha riferito di aver scoperto più di 20mila immagini create dall’intelligenza artificiale pubblicate su un forum CSAM (Child Sexual Abuse Material) del darkweb in un periodo di un mese e che, di queste, più di 11mila sono state selezionate perché ritenute più a rischio di essere materiale illecito (le restanti 9mila non contenevano bambini oppure pur ritraendoli non erano chiaramente di natura non criminale). La valutazione non è affatto banale: si è giunti a individuare 2.562 pseudo-fotografie criminali e 416 immagini vietate, per un totale di quasi 3mila casi di immagini generate dall’intelligenza artificiale che raffigurano contenuti illegali.
Oltre al numero crescente di questi contenuti, gli analisti hanno anche scoperto manuali online dedicati ad aiutare i criminali a perfezionare le tecniche di addestramento dei sistemi di intelligenza artificiale con l’obiettivo di restituire risultati il più realistici possibile.
Gli autori di tali reati possono scaricare legalmente tutto ciò di cui hanno bisogno per generare queste immagini e produrre quante immagini desiderano, offline, senza alcuna possibilità di essere scoperti e, tra l’altro, esistono vari strumenti per migliorare e modificare le immagini generate finché non appaiono esattamente come si desidera.
Dal momento che la tecnologia per l’Intelligenza Artificiale generativa è in continua evoluzione, non si può prevedere l’intera portata delle implicazioni che potrebbe avere. Tuttavia, ciò che possiamo dire con certezza in questo momento è che questo tipo di contenuti ha un grave impatto sia sulle vittime di materiale pedopornografico sia sul carico di lavoro degli analisti della hot-line che elaborano e rimuovono questi contenuti per prevenire ulteriori vittimizzazioni.
Quindi, se parliamo di minori e Intelligenza Artificiale non possiamo non contemplare questo aspetto: l’AI contribuisce drammaticamente al fenomeno della pedopornografia online. Ma al tempo stesso può essere un valido aiuto proprio nell’individuazione e nell’eliminazione conseguente di contenuti CSAM.
La pervasività dei mondi e degli strumenti digitali, spazi all’interno dei quali le giovani generazioni trascorrono ormai buona parte del loro tempo e della loro vita di relazione, costituisce inevitabilmente un acceleratore di fenomeni sempre più gravi di abuso sessuale: Child Sexual Abuse Material (CSAM) e Child Sexual Exploitation Material (CSEM, definizione più ampia che comprende ogni altra tipologia di materiale a sfondo sessuale raffigurante un soggetto minorenne), ma anche grooming, revenge porn, circolazione incontrollata (e in molti casi incontrollabile) di materiale pornografico e pedopornografico, cui si unisce appunto oggi la potenza delle tecnologie di Intelligenza Artificiale generativa, sono solo alcune delle nuove minacce alle quali quotidianamente bambini e adolescenti sono esposti navigando in rete o sui social, usando sistemi di messaggistica, attraverso il gaming online.
A fronte di questo balzo in avanti della tecnologia e dei nuovi scenari di rischio, è evidente come sia necessario mettere in campo una capacità di reazione altrettanto rapida ed efficace sul tema della tutela della dignità dei minori nel mondo digitale. Si tratta di uno sforzo che riguarda la messa a punto di strumenti sempre nuovi, mettendo la tecnologia stessa al servizio della sicurezza dei minori, a partire da dispositivi efficaci di verifica dell’età di accesso ai servizi e alle piattaforme (age verification), fino a sistemi di controllo e monitoraggio della Rete, di comportamenti criminali e di circolazione di materiale illecito, utilizzando tecnologie sempre più performanti con standard internazionali condivisi e adeguatamente implementati.
Questo sforzo deve essere sostenuto da nuovi impianti normativi che abbiano un respiro globale e da una collaborazione strutturale, in una prospettiva di protezione digitale by design tra istituzioni, organizzazioni della società civile e aziende tecnologiche.
A tutto questo va affiancato un impegno costante in strumenti di formazione e accompagnamento rivolti sia ai ragazzi, che affrontano oggi il mondo della Rete privi di consapevolezza su pericoli e diritti, sia al mondo adulto (genitori, insegnanti, educatori) che è spesso totalmente escluso dai nuovi spazi all’interno dei quali bambini e adolescenti vivono, e dei pericoli che possono incontrare.