Il progresso procede, nel nostro tempo, con un ritmo sincopato. L’innovazione segue una moltiplicazione geometrica e non matematica. Nel 1986 cominciarono a vedersi in giro i primi cellulari: erano i Motorola DynaTAC 8000x, pesavano 8 etti e potevano memorizzare 30 numeri di telefono. Per arrivare al primo iPhone ci sono voluti più di vent’anni. Spariscono le tastiere, entriamo nel mondo del touch, ci sono dentro perfino la musica, un GPS e una fotocamera posteriore. Da quel momento in poi l’evoluzione degli smartphone è stata rapidissima e presumiamo non si fermerà mai.
Nel 1991, intanto era nato il World Wide Web. Dieci anni dopo viene creata Wikipedia e poco dopo uno studente nerd a caccia di ragazze s’inventa Facebook. Contemporaneamente al lancio del primo iPhone, Amazon (che ha mosso i primi passi nel 1994) mette in vendita il primo e-book reader. I bitcoin sparigliano il mondo valutario nel 2009. Due anni dopo Apple introduce nelle nostre vite Siri, il primo assistente digitale. Nel 2012 Google annuncia di aver prodotto la prima auto a guida autonoma. Nel ’19 la tecnologia dei telefoni viene spazzata via dall’arrivo del 5G. Mentre il mondo si gode da qualche anno Netflix e le altre piattaforme di streaming, ci si misura con la realtà virtuale e il Metaverso.
Nell’ottobre 2019, Google annuncia di aver raggiunto la quantum supremacy: un processore che obbedisce alle leggi della meccanica quantistica è riuscito a svolgere un’operazione ritenuta impossibile per i computer tradizionali. E tre anni dopo, nel 2022, viene presentato il primo chatbot basato su Intelligenza Artificiale, ChatGPT.
E ora eccoci qui, a capire in che modo possiamo trarre da questa rivoluzione il meglio nel contempo evitando il peggio. Anche e soprattutto pensando alle nuove generazioni, a quei bambini che nasceranno in un mondo permeato da AI.
Dunque: focalizzarsi sui risvolti positivi, tenere a bada quelli negativi. Interessante fare riferimento all’EU Artificial Intelligence Act, la legge europea approvata nel 2024, primo quadro giuridico che affronta i rischi dell’AI e che entra in vigore a pieno regime nel 2025.
Il cosiddetto AI Act elenca una serie di norme che hanno un solo scopo: garantire che i cittadini europei possano fidarsi di ciò che l’AI ha da offrire. E inoltre definisce quattro livelli di rischio:
1) Rischio inaccettabile: i sistemi che contraddicono i valori e i principi fondamentali, come il rispetto della dignità umana, democrazia e stato di diritto, sono vietati o (nel caso della sorveglianza biometrica per motivi di sicurezza) soggetti a restrizioni. Sono proibiti anche i sistemi che manipolano il comportamento umano o che realizzano uno scoring sociale da parte delle autorità pubbliche.
2) Rischio elevato: i sistemi che possono avere un impatto pesante sui diritti o sulla sicurezza delle persone (AI usata per selezione del personale, ammissione all’istruzione, erogazione di servizi sociali essenziali, sorveglianza biometrica a distanza, applicazioni giudiziarie e di polizia, gestione della sicurezza critica delle infrastrutture).
3) Rischio limitato: i sistemi che possono influenzare non in modo significativo i diritti o le volontà degli utenti, che devono essere consapevoli del fatto che interagiscono con un sistema di AI, come avviene con i contenuti audiovisivi (i deepfake) o per dare suggerimenti (come le chatbot).
4) Rischio minimo: i sistemi che non hanno impatto diretto sui diritti o sulla sicurezza delle persone, e che offrono ampi margini di scelta e controllo agli utenti (videogiochi, filtri fotografici, ecc)
L’AI Act dice anche che una volta che un sistema di Intelligenza Artificiale è sul mercato, “le autorità sono responsabili della vigilanza del mercato, gli operatori garantiscono la sorveglianza e il monitoraggio umani e i fornitori dispongono di un sistema di monitoraggio post-commercializzazione. I fornitori e gli operatori segnaleranno anche incidenti gravi e malfunzionamenti”.
Insomma, piano piano ma in modo autorevole, si stanno costruendo gli argini per contenere questo fiume in piena evitando, o almeno cercando di evitare, tracimazioni. Ma, e lo sappiamo tutti, i rischi ci sono, ci sono come in qualunque altro delicato passaggio dell’innovazione tecnologica.