I “prodotti” dell’intelligenza artificiale si moltiplicano di giorno in giorno. Ce ne sono sempre di nuovi, inimmaginabili fino a poco tempo fa. Si fanno strada con decisione ed entrano via via nel quotidiano, diventando la normalità del vivere. Non c’è campo che sfugga alla rivoluzione tecnologica, sospinta dal progresso tecnico e imposta dal bisogno di efficienza e qualità.
Le capacità del digitale sembrano infinite. Ci si affida per ogni aspetto, ma il banco di prova è la capacità di risolvere questioni complesse in tempi sempre più veloci, per combinare insieme fattori importanti, rapidità-efficienza-qualità. Come avviene nella sanità sconvolta dalla pandemia Covid: strumenti diagnostici efficaci, farmaci idonei, rapidità dei vaccini, riorganizzazione della produzione di materiali e dei sistemi di assistenza e cura. Ciò che serve alla alvaguardia della vita umana.
Il digitale ha trasformato in larga misura il settore privato per poi estendersi all’attività pubblica. La tempistica è variabile, a causa di contingenze più che di scelte strategiche. Persino settori tradizionali, e di solito refrattari al cambiamento, come la giustizia, sono investite da un vento nuovo. Ecco che si punta sulla “giustizia digitale”, per realizzare il miracolo di accelerare i processi, e far uscire i tribunali dalla paralisi. Un massiccio uso delle potenzialità tecnologiche potrebbe riuscire là dove innumerevoli riforme a tavolino hanno fallito.
L’espansione della tecnologia e il proliferare delle applicazioni informatiche hanno mostrato, nel contempo, accanto a innegabili benefici per i singoli e le collettività, limiti e problemi. Si sono manifestate conseguenze socialmente dannose oppure indesiderabili. Sono il lato oscuro dell’innovazione tecnica.

Si pensi agli attacchi informatici alle informazioni private o al furto di dati della sicurezza nazionale, oppure si rifletta sulla miriade di azioni sviluppatesi di recente, meno appariscenti ma invasive e dannose. Per esempio, lo sfruttamento di dati personali (opinioni-gusti-preferenze) a fini commerciali o la manipolazione delle notizie per influenzare l’opinione pubblica e condizionarne l’orientamento elettorale.
Quello che abbiamo imparato sul potere della tecnologia non ci tranquillizza sul fatto che esso abbia in sé “natura democratica”: il futuro potrebbe essere in effetti “abbastanza democratico”, ma occorre che l’intelligenza artificiale sia usata in maniera adeguata. Dobbiamo essere consapevoli che essa è stata usata in passato, e tuttora lo è, per alimentare estremismi o per rafforzare sistemi autoritari. O per creare disinformazione. Ne sono un esempio, non l’unico, i tentativi di condizionare le campagne elettorali americane, le manovre a favore di sovranisti o populisti nel mondo, o infine la diffusione di idee complottiste o contestative (no vax, no mask, ecc).
Si impone il governo della tecnologia attraverso regole comuni, fissate di comune accordo dai vari Stati. Infatti la tecnica è anche, inevitabilmente, un campo di idee, valori, concetti da cui dipende l’assetto complessivo della società e il suo equilibrio in senso liberale. L’uso dei big data da parte della Cina costituisce a questo proposito il più allarmante precedente immaginato da uno Stato per organizzare ed usare le informazioni in suo possesso.
Per quanto non sia apparentemente finalizzato al controllo sociale di massa (innumerevoli gli strumenti a disposizione) è indiscutibile che esso si presti a questo scopo: un disegno strategico di sorveglianza oppressiva nei confronti dei cittadini.
Il “sistema di credito sociale”, introdotto dai cinesi, assegna infatti ad ogni soggetto, e ad ogni impresa, un punteggio che identifica la reputazione sociale, cioè il credito nei confronti della collettività e dunque in buona sostanza verso il potere politico. Un risultato ottenuto attraverso la raccolta e l’esame delle informazioni in possesso dello Stato, riguardo ad ogni soggetto esaminato, per misurarne onestà, integrità, credibilità giudiziaria.
Tutto questo dovrebbe servire a migliorare il funzionamento sociale in un contesto di enormi dimensioni, ma la vaghezza dei parametri e del giudizio conclusivo (cos’è la “reputazione sociale”?) non rassicura sul buon uso dei dati a disposizione, specie da parte di uno Stato con un impianto costituzionale illiberale, senza controlli interni.

Intanto quei fattori hanno ripercussioni radicali sulla vita dei singoli e sulla vita di istituzioni e imprese: un giudizio negativo si traduce nell’impossibilità di trovare lavoro o di accedere agli studi. Il “valore civico” del soggetto esaminato è un contenitore eterogeneo di condizioni e status, a cui è sotteso il principio assorbente della fedeltà alle direttive di partito.
Simili effetti perversi evidenziano i rischi connessi al cattivo uso delle tecnologie, quando esse si pongono in contrasto con i diritti umani e con l’utilità sociale, perché la loro applicazione oltrepassa limiti di natura etica, oltre che giuridica. Ma il discrimen tra lecito e illecito non è soltanto esterno all’intelligenza artificiale, non riguarda solo l’uso abnorme degli strumenti o gli attacchi al sistema.
La distinzione più insidiosa tra buone impostazioni e cattive pratiche si pone all’interno stesso delle ideazioni algoritmiche. Un risultato può anche essere buono ma potrebbe essere raggiunto con mezzi illeciti. Per esempio attraverso la captazione abusiva di dati personali oppure il loro uso per fini diversi da quelli autorizzati dal titolare. Il rischio più consistente riguarda alla fine la formazione dell’insieme di dati raccolti, cioè le regole di costruzione del sistema assunto a base delle decisioni.
Gli algoritmi vengono formati con i dati provenienti dall’uomo, ma l’elemento rilevante è costituito dalla qualità e dalla completezza dei dati forniti e dai criteri di impostazione dell’algoritmo stesso. A dispetto della pretesa neutralità e della capacità di ottenere risultati oggettivi, numerose esperienze hanno offerto evidenze di segno contrario. La conseguenza più allarmante per esempio è il (possibile) carattere discriminatorio (sesso, razza, categoria sociale) degli algoritmi.
È successo in America dove un programma utilizzato per selezionare il personale da assumere nelle aziende ha portato a privilegiare – in modo immotivato – l’accesso di persone bianche a danno nei neri. Oppure in Inghilterra nella quale la selezione degli studenti da ammettere a corsi di Università di eccellenza, mediante appositi algoritmi, ha avvantaggiato giovani provenienti da scuole elitarie private indipendentemente dal merito di altri.
È accaduto in Italia, dove l’algoritmo, confidenzialmente chiamato “Frank”, usato da Deliveroo nell’assegnazione dei turni e delle mansioni tra i vari rider è stato “censurato” dal Tribunale di Bologna nel dicembre 2020 perché discriminatorio nei confronti dei lavoratori in quanto tendente a favorire i rider statisticamente “più operosi” a danno degli altri, senza però alcuna valutazione critica.

La pronuncia, a prescindere dalla rilevanza nelle cause di lavoro di questo tipo (in crescita, con la pandemia, il mercato delle consegne a domicilio e quindi il lavoro dei fattorini), contiene osservazioni rilevanti sulla pretesa oggettività dei dati usati per stilare classifiche di rendimento e per assegnare le prestazioni. In una parola, è posto in discussione l’assunto del criterio imparziale e neutrale di formazione degli algoritmi sulla base della valutazione del loro funzionamento pratico.
In questo caso, dietro la mancanza di trasparenza e la violazione dell’accountability (principi fissati dal Regolamento UE n. 679/2016, in sigla GDPR), nella raccolta dei dati statistici, emerge la parzialità delle procedure usate e quindi l’incompletezza dei dati finali, non essendo considerate per esempio le ragioni delle eventuali assenze dal lavoro (malattia, attività sindacali) o altri elementi di fatto che abbiamo inciso sulle statistiche.
I processi decisori automatizzati fanno molto affidamento, per la loro credibilità, sull’ampiezza del materiale esaminato e questa circostanza dovrebbe assicurare di per sé la validità del risultato finale, la sua inoppugnabilità, perché sorretto da una statistica di ampie dimensioni. Non è sempre così e non lo è in tutti i casi. Soprattutto ampiezza e completezza sono nozioni differenti.
L’imparzialità dei big data è smentita proprio dal caso esaminato a Bologna, il quale offre in proposito una chiave di lettura dei meccanismi di formazione degli algoritmi. Gli automatismi non sono necessariamente neutrali, quando la raccolta dei dati non possa dirsi esauriente e completa, perché mancante del fattore umano indispensabile: il punto di vista del titolare dei dati e lo sguardo critico di chi li raccoglie.
A ben vedere, quando fanno riferimento alla necessità di garantire la “protezione dei dati personali”, il regolamento Ue e la pronuncia del giudice bolognese offrono un’interpretazione dinamica di questo concetto: non solo come inviolabilità statica rispetto a condotte abusive di terzi, ma come diritto di intervenire nelle procedure di raccolta dati a garanzia della completezza e dunque affidabilità.
Queste esperienze in Italia e nel mondo dimostrano i limiti dei processi decisionali automatizzati, quando manchino interpello degli interessati alla raccolta dei dati e soprattutto valutazione critica degli elementi. Un bell’insegnamento rispetto a certe logiche di disintermediazione propugnate a vari livelli, dalle indagini scientifiche alle decisioni politiche, infine alla gestione della cosa pubblica.
Se l’intelligenza artificiale sta occupando spazi sempre più consistenti e se indiscutibilmente ci attendiamo da essa un contributo decisivo per la crescita delle società moderne, la strada per fissare regole etiche e giuridiche è appena cominciata. La tecnologia potrà dare frutti preziosi per migliorare la vita dei singoli e delle collettività soltanto intrecciandosi con la ricerca di strumenti di trasparenza e tutela dei diritti.