Founded by Stefano Vaccara

Subscribe for only $6/Year
  • Login
  • Register

Editor in Chief: Giampaolo Pioli

VNY La Voce di New York

The First Italian English Digital Daily in the US

English Editor: Grace Russo Bullaro

  • Home
  • New York
  • Onu
  • News
  • People
  • Arts
  • Lifestyles
  • Food & Wine
  • Travel
  • Sport
  • English Edition
No Result
View All Result
VNY
  • Home
  • New York
  • Onu
  • News
  • People
  • Arts
  • Lifestyles
  • Food & Wine
  • Travel
  • Sport
  • English Edition
No Result
View All Result
VNY La Voce di New York
No Result
View All Result
in
Scienza e Salute
March 13, 2021
in
Scienza e Salute
March 13, 2021
0

Big data e futuro: la strada per la giustizia digitale è appena cominciata

L’intelligenza artificiale migliora la vita quotidiana, ma non è “neutrale” a idee, concetti e valori. Va gestita con trasparenza e tutela dei diritti

Angelo PerronebyAngelo Perrone
Le asimmetrie tra la scienza e la società al tempo del COVID-19

Scienza e Tecnologia (pixabay)

Time: 6 mins read

I “prodotti” dell’intelligenza artificiale si moltiplicano di giorno in giorno. Ce ne sono sempre di nuovi, inimmaginabili fino a poco tempo fa. Si fanno strada con decisione ed entrano via via nel quotidiano, diventando la normalità del vivere. Non c’è campo che sfugga alla rivoluzione tecnologica, sospinta dal progresso tecnico e imposta dal bisogno di efficienza e qualità.

Le capacità del digitale sembrano infinite. Ci si affida per ogni aspetto, ma il banco di prova è la capacità di risolvere questioni complesse in tempi sempre più veloci, per combinare insieme fattori importanti, rapidità-efficienza-qualità. Come avviene nella sanità sconvolta dalla pandemia Covid: strumenti diagnostici efficaci, farmaci idonei, rapidità dei vaccini, riorganizzazione della produzione di materiali e dei sistemi di assistenza e cura. Ciò che serve alla alvaguardia della vita umana.

Il digitale ha trasformato in larga misura il settore privato per poi estendersi all’attività pubblica. La tempistica è variabile, a causa di contingenze più che di scelte strategiche. Persino settori tradizionali, e di solito refrattari al cambiamento, come la giustizia, sono investite da un vento nuovo. Ecco che si punta sulla “giustizia digitale”, per realizzare il miracolo di accelerare i processi, e far uscire i tribunali dalla paralisi. Un massiccio uso delle potenzialità tecnologiche potrebbe riuscire là dove innumerevoli riforme a tavolino hanno fallito.

L’espansione della tecnologia e il proliferare delle applicazioni informatiche hanno mostrato, nel contempo, accanto a innegabili benefici per i singoli e le collettività, limiti e problemi. Si sono manifestate conseguenze socialmente dannose oppure indesiderabili. Sono il lato oscuro dell’innovazione tecnica.

L’ONU aiuta a fornire informazioni affidabili e a combattere le notizie false (OCHA/Gema Cortes)

Si pensi agli attacchi informatici alle informazioni private o al furto di dati della sicurezza nazionale, oppure si rifletta sulla miriade di azioni sviluppatesi di recente, meno appariscenti ma invasive e dannose. Per esempio, lo sfruttamento di dati personali (opinioni-gusti-preferenze) a fini commerciali o la manipolazione delle notizie per influenzare l’opinione pubblica e condizionarne l’orientamento elettorale.

Quello che abbiamo imparato sul potere della tecnologia non ci tranquillizza sul fatto che esso abbia in sé “natura democratica”: il futuro potrebbe essere in effetti “abbastanza democratico”, ma occorre che l’intelligenza artificiale sia usata in maniera adeguata. Dobbiamo essere consapevoli che essa è stata usata in passato, e tuttora lo è, per alimentare estremismi o per rafforzare sistemi autoritari. O per creare disinformazione. Ne sono un esempio, non l’unico, i tentativi di condizionare le campagne elettorali americane, le manovre a favore di sovranisti o populisti nel mondo, o infine la diffusione di idee complottiste o contestative (no vax, no mask, ecc).

Si impone il governo della tecnologia attraverso regole comuni, fissate di comune accordo dai vari Stati. Infatti la tecnica è anche, inevitabilmente, un campo di idee, valori, concetti da cui dipende l’assetto complessivo della società e il suo equilibrio in senso liberale. L’uso dei big data da parte della Cina costituisce a questo proposito il più allarmante precedente immaginato da uno Stato per organizzare ed usare le informazioni in suo possesso.

Per quanto non sia apparentemente finalizzato al controllo sociale di massa (innumerevoli gli strumenti a disposizione) è indiscutibile che esso si presti a questo scopo: un disegno strategico di sorveglianza oppressiva nei confronti dei cittadini.

Il “sistema di credito sociale”, introdotto dai cinesi, assegna infatti ad ogni soggetto, e ad ogni impresa, un punteggio che identifica la reputazione sociale, cioè il credito nei confronti della collettività e dunque in buona sostanza verso il potere politico. Un risultato ottenuto attraverso la raccolta e l’esame delle informazioni in possesso dello Stato, riguardo ad ogni soggetto esaminato, per misurarne onestà, integrità, credibilità giudiziaria.

Tutto questo dovrebbe servire a migliorare il funzionamento sociale in un contesto di enormi dimensioni, ma la vaghezza dei parametri e del giudizio conclusivo (cos’è la “reputazione sociale”?) non rassicura sul buon uso dei dati a disposizione, specie da parte di uno Stato con un impianto costituzionale illiberale, senza controlli interni.

The fakery of Trump. Photo: Pixabay

Intanto quei fattori hanno ripercussioni radicali sulla vita dei singoli e sulla vita di istituzioni e imprese: un giudizio negativo si traduce nell’impossibilità di trovare lavoro o di accedere agli studi. Il “valore civico” del soggetto esaminato è un contenitore eterogeneo di condizioni e status, a cui è sotteso il principio assorbente della fedeltà alle direttive di partito.

Simili effetti perversi evidenziano i rischi connessi al cattivo uso delle tecnologie, quando esse si pongono in contrasto con i diritti umani e con l’utilità sociale, perché la loro applicazione oltrepassa limiti di natura etica, oltre che giuridica. Ma il discrimen tra lecito e illecito non è soltanto esterno all’intelligenza artificiale, non riguarda solo l’uso abnorme degli strumenti o gli attacchi al sistema.

La distinzione più insidiosa tra buone impostazioni e cattive pratiche si pone all’interno stesso delle ideazioni algoritmiche. Un risultato può anche essere buono ma potrebbe essere raggiunto con mezzi illeciti. Per esempio attraverso la captazione abusiva di dati personali oppure il loro uso per fini diversi da quelli autorizzati dal titolare. Il rischio più consistente riguarda alla fine la formazione dell’insieme di dati raccolti, cioè le regole di costruzione del sistema assunto a base delle decisioni.

Gli algoritmi vengono formati con i dati provenienti dall’uomo, ma l’elemento rilevante è costituito dalla qualità e dalla completezza dei dati forniti e dai criteri di impostazione dell’algoritmo stesso. A dispetto della pretesa neutralità e della capacità di ottenere risultati oggettivi, numerose esperienze hanno offerto evidenze di segno contrario. La conseguenza più allarmante per esempio è il (possibile) carattere discriminatorio (sesso, razza, categoria sociale) degli algoritmi.

È successo in America dove un programma utilizzato per selezionare il personale da assumere nelle aziende ha portato a privilegiare – in modo immotivato – l’accesso di persone bianche a danno nei neri. Oppure in Inghilterra nella quale la selezione degli studenti da ammettere a corsi di Università di eccellenza, mediante appositi algoritmi, ha avvantaggiato giovani provenienti da scuole elitarie private indipendentemente dal merito di altri.

È accaduto in Italia, dove l’algoritmo, confidenzialmente chiamato “Frank”, usato da Deliveroo nell’assegnazione dei turni e delle mansioni tra i vari rider è stato “censurato” dal Tribunale di Bologna nel dicembre 2020 perché discriminatorio nei confronti dei lavoratori in quanto tendente a favorire i rider statisticamente “più operosi” a danno degli altri, senza però alcuna valutazione critica.

Durante la crisi sanitaria di Coronavirus si trovano molte Fake News sul web (pixabay)

La pronuncia, a prescindere dalla rilevanza nelle cause di lavoro di questo tipo (in crescita, con la pandemia, il mercato delle consegne a domicilio e quindi il lavoro dei fattorini), contiene osservazioni rilevanti sulla pretesa oggettività dei dati usati per stilare classifiche di rendimento e per assegnare le prestazioni. In una parola, è posto in discussione l’assunto del criterio imparziale e neutrale di formazione degli algoritmi sulla base della valutazione del loro funzionamento pratico.

In questo caso, dietro la mancanza di trasparenza e la violazione dell’accountability (principi fissati dal Regolamento UE n. 679/2016, in sigla GDPR), nella raccolta dei dati statistici, emerge la parzialità delle procedure usate e quindi l’incompletezza dei dati finali, non essendo considerate per esempio le ragioni delle eventuali assenze dal lavoro (malattia, attività sindacali) o altri elementi di fatto che abbiamo inciso sulle statistiche.

I processi decisori automatizzati fanno molto affidamento, per la loro credibilità, sull’ampiezza del materiale esaminato e questa circostanza dovrebbe assicurare di per sé la validità del risultato finale, la sua inoppugnabilità, perché sorretto da una statistica di ampie dimensioni. Non è sempre così e non lo è in tutti i casi. Soprattutto ampiezza e completezza sono nozioni differenti.

L’imparzialità dei big data è smentita proprio dal caso esaminato a Bologna, il quale offre in proposito una chiave di lettura dei meccanismi di formazione degli algoritmi. Gli automatismi non sono necessariamente neutrali, quando la raccolta dei dati non possa dirsi esauriente e completa, perché mancante del fattore umano indispensabile: il punto di vista del titolare dei dati e lo sguardo critico di chi li raccoglie.

A ben vedere, quando fanno riferimento alla necessità di garantire la “protezione dei dati personali”, il regolamento Ue e la pronuncia del giudice bolognese offrono un’interpretazione dinamica di questo concetto: non solo come inviolabilità statica rispetto a condotte abusive di terzi, ma come diritto di intervenire nelle procedure di raccolta dati a garanzia della completezza e dunque affidabilità.

Queste esperienze in Italia e nel mondo dimostrano i limiti dei processi decisionali automatizzati, quando manchino interpello degli interessati alla raccolta dei dati e soprattutto valutazione critica degli elementi. Un bell’insegnamento rispetto a certe logiche di disintermediazione propugnate a vari livelli, dalle indagini scientifiche alle decisioni politiche, infine alla gestione della cosa pubblica.

Se l’intelligenza artificiale sta occupando spazi sempre più consistenti e se indiscutibilmente ci attendiamo da essa un contributo decisivo per la crescita delle società moderne, la strada per fissare regole etiche e giuridiche è appena cominciata. La tecnologia potrà dare frutti preziosi per migliorare la vita dei singoli e delle collettività soltanto intrecciandosi con la ricerca di strumenti di trasparenza e tutela dei diritti.

Share on FacebookShare on Twitter
Angelo Perrone

Angelo Perrone

Angelo Perrone è giurista e scrittore. È stato pubblico ministero e giudice. Si interessa di diritto penale, politiche per la giustizia, tematiche di democrazia liberale: diritti, libertà, diseguaglianze, forme di rappresentanza e partecipazione.Svolge studi e ricerche. Cura percorsi di formazione professionale. È autore di pubblicazioni, monografie, articoli. Scrive di attualità, temi sociali, argomenti culturali. Ha fondato e dirige “Pagine letterarie”, rivista on line di cultura, arte, fotografia. a.perrone@tin.it

DELLO STESSO AUTORE

Le dimissioni delle donne di potere e il lato oscuro della politica

Le dimissioni delle donne di potere e il lato oscuro della politica

byAngelo Perrone
Meloni: ‘Sul Pos stiamo ancora trattando con la Ue’

La Meloni copia gli Usa: per la pubblica amministrazione vuole lo “Spoils System”

byAngelo Perrone

A PROPOSITO DI...

Tags: big datadisinformazionegiustizia digitaleideeIntelligenza artificialeLibertàPandemiasocietàtecnologiavalori
Previous Post

Gli americani si fidano delle parole di Joe Biden e attendono gli assegni dello stimolo

Next Post

Teresa Ciabatti, un viaggio di ossessione e lotta tra gioventù e decadimento fisico

Discussion about this post

DELLO STESSO AUTORE

Le mani sull’arte

Le mani sull’arte

byAngelo Perrone
Meloni a Blinken, Usa e Nato possono contare su di noi

Doppia sfida per la politica

byAngelo Perrone

Latest News

Leone d’Oro della Mostra di Venezia a Liliana Cavani

Leone d’Oro della Mostra di Venezia a Liliana Cavani

byAnsa
Taiwan: l’ex presidente Ma Ying-jeou in missione in Cina

Taiwan: l’ex presidente Ma Ying-jeou in missione in Cina

byAnsa

New York

Proteste contro Netanyahu: si dimette il console israeliano a New York

Proteste contro Netanyahu: si dimette il console israeliano a New York

byMarco Giustiniani
Time to Think About NYC Summer Day Camps for the Kids?

Time to Think About NYC Summer Day Camps for the Kids?

byDaniel De Crescenzo

Italiany

La crisi dell’istruzione nel mondo: 2/3 dei bambini non capiscono cosa leggono

Master Fondazione Italia-Usa: altre 200 borse di studio “Next Generation”

byLa Voce di New York
World Pasta Day: negli USA sempre più Made in Italy grazie all’ICE

World Pasta Day: negli USA sempre più Made in Italy grazie all’ICE

byNicola Corradi
Next Post
Teresa Ciabatti, un viaggio di ossessione e lotta tra gioventù e decadimento fisico

Teresa Ciabatti, un viaggio di ossessione e lotta tra gioventù e decadimento fisico

La Voce di New York

Editor in Chief:  Giampaolo Pioli   |   English Editor: Grace Russo Bullaro

  • New York
    • Eventi
  • Onu
  • News
    • Primo Piano
    • Politica
    • Voto Estero
    • Economia
    • First Amendment
  • People
    • Nuovo Mondo
  • Arts
    • Arte e Design
    • Spettacolo
    • Musica
    • Libri
    • Lingua Italiana
  • Lifestyles
    • Fashion
    • Scienza e Salute
    • Sport
    • Religioni
  • Food & Wine
  • Travel
    • Italia
  • Mediterraneo
  • English
  • Search/Archive
  • About us
    • Editorial Staff
    • President
    • Administration
    • Advertising

VNY Media La Voce di New York © 2016 - 2022
Main Office: 230 Park Avenue, 21floor, New York, NY 10169 | Editorial Office/Redazione: UN Secretariat Building, International Press Corps S-301, New York, NY 10017

No Result
View All Result
  • Home
  • New York
  • Onu
  • News
    • Elezioni 2022
    • Primo Piano
    • Politica
    • Economia
    • First Amendment
  • Arts
    • Speciale Venezia
    • Arte e Design
    • Spettacolo
    • Musica
    • Libri
  • Lifestyles
    • Fashion
    • Scienza e Salute
    • Sport
    • Religioni
  • Food & Wine
    • Cucina Italiana
  • Travel
    • Italia
  • English
    • Arts
    • Business
    • Entertainment
    • Food & Wine
    • Letters
    • Lifestyles
    • Mediterranean
    • New York
    • News
  • Subscribe for only $6/Year

© 2016/2022 VNY Media La Voce di New York

Welcome Back!

Login to your account below

Forgotten Password? Sign Up

Create New Account!

Fill the forms bellow to register

All fields are required. Log In
By clicking on "Create my account" or by registering, you accept the Term of Service and the Privacy Policy.

Retrieve your password

Please enter your username or email address to reset your password.

Log In
Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?