Il 19 aprile 2021, due consiglieri del comune di New York – Ben Kallos (Dem.-Manhattan) e Corey Johnson (Dem.-Manhattan) – hanno citato in giudizio il dipartimento della polizia per l’uso di Digidog, il cane robot progettato e commercializzato dalla Boston Dynamics.
Digidog era stato adoperato in alcune operazioni di polizia lo scorso febbraio nel Bronx, e ad aprile anche a Manhattan. Il cane robot aveva destato numerose preoccupazioni tra le associazioni a tutela dei diritti civili e alcuni parlamentari del congresso. Alexandria Ocasio-Cortez, congresswoman dell’ala progressista del partito democratico, sottolineava come i soldi spesi dal NYPD per il robot era meglio destinarli per finanziare progetti a favore delle comunità sottoservite e a basso reddito. Mentre Ritchie Torres, congressman dell’establishment democratico, comparava il NYPD a una forza paramilitare che lavora in segretezza per stabilire uno stato di sorveglianza.
Il dipartimento di polizia aveva cercato di placare gli animi, dicendo che il robot non sarebbe stato utilizzato per danneggiare o intimidire persone e che il suo utilizzo sarebbe avvenuto nel rispetto di tutte le leggi applicabili, comprese quelle sulla privacy.

Ma le dichiarazioni del NYPD non hanno aiutato a fermare le polemiche. Nel mese di marzo, lo stesso councilman Kallos aveva proposto un disegno di legge per impedire alla polizia di utilizzare robot armati che in grado di danneggiare le persone. La polizia “usa le armi quando la loro vita è in pericolo e questo è tutto”, sostiene Kallos. “Se c’è un robot coinvolto, non c’è vita umana da proteggere e quindi non c’è bisogno di armarlo”.
A seguito della citazione in giudizio, il NYPD ha deciso di anticipare al 22 aprile la fine del contratto con la Boston Dynamics (del valore di circa $94,000).
Ma il Digidog non è l’unico caso di uso di intelligenza artificiale utilizzato da parte della polizia che desta timori e preoccupazioni.
Un rapporto del Brennan Center For Justice – un istituto apartitico a difesa dei valori democratici con sede a New York e Washington – già nel 2019 faceva un elenco delle tecniche di sorveglianza adottate dal NYPD che si avvalevano dell’uso di intelligenza artificiale, evidenziandone impatti e rischi.
Riconoscimento facciale, polizia predittiva, droni, furgoni a raggi X, database dei DNA. Sono soltanto alcuni esempi delle tecnologie di sorveglianza utilizzate dalla polizia di New York di cui si è a conoscenza perché basate su informazioni pubblicamente disponibili.

Tra questi compare anche il “monitoraggio dei social media”. Pare che il dipartimento di polizia usi i social media per monitorare e tracciare individui, gruppi, o affiliazioni. Non solo utilizzando informazioni pubblicamente disponibili, ma anche ingaggiando un informatore, un amico del bersaglio o un account sotto copertura per ottenere informazioni da un account protetto o privato. Secondo il reportage, “la portata del monitoraggio dei social media da parte della polizia di New York è sconosciuta, ma è stata utilizzata per indagare le gang e per sorvegliare i manifestanti di Black Lives Matter“.
Nel 2019, Molly Griffard – avvocatessa newyorchese presso la Legal Aid Society, specializzata in diritto penale e nei casi di cattiva condotta della polizia – aveva analizzato un altro strumento adottato dal NYPD. Si tratta di Patternizr, un programma di “polizia predittiva” in grado di aiutare gli investigatori a stimare l’avvenimento di alcuni crimini. L’algoritmo – costruito sull’analisi dei dati statistici del passato – è utilizzato per prevedere rapine, furti con scasso e furti aggravati che possono essere stati commessi dalla stessa persona o gruppo di persone”.
“I difensori delle comunità ampiamente monitorate dalla polizia hanno ragione ad essere preoccupati e a rimanere vigili”, dice Molly nelle conclusioni del suo studio. “Le generazioni precedenti di strumenti di polizia predittiva e di giustizia attuariale – compresi gli algoritmi che escludono la razza nella loro progettazione – producono risultati separati per razza che intensificano la sorveglianza di comunità già sotto ampio controllo dalla polizia. È probabile che Patternizr produrrà risultati simili a causa della sovrarappresentazione delle persone di colore attualmente nei database della polizia di New York. La combinazione di pregiudizi razziali, di automazione e di conferma può produrre risultati particolarmente devastanti per gli individui che appaiono nelle raccomandazioni di Patternizr“.