Lo avevano arrestato per rapina, ma l’errore è dell’intelligenza artificiale. ll 61enne Harvey Murphy Jr., del Texas, è stato arrestato e imprigionato perché un software di riconoscimento facciale lo aveva erroneamente identificato come il sospetto di una rapina a mano armata in un negozio di una nota catena che vende occhiali a Houston. Durante la sua permanenza in carcere l’uomo ha anche subito violenza sessuale da parte di altri tre detenuti. “Non passa giorno che non ci pensi”, ha detto l’avvocato di Murphy, Daniel Dutko, in un’intervista, aggiungendo anche che i violentatori hanno minacciato il suo assistito di morte qualora avesse denunciato l’aggressione.
Per sua fortuna, Murphy aveva un alibi di ferro: nel momento in cui si svolgeva la rapina nel negozio di Huston, era già in stato di fermo per una serie di piccoli furti e, oltretutto si trovava a Sacramento. Se non avesse avuto quell’alibi avrebbe rischiato una lunga sentenza; invece dopo quasi due settimane di carcere, Harvey Murphy Jr. è stato rilasciato.
Ora, Murphy ha chiesto un risarcimento di 10 milioni di dollari per quello che sostiene essere stato un arresto illecito basato sull’uso negligente del software di riconoscimento facciale. La causa, intentata la scorsa settimana presso il tribunale distrettuale della contea di Harris in Texas, afferma che il sistema di sorveglianza del negozio è affidato a strumenti di riconoscimento facciale che producono filmati di bassa qualità.
Ma il suo caso, così come altri simili avvenuti in precedenza, rafforza i dubbi intorno alla tecnologia del riconoscimento facciale denunciati qualche mese fa anche sulla rivista Scientific American. Lo studio in questione sottolineava anche il rischio l’uso che tecnologia peggiori il “racial profiling” da parte della polizia, perché l’agortimo non riesce a distinguere le persone nere l’una dall’altra. Gli autori hanno scritto. “Abbiamo scoperto che le forze dell’ordine che utilizzano il riconoscimento facciale automatizzato arrestano in modo sproporzionato le persone di colore. Riteniamo che ciò derivi da fattori quali la mancanza di sufficienti volti neri nei set di dati di addestramento degli algoritmi, la convinzione che questi programmi siano infallibili e i pregiudizi degli agenti stessi”.