Programma di previsione crimini, l’algoritmo è razzista

algoritmo-razzista

Secondo Cesare Lombroso il comportamento criminale era relativo alle caratteristiche anatomiche di un individuo. A caratterizzare la personalità dell’individuo deviato non c’erano tanto le esperienze vissute, come invece ha poi dimostrato la scienza moderna, ma secondo Lombroso i suoi comportamenti derivavano principalmente dalle caratteristiche fisiche. Quindi, l’inclinazione criminale era qualcosa di congenito, una patologia ereditaria, e poteva, anzi doveva, essere curata in terapia.

Le sue idee controverse sono state presto considerate alla base di un’ideologia razzista ma, secondo un nuovo report, non si discosta poi di molto l’approccio della giustizia americana basato su un algoritmo che misura “il risk assessment score”, il punteggio di valutazione del rischio. Quando un imputato riceve una condanna il giudice può utilizzare diversi fattori per determinare una pena congrua per il crimine commesso. Uno di questi fattori è sempre più spesso il risk assessment score.

Si tratta di un numero che, in base ad alcuni calcoli automatizzati, ha lo scopo di individuare se l’imputato possa commettere un altro crimine nel futuro. Stando ad un’indagine condotta da ProPublica, tuttavia, gli algoritmi utilizzati che poi conducono al numero finale sono di parte e offrono risultati statisticamente negativi nei confronti degli afroamericani. Una condotta gravissima se si considera che quel semplice numero può influenzare molti aspetti della sentenza.

Cifre per la cauzione, piani di trattamento o periodo di carcere possono infatti essere stabiliti sulla base del responso dell’algoritmo. Quando viene rilevato un rischio più alto di recidiva l’imputato può ricevere una sentenza che serve a disincentivare futuri atti criminali. Il sistema è stato già accusato dal Procuratore Generale degli USA Eric Holder, che ha detto che “potrebbe esacerbare le disparità ingiustificate e ingiuste già fin troppo comuni nel sistema di giustizia penale USA e nella società”.

Per verificare le affermazioni di Holder ProPublica ha analizzato i dati di oltre 7 mila imputati della Broward County, in Florida, in cui i punteggi di valutazione del rischio vengono generati da un software prodotto da Northpointe. In più lo studio ha rilevato che i punteggi generati riuscivano solo in poche circostanze a prevedere eventuali crimini violenti: “Solo circa il 20% di queste persone ha commesso un crimine dopo che l’algoritmo l’aveva previsto”, scrive ProPublica.

Anche considerando tutti i casi di crimini, e non solo quelli violenti, l’algoritmo non è stato “più accurato di un lancio di moneta” nel determinare l’inclinazione dell’imputato a commettere un nuovo crimine. A preoccupare di più dello studio di ProPublica è la conferma delle affermazioni di Holder, con l’algoritmo che sembra discriminare gli imputati di colore. Dal report si legge che l’algoritmo falsifica in misura doppia i risultati di questi ultimi rispetto a quelli degli imputati bianchi.

Northpointe ha naturalmente contestato i risultati del report e ha sottolineato che la razza non è una caratteristica che l’algoritmo valuta in via diretta. Tuttavia ci sono alcuni fattori legati alla razza che influenzano il risultato di rischio finale, come ad esempio il livello di educazione, lo stato di occupazione ed altre circostanze sociali (amicizie, uso di droghe fra amici). Ma molte altre caratteristiche dell’algoritmo rimangono oscure perché private e non accessibili al pubblico. (fonte)

You may also like...