top of page

Giustizia predittiva: il risk assessment tool COMPAS

Immagine del redattore: Francesco MagagnaFrancesco Magagna

Una delle applicazioni più diffuse della giutizia predittiva è rappresentata dai risk assessment tools: si tratta di programmi per elaboratore che fanno uso dell’intelligenza artificiale per calcolare il rischio che l’accusato compia nuovi atti criminosi oppure si sottragga al processo. Il più celebre tra essi è, con ogni probabilità, COMPAS (acronimo di «Correctional Offender Management Profiling for Alternative Sanctions»), un software largamente impiegato nelle corti statunitensi.



1. Il funzionamento dell'applicativo

Il sistema si fonda su un database contenente più di trentamila valutazioni compiute dall’algoritmo tra gennaio 2004 e novembre 2005 presso strutture quali carceri e centri per la libertà vigilata (probation sites). Si stima che l’applicativo, sviluppato nel 1998, sia stato utilizzato in oltre un milione di casi. Esso è commercializzato dall’azienda privata Northpointe (in seguito rinominata Equivant) ed è entrato al centro del dibattito pubblico con il caso State v. Loomis celebrato dinanzi la Corte Suprema del Wisconsin. Sono molteplici le giurisdizioni che si avvalgono di detto software, tra cui la contea di Broward (Florida), lo Stato della California, lo Stato del Wisconsin e lo Stato di New York.

I dati che il programma riceve in ingresso comprendono le informazioni presenti nel fascicolo dell’imputato e le risposte al questionario da questi compilato. Al soggetto vengono poste 137 domande concernenti le seguenti tematiche:

  • precedenti penali;

  • passato violento;

  • violenza attuale;

  • frequentazione di pregiudicati;

  • abuso di sostanze stupefacenti;

  • difficoltà economica o povertà;

  • difficoltà nell’istruzione e formazione;

  • pensiero criminoso e personalità criminale;

  • criminalità in famiglia;

  • problemi di natura sociale;

  • modalità di impiego del tempo libero;

  • instabilità abitativa;

  • difficoltà di socializzazione;

  • isolamento sociale;

  • opportunità criminali.

L’algoritmo adotta un approccio empirico-statistico per valutare il rischio di recidiva del reo e fornisce in output un punteggio in decimi relativo a ciascuno dei tre seguenti fattori: il pretrial risk, cioè il rischio che, in pendenza del procedimento, l’accusato non si presenti in udienza o torni a delinquere; il rischio di recidiva generico (general recidivism); il rischio di recidiva c.d. violenta (violent recidivism). In aggiunta, «accanto alla funzione strettamente “predittiva”, il sistema elabora […] una need scale, idonea a definire il profilo dell’autore e le esigenze di riabilitazione del medesimo» (L. Grossi, 2020).

Come è emerso dalla citata sentenza della Corte Suprema del Wisconsin, il software non è in grado di fornire la specifica probabilità di recidiva del singolo autore di reato: esso, invece, elabora una previsione basata sul confronto tra le informazioni concernenti l’individuo in questione e quelle afferenti a un gruppo di soggetti con caratteristiche analoghe. Inoltre, è stato notato che, sebbene COMPAS sia utilizzato nella fase di sentencing (commisurazione della pena), tale applicativo è stato originariamente sviluppato per fornire supporto ai giudici nelle decisioni in merito al pretrial release e all’esecuzione della pena. Infine, nonostante l’algoritmo non consideri esplicitamente l’etnia come fattore, questa può essere verosimilmente inferita da aspetti quali il livello d’istruzione, l’area di residenza, lo status socioeconomico e l’instabilità familiare. Ciò ha sollevato una serie di dubbi sul rispetto dei principi costituzionali statunitensi del giusto processo (due process) e della c.d. egual protezione da parte della legge (equal protection of the law).


2. L’inchiesta di ProPublica

Nel 2016 COMPAS è stato oggetto di un’approfondita inchiesta di ProPublica, un’organizzazione non governativa con sede a Manhattan che, mediante il giornalismo investigativo, mira a denunciare abusi di potere da parte di istituzioni pubbliche e private. La ricerca ha interessato un campione di oltre settemila individui arrestati tra il 2013 e il 2014 nella contea di Broward e i relativi punteggi di rischio calcolati dal suddetto risk assessment tool.

Secondo lo studio, il sistema sarebbe notevolmente inaffidabile nel prevedere la commissione di reati violenti nei due anni successivi alla condanna. Infatti, soltanto il 20% degli individui a cui era stato attribuito un alto tasso di recidiva violenta avrebbe effettivamente compiuto crimini violenti nell’arco temporale in esame. Le previsioni si sarebbero rivelate inaccurate anche in riferimento al tasso di recidiva generale, con un livello di precisione pari al 61%. Dalla ricerca sarebbe altresì emerso che, a causa della formula utilizzata, l’algoritmo ha alte probabilità di etichettare erroneamente come futuri criminali gli imputati afroamericani, con una percentuale quasi doppia rispetto agli imputati bianchi. Questi ultimi, al contrario, tenderebbero ad essere considerati meno rischiosi di quanto realmente siano. Invero, il 48% dei bianchi etichettati come soggetti a basso rischio avrebbe bensì recidivato nei due anni successivi. Per quanto riguarda gli afroamericani, invece, tale cifra ammonterebbe al 28%.

Infine, ProPublica evidenzia come – sul piano teorico – i giudici non dovrebbero infliggere una pena più lunga sulla mera base del tasso di recidiva elaborato dall’algoritmo. Piuttosto, esso dovrebbe essere utilizzato per valutare l’idoneità del reo alla libertà vigilata o a specifici programmi di trattamento. Ciò, tuttavia, non sempre accade: nella sentenza di primo grado del caso Loomis, ad esempio, il giudice Scott Horne ha condannato l’imputato a una lunga pena detentiva, facendo esplicito riferimento all’alto tasso di rischio calcolato dal software COMPAS.

Non è mancata la replica di Northpointe all’indagine di ProPublica. L’azienda produttrice respinge con forza la conclusione che gli indici di rischio di COMPAS siano discriminatori nei confronti della popolazione nera e ritiene che ProPublica abbia commesso diversi errori tecnici e statistici nella sua ricerca. Secondo Northpointe, l’applicativo ha previsto correttamente i casi di recidiva sia dei bianchi sia dei neri e, per qualsiasi punteggio in decimi attribuito da COMPAS, un bianco e un nero hanno la stessa probabilità di commettere nuovamente un reato.





Bibliografia

  • Angwin J. et al., Machine bias. There’s software used across the country to predict future criminals. And it’s biased against blacks, ProPublica, 2016, https://rb.gy/qfsv9e.

  • Basile F., Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Diritto Penale e Uomo, 10/2019, p. 22.

  • Dieterich W. et al., COMPAS Risk Scales: Demonstrating Accuracy Equity and Predictive Parity, Northpointe, 2016, p. 1, https://rb.gy/y94ndk.

  • Dressel J. – Farid H., The accuracy, fairness, and limits of predicting recidivism, in Science Advances, vol. 4(1), 2018, p. 1.

  • Equivant, Practitioner’s Guide to COMPAS Core, 2019, pp. 9 e 11, https://rb.gy/bjeb23.

  • Grossi L., Software predittivi e diritto penale, in C. Chinnici (a cura di), Intelligenza artificiale e giustizia penale, Paruzzo, Caltanissetta, 2020, p. 172.

  • Kirkpatrick K., It’s not the algorithm, it’s the data, in Commun. ACM, vol. 60(2), 2017, p. 21.

  • Larson J. et al., How We Analyzed the COMPAS Recidivism Algorithm, ProPublica, 2016, https://rb.gy/vpj30m.

  • Liu H. et al., Beyond State v. Loomis: Artificial Intelligence, Government Algorithmization, and Accountability, in International Journal of Law and Information Technology, vol. 27(2), p. 13.

  • Notaro L., Intelligenza artificiale e giustizia penale, in C. Chinnici (a cura di), Intelligenza artificiale e giustizia penale, Paruzzo, Caltanissetta, 2020, p. 100 s.

  • ProPublica, About us, https://rb.gy/lfez78.

  • State of Wisconsin v. Eric L. Loomis, 881 N.W.2d 749 (Wis. 2016), parr. 13-15.

  • Yong E., A Popular Algorithm Is No Better at Predicting Crimes Than Random People, The Atlantic, 2018, https://rb.gy/n1p3g1.

Comments


bottom of page