L’intelligenza artificiale (IA) trova applicazione, inter alia, nel campo della giustizia predittiva. Tale espressione fa riferimento a «qualsiasi decisione giudiziale, parziale o totale, presa da un computer che apprende dall’esperienza» (M. Barberis, 2022). Il versante della giustizia predittiva comprende sia le predizioni decisorie sia le predizioni a fini decisori.
1. Predizioni decisorie
Le predizioni decisorie consistono nella previsione dell’esito di una controversia mediante sistemi di IA in grado di autoapprendere dalla casistica giurisprudenziale. Sarebbe «proprio questa prevedibilità a costituire un’aspirazione di fondo della giustizia penale» (R.E. Kostoris, 2021). Oggi, però, il valore della c.d. certezza del diritto è affievolito da un diritto notevolmente elastico – in quanto basato sempre più su principi – oltre che a larga matrice giurisprudenziale. L’intelligenza artificiale parrebbe quindi in grado di riaffermare la concezione spiccatamente illuminista di un diritto calcolabile.
Tuttavia, gli algoritmi predittivi sinora sviluppati presentano un’importante limitazione poiché non hanno la capacità tecnica di emulare il complesso ragionamento giuridico che è alla base dell’operato del magistrato. Essi sostituiscono la comprensione dei nessi causali tipica delle decisioni giudiziarie con le correlazioni che identificano su ingenti volumi di dati. A ciò si aggiunge l’impossibilità per un modello computazionale di compiere valutazioni qualitative, le quali comprendono anche le emozioni e le intuizioni proprie dell’essere umano.
2. Predizioni a fini decisori
Per quanto concerne gli strumenti predittivi a fini decisori, essi hanno lo scopo di «fornire elementi su cui basare una decisione, sia di tipo parziale, come avviene in materia cautelare, sia tale da involgere l’intera regiudicanda» (R.E. Kostoris, 2021). Appartengono a questa categoria i risk assessment tools: si tratta di programmi per elaboratore che fanno uso dell’IA per calcolare il rischio che l’accusato compia nuovi atti criminosi oppure si sottragga al processo. Tali software utilizzano una serie di fattori (ad es. lo status socioeconomico, il contesto familiare, l’origine etnica, lo status occupazionale, l’indice di criminalità dell’area di residenza e la presenza di eventuali disturbi psichici) al fine di ottenere una previsione relativa al rischio di delinquenza della persona coinvolta espresso sotto forma di punteggio.
Grazie all’analisi di grandi quantità di informazioni, gli strumenti di valutazione del rischio sono in grado di individuare patterns che trovano fondamento su una solida base statistica, prendendo in considerazione molte più variabili rispetto a quanto potrebbe fare un umano. Di conseguenza, è possibile affermare che i risk assessment tools abbiano dato origine a una «concezione evidence-based di valutazione del rischio individuale di commissione di un (nuovo) reato: una concezione, quindi, basata su riscontri oggettivi, destinata a soppiantare, o quanto meno integrare, le valutazioni intuitive dei giudici, tuttora ampiamente diffuse» (F. Basile, 2019).
La dottrina statunitense ritiene che l’attendibilità della teoria psico-criminologica adottata dai singoli strumenti di risk assessment sia sindacabile, a monte, mediante il c.d. Daubert test. Quest’ultimo consiste nell’applicazione dei criteri enunciati dalla Corte Suprema degli Stati Uniti nella celebre pronuncia Daubert v. Merrell Dow Pharmaceuticals (1993), la quale concerne l’ammissibilità delle perizie tecnico-scientifiche nel processo penale. Il test in questione è volto alla valutazione dell’affidabilità di una teoria o un metodo scientifici sulla base di cinque parametri: la verificabilità attraverso esperimenti; l’esito negativo dei tentativi di smentita; la sottoposizione al controllo della comunità scientifica mediante la c.d. peer review; il tasso di errore, accertato o potenziale, dei risultati; la generale accettazione da parte della comunità scientifica di riferimento. Tali criteri hanno trovato riconoscimento nell’ordinamento italiano con la sentenza della Corte di cassazione n. 43786 del 2010.
Per mezzo del Daubert test andrà valutata anche la validità dell’algoritmo stesso quale trasposizione della teoria psico-criminologica in termini computazionali. Tuttavia, come si vedrà nel successivo paragrafo, l’opacità dei sistemi di IA e la loro conseguente natura di black boxes rendono piuttosto arduo ricostruire a posteriori i passaggi seguiti dall’algoritmo nell’applicare la teoria.
3. Rischi e vantaggi
In primo luogo, alla luce dei recenti utilizzi dei risk assessment tools negli USA, sono stati sollevati dubbi circa l’effettiva validità predittiva, nota come accuracy, degli algoritmi in questione. A ben vedere, «il risultato fornito dagli algoritmi predittivi è necessariamente influenzato dalla qualità dei dati che vengono posti come input» (F. Basile, 2019): sarebbe doveroso implementare meccanismi in grado di garantire l’accuratezza dei dati, l’indipendenza della fonte da cui essi provengono e la pubblicità degli stessi.
In secondo luogo, l’IA tende a replicare i pregiudizi umani. Se, infatti, tali sistemi vengono addestrati con dati parziali, incompleti o che riflettono i biases da cui sono state influenzate le precedenti decisioni, vi è il rischio che gli stessi pregiudizi siano incorporati nelle decisioni future. Andrebbe così a svanire l’imparzialità che si suole associare alle macchine, le quali non appaiono ancora in grado di esimersi dai comportamenti discriminatori tipici degli esseri umani. Per esempio, a causa dei pregiudizi etnici radicati nella storia nordamericana, gli strumenti di valutazione del rischio in uso alle corti statunitensi sono soliti sovrastimare l’indice di pericolosità sociale dei soggetti afroamericani.
Si pone poi la discussa questione della (non) trasparenza: i tools di giustizia predittiva si caratterizzano invero per la loro imperscrutabilità. Quest’ultima è dovuta alla natura commerciale della gran parte degli algoritmi predittivi utilizzati negli Stati Uniti, per cui il codice sorgente è coperto dal segreto industriale e non è visionabile né dal giudice né dalle parti. Una possibile soluzione potrebbe essere quella di introdurre l’obbligo di «pubblicazione dei codici sorgente e delle altre informazioni rilevanti ai fini dell’accessibilità dell’algoritmo, attraverso procedure competitive di selezione del fornitore del servizio predittivo» (L. Notaro, 2020). Cionondimeno, vi è chi ritiene che la conoscibilità del codice sorgente non sia sufficiente a superare l’opacità algoritmica. Infatti, come è stato opportunamente evidenziato nel corso della trattazione, i sistemi di IA tendono a essere delle vere e proprie scatole nere (black boxes), in quanto non sono basati su una logica comprensibile agli umani e possiedono, in genere, forme di autoapprendimento (machine learning). Sovente anche gli stessi programmatori non sono in grado di spiegare la logica alla base della decisione algoritmica.
È stato altresì individuato il rischio di «de-individualizzazione delle decisioni», derivante dal fatto che «l’output “predittivo” costituisce il prodotto di un’estensione al caso concreto dei risultati di un’elaborazione di carattere statistico condotta su un campione di casi diversi da quello oggetto di giudizio» (V. Cavosi, 2022). Qualora il giudice assumesse la propria decisione sulla sola base del risultato dello strumento predittivo, si assisterebbe a una generalizzazione del tutto incompatibile con la necessaria valutazione individualizzata del caso in questione.
Infine, vi è il timore che la decisione si appiattisca sull’esito dell’algoritmo, mettendo a rischio i principi di imparzialità e libero convincimento del giudice. Egli potrebbe infatti attribuire un peso eccessivo e ingiustificato all’output dell’algoritmo, incorrendo nella c.d. fallacia dell’automazione. Tale fallacia, nota anche come automation bias, si verifica quando gli esseri umani tendono a prediligere le soluzioni provenienti da sistemi computazionali, ignorando le informazioni contraddittorie ottenute senza l’ausilio di essi. È importante, come ha affermato Giovanni Canzio, che il giudice sia consapevole che non dovrà mai diventare un mero consumatore di un algoritmo. Nonostante la giustizia predittiva sia caratterizzata da non poche insidie, essa presenta diversi vantaggi. Anzitutto, grazie all’automazione di alcune operazioni, si assisterebbe a un risparmio in termini di tempi e costi, nonché a una riduzione dell’incidenza dell’errore umano. In aggiunta, l’IA – se adeguatamente sviluppata – potrebbe garantire una maggiore oggettività delle decisioni, le quali sono spesso influenzate dai pregiudizi e dall’arbitrio umani. Da ultimo, gli strumenti di predizione decisoria assicurerebbero una tendenziale calcolabilità e uniformità delle decisioni, contribuendo «alla stabilizzazione della giurisprudenza» (C. Cavaceppi, 2020). Pertanto, purché implementati in modo corretto ed etico, gli algoritmi di giustizia predittiva risponderebbero al principio di efficacia ed efficienza dell’attività amministrativa.
4. L’esperienza statunitense
Pionieri nel campo della giustizia predittiva sono gli Stati Uniti, i quali fanno uso di risk assessment tools già da una quindicina d’anni. Tali strumenti vengono impiegati nelle giurisdizioni statunitensi quando è necessario compiere un giudizio prognostico: ciò riguarda sia le decisioni in materia di pretrial release (concernenti cioè il rilascio dell’indagato o dell’imputato sottoposto a custodia cautelare) sia le decisioni in materia di sentencing (ossia riguardanti la commisurazione della pena da parte del giudice).
Con riferimento al pretrial release, sono oltre venti i software di valutazione del rischio oggi in uso nelle corti statunitensi. Sette Stati (Alaska, Delaware, Hawaii, Indiana, Kentucky, New Jersey e Vermont) richiedono per legge – almeno in determinati casi – l’uso di tali algoritmi, mentre altri otto (Colorado, Illinois, Montana, New York, Pennsylvania, Rhode Island, Virginia e West Virginia) autorizzano e tendono a incoraggiare la loro adozione. Inoltre, alcuni Stati (Idaho, New York e California) hanno adottato una specifica legislazione in materia, stabilendo «requisiti di imparzialità e non discriminazione, garanzie di trasparenza e accessibilità del sistema e dei dati alla base dell’algoritmo, nonché la previsione di una validazione periodica dello strumento predittivo» (L. Notaro, 2020).
Tra gli algoritmi maggiormente utilizzati nel campo del pretrial release rileva PSA (Public Safety Assessment), il quale è adottato dagli Stati dell’Arizona, del Kentucky e del New Jersey, oltre che da numerose altre giurisdizioni. Si tratta di un tool creato da un ente non-profit e che si prefigge di escludere discriminazioni derivanti dall’etnia, dal genere e dalle condizioni economiche. A tal proposito, è stato deciso di renderne pubblici i criteri di attribuzione dei punteggi di pericolosità. PSA analizza nove informazioni relative all’età del soggetto, all’imputazione e ai suoi precedenti penali, al fine di attribuire un punteggio per ciascuno dei due fattori di rischio da valutare: «da un lato, il pericolo che il prevenuto non si presenti in udienza» e, dall’altro, «la probabilità che questi commetta un reato se rilasciato prima del dibattimento» (M. Gialuz, 2019). È interessante notare come, nella contea di Lucas (Ohio), l’impiego del software in questione abbia portato alla riduzione dei reati commessi in attesa di giudizio e, al contempo, all’aumento delle persone messe in libertà.
I risk assessment tools utilizzati in fase di sentencing sono invece più di sessanta. Tra di essi, oltre all’assai noto COMPAS, figura LSI-R (Level of Service Inventory - Revised). Quest’ultimo utilizza fattori come i precedenti penali del reo, i caratteri della sua personalità e la sua situazione socioeconomica al fine di determinarne il rischio di recidiva.
5. L’approccio europeo
Al momento, gli algoritmi di giustizia predittiva non hanno ancora trovato applicazione nelle giurisdizioni dei Paesi europei. Invero, l’Europa si sta muovendo in un terreno complesso e delicato, provando a creare un ordinamento che regoli l’ingresso di queste forme di IA nel processo: il dibattito che è stato «opportunamente avviato a livello europeo ha a oggetto il come i sistemi giudiziari saranno in grado, nel prossimo futuro, di far fronte a tali sviluppi tecnologici, senza divenirne vittime» (M. Gialuz, 2019).
Per quanto riguarda la c.d. grande Europa, un considerevole strumento è rappresentato dalla Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata nel 2018 dalla Commissione europea per l’efficienza della giustizia (CEPEJ). Nell’appendice II del documento si fa specifico riferimento alle esperienze statunitense e britannica in relazione airisk assessment tools: tali strumenti vengono inquadrati tra gli utilizzi dell’IA «da esaminare con le più estreme riserve». In particolare, viene evidenziato come essi abbiano «condotto a risultati errati» e discriminatori nei confronti della popolazione nera.
Nell’ambito della c.d. piccola Europa, rilevano le disposizioni della direttiva UE 680/2016, recepita nell’ordinamento italiano con il decreto legislativo 51/2018. Tale direttiva si applica al «trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali».
Inoltre, il Parlamento europeo ha di recente approvato il c.d. AI Act, regolamento che mira a stabilire regole armonizzate sull’intelligenza artificiale garantendo sicurezza e rispetto dei diritti fondamentali. L’allegato III del testo definitivo include tra i «sistemi di IA ad alto rischio» quelli «destinati a essere utilizzati dalle autorità di contrasto [...] per determinare il rischio di commissione del reato o di recidiva in relazione a una persona fisica». Le attività considerate ad alto rischio sarebbero consentite soltanto nel rispetto di stringenti requisiti: l’implementazione di un «sistema di gestione dei rischi» (art. 9); l’adozione di specifici accorgimenti in materia di «governance dei dati» (art. 10); la redazione di una particolare «documentazione tecnica» (art. 11); la «registrazione automatica degli eventi (“log”)» durante il loro funzionamento (art. 12); la «trasparenza e fornitura di informazioni» agli utenti (art. 13); la presenza di una «sorveglianza umana» (art. 14); un adeguato livello di «accuratezza, robustezza e cibersicurezza» (art. 15).
Bibliografia
Barberis M., Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, 2/2022, p. 7.
Basile F., Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in Diritto Penale e Uomo, 10/2019, pp. 17-23.
Canzio G., Intelligenza artificiale e processo penale, in Canzio G. – Lupária L. (a cura di), Prova scientifica e processo penale, CEDAM, Padova, 2022, p. 906.
Canzio G., La motivazione della sentenza e la prova scientifica, in Canzio G. – Lupária L. (a cura di), Prova scientifica e processo penale, CEDAM, Padova, 2022, p. 11.
Cavaceppi C., L’intelligenza artificiale applicata al diritto penale, in Taddei Elmi G. – Contaldo A. (a cura di), Intelligenza artificiale. Algoritmi giuridici. Ius condendum o “fantadiritto”?, Pacini Giuridica, Pisa, 2020, p. 101.
Cavosi V., Governare l’intelligenza artificiale. Spunti per la progettazione di sistemi di IA legali, etici e robusti, Ledizioni, Milano, 2022, pp. 27 e 120-126.
CEPEJ, Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, 2018, appendice III, p. 44, https://rb.gy/r9va17.
Gialuz M., Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti ed Europa, in Diritto penale contemporaneo, 2019, pp. 3-8 e 12.
Kostoris R.E., Predizione decisoria e diversion processuale, in Giurisdizione penale: intelligenza artificiale ed etica del giudizio, Giuffrè, Milano, 2021, pp. 95-101.
Maugeri A.M., L’uso di algoritmi predittivi per accertare la pericolosità sociale: una sfida tra evidence based practices e tutela dei diritti fondamentali, in Archivio Penale, 1/2021, p. 24.
Notaro L., Intelligenza artificiale e giustizia penale, in Chinnici C. (a cura di), Intelligenza artificiale e giustizia penale, Paruzzo, Caltanissetta, 2020, pp. 95-97 e 123 s.
Parlamento europeo, Rettifica alla posizione del Parlamento europeo definita in prima lettura il 13 marzo 2024 in vista dell'adozione del regolamento (UE) 2024/... del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (legge sull'intelligenza artificiale) e modifica alcuni atti legislativi dell'Unione, 17 aprile 2024, https://rb.gy/miykax.
Quattrocolo S., Risk assessment: sentencing o non sentencing?, in Giurisdizione penale: intelligenza artificiale ed etica del giudizio, Giuffrè, Milano, 2021, pp. 79 s.
Romanò L., Intelligenza artificiale come prova scientifica nel processo penale, in Canzio G. – Lupária L. (a cura di), Prova scientifica e processo penale, CEDAM, Padova, 2022, pp. 921 s.
Commentaires