La Carta etica europea sull'utilizzo dell'intelligenza artificiale nei sistemi giudiziari
- Francesco Magagna
- 26 giu 2024
- Tempo di lettura: 2 min
Aggiornamento: 27 giu 2024
Nel 2018, la Commissione europea per l’efficienza della giustizia del Consiglio d'Europa ha adottato la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi (la traduzione italiana è disponibile qui). Pur trattandosi di un atto di soft law, dunque privo di efficacia vincolante, tale documento è di notevole rilevanza. Infatti, per la prima volta a livello europeo, esso ha individuato alcune fondamentali linee guida per gli attori responsabili della progettazione, dello sviluppo e dell'implementazione di strumenti basati sull’intelligenza artificiale (IA) e destinati a essere utilizzati in ambito giudiziario. Il documento è altresì rivolto ai legislatori, i quali dovrebbero tenere conto dei principi ivi contenuti durante l’attività di elaborazione normativa.
Il primo principio sancito dalla Carta è quello del rispetto dei diritti fondamentali, il quale è volto ad assicurare che lo sviluppo e l’impiego dei sistemi di IA avvengano compatibilmente con i diritti fondamentali garantiti dalla Convenzione europea dei diritti dell'uomo, nonché dalla Convenzione n. 108 sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale, adottata dal Consiglio d’Europa nel 1981 e modificata nel 2018. La Carta etica europea fa riferimento, in particolare, al diritto di accesso al giudice e al diritto a un equo processo. Inoltre, essa auspica che, sin dalla fase di progettazione degli algoritmi, siano previste misure tali da impedire la violazione delle garanzie tutelate da dette convenzioni.
Il secondo principio è quello di non discriminazione. Esso assume particolare rilievo, ad esempio, in relazione ai risk assessment tools ed esprime la necessità di prevenire lo sviluppo e l’intensificazione di qualsiasi forma di discriminazione. Richiede a tale scopo che siano elaborate misure correttive atte a limitare o, meglio, neutralizzare gli effetti discriminatori.
Il terzo principio riguarda la qualità e sicurezza dei sistemi di IA e dei dati da essi utilizzati. Nello specifico, si raccomanda che siano garantite l’integrità e l’immodificabilità del dataset sulla cui base viene addestrato l’algoritmo. L’intero processo deve quindi essere tracciabile, al fine di assicurare che non vi siano state alterazioni idonee a incidere sulla decisione finale.
Il quarto principio riconosciuto dalla Carta è quello di trasparenza, imparzialità ed equità. In virtù di tale canone, è necessario raggiungere il giusto equilibrio tra la tutela della proprietà intellettuale dello sviluppatore e l’esigenza di trasparenza: quest’ultima è intesa come conoscibilità del codice sorgente e delle modalità con cui opera l’algoritmo. All’uopo viene proposta la creazione di un meccanismo di certificazione gestito dalle autorità. Infine, per quanto concerne l’imparzialità ed equità, esse sono da considerarsi, rispettivamente, come assenza di bias e anteposizione degli interessi di giustizia.
L’ultimo principio è quello del controllo da parte dell’utilizzatore, in forza del quale gli operatori di giustizia non dovrebbero essere vincolati alla soluzione suggerita dall’IA. Viene poi affermato l'imprescindibile diritto del destinatario della decisione a ottenere l’intervento umano.
Comentarios