Menu

Se la giustizia viene affidata a un algoritmo…

Il neoministro della giustizia Carlo Nordio, in un rapido scambio di battute con i giornalisti dopo il suo insediamento, ha accennato all’introduzione di un sistema algoritmico nel sistema giudiziario per “accelerare” i tempi della giustizia.

Ai più attenti un brivido è corso lungo la schiena, i più ignavi e servili neanche se ne sono accorti e forse sono rimasti affascinanti da un meccanismo matematico che “fa perdere meno tempo”… anche nell’esercizio della giustizia, ovvero uno dei fattori più decisivi di una società e di un sistema democratico.

Ma il ministro Nordio quando ha parlato di un algoritmo con la toga non stava affatto sfarfallando.

L’Estonia ha deciso di iniziare a sperimentare un progetto di erogazione delle sentenze per le piccole cause legali, sfruttando un sistema di intelligenza artificiale che avrà il compito di confrontare i dati sottoposti dalle parti e giungere a una conclusione non solo di legittimità ma anche – e soprattutto – di merito nelle controversie.

In caso di opposizione di una delle parti si potrà poi procedere a un eventuale giudizio con un “operatore umano”, cioè un giudice in carne ed ossa.

La Cina sta sperimentando un algoritmo per esaminare oltre 17mila casi giudiziari avvenuti nel periodo 2015-2020 e con una precisione che può avvicinarsi al 97%, ossia con una percentuale di errore molto bassa.

L’algoritmo “impara” dalle cause di tribunale già chiuse e riesce ad formare un proprio “criterio di giudizio”. Una sorta di intelligenza artificiale, che impara dai giudizi umani e li replica, raggiungendo un proprio metro “medio” per stabilire chi ha torto e chi ha ragione.

Il software al momento elaborato è oggi in grado di formulare un’accusa formale per oltre 8 diversi tipi di reato: frodi con carte di credito, gestione di un’operazione di gioco d’azzardo, guida pericolosa, lesioni intenzionali, intralcio ai doveri d’ufficio, furto, frode e scelte di litigi, provocazione di guai.

In Olanda è però esploso il “caso Syri”, dove l’algoritmo aveva rilevato 20 mila casi di frodi nell’utilizzo di sussidi, che in realtà sono risultati un “falso positivo”, dovuto a problemi di discriminazione razziale nell’input. Il caso è esploso in modo così clamoroso che ha portato alle dimissioni del governo in carica.

La rivista Fatto & Diritto segnala come Stati Uniti e Germania stiano già utilizzando sistemi di Predictive o Big Data Policing, cioè algoritmi intelligenti che forniscono agli organi statali potenti strumenti di contrasto alla criminalità sfruttando i dati già immessi nelle banche dati delle Forze di Polizia.

L’idea di fondo è affidare ad algoritmi predittivi le decisioni sull’imposizione della carcerazione preventiva per il fondato rischio di reiterazione di altri reati, sulla liberazione anticipata e su misure alternative, grazie ad una prognosi positiva di risocializzazione, sulla commisurazione della pena (nei Paesi in cui ciò avviene in uno step logico-giuridico diverso e successivo alla pronuncia della sentenza di colpevolezza).

Questi sistemi di intelligenza artificiale prendono una decisione sulla base di una valutazione algoritmica dei rischi (algorithmic risk assessment).

Ma nei sistemi penali di paesi (teoricamente) fondati sulla democrazia ciò entra direttamente in conflitto con il principio costituzionale dell’indipendenza della Magistratura.

Si fa presto a dire Intelligenza artificiale. E magari pensare di risolvere in questo modo gli incancreniti problemi della giustizia, prima di tutto la lentezza dei processi e la non prevedibilità delle sentenze”, scrive il giornale economico Italia Oggi.

Che ci vuole? È sufficiente disporre di una buona banca dati (input) e di un algoritmo in grado di mettere in rapporto il caso concreto con casi analoghi già giudicati in precedenza (metodo induttivo) e il gioco è fatto, la sentenza che ne uscirà in modo quasi automatico sarà la sintesi (output) o la media dei dati inseriti in precedenza e opportunamente valutati dal sistema di intelligenza artificiale. Oppure il sistema potrebbe essere strutturato per mettere in relazione la fattispecie concreta con il dettato normativo di riferimento (metodo deduttivo) per ricavarne, anche qui in modo automatico, la sentenza”.

Ovviamente le cose non sono così semplici, anzi. Tanto che nell’ultimo congresso dell’Ordine degli avvocati a questo è stata dedicata una tavola rotonda.

Avendo a che fare con delle persone e non con delle cose, la giustizia non è riducibile in modo deterministico. Anche perché verrebbe altrimenti impedita la funzione di adattamento delle norme giuridiche in senso evolutivo e il processo si limiterebbe a una monotona ripetizione e applicazione di regole morte e sempre più staccate dalla vita della collettività. .

E poi c’è il problema della qualità dei dati che vengono utilizzati. Nei pochi casi di utilizzo dell’intelligenza artificiale legati al mondo della giustizia già registrati a livello mondiale, questo problema si è evidenziato in modo drammatico.

Negli Usa, per esempio, il sistema algoritmico per la prognosi di recidiva del condannato è stato messo sotto accusa perché la qualità dei dati inseriti non era in grado di evitare problemi di discriminazione razziale..

In Italia, al momento, ci sono in corso, a livello sperimentale, numerosi progetti che puntano all’utilizzo dell’intelligenza artificiale come ausilio dell’attività giurisdizionale.

Quello che si annuncia il più operativo nella pratica, al momento, è il programma Prodigit, portato avanti congiuntamente dal ministero dell’Economia e dal Consiglio di presidenza della giustizia tributaria, che si propone di elaborare il primo algoritmo predittivo in ambito fiscale, che opererà sulla base di un milione di sentenze delle commissioni tributarie previamente inserite e dovrebbe consentire ai professionisti e ai contribuenti di conoscere il probabile esito di una data causa nel giudizio di merito.

Gli avvocati tributaristi sono intervenuti chiedendo che il progetto sia realizzato in modo trasparente e conoscibile, anche per quanto riguarda il contenuto del database e le modalità di funzionamento dell’algoritmo, che dovrebbe peraltro essere messo in grado di operare non solo in base ai precedenti giurisprudenziali, ma anche sulla base delle argomentazioni delle parti (Agenzia delle entrate e difensore del contribuente).

Questo per evitare di ritrovarsi con un sorta di algoritmo-poliziotto” che, secondo gli avvocati, sarebbe “quanto di più ripugnante possa essere escogitato”, scrive Italia Oggi.

Insomma un robot che giudica al posto di un uomo di legge è quanto di più distopico e “conservatore” si riesca oggi ad immaginare. Certo i margini di discrezionalità dei giudici che spesso lasciano interdetti, e talvolta furiosi, potrebbero uscirne azzerati; ma sulla base di una calcolo matematico che spazzerebbe via ogni contestualizzazione dei reati e ogni attenuante o aggravante che da questa derivano.

Soprattutto, questo modo di “amministrare le condanne” è per definizione a-storico. Non evolve, insomma, insieme alla società, le sue culture e subculture, che come sempre impongono cambiamenti nella legislazione esistente in base ad una serie di eventi che segnalano come certi comportamenti considerati fino ad un certo punto “reati” sono diventati normalità condivisa da larga parte o addirittura la maggior parte della popolazione. E viceversa, naturalmente (fatti “normali” che diventano ad un certo punto intollerabili e dunque “reati”).

Potremmo fare innumerevoli esempi riguardanti i “costumi” (uccidere la moglie per “motivi d’onore” era considerato un reato “meritevole” di forti sconti di pena, o addirittura dell’assoluzione, fino a 50 anni fa), ma basta pensare alla complessità dei problemi che sorgono affrontando il conflitto sociale e politico per rendersi conto che in moltissimi casi la “legge” (e gli algoritmi che dovrebbero quantificare ogni violazione) è il contrario della giustizia.

- © Riproduzione possibile DIETRO ESPLICITO CONSENSO della REDAZIONE di CONTROPIANO

Ultima modifica: stampa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *