Come stiamo vedendo nel corso di queste settimane l’intelligenza artificiale nel settore giurisdizionale non è più un’ipotesi futuristica.
È già realtà, sotto forma di strumenti che affiancano magistrati, avvocati e operatori del diritto. Ma questa presenza, pur apparentemente neutra, apre interrogativi cruciali:
siamo certi che il supporto algoritmico non nasconda una nuova forma di arbitrio?
Questi strumenti oggi affiancano gli operatori del diritto diventando veri e propri strumenti di ausilio. Lo stesso termine “giustizia predittiva ausiliaria” sembra evocare una tecnologia subordinata, che aiuta il giudice senza sostituirlo.
Ma, come nota bene M. Barberis,
Non è affatto ovvio che l’algoritmo si limiti ad “aiutare” il giudice: il rischio è che finisca per condizionarlo, orientandone la decisione sotto la maschera della neutralità
Questa osservazione rivela una tensione sottesa: quando un sistema predittivo fornisce una “valutazione” dell’esito atteso, il giudice umano resta davvero libero? Oppure si trova costretto a giustificare ogni eventuale scostamento dalla previsione automatizzata, col rischio di generare un conformismo sistemico?
Nel momento in cui un algoritmo fornisce una valutazione predittiva dell’esito di un processo, la funzione ausiliaria rischia di mutarsi in qualcosa di più subdolo: una pressione implicita verso l’adeguamento.
È questo il punto di frizione cruciale tra intelligenza artificiale e libertà giurisdizionale.
Il giudice, pur formalmente autonomo, potrebbe sentirsi vincolato dalla previsione algoritmica, specialmente se:
- la percentuale di “scostamento” è statisticamente irrilevante;
- l’autorità che promuove il sistema lo considera affidabile;
- la motivazione che discosta dalla previsione appare potenzialmente più esposta a impugnazione.
In altri termini, si produce un’inversione silenziosa dell’onere della prova: non è più l’algoritmo a dover dimostrare la bontà della sua previsione, ma è il giudice umano a dover giustificare il perché ha deciso diversamente!
Negli Stati Uniti, strumenti come COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) stimano la probabilità che un imputato torni a delinquere. Il giudice può tecnicamente non aderire alla valutazione algoritmica, ma in molti casi si osserva un allineamento pressoché automatico. E questo molto probabilmente per via del “meccanismo umano” che porta a voler evitare sospetti di decisione arbitraria, velocizzare l’iter motivazionale, e raggiungere una copertura “oggettiva” della decisione.
Ma tutto questo genera, a nostro sommesso avviso, una giustizia “paralizzata”, incapace di affrancarsi dal suggerimento computazionale, anche quando le circostanze individuali consiglierebbero il contrario.
Si attiva così un meccanismo noto come delega epistemica: chi riceve una previsione da un sistema ritenuto esperto tende a cedere il proprio potere valutativo, anche quando non ne ha l’obbligo giuridico.
Secondo Barberis, ciò può dar luogo a una forma di:
conformismo algoritmico, in cui il diritto si riduce a una funzione statistica, e il giudice diventa un “operatore di conferma”
Il risultato finale è un sistema giuridico che, pur formalmente rispettando il principio di individualizzazione della pena o della sanzione, si affida alla logica delle medie. Ma così facendo si perde la proporzione personalizzata della decisione, si affievolisce la funzione valoriale del diritto e soprattutto si crea un precedente tecnologico difficile da disinnescare!
Volendo volgere lo sguardo verso terre per noi meno remote, in Europa un ambito in cui la giustizia predittiva ausiliaria è già operativa è quello del risarcimento del danno non patrimoniale. In Francia, ad esempio, strumenti come Case Law Analytics elaborano dati da migliaia di sentenze per fornire uno spettro di indennizzi “plausibili”.
Il vantaggio è evidente in termini di riduzione del contenzioso, grazie ad una maggiore prevedibilità delle decisioni ed alla conseguente maggiore uniformità.
Ma anche il rischio è chiaro: l’individualizzazione della giustizia viene meno. Il soggetto danneggiato diventa una variabile statistica, non più un individuo unico da valutare nel suo specifico vissuto.
Vi è poi da aggiungere che la presunta neutralità dell’algoritmo è di fatto una chimera.
Come ben sottolinea l’avv. M. Iaselli:
I sistemi predittivi si basano su dataset preesistenti e sono quindi esposti al rischio di replicare, amplificare o “congelare” bias storici e sistemici
Se un algoritmo è stato infatti addestrato su sentenze tendenzialmente discriminatorie o non aggiornate, non farà altro che riprodurre quel bias pur avendo la legittimazione di uno strumento apparentemente oggettivo (sic!).
Inoltre, la logica del modello resta spesso opaca, rendendo impossibile la comprensione da parte dell’utente, e talvolta perfino del giudice stesso. E questo è il fenomeno del cosiddetto black box model: una decisione viene suggerita, ma nessuno sa davvero spiegare perché.
Ed allora qui il punto non è respingere l’innovazione, ma piuttosto incanalarla in una cornice giuridica ed etica rigorosa.
L’algoritmo può certamente ordinare i precedenti, fornire proiezioni statistiche e aiutare l’individuazione di contrasti giurisprudenziali, ma non deve orientare la decisione sostanziale, né imporre modelli di conformismo giurisprudenziale.
Come osserva Barberis,
L’algoritmo non è un oracolo. È solo uno strumento. E come ogni strumento, il suo uso può essere utile o dannoso — a seconda delle mani che lo guidano
Ed allora, se da un lato la giustizia predittiva ausiliaria offre promesse di efficienza, dall’altro può celare (e cela) una nuova forma di arbitrio, invisibile e difficile da contestare.
Per questo motivo, il compito del giurista oggi non è solo quello di comprendere l’algoritmo, ma anche e soprattutto di difendere l’umano dentro la decisione.
La vera posta in gioco, dunque, non è se l’intelligenza artificiale sostituirà i giudici, ma piuttosto se li porterà, silenziosamente, a pensare come essa.
E questo è molto più pericoloso.
Per contrastare questa potenziale deriva, a nostro sommesso avviso, va riaffermato che la discrezionalità giudiziaria è un valore, non un difetto da correggere. E sul punto ricordo bene le parole tanto d’impatto quanto provocatorie del Prof. A. Cernigliaro che durante una lezione del suo corso di Storia della Giustizia annunciò che l’imparzialità del giudice era un risultato da raggiungere, ma mera utopia!
Per approfondire:
- M. BARBERIS, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, 2022, p. 9 ss.;
- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, p. 92 ss.
Nicola Nappi
Ultimi post di Nicola Nappi (vedi tutti)
- Supporto algoritmico o arbitrio mascherato? Il lato ausiliare della giustizia predittiva - 14 Aprile 2025
- Quando l’algoritmo prende il posto del giudice: realtà o finzione giuridica? - 7 Aprile 2025
- Giustizia predittiva: promessa evolutiva o rischio sistemico? - 31 Marzo 2025
- Perché l’intelligenza artificiale nel diritto può cambiare tutto (ma non da sola) - 24 Marzo 2025
- Data poisoning: l’avvelenamento silenzioso dell’intelligenza artificiale - 17 Marzo 2025