Giustizia predittiva: promessa evolutiva o rischio sistemico?

Tempo di lettura stimato:7 Minuti, 43 Secondi

Mi sia concessa una doverosa premessa, che vi prego vivamente di leggere.

Come qualcuno già sa mi occupo di programmazione informatica da quando, ancora in età scolare, mi cimentavo con i primi linguaggi su macchine che oggi apparterrebbero più a un museo della tecnologia che all’attualità. È un mestiere – ma forse sarebbe più corretto chiamarlo istinto – che ho sempre coltivato con dedizione esclusiva. Con la stessa naturalezza con cui altri imparano a suonare uno strumento, io imparavo a scrivere codice.

Nel momento in cui ho intrapreso il percorso di studi in giurisprudenza, non ho mai considerato le due passioni come disgiunte. Anzi, le ho fatte incontrare fino a fonderle. Ho dedicato la mia formazione universitaria e post-universitaria allo studio dell’intersezione tra diritto e tecnologie informatiche, con un particolare focus sulla regolazione e lo sfruttamento dei dati personali (e non personali) nei sistemi basati su intelligenza artificiale.

Dopo anni di studio – intenso, rigoroso e ispirato da grandissimi Maestri – guardo oggi con stupore e crescente preoccupazione la proliferazione di “esperti” improvvisati che, sfruttando l’interesse mediatico per l’intelligenza artificiale, diffondono contenuti imprecisi, confusionari, spesso fuorvianti, contribuendo a creare una narrazione tanto affascinante quanto infondata.

È da questa insofferenza silenziosa e rispettosa che nasce l’esigenza di scrivere. Non per autoaffermazione, non per visibilità, ma per contribuire a “ripulire” – con equilibrio – un panorama informativo che rischia di perdere il contatto con la verità tecnica e giuridica dei fatti.

In questo spazio, che si configura come un modesto ma onesto presidio di contenuto autentico, non esprimerò opinioni personali. Mi limiterò a restituire, con profondo rispetto, le parole e le riflessioni dei Maestri e degli Studiosi che hanno tracciato i sentieri lungo i quali io stesso continuo a camminare.

L’auspicio è che chi si imbatterà in questi articoli possa affinare il proprio senso critico, imparando a distinguere con maggiore lucidità chi parla con cognizione di causa, e chi invece cavalca – con opportunismo – l’onda del sensazionalismo. Il discernimento è il primo presidio della libertà intellettuale.

Con il contributo di questa settimana comincerà un viaggio tra razionalità algoritmica e sensibilità giuridica umana tra i numerosi contributi dei miei Maestri (e non solo).

L’avvento dell’intelligenza artificiale nei sistemi giudiziari costituisce una delle sfide più complesse e affascinanti del diritto contemporaneo. In un contesto dominato dalla digitalizzazione, la giustizia predittiva si propone come strumento capace, almeno in teoria, di accelerare i procedimenti, aumentare la prevedibilità delle decisioni e rendere l’amministrazione della giustizia più efficiente.

È una sorta di proposta di riformulazione del sistema giurisdizionale, fondata su strumenti computazionali capaci di analizzare, selezionare e suggerire (o sostituire) soluzioni giuridiche in modo automatico.

Ma nel contesto sociale in cui attualmente ci troviamo è più che lecito chiedersi: siamo davvero pronti a cedere la discrezionalità giuridica a modelli computazionali?

A tal riguardo ricordo un’interessantissima discussione avviata negli anni ’10 del 2000 dal Prof. F. Romeo che metteva bene in risalto come anche se in apparenza, la giustizia predittiva sembrava promettere rapidità, efficienza, e riduzione dell’arbitrarietà, in realtà sotto la superficie, si aprivano interrogativi profondi (e ancora oggi dopo oltre un decennio largamente irrisolti): qual è il limite oltre il quale il calcolo informatico travolge la funzione giudiziaria? E ancora: possiamo davvero automatizzare il giudizio senza svilire la giurisdizione? E poi: qual è il prezzo per raggiungere l’utopistica “Imparzialità” del giudizio? Sono veramente imparziali gli algoritmi?

Ebbene, l’espressione “giustizia predittiva” — ancora priva di una codificazione tecnica consolidata — richiama la possibilità di anticipare l’esito delle decisioni giudiziarie attraverso l’analisi di grandi quantità di dati giurisprudenziali mediante algoritmi più o meno sofisticati.

Ma qui la posta in gioco è ben più alta di una semplice previsione statistica. L’obiettivo, in parte dichiarato, è quello infatti di trasferire a sistemi intelligenti porzioni sempre più rilevanti del potere decisionale, fino ad arrivare, in alcune ipotesi estreme, alla sostituzione del giudice umano.

Come ha osservato M. Barberis, essa può essere declinata in due forme distinte, ciascuna con presupposti e implicazioni differenti:

  • giustizia ausiliaria, in cui l’intelligenza artificiale fornisce supporto alla decisione, coadiuvando il giudice umano senza sostituirlo;
  • giustizia sostitutiva, in cui l’algoritmo decide in luogo dell’uomo.

La prima appare compatibile con i principi del processo equo. La seconda, invece, pone seri interrogativi di natura costituzionale e assiologica.

Certo, l’idea di una “giustizia più veloce” non è nuova. La lentezza processuale affligge da decenni i sistemi giudiziari, e ogni soluzione che prometta snellimenti è naturalmente accolta con favore.

Nella sua forma ausiliaria, la giustizia predittiva si presenta come strumento di razionalizzazione del lavoro giurisprudenziale, capace di proporre soluzioni ricorrenti, orientamenti consolidati, o calcoli di probabilità sul possibile esito di una controversia.

Un esempio concreto si trova nell’esperienza francese di Predictice, piattaforma che, attraverso un’analisi massiva della giurisprudenza, consente a giuristi e assicuratori di stimare la probabilità di vittoria in un determinato tipo di causa civile.

Ma — come ha notato il Prof. G. Sartor — non si tratta di “prevedere” in senso profetico, bensì di elaborare stime probabilistiche fondate su dati storici e modelli statistici​.

Il rischio è evidente: trasformare la giustizia in un esercizio di convergenza numerica, dove le soluzioni meno frequenti, ma forse più giuste, vengano scartate in quanto statisticamente anomale.

Molto più controversa è invece la declinazione sostitutiva. In questa prospettiva, l’intelligenza artificiale non si limita a coadiuvare: decide.

Barberis lo chiarisce con precisione: la giustizia sostitutiva è un’ipotesi in cui la funzione decisionale del giudice viene interamente delegata a un algoritmo addestrato sui precedenti​.

Una tale prospettiva si scontra frontalmente con i principi costituzionali di personalità del giudice, motivazione della sentenza, e giusto processo, oltre a infrangere il principio di umanità che presidia l’intero ordinamento giuridico europeo.

Come esempio distorto, spesso viene citata la Cina, dove un sistema sperimentale consente al pubblico ministero di essere supportato da un sistema di intelligenza artificiale nella selezione dei casi. Ma la realtà è ben più sobria: non esistono giudici-robot, né sentenze emesse senza firma umana​. Chi sostiene il contrario, o disinforma o ignora la struttura del processo.

È vero che gli algoritmi di machine learning apprendono dai dati. Ma è altrettanto vero che apprendono anche i bias contenuti in quei dati.

Come ben evidenzia l’avv. M. Iaselli, i sistemi predittivi rischiano di replicare e amplificare le discriminazioni storiche: razziali, sociali, geografiche​.

Il giudizio umano ha la capacità — imperfetta, ma insostituibile — di cogliere l’eccezione, il contesto, la sfumatura. Un algoritmo, no: al più, assegna pesi.

Pensiamo alla valutazione della recidiva in ambito penale, o alle concessioni di libertà vigilata: se basate su predizioni probabilistiche derivate da big data, il rischio è quello di negare al singolo la possibilità di smentire la propria “categoria statistica”. Un colpo mortale alla nozione stessa di responsabilità individuale.

E qui mi vengono in mente gli importantissimi concetti espressi dal Mons. Vincenzo Paglia e da Paolo Benanti durante un forum della preghiera interreligiosa per la pace del 2023 a Berlino, durante il quale hanno sostanzialmente affermato che le promesse dell’intelligenza artificiale si scontrano con un principio cardine: quello di umanità! Se il diritto, come sistema di regole e valori, ha senso solo in quanto rivolto all’essere umano, ogni tentativo di delega integrale alla macchina rischia di travolgere il fondamento antropocentrico del sistema etico e del sistema giuridico.

La giustizia non è solo mero calcolo. È valutazione, empatia, ragionevolezza. È, soprattutto, assunzione di responsabilità. Nel momento in cui si affida la decisione a un sistema automatizzato, si altera quel rapporto fiduciario tra cittadino e giustizia. Il giudice diventa una black box algoritmica, e il cittadino — di fronte alla sentenza — può non più riconoscervi il volto della legge, ma quello di un tecnocrate digitale.

Ci pare opportuno dunque dover affermare che il dibattito sulla giustizia predittiva non può esaurirsi nel dualismo apocalittici/integrati. Serve piuttosto un approccio sobrio, disincantato ma non disilluso, capace di cogliere il potenziale dell’innovazione senza cedere al determinismo tecnologico.

Insomma nel quadro delineato, la vera domanda non è se introdurre o meno l’intelligenza artificiale nel diritto, ma quale debba essere il ruolo del giurista di fronte a questa trasformazione.

Come ricorda G. Pasceri, la professione legale è destinata a un’evoluzione profonda. L’avvocato dovrà essere capace di comprendere, governare e — all’occorrenza — contrastare gli esiti distorsivi delle logiche algoritmiche​.

La competenza informatica non è più un’opzione: è una necessità. Ma non per abdicare al pensiero critico. Piuttosto, per difenderlo con strumenti più acuti.

Ed allora chiariamolo una volta per tutte: la giustizia predittiva non è il nemico! Il vero pericolo è l’irriflessione. È l’adozione acritica, entusiasta, talora fideistica, di strumenti opachi e opacizzanti.
Il diritto è dialogo, responsabilità, umanità. L’algoritmo potrà coadiuvare, ma mai sostituire ciò che è, per sua natura, giuridicamente umano.

Per approfondire:

- M. BARBERIS, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, Milan Law Review, 2022, p. 2 ss.;

- A. SANTOSUOSSO – G. SARTOR, La giustizia predittiva: una visione realistica, in Giurisprudenza Italiana, 2022, p. 1759 ss.;

- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, p. 80 ss.;

- G. PASCERI, Introduzione all’intelligenza artificiale, in Innovazione, intelligenza artificiale e giustizia, in Quaderno dell’Ordine degli Avvocati di Milano, 2021, p. 5 ss.
The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.
error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.