Qualche settimana fa ho riletto un mio vecchio contributo (premere qui per leggere) risalente a quando iniziai, da studente, ad affrontare il tema dell’intelligenza artificiale applicata al diritto, che mi ha portato ad ampliare ed attualizzare (non più di tanto, in realtà) le considerazioni ivi contenute in un nuovo contributo (premere qui per leggere).
Oggi vorrei ulteriormente ampliare queste considerazioni, cercando però di chiarire alcuni punti fondamentali con lo specifico scopo di migliorare la narrazione corrente sempre più oscillante tra entusiasmi utopici e timori distopici (sic!).
Che l’intelligenza artificiale stia progressivamente permeando ogni settore della società contemporanea, incluso quello giuridico, è sotto gli occhi di tutti, ma nel caso specifico dei giuristi ciò che bisogna mettere al centro del dibattito è che non si tratta di sostituire il giurista, bensì di comprenderne l’evoluzione. Quindi con questo articolo tenterò di fare proprio questo, approfondendo con l’ausilio dei miei Maestri le condizioni, le trasformazioni e i limiti dell’intelligenza artificiale nel diritto, tentando di restituire e restituirvi una visione stratificata e critica.
Il futuro delle decisioni legali è già qui. Ma non è quello che ci aspettavamo. La giustizia automatizzata è molto più complessa del previsto, e non esistono scorciatoie tecnologiche. Ma l’evoluzione è in atto. Non c’è dubbio.
Procediamo però con ordine. Ci sono tre “precondizioni” da analizzare preliminarmente: la potenza dei computer, lo scambio di comunicazione delle informazioni, e l’ammontare dei dati.
Ebbene, cominciamo subito col dire che la legge di Moore non è (solo) una profezia. Il raddoppio esponenziale della capacità computazionale, a parità di costo e spazio, ha reso possibile ciò che era impensabile. Oggi la potenza dei computer è oltre un miliardo di volte superiore rispetto agli anni Cinquanta! Questa forza bruta non è però sufficiente da sola, ma è certamente una delle precondizioni strutturali dell’intelligenza artificiale.
Parallelamente, l’infrastruttura della comunicazione digitale ha abbattuto ogni barriera spaziale alla circolazione dell’informazione. La crescita vertiginosa della produzione di dati, unita alla drastica riduzione dei costi di archiviazione, rappresenta un altro tassello fondamentale. Potremmo quasi dire che senza dati, l’intelligenza artificiale è come se fosse cieca.
Ed è quasi superfluo dire che è stata la società dell’informazione stessa, quindi noi altri, ad essere il principale carburante dell’intelligenza artificiale. Ogni secondo produciamo un’enorme quantità di dati. Le informazioni circolano su scala planetaria, e i costi di archiviazione sono crollati. Dati abbondanti e accessibili sono il nuovo terreno di gioco anche per il diritto. E’ bene però chiarire sin d’ora che tali dati senza un vero criterio interpretativo, rimangono materia grezza! Ma la materia c’è.
In numerosi settori, salute e finanza su tutti, l’intelligenza artificiale ha iniziato ad affermarsi grazie principalmente alle sue capacità predittive. Il che di primo acchitto potrebbe portare i più fantasiosi a pensare ad una sua “naturale applicazione” anche all’ambito giuridico: il giudice robot. Ma non è così semplice. Il diritto infatti presenta ostacoli specifici che altri settori non conoscono: ambiguità semantica, vaghezza normativa, contesto storico e valore interpretativo.
Chiariamo subito una cosa.
Nel contesto giuridico è ancor più essenziale distinguere tra intelligenza artificiale generale (o forte), che ambisce a replicare l’intero spettro delle capacità cognitive umane, e intelligenza artificiale ristretta (o debole), specializzata invece nell’esecuzione di compiti specifici. Mentre la prima rimane confinata nel dominio teorico, la seconda è già operativa in numerosi ambiti: classificazione giurisprudenziale, analisi di sentenze, predizione di esiti processuali.
Ecco l’odierna narrativa dell’intelligenza artificiale oscilla tra promesse messianiche e timori distopici. La cosiddetta “intelligenza artificiale forte” — capace di replicare le facoltà cognitive umane in maniera generalizzata — resta ancora un’ipotesi lontana. Quella “ristretta”, invece, è già realtà. E comporta problemi giuridici urgenti, soprattutto in tema di responsabilità e bias (o anche di avvelenamento, come visto in un precedente contributo).
Ma ciò che qui mi preme sottolineare è che è del tutto fuorviante attribuire alla intelligenza artificiale ristretta poteri cognitivi che non possiede. L’intelligenza artificiale non comprende il significato profondo del linguaggio, non possiede senso comune, né tantomeno coscienza etica. Non distingue tra causa e correlazione. Non interpreta. Non percepisce i valori giuridici. E in diritto tutte queste lacune sono alquanto determinanti: la decisione giuridica, a differenza di quella tecnica, non è un puro esercizio di inferenza logica.
Tutti noi giuristi, sin dal primo giorno di studi universitari ci siamo “punti” con le spine del diritto logico: rigidità, vaghezza, aggiornamento. C’è chi ha buttato più sangue degli altri e chi meno, ma alla fine tutti abbiamo versato lo stesso sangue nella stessa melma.
Di sangue non sono dotati però i sistemi esperti, senz’altro pioneristici, ma che ben presto si sono scontrati, anche loro, con la struttura fluida del diritto. La modellazione di concetti giuridici è infatti non-isomorfa rispetto al linguaggio naturale. Il diritto, per sua natura, è dinamico, contestuale, e di fatto, per la poca gioia di alcuni giudici e avvocati, resiste alla completa formalizzazione.
Allo stato attuale esistono piattaforme semantiche alquanto evolute che cercano di colmare il divario, ma si collocano ancora lontano da una piena automazione del ragionamento giuridico. Oracle Policy Automation, ad esempio, è una piattaforma sviluppata da Oracle per modellare, implementare e automatizzare regole e politiche decisionali in linguaggio naturale, traducendole in logica computazionale eseguibile. Il sistema consente agli esperti di dominio, anche privi di competenze di programmazione, di codificare complesse normative, regolamenti o politiche aziendali sotto forma di regole decisionali trasparenti e verificabili. Tali regole vengono poi utilizzate per generare decisioni automatizzate, spiegazioni tracciabili e simulazioni di scenari giuridici. Grazie all’integrazione con sistemi informativi aziendali, questa piattaforma trova applicazione concreta in ambito amministrativo, fiscale, previdenziale e regolatorio, offrendo vantaggi in termini di uniformità, efficienza e accountability, restando però comunque uno strumento focalizzato sull’applicazione di norme codificate e non sull’interpretazione o sulla costruzione argomentativa del diritto.
Qualcuno potrebbe poi giustamente pensare alla tecnologia blockchain che ha introdotto modelli di contrattualistica autoeseguibile: gli smart contracts. Ma questi strumenti si rivelano utili in scenari predeterminati e altamente formalizzati, ma risultano inadeguati laddove è richiesta interpretazione, equità, o adattabilità al contesto. Si perchè gli smart contracts sono certamente autoeseguibili, immodificabili e trasparenti. Ma anche rigidi, decontestualizzati e vulnerabili alla non-comprensione semantica.
Insomma, il codice non è legge (anche se può diventarlo entro confini ben delimitati!) L’idea che “il contratto è il programma” funziona solo in ambiti iper-strutturati. Il diritto reale è un’altra cosa: sfumato, contraddittorio, storicizzato.
Ed allora, in un siffatto contesto è l’ontologia a diventare strumento per strutturare la conoscenza giuridica.
La costruzione di ontologie legali, come il progetto LKIF (Legal Knowledge Interchange Format), mira a strutturare e armonizzare la rappresentazione della conoscenza giuridica in ambito computazionale. Si tratta di un’iniziativa dell’Unione Europea sviluppata nell’ambito del progetto ESTRELLA, volta a creare un linguaggio e un framework ontologico standard per facilitare l’interoperabilità tra sistemi informatici giuridici. LKIF integra concetti provenienti da diverse fonti normative e dottrinali, rappresentandoli attraverso un’ontologia multilivello che include entità astratte (come norme, obblighi, atti giuridici), concetti sociali (come ruoli, agenti, istituzioni) e relazioni logiche e semantiche. L’obiettivo è quello di fornire un’infrastruttura concettuale condivisa per applicazioni avanzate di intelligenza artificiale nel diritto, strutturare in modo sistematico i concetti del diritto. Questo approccio si fonda sulla definizione di relazioni semantiche tra entità concettuali, al fine di facilitare l’interoperabilità tra sistemi. Ma in ogni caso la distanza semantica tra il diritto positivo e la sua rappresentazione logica resta un nodo irrisolto.
Insomma, anche qui il tentativo di rappresentare il diritto attraverso concetti, relazioni e vincoli trova il limite dell’asimmetria tra struttura normativa e rappresentazione computazionale.
Ma il diritto non è solo un insieme di norme, ma anche un processo argomentativo. Casi, analogie, distinzioni, sono il vero cuore pulsante della giurisprudenza (anche ormai nei sistemi di civil law, è innegabile).
Ed un ragionamento per casi (case-based reasoning) consente in effetti di simulare il processo decisionale fondato su precedenti. Attraverso modelli computazionali, si tenta quindi di catturare la logica sottesa alla ratio decidendi. Ma anche qui, il rischio è quello della banalizzazione dell’analogia e della perdita di sensibilità contestuale. La sfida è quindi duplice: generalizzare senza banalizzare, distinguere senza perdere coerenza.
Vi è chi ha raccolto tale sfida creando strumenti come Carneades o ASPIC+ che hanno lo scopo specifico di modellare la struttura degli argomenti giuridici: premesse, conclusioni, eccezioni, confutazioni.
Carneades è un sistema di modellazione argomentativa sviluppato per rappresentare e valutare argomentazioni giuridiche in forma diagrammatica e computabile, integrando regole di inferenza, pesi argomentativi e criteri di giustificazione. Permette di costruire schemi argomentativi complessi, visualizzando i rapporti di attacco, supporto e difesa tra argomenti, in modo da simulare un dibattito giuridico strutturato.
ASPIC+, invece, è un framework modulare per il ragionamento argomentativo basato su regole, capace di integrare sia argomenti deduttivi che non-deduttivi. Esso permette di modellare i conflitti tra argomenti, stabilire quali prevalgono e costruire un “dialogo computazionale” tra posizioni giuridiche contrapposte. Il loro valore è eminentemente euristico: non puntano alla decisione automatica, ma alla comprensione e alla simulazione del ragionamento giuridico in contesti complessi.
Citare questi due strumenti mi consente di arrivare al punto principale della questione oggi affrontata: l’intelligenza artificiale qui funge da strumento euristico, più che sostitutivo. I sistemi argomentativi, cioè, se ben implementati, possono aiutare a visualizzare, valutare e testare ragionamenti complessi.
Ma oggi ci troviamo definitivamente nell’era dell’apprendimento automatico, che ha introdotto un paradigma radicalmente diverso. Invece di modellare il diritto a priori, l’intelligenza artificiale viene addestrata su set di dati giurisprudenziali per predire esiti. L’utilità pratica è indubbia, ma sorgono inevitabilmente interrogativi etici e giuridici sulla trasparenza, l’equità, la non discriminazione (di cui si è ampiamente detto in un precedente contributo, premere qui per leggere).
Il machine learning, specie supervisionato, rappresenta la svolta contemporanea. I modelli predittivi non spiegano il diritto, ma riproducono pattern decisionali. Può essere uno strumento prezioso per i giuristi, ma non è il giudice. Almeno non ancora. Saper distinguere tra previsione utile e automatismo cieco è oggi cruciale per un giurista.
Insomma non siamo ancora arrivati ad un giudice robot, ma siamo arrivati invece ai “giudici aumentati”. Discorso che ovviamente vale per ogni tipo di giurista.
Si sta andando sempre di più verso il giurista tecno-potenziato: la simbiosi tra uomo-macchina.
Insomma, la vera rivoluzione non è la sostituzione del giurista, ma la sua trasformazione. Il futuro del diritto passa attraverso figure professionali ibride: capaci di leggere una sentenza e un algoritmo, di interpretare una norma e validare un modello predittivo. Il giurista del futuro dovrà progettare, valutare e monitorare sistemi informatici secondo i criteri della legalità, proporzionalità, e tutela dei diritti fondamentali.
In questa prospettiva si inseriscono strumenti come Ross e Lex Machina, due esempi significativi dell’applicazione dell’intelligenza artificiale al diritto. Ross, basato sulla tecnologia IBM Watson, è stato progettato per assistere gli avvocati nella ricerca giuridica: interagendo in linguaggio naturale, è in grado di comprendere quesiti legali e fornire risposte documentate attingendo da vasti archivi di giurisprudenza e dottrina. Il suo valore risiede nella velocità e nella pertinenza delle risposte, che ottimizzano i tempi della consulenza legale. Lex Machina, invece, è una piattaforma di legal analytics che elabora grandi volumi di dati giurisprudenziali, identificando pattern e tendenze nelle decisioni dei giudici, nelle strategie degli studi legali, e negli esiti dei contenziosi. Ciò consente agli operatori del diritto di formulare previsioni strategiche, valutare il rischio legale e orientare con maggiore consapevolezza le scelte processuali. Entrambi rappresentano esempi concreti di come la tecnologia possa potenziare le capacità analitiche e decisionali del giurista, promuovendo una prassi legale più informata, efficiente e trasparente.
Insomma, oggi la giustizia automatizzata è ancora una chimera. I sistemi basati su regole sono usati per decisioni di routine. I modelli argomentativi restano prototipi. I modelli predittivi non sostituiscono il giudice. La robotizzazione integrale della giustizia non è (ancora) una prospettiva concreta. Ma l’intelligenza artificiale può — e deve — essere una risorsa per rendere la giustizia più efficiente, coerente e accessibile. Non deve essere una moda passeggera (è il rischio è altissimo). Deve rappresentare invece un cambio di paradigma. Ma a differenza di quanto si possa immaginare qui non si tratta di una “semplice” rivoluzione tecnica: è una sfida culturale, giuridica e politica. Occorre discernimento critico, visione strategica e competenza multidisciplinare.
Il futuro non si gioca nel codice, ma nella capacità dei giuristi di governare la complessità dell’intelligenza artificiale con strumenti giuridici, etici e politici.
L’intelligenza artificiale non sostituirà i giuristi. Ma i giuristi che sapranno usarla sostituiranno quelli che non lo faranno.
Ecco dunque spiegato perché l’intelligenza artificiale nel diritto può cambiare tutto, ma non da sola!
Per approfondire:
- G. CARCATERRA, Presupposti e strumenti della scienza giuridica, Torino, 2011;
– G. SARTOR, Corso d'informatica giuridica, Volume I. - L'informatica giuridica e le tecnologie dell'informazione, Torino, 2012;
– F. ROMEO, Lezioni di logica ed informatica giuridica, Torino, 2012;
- J. ANGWIN, J. LARSON, S. MATTU, e L. KIRCHNER, Machine Bias—There’s Software Used across the Country to Predict Future Criminals. And It’s Biased against Blacks. ProPublica, Online Edition, 2016;
- S. BAROCAS, A.D. SELBST, Big Data's Disparate Impact, in 104 California Law Review 671, 2016;
- C. O'NEIL Weapons of Math Destruction, 2016;
- V. EUBANKS, Automating Inequality, 2018;
- J. BUOLAMWINI, T. GEBRU, "Gender Shades” – Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT), 2018.
Nicola Nappi
Ultimi post di Nicola Nappi (vedi tutti)
- Perché l’intelligenza artificiale nel diritto può cambiare tutto (ma non da sola) - 24 Marzo 2025
- Data poisoning: l’avvelenamento silenzioso dell’intelligenza artificiale - 17 Marzo 2025
- Minori e intelligenza artificiale: opportunità straordinarie e rischi nascosti - 10 Marzo 2025
- L’intelligenza artificiale nei processi decisionali: implicazioni giuridiche e sfide future - 3 Marzo 2025
- Sul regime di validità nel tempo del documento sottoscritto con firma qualificata - 24 Febbraio 2025