L’intelligenza artificiale nei processi decisionali: implicazioni giuridiche e sfide future

Tempo di lettura stimato:4 Minuti, 49 Secondi

Riprendendo le considerazioni svolte su questo portale ormai oltre un decennio fa (premere qui per leggere) oggi tocca ancora una volta affermare che l’avanzata dell’intelligenza artificiale nell’ambito dei processi decisionali sollecita il diritto a riconsiderare paradigmi consolidati, ponendo in primo piano questioni di equità, trasparenza e tutela dei diritti fondamentali. L’uso crescente di sistemi algoritmici in ambiti critici come il diritto, l’amministrazione pubblica e la gestione delle risorse economiche solleva però interrogativi più o meno inediti su responsabilità, discriminazione e controllo democratico.

I sistemi di intelligenza artificiale, soprattutto quelli basati su apprendimento automatico e big data, influenzano profondamente le modalità decisionali. Questi strumenti, capaci di processare una quantità ingente di informazioni, offrono opportunità straordinarie in termini di efficienza e ottimizzazione, pur richiedendo la loro implementazione un’attenta supervisione giuridica per garantire che non si traducano in disparità e violazioni dei diritti.

Nel settore giuridico, l’intelligenza artificiale viene da anni impiegata per analisi predittive, gestione documentale e supporto nelle decisioni giudiziarie. Ad esempio, alcuni tribunali statunitensi utilizzano algoritmi per stimare il rischio di recidiva nei procedimenti di libertà condizionale, anche se vi sono autorevoli studi che hanno dimostrato che questi strumenti possono amplificare pregiudizi preesistenti, generando discriminazioni sistemiche nei confronti di determinati gruppi sociali.

Senza alcuna pretesa di completezza, vorrei qui citarne alcuni, partendo dall’ottimo “Machine Bias—There’s Software Used across the Country to Predict Future Criminals. And It’s Biased against Blacks” a cura di J. Angwin, J. Larson, S. Mattu, e L. Kirchner (pubblicato su Pro Publica il 23 maggio 2016) con il quale gli autori hanno esaminato il software COMPAS, utilizzato nei tribunali statunitensi per prevedere la recidiva criminale. Gli studiosi hanno dimostrato che l’algoritmo sovrastimava il rischio di recidiva per gli imputati afroamericani e lo sottostimava per quelli bianchi, perpetuando pregiudizi razziali nel sistema giudiziario.

Nello studio invece di Solon Barocas ed Andrew D. Selbst, intitolato “Big Data’s Disparate Impact”, viene analizzato come i dati utilizzati per addestrare algoritmi possano riflettere pregiudizi storici, portando a discriminazioni indirette in settori come l’assunzione del personale, il credito e le assicurazioni.

Nel 2018 la ricerca condotta da J. Buolamwini, e T. Gebru, ha dimostrato che i sistemi di riconoscimento facciale di aziende leader come IBM, Microsoft e Face++ avevano tassi di errore molto più alti nel riconoscere volti di donne e persone con pelle scura rispetto a uomini bianchi, rivelando bias di genere e razziali.

Insomma, da tutto questo deriva che l’utilizzo di algoritmi decisionali solleva questioni legate alla discriminazione diretta e indiretta. Sebbene raramente i sistemi automatizzati utilizzino esplicitamente fattori come razza o genere nelle loro valutazioni, possono comunque generare effetti discriminatori a causa della selezione dei dati utilizzati per l’addestramento.

Un esempio emblematico è rappresentato dai sistemi di selezione del personale che, addestrati su dati storici, potrebbero perpetuare discriminazioni esistenti nel mercato del lavoro, penalizzando candidati appartenenti a minoranze o gruppi svantaggiati. A ciò si deve aggiungere che molti algoritmi operano come vere e proprei “scatole nere”, rendendo praticamente impossibile per gli utenti comprendere i criteri su cui si basano le decisioni che li riguardano. E una tale opacità mal si concilia con il principio di motivazione delle decisioni amministrative e giudiziarie, sancito in molte giurisdizioni.

Vi è da dire, comunque, che la crescente autonomia delle tecnologie di intelligenza artificiale solleva interrogativi sulla distribuzione della responsabilità in caso di danni o decisioni erronee. Il quadro normativo attuale appare frammentato, con regolamenti che variano da settore a settore.

L’Unione Europea ha delineato un approccio normativo basato su principi etici e giuridici, enfatizzando aspetti come trasparenza, non discriminazione, sicurezza e rispetto dei diritti fondamentali. Il Regolamento Generale sulla Protezione dei Dati (GDPR) già prevede norme specifiche per le decisioni automatizzate, imponendo che gli individui possano contestarle e ottenere spiegazioni comprensibili. Ma una cosa è certa, le attuali normative non sono sufficienti a fronteggiare le sfide future, questo in quanto un’intelligenza artificiale affidabile dovrebbe basarsi su principi di accountability, garantendo che gli algoritmi siano soggetti a controlli indipendenti e verificabili. Cosa che al momento non è possibile.

Ed allora, se da un lato l’intelligenza artificiale rappresenta un’opportunità senza precedenti per migliorare la qualità delle decisioni, vi è da dire comunque che essa al tempo stesso introduce rischi sistemici che il diritto non può ignorare. Come evidenziato da autorevole dottrina, l’intelligenza artificiale può riprodurre ed amplificare pregiudizi e diseguaglianze, mettendo in discussione la tenuta di principi fondamentali quali l’uguaglianza e la non discriminazione.

L’adozione di algoritmi decisionali trasparenti e verificabili è essenziale per evitare che processi automatizzati sfuggano al controllo democratico. Una regolamentazione efficace deve garantire che l’intelligenza artificiale non diventi uno strumento di ingiustizia automatizzata, bensì un mezzo per rafforzare i valori dello Stato di diritto.

In questa prospettiva, forse, occorre promuovere modelli di intelligenza artificiale che integrino controlli umani efficaci, riducano rischi di discriminazione e permettano un uso etico ed equo delle tecnologie decisionali. Solo attraverso un impegno coordinato tra giuristi, tecnologi e decisori politici sarà possibile costruire un futuro in cui l’intelligenza artificiale sia realmente al servizio della società.

Per approfondire:

- G. CARCATERRA, Presupposti e strumenti della scienza giuridica, Torino, 2011;

– G. SARTOR, Corso d'informatica giuridica, Volume I. - L'informatica giuridica e le tecnologie dell'informazione, Torino, 2012;

– F. ROMEO, Lezioni di logica ed informatica giuridica, Torino, 2012;

- J. ANGWIN, J. LARSON, S. MATTU, e L. KIRCHNER, Machine Bias—There’s Software Used across the Country to Predict Future Criminals. And It’s Biased against Blacks. ProPublica, Online Edition, 2016;

- S. BAROCAS, A.D. SELBST, Big Data's Disparate Impact, in 104 California Law Review 671, 2016;

- C. O'NEIL Weapons of Math Destruction, 2016;

- V. EUBANKS, Automating Inequality, 2018;

- J. BUOLAMWINI, T. GEBRU, "Gender Shades” – Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT), 2018.
The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.
error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.