L’intelligenza artificiale (IA) si configura sempre più come una tecnologia pervasiva, capace di influenzare molteplici settori, dalla sanità alla giustizia, fino alla finanza. Tuttavia, la sua implementazione solleva questioni giuridiche e tecniche di primaria importanza, in particolare per quanto concerne il rischio di bias algoritmico e la tutela dei diritti degli interessati ai sensi del Regolamento Generale sulla Protezione dei Dati (GDPR). Due recenti studi realizzati nell’ambito del progetto AI: Complex Algorithms and Effective Data Protection Supervision, su richiesta dell’Autorità Federale Tedesca per la Protezione dei Dati e supervisionati dall’EDPB, forniscono spunti fondamentali su questi temi.
Bias negli algoritmi di intelligenza artificiale: fonti e strumenti di valutazione
Uno dei principali problemi dell’intelligenza artificiale sono i bias, ossia le distorsioni nei dati o negli algoritmi che può portare a decisioni discriminatorie o ingiuste. Secondo il primo studio, Bias Evaluation di Kris Shrishak, membro del pool di esperti di supporto dell’EDPB (tra i quali vi è anche l’Avv. Nicola Nappi), le principali fonti di bias sono:
- Bias nei dati: deriva da dati storicamente sbilanciati o non rappresentativi di determinate categorie di soggetti.
- Bias algoritmico: dipende dalle scelte di progettazione dell’algoritmo e dall’ottimizzazione di specifiche metriche di performance.
- Bias nella valutazione: si verifica quando i test dell’algoritmo vengono effettuati su dataset di validazione non adeguati.
Per mitigare questi bias, lo studio identifica tre approcci tecnici principali:
- Pre-processing: interventi sui dati prima dell’addestramento, come la ripesatura delle classi o la rimozione di variabili sensibili.
- In-processing: modifiche all’algoritmo durante l’addestramento, ad esempio con tecniche di regolarizzazione.
- Post-processing: correzioni successive all’addestramento, come l’applicazione di soglie differenziate per gruppi protetti.
Lo studio analizza anche strumenti per la valutazione del bias, tra cui IBM AIF360, Fairlearn, Holistic AI, Aequitas e What-If Tool, evidenziandone vantaggi e limiti. Sebbene nessuno di questi strumenti sia ancora in grado di mitigare completamente il bias nelle IA generative, essi rappresentano un importante punto di partenza per lo sviluppo di sistemi più equi.
Attuazione dei diritti degli interessati nei sistemi di intelligenza artificiale
Il secondo studio, Effective Implementation of Data Subjects’ Rights, sempre a cura di Kris Shrishak, affronta la complessa questione dell’esercizio dei diritti previsti dal GDPR (articoli 12-22) nell’ambito dell’intelligenza artificiale. Particolare attenzione è dedicata al diritto di rettifica e al diritto di cancellazione, i quali presentano ostacoli significativi quando i dati personali sono stati utilizzati per addestrare modelli di intelligenza artificiale.
Sfide nella cancellazione dei dati
L’implementazione del diritto all’oblio negli algoritmi di intelligenza artificiale è ostacolata da:
- memorizzazione dei dati nei modelli: gli algoritmi di apprendimento automatico trattengono informazioni sui dati di addestramento, rendendo complesso il loro successivo “dimenticamento”;
- stocasticità del training: l’addestramento avviene con processi probabilistici, quindi rimuovere un dato specifico può non essere sufficiente per eliminarne completamente l’influenza;
- addestramento incrementale: i modelli sono migliorati nel tempo con dati successivi, il che complica la rimozione selettiva di informazioni.
Metodi per il machine unlearning
Per rispondere a queste sfide, lo studio propone diversi approcci di machine unlearning:
- Retraining totale: eliminazione dei dati personali e riaddestramento del modello ex novo. È efficace, ma costoso.
- Unlearning esatto: tecniche che permettono la rimozione selettiva di dati senza riaddestrare l’intero modello, come Sharded, Isolated, Sliced, and Aggregated (SISA), che divide il dataset in sottogruppi più facilmente eliminabili.
- Unlearning approssimato: riduzione dell’influenza di specifici dati senza eliminarli fisicamente, ad esempio tramite fine-tuning selettivo.
Considerazioni finali
Gli studi evidenziano che, nonostante gli sforzi normativi e tecnici, la gestione dei bias e la tutela dei diritti degli interessati rimangono sfide aperte nel contesto dell’intelligenza artificiale. È essenziale che gli sviluppatori di sistemi di intelligenza artificiale adottino un approccio proattivo, implementando meccanismi di trasparenza, auditing e accountability. Parallelamente, le autorità di controllo devono dotarsi di strumenti adeguati per la supervisione di questi sistemi, garantendo la conformità alle normative vigenti.
L’adozione di strategie efficaci di valutazione dei bias e di machine unlearning è cruciale per costruire un ecosistema digitale equo e rispettoso dei diritti fondamentali. In questo scenario, il dialogo tra giuristi, ingegneri e autorità di regolamentazione sarà determinante per il futuro dell’intelligenza artificiale nell’Unione Europea.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Intelligenza artificiale e protezione dei dati personali: valutazione dei bias e attuazione dei diritti degli interessati - 24 Gennaio 2025
- Pseudonimizzazione dei dati personali: nuove linee guida dell’ EDPB - 17 Gennaio 2025
- Sulla tempestività della richiesta di rimessione in termini in caso di mancato perfezionamento del deposito telematico - 7 Gennaio 2025
- Sul trattamento illecito di dati personali da parte dei sistemi di intelligenza artificiale - 20 Dicembre 2024
- L’intelligenza artificiale generale nel quadro dell’AI Act: analisi delle nuove FAQ della Commissione UE - 9 Dicembre 2024