L’Autorità Europea delle Assicurazioni e delle Pensioni Aziendali e Professionali (EIOPA) ha pubblicato oggi, 11 febbraio 2025, il Consultation Paper intitolato Opinion on Artificial Intelligence Governance and Risk Management (premere qui per leggere), un documento che si inserisce nel solco della crescente regolamentazione dell’uso dell’intelligenza artificiale nel settore assicurativo. L’obiettivo primario di questa Opinione è garantire un quadro chiaro per l’applicazione responsabile delle tecnologie di intelligenza artificiale, senza sovrapposizioni normative con il Regolamento UE 2024/1689 (AI Act).
Vediamo in dettaglio i punti salienti di questo documento e il loro impatto sul settore assicurativo.
Un quadro normativo in evoluzione
La normativa europea si sta muovendo verso un approccio risk-based per la regolamentazione dell’intelligenza artificiale. Il Regolamento AI Act, entrato in vigore nel 2024, ha classificato i sistemi di intelligenza artificiale secondo diversi livelli di rischio. Particolare attenzione è stata riservata ai sistemi ad alto rischio, come quelli utilizzati per la valutazione e la determinazione dei prezzi nelle polizze vita e salute. Eppure, molti sistemi di intelligenza artificiale nel settore assicurativo non rientrano in questa categoria, pur necessitando di un’adeguata governance per evitare discriminazioni e garantire trasparenza.
L’opinione di EIOPA si concentra proprio su questi sistemi, fornendo una serie di linee guida per garantire un uso etico e responsabile della tecnologia senza imporre nuovi obblighi normativi.
Principi fondamentali di governance dell’intelligenza artificiale
EIOPA ha individuato sei aree chiave su cui le imprese assicurative devono focalizzarsi:
- Equità ed Etica: le imprese devono adottare un approccio customer-centric, garantendo che i sistemi di intelligenza artificiale trattino i clienti in modo equo, senza discriminazioni indebite.
- Governance dei dati: i dati utilizzati per addestrare e testare i sistemi di intelligenza artificiale devono essere accurati, completi e privi di bias.
- Documentazione e conservazione dei registri: le imprese devono mantenere una documentazione dettagliata sui processi decisionali dell’intelligenza artificiale per garantirne la trasparenza.
- Trasparenza e spiegabilità: le decisioni prese dall’intelligenza artificiale devono essere comprensibili per tutte le parti interessate, inclusi regolatori e clienti.
- Supervisione umana: l’intervento umano deve essere garantito in tutte le fasi critiche del processo decisionale.
- Accuratezza, robustezza e cybersecurity: i sistemi di intelligenza artificiale devono essere resilienti agli attacchi informatici e garantire un livello di accuratezza adeguato.
Approccio basato sul rischio e proporzionalità
Un elemento cardine del documento è l’applicazione del principio di proporzionalità. Non tutti i sistemi di intelligenza artificiale presentano lo stesso livello di rischio, quindi le misure di governance devono essere adattate alla natura, scala e complessità del sistema in uso. EIOPA incoraggia le imprese a condurre una valutazione d’impatto per determinare il livello di rischio associato ai propri sistemi di intelligenza artificiale e ad adottare misure di mitigazione proporzionate.
Tra i criteri suggeriti per la valutazione del rischio, troviamo:
- la tipologia di dati elaborati (es. dati sensibili o su larga scala);
- il grado di autonomia del sistema di intelligenza artificiale;
- l’impatto potenziale sui diritti dei consumatori;
- l’importanza del sistema di intelligenza artificiale nella continuità aziendale.
Implicazioni per il settore assicurativo
L’introduzione di queste linee guida avrà un impatto significativo sulle imprese assicurative. La necessità di adottare misure di governance proporzionate potrebbe portare a una revisione delle politiche interne per garantire conformità alle aspettative normative. In particolare, le imprese dovranno investire in:
- formazione del personale: l’uso dell’intelligenza artificiale richiede competenze specifiche, soprattutto in termini di supervisione e mitigazione dei rischi;
- audit Interni e documentazione: la tracciabilità dei processi di intelligenza artificiale diventerà un elemento cruciale per dimostrare conformità agli standard normativi;
- sicurezza informatica: la resilienza dei sistemi di intelligenza artificiale agli attacchi informatici sarà un punto di attenzione crescente per regolatori e imprese.
Il focus sulla governance e sul risk management evidenzia l’importanza di un approccio responsabile all’uso di queste tecnologie, senza ostacolare l’innovazione. Le imprese assicurative dovranno adeguarsi rapidamente per integrare le nuove best practices, assicurandosi di mantenere un equilibrio tra compliance, efficienza operativa e tutela del consumatore.
Il futuro del settore passerà inevitabilmente attraverso un uso sempre più avanzato dell’intelligenza artificiale, ma solo una gestione consapevole e regolamentata potrà garantire che questa evoluzione avvenga nel rispetto dei principi di equità, trasparenza e sicurezza.
Maria Paola Caiazzo
Ultimi post di Maria Paola Caiazzo (vedi tutti)
- Intelligenza artificiale e Assicurazioni: il nuovo parere di EIOPA su Governance e Risk Management - 11 Febbraio 2025
- la nozione di “produttore” secondo la Corte di Giustizia UE - 20 Dicembre 2024
- La liquidazione del danno biologico cd. differenziale deve modellarsi sui criteri propri della causalità giuridica - 31 Luglio 2024
- La richiesta del terzo trasportato alla compagnia di assicurazione determina il litisconsorzio necessario del proprietario del veicolo - 17 Luglio 2024
- Sul vincolo culturale sul bene locato - 16 Luglio 2024