E’ stata resa pubblica la terza bozza del Codice di Condotta sui modelli di intelligenza artificiale a scopo generale (premere qui per leggere), quello che probabilmente rappresenterà la svolta maggiormente significativa per il futuro della regolazione dell’intelligenza artificiale in Europa. Frutto di una consultazione multisettoriale, questa bozza – pubblicata in attuazione del Regolamento (UE) 2022/2554 (AI Act) – costituisce uno degli snodi normativi più rilevanti per il settore.
Sotto la guida dell’AI Office dell’Unione Europea, il Codice non solo integra il tessuto regolamentare previsto dal legislatore europeo, ma aspira a divenire lo standard volontario di riferimento per gli sviluppatori di intelligenza artificiale generalista, anche in attesa dell’adozione di standard armonizzati.
Obiettivi del Codice: trasparenza, sicurezza e governance evoluta
Il documento articola due livelli di impegno:
- obblighi per tutti i fornitori di modelli di intelligenza artificiale a scopo generale;
- ulteriori obblighi per i fornitori di modelli di intelligenza artificiale classificati come a rischio sistemico.
Tra gli obiettivi dichiarati vi sono:
- favorire una conformità semplificata al Regolamento sull’Intelligenza Artificiale,;
- assicurare la tracciabilità della documentazione tecnica lungo l’intera filiera dell’intelligenza artifciale;
- garantire il rispetto del diritto d’autore e aumentare la trasparenza sull’uso dei dati;
- mitigare i rischi sistemici derivanti da modelli ad alta pervasività.
Modelli ad alto impatto e rischio sistemico: la stretta normativa
Le disposizioni più stringenti si applicano a quei modelli definiti come GPAISR – General Purpose AI Systems with Systemic Risk. Per questi, il Codice introduce un impalcato di compliance strutturata, articolato in sedici impegni obbligatori.
Tra i più rilevanti:
- adozione di un Safety and Security Framework, finalizzato alla valutazione e mitigazione dei rischi lungo l’intero ciclo di vita del modello;
- obbligo di audit esterni indipendenti prima del rilascio sul mercato;
- implementazione di barriere tecniche contro accessi non autorizzati ai pesi del modello;
- notifica tempestiva all’AI Office di incidenti gravi;
- pubblicazione volontaria delle informazioni chiave di sicurezza e trasparenza verso il pubblico.
Ogni GPAISR deve essere accompagnato da una “Safety and Security Model Report”, documento che sintetizza l’analisi del rischio effettuata e le misure adottate.
Tutela dei whistleblower e responsabilità interna
Il Codice non trascura i profili organizzativi e di governance interna. Tra le previsioni più innovative:
- clausole anti-ritorsione per chi, all’interno dell’organizzazione, segnali rischi sistemici al regolatore;
- attribuzione chiara delle responsabilità interne in tema di gestione del rischio;
- allocazione proporzionata di risorse in funzione della complessità aziendale e dell’impatto sistemico del modello.
Trasparenza e copyright: le nuove metriche per la fiducia
Sul fronte della trasparenza, il Codice prevede:
- l’adozione obbligatoria di una documentazione strutturata del modello accessibile ai provider downstream;
- l’implementazione di politiche attive per il rispetto del diritto d’autore, inclusa la tracciabilità dei dataset utilizzati nella fase di pre-training.
Tutti i fornitori sono chiamati a garantire il rispetto della Direttiva (UE) 2019/790, in particolare per quanto riguarda il diritto di opposizione al text and data mining da parte dei titolari dei diritti.
Una regolazione agile per un ecosistema in evoluzione
Il Codice nasce con una logica “future-proof”, capace di adattarsi a:
- nuovi rischi emergenti;
- evoluzione delle tecnologie;
- cambiamenti sociali e normativi.
La volontà è di creare un framework dinamico, dove i fornitori possano anche proporre misure alternative più efficaci, a patto che garantiscano risultati equivalenti o superiori in termini di sicurezza e affidabilità.
una regolazione d’avanguardia, in equilibrio tra innovazione e tutela
Questa terza bozza del Codice di Condotta segna una transizione normativa senza precedenti per la governance dell’intelligenza artificiale in Europa.
Non è un semplice insieme di buone pratiche, ma una vera e propria infrastruttura giuridico-tecnica per il futuro dell’intelligenza artificiale generalista.
La centralità della mitigazione del rischio sistemico, la trasparenza nei confronti dell’utente e del pubblico, l’impegno verso l’accountability interna rendono questo Codice un banco di prova per la regolazione dell’intelligenza artificiale nel prossimo decennio.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Intelligenza artificiale e responsabilità sistemica: ecco la terza bozza del codice di condotta - 12 Marzo 2025
- Pubblicato il decreto attuativo di adeguamento alla DORA in Gazzetta Ufficiale - 11 Marzo 2025
- L’azione coordinata dell’ EDPB e delle Autorità nazionali sul diritto all’oblio - 7 Marzo 2025
- NIS2 e settori critici a rischio: l’allarme ENISA su vulnerabilità sistemiche e impatti trasversali - 6 Marzo 2025
- Legal design e informative privacy: verso una comunicazione più chiara e accessibile - 25 Febbraio 2025