Intelligenza artificiale e responsabilità sistemica: ecco la terza bozza del codice di condotta

Tempo di lettura stimato:3 Minuti, 13 Secondi

E’ stata resa pubblica la terza bozza del Codice di Condotta sui modelli di intelligenza artificiale a scopo generale (premere qui per leggere), quello che probabilmente rappresenterà la svolta maggiormente significativa per il futuro della regolazione dell’intelligenza artificiale in Europa. Frutto di una consultazione multisettoriale, questa bozza – pubblicata in attuazione del Regolamento (UE) 2022/2554 (AI Act) – costituisce uno degli snodi normativi più rilevanti per il settore.

Sotto la guida dell’AI Office dell’Unione Europea, il Codice non solo integra il tessuto regolamentare previsto dal legislatore europeo, ma aspira a divenire lo standard volontario di riferimento per gli sviluppatori di intelligenza artificiale generalista, anche in attesa dell’adozione di standard armonizzati.


Obiettivi del Codice: trasparenza, sicurezza e governance evoluta

Il documento articola due livelli di impegno:

  1. obblighi per tutti i fornitori di modelli di intelligenza artificiale a scopo generale;
  2. ulteriori obblighi per i fornitori di modelli di intelligenza artificiale classificati come a rischio sistemico.

Tra gli obiettivi dichiarati vi sono:

  • favorire una conformità semplificata al Regolamento sull’Intelligenza Artificiale,;
  • assicurare la tracciabilità della documentazione tecnica lungo l’intera filiera dell’intelligenza artifciale;
  • garantire il rispetto del diritto d’autore e aumentare la trasparenza sull’uso dei dati;
  • mitigare i rischi sistemici derivanti da modelli ad alta pervasività.

Modelli ad alto impatto e rischio sistemico: la stretta normativa

Le disposizioni più stringenti si applicano a quei modelli definiti come GPAISR – General Purpose AI Systems with Systemic Risk. Per questi, il Codice introduce un impalcato di compliance strutturata, articolato in sedici impegni obbligatori.

Tra i più rilevanti:

  • adozione di un Safety and Security Framework, finalizzato alla valutazione e mitigazione dei rischi lungo l’intero ciclo di vita del modello;
  • obbligo di audit esterni indipendenti prima del rilascio sul mercato;
  • implementazione di barriere tecniche contro accessi non autorizzati ai pesi del modello;
  • notifica tempestiva all’AI Office di incidenti gravi;
  • pubblicazione volontaria delle informazioni chiave di sicurezza e trasparenza verso il pubblico.

Ogni GPAISR deve essere accompagnato da una “Safety and Security Model Report”, documento che sintetizza l’analisi del rischio effettuata e le misure adottate.


Tutela dei whistleblower e responsabilità interna

Il Codice non trascura i profili organizzativi e di governance interna. Tra le previsioni più innovative:

  • clausole anti-ritorsione per chi, all’interno dell’organizzazione, segnali rischi sistemici al regolatore;
  • attribuzione chiara delle responsabilità interne in tema di gestione del rischio;
  • allocazione proporzionata di risorse in funzione della complessità aziendale e dell’impatto sistemico del modello.

Trasparenza e copyright: le nuove metriche per la fiducia

Sul fronte della trasparenza, il Codice prevede:

  • l’adozione obbligatoria di una documentazione strutturata del modello accessibile ai provider downstream;
  • l’implementazione di politiche attive per il rispetto del diritto d’autore, inclusa la tracciabilità dei dataset utilizzati nella fase di pre-training.

Tutti i fornitori sono chiamati a garantire il rispetto della Direttiva (UE) 2019/790, in particolare per quanto riguarda il diritto di opposizione al text and data mining da parte dei titolari dei diritti.


Una regolazione agile per un ecosistema in evoluzione

Il Codice nasce con una logica “future-proof”, capace di adattarsi a:

  • nuovi rischi emergenti;
  • evoluzione delle tecnologie;
  • cambiamenti sociali e normativi.

La volontà è di creare un framework dinamico, dove i fornitori possano anche proporre misure alternative più efficaci, a patto che garantiscano risultati equivalenti o superiori in termini di sicurezza e affidabilità.


una regolazione d’avanguardia, in equilibrio tra innovazione e tutela

Questa terza bozza del Codice di Condotta segna una transizione normativa senza precedenti per la governance dell’intelligenza artificiale in Europa.

Non è un semplice insieme di buone pratiche, ma una vera e propria infrastruttura giuridico-tecnica per il futuro dell’intelligenza artificiale generalista.

La centralità della mitigazione del rischio sistemico, la trasparenza nei confronti dell’utente e del pubblico, l’impegno verso l’accountability interna rendono questo Codice un banco di prova per la regolazione dell’intelligenza artificiale nel prossimo decennio.

error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.