Dopo svariati annunci, rinvii, polemiche e interessanti discussioni, è stato finalmente pubblicato il testo definitivo dell’AI Act, il regolamento che mira a bilanciare l’innovazione tecnologica con la protezione dei diritti fondamentali.
Il Regolamento sull’intelligenza artificiale, proposto dalla Commissione Europea il 21 aprile 2021, è stato approvato dopo lunghe discussioni in Parlamento il 13 marzo 2024 e definitivamente dal Consiglio il 21 maggio 2024. Entrerà in vigore il 1° agosto 2024 e non si applicherà ai sistemi di intelligenza artificiale utilizzati per scopi militari, di difesa, sicurezza nazionale e ricerca.
L’AI Act si inserisce in una strategia più ampia, che comprende anche la direttiva sulla responsabilità dell’intelligenza artificiale. Questa direttiva, ancora in fase di sviluppo, mira a stabilire regole uniformi di responsabilità civile per l’intelligenza artificiale, coinvolgendo tutti coloro che interagiscono con queste tecnologie, direttamente o indirettamente.
Parallelamente all’AI Act, la Commissione Europea ha proposto tre strategie operative:
- Regulatory Sandboxes: ambienti controllati dove le nuove tecnologie possono essere sperimentate in sicurezza e in conformità con le normative, per promuovere l’innovazione.
- Comitato Europeo per l’Intelligenza Artificiale: un nuovo organo di vigilanza a livello europeo, supportato da supervisori nazionali, per garantire l’applicazione delle norme e monitorare i progressi nel campo dell’intelligenza artificiale.
- CE-Marking per sistemi di intelligenza artificiale ad alto rischio: i sistemi di intelligenza artificiale ad alto rischio dovranno ottenere una marcatura CE, dimostrando di rispettare gli standard di sicurezza e conformità dell’UE prima di essere commercializzati nel mercato europeo.
Come si è avuto più volte modo di analizzare (premere qui per leggere un esempio) Il regolamento classifica i sistemi di AI in base al loro livello di rischio:
- Sistemi di rischio inaccettabile: vietati in quanto contravvengono ai valori fondamentali dell’UE, come il rispetto della dignità umana e dei diritti fondamentali. Esempi includono sistemi che manipolano il comportamento umano causando danni significativi, sistemi di social scoring da parte di autorità pubbliche, e identificazione biometrica remota in tempo reale a fini di contrasto (eccetto in circostanze specifiche).
- Sistemi ad alto rischio: questi possono avere un impatto significativo sulla sicurezza, salute e diritti fondamentali delle persone. Esempi includono sistemi utilizzati come componenti di sicurezza di un prodotto regolamentato, sistemi per il reclutamento, l’educazione, l’erogazione di servizi pubblici essenziali, e sorveglianza biometrica non in tempo reale. I requisiti per questi sistemi includono valutazione e mitigazione dei rischi, alta qualità dei dati, tracciabilità, documentazione dettagliata, sorveglianza umana, e robustezza e precisione.
- Sistemi a rischio limitato: devono garantire trasparenza agli utenti, informandoli chiaramente quando interagiscono con un’intelligenza artificiale e fornendo dettagli sulle sue funzionalità e limitazioni. Esempi includono chatbot e assistenti virtuali, e sistemi di AI che generano o manipolano contenuti audiovisivi come i deepfake.
- Sistemi a rischio minimo o nullo: questi sistemi, come i filtri antispam per le email, sono esenti da obblighi normativi specifici per incoraggiare l’innovazione.
L’applicazione delle norme non sarà istantanea, e seguirà il seguente calendario:
– 2 febbraio 2025: applicazione delle norme per i sistemi di AI vietati, inclusi quelli che sfruttano l’identificazione biometrica, il riconoscimento delle emozioni, il credito sociale, e le pratiche di polizia predittiva basate esclusivamente sulla profilazione.
– 2 maggio 2025: disponibilità dei codici di buone pratiche per gli sviluppatori.
– 2 agosto 2025: applicazione delle regole per i sistemi di AI general purpose, come ChatGPT, con obblighi di fornire documentazione tecnica dei modelli e di rispettare la legge sul diritto d’autore.
– 2 agosto 2026: applicazione di tutte le altre disposizioni del regolamento.
– 2 agosto 2027: applicazione delle regole per i sistemi ad alto rischio.
Interessante la parte sulle sanzioni. Le violazioni delle norme possono infatti comportare sanzioni fino a 15 milioni di euro o il 3% del fatturato annuale globale, e fino a 35 milioni di euro o il 7% del fatturato globale per chi non rispetta il divieto di sviluppare sistemi di intelligenza artificiale con rischio inaccettabile.
L’AI Act rappresenta un passo significativo verso un’introduzione etica dell’intelligenza artificiale nella vita lavorativa e personale, con l’ambizione di creare un modello che possa essere esportato anche oltre i confini dell’Europa.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Verso una regolamentazione consapevole: analisi del Codice di Buone Pratiche sull’intelligenza artificiale generale - Novembre 15, 2024
- L’armonizzazione degli standard per l’AI Act: verso una conformità normativa sicura e affidabile - Ottobre 31, 2024
- Consultazione della Commissione Europea sull’accesso ai dati delle piattaforme - Ottobre 29, 2024
- Sanzione del Garante Privacy a Postel S.p.A.: prevenzione e corretta segnalazione della violazione in caso di data breach - Ottobre 23, 2024
- Sul valore probatorio delle firme elettroniche nel processo - Ottobre 18, 2024