L’adozione dell’intelligenza artificiale sta trasformando il panorama normativo europeo. Con l’entrata in vigore del Regolamento UE 2024/1689 (AI Act), la Commissione Europea ha pubblicato le Linee Guida sulla definizione di un sistema di intelligenza artificiale (premere qui per leggere), chiarendo il perimetro applicativo del nuovo quadro regolatorio. Questo documento rappresenta un tassello essenziale per garantire certezza giuridica agli operatori e favorire l’armonizzazione dell’uso dell’intelligenza artificiale nel mercato unico europeo.
Un quadro normativo in evoluzione
L’AI Act, entrato in vigore il 1° agosto 2024, introduce una regolamentazione armonizzata per lo sviluppo, l’immissione sul mercato e l’uso dell’intelligenza artificiale nell’Unione Europea. Il suo obiettivo è bilanciare l’innovazione tecnologica con la tutela dei diritti fondamentali, della democrazia e dello stato di diritto.
Bisogna dire però che non tutti i sistemi tecnologici rientrano automaticamente nella disciplina del regolamento. Per questo motivo, le nuove Linee Guida della Commissione Europea forniscono un’interpretazione chiara della definizione di “sistema di intelligenza artificiale”, garantendo certezza normativa per gli operatori di mercato e le istituzioni.
La definizione di un sistema di intelligenza artificiale
L’articolo 3(1) dell’AI Act stabilisce che un sistema di intelligenza artificiale è:
“Un sistema basato su macchine, progettato per operare con diversi livelli di autonomia, che può mostrare capacità adattive dopo la distribuzione e che, per obiettivi espliciti o impliciti, elabora input per generare output come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.”
Questa definizione adotta un approccio basato sul ciclo di vita del sistema, distinguendo due fasi principali:
- fase di sviluppo (“building phase”), in cui il sistema viene addestrato e progettato;
- fase di utilizzo (“use phase”), in cui il sistema è attivamente impiegato.
L’inclusione di sistemi con differenti livelli di autonomia e capacità adattive dimostra l’intenzione del legislatore di abbracciare un’ampia varietà di applicazioni di intelligenza artificiale, senza vincolarsi a un’unica metodologia tecnologica.
Elementi chiave della definizione di intelligenza artificiale
Le linee guida individuano sette elementi fondamentali per stabilire se un sistema rientra nella definizione di intelligenza artificiale:
- Sistema basato su macchine – un sistema di intelligenza artificiale deve essere basato su componenti hardware e software.
- Autonomia – il sistema deve poter operare con un certo grado di indipendenza rispetto all’intervento umano.
- Adattività – alcuni sistemi di intelligenza artificiale possono modificare il proprio comportamento dopo la distribuzione.
- Obiettivi espliciti o impliciti – l’intelligenza artificiale opera per raggiungere determinati scopi, anche non dichiarati esplicitamente.
- Inferenza – il sistema deve essere in grado di elaborare input per generare output (previsioni, decisioni, contenuti, raccomandazioni).
- Output che influenzano l’ambiente – le decisioni dell’intelligenza artificiale devono avere un impatto su ambienti fisici o digitali.
- Interazione con l’ambiente – l’intelligenza artificiale non è un sistema statico, ma modifica il contesto in cui opera.
Questi elementi delineano una definizione ampia, capace di adattarsi all’evoluzione tecnologica senza escludere future innovazioni.
Esclusioni dal campo di applicazione
Non tutti i sistemi informatici rientrano comuqneu nella definizione di intelligenza artificiale. Le linee guida infatti escludono:
- software tradizionali basati su regole predefinite (senza capacità di apprendimento o inferenza);
- sistemi di elaborazione dati basilari, come fogli di calcolo o database gestionali;
- sistemi di ottimizzazione matematica che migliorano processi consolidati senza modificare autonomamente il loro comportamento;
- metodi euristici classici, utilizzati in problemi di calcolo senza capacità di apprendimento autonomo.
Queste esclusioni evitano un’applicazione eccessivamente ampia del regolamento, garantendo che solo i sistemi realmente innovativi e autonomi siano soggetti agli obblighi dell’AI Act.
Implicazioni per le imprese e i professionisti del settore
Le nuove linee guida hanno importanti conseguenze per il settore legale e per le imprese che sviluppano o utilizzano l’intelligenza artificiale:
- maggiori certezze per gli operatori del mercato, che possono ora determinare con precisione se i loro prodotti rientrano nel campo di applicazione dell’AI Act;
- obblighi più chiari per i fornitori di intelligenza artificiale, che dovranno rispettare i vincoli normativi in base al livello di rischio del loro sistema;
- tutela rafforzata per i consumatori e gli utenti finali, garantendo trasparenza e sicurezza nell’uso delle tecnologie IA.
Le imprese che operano con sistemi di intelligenza artificiale dovranno adeguarsi rapidamente, sviluppando strategie di compliance per evitare sanzioni e mantenere la propria competitività sul mercato europeo.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Intelligenza artificiale e responsabilità sistemica: ecco la terza bozza del codice di condotta - 12 Marzo 2025
- Pubblicato il decreto attuativo di adeguamento alla DORA in Gazzetta Ufficiale - 11 Marzo 2025
- L’azione coordinata dell’ EDPB e delle Autorità nazionali sul diritto all’oblio - 7 Marzo 2025
- NIS2 e settori critici a rischio: l’allarme ENISA su vulnerabilità sistemiche e impatti trasversali - 6 Marzo 2025
- Legal design e informative privacy: verso una comunicazione più chiara e accessibile - 25 Febbraio 2025