L’avanzata dell’intelligenza artificiale (IA) ha introdotto innovazioni straordinarie, ma con esse emergono interrogativi di natura giuridica e sociale. Com’è noto, l’Unione Europea ha recentemente adottato un approccio regolatorio pionieristico con l’AI Act, definendo un quadro normativo per i modelli di intelligenza artificiale ad uso generale (General-Purpose AI, GPAI). Questa disciplina segna un punto di svolta nel bilanciamento tra sviluppo tecnologico e tutela dei diritti fondamentali, e la Commissione Europea ha pubblicato nuove FAQ che aiutano a chiarire l’ambito di applicazione di queste norme.
Cos’è un modello di IA ad uso generale?
Il provvedimento definisce un GPAI come un modello di intelligenza artificiale capace di eseguire una vasta gamma di compiti distinti, indipendentemente dalla modalità di commercializzazione (Articolo 3(63)). Tali modelli, allenati su grandi quantitativi di dati tramite auto-apprendimento su larga scala, costituiscono la base di molteplici sistemi downstream.
Perché regolare i modelli di intelligenza artificiale ad uso generale?
L’ampiezza delle applicazioni di questi modelli li rende strumenti potenti ma potenzialmente rischiosi. L’AI Act mira a garantire che i GPAI siano sicuri e affidabili. In particolare, i modelli con impatto sistemico, ossia quelli capaci di generare rischi su larga scala, sono soggetti a obblighi aggiuntivi. La definizione di impatto sistemico include modelli che superano una soglia di 10^25 operazioni in virgola mobile (FLOP) durante la fase di addestramento (Articolo 51).
Obblighi per i fornitori di GPAI
I fornitori di GPAI devono adempiere a una serie di obblighi, tra cui:
- documentazione tecnica e trasparenza – fornire informazioni dettagliate ai sensi dell’Articolo 53, sia all’AI Office che ai fornitori downstream;
- politiche sul diritto d’autore – adozione di misure per garantire il rispetto della normativa europea in materia di copyright;
- sintesi del contenuto di addestramento – pubblicazione di un riassunto dettagliato dei dati utilizzati per addestrare i modelli;
- mitigazione dei rischi sistemici – valutazione continua dei rischi e implementazione di misure correttive (Articolo 55);
- segnalazione di incidenti gravi – obbligo di notifica tempestiva alla Commissione in caso di eventi che compromettano la sicurezza.
Esenzioni per i modelli open-source
Un aspetto rilevante è l’esenzione per i modelli distribuiti con licenza open-source, a condizione che siano resi pubblici i pesi, l’architettura e le informazioni relative all’utilizzo (Articolo 53(2)). Tuttavia, questa esenzione non si applica ai modelli con rischio sistemico.
Prospettive e sfide
L’AI Act introduce un delicato equilibrio tra innovazione e regolamentazione. La definizione di criteri per l’identificazione dei modelli a rischio sistemico solleva questioni interpretative, che richiederanno ulteriori chiarimenti da parte dell’AI Office e del Joint Research Centre della Commissione.
Conclusioni
Il nuovo AI Act rappresenta un passo significativo verso la creazione di un ecosistema digitale sicuro e trasparente. Per i fornitori di IA, l’adeguamento alle nuove disposizioni non sarà privo di complessità, ma contribuirà a rafforzare la fiducia pubblica e a promuovere un’innovazione responsabile. L’appuntamento al 2 agosto 2025, data di entrata in vigore delle nuove norme, segna l’inizio di una nuova era per l’intelligenza artificiale in Europa.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Legal design e informative privacy: verso una comunicazione più chiara e accessibile - 25 Febbraio 2025
- i nuovi criteri per l’applicazione per la Clausola di salvaguardia del Decreto NIS - 11 Febbraio 2025
- Pubblicati dalla Commissione Europea gli orientamenti sulle pratiche vietate in materia di intelligenza artificiale - 5 Febbraio 2025
- Data Act: implicazioni e prospettive per la proprietà dei dati nell’Unione Europea - 5 Febbraio 2025
- Le Nuove linee guida della Commissione Europea sulla definizione di un sistema di intelligenza artificiale - 5 Febbraio 2025