L’avanzata dell’intelligenza artificiale (IA) ha introdotto innovazioni straordinarie, ma con esse emergono interrogativi di natura giuridica e sociale. Com’è noto, l’Unione Europea ha recentemente adottato un approccio regolatorio pionieristico con l’AI Act, definendo un quadro normativo per i modelli di intelligenza artificiale ad uso generale (General-Purpose AI, GPAI). Questa disciplina segna un punto di svolta nel bilanciamento tra sviluppo tecnologico e tutela dei diritti fondamentali, e la Commissione Europea ha pubblicato nuove FAQ che aiutano a chiarire l’ambito di applicazione di queste norme.
Cos’è un modello di IA ad uso generale?
Il provvedimento definisce un GPAI come un modello di intelligenza artificiale capace di eseguire una vasta gamma di compiti distinti, indipendentemente dalla modalità di commercializzazione (Articolo 3(63)). Tali modelli, allenati su grandi quantitativi di dati tramite auto-apprendimento su larga scala, costituiscono la base di molteplici sistemi downstream.
Perché regolare i modelli di intelligenza artificiale ad uso generale?
L’ampiezza delle applicazioni di questi modelli li rende strumenti potenti ma potenzialmente rischiosi. L’AI Act mira a garantire che i GPAI siano sicuri e affidabili. In particolare, i modelli con impatto sistemico, ossia quelli capaci di generare rischi su larga scala, sono soggetti a obblighi aggiuntivi. La definizione di impatto sistemico include modelli che superano una soglia di 10^25 operazioni in virgola mobile (FLOP) durante la fase di addestramento (Articolo 51).
Obblighi per i fornitori di GPAI
I fornitori di GPAI devono adempiere a una serie di obblighi, tra cui:
- documentazione tecnica e trasparenza – fornire informazioni dettagliate ai sensi dell’Articolo 53, sia all’AI Office che ai fornitori downstream;
- politiche sul diritto d’autore – adozione di misure per garantire il rispetto della normativa europea in materia di copyright;
- sintesi del contenuto di addestramento – pubblicazione di un riassunto dettagliato dei dati utilizzati per addestrare i modelli;
- mitigazione dei rischi sistemici – valutazione continua dei rischi e implementazione di misure correttive (Articolo 55);
- segnalazione di incidenti gravi – obbligo di notifica tempestiva alla Commissione in caso di eventi che compromettano la sicurezza.
Esenzioni per i modelli open-source
Un aspetto rilevante è l’esenzione per i modelli distribuiti con licenza open-source, a condizione che siano resi pubblici i pesi, l’architettura e le informazioni relative all’utilizzo (Articolo 53(2)). Tuttavia, questa esenzione non si applica ai modelli con rischio sistemico.
Prospettive e sfide
L’AI Act introduce un delicato equilibrio tra innovazione e regolamentazione. La definizione di criteri per l’identificazione dei modelli a rischio sistemico solleva questioni interpretative, che richiederanno ulteriori chiarimenti da parte dell’AI Office e del Joint Research Centre della Commissione.
Conclusioni
Il nuovo AI Act rappresenta un passo significativo verso la creazione di un ecosistema digitale sicuro e trasparente. Per i fornitori di IA, l’adeguamento alle nuove disposizioni non sarà privo di complessità, ma contribuirà a rafforzare la fiducia pubblica e a promuovere un’innovazione responsabile. L’appuntamento al 2 agosto 2025, data di entrata in vigore delle nuove norme, segna l’inizio di una nuova era per l’intelligenza artificiale in Europa.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Sul trattamento illecito di dati personali da parte dei sistemi di intelligenza artificiale - Dicembre 20, 2024
- L’intelligenza artificiale generale nel quadro dell’AI Act: analisi delle nuove FAQ della Commissione UE - Dicembre 9, 2024
- Un’analisi critica sulle pratiche di telemarketing - Dicembre 4, 2024
- Attiva la piattaforma ACN per la conformità alla Direttiva NIS - Dicembre 3, 2024
- Interpretazione e implicazioni delle Linee Guida EDPB 02/2024 sull’Articolo 48 GDPR - Dicembre 3, 2024