Data poisoning: l’avvelenamento silenzioso dell’intelligenza artificiale

Tempo di lettura stimato:21 Minuti, 59 Secondi

L’improvvisa diffusione di massa dei sistemi di intelligenza artificiale generativa ha trasformato radicalmente il mondo della tecnologia e dell’informazione, esponendo nuove vulnerabilità che erano prevedibili per chi, come il sottoscritto, studia questi sistemi da oltre un decennio. Sin dai tempi dell’università, infatti, i miei maestri indicavano nel data poisoning, o avvelenamento dei dati, una minaccia concreta e insidiosa, capace di compromettere la sicurezza e l’affidabilità dei modelli di machine learning. Questa tecnica malevola consiste nella manipolazione intenzionale dei dati di addestramento, con il fine di alterare il comportamento dell’intelligenza artificiale e generare risposte errate, distorte o fuorvianti.

Il data poisoning si concretizza attraverso l’inserimento di dati alterati nei set di training utilizzati per istruire i modelli di intelligenza artificiale. Questa alterazione può essere finalizzata a indebolire la precisione del modello o influenzarne i risultati in modo mirato. Esistono due principali strategie:

  1. avvelenamento mirato – si introduce un piccolo numero di dati manipolati per indurre il sistema a commettere errori specifici;
  2. avvelenamento generalizzato – un volume maggiore di dati corrotti viene inserito per ridurre in modo diffuso la qualità delle risposte.

Un caso concreto di attacco mirato può essere, ad esempio, quando l’attaccante modifica un numero limitato di immagini in un dataset utilizzato per addestrare un modello di riconoscimento facciale. L’obiettivo è far sì che il sistema identifichi erroneamente una persona come un’altra, permettendo così a malintenzionati di aggirare sistemi di sicurezza basati sulla biometria.

Un caso concreto, invece, di avvelenamento generalizzato, lo si può avere, ad esempio, quando un gruppo di cybercriminali inquina un dataset linguistico aggiungendo migliaia di frasi con errori grammaticali e lessicali. Di conseguenza, il modello di intelligenza artificiale generativo addestrato su quei dati produce testi di bassa qualità, minando la credibilità della piattaforma che lo utilizza.

In entrambi i casi, comunque, l’obiettivo è minare la fiducia nel sistema di intelligenza artificiale, compromettendo la sua capacità di fornire risposte affidabili e sicure.

Ora, questa breve, e per nulla esaustiva, premessa, ci viene in soccorso per affrontare quello che è invece l’aspetto che in questa sede più ci interessa, ovverosia le implicazioni giuridiche del data poisoning.

Dal punto di vista giuridico, infatti, il fenomeno del data poisoning solleva complessi interrogativi in materia di responsabilità e tutela dei diritti, sia sotto il profilo civilistico del risarcimento del danno economico provocato, sia sotto il profilo penalistico della responsabilità, sia sotto quello squisitamente commerciale della tutela della proprietà intellettuale, e sia sotto quello pubblicistico della protezione dei dati personali.

Non dovrebbe risultare difficile intuire come l’intenzionale alterazione dei dati di addestramento di un modello di intelligenza artificiale possa dare origine a una duplice forma di responsabilità giuridica: civile e penale. Le conseguenze legali chiaramente dipendono dalla gravità del danno arrecato, dalla tipologia di attacco e dagli effetti che esso produce sugli utilizzatori del sistema alterato.

Profili civilistici

In ambito civile, il data poisoning può costituire un illecito extracontrattuale ai sensi dell’articolo 2043 del Codice civile, che, com’è noto, impone l’obbligo di risarcire il danno causato ingiustamente a terzi. Inoltre, laddove l’attacco sia rivolto a un soggetto con cui esista un rapporto contrattuale, potrebbe configurarsi una responsabilità contrattuale (art. 1218 c.c.).

I danni che possono derivare dall’avvelenamento dei dati potremmo sintetizzarli come segue:

  • danno economico diretto: un’azienda che utilizza un modello di intelligenza artificiale alterato potrebbe subire perdite finanziarie, per esempio, se un sistema di valutazione del credito fosse manipolato per assegnare punteggi errati, causando finanziamenti inappropriati o rifiuti ingiustificati di prestiti;
  • danno reputazionale: se un modello di intelligenza artificiale producesse contenuti falsati o inattendibili a causa del poisoning, la società proprietaria potrebbe subire una grave perdita di fiducia da parte degli utenti o dei clienti;
  • danno concorrenziale: un attacco deliberato volto a indebolire la qualità delle risposte di un sistema di intelligenza artificiale di un’azienda rivale potrebbe costituire un atto di concorrenza sleale (art. 2598 c.c.);
  • danno informatico: il deterioramento di un modello di intelligenza artificiale utilizzato in un’infrastruttura critica, come un ospedale o una rete di trasporti, potrebbe compromettere la sicurezza pubblica, dando origine a responsabilità risarcitorie anche verso soggetti terzi.

Naturalmente la responsabilità civile potrebbe gravare, a seconda dei casi, su più soggetti: l’autore dell’attacco, qualora sia identificabile e perseguibile; il fornitore del servizio di intelligenza artificiale, nel caso in cui non abbia implementato adeguate misure di protezione contro il data poisoning; l’azienda che utilizza l’intelligenza artificiale, se non ha verificato la qualità e l’affidabilità del sistema prima di metterlo a disposizione degli utenti.

Ora, se come sembra, i sistemi di intelligenza artificiale verranno pieanemente integrati in tutte le attività del nostro quotidiano, inevitabilmente il data poisoning potrebbe diventare una delle principali cause di contenzioso nei prossimi anni, con impatti rilevanti sul mondo imprenditoriale e sulla tutela degli utenti. Le aziende che forniscono soluzioni basate su machine learning potrebbero trovarsi sempre più coinvolte in dispute contrattuali per garantire l’affidabilità dei propri modelli. In caso di avvelenamento dei dati, il cliente potrebbe chiedere un risarcimento qualora il sistema di intelligenza artificiale non funzioni come previsto.

Oppure ancora un’azienda potrebbe deliberatamente alterare o inquinare i dataset di un concorrente, compromettendo la qualità del suo modello di intelligenza artificiale. Ciò potrebbe avvenire attraverso la diffusione di dati falsati o l’immissione di input ingannevoli per ridurre la precisione del sistema rivale.

Penso ad esempio ad un sistema di intelligenza artifciale contaminato da data poisoning che potrebbe generare errori sistematici che influenzano decisioni economiche, come una intelligenza artificiale utilizzata in ambito finanziario che potrebbe classificare erroneamente alcuni investimenti come ad alto rischio, impedendo a investitori di accedere a opportunità redditizie, oppure ancora come un modello di intelligenza artificiale in un’azienda di recruiting che potrebbe invece escludere candidati idonei a causa di dati inquinati, causando danni reputazionali e perdite economiche.

Un altro scenario poi che con la diffusione di sistemi di intelligenza artificiale nelle applicazioni quotidiane (assistenza clienti, smart home, consulenza legale automatizzata), potrebbe porre il problema della tutela del consumatore. Un sistema compromesso potrebbe infatti generare informazioni fuorvianti o pericolose, inducendo l’utente a decisioni errate.

Insomma, se l’intelligenza artificiale promette di ottimizzare processi, migliorare la produttività e facilitare la vita umana, non potrà di certo eliminare la conflittualità insita nella natura dell’uomo. Anzi, l’adozione su larga scala di sistemi di intelligenza artificiale sta già generando nuove forme di contenzioso, dimostrando ancora una volta che, come affermava Eraclito, il conflitto è padre di tutte le cose:

E nel contesto dell’intelligenza artificiale, il “pólemos” non è più solo quello tradizionale tra individui o stati, ma si estende al diritto, alla tecnologia e all’etica, generando controversie su responsabilità, equità e sicurezza. Insomma, la digitalizzazione non sta riducendo la litigiosità, ma piuttosto sta aprendo nuovi fronti di scontro legale e filosofico.

Anche Hobbes, nel suo Leviatano, ci ricorda che l’uomo vive in una condizione di conflitto permanente a causa della sua natura competitiva e sospettosa:

Homo homini lupus”
(L’uomo è lupo per l’altro uomo)

Hobbes, De Cive

E l’intelligenza artificiale non fa eccezione: l’avvelenamento dei dati, i pregiudizi algoritmici, le discriminazioni automatizzate e i conflitti sulla proprietà dei dati sono solo alcuni degli aspetti che alimentano il contenzioso nell’era dell’intelligenza artificiale.

Persino Pascal, pur riconoscendo l’importanza della ragione e del progresso, metteva in guardia sulla natura litigiosa dell’uomo, capace di trasformare anche i più sofisticati strumenti tecnologici in nuovi terreni di scontro:

L’uomo non fa che accrescere il numero delle proprie dispute man mano che la sua conoscenza avanza”

Blaise Pascal, Pensées

Alla luce di questa riflessione, possiamo ragionevolmente affermare che l’intelligenza artificiale non ridurrà i conflitti umani, ma li trasformerà in battaglie giuridiche e filosofiche di nuova generazione. I tribunali si popoleranno di cause su danni da intelligenza artificiael, responsabilità per decisioni automatizzate e manipolazione dei dati, mentre il diritto dovrà adattarsi per disciplinare una litigiosità che, come insegna la storia, non è mai destinata a scomparire, ma solo ad evolversi.

Profili penalistici

Sul piano penale, la manipolazione dolosa dei dati di addestramento potrebbe configurare diversi reati informatici, disciplinati dal Codice Penale e dal Codice della Privacy (D.lgs. 196/2003 e GDPR).

L’alterazione dolosa dei dati di addestramento potrebbe infatti rientrare nel danneggiamento informatico (635-bis c.p.), reato che si verifica quando qualcuno altera, cancella o distrugge informazioni digitali con intento fraudolento.

Se l’attacco di data poisoning venisse perpetrato accedendo senza autorizzazione a un sistema di intelligenza artificiale, potrebbe configurarsi il reato di accesso abusivo a sistemi informatici (art. 615-ter c.p.), punibile con reclusione fino a 5 anni.

Se poi il data poisoning venisse eseguito con il precipuo intento di trarre un indebito profitto, si potrebbe allora anche configurare una frode informatica (640-ter c.p.). Un esempio tipico sarebbe la manipolazione di un modello AI per favorire determinate aziende o investitori in mercati finanziari.

Ancora, se l’avvelenamento dei dati avvenisse invece con lo scopo di compromettere la qualità di un prodotto di intelligenza artificiale concorrente, si potrebbe allora configurare il reato di divulgazione o alterazione illecita di segreti industriali (623 c.p.), punito con la reclusione fino a 2 anni.

Ora, alla luce di tutto questo, se, come abbiamo visto, la litigiosità civile legata all’intelligenza artificiale è destinata a moltiplicarsi, lo stesso può tranqullamente dirsi per il profilo penalistico. L’avvento di sistemi di intelligenza artificiale non ha infatti reso, nè renderà, l’uomo meno incline alla frode, alla manipolazione o al crimine, ma anzi ha piuttosto aperto nuovi scenari di criminalità digitale. Oggi commettere crimini tramite sistemi di intelligenza artificiale è semplice ed estremamente accessibile, grazie alla diffusione di strumenti avanzati che non richiedono competenze tecniche particolari. L’automazione, la capacità di simulazione e la generazione di contenuti falsificati hanno reso le frodi e i crimini informatici più sofisticati, difficili da rilevare e alla portata di un numero sempre maggiore di malintenzionati.

Oggi, con pochi campioni audio (anche tratti da video pubblici o messaggi vocali), è possibile replicare perfettamente la voce di una persona. I criminali usano voci clonate per spacciarsi per dirigenti aziendali o familiari, inducendo vittime a trasferire denaro o rivelare informazioni sensibili.

Vengono ormai quasi da un decennio quotidianamente manipolati video per diffondere fake news, diffamare o creare instabilità politica. Con risultati su larghissima scala che possono influenzare le vite di ciascuno di noi (vedasi nel 2016 la prima elezione di Trump a Presidente degli Stati Uniti d’America, con l’aiuto di deep fake sulla rivale Hillary Clinton, oppure l’uscita della Gran Bretagna dall’Unione Europea, sempre con l’aiuto di deep fake).

Ma poi oggi i sistemi di intelligenza artificiale possono aiutare anche chi non è esperto di programmazione a scrivere malware e ransomware sofisticati, e possono analizzare i punti deboli di una rete informatica e suggerire il miglior metodo di intrusione.

Di recente alcuni sistemi di intelligenza artificiale sono usati per convincere investitori a depositare denaro in fondi fittizi, che poi scompaiono. Un’evoluzone dello schema Ponzi.

Tutti questi fenomeni ben si ricollegano all’eterno dilemma sulla natura umana e la sua predisposizione al male, su cui filosofi e pensatori si sono interrogati nei secoli.

L’idea che l’uomo sia per natura incline all’errore e alla trasgressione è ben radicata nella tradizione giuridica e filosofica. Come affermava Sant’Agostino nel De Civitate Dei:

Nessuna legge, nessuna istituzione potrà mai cancellare l’inclinazione dell’uomo alla colpa”

Sant’Agostino, De Civitate Dei

L’intelligenza artificiale, quindi, anziché fungere da strumento di deterrenza per i crimini, ha generato nuove possibilità di frode, sabotaggio e manipolazione. Il data poisoning, la discriminazione algoritmica dolosa, il furto di dati personali per addestrare intelligenze artificiali illecitamente: tutti questi atti confermano che l’astuzia criminale si evolve insieme alla tecnologia.

L’introduzione di sistemi di intelligenza artificiale non ha ridotto la criminalità, ma l’ha semplicemente trasferita in nuovi ambienti digitali, rendendola più sofisticata e difficile da perseguire. Come diceva Hobbes, lo si è già detto poc’anzi, il conflitto e l’aggressività sono insiti nella natura umana.

Oggi, il furto con destrezza non si compie più solo nei mercati affollati, ma anche nei database aziendali. L’estorsione non avviene più con minacce fisiche, ma con ransomware che bloccano interi sistemi informatici. Il sabotaggio industriale non si compie più con esplosivi o incendi dolosi, ma con attacchi informatici mirati ai dataset di aziende rivali.

Alcuni sostengono che con una regolamentazione adeguata, l’intelligenza artificiale potrebbe prevenire i crimini e fungere da deterrente. Eppure noi sommessamente crediamo che il controllo tecnologico non potrà mai eliminare il fattore umano. Hobbes, nel suo Leviatano, ipotizzava uno Stato onnipotente e regolatore, capace di contenere la violenza umana. Ma anche lui riconosceva che la paura della punizione non elimina il desiderio di trasgressione:

Le leggi senza la spada sono solo parole senza forza”

Hobbes, Leviatano

L’implementazione di normative sulla responsabilità penale dell’intelligenza artificiale (come la disciplina della cybercriminalità e della manipolazione dolosa dei modelli di apprendimento) non garantirà automaticamente una riduzione del crimine. Più controlli ci saranno, più gli attori malintenzionati cercheranno modi per aggirarli.

E’ Niccolò Machiavelli, nel Principe, a ricordarci che i criminali e gli opportunisti sanno sempre adattarsi alle nuove circostanze:

L’uomo è più incline a dimenticare la morte del padre che la perdita del patrimonio”

Machiavelli, Il Principe

E se prima le truffe riguardavano titoli di credito falsificati, oggi, come detto, si basano su deepfake e phishing avanzato con l’uso di intelligenza artificiale. Se un tempo il crimine organizzato gestiva traffici illeciti con strumenti rudimentali, oggi utilizza reti neurali per automatizzare il riciclaggio di denaro e la falsificazione documentale. L’inganno, la frode e l’abuso di potere sono costanti nella storia umana, e l’intelligenza artificiale rappresenta semplicemente una nuova arena in cui si combattono antichi conflitti.

L’ultimo grande problema penalistico che emergerà nei prossimi anni riguarda la responsabilità per le azioni dell’intelligenza artificiale. Se un modello di intelligenza artificiale manipolato prende una decisione sbagliata che causa danni o illeciti, chi deve essere perseguito? Il suo sviluppatore? L’azienda che lo utilizza?

Immanuel Kant, nella sua Critica della Ragion Pratica, stabiliva che la responsabilità morale e giuridica si basa sulla capacità di scelta consapevole:

Un’azione ha valore morale solo se compiuta per dovere

Kant, Critica della Ragion Pratica

Ma, allo stato attuale l’intelligenza artificiale non ha né coscienza né intenzione, quindi non può avere doveri morali o penali. E questo apre un vuoto giuridico su cui gli ordinamenti dovranno lavorare per definire nuove forme di responsabilità soggettiva e oggettiva nel caso di decisioni errate prese da sistemi autonomi.

In defintiva, come ci insegna la storia, la tecnologia non cancella la litigiosità né la tendenza al crimine: se l’intelligenza artificiale può prevenire alcune frodi, ne creerà di nuove; se la sicurezza informatica aumenta, anche i cybercriminali diventeranno più sofisticati; se le leggi si adattano, i reati si trasformeranno per aggirarle.

Le parole di Goethe, nel Faust, sintetizzano bene questa dinamica:

Ciò che chiamiamo progresso non è altro che una trasformazione dei problemi”

Goethe, Faust

L’uomo ha sempre trovato nuovi modi per sfidare le regole, e l’intelligenza artificiale non farà eccezione. L’eterno conflitto tra legalità e trasgressione continuerà, solo in forme più sofisticate e difficili da perseguire.

Profili di tutela della proprietà intellettuale

I dataset utilizzati per l’addestramento dei modelli di intelligenza artificiale rappresentano una risorsa di valore strategico per aziende e sviluppatori, essendo spesso il frutto di investimenti significativi in termini di raccolta, elaborazione e pulizia dei dati. Per questo motivo, la loro protezione giuridica può avvenire attraverso diritti d’autore, segreti industriali e normative sulla concorrenza sleale.

E’ di tutta evidenza che un’alterazione dolosa di tali dataset mediante data poisoning potrebbe configurare fattispecie di violazione di diritti esclusivi, con conseguenze civili e penali per gli autori dell’attacco.

Sebbene infatti i singoli dati non siano generalmente protetti dal diritto d’autore (in quanto fatti e informazioni grezze non sono opere dell’ingegno), un dataset può essere considerato protetto se presenta un livello significativo di originalità e selezione.

Secondo la Direttiva UE 96/9/CE sulla protezione giuridica delle banche di dati, un dataset può godere di protezione autorale se rispecchia una scelta creativa o organizzativa originale. Se un dataset è frutto di un’attività intellettuale significativa nella sua organizzazione o selezione dei dati, il suo creatore può vantare un diritto d’autore su di esso.

E quindi se un attacco di data poisoning alterasse un dataset protetto da diritto d’autore, potrebbe allora configurarsi una modifica abusiva dell’opera ai sensi dell’art. 171 della Legge sul Diritto d’Autore (L. 633/1941). Un esempio concreto sarebbe la manipolazione dolosa di un dataset protetto per degradarne la qualità, portando a una lesione economica e creativa per il titolare dei diritti. Se l’alterazione comporta la diffusione di informazioni false o fuorvianti all’interno di modelli di intelligenza artificiale, potrebbe configurarsi un danno risarcibile in sede civile.

Ma oltre alla protezione tramite diritto d’autore, i dataset sono spesso segreti industriali, cioè informazioni aziendali riservate il cui valore deriva dalla non divulgazione a terzi.

Il Codice della Proprietà Industriale (D.lgs. 30/2005) e la Direttiva UE 2016/943 proteggono i segreti commerciali se:

  1. le informazioni non sono generalmente note;
  2. hanno valore economico proprio grazie alla loro riservatezza;
  3. sono protette attraverso misure adeguate.

Se un dataset modificato dolosamente fa perdere affidabilità a un modello di intelligenza artificiale usato da un’azienda, l’autore dell’attacco potrebbe essere perseguito per violazione di segreti industriali (art. 623 c.p.), con reclusione fino a due anni se il dataset è stato manipolato per favorire un concorrente; danneggiamento informatico (art. 635-bis c.p.), se l’alterazione ha reso il modello di intelligenza artificiale inutilizzabile o meno affidabile; concorrenza sleale (art. 2598 c.c.), se l’attacco è finalizzato a indebolire un’azienda concorrente alterandone i dataset.

La manipolazione dei dataset per colpire aziende rivali o compromettere modelli di intelligenza artificiale non è solo un crimine informatico, ma una vera e propria strategia di guerra economica. Come scrive Sun Tzu ne L’Arte della Guerra:

L’arte suprema della guerra è sottomettere il nemico senza combattere”

Sun Tzu, L’Arte della Guerra

Un’azienda non ha bisogno di attaccare direttamente un concorrente se può avvelenarne i dati, rendendo i suoi modelli di intelligenza artificiale inutilizzabili. Questo tipo di attacco è subdolo e silenzioso, difficile da individuare e spesso irrecuperabile, proprio come le tattiche di guerra non convenzionale teorizzate dal maestro stratega cinese.

Francis Bacon, filosofo del metodo scientifico, affermava:

La conoscenza è potere”

Francis Bacon, Novum Organum

Nell’era dell’intelligenza artificiale, il controllo sui dataset determina il potere di influenzare le decisioni, il mercato e perfino la percezione della realtà. Se i dati vengono modificati dolosamente, ciò rappresenta non solo una violazione giuridica, ma anche una forma di abuso di potere, perché si altera la capacità di un’intera società di prendere decisioni informate.

Immanuel Kant, parlando della proprietà intellettuale e dell’etica, sottolinea che privare qualcuno del frutto della sua creatività e lavoro è un atto ingiusto:

La proprietà è un’estensione della persona stessa, e privare un uomo della sua creazione equivale a privarlo della sua libertà”

Kant, Metafisica dei costumi

Un dataset protetto da diritti d’autore o segreti industriali è il risultato di anni di lavoro, ricerca e investimenti. Alterarlo in modo fraudolento significa privare il suo creatore del legittimo diritto a trarne beneficio, violando non solo la legge, ma anche un principio fondamentale di giustizia e libertà.

Come dimostrano allora tutte le citate riflessioni di questi grandi pensatori, la manipolazione dei dataset non è solo un problema tecnico o legale, ma un problema filosofico ed etico. Il data poisoning non è quindi solo un atto di sabotaggio tecnico, ma una violazione profonda dell’equilibrio della conoscenza e della giustizia, con conseguenze economiche, legali ed etiche enormi.

Profili di protezione dei dati personali

Come diffusamente affermato il data poisoning non è solo una minaccia alla sicurezza e affidabilità dei modelli di intelligenza artificiale, ma può anche violare i principi fondamentali della protezione dei dati personali. Se un attacco altera un dataset contenente informazioni sensibili, si rischia di compromettere il diritto alla privacy e all’identità digitale degli individui, esponendo gli autori a severe sanzioni previste dal Regolamento Generale sulla Protezione dei Dati (GDPR).

Ma il problema non è solo legale: la manipolazione dei dati personali solleva questioni più profonde sulla natura della privacy, del controllo delle informazioni e della libertà individuale. Da sempre, filosofi e pensatori si sono interrogati sui pericoli del controllo delle informazioni e della manipolazione della verità. Ecco alcune riflessioni tratte dalla storia del pensiero che si applicano perfettamente al data poisoning e alla protezione dei dati personali.

La protezione dei dati personali è essenziale per la libertà individuale. George Orwell, nel suo celebre 1984, ci ha abbondantemente avvertiti sui pericoli di un mondo in cui le informazioni personali non sono più private e vengono manipolate per controllare la società:

Se vuoi un’immagine del futuro, immagina uno stivale che calpesta un volto umano, per sempre”

Orwell, 1984

Se un modello di intelligenza artificiale viene avvelenato con dati falsati o manipolati, le informazioni personali degli utenti possono diventare strumenti di sorveglianza, controllo o discriminazione. Ad esempio, un sistema di valutazione del credito alterato con data poisoning potrebbe penalizzare ingiustamente alcuni individui, negando loro prestiti o opportunità economiche sulla base di dati corrotti.

Nel suo studio sui regimi totalitari, Hannah Arendt ha sottolineato il rischio di una società in cui gli individui perdono il controllo della propria identità a causa della manipolazione delle informazioni:

Chiunque voglia distruggere la libertà deve prima di tutto distruggere i fatti”

Hannah Arendt, Le origini del totalitarismo

Nel contesto dell’intelligenza artificiale, un dataset manipolato può distorcere la rappresentazione di una persona: un sistema di riconoscimento facciale inquinato potrebbe identificare erroneamente individui innocenti come criminali; unintelligenza artificiale nel settore sanitario potrebbe generare diagnosi errate basate su dati avvelenati; un chatbot manipolato potrebbe diffondere informazioni false su una persona, danneggiandone la reputazione.

In tutti questi casi, il data poisoning si traduce in una perdita di controllo sulla propria identità digitale, violando i principi fondamentali del GDPR sulla correttezza, trasparenza e protezione dei dati personali.

Uno dei concetti chiave del GDPR è il diritto all’oblio (premere qui per approfondire), che permette agli individui di chiedere la rimozione dei propri dati personali se trattati in modo illegale o non più rilevanti. Ma se i dati sono stati corrotti da un attacco di data poisoning, come si può ripristinare la verità?

Friedrich Nietzsche ci avvertiva sui rischi di una società in cui la verità viene costantemente manipolata:

Non esistono fatti, solo interpretazioni”

Nietzsche, Al di là del bene e del male

Se un attacco di data poisoning alterasse irreversibilmente le informazioni personali, diventerebbe pressocché impossibile stabilire quale sia la vera identità digitale di una persona. Il diritto all’oblio perderebbe quindi tutto il suo significato se il passato di un individuo fosse stato irrimediabilmente riscritto da un attacco informatico.

Un altro dei principi fondamentali del GDPR è che i dati personali appartengono alla persona e non possono essere utilizzati senza il suo consenso. Questo concetto si collega direttamente all’etica kantiana della dignità umana:

Agisci in modo da trattare l’umanità, sia nella tua persona sia in quella di ogni altro, sempre anche come fine e mai solo come mezzo”

Kant, Fondazione della metafisica dei costumi

E’ chiaro che se un sistema di intelligenza artificiale venisse corrotto da data poisoning, gli individui venrrebbero ridotti a semplici numeri manipolabili per fini commerciali, politici o criminali. E ciò rappresenterebbe una violazione della dignità e dell’autodeterminazione della persona, trasformandola in un oggetto privo di controllo sulla propria identità digitale.

E questo è il vero paradosso della tecnologia! Un vero e proprio dilemma tecnologico: l’intelligenza artificiale è stata progettata per migliorare la vita umana, ma la sua vulnerabilità al data poisoning la trasforma in un rischio per la privacy dell’umanità.

Il sociologo Jacques Ellul, studiando l’impatto della tecnologia sulla società, scriveva:

La tecnologia non ci rende più liberi, ci vincola in nuovi modi”

Jacques Ellul, Il sistema tecnico

Ed effettivamente se i modelli di intelligenza artificiale vengono manipolati, il cittadino medio si trova di fatto in una condizione di dipendenza e vulnerabilità. Senza un controllo efficace sui dataset e sulla protezione dei dati personali, l’intelligenza artificiale potrebbe diventare uno strumento di oppressione invece che di progresso.

Per approfondire:

- G. CARCATERRA, Presupposti e strumenti della scienza giuridica, Torino, 2011;

– G. SARTOR, Corso d'informatica giuridica, Volume I. - L'informatica giuridica e le tecnologie dell'informazione, Torino, 2012;

– F. ROMEO, Lezioni di logica ed informatica giuridica, Torino, 2012;

- J. ANGWIN, J. LARSON, S. MATTU, e L. KIRCHNER, Machine Bias—There’s Software Used across the Country to Predict Future Criminals. And It’s Biased against Blacks. ProPublica, Online Edition, 2016;

- S. BAROCAS, A.D. SELBST, Big Data's Disparate Impact, in 104 California Law Review 671, 2016;

- C. O'NEIL Weapons of Math Destruction, 2016;

- V. EUBANKS, Automating Inequality, 2018;

- J. BUOLAMWINI, T. GEBRU, "Gender Shades” – Proceedings of the Conference on Fairness, Accountability, and Transparency (FAT), 2018.- W.S. MCCULLOCH, W.H. PITTS, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, «Bulletin of Mathematical Biophysics», 5, 1943, pp. 115-133;

- A. ELGAMMAL, “AI is blurring the definition of artist: Advanced algorithms are using machine learning to create art autonomously”, «American Scientist», 107 (1), 2019, pp. 18–21;

- - FINOCCHIARO, La proposta di Regolamento sull’intelligenza artificiale: il modello europeo basato sulla gestione del rischio, in Smart, a cura di SALANITRO, Bologna., p. 49 ss.

- PERLINGIERI, Responsabilita` civile e robotica medica, in Tecn. e dir., 2020, P. 164 ss.

- SARTOR - LAGIOIA, Le decisioni algoritmiche tra etica e diritto, in Intelligenza artificiale. Il diritto, i diritti, l’etica, a cura di RUFFOLO, Milano, 2020, p. 68 ss.;

- ALPA, Quale modello normativo europeo per l’intelligenza artificiale?, in Contr. e impr., 2021, P. 1003 ss.;

- GUERRA, Profili di responsabilita` del produttore di robot chirurgo nell’ordinamento americano, in Profili giuridici dell’utilizzo della robotica e dell’intelligenza artificiale in medicina, a cura di FACCIOLI, Napoli, 2022, p. 57 ss.;

- BERTOLINI, Artificial intelligence does not exist! Defying the technology neutrality narrative in the regulation of civil liability for advanced technologies, in Eur. e dir. priv., 2022, P. 371 ss.

The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.
error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.