Riflessioni a margine del convegno di Informatica Giuridica dell’Osservatorio permanente delle novità giurisprudenziali di legittimità del Consiglio dell’Ordine degli Avvocati di Napoli

Tempo di lettura stimato:10 Minuti, 51 Secondi

Nella giornata di martedì 9 luglio 2024 abbiamo avuto l’onore di essere invitati a partecipare al convegno di Informatica Giuridica dell’Osservatorio permanente delle novità giurisprudenziali del Consiglio dell’Ordine degli Avvocati di Napoli, fondato e magistralmente diretto dall’avv. Pasquale Guida. I lavori hanno avuto luogo nella Sala Metafora del Palazzo di Giustizia di Napoli e il tema specifico della sessione era incentrato sull’intelligenza artificiale e le sue applicazioni (teoriche e pratiche) nel mondo del diritto.

Ad aprire i lavori è stato l’avv. Guida che ha analizzato i profili di applicazione dell’intelligenza artificiale nel diritto penale, incentrando la sua relazione sul problema della colpa senza previsione.

Com’è noto, infatti, nel diritto penale l’elemento psicologico è fondamentale per determinare la responsabilità. La colpa e il dolo rappresentano due forme di imputazione soggettiva: il dolo implica la volontà cosciente di commettere un reato, mentre la colpa si riferisce a un comportamento negligente, imprudente o imperito. Nell’ambito dell’intelligenza artificiale, determinare l’elemento psicologico è complesso, poiché i sistemi di intelligenza artificiale operano senza quella intenzionalità o consapevolezza tipica dell’essere umano. Altrettanto arduo, poi, è identificare il nesso eziologico, a causa della complessità dei processi decisionali algoritmici. Ad esempio, se un sistema di intelligenza artificiale commettesse un errore, diventerebbe alquanto difficile stabilire se la colpa risieda nel progettista, nel programmatore, nel fornitore di dati, o in chi ha implementato il sistema. 

L’adozione di tecnologie di intelligenza artificiale comporta vantaggi ma anche rischi. Il “prezzo da pagare” include la necessità di adeguamenti normativi, nuove forme di controllo e gestione del rischio, e possibili conseguenze negative, come errori non previsti che possono causare danni significativi. L’equilibrio tra benefici e rischi richiede un’attenta considerazione e un approccio proattivo nella regolamentazione. Del resto, ogni nuova tecnologia richiede una valutazione equilibrata dei suoi impatti. Nel caso dell’intelligenza artificiale, questo significa bilanciare l’innovazione con la protezione dei diritti e della sicurezza dei cittadini. 

I sistemi di intelligenza artificiale spesso producono risultati che vanno oltre la capacità di previsione umana. Questo è dovuto alla complessità degli algoritmi e alla quantità di dati elaborati. Tale imprevedibilità rappresenta una sfida significativa per il diritto penale, che tradizionalmente si basa sulla prevedibilità delle azioni umane. E la capacità di previsione dell’intelligenza artificiale supera quella umana in molti ambiti. Tuttavia, ciò non solleva i progettisti e gli operatori dall’obbligo di garantire che i sistemi siano progettati e utilizzati in modo sicuro e responsabile. La mancanza di previsione umana non deve e non può diventare una scusa per l’assenza di controllo e responsabilità. 

La questione non è “quando” si verificherà un problema, ma “se” si verificherà. Questa distinzione è cruciale poiché implica un focus non solo sulla tempistica degli eventi ma sulla possibilità stessa che essi avvengano. La gestione del rischio deve quindi concentrarsi sulla prevenzione e sulla mitigazione dei potenziali danni.

L’avvocato Guida ha dunque ben evidenziato come nel caso di sistemi di intelligenza artificiale, ben può verificarsi una colpa senza previsione, ossia situazioni in cui i danni si verificano senza che vi sia stata una capacità di prevederli. E questo richiede un ripensamento delle tradizionali nozioni di responsabilità, poiché l’assenza di previsione non dovrebbe automaticamente escludere la responsabilità. Le soluzioni offerte per dirimere tali problematiche potrebbero essere innanzitutto stabilire obblighi di garanzia a monte per produttori, fornitori e sviluppatori di sistemi di intelligenza artificiale, come ad esempio rigorosi standard di progettazione, test e verifica, nonché l’implementazione di meccanismi di controllo continuo per rilevare e correggere eventuali malfunzionamenti o comportamenti indesiderati. Avuto riguardo invece specificamente alle persone giuridiche, esse potrebbero essere responsabilizzate per gli illeciti commessi tramite o con il coinvolgimento di sistemi di intelligenza artificiale,  e il D.Lgs. 231/2001 prevede un sistema di responsabilità amministrativa delle società per determinati reati, che potrebbe essere esteso per includere specificamente le problematiche legate all’intelligenza artificiale. 

Da sinistra: l’Avv. Pasquale Guida, l’avv. Nicola Nappi e l’avv. Aldo Palumbo

Con la relazione del sottoscritto, poi, si è avuto invece modo di presentare l’evoluzione giurisprudenziale di legittimità in tema di qualificazione giuridica del bit. 

In un convegno di giuristi sull’intelligenza artificiale, discutere della natura giuridica dei bit poteva sembrare inizialmente fuori contesto, ma in realtà si è rivelato fondamentale. L’intelligenza artificiale, infatti, si basa su un’elaborazione massiccia di dati che, nella loro forma più elementare, sono rappresentati proprio dai bit. Ogni algoritmo alla base di un sistema di intelligenza artificiale, ogni rete neurale, ogni modello di machine learning funziona grazie a una complessa manipolazione e analisi di dati binari. Pertanto, per comprendere appieno le sfide e le potenzialità di questa tecnologia, è essenziale partire dalla comprensione di cosa sia un bit, di come venga trattato e memorizzato, e di come questi aspetti possano influenzare le questioni giuridiche relative all’uso dei dati digitali. Ma soprattutto, per consentire al giurista di porre in essere una corretta qualificazione giuridica si rende necessario capire se il bit abbia o meno una dimensione materiale. E per farlo si deve necessariamente avere riguardo alla tecnologia con la quale esso viene trattato! Si deve avere riguardo, cioè alla memoria!

E un bit archiviato su una memoria costituita da un supporto materiale (si pensi ad un comunissimo hard disk o SSD), si configura come la risultante della deformazione della materia del supporto materiale sul quale esso viene archiviato, per cui la materialità del bit dipenderà proprio dalla stretta connessione tra esso e la memoria sulla quale viene archiviato; quando poi il bit viene elaborato dalla memoria primaria, esso viene teletrasmesso dalla memoria secondaria mediante tecniche di commutazione a pacchetto, e in questa fase di trasmissione telematica è dematerializzato, poi una volta giunto nella memoria primaria assume la forma di un impulso tensionale elettrico, e si trova, quindi, definitivamente separato dalla materia della memoria secondaria, per cui in tale fase è propriamente dematerializzato.

Sul punto l’opinione dominante in dottrina è che non avendo i bit in sé una materialità non sarebbe possibile la loro qualificazione come “cose” (rientrando in tale concetto al più la memoria sulla quale essi sono archiviati) e pertanto, non potrebbero essere ricompresi tra i beni mobili ex art. 810 c.c. che, com’è noto, riconduce nell’ambito della nozione di beni mobili “(…) le cose che possono formare oggetto di diritti”.

Ci viene però in soccorso una norma del codice penale, segnatamente l’art. 392, che,  sembrerebbe presupporre la dimensione “reale” dei bit: «Si ha, altresì, violenza sulle cose allorché un programma informatico viene alterato, modificato o cancellato in tutto o in parte ovvero viene impedito o turbato il funzionamento di un sistema informatico o telematico».

Ebbene, ad avviso di chi scrive, sembrerebbe alquanto evidente che in tale norma, l’illiceità della “violenza sulle cose” sia specificamente prevista come consumabile anche in relazione ai programmi informatici e questo nonostante essi siano di fatto composti di bit, i quali, come invece affermato da quella parte della dottrina, mal si prestano ad essere annoverabili nel concetto di “cose mobili”.

Inizialmente, anche la Suprema Corte di Cassazione propendeva per l’immaterialità dei bit, tant’è vero che con riguardo ad un caso di ricettazione a carico di un soggetto che si era limitato a ricevere dati, informazioni e notizie tratti da materiale documentario che era stato oggetto di furto, non riteneva configurabile il reato mancando, in siffatta ipotesi, l’esistenza di una “res” suscettibile di apprensione e possesso (Cass., Sez. II^, sent. 13/01/2005 n. 308).

Successivamente, poi, nel 2008 le Sezioni Unite nel sancire il diritto al dissequestro e alla restituzione dei dati digitali a prescindere dal supporto, di fatto continuavano a propendere per l’immaterialità del bit.

Il mutamento dell’orientamento della Suprema Corte avvenne in una sentenza del 2014 nella quale i Giudici di legittimità partendo dal modo in cui la Corte stessa ha ritenuto come il “dato informatico” possa essere oggetto di delitto contro il patrimonio anche quale “cosa” in senso fisico, ha ammesso così il delitto di appropriazione indebita nei confronti di coloro che, accedendo abusivamente in un sistema informatico, si procurino i dati bancari di una persona riproducendoli su un supporto cartaceo, in quanto «se il dato bancario costituisce bene immateriale insuscettibile di detenzione fisica, l’entità materiale su cui tali dati sono trasfusi ed incorporati attraverso la stampa del contenuto del sito di “home banking” acquisisce il valore di questi, assumendo la natura di documento originale e non di mera copia» (Cass. Sez. V^, Sent. 30/09/2014, n. 47105).

Successivamente, ancora, la Suprema Corte richiamando tale ultimo orientamento ha affermato che il dato informatico coincide sempre con un supporto fisico anche se la sua fruizione, soprattutto con mezzi telematici, fa perdere di vista tale “fisicità”. (Cass. Sez. VI^, Sent. 10/06/2015, n. 24617).

Nel 2019, poi, in un altro suo arresto la Corte di Cassazione ha affermato che «i dati informatici (files) sono qualificabili cose mobili ai sensi della legge penale e, pertanto, costituisce condotta di appropriazione indebita la sottrazione da un personal computer aziendale affidato per motivi di lavoro dei dati informatici ivi collocati, provvedendo successivamente alla cancellazione dei medesimi dati e alla restituzione del computer ‘formattato’». (Cass. II^ Sez. 7/11/2019 – 13/4/2020 n. 11959).

Ed allora, guardando questo percorso fatto dalla Cassazione viene naturale richiamare il principio informatico del mezzo universale indifferente, che prevede che i dati digitali sono di per sé neutri e per mantenere integre le informazioni che se ne possono trarre, devono essere trattati con adeguate tecniche scientifiche che ne rispettino le caratteristiche “fisiche”. Esse, infatti, sono le sole che possano assicurare il maggior grado possibile di oggettività e certezza dei dati.

Un dato trattato senza tali tecniche, al contrario, sotto il profilo giuridico presta il fianco al rischio di inutilizzabilità, mentre sotto il profilo del merito legittima informazioni erronee o inattendibili.

Oggi la crescente capacità dell’intelligenza artificiale di processare e analizzare enormi quantità di dati ha accentuato la necessità di una normativa chiara e specifica per i dati digitali.

In primo luogo, la definizione di bit e la loro materialità o immaterialità non sono solo una questione teorica. Nei sistemi di intelligenza artificiale, dove i dati sono trasformati in informazioni preziose attraverso processi complessi, la precisa qualificazione dei bit può influenzare la responsabilità legale e la protezione dei dati. Ad esempio, considerare i bit come beni mobili può determinare la modalità di protezione legale dei dati trattati dagli algoritmi di intelligenza artificiale.

In secondo luogo, la mancanza di una chiara definizione giuridica di “dato informatico” e la progressiva evoluzione della giurisprudenza riflettono una necessità urgente: adattare il quadro normativo alle nuove realtà tecnologiche.

Nei sistemi di intelligenza artificiale, dove l’accesso rapido e l’elaborazione efficiente dei dati sono cruciali, garantire l’integrità e la sicurezza dei bit è essenziale per la validità dei processi decisionali automatizzati.

La qualificazione giuridica dei bit non è dunque solo una questione accademica, ma ha implicazioni pratiche significative nell’era dell’intelligenza artificiale. È necessario un quadro normativo chiaro e aggiornato che riconosca le peculiarità dei dati digitali e garantisca la loro protezione adeguata. In chi scrive è forte la convinzione che solo così si potrà sfruttare appieno il potenziale dell’intelligenza artificiale, assicurando nel contempo il rispetto dei diritti e delle libertà fondamentali.

A concludere i lavori, poi, è stato l‘avv. Aldo Palumbo, componente della commissione Blockchain e Intelligenza Artificiale del Consiglio dell’Ordine degli Avvocati di Napoli, che ha affrontato il tema della redazione degli atti giudiziari con l’intelligenza artificiale

L’utilizzo dei sistemi di intelligenza artificiale negli studi legali rappresenta una tendenza in crescita che porta con sé sia opportunità significative che rischi rilevanti. Tra le opportunità l’avv. Palumbo ha evidenziato come i sistemi di intelligenza artificiale possano automatizzare compiti ripetitivi come la ricerca giurisprudenziale, la revisione di documenti e la stesura di bozze, riducendo significativamente i tempi di preparazione degli atti, nella fase di “brainstorming“. 

Specifici strumenti di intelligenza artificiale pensati per il mondo del diritto possono analizzare grandi volumi di documenti legali in breve tempo, individuando rapidamente informazioni rilevanti e riducendo il carico di lavoro manuale. L’automazione delle attività ripetitive può poi diminuire gli errori umani, garantendo una maggiore precisione nella redazione degli atti oltre che individuare incongruenze e anomalie nei documenti legali, migliorando la qualità del lavoro svolto.

Come contraltare, l’affidarsi eccessivamente a strumenti di intelligenza artificiale potrebbe portare alla perdita di capacità critiche e di competenze legali fondamentali tra i professionisti. Gli algoritmi non sono infallibili e possono commettere errori, soprattutto se i dati di input non sono accurati o se ci sono bias nel dataset utilizzato per addestrare il sistema di intelligenza artificiale.

L’integrazione di sistemi di intelligenza artificiale negli studi legali per la redazione degli atti giudiziari offre opportunità straordinarie per migliorare l’efficienza e l’accuratezza del lavoro legale. Tuttavia, è fondamentale affrontare con attenzione i rischi associati, implementando misure di sicurezza adeguate, garantendo la protezione dei dati e mantenendo un elevato standard etico e professionale. Concludendo, l’avv. Palumbo ha ben sottolineato come solo attraverso una formazione continua e una comprensione approfondita degli strumenti di intelligenza artificiale sia possibile assicurare che questi sistemi siano utilizzati in modo efficace e responsabile.

The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.