L’implementazione dell’intelligenza artificiale nel settore sanitario sta trasformando ormai da anni e in modo radicale il panorama della responsabilità medica. Se da un lato, infatti, l’intelligenza artificiale promette e permette diagnosi più precise e tempestive, dall’altro solleva questioni giuridiche di assoluto rilievo in merito alla determinazione della responsabilità in caso di danno. Con il presente contributo si intende affrontare il tema con un approccio sistematico, evidenziando criticità normative e proponendo soluzioni per un adeguato inquadramento giuridico.
Non è ormai più un mistero che i sistemi basati sull’intelligenza artificiale consentono un’analisi massiva di dati clinici, migliorando l’efficienza diagnostica oltre che terapeutica. Eppure il loro utilizzo comporta interrogativi sul grado di controllo esercitabile dal medico e sulla trasparenza dei processi decisionali. Il problema della cosiddetta “black-box” decisionale, dove non è chiaro il criterio seguito dall’algoritmo per giungere a una diagnosi o una terapia, complica ulteriormente la definizione delle responsabilità.
Questo termine si riferisce, nello specifico, alla mancanza di trasparenza nei processi decisionali degli algoritmi avanzati, i quali spesso operano tramite reti neurali profonde o modelli di apprendimento automatico complessi che non forniscono spiegazioni esplicite sulle ragioni delle loro scelte.
Ad esempio, un sistema di intelligenza artificiale può suggerire un trattamento per un paziente basandosi su una vasta gamma di dati clinici, ma senza specificare quali variabili abbiano inciso maggiormente sulla decisione. Questo rende difficile per il medico valutare la validità della raccomandazione e, in caso di errore, identificare eventuali responsabilità.
Un caso emblematico riguarda l’uso dell’intelligenza artificiale nella diagnostica per immagini: un software potrebbe classificare un’anomalia come benigna o maligna con un alto grado di accuratezza, ma senza fornire informazioni su quali caratteristiche della lesione siano state determinanti nel giudizio. Se un medico segue ciecamente questa indicazione e il paziente subisce un danno, si pone il problema di chi sia il responsabile: il professionista sanitario, il produttore del software o la struttura ospedaliera?
Per mitigare questo rischio, si discute sull’adozione di modelli di intelligenza artificiale interpretabili, ovvero capaci di fornire spiegazioni comprensibili sulle proprie decisioni. Ma al momento questo obiettivo è purtroppo ancora lontano dall’essere raggiunto su larga scala, rendendo la questione della “black-box” decisionale un nodo critico nella regolamentazione della responsabilità medica.
Del resto la vigente normativa in materia di responsabilità civile si fonda principalmente sulla colpa (artt. 1176, 1218, 2043 c.c.), eppure, ci sembra di poter affermare che di fronte all’autonomia dei sistemi di intelligenza artificiale, il paradigma della responsabilità oggettiva potrebbe forse rappresentare una soluzione più adeguata.
Com’è noto, la responsabilità oggettiva è un modello giuridico in cui un soggetto viene ritenuto responsabile per un danno indipendentemente dalla colpa, ovvero senza la necessità di dimostrare un comportamento negligente o doloso. Questo tipo di responsabilità si contrappone notoriamente a quella fondata sulla colpa, in cui il danneggiato deve provare che il responsabile ha agito con negligenza o imperizia.
Ora, nel contesto dell’intelligenza artificiale in ambito sanitario, l’applicazione della responsabilità oggettiva è giustificata dalla autonomia operativa di questi sistemi. Infatti, i sistemi di intelligenza artificiale, specialmente quelle basate su apprendimento automatico e reti neurali, prendono decisioni basate su modelli statistici complessi e non sempre prevedibili, senza che un medico possa intervenire direttamente nel processo decisionale.
Ad esempio, se un software di intelligenza artificiale diagnostica un tumore in un paziente, basandosi su un’analisi di immagini radiologiche, ma sbaglia (ad esempio, segnalando una patologia inesistente o omettendone una reale), il medico potrebbe aver seguito le indicazioni del sistema in buona fede, senza poter comprendere a fondo il processo che ha portato a quella conclusione. In un regime di responsabilità basata sulla colpa, il paziente dovrebbe dimostrare che il medico o l’ospedale abbiano agito con negligenza, il che potrebbe risultare difficile se il professionista si è semplicemente affidato a un sistema ritenuto affidabile.
Con la responsabilità oggettiva, invece, il produttore del software, la struttura sanitaria o chi mette in commercio il dispositivo potrebbe essere ritenuto responsabile a prescindere dalla colpa, poiché ha introdotto uno strumento che, sebbene utile, genera un rischio potenziale per i pazienti.
Il ruolo del medico: da esecutore a supervisore
Con l’impiego dell’intelligenza artificiale, stiamo assistendo ad un interessante cambio di paradigma: il medico non è più un mero esecutore della prestazione sanitaria, bensì un supervisore che controlla le indicazioni fornite dai dispositivi intelligenti. Ma tale cambiamento pone l’accento su nuove forme di responsabilità, come quella derivante da mancata verifica delle raccomandazioni dell’intelligenza artificiale o da errata interpretazione delle indicazioni algoritmiche.
Ma andiamo con ordine.
Tradizionalmente, il medico era il principale responsabile dell’intero processo diagnostico e terapeutico, basandosi sulla propria competenza ed esperienza per valutare i sintomi, prescrivere esami e stabilire la terapia più appropriata.
Con l’introduzione dell’intelligenza artificiale nel settore sanitario, invece, la funzione del medico sta di fatto evolvendo: egli non è più l’unico responsabile dell’elaborazione delle decisioni cliniche, ma diventa un supervisore del sistema tecnologico che supporta il processo decisionale. E sebbene questo possa di primo acchitto far pensare ad una sorta di “deresponsabilizzazione” del medico, questa trasformazione in realtà non lo esonera completamente dalla responsabilità, anzi introduce nuove forme di obblighi professionali
E’ chiaro infatti che il medico non può affidarsi ciecamente all’intelligenza artificiale senza esercitare un controllo critico sulle sue indicazioni. In altre parole, non deve limitarsi a eseguire passivamente le decisioni suggerite dall’algoritmo, ma ha il dovere di valutarle con spirito critico e verificarne la coerenza rispetto alla situazione clinica del paziente.
L’intelligenza artificiale fornisce suggerimenti basati su analisi di grandi quantità di dati, ma non sempre le informazioni sono presentate in modo chiaro e comprensibile. Il medico ha l’obbligo di comprendere correttamente le indicazioni dell’intelligenza artificiale prima di applicarle nella pratica clinica. Se interpreta erroneamente i risultati forniti dall’algoritmo e prende una decisione errata, potrebbe essere chiamato a rispondere per imperizia.
Da ciò deriva che il medico ha il dovere di acquisire competenze specifiche per interpretare e utilizzare correttamente i sistemi di intelligenza artificiale. L’inosservanza di questo obbligo potrebbe configurare una sorta di colpa professionale.
Insomma, se l’intelligenza artificiale non può sostituire e non sostituisce il medico, sicuramente ne ridefinisce il ruolo, trasformandolo in una sorta di controllore consapevole delle raccomandazioni fornite dal sistema. Questo comporta nuove responsabilità, tra cui la verifica dell’affidabilità delle indicazioni ricevute, l’interpretazione corretta dei dati e il continuo aggiornamento professionale. E nonostante l’intelligenza artificiale sia uno strumento potente, il medico rimane l’ultimo responsabile della cura del paziente e deve sempre esercitare un giudizio critico per evitare di cadere in un eccessivo affidamento sulle macchine.
Responsabilità del produttore e della struttura sanitaria
Un’altra questione cruciale riguarda poi la responsabilità del produttore dei dispositivi di intelligenza artificiale. Attualmente, la normativa sui prodotti difettosi (D.Lgs. 206/2005, artt. 114-127) prevede una responsabilità presunta per il produttore, ma l’onere probatorio grava sul danneggiato, e se consideriamo la complessità degli algoritmi e il loro potenziale auto-apprendimento, dimostrare il difetto di un sistema di intelligenza artificiale potrebbe risultare al quanto arduo.
L’intelligenza artificiale infatti, e specialmente nei modelli basati su apprendimento automatico (machine learning) e reti neurali profonde (deep learning), non segue regole fisse e predeterminate come un software tradizionale. Al contrario, apprende e modifica i propri comportamenti nel tempo in base ai dati di input, sviluppando schemi e correlazioni che possono non essere pienamente comprensibili nemmeno dai suoi creatori.
Ad esempio, un sistema di intelligenza artificiale per la diagnosi oncologica potrebbe commettere un errore nel classificare una lesione tumorale come benigna anziché maligna. Ora, in tal caso, al fine di dimostrare che il software è difettoso, il paziente danneggiato dovrebbe:
- identificare l’errore commesso dall’algoritmo (cosa complessa, perché l’intelligenza artificiale può non fornire spiegazioni sul processo decisionale, il cosiddetto black-box effect);
- dimostrare che l’errore non è dovuto a un uso scorretto del medico o a una combinazione di fattori esterni;
- provare che il difetto era presente già al momento della commercializzazione e non è derivato da un’auto-modificazione dell’algoritmo avvenuta nel tempo a causa del processo di apprendimento.
Va da se che tutte queste prove sono estremamente difficili da raccogliere, rendendo quantomai complicato per il danneggiato ottenere un risarcimento.
Ma bisogna aggiungere che parallelamente, anche la struttura sanitaria potrebbe essere chiamata a rispondere, in quanto custode della tecnologia utilizzata (art. 2051 c.c.) o per eventuali carenze organizzative nella formazione del personale medico sull’impiego dell’intelligenza artificiale.
Una struttura ospedaliera che adotta un sistema di intelligenza artificiale ne ha il controllo diretto, lo utilizza nei propri processi clinici e deve garantirne il corretto funzionamento. Se l’intelligenza artificiale dovesse commettere errori per malfunzionamenti, guasti o problemi di aggiornamento, la struttura potrebbe essere ritenuta responsabile, indipendentemente dalla colpa, a meno che non dimostri che il danno sia stato causato da un caso fortuito (ovvero un evento imprevedibile e inevitabile).
Ad esempio, un ospedale potrebbe utilizzare un software di intelligenza artificiale per la gestione dei farmaci e la prescrizione automatizzata delle dosi ai pazienti. Poi, a causa di un bug del sistema, il software potrebbe prescrivere dosi errate di un anticoagulante, causando emorragie in diversi pazienti. Ecco, se si dimostra che il guasto è stato dovuto a una mancata manutenzione del sistema da parte dell’ospedale, allora la struttura potrebbe essere dichiarata responsabile ai sensi dell’art. 2051 c.c..
Ma se l’errore fosse stato invece causato da un aggiornamento rilasciato dal produttore senza che la struttura ne fosse a conoscenza, potrebbe allora tentare di escludere la propria responsabilità dimostrando che l’evento era imprevedibile e inevitabile (caso fortuito).
Proposte per un nuovo quadro normativo
Senza voler peccare di presunzione, ci pare opportuno in questa sede suggerire, per affrontare concretamente le suesposte problematiche, l’introduzione di un regime di responsabilità oggettiva per i sistemi di intelligenza artificiale ad alto rischio, accompagnato da un obbligo assicurativo per produttori e operatori sanitari, e dalla creazione di un fondo di garanzia per risarcire i pazienti danneggiati, riducendo il rischio di lacune nella tutela risarcitoria.
Come abbiamo detto, attualmente il regime giuridico della responsabilità civile è principalmente fondato sulla colpa, ossia richiede al danneggiato di dimostrare che il danno sia stato causato da una negligenza, imprudenza o imperizia del medico, della struttura sanitaria o del produttore del dispositivo di intelligenza artificiale.
Eppure, come visto, nel caso dei sistemi di intelligenza artificiale ad alto rischio, la complessità tecnologica e il carattere autonomo di tali strumenti rendono eccessivamente difficile per il paziente dimostrare la colpa o il difetto del sistema (a causa della “black-box decisionale” e dell’auto-apprendimento degli algoritmi). Ecco perché sarebbe opportuno introdurre una responsabilità oggettiva per chi mette in commercio, utilizza o gestisce tali tecnologie.
Come funzionerebbe?
- Il paziente danneggiato non dovrebbe dimostrare la colpa del produttore, del medico o della struttura sanitaria, ma solo il nesso causale tra il danno subito e l’uso dell’intelligenza artificiale.
- Il produttore o la struttura sanitaria risponderebbero quindi automaticamente, salvo che possano dimostrare che il danno sia stato causato da un evento imprevedibile e inevitabile (caso fortuito).
Una simile misura garantirebbe un accesso più rapido ai risarcimenti e ridurrebbe il rischio che il paziente resti senza tutela a causa di difficoltà probatorie.
L’adozione di sistemi di intelligenza artificiale ad alto rischio, poi, impone nuovi oneri per produttori, strutture sanitarie e medici, i quali devono essere pronti a rispondere in caso di danno. Ecco perchè riteniamo sommessamente che sia opportuno prevedere un obbligo di copertura assicurativa specifico per produttori di software di intelligenza artifi e dispositivi medici intelligenti, nonché per le strutture sanitarie che utilizzano l’intelligenza artificiale nei processi clinici, e soprattutto per i medici e operatori sanitari che si affidano a sistemi di intelligenza artificiale per diagnosi o terapie.
Una simile misura proteggerebbe le strutture sanitarie e i produttori da richieste risarcitorie molto onerose, e al tempo stesso offrirebbe ai pazienti una garanzia concreta di ottenere un risarcimento, senza dover affrontare lunghe battaglie legali, e soprattutto incentiverebbe le aziende a sviluppare sistemi di intelligenza artificiale più sicuri e trasparenti, poiché le compagnie assicurative imporrebbero standard rigorosi per concedere la copertura.
Si pensi al caso di un ospedale che introduce un robot chirurgico assistito da intelligenza artificiale per interventi di microchirurgia, e che a causa di un malfunzionamento del software, il robot danneggia un nervo di un paziente, causando una paralisi parziale. Ecco, in un sistema senza obbligo assicurativo, il paziente potrebbe dover affrontare anni di cause legali contro il produttore e la struttura sanitaria.
Con un sistema assicurativo obbligatorio, invece, il paziente riceverebbe un risarcimento più rapido, poiché l’assicurazione coprirebbe immediatamente i danni, mentre eventuali dispute tra produttore e ospedale verrebbero risolte separatamente.
Chiaramente, a prescindere dalle misure precedenti, potrebbero comunque verificarsi casi in cui il paziente non riesce a ottenere un risarcimento adeguato. Ed è qui che si inserisce l’ulteriore proposta di istituire un fondo di garanzia pubblico, finanziato da risorse pubbliche stanziate per la sicurezza dei pazienti, oltre che da contributi delle stesse aziende produttrici di sistemi di intelligenza artificiale.
Il fondo interverrebbe nei casi in cui non sia possibile ottenere il risarcimento da un’assicurazione privata (ad esempio, in caso di fallimento dell’azienda produttrice o di sistemi di intelligenza artificiale distribuiti senza un soggetto responsabile identificabile).Potrebbe essere utilizzato per coprire danni di particolare gravità, garantendo che i pazienti più vulnerabili non restino privi di tutela. E servirebbe anche per finanziare attività di controllo, certificazione e sicurezza sulle intelligenze artificiali mediche, prevenendo errori futuri.
Si pensi al caso di un paziente che subisce un danno grave a causa di un sistema di intelligenza artificiale prodotto da una startup tecnologica che, nel frattempo, è fallita. Ecco, non essendoci più un’azienda responsabile su cui rivalersi, il paziente rischierebbe di non ottenere alcun risarcimento. Con un fondo di garanzia, invece, il danno verrebbe coperto, garantendo una tutela equa anche in questi scenari.
In defintiiva, riteniamo sommessamente che queste tre misure possano rappresentare un modello di tutela innovativo che bilancia sicurezza per i pazienti e sostenibilità per le aziende e le strutture sanitarie, favorendo una maggiore fiducia nell’uso dell’intelligenza artificiale in medicina, e incentivando al contempo l’innovazione responsabile e lo sviluppo di tecnologie sempre più sicure ed efficaci.
Ma già la sola transizione da un modello di responsabilità basato sulla colpa a un sistema misto di responsabilità oggettiva e soggettiva potrebbe rappresentare la chiave per bilanciare innovazione tecnologica e tutela dei pazienti.
Per approfondire:
- FINOCCHIARO, La proposta di Regolamento sull’intelligenza artificiale: il modello europeo basato sulla gestione del rischio, in Smart, a cura di SALANITRO, Bologna., p. 49 ss.
- PERLINGIERI, Responsabilita` civile e robotica medica, in Tecn. e dir., 2020, P. 164 ss.
- SARTOR - LAGIOIA, Le decisioni algoritmiche tra etica e diritto, in Intelligenza artificiale. Il diritto, i diritti, l’etica, a cura di RUFFOLO, Milano, 2020, p. 68 ss.;
- ALPA, Quale modello normativo europeo per l’intelligenza artificiale?, in Contr. e impr., 2021, P. 1003 ss.;
- LAGIOIA, L’intelligenza artificiale in sanita`: un’analisi giuridica, Bologna, 2020, 13 ss.;
- PASCERI, Intelligenza artificiale, algoritmo e machine learning. La responsabilita` del medico e dell’amministrazione sanitaria, Milano, 2021, 15 ss.;
- TROIANO, Prefazione, in Diritto privato e nuove tecnologie. Riflessioni incrociate tra esperienze giuridiche a confronto, a cura di, Napoli, 2022, IX;
- COMANDE', Intelligenza artificiale responsabilita` tra liability e accountability. Il carattere trasformativo dell’IA e il problema della responsabilità, in Anal. giur. econ., 2019;
- D’ADDA, Danni «da robot» (specie in ambito sanitario) e pluralita` di responsabili tra sistema della responsabilita` civile ed iniziative di diritto europeo, in Riv. dir. civ., 2022, p. 807 ss.;
- BIANCARDO, Problematiche etico giuridiche relative all’utilizzo dell’intelligenza artificiale in ambito sanitario, in Jus-online, 2021, 104 ss.;
- DE BERNARDINIS, L’impiego delle nuove tecnologie in medicina, in Diritto e intelligenza artificiale, a cura di G. ALPA, Roma, 2020, p. 490 ss.;
- GUERRA, Profili di responsabilita` del produttore di robot chirurgo nell’ordinamento americano, in Profili giuridici dell’utilizzo della robotica e dell’intelligenza artificiale in medicina, a cura di FACCIOLI, Napoli, 2022, p. 57 ss.;
- BERTOLINI, Artificial intelligence does not exist! Defying the technology neutrality narrative in the regulation of civil liability for advanced technologies, in Eur. e dir. priv., 2022, P. 371 ss.
Nicola Nappi
Ultimi post di Nicola Nappi (vedi tutti)
- Blockchain nel settore assicurativo: sfide e opportunità - 17 Febbraio 2025
- Intelligenza artificiale e responsabilità medica: quale futuro per la tutela dei pazienti? - 10 Febbraio 2025
- Materiale preparatorio di un’APP: aspetti giuridici e criticità interpretative - 3 Febbraio 2025
- La struttura delle app: un’analisi dettagliata per sviluppatori - 27 Gennaio 2025
- Regime giuridico e presupposti per l’esercizio del diritto all’oblio - 20 Gennaio 2025