La relazione contrattuale tra operatore sanitario e paziente – Parte 3
Digressioni giuridiche dalle favole all’intelligenza artificiale
4 Novembre 2024 – Legge, Etica, LibertàTempo di lettura: 11 minuti
4 Novembre 2024
Legge, Etica, Libertà
Tempo di lettura: 11 minuti
Premessa
Dopo avere trattato i fondamenti della relazione tra operatore sanitario e paziente e avere tratteggiato i contorni della volontà, introducendo già il concetto dell’intelligenza artificiale, il nostro percorso si conclude ora con la disamina dell’impatto giuridico di quest’ultima sulla relazione tra operatore sanitario e paziente.
Introduzione
L’intelligenza artificiale è viepiù adoperata in medicina, così per esempio in medicina generale (Comtesse/Walch, 2018; Fitaire/Kaiser/Demeulemeester/Sommer, 2018), in dermatologia (Koulori/Kuonen/Gaide, 2019), in psichiatria (Prada/Perroud/Thorens, 2023), radiologia, o ancora per diagnosticare retinopatia diabetica grazie a foto (senza l’intervento umano per interpretare i dati, mediante un device chiamato IDx-DR: cfr. qui).
Ma vi è chi si chiede se, davvero, è possibile pensare una medicina senza operatori sanitari (Maté, 2021). Rispettivamente, più in generale, se l’essere umano sia ormai obsoleto (Rodotà, 2012).
Certo, la Risoluzione n. 2018/2088 del Parlamento europeo afferma che, quando l’intelligenza artificiale è associata a una diagnosi umana, il tasso di errore tende a essere significativamente inferiore rispetto alle diagnosi effettuate esclusivamente da un medico. A riprova, una ricerca spesso citata – il caso del Gorilla – rileva che le persone spesso non si accorgono del verificarsi di un evento inaspettato, ma saliente (inattentional blindness): i ricercatori hanno chiesto a 24 radiologi di eseguire un compito familiare di rilevamento di noduli polmonari. Un gorilla, 48 volte la dimensione del nodulo medio, è stato inserito nell’ultimo caso presentato. L’83% dei radiologi non ha visto il gorilla. L’eye tracking ha nondimeno rivelato che la maggior parte di coloro che hanno mancato il gorilla ha guardato direttamente nel luogo in cui esso si trovava (Drew/Võ/Wolfe, 2013).
Riflessioni
Il tema principale per la nostra disamina, che – vale la pena ricordarlo – riguarda la relazione giuridica tra l’operatore sanitario e il paziente, è il quesito relativo alla responsabilità. Chi è responsabile, nel caso in cui un sistema di intelligenza artificiale dovesse sbagliare?
Titolari di diritti– e quindi soggetti di responsabilità– sono da sempre gli individui (art. 11 e 12 CC). Certo, storicamente è poi stato costruito il concetto – metaforico – di “persona giuridica”, per conferire diritti e obblighi a entità diverse dagli individui: fondazioni e società, in particolare. Nondimeno, vi è comunque sia sempre stata una visione antropomorfa [1].
Nello scorso contributo ho presentato il concetto di volontà. Ebbene, la responsabilità è intimamente legata alla volontà per il tramite della nozione di colpa: una persona è responsabile solo se ha causato il danno con una condotta intenzionale o negligente. Vi sono poi anche responsabilità nelle quali la colpa è presunta, per esempio quella contrattuale, o quelle in cui la colpa non è un elemento generatore di responsabilità, dette “causali”. In queste ultime, il fatto di esercitare un’attività a rischio è sufficiente a creare una responsabilità se un danno sopraggiunge, e vi è un nesso di causalità [2].
Ma nel caso di un sistema di intelligenza artificiale, chi è il responsabile se si manifesta un danno? Il sistema stesso? Il programmatore? L’utilizzatore? Il diritto attuale non ci dà alcuna risposta al riguardo.
La responsabilità va cercata nella personalità e nell’intenzione (coscienza). Nessun dubbio che la prima possa essere riconosciuta agli algoritmi e ai sistemi di intelligenza artificiale. Nulla osta a creare una nuova persona nel Codice civile, rispettivamente nel Codice delle obbligazioni, quale “persona elettronica”, come metafora. Già lo si è fatto con le persone “giuridiche”. Al riguardo, nel 2017 il Consiglio federale, in un parere del 26 aprile 2017, si è però opposto a riconoscere la personalità giuridica ai robot, e lo ha fatto in risposta al postulato 17.3040 depositato da Reynard Mathis (i riferimenti sono reperibili qui.
Di contro, il Parlamento europeo, con risoluzione del 16 febbraio 2017 [3], ha riconosciuto uno statuto giuridico specifico all’intelligenza artificiale. Il consid. 59 f) invita la Commissione a valutare l’ «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi».
Il tema è poi stato ampliato con la già citata risoluzione del 12 febbraio 2019 [4], con la quale lo stesso Parlamento si è espresso su una politica industriale europea globale in materia di robotica e di intelligenza artificiale. Di recente, il 13 giugno 2024, il Parlamento europeo e il Consiglio hanno promulgato il Regolamento (UE) 2024/1689 che stabilisce regole armonizzate sull’intelligenza artificiale.
Più complesso il percorso per ammettere una coscienza, un’intenzione a quei sistemi. Di recente, però, ricercatori dell’Università di Berna, del Computational Neuroscience Group, hanno sviluppato un nuovo modello per far emergere la coscienza nell’intelligenza artificiale. Il modello suggerisce che un giorno i sistemi che imitano il pensiero umano potrebbero acquisire coscienza. Per regolare la nostra interazione con questi sistemi, i ricercatori propongono un accordo tra esseri umani e macchine: lo Human-AI Deal (Benitez/Pennartz/Senn, 2024).
La coscienza non è, ancora, tema attuale. Ma, come trattare, dunque, la responsabilità dell’intelligenza artificiale? A livello europeo, nel settembre 2022 la Commissione ha presentato una proposta di Direttiva relativa all’adeguamento delle norme in materia di responsabilità civile extra contrattuale all’intelligenza artificiale (COM(2022) 496). L’intervento della Commissione è dettato dalla consapevolezza che, appunto, i diritti nazionali in materia di responsabilità, in particolare per colpa, non sono adatti a concretare le azioni in responsabilità per danni causati dai sistemi di intelligenza artificiale. La stessa Commissione propone di introdurre semplificazioni dell’onere della prova, introducendo una presunzione relativa all’esistenza del nesso di causalità.
A livello svizzero, si deve ragionare con gli strumenti noti che, come visto, rischiano di essere inadeguati o finanche obsoleti.
Conclusione
Il tema della responsabilità dell’intelligenza artificiale non è ancora stato risolto.
Molti sono i quesiti aperti e che dovranno, forzatamente, essere esaminati e ai quali dovrà essere data una risposta per fare chiarezza in una relazione giuridica affascinante, la cui componente umana non può essere trascurata.
Note al testo
[1] In una sentenza ormai datata, il Tribunale federale ha ricordato che «Si même on admet que les personnes morales ne sont pas, comme l’enseignait la doctrine traditionnelle, des êtres fictifs, des êtres de raison, il n’en résulte nullement qu’on doive les considérer comme capables de commettre des délits. La vie, la volonté, la conscience d’une personne morale sont d’un tout autre ordre que ceIles d’une personne physique; iI est impossible de les ramener à un processus physiologique et psychologique se déroulant dans l’être collectif lui-même; ce n’est pas en lui, c’est dans les êtres humains qui sont ses organes que se trouve le siège des perceptions et des volitions qui lui sont attribuées comme étant les siennes propres».
[2] Si distingue, da un lato, tra responsabilità causale semplice e, dall’altro, responsabilità causale aggravata. Il primo concetto raggruppa responsabilità basate sull’inosservanza di prescrizione d’ordine, come per esempio, la responsabilità del detentore di animale (art. 56 CO) o del proprietario di un’opera (art. 58 CO) o ancora per difetti (art. 1 e 4 LRDP) o di ausiliari (art. 55 CO). La seconda nozione include attività legate a installazioni tecniche che rappresentano un danno per l’ambiente già per la loro esistenza o attività che sono particolarmente pericolose, per i rischi incorsi, come per esempio, la responsabilità del conducente d’auto (art. 58 segg. LCStr), la responsabilità per una centrale nucleare (art. 3 segg. LRCN) o per esercizio di un aereo (art. 64 segg. LA).
[3] Risoluzione 2015/2103 (INL) recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.
[4] Risoluzione 2018/2088 (INI)
Bibliografia
F. Benitez/C. Pennartz/W. Senn, «The conductor model of consciousness, our neuromorphic twins, and the human-AI deal» in: AI and Ethichs, 2024, pubblicato online il 2 ottobre 2024.
X. Comtesse/D. Walch, «L’intelligence artificielle ne remplacera pas les médecins. Mais les médecins qui utiliseront l’IA remplaceront ceux qui ne le feront pas», in Revue médicale suisse, 2018, n. 620
T. Drew/M. L.H. Võ/J. M. Wolfe, «The Invisible Gorilla Strikes Again: Sustained Inattentional Blindness in Expert Observers» in: Psychological Science, 2013, 24(9):1848 –1853.
C. Fitaire/M.L. Kaiser/J. Demeulemeester/J. Sommer, «Comment l’intelligence artificielle va-t-elle bouleverser la médecine?», in : Revue médicale suisse, 2018, n. 62.
A. Koulouri/F. Kuonen/O. Gaide, «L’intelligence artificielle et le dermatologue», in : Revue médicale suisse, 2019, n. 644, 687.
C. Maté, «Peut-on vraiment envisager une médecine sans médecin?» in: Bulletin des Médecins suisses, 2021;102(04):138-139.
P. Prada/N. Perroud/G. Thorens, «Intelligence artificielle et psychiatrie : questions de psychiatres à ChatGPT» in : Revue médicale suisse, 2023, n. 818.
S. Rodotà, Il diritto di avere diritti, Bari, Laterza, 2012, pagg. 198 seg.
Cosa ne pensi?
Condividi le tue riflessioni
e partecipa al dialogo
Lascia un commento