La relazione contrattuale tra operatore sanitario e paziente

Digressioni giuridiche dalle favole all’intelligenza artificiale – Parte 2 

Premessa 

Dopo avere presentato i fondamenti della relazione contrattuale tra operatore sanitario e paziente in un precedente numero dei Sentieri, qui di seguito quella relazione sarà esaminata alla luce dell’evoluzione tecnologica attuale e, segnatamente, dell’intelligenza artificiale. Ma prima di giungere alla questione giuridica centrale – la responsabilità – giova attardarsi su un concetto che interessa le Humanities: la volontà. 

 

Introduzione 

Prima ancora che sul rapporto tra operatore sanitario e paziente, l’evoluzione tecnologica di questi ultimi decenni mette in discussione la posizione e il ruolo dell’individuo, a tal punto che qualcuno ha già espresso il concetto che l’umanità sarebbe “desueta” (Anders, 2005). L’uomo, in altre parole, starebbe diventando un “fantasma tecnologico” (Rodotà, 2012). E l’elemento centrale, per la nostra disamina giuridica, diventa quindi la volontà. 

 

Prolegomeni 

L’incipit del Codice delle obbligazioni, art. 1 cpv. 1, ci dà la definizione di contratto: «Il contratto non è perfetto se non quando i contraenti abbiano manifestato concordemente la loro reciproca volontà».

Fondato sul consensualismo, il diritto svizzero mette così l’accento sulla manifestazione di volontà reciproca e concorde.

Bene, sino a oggi questa volontà era espressa da individui, donne e uomini. In senso “medico”, la capacità di formazione della volontà è «la capacità di prendere una decisione sulla base delle informazioni disponibili e delle proprie esperienze, motivazioni e scale di valori» (ASSM, 2019). In senso giuridico, la volontà è invece il risultato dell’attività psicologica intesa a soppesare diverse aspirazioni e di acquisire un punto di vista per il quale si vuole agire (volontà di agire: “Handlungswille”), che si vuole rendere accessibile a terzi (volontà di dichiarare: “Erklärungswille”) e con il quale si determina una conseguenza giuridica precisa (volontà di vincolarsi: “Bindungswille”). La volontà in senso giuridico è quindi un fenomeno sociale diretto all’azione e alla reazione interpersonale e non può essere praticamente separata dalla sua espressione (Zellweger-Gutknecht, 2020; cfr. anche: Müller, 2018). La legge ha poi sviluppato tutta una serie di correttivi e riflessioni sul tema: silenzio, persone assenti, principio dell’affidamento, simulazione, errore ecc. 

Ora, queste due definizioni ci rimandano, inevitabilmente, all’umano: essi vivono esperienze, condividono valori e hanno emozioni.

Donne e uomini veicolano questi elementi psicologici, concretizzandoli, nelle loro manifestazioni di volontà. Ma che ne è degli algoritmi e dell’intelligenza artificiale?

Possiamo applicare un concetto storicamente e sociologicamente riservato agli esseri umani, come la volontà, a un insieme di cavi, a una serie di 0 e 1? La risposta è difficile. La difficoltà è resa ancora più ardua dal fatto che l’oggetto dell’analisi – la volontà – richiama considerazioni ontologiche quali la coscienza di sé. 

Oggi, grazie agli sviluppi tecnologici, le macchine eseguono viepiù compiti che erano, un tempo, di competenza esclusiva di donne e uomini (Bartocci, 2014). Così, in questo contesto informatico, Ball/Callaghan hanno sviluppato dieci gradi di autonomia della macchina. Il punto di partenza, il grado 1), significa che la macchina non è autonoma e che l’individuo deve svolgere tutti i compiti. Il culmine, il grado 10), si raggiunge quando la macchina decide ed esegue, in piena autonomia, tutte le azioni senza influenza alcuna dell’individuo. Nel mezzo, con il grado 6), si colloca una macchina che, dopo aver ricevuto un input dall’individuo, esegue un’azione (Ball/Callaghan, 2012).

Tuttavia, con gli sviluppi legati al machine learning, al deep learning, ai chatbox, il concetto di “volontà” potrebbe dovere essere ripensato.

Certo, rimane pur sempre la domanda: a chi attribuire questa espressione di volontà? Una prima risposta, plausibile – dato che la macchina è, etimologicamente, un insieme di algoritmi predeterminati – potrebbe essere quella di assegnare tale dichiarazione all’individuo che l’ha concepita.

Tuttavia, recenti sviluppi hanno portato alla creazione di software basati su algoritmi molto complessi, la cui conseguenza è che i processi eseguiti non sono più (totalmente) comprensibili, a tal punto che le persone, che prima si occupavano dell’intero processo, ora utilizzano solo i risultati (Häuser/Schmid, 2018).

Non è però da escludere che, in futuro, si possa giustificare la conclusione di un contratto tra un algoritmo e un individuo. Siccome questi Sentieri si interessano anche alle Humanities, mi pare interessante fare una breve digressione sul concetto di “intelligenza artificiale”, richiamando due grandi matematici: Kurt Gödel e Alan Turing. 

 

Digressione epistemologica 

Prima di arrivare ai due matematici, mi permetto di riprendere una volgarizzazione del concetto di “intelligenza artificiale”. L’architettura interna di ogni macchina è identica (hardware), cioè un insieme di interruttori (bit), ognuno dei quali può essere acceso o spento. Queste macchine ricevono dati (input), li elaborano secondo precise istruzioni ricevute in precedenza (programmi, algoritmi) e producono risposte (output) (Bartocci, 2014). Per capire meglio come funziona, è stata proposta una metafora culinaria: gli input sarebbero gli ingredienti, l’hardware sarebbe il forno e gli utensili da cucina, l’algoritmo le ricette e gli output il piatto pronto per essere servito in tavola (Bartocci, 2014). L’elemento più importante è la ricetta. 

Ecco, a proposito di ricette ci giungono in aiuto, per restare in metafora, due cuochi tre stelle Michelin: Kurt Gödel e Alan Turing. Il primo è noto per i due teoremi di incompletezza. Secondo il primo teorema, ogni sistema formale coerente e sufficientemente ricco da includere l’aritmetica elementare contiene affermazioni vere e indimostrabili, cioè indecidibili. Il secondo teorema afferma che in un sistema formale coerente e sufficientemente ricco da includere l’aritmetica elementare non è possibile dimostrare la coerenza del sistema all’interno del sistema stesso (Bartocci, 2014).

Queste considerazioni evidenziano i limiti del pensiero meccanico: non possiamo racchiudere il vero nel dimostrabile e il dimostrabile nella meccanica del calcolo.

In un articolo del 1936, Turing immagina un “essere calcolatore” (una macchina di Turing) e dimostra che il problema dell’arresto di una macchina di Turing – la fine dei calcoli – non può essere risolto da un algoritmo:

non è possibile decidere con un algoritmo (cioè con una macchina di Turing) se una data macchina di Turing si fermerà in un dato momento.

In altre parole, Turing dimostra l’impossibilità per le macchine di formalizzare completamente un dato problema in unità di calcolo (Bartocci, 2014). 

 

Considerazioni finali 

Dal momento in cui la volontà è un fatto interno, psicologico, dell’essere umano, per ammettere che le macchine possano esprimere una volontà, dobbiamo accettare che esse siano dotate di intelligenza, che sarà artificiale. In altre parole, la mente umana può essere modellizzata come un computer? La risposta, date le premesse di cui sopra, dovrebbe essere negativa, perché se la mente umana è un processo computazionale, essa si esprime in un sistema formale. Tuttavia, un sistema formale non può dimostrare la propria coerenza (secondo teorema di incompletezza di Gödel); il sistema formale non può trascendere i propri limiti. 

Certo, in molti contesti – come vediamo tutti i giorni (e come tratteremo in seguito, segnatamente aiuto alla diagnostica, cardiologia con sistemi di controllo a distanza, dermatologia ecc.) –, le macchine funzionano, perché possono elaborare una quantità di dati enormemente superiore a quella degli esseri umani. Tuttavia, mi sembra che tutto questo potrebbe anche essere spiegato – epistemologicamente – dalla curva di Gauss-Laplace (Harari, 2018). Gli algoritmi ricevono una quantità notevole di dati, che sono in grado di analizzare in meno tempo rispetto agli esseri umani. Quando si tratta di analizzare (grandi quantità di) dati, i risultati forniti dalle macchine possono solo rimanere all’interno della curva di Gauss-Laplace. Gli estremi sono di competenza esclusiva dell’uomo.

Questo ci porta a dire che una macchina non sarà mai un essere umano, perché essa, in virtù del suo modo di calcolare, non può comprendere la totalità della realtà (Baricco, 2018), che è soggetta a giudizio (dire cosa è ius, cosa è giusto), di competenza umana.

La volontà è quindi tema d’attualità sia dal profilo medico sia giuridico e che merita molta attenzione e anche ricerche congiunte, basti pensare allo sviluppo delle neuroscienze e del neurodiritto. 

Note

Cfr. sito (ultimo accesso 22 settembre 2024): un algoritmo ha esaminato 584 casi della Corte europea dei diritti dell’uomo e ha previsto la sentenza emessa dai giudici con un tasso di precisione del 79%. Ciò significa che nel 21% dei casi i giudici hanno trovato una soluzione diversa. Ciò si spiega con il lavoro svolto dall’algoritmo sui modelli. La simmetria intorno alla media in una curva di Gauss-Laplace è del 68%: N. Gauvrit, Vous avez dit hasard? Entre mathématiques et psychologie, Belin, Parigi, 2009, p. 58. Cfr. M. Dapor/M. Ropele, Elaborazione dei dati sperimentali, Springer, Milano, 2005, p. 111. 

Bibliografia

G. Anders, L’uomo è antiquato, vol. I: Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, Bollati Boringhieri, Torino, 2005.

Accademia Svizzera delle Scienze Mediche (ASSM), La capacità di discernimento nella prassi medica, Berna, 2019 (Approvate dal Senato dell’ASSM il 29 novembre 2018, in vigore dal 1° gennaio 2019), p. 8. 

M. Ball/V. Callaghan, « Explorations of Autonomy: An Investigation of Adjustable Autonomy in Intelligent Environments », in: Proceedings of the Eighth International Conference on Intelligent Environments, IEEE 2012, p. 114.

A. Baricco, The Game, Einaudi, Torino, 2018, p. 325.

C. Bartocci, Dimostrare l’impossibile. La scienza inventa il mondo, Raffaello Cortina Editore, Milano, 2014, pp. 113, 176 s.

Y. N. Harari, Homo Deus. Breve storia del futuro, Saggi Bompiani, Firenze-Milano, 2018, pp. 133 e 387.

M. Häuser/A. Schmid, “Robotic Process Automation (RPA)”, in: Computer und Recht 4/2018, p. 267.

C. Müller in: Berner Kommentar, Art. 1-18 OR. Allgemeine Bestimmungen mit allgemeiner Einleitung in das Schweizerische Obligationenrecht, Berna, Stämpfli Verlag AG, n. 16 e 17 ad art. 1.

S. Rodotà, Il diritto di avere diritti, Laterza, Bari-Roma, 2012, p. 199.

C. Zellweger-Gutknecht in: Basler Kommentar, OR I, 7a edizione, Helbing Lichtenhahn, Basilea, 2020, n. 6 ad art. 1.

Cosa ne pensi?
Condividi le tue riflessioni
e partecipa al dialogo

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Desideri essere aggiornato sulle ultime novità dei Sentieri nelle Medical Humanities o conoscere la data di pubblicazione del prossimo Quaderno? Iscriviti alla nostra Newsletter mensile!

Iscriviti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *