
L’aggettivo ‘artificiale’ viene usato per qualificare l’espressione più autentica e singolare della natura umana, appunto l’intelligenza. Per questo, l’intelligenza artificiale, al di là delle sue tante definizioni, sembra qualcosa in più, e di diverso, rispetto ad un set di strumenti tecnologici e di processi computazionali che consentono di fare meglio e più efficacemente (e velocemente) cose che già fanno parte della nostra esperienza di vita e sociale. Non a caso, quando si parla di genetica, biologia sintetica, AI, si parla di ‘tecnologie profonde’, che “segnano un genere diverso di cambiamento del mondo” proprio perché puntano a “progettare meglio l’evoluzione”.
Nelle Draft Ethics Giudelines for Trustworthy AI, predisposto dall’High Level Expert Group on Artificial Intelligence della Commissione Europea, del 18 dicembre 2018, si legge che “Artificial Intelligence is one of the most transformative forces of our time, and is bound to alter the fabric of society”.
Dunque, l’IA è una forza trasformativa, un cambio di paradigma, che arriva ad incidere (e in alcune prospettive finanche a travolgere) connotati antropologici, manifestazioni dell’esperienza e della natura umana.
Non è facile stabilire cosa è IA; manca una definizione univoca e generalmente accettata, e soprattutto cambia nel tempo, il che è normale per una tecnologia ‘generativa’, che cambia anche attraverso l’utilizzazione che se ne fa.
Non è solo robotica. Quando parliamo di sistemi di AI, può esserci un ‘corpo’ (vale a dire un contenitore fisico, anche variamente antropomorfo) oppure no: questi sistemi possono lavorare in uno spazio fisico ovvero in uno spazio virtuale. È possibile pensare a pezzi di AI anche dentro di noi (interfacce neurali, Brain computer interfaces, meccanismi di mind reading capaci di estrarre informazioni dal cervello umano e di replicarle in un computer), come risorse di potenziamento cognitivo ovvero di comunicazione alternativa per soggetti gravemente malati sul piano mentale, e non in grado di comunicare nemmeno con il movimento di parti del corpo (pensiamo ai casi di locked-in syndrome, o di SLA avanzata).
Dunque, l’IA è la chiave di ingresso in un mondo nuovo, che non è per forza di cose il mondo distopico della letteratura o del cinema di fantascienza, ma che certamente sarà caratterizzato da processi trasformativi imponenti, che riguardano la politica, l’economia, le relazioni personali, la formazione professionale e l’istruzione, la giustizia, la salute, solo per citare i punti di ricaduta più importanti degli sviluppi dell’IA. Di fronte a queste trasformazioni il diritto deve adeguare le sue risposte, e in alcuni casi deve immaginare risposte completamente nuove.
Quali nuovi strumenti il diritto dovrà prevedere per regolare i nuovi scenari aperti dall’evoluzione tecnologica?
In questo senso, in linea di continuità con quello che abbiamo detto prima, l’interesse del diritto per l’AI trova una giustificazione quasi “naturale”, intrinseca. Il diritto è, in una prospettiva realista, un prodotto di forze sociali, il riflesso di esigenze e problemi della vita sociale contemporanea; l’AI è ormai, e sempre più lo sarà, un elemento essenziale nella vita delle persone, nel sistema di relazioni sociali.
Se guardiamo i documenti normativi (quasi tutti di soft law) che si vanno definendo rispetto alle domande poste dal progresso dei sistemi di IA, la preoccupazione fondamentale è quella di
configurare un’AI «human-centric» and «trustworthy», cioè orientata al rispetto dei valori fondamentali della convivenza civile (rispetto della dignità umana e dei diritti, eguaglianza e non discriminazione, eguale opportunità di accesso a queste possibilità tecnologiche, alle risorse del mondo digitale, non interferenza rispetto ai processi democratici, sicurezza, rispetto per la privacy.
Nel collegare questi principi ‘classici’ al nuovo tema dell’IA, emergono significati particolari e specifici. Ad esempio, la dignità umana viene tradotta come diritto delle persone umane di sapere se e quando stanno interagendo con una macchina o con un altro essere umano, e di decidere se, come e quando attribuire determinati compiti ad un sistema artificiale autonomo o ad una persona. L’autonomia delle persone a contatto con AI agents o systems deve comportare altresì che i meccanismi di funzionamento di questi sistemi siano trasparenti e prevedibili, meglio ancora “esplicabili”.
C’è poi il grande problema di come (e chi) educare queste macchine sempre più ‘autonome’, e capaci di imparare dalla propria attività, dai dati con cui le alimentiamo, in modo sempre più slegato da una specifica e diretta programmazione. Il machine learning ci pone davanti ad una novità spiazzante. La macchina non fa semplicemente e solo quello che le viene chiesto, ma quello che impara a fare, attraverso un comportamento emergente, non completamente prevedibile, appunto autonomamente elaborato dal sistema agente.
Alpha Go vince contro il campione mondiale di questo gioco utilizzando una mossa molto creativa, mai pensata prima; Max Tegmark, nel ricordare questo evento, dice: «Perché è stata una cosa tanto importante per me personalmente? Be’, ho confessato prima che considero intuizione e creatività due dei miei tratti umani fondamentali e, come adesso spiegherò, ho avuto la percezione che Alpha Go presentasse entrambi».
Non sarà facile costruire un diritto per l’IA; è un work in progress che è appena cominciato, ma che certamente può partire da una base solida. Ho sostenuto tante volte che quello del diritto non è uno sguardo neutro: ci sono principi, consolidazioni, esperienze, a cominciare da quelli che si riannodano al linguaggio costituzionale, e ai suoi contenuti fondamentali, come pure (per noi) ai valori rilanciati dalle strutture normative europee (pensiamo soprattutto alla Carta dei diritti fondamentali dell’UE).
Bisogna capire che il tema è globale e non può che essere affrontato in una dimensione che superi i confini del diritto statale (ma anche di un diritto di dimensioni sovranazionali ma limitate come può essere quello europeo). Forse, la prima sfida per il diritto (e per il diritto costituzionale in particolare) è proprio questa, ed è il tratto dominante di quasi tutte le nuove emergenti issues del nostro tempo, come ad esempio le implicazioni del climate change, i dilemmi della genetica.
Quali rischi pone l’intelligenza artificiale al futuro delle libertà?
Io parlerei di rischi e di opportunità. L’impatto di questi sistemi e del loro funzionamento su molti diritti fondamentali in diversi settori –che vanno dalla giustizia penale, all’accesso al credito, ai servizi collegati alla salute, alle procedure di reclutamento e assunzione, all’accesso all’università, alla partecipazione politica, e tanti altri ambiti ancora– potrà essere valutato sia in senso positivo, vale a dire in termini di chances, sia in termini di possibili preoccupazioni. Non avrebbe molto senso polarizzare il dibattito tra sostenitori o oppositori degli sviluppi in tema di AI.
L’impatto può essere asimmetrico sul piano sociale. Inoltre, in alcuni settori gli “AI systems” (o agents) possono perpetuare (anche indirettamente e involontariamente) modelli e schemi discriminatori, incidendo in modo più severo e penalizzante nei confronti di gruppi minoritari e marginalizzati.
Una serie di studi evidenzia come software di previsione dei reati o di calcolo del recidivismo possono basarsi su informazioni che finiscono con l’alimentare una sorta di circolo vizioso, per cui alla fine, ad essere criminalizzata, è la povertà. Analogamente, criticità oggettivamente ‘razziste’ sono emerse dal funzionamento di sistemi di ‘facial recognition’.
E tutto questo in un contesto di opacità e di imperscrutabilità in cui non è facile capire quali sono i meccanismi di funzionamento di questi strumenti, le informazioni sulla base delle quali vengono poi prese o suggerite determinate decisioni.
Armi di distruzione matematica, le chiama Cathy O’Neil, e al di là dell’enfasi forse eccessiva della definizione, il problema reale è capire «se abbiamo eliminato il pregiudizio umano o l’abbiamo semplicemente camuffato con la tecnologia». Sta di fatto che alcune domande e informazioni che vengono sottoposte ai soggetti detenuti o anche semplicemente “fermati” in operazioni di controllo e prevenzione del crimine, possono condurre a risultati confermativi o reiterativi di quelle condizioni di debolezza e di difficoltà, alimentando così, più o meno inconsciamente, “un ciclo tossico” di pregiudizi e di parzialità, in cui, «anche se un modello nasce per non tener conto della razza, il risultato è esattamente quello. Nelle nostre città in cui, per la maggior parte, vige una sorta di segregazione razziale, la geografia è un dato che sostituisce perfettamente la razza».
È chiaro che si pone un problema di programmazione e “design” dei modelli algoritmici. Questo segnala un’esigenza di formazione etica dei programmatori e sviluppatori di sistemi artificiali e algoritmici. Bisogna integrare conoscenze e punti di vista, lavorare insieme per l’obiettivo di una IA trustworthy e human-centered.
Ci sono poi rischi relativi ad alcune particolari applicazioni dell’IA. In un recente documento del Consiglio d’Europa (Risoluzione n. 2344 del 22 ottobre 2020), si esprimono alcune preoccupazioni sulle c.d. BCI (brain computer interfaces. Il titolo del documento è eloquente:: “new rights or new threats to fundamental freedoms? Nel documento ci si sofferma non solo sui rischi di violazione della privacy e della dignità, “with the potential to subvert free will and breach the ultimate refuge of human freedom”; ma altresì sul pericolo distorsivo che si annida nell’uso ‘potenziativo’ delle BCI, che potrebbe creare “separate categories of human beings, the enhanced and the unenhanced”, interferendo in senso diminutivo sull’identità individuale, sull’agire umano e sulla responsabilità morale.
Come è possibile adattare i principi fondamentali del costituzionalismo con l’uso diffuso dell’Intelligenza artificiale?
L’IA poggia su una enorme, incalcolabile, quantità di dati, che sono il suo mondo. Il problema dei dati non è solo la tutela della privacy di chi li ‘produce’ e li fa circolare più o meno consapevolmente utilizzando le innumerevoli risorse del mondo digitale; e nemmeno il divario di efficienza tra noi e i nuovi sistemi agenti artificiali nel trattare questi dati, e nel ricavare da essi informazioni, outputs, indicazioni che poi servono a ricondizionare e riorientare i comportamenti e le scelte da cui quei dati derivano.
Chi controlla questi dati ha in mano formidabili strumenti di potere e di influenza: economica, sociale, politica. E se questo potere è concentrato nella disponibilità di pochi grandissimi attori su scala mondiale, allora diventa anche una questione politica, un problema di sovranità.
I giganti del web sono poteri immensi sia sul piano economico che su quello -persino più insidioso- del controllo e dell’indirizzamento dei processi sociali e culturali; come è stato detto, “Facebook definisce chi siamo, Amazon definisce cosa vogliamo e Google definisce cosa pensiamo”.
Benjamin Bratton segnala che stiamo assistendo ad uno shifting della sovranità, “from state to individual, from state to corporation, from law to protocol, from institution to network, (in definitiva) from land to Cloud”.
L’AI, le sue risorse informazionali, il “mondo online”, costituiscono una realtà ‘totale’, che investe l’esperienza umana interamente, nelle sue proiezioni individuali e collettive, economiche e politiche, private e istituzionali.
In secondo luogo, i sistemi di AI saranno uno dei grandi blocchi dello sviluppo economico mondiale in questo secolo. La sfida è (e sarà) quella di orientare (o almeno di ridurre i contrasti di) questa nuova imponente evoluzione tecnologica ed economica rispetto ai principi di tutela della dignità e della sicurezza umana, e dei diritti fondamentali. Una sorta di attualizzazione del messaggio contenuto nel secondo comma (e per certi versi anche nel terzo comma) del nostro art. 41 Cost., e più in generale in tutto il disegno costituzionale di società, fondato sulla centralità del lavoro, sulla dignità umana e sull’utilità sociale.
La AI revolution ha bisogno di essere accompagnata e ‘corretta’ da un pensiero ‘costituzionale’, deve produrre una risposta in termini di concettualizzazione di diritti e principi, allo stesso modo di come la rivoluzione industriale ha prodotto l’evoluzione welfarista degli Stati liberali nel XIX secolo e il costituzionalismo sociale del XX secolo.
Lo sviluppo della robotica e dei sistemi di AI avrà (sta già avendo) una serie di ricadute significative sul mercato del lavoro, sulla stessa sicurezza (e su molti diritti e libertà) nei luoghi di lavoro in considerazione delle più diffuse occasioni di coesistenza e di interazione tra umani e agenti “artificiali”.
La sfida dell’AI richiede un aggiornamento complessivo dei modelli di istruzione e formazione professionale (e dello stesso principio costituzionale secondo cui “la scuola è aperta a tutti”) alla novità profonda del contesto digitale, e un ripensamento di alcune strutture portanti del welfare. Per Roberto Cingolani, l’attuale modello di educazione e formazione professionale “poteva funzionare quando le rivoluzioni tecnologiche avvenivano nella scala di qualche generazione, ma oggi non più”; questo scienziato, attuale Ministro per la Transizione Ecologica nel Governo Draghi, propone di intersecare “la storia, la filosofia, le scienze umane con i nuovi orizzonti della tecnologia”.
Come si sta evolvendo la legislazione internazionale in tema di intelligenza artificiale?
In pochi anni abbiamo assistito ad una proliferazione di documenti normativi internazionali e sovranazionali (essenzialmente del tipo ‘soft law’, combinato con strumenti di self-regulation, con l’eccezione del GDPR) sullo sviluppo dei sistemi di AI.
Comincia a delinearsi una “via europea all’IA” (da ultimo si può vedere il documento “Getting the future right. Artificial Intelligence and fundamental rights”, pubblicato dalla European Union Agency for Fundamental Rights), che aspira a combinare l’implementazione dei sistemi intelligenti, quale fattore di innovazione, di profitto e di progresso a vari livelli, con l’attenzione ai rischi e alle criticità che essi implicano, dentro un quadro etico-giuridico chiaro e riconoscibile, capace di affrontare l’impatto dell’IA in primis in termini di sostenibilità, di responsabilità, di diritti delle persone, di vantaggi per la società, di attendibilità e trasparenza dei processi decisionali.
D’altronde, si tratta di un percorso normale quando ci si pone di fronte a tecnologie ‘emergenti’. Il diritto procede in modo ‘progressivo’, sussidiario; ma questo, come è stato sottolineato giustamente, “può rappresentare l’approccio migliore per affrontare problemi complessi e diversi caratterizzati da incertezza”.
Da questi Documenti cominciano ad emergere tutto un fascio di problemi e di possibili connessioni/conflitti degli sviluppi dell’AI con diritti e principi giuridici fondamentali.
Si lavora essenzialmente in chiave di adattamento interpretativo dei principi consolidati del costituzionalismo alle applicazioni di AI: l’obiettivo, come ho detto, è quello di configurare un’AI «human-centric» and «trustworthy».
In diversi Paesi poi cominciano ad essere approvare leggi in tema di responsabilità delle driverless cars (Germania), o sulla profilazione delle decisioni giudiziarie (Francia). Insomma, è un cantiere aperto, e siamo appena agli inizi.
Quale utilizzo è possibile dell’intelligenza artificiale nella giustizia?
L’uso di AI systems nel processo e nelle attività di crime prevention è in forte crescita, ed è uno dei temi più controversi e al tempo stesso affascinanti di questo nuovo orizzonte tematico del diritto.
La utilità della decisione giudiziaria “robotica” o “algoritmica” viene declinata soprattutto nel senso della rapidità e della oggettività (potremmo dire anche esattezza della decisione non condizionata da fattori “soggettivi”, emozionali, di adeguatezza professionale delle parti e del giudice, finanche di pregiudizi legati al sesso o all’orientamento sessuale, alla razza, alla religione, alla nazionalità, ecc.).
La rapidità è sicuramente un aspetto importante del giusto processo. Il principio della ragionevole durata dei processi esprime da tempo una rilevanza pienamente costituzionale (art. 111 Cost. art. 6 Convenzione EDU).
Ma il diritto e la giustizia sono solo questo? Sul piano dei principi costituzionali non è meno importante l’effettività e la pienezza del diritto alla difesa delle parti, la qualità della decisione giurisdizionale, la capacità del giudice di far emergere la irriducibile peculiarità dei fatti e di calibrare su di essi la decisione, in particolare (o almeno) quando davanti al giudice arrivano questioni scientifiche o rivendicazioni concrete inedite, non classificabili statisticamente, difficili da collocare in una dimensione standardizzata.
È possibile ricondurre sempre agli schemi astratti della computazione algoritmica la straordinaria varietà dei fatti che il diritto è chiamato a considerare (in modo ragionevole e con proporzionalità), le sue clausole indeterminate, le emozioni, le speranze, il problema della sua irripetibile (e talvolta drammatica) essenzialità che si pone davanti al giudice?
Dov’è la ragione tra chi sostiene che “il diritto è un fenomeno esclusivo dell’essere-uomo”, fino al punto che “la concezione dell’uomo-macchina segna simultaneamente l’estinzione del diritto e la fine del questionare filosofico”, e la tesi di Norbert Wierner secondo cui “I problemi giuridici sono per loro natura problemi di comunicazione e di cibernetica, e cioè sono problemi relativi al regolato e ripetibile governo di certe situazioni critiche”? Forse hanno ragione entrambi ma solo parzialmente; il diritto ha davanti situazioni ripetibili, seriali, e situazioni in cui la risposta giuridica richiede di scavare nei significati delle parole, e di clausole indeterminate come quelle costituzionali, dove non è facile immaginare una oggettiva e ripetibile calcolabilità.
I precedenti sono un elemento importante, e spesso decisivo, anche nell’attuale forma ‘umana’ della giurisdizione. Come è stato ben evidenziato, “l’esame dei dati passati per prendere una decisione è … fatto comune tanto alla decisione robotica quanto a quella giuridica”. Dunque, quello che viene chiamato il bias di conferma non appartiene soltanto alla decisione artificiale.
Tuttavia, per la decisione algoritmica questa sembra una condizione immodificabile, geneticamente legata ai modi della sua costruzione. Il diritto ‘umano’ è invece aperto al dinamismo, alla ‘invenzione’ (nel senso di ‘scoperta’) di significati nuovi e mai in passato elaborati o concepiti, alla fiducia che un’opinione isolata, perché non ancora giunta a maturazione, possa diventarlo dopo qualche anno, di fronte a contesti culturali e sociali modificati.
Il luogo “critico” di questa riflessione è soprattutto il processo penale: del resto, nessun altro sotto-sistema istituzionale ha un impatto potenzialmente più pesante su diritti umani fondamentali, come la libertà personale, il diritto alla sicurezza, la dignità umana, il diritto ad un giusto processo e a non essere considerati colpevoli fino a che non venga accertata la propria responsabilità (nella nostra Costituzione ‘definitivamente’), il diritto del condannato a sperare nella rieducazione e nel reinserimento sociale.
Registriamo casi in cui un software (Compas) ha contribuito alla valutazione del rischio di recidiva del condannato. La decisione finale è stata del giudice ‘umano’, ma l’algoritmo ha tracciato la base statistica.
In altre parole, l’algoritmo è stato solo uno degli strumenti a disposizione del Giudice per esercitare la sua discrezionalità, ed è servito a supportare e completare altri elementi di valutazione.
L’affermazione del principio di ‘non esclusività’ della decisione algoritmica sembra ancora saldo, e le tecniche di AI mantengono una natura strumentale, di ausilio, rispetto all’attività del Giudice. Il Giudice è soggetto soltanto alla legge, dice la Costituzione: e questo significa, tra le altre cose, che la legge può essere ‘affiancata’, orientata nell’applicazione da strumenti ulteriori, ma non sostituita mettendo il Giudice di fronte ad automatismi applicativi dipendenti dall’esito di procedure algoritmiche, per quanto alimentate e ‘allenate’ dai dati dei precedenti giurisprudenziali.
Bisogna chiedersi però se è sufficiente; alcuni studiosi richiamano “la travolgente forza pratica dell’algoritmo”: «un indubbio plusvalore pratico connesso alle scelte suggerite automaticamente (dal sistema, dall’algoritmo, dalla profilazione automatica), rispetto alla quale ci si può discostare, ma a patto di impegnarsi in un notevole sforzo (e rischio) valutativo».
Sul piano comparato, l’Estonia sta lavorando ad un progetto di legge per applicare le decisioni automatizzate di tipo algoritmico alle controversie civili di valore economico basso, con la previsione di una possibilità di impugnazione della decisione di fronte ad una Corte ‘umana’; in Canada, invece, e segnatamente nella Provincia della British Columbia, è attivo dal 2017 un modello di ODR (online Dispute Resolution) relativo ad alcuni ‘small claims’, in particolare nell’ambito della responsabilità civile derivante dalla circolazione stradale e delle controversie condominiali, che prevede la completa devoluzione del giudizio al sistema automatizzato, con la garanzia dell’impugnabilità delle decisioni davanti ad una court of appeal.
Quale contribuito possono offrire digitalizzazione, Intelligenza artificiale e robot nella tutela della salute?
L’uso di sistemi di intelligenza artificiale ha potenzialità straordinarie (anche) nel settore della medicina, in termini di accuratezza diagnostica, di configurazione di modelli terapeutici ‘personalizzati, nel campo della chirurgia, o della prevenzione sanitaria.
Già adesso il crescente impiego della digitalizzazione nei percorsi diagnostici e terapeutici mostra di poter incidere in modo significativo sulla pratica medica, con effetti positivi sulla prevenzione e sul miglioramento della qualità e delle aspettative di vita.
Si pensi solo ai riflessi operativi sulla gestione di cartelle e dati clinici, su diagnostica ed elaborazione della terapia, sul monitoraggio periodico della salute, sull’ obiettivo di un’assistenza sanitaria sempre più personalizzata e sganciata dalle strutture ospedaliere.
Un altro settore importante, sempre nell’ambito latamente sociosanitario, sarà quello dell’assistenza domiciliare di anziani e disabili, attraverso social robots, capaci di interagire e comunicare con gli esseri umani, e dotati di tutta una serie di capacità operative, cognitive e di ascolto, nella gestione dei percorsi terapeutici, e nell’interlocuzione con familiari e terapisti.
Bisogna creare le condizioni organizzative per assicurare la massima efficacia a queste risorse nel campo della salute. È necessario migliorare la disponibilità e l’interoperabilità dei dati sanitari, in un quadro ovviamente orientato al rispetto dei principi in tema di protezione dei dati personali. I dati sanitari sono infatti dati ‘super-sensibili’.
La medicina continuerà ad aver bisogno tuttavia dell’elemento umano. Bisogna fare in modo che l’attività delle macchine in questo ambito sia verificabile e valutabile da parte del professionista ‘umano’. I sistemi algoritmici applicati alla medicina devono essere ‘comprensibili’, ‘spiegabili’ nelle modalità di funzionamento e nei passaggi che li hanno condotti a determinate decisioni.
La problematica legata al cosiddetto “right to explanation” si interseca inevitabilmente con il principio del consenso informato del paziente, perno fondamentale, attorno al quale si snoda la dinamica di cura.
Se sono opachi, i sistemi di AI tendono a mettere in discussione anche tale principio: quando il consenso del paziente può dirsi effettivamente ‘consapevole’ e, dunque, ritenersi ‘valido’ in termini legali?
Le competenze di un AI system devono essere ‘allenate’, come si dice in gergo tecnico. Non è solo questione di tempi nella lettura della documentazione clinica o della letteratura scientifica di riferimento; la sfida è combinare al meglio ragionamento probabilistico e quello che viene chiamato “l’istinto del medico”, la capacità di cogliere la singolarità delle condizioni umane e delle storie ‘personali’ dietro alcune malattie o condizioni patologiche. Possono essere insegnate queste cose? Possono (debbono) far parte del processo di ‘addestramento’ dell’AI medical system? Come è possibile promuovere in modo efficace la sinergia e la collaborazione tra medici e programmatori degli algoritmi medicali, sia nella fase di costruzione dl meccanismo algoritmico che in quella di interpretazione e applicazione degli outputs, in modo da garantire applicazioni di intelligenza artificiale nel contesto dell’assistenza sanitaria che siano più efficienti e più sicure?
Inoltre, l’impiego dei sistemi di intelligenza artificiale espone gli utilizzatori a diversi rischi, tra cui, in particolare: (1) possibili “cyberattacks”, che, oltre a minare l’accuratezza delle diagnosi e lo svolgimento di determinate operazioni chirurgiche, possono consistere nei cosiddetti “input attacks”, una nuova forma di ‘vulnerabilità’ digitale, dovuta ad una vera e propria manipolazione dei dati che vengono immessi nella macchina – appunto, gli input – tale da determinare risultati errati; (2) ‘l’acquisizione’ e la produzione (involontaria) di “bias” nell’elaborazione dei dati; (3) la produzione di eventuali “mismatch”, consistenti nella possibilità di errore dell’algoritmo determinando un ‘disallineamento’ tra la soluzione prospettata e la situazione effettiva del paziente.
In definitiva, l’atteggiamento da adottare, dunque, deve essere improntato ad un ottimismo ‘cauto’. La possibilità del medico di esercitare un meaningful human control sulla decisione artificiale, è essenziale per salvaguardare e promuovere una human-centred medicine, in cui la relazione di cura continui a fondarsi sulla fiducia e sulla centralità del paziente all’interno del percorso terapeutico.
La necessità di un certo grado di explainability è indispensabile per evitare il ritorno a una nuova forma di paternalismo, questa volta tecnologico, dove la decisione artificiale non sarebbe sindacabile nemmeno dal medico, rischio che potrebbe, a sua volta, tradursi in una eccessiva dipendenza rispetto alla valutazione dell’AI (cd. automation bias). Infine, occorrerà mettere a punto appositi meccanismi assicurativi volti a garantire al medico un margine di discrezionalità e di azione, per evitare che gli AI medical systems si trasformino in strumenti riduttivi dell’intervento e della competenza umana.
Quali implicazioni hanno Intelligenza artificiale e blockchain?
In primo luogo, osservo che le novità introdotte dall’AI e dalla tecnologia Blockchain appaiono in grado di trasformare non solo il mercato ma anche il ruolo degli attori istituzionali esistenti e, più in generale, l’intero paradigma organizzativo della società. Ad esempio, per quanto riguarda la tecnologia Blockchain, il suo uso potrà giungere a consentire a ogni persona di scegliere i servizi digitali e pubblici che più si adattano alle proprie esigenze, indipendentemente dall’area geografica di nascita, attraverso la creazione di una e-residence, da alcuni Governi già testata (mi riferisco all’Estonia, per molti aspetti all’avanguardia negli sviluppi applicativi dell’IA).
In generale, le questioni legali collegate all’applicazione della tecnologia blockchain sono già molteplici e attuali. Mi limito ad indicarne alcune.
Si pensi al tema del riconoscimento o meno della qualità di mezzo di prova (processuale) dei dati contenuti e delle operazioni svolte sulla Blockchain.
Oppure al problema della corretta informazione in ordine alle implicazioni dell’AI sulla privacy degli utenti e, più in particolare, del rispetto delle regole dettate dal GDPR (per esempio con riferimento al diritto all’oblio sancito dall’art. 17), considerato che, tra le altre cose, i dati personali registrati nella Blockchain non possono essere cancellati.
O, ancora, all’esigenza di garantire l’accesso alle tecnologie in maniera libera, piena e non discriminatoria o di limitare la pratica della profilazione digitale.
Altre questioni ancora seguiranno l’andamento evolutivo di queste tecnologie. Per il diritto e per i giuristi si apre una fase eccitante e in continuo cambiamento. Serve un approccio sempre più aperto, ibrido, disponibile alla contaminazione con altri saperi.
Antonio D’Aloia (1965) è Professore Ordinario di Diritto Costituzionale nell’Università di Parma, e Direttore del Centro Universitario di Bioetica (UCB- University Center for Bioethics). Ha fondato insieme ad altri colleghi la rivista online Biolaw Journal – Rivista di Biodiritto, e dirige la Collana Bioetica Scienza Società (editore Franco Angeli). Da anni si occupa dei rapporti tra scienza, tecnologie, diritto. Ha scritto o curato, con riferimento a questo ambito tematico, i seguenti volumi: Biotecnologie e valori costituzionali. Il contributo della giustizia costituzionale (Torino, 2005); Il diritto alla fine della vita. Principi decisioni casi (Napoli, 2012); Neuroscience and Law. Complicated crossings and new Perspectives (Cham, 2020); Intelligenza artificiale e diritto. Come regolare un mondo nuovo (Milano, 2020); Il diritto e l’incerto del mestiere di vivere. Ricerche di biodiritto (Padova, 2021); La tempesta del Covid. Dimensioni bioetiche (Milano, 2021).