
Gli interrogativi etici sollevati dai veicoli a guida autonoma non finiscono qui.
Essi porranno problemi di distribuzione equa delle responsabilità in caso di sinistri; di protezione dei dati personali, poiché i veicoli collegati in rete registreranno e trasmetteranno flussi imponenti di dati sul comportamento degli utenti; di hackeraggio, messo in atto sfruttando le vulnerabilità software, hardware e del collegamento in rete dei veicoli. Sarà anche necessario fronteggiare una disoccupazione tecnologica di breve periodo, ma eventualmente anche su periodi più estesi, che investirà gli addetti al trasporto di persone e di cose: tassisti, camionisti, conducenti di autobus e altre categorie di lavoratori.
Ma forse le questioni etiche più rilevanti riguardano l’etica ambientale. I veicoli a guida autonoma potranno avere effetti positivi, ma anche ripercussioni negative sulla crisi climatica in atto.
Da un lato, lo sviluppo della guida autonoma offrirà nuovi strumenti per ridurre l’impatto ambientale degli autoveicoli, tenendo conto che oggi i motori a combustione dei veicoli in circolazione producono circa un quinto delle emissioni antropiche di gas serra. Una progettazione orientata all’efficienza energetica dei veicoli a guida autonoma consentirà di ridurre il consumo di carburanti per chilometro percorso. Altri benefici ambientali potranno derivare da una gestione del traffico volta a evitare le congestioni e a ridurre i tempi di ricerca di un parcheggio, dalla diffusione di flotte di veicoli autonomi da utilizzare a pieno carico attraverso il car pooling e altri servizi di condivisione del trasporto.
Da un altro lato, la diffusione di veicoli a guida autonoma potrà avere un “effetto rimbalzo”, incentivando talmente il trasporto privato su gomma da controbilanciare i benefici ambientali derivanti dalla maggiore efficienza energetica dei singoli veicoli. Infatti, la spesa minore in termini di carburante per chilometro percorso potrà incoraggiare la gente a fare un uso maggiore di autovetture private a guida autonoma; la comodità dei viaggi – senza avere più l’incombenza della guida e potendosi dedicare ad attività lavorative o di svago – potrà incentivare il pendolarismo su percorsi più lunghi, spingendo tante persone a trasferirsi verso zone periferiche meno costose e meno congestionate dei centri urbani; le persone che oggi non possono o non desiderano guidare potranno sfruttare questa nuova opportunità per spostarsi. E inoltre, al contrario degli attuali veicoli, i veicoli a guida autonoma avranno bisogno di un’infrastruttura imponente di centri di elaborazione dati ad alto consumo energetico.
È perciò evidente la necessità, dalla prospettiva dell’etica ambientale, di mettere in campo un ampio ventaglio di politiche di progettazione e gestione per i veicoli a guida autonoma, che riguardano le forme d’uso da consentire o scoraggiare, la rete stradale, le infrastrutture informatiche e di telecomunicazione, fino agli interventi urbanistici sulle aree interessate.
Quali politiche etiche sono necessarie per le armi autonome?
I paesi militarmente avanzati sono impegnati in una corsa alle armi autonome. Si tratta di armi capaci di selezionare e di attaccare un obiettivo militare senza che vi sia necessità di alcun intervento umano dopo la loro attivazione. Si tratta di macchine che possono prendere decisioni di vita o di morte in un conflitto bellico. Nel mio libro ho analizzato a fondo la principale questione etica che riguarda l’autonomia dei sistemi d’arma: è ammissibile affidare a una macchina la decisione di attaccare un obiettivo militare, con tutte le implicazioni del caso che riguardano la vita, l’integrità fisica e i beni degli esseri umani coinvolti nell’attacco?
Vi sono fondati motivi etici e giuridici per limitare o perfino impedire che un’arma possa avere autonomia nelle funzioni eticamente critiche di selezione e di attacco di un obiettivo militare. A questo proposito, mi limito qui a ricordare le obiezioni basate sul principio di distinzione incardinato nel diritto internazionale umanitario. Questo principio richiede di limitare strettamente un attacco a quegli obiettivi militari che possono fornire un contributo effettivo all’azione bellica. Un’arma autonoma sarà in grado di rispettare questo principio altrettanto bene di un soldato ben addestrato? Per applicare correttamente il principio di distinzione è necessario distinguere tra i combattenti attivi da un lato e i nemici fuori combattimento o la popolazione civile inerme da un altro lato; di riconoscere e salvaguardare il personale militare sanitario e religioso, le unità sanitarie e i mezzi di trasporto civili o militari. Le tecnologie dell’intelligenza artificiale e della robotica non consentono di risolvere nella loro generalità questo genere di problemi percettivi. Tanto meno negli ambienti dinamici e non strutturati che sono tipici di un conflitto bellico.
E allora: chi sarà ritenuto responsabile se un’arma autonoma viola il principio di distinzione, con conseguenze che sarebbero classificabili come crimini di guerra o crimini contro l’umanità se alla loro origine ci fossero degli esseri umani invece di una macchina? Per evitare un vuoto di responsabilità e per mantenere integra la catena umana di comando e controllo nelle azioni belliche, il libro sposa la tesi che tutti i sistemi d’arma debbano essere soggetti a un controllo umano stringente e significativo. Questa tesi è oggi al centro di un animato dibattito diplomatico e politico a livello internazionale.
Il caso delle armi autonome non è isolato. La richiesta di garantire un controllo umano significativo è stata avanzata a proposito di tutte le macchine dell’intelligenza artificiale e della robotica che possono prendere in autonomia dall’uomo delle decisioni moralmente impegnative. Basta ricordare a questo proposito le scelte dei veicoli a guida autonoma in caso di collisioni inevitabili o degli algoritmi che sono stati già utilizzati per decidere a proposito di concessione di prestiti bancari, di licenziamenti e assunzioni. Il Regolamento generale sulla protezione dei dati (GDPR) dell’Unione Europea, che offre la possibilità di fare appello contro vari tipi di decisione automatica, rappresenta un notevole passo in avanti sulla strada del controllo umano sugli algoritmi. Ma c’è ancora molto da fare, allo scopo di chiarire in che cosa deve consistere e come si deve esercitare un controllo umano significativo nei vari ambiti applicativi della robotica e dell’intelligenza artificiale.
Quali decisioni e azioni che incidono sul benessere fisico e sui diritti delle persone possono essere affidate all’autonomia operativa di una macchina? Quali responsabilità devono rimanere in capo agli esseri umani?
Le decisioni e le azioni che incidono sul benessere e sui diritti fondamentali delle persone sono eticamente sensibili. In alcuni casi sarà sufficiente programmare le macchine autonome in modo da riflettere delle politiche etiche ben motivate e condivise nelle loro decisioni autonome. Un esempio emblematico è dato dai veicoli ad autonomia crescente o completamente autonomi. Proprio grazie alla loro autonomia rispetto ai conducenti umani, questi sistemi consentiranno di promuovere il benessere collettivo degli utenti della strada. E il loro comportamento nel caso di un raro incidente potrà essere programmato in anticipo, in conformità con politiche etiche di protezione equa di pedoni e passeggeri, da scegliere e condividere in base a un confronto pubblico tra le parti interessate.
In altri casi invece, l’autonomia operativa delle macchine dovrà essere soggetta a un controllo umano stringente non solo in fase di programmazione, ma anche di esecuzione del compito. Il caso delle armi autonome è stato utilizzato nel libro per esemplificare questo secondo tipo di esigenza etica, che ho chiamato “condizione Petrov”, con riferimento al caso del falso allarme nucleare nel quale fu coinvolto come protagonista il colonnello dell’aviazione sovietica Stanislav Evgrafovič Petrov.
La mattina del 26 settembre 1983, il sistema sovietico oko, di allarme preventivo per gli attacchi nucleari, registrò il lancio in rapida sequenza di cinque missili balistici, partiti dal territorio degli Stati Uniti e diretti verso l’Unione Sovietica. Petrov, che in quel momento era l’ufficiale responsabile di turno, arrivò a concludere che si trattava di un falso allarme dovuto a un malfunzionamento del sistema. In base a tale convincimento, Petrov contravvenne alla consegna di trasmettere ai superiori la notizia dell’allarme segnalato dal sistema, notificando invece un episodio di guasto del sistema stesso. La diagnosi di Petrov si rivelò giusta. Ricevendo la segnalazione generata da oko, il comando sovietico avrebbe potuto decidere di rispondere con un lancio di missili balistici, scatenando così una guerra nucleare devastante.
Analogamente, implementando opportunamente la condizione Petrov, gli esseri umani possono oggi dare un contributo fondamentale per prevenire i cosiddetti “disastri dell’intelligenza artificiale” nelle azioni belliche. Un sistema dell’intelligenza artificiale può indurre violazioni del diritto internazionale umanitario a causa di errori percettivi o di valutazione nei quali gli esseri umani normalmente non incorrono o che questi ultimi possono individuare utilizzando indizi contestuali che sono ancora poco o punto accessibili alla macchina. Ecco perché la condizione Petrov è di fondamentale importanza per le tecnologie militari che sono basate sull’intelligenza artificiale e sulla robotica.
Che peso dare alle limitazioni che affliggono la nostra capacità di spiegare e prevedere il comportamento di robot che apprendono dall’esperienza e interagiscono con altri sistemi informatici e robotici?
Le tecnologie per l’apprendimento automatico hanno allargato notevolmente, soprattutto a partire dai primi anni Duemila, le frontiere dei compiti che le macchine possono imparare a svolgere, mediante forme opportune di addestramento, invece di essere programmate esplicitamente a farlo: compiti percettivi, di giudizio cognitivo, di coordinamento sensomotorio e interazione con altri agenti intelligenti. I filtri antispam, i sistemi di supporto alle diagnosi mediche, di traduzione automatica, gli assistenti personali per la navigazione in rete e molti altri sistemi di grande utilità per i singoli e la società nel suo complesso sono basati sulle tecnologie per l’apprendimento automatico.
L’apprendimento automatico gioca un ruolo centrale nello sviluppo di sistemi particolarmente sensibili da una prospettiva etica, come i veicoli ad autonomia crescente e le armi autonome ai quali abbiamo già accennato, ma pure gli assistenti robotici per la chirurgia, i sistemi di supporto per la concessione di prestiti bancari, per selezionare il personale da assumere, per gli avanzamenti di carriera e per altre decisioni che hanno un impatto significativo sulla vita dei diretti interessati. Le prestazioni dei sistemi sviluppati grazie alle tecnologie dell’apprendimento automatico sono spesso eccellenti, ma raramente si accompagnano alla leggibilità dei soggiacenti processi di elaborazione dell’informazione. In particolare, i sistemi sviluppati applicando le tecnologie del cosiddetto apprendimento profondo (deep learning) sono formati da sistemi (le cosiddette reti neurali artificiali) che elaborano l’informazione in forma “subsimbolica”, arrivando a fornire i loro output senza passare per inferenze logiche su enunciati linguistici o altre strutture simboliche agevolmente comprensibili dagli esseri umani. Ecco, in estrema sintesi, uno degli ostacoli più importanti che limitano oggi la nostra capacità di prevedere con precisione e di spiegare il comportamento di molti sistemi dell’intelligenza artificiale e della robotica.
I ricercatori dei settori interessati stanno da tempo affrontando problemi di questo genere. Un intero settore di ricerca è nato con lo scopo di trasformare le attuali difficoltà che riguardano l’interpretabilità e la spiegabilità dei sistemi dell’intelligenza artificiale in problemi che ammettono una soluzione scientifica e tecnologica. Questo settore, che si chiama XAI (eXplainable Artificial Intelligence, letteralmente “intelligenza artificiale spiegabile”), ha l’obiettivo di dotare i sistemi sviluppati in base a metodi di apprendimento automatico della capacità di fornire spiegazioni delle loro decisioni e azioni. La capacità di rispondere alle richieste di spiegazione e alle esigenze interpretative deve servire anche a garantire un controllo umano significativo, scongiurando che vengano prese delle decisioni, forse rare da un punto di vista statistico, ma con conseguenze gravi di tipo etico o giuridico.
Vi sono altre questioni etiche discusse nel libro che riguardano le macchine autonome dell’IA e della robotica?
I veicoli a guida autonoma e le armi autonome sono i casi che ho discusso più approfonditamente. Ma il libro offre un’ampia rassegna di questioni etiche che riguardano l’autonomia operativa delle macchine dell’intelligenza artificiale e della robotica. Si tratta di questioni note, spesso denunciate e tuttavia ancora in attesa sia di un’analisi etica approfondita, sia di politiche etiche adeguate da sottoporre al dibattito e alla deliberazione pubblica. Riguardano la dignità del lavoro umano e problemi di equità sociale che potrebbero insorgere da una competizione per il lavoro tra uomo e macchine autonome, come avevano già rilevato a metà del secolo scorso i pionieri della cibernetica e dell’intelligenza artificiale Norbert Wiener e Alan Turing. Riguardano inoltre le trasformazioni alle quali andranno incontro le attività lavorative, anche quelle più qualificate, come il libro mette in evidenza considerando le trasformazioni della professione del chirurgo a opera dei robot chirurgici ad autonomia crescente. E riguardano anche i sistemi di controllo, sorveglianza, educazione e punizione sociale abilitati dalle tecnologie dell’intelligenza artificiale e integrati con tecnologie robotiche come i droni, sui quali è indispensabile esercitare un controllo umano significativo, che sia volto a proteggere l’autonomia delle persone e i loro diritti fondamentali. In definitiva, una panoramica su questi molteplici sviluppi tecnologici mostra quanto sia urgente sviluppare una sensibilità etica diffusa sul mondo variegato e in crescente espansione costituito dai sistemi autonomi e ad autonomia crescente che si collocano alla confluenza di robotica e intelligenza artificiale.
Guglielmo Tamburrini è professore ordinario di filosofia della scienza e della tecnologia all’Università di Napoli Federico II. È stato coordinatore del primo progetto europeo sull’etica dei sistemi robotici e dell’intelligenza artificiale (progetto ETHICBOTS, 2005-2008). Nel 2014 gli è stato conferito il Premio Internazionale Giulio Preti del Consiglio Regionale della Toscana per il suo lavoro didattico e di ricerca sulle implicazioni etiche e sociali di IA e robotica. È autore di I matematici e le macchine intelligenti. Spiegazione e unificazione nella scienza cognitiva.