“Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della robotica” a cura di Fabio Fossa, Viola Schiaffonati e Guglielmo Tamburrini

GIFT CARD    LAFELTRINELLI.IT
Fabio Fossa, Viola Schiaffonati e Guglielmo Tamburrini, Voi avete curato l’edizione del libro Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della robotica pubblicato da Carocci: qual è l’impatto dell’intelligenza artificiale e della robotica sulla vita delle persone?
Automi e persone. Introduzione all’etica dell’intelligenza artificiale e della robotica, Fabio Fossa, Viola Schiaffonati, Guglielmo TamburriniRobotica ed Intelligenza Artificiale (IA) devono essere attentamente discusse da un punto di vista filosofico ed etico proprio perché gli impatti che queste tecnologie hanno sulle nostre vite sono vari e profondi. Sistemi di IA basati sulla raccolta massiva di dati producono informazioni, previsioni e decisioni che spaziano dalla medicina all’agricoltura, dalla finanza all’organizzazione aziendale, dalla produzione industriale al commercio, dalla comunicazione all’intrattenimento, dalla sicurezza pubblica alla politica. La robotica di servizio mette a disposizione sistemi sempre più flessibili, capaci di operare in contesti che non sono più limitati alla sola produzione industriale e di interagire con esseri umani o altri agenti artificiali. Robot assistenziali, robot educativi e sex robot aprono scenari nuovi in ambiti assai delicati della società. I veicoli a guida autonoma promettono di avere effetti rivoluzionari sull’intero settore dei trasporti. I sistemi d’arma ad autonomia crescente ridisegnano il perimetro e la natura dei conflitti armati nei domini bellici tradizionali e nel cyberspazio, stimolando una nuova corsa alle armi e modificando lo scenario della sicurezza internazionale, nazionale e personale. Di fronte a un panorama così vario, è importante porre interrogativi sui valori etici fondamentali messi in gioco dalla diffusione sempre più capillare degli automi e dalla loro interconnessione in rete. Che ne è dell’autonomia di persone sorvegliate tramite la raccolta minuziosa di dati circa le loro vite e abilmente manipolate attraverso sistemi di raccomandazione di varia natura? Quali sono o possono essere gli effetti dell’IA e della robotica sui gruppi sociali più vulnerabili e discriminati? Se i sistemi autonomi, siano essi veicoli o sistemi d’arma, vengono abilitati a prendere decisioni di vita o di morte, che ne è della dignità delle potenziali vittime? E ancora, quali forme di benessere collettivo o individuale bisogna perseguire attraverso l’automazione della produzione o dei servizi? Come contemperare gli ideali di giustizia distributiva, equità e merito tenendo conto delle richieste e delle aspettative di chi progetta, di chi produce, di chi vende, di chi lavora, di chi acquista, di chi consuma e di chi usufruisce del servizio offerto da questo o da quel tipo di automa? Quali problemi di giustizia ambientale emergono da una rapida e massiva diffusione di tecnologie autonome? In che modo gli automi possono e devono aiutare nello sforzo di mettere in atto un processo globale e indifferibile di sostenibilità ambientale per la specie umana, le altre specie e gli attuali ecosistemi? Questi e altri interrogativi sono approfonditi nei vari capitoli che compongono il libro.

Che relazione esiste tra apprendimento automatico e decisione umana?
L‘apprendimento automatico o machine learning è oggi una delle tecniche di IA più utilizzate. Il successo di sistemi di IA basati sul machine learning può essere motivo di entusiasmo, ma è importante comprendere il funzionamento degli algoritmi e delle tecniche di progettazione per prendere coscienza dei rischi connessi al loro utilizzo. Ad esempio, la trasparenza delle decisioni è un tema delicato: non solo non è sempre possibile rendere pubblici e accessibili le informazioni e i dati che hanno portato ad una determinata scelta, ma un elemento di opacità è intrinseco al machine learning o perlomeno a buona parte degli algoritmi più in uso, sicché non è detto che sia possibile comprendere la logica che ha determinato l’output. In più, il processo di sviluppo e di applicazione di un sistema di decisione automatica può essere molto intricato da un punto di vista dell’organizzazione degli attori coinvolti. Il rischio di avallare decisioni discriminatorie è anche molto preoccupante: spesso un output ingiusto è un effetto causato involontariamente dai limiti degli assunti e dalla scarsa capacità dei programmatori e dei distributori di anticiparli e valutarli durante tutto il ciclo di vita dell’algoritmo. Per questo motivo si insiste sull’affiancamento di decisione automatica e umana, cosicché una qualche forma di controllo sia garantita. Si tratta però di una supervisione anch’essa difficile e problematica. Non è facile opporsi a una decisione automatica. In alcuni contesti l’interazione continuativa con sistemi di apprendimento può contribuire allo sviluppo di una fiducia sproporzionata verso le capacità del sistema e l’output suggerito. Quando questo accade l’utente può sviluppare una sorta di dipendenza verso il sistema che poi si trasforma in atrofia decisionale e rischia di indebolire proprio quelle capacità che sono necessarie per supervisionare le decisioni algoritmiche. L’influenza di queste decisioni è tale che in alcuni casi spinge a parlare di manipolazione. I sistemi di raccomandazione sono un esempio quotidiano. Qui l’utente mediamente si sente sollecitato più che forzato verso una certa direzione. Seppur gentile, però, questo tipo di guida può essere insidiosa e trasformarsi in una subdola forma di manipolazione.

Quali questioni etiche sollevano i veicoli autonomi?
I veicoli autonomi sono una tecnologia di IA che ha saputo catturare l’immaginario sociale in modo davvero profondo. Ad esempio, il problema delle collisioni inevitabili, grazie anche a piattaforme come Moral Machine dell’MIT, ha suscitato un interesse che va ben oltre il mondo accademico e la cerchia degli specialisti. Questo problema riguarda la domanda su come programmare in modo eticamente accettabile il comportamento di veicoli autonomi in situazioni in cui non si può evitare di recare danno a esseri viventi. Si tratta di un problema sicuramente centrale nel dibattito morale sulla guida autonoma e che ha dato nuova linfa (a ragione o a torto) alla discussione sul trolley problem, un esperimento mentale anch’esso di grande successo in etica. Altri temi sono però molto rilevanti. Si pensi, ad esempio, alla privacy messa a rischio dalla cospicua mole di dati che i veicoli autonomi saranno capaci di raccogliere. Oppure, si può riflettere sui problemi relativi al rispetto dell’autonomia personale in un ambito che si propone l’automazione di una attività come la guida, tradizionalmente connessa a sentimenti di libertà e autodeterminazione. Ma si devono anche prendere in considerazione le promesse che la guida autonoma avanza in termini di sicurezza, impatto ambientale e inclusività, le quali se fossero del tutto scevre da problemi – come non sono – farebbero dei veicoli autonomi una tecnologia che abbiamo il dovere morale di sviluppare e portare al più presto su strada. A prima vista si potrebbe pensare che l’etica non faccia parte dell’ingegneria e della ricerca tecnologica. La guida autonoma è un ambito perfetto per mostrare come invece le due dimensioni siano intrinsecamente connesse.

Come è possibile conciliare la governance algoritmica con i diritti fondamentali?
La governance algoritmica è un concetto emerso essenzialmente nell’ultimo decennio per esprimere l’idea che gli algoritmi siano ormai un importante mezzo di regolamentazione e di esercizio del potere. Questo fenomeno può profondamente influenzare, a più livelli, la protezione delle libertà e dei diritti fondamentali a causa dei potenziali problemi che sorgono dall’eccessiva sorveglianza, dalla censura, dai pregiudizi e dal rinforzo delle disuguaglianze provocati da usi malevoli, incauti o acritici di sistemi di governance algoritmica. Due facce del rapporto tra algoritmi, regole e diritti umani sono attualmente all’esame degli studiosi e del pubblico, e probabilmente lo saranno ancora di più nel prossimo futuro. Da un lato, vi è la questione della governance degli algoritmi da parte delle istituzioni. La riflessione giuridica e la normazione dovrebbero estendersi allo sviluppo tecnico degli algoritmi per tutelare i diritti dei cittadini? In quali contesti e in quali forme la regolamentazione degli algoritmi dovrebbe essere promossa o sostenuta? Come valutarne o anticiparne gli effetti? Da un altro lato, sono necessarie ulteriori analisi di come il mondo in cui viviamo sia effettivamente governato da algoritmi – da chi li sviluppa, produce, mantiene. E occorre, infine, dedicare ulteriori ricerche non solo ai modi in cui gli algoritmi regolano le nostre vite, ma anche a cosa significherebbe resistere loro.

In cosa consiste il controllo umano significativo delle armi autonome?
A partire dalla preoccupazione di un’interruzione della catena di responsabilità nelle azioni belliche, già da qualche anno si è posta l’attenzione sulla centralità dell’elemento umano nella riflessione sulle armi autonome. È in questo contesto che è stata proposta l’idea del controllo umano significativo come condizione necessaria negli attacchi sferrati da tutti i sistemi d’arma. L’uso dell’aggettivo “significativo” è volto a escludere condizioni e forme di controllo puramente nominali di un sistema d’arma, il che potrebbe accadere quando il controllore umano non ha a disposizione tempo o informazioni sufficienti per intervenire con cognizione di causa sul sistema d’arma. La formula del controllo umano significativo è stata accolta con favore dai molti attori del dibattito sulle armi autonome in quanto può essere facilmente compresa anche in assenza di conoscenze specifiche sulle tecnologie militari più avanzate. Ma cosa rende il controllo umano su un’arma veramente significativo? La questione è davvero complessa. Semplificando, per garantire tutto ciò è necessario assegnare all’essere umano alcuni ruoli fondamentali nel controllo dei sistemi d’arma. Ne possiamo passare in rassegna almeno tre. Innanzitutto, il controllo umano deve intervenire come sistema ausiliario di salvaguardia per cercare di impedire che il malfunzionamento o un comportamento imprevisto del sistema d’arma sfoci in un attacco contro la popolazione civile e i suoi beni, in un danno collaterale eccessivo o in altre violazioni del Diritto Internazionale Umanitario. Poi, il controllo umano deve funzionare come catalizzatore di responsabilità assicurando la sussistenza delle condizioni per attribuire delle responsabilità personali nel caso di violazioni del suddetto Diritto. Infine, il controllo umano deve essere garante del rispetto della dignità degli esseri umani sottoposti a decisioni di vita o di morte in un conflitto armato, consentendo di ricondurre a un agente morale umano tutte le decisioni che hanno un impatto sulla loro vita, sulla loro integrità fisica e sui loro beni.

In che modo la robotica sociale mette in discussione i concetti di persuasione e inganno?
In molti casi, i sistemi tecnologici raggiungono livelli più elevati di efficienza se si riduce il coinvolgimento di esseri umani nel loro funzionamento. In altri, invece, i sistemi tecnologici sono progettati principalmente per interagire con noi. Ciò vale per tutte le situazioni in cui il sistema tecnologico è pensato per funzionare in ambienti popolati non esclusivamente da tecnologie, ma anche da esseri umani. Se si pensa a quanti e quali contesti potrebbero beneficiare di un supporto tecnologico capace di interagire efficacemente con utenti umani – dall’ospedale all’ospizio, dall’azienda all’officina, dall’abitazione privata all’ufficio e alla strada – se ne colgono facilmente le potenzialità. In tutti questi casi la dimensione sociale è inestricabilmente intrecciata alla dimensione più propriamente tecnologica, il che genera diversi problemi di carattere morale – primi fra tutti le questioni della manipolazione, della persuasione e dell’inganno: fino a che punto è lecito ingannare l’utente, generando ad arte la sensazione che stia interagendo con un essere senziente? Fino a che punto è lecito influenzarne implicitamente il comportamento, fosse anche per spingerlo ad agire in modi ritenuti socialmente desiderabili? Non si tratterebbe di una lesione della dignità dell’utente, trattato con condiscendenza e abilmente manipolato? Ma è davvero importante tutto ciò, se l’interazione va a buon fine e l’utente, per quanto forse ingannato, ne ricavasse dell’utile o fosse convinto di beneficiarne? Discutere a fondo simili domande è obbligatorio se si vuole che lo sviluppo della robotica sociale sia allineato a valori etici tanto rilevanti quanto il rispetto dell’autonomia e della dignità umana.

Quali problematiche etiche sollevano i videogiochi e la gamification?
I videogiochi sono un medium la cui diffusione, negli ultimi anni, ha avuto un’espansione vertiginosa. L’aumento di diffusione dei videogiochi è andato di pari passo con una loro espansione e diversificazione: oggi è possibile giocare su moltissime piattaforme, dalle console dedicate, con possibilità di realtà virtuale, agli smartphone usati tutti i giorni. E se prima il giocatore ‘tipico’ era una persona che dedicava al suo hobby una parte consistente del proprio tempo libero, oggi sono diffusi anche i casual games, ossia giochi progettati per un utilizzo occasionale e di breve durata. Inoltre, tecniche mutuate dai videogiochi sono sempre più utilizzate anche per scopi non prettamente ludici. È il caso dei giochi educativi, sviluppati ai fini di motivare e coinvolgere i giocatori/studenti nei processi di apprendimento, ma anche della gamification. Il termine gamification indica l’utilizzo di elementi di game design (come trofei, classifiche a punti, l’assunzione di ruoli da parte dell’utente, stimoli alla competizione, elementi narrativi o sfide) al di fuori di veri e propri giochi. In questo scenario in rapida evoluzione, è importante comprendere a fondo l’impatto sociale, culturale, psicologico ed educativo dei videogiochi e della gamification. Le principali questioni etiche includono problematiche legate al contenuto, quali i contenuti violenti o le rappresentazioni di genere, ma anche problematiche derivanti dalle meccaniche di gioco, quale la promozione della dipendenza dai giochi e lo ‘sfruttamento’ degli utenti. In questo senso, ci sono degli interessanti punti di contatto tra il discorso etico sui videogiochi, sulla gamification e sulla robotica sociale, ad esempio per quanto riguarda la robotica sessuale e educativa.

Quale futuro per la convivenza tra uomini e automi?
Che il futuro riservi una compenetrazione sempre più capillare tra persone, robotica e sistemi di IA è ormai più che probabile. Già ora ne sperimentiamo segni tangibili. Come l’integrazione sarà perseguita e quali ne saranno le conseguenze a livello umano e sociale dipende dagli sforzi che saranno intrapresi non solo per prendere coscienza dei relativi problemi etici, ma anche per affrontarli a livello professionale, politico e legislativo. È di vitale importanza approfondire e diffondere la consapevolezza circa i rischi e le opportunità etiche dischiuse dal ricorso sempre più capillare agli automi. In sé, l’automazione non è né segno di un incontrovertibile destino di sventura e alienazione del genere umano, né indizio di un’inarrestabile marcia verso magnifiche sorti e progressive. Cosa sarà delle persone, delle società umane e del nostro pianeta nell’età degli automi dipende dalla decisione e dall’impegno con cui saremo in grado di affermare i valori che contraddistinguono la nostra umanità. La partita è aperta e si giocherà con intensità crescente negli anni a venire. Speriamo che questo libro possa servire a promuovere un dibattito sempre più partecipato e interdisciplinare su un tema tanto importante, nonché a diffondere le competenze necessarie ad affrontare problemi così complessi.

Fabio Fossa è assegnista di ricerca presso il Dipartimento di Meccanica del Politecnico di Milano, dove si occupa di filosofia degli agenti artificiali e etica dei veicoli autonomi. La sua ricerca verte su temi di etica applicata, filosofia della tecnologia, etica della robotica e dell’IA, e sul pensiero di Hans Jonas. È direttore della rivista InCircolo – Rivista di filosofia e culture e membro fondatore del gruppo di ricerca Zetesis.

Viola Schiaffonati è professoressa associata di logica e filosofia della scienza presso il dipartimento di elettronica, informazione e bioingegneria del Politecnico di Milano. I suoi principali interessi di ricerca riguardano le questioni filosofiche ed etiche dell’IA e della robotica e l’epistemologia e la metodologia degli esperimenti nell’ingegneria informatica.

Guglielmo Tamburrini è professore di filosofia della scienza e della tecnologia all’Università di Napoli Federico II. Si è occupato estesamente di filosofia degli automi: teoria della calcolabilità e problema mente-macchina, autonomia dei sistemi intelligenti ed etica, epistemologia di cibernetica, IA e robotica. Per Carocci ha pubblicato nel 2020 Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale

ISCRIVITI ALLA NEWSLETTER
Non perderti le novità!
Mi iscrivo
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link