Tecnologie dell'informazione e intelligenza artificiale. Sfide etiche al diritto, Laura PalazzaniProf.ssa Laura Palazzani, Lei è autrice del libro Tecnologie dell’informazione e intelligenza artificiale. Sfide etiche al diritto edito da Studium: a quale impetuoso sviluppo delle tecnologie dell’informazione e della comunicazione stiamo assistendo? Quali rischi e sfide di ordine etico e giuridico pone tale ondata tecnologica?
La rivoluzione digitale sta vivendo un’impressionante accelerazione in questi ultimi anni: si pensi ai personal computer, internet, cloud computing, social network, ecc. Si tratta di una rivoluzione che apre considerevoli opportunità (velocizzazione e globalizzazione delle informazioni, potenziamento delle conoscenze ecc.) ma solleva anche numerosi problemi di carattere etico e giuridico.

Tra gli aspetti che meritano una adeguata riflessione sul piano etico vi sono le trasformazioni del concetto di ‘identità digitale’: l’identità on-line può non corrispondere alla identità off-line, e si mostra come una identità disincarnata, fluida e plurale, con scarse possibilità di controllo della autenticità e possibili fake identities; anche il rapporto interpersonale può cambiare, in quanto cambiano i modi di comunicare, con un aumento quantitativo delle relazioni digitali che rischia di essere inversamente proporzionale alla dimensione qualitativa delle relazioni ‘faccia-a-faccia’ con un rischio di impoverimento dei rapporti.

Inoltre l’accesso alle tecnologie potrebbe creare disuguaglianze con chi non è in possesso delle tecnologie o non è in grado di usarle o manca della motivazione ad usarle, sollevando la questione del ‘divario digitale’ che riguarda in particolare le persone anziane, le persone con disabilità cognitive o le persone che provengono da aree geografiche non tecnologicamente avanzate.

La rilevazione delle problematiche etiche dovrebbe sollecitare una regolazione attenta a questi profili, che consenta l’uso delle tecnologie a condizioni che non abbiano conseguenze negative o almeno limitino le conseguenze negative per le persone c.d. ‘tecnologicamente vulnerabili’. In particolare si rende necessario una informazione ed educazione alle abilità informatiche o ‘digital literacy’ che consenta non solo una abilità informatica ma anche una consapevolezza critica di un uso di tali tecnologie che non impoverisca l’uomo e la società, ma ne agevoli lo sviluppo. Emerge l’esigenza etica che l’utente digitale sia in grado di riconoscere le informazioni affidabili, avere gli strumenti per giudicare/valutare la qualità del sito: gli stessi siti web dovrebbero aiutare l’utente a comprendere l’attendibilità dei siti, a fornire strumenti per selezionare in modo autonomo.

Molti gli organismi internazionali che si sono occupati del tema. Si segnalano in particolare: Unesco, Code of conduct for the information society (2011); European Group on Ethics in Science and New Technologies, Ethics of ICT, 2011 CNB, Etica salute nuove tecnologie dell’informazione, 2006.

Quali questioni sollevano i big data?
‘‘Big data’ è un’espressione che si sta sempre più diffondendo e indica l’enorme quantità di informazioni, con alcune caratteristiche particolari (le c.d. ‘4V’): volume, velocità, varietà, veracità. Il ‘volume’ indica l’enorme quantità di dati; la ‘velocità’ si riferisce all’accelerazione nella generazione dei dati e nell’elaborazione dei dati; la ‘varietà’ evidenzia l’eterogeneità delle fonti (computer, telefoni cellulari, internet, sensori e dispositivi mobili); la ‘veracità’ sottolinea la possibile autenticità dei dati. Va anche aggiunto il ‘valore’ dei dati, inteso come la rilevanza e il significato nel contesto attuale.

A fronte di enormi e straordinarie opportunità, emergono alcuni elementi di problematicità etica, che meritano una riflessione a fronte delle ‘sfide’ ai concetti e alle categorie tradizionali etiche. Si parla di ‘grandi promesse’ e anche ‘grandi sfide’.

Innanzitutto emerge il problema della ‘qualità’ dei dati a fronte dell’enorme quantità. Emerge la questione della possibile inaccuratezza ed imprecisione della raccolta, catalogazione e classificazione dei dati a causa della vastità, eterogeneità, rapidità e complessità nell’accumulazione e nella gestione delle informazioni. In secondo luogo emerge la questione etica riguardante la mancanza di consapevolezza da parte dell’utente del trattamento dei dati personali. A volte i cittadini sono rassegnati alla costante ed insistente richiesta di dati e informazioni, che si estende a tutti gli ambiti della vita quotidiana (ogni nostra azione, pensiero, movimento è tracciata digitalmente sulla rete): ma iniziano anche a percepire i pericoli che si insinuano in questa insistenza soprattutto comprendendo la possibilità che la riservatezza possa lentamente scomparire.

Un ulteriore problema etico è la trasparenza degli algoritmi, ossia – a seguito della raccolta dei dati – la selezione dei dati e la conoscenza delle modalità di costruzione dei rapporti di correlazione tra le informazioni e le predizioni o configurazioni dei probabili scenari futuri. È stato rilevato un paradosso: quanto più diventiamo ‘trasparenti’ (nel senso di identificabili e non anonimizzabili), tanto più le tecnologie diventano ‘opache’.

Quali problemi di natura etica pone la robotica?
Robot è una macchina artificiale che opera meccanicamente generalmente comandata da una intelligenza artificiale. La robotica ha fatto straordinari progressi: i robots stanno divenendo enti autonomi con funzioni generali, in grado di muoversi ed interagire con l’ambiente, con capacità di apprendimento, con possibilità di percezione, ragionamento, decisione. Molteplici gli ambiti di applicazione sociale: civile e militare.

Le problematiche etiche emergenti sono principalmente connesse alla interazione uomo/macchina e al problema della dipendenza dalla tecnologia, intesa come dipendenza personale (dipendenza psicologica nei confronti dei robot) e dipendenza sociale (dipenderemo sempre più dai robot, come oggi dipendiamo dal petrolio e dalle telecomunicazioni mobili). Se il robot è androide, con eccessive sembianze umane, l’interazione può suscitare attaccamento, in particolare per persone in condizioni di particolare fragilità, quali bambini, anziani, malati, persone disabili (robotic care). Emerge inoltre il problema della responsabilità degli atti commessi dai robot, nell’ipotesi della realizzazione di agenti intelligenti artificiali. La responsabilità è del costruttore (progettista o programmatore o disegnatore, o produttore), del venditore, del proprietario o dell’utente: si può parlare di una responsabilità ‘condivisa’ o ‘distribuita’, che va bilanciata in base alla circostanza nell’identificazione della modalità del risarcimento del danno. Bisogna garantire meccanismi di tracciabilità, per la ricostruzione dei processi decisionali e le responsabilità con riferimento al robot. Altra questione è l’ingiustizia: è eticamente rilevante una valutazione dell’impatto economico-sociale prima dell’uso dei prodotti e sistemi robotici, per evitare il cd. ‘divario robotico’, fonte di diseguaglianza nell’accesso alle tecnologie (per i costi, la disponibilità di tecnologie, la competenza).

Quali problemi etici solleva l’intelligenza artificiale?
L’intelligenza artificiale si configura come l’apprendimento automatico simile alla mente umana, che include la pianificazione e cooperazione tra agenti intelligenti. Molti sono i documenti, a livello internazionale, europeo e nazionale, che hanno e stanno delineando gli orientamenti della riflessione etica.

L’European Group on Ethics in Science and New Technologies presso la Commissione europea ha elaborato uno Statement on Artificial Intelligence, Robotics and ‘Autonomous Systems’ (2018), ove si evidenziano i seguenti principi e valori, come riferimento generale: 1. la dignità umana, quale valore dell’essere umano, ritenendo che sia indispensabile che nella interazione con la macchina l’uomo sia consapevole di relazionarsi ad una macchina; 2. l’autonomia, la rilevanza della trasparenza, del controllo e della prevedibilità da parte dell’uomo dei sistemi ‘autonomi’ (es. le auto a guida autonoma); in presenza di sistemi di intelligenza artificiale che prendono decisioni riguardanti individui o comunità, l’utente dovrà poter esercitare un controllo significativo sulla macchina, per poter deviare da un percorso o da una decisione scelta dal sistema di intelligenza artificiale; 3. la responsabilità, intesa come precauzione e prudenza di fronte a potenziali pericoli nella applicazione delle tecnologie quando emergono rischi elevati e potenziali danni inaccettabili per l’uomo e l’umanità; esigenza di prevedere nuove forme di responsabilità: in caso di errori o abusi nell’uso delle tecnologie da cui derivino danni a terzi, prevedendo risarcimenti o sanzioni; 4. la giustizia e la solidarietà, per garantire un equo accesso e una giusta distribuzione delle opportunità nella società (la c.d. condivisione di benefici o benefit sharing); ciò implica la facilitazione dell’accesso ad una educazione alle discipline digitali per l’acquisizione di abilità digitali (digital skills) in termini di competenze e motivazione all’uso delle tecnologie informatiche, in particolare nelle aree culturali e nei contesti sociali svantaggiati, per evitare forme di marginalizzazione o discriminazione (il c.d. divario digitale); 5. la partecipazione democratica, quale elemento indispensabile per una regolazione dell’intelligenza artificiale, nei suoi sviluppi, usi ed applicazioni, che nasca da una inclusività (es. coinvolgimento della società mediante un dialogo pubblico, che consente una presa di coscienza consapevole e critica di tali nuove tecnologie (la c.d.  digital e AI literacy/participation). Si prevede anche un ‘design democratico’ ossia la progettazione delle tecnologie devono consentire a tutti i cittadini di utilizzare i prodotti o i servizi, indipendentemente dalla loro età, dallo stato di disabilità o dallo stato sociale-culturale (per evitare forme di discriminazione ‘ digitale’). È particolarmente importante evitare il rischio di bias in fase di programmazione, poiché potrebbero verificarsi discriminazioni “implicite” o manipolazioni volontarie.

Quale futuro per il lavoro?
Siamo di fronte a considerevoli cambiamenti del lavoro nell’ambito delle nuove tecnologie emergenti e delle trasformazioni sociali in atto: tali cambiamenti coinvolgono lo stesso significato del lavoro, dell’uomo e della società.

Le nuove tecnologie possono ‘de-umanizzare’ il lavoro: possono sostituirlo, almeno in alcuni settori o compiti, producendo disoccupazione, ma anche escludendo l’uomo e umiliandolo rispetto alle possibilità di sviluppo delle sue capacità naturali. Il lavoro può ridurre l’autonomia aumentando la tendenza alla ‘delega tecnologica’: affidare alla tecnologia compiti complessi. Il costante monitoraggio e la sorveglianza tecnologica ‘eccessiva’ e sproporzionata sul lavoratore. Il lavoro può produrre nuove diseguaglianze o incrementare le diseguaglianze esistenti: molte persone possono essere lasciate ‘fuori’ o lasciate ‘indietro’ perché non hanno le abilità sufficienti.

Di fronte a queste sfide, bisogna ‘ripensare’ il lavoro, ma soprattutto acquisire, sin da oggi, la consapevolezza che il futuro del lavoro non è inevitabile, non è un ‘destino’: abbiamo oggi l’opportunità di cambiare, di orientare lo sviluppo tecnologico e le applicazioni nell’ambito del lavoro nel rispetto di valori che riteniamo fondamentali per l’uomo, la società, e l’umanità futura. E questo è possibile sensibilizzando i governi ad attuare nuove politiche che sappiano proteggere adeguatamente i cittadini.

Di particolare rilevanza è la riprogrammazione della educazione alle nuove esigenze, sempre ricordando che la formazione non deve essere solo tecnica alla acquisizione di ‘abilità per chi è in grado di acquisirle. In questo senso la educazione non deve essere solo insegnamento tecno scientifico, ma deve essere formazione della persona, quale che sia il livello cognitivo o sociale, allo sviluppo delle ‘capacità’ naturali ed intrinseche in senso più ampio, incluse anche le capacità critiche nell’uso delle tecnologie.

Inoltre, le politiche devono assicurare una adeguata protezione sociale, sulla base della giustizia e solidarietà, con particolare attenzione nei confronti delle persone in condizione di maggiore vulnerabilità. In questo senso andrebbero sollecitate anche tecnologiche di inclusione ed integrazione nel mondo del lavoro di persone con disabilità.

In che modo è possibile pervenire ad una riflessione etica ‘critica’ e a innovazioni nel diritto capaci di garantire una governance di tali processi?
Un’innovativa “governance” delle tecnologie è identificabile nella triangolazione scienza-etica-società. Una regolamentazione che deve partire dalla rappresentazione reale, sulla base di dati empirici attendibili e dalla anticipazione immaginaria dei possibili scenari che si possono configurare, soppesando pro e contro e valutando le opzioni alternative sul piano scientifico, etico e sociale, ponderando la decisione nel contesto di un approccio trasparente, saggio, prudenziale. Nella consapevolezza che quanto più vi è un grado di esposizione nell’incertezza alla gravità ed irreversibilità del rischio/danno sull’uomo e sull’umanità, tanto più vi deve essere una responsabilità individuale e sociale. La regolazione sarà chiamata a calibrare, nella specificità delle diverse tecnologie, quali strumenti siano necessari per difendere l’uomo e i diritti fondamentali.

Laura Palazzani è ordinario di filosofia del diritto alla Lumsa; vicepresidente del Comitato Nazionale per la Bioetica; membro del Gruppo europeo di etica scienza e nuove tecnologie della Commissione europea e membro del comitato di bioetica dell’Unesco.

image_pdfScarica in PDF

NON PERDERTI LE NOVITÀ!
Iscriviti alla newsletter
Iscriviti
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link