“Incoscienza artificiale. Come fanno le macchine a prevedere per noi” di Massimo Chiriatti

Dott. Massimo Chiriatti, Lei è autore del libro Incoscienza artificiale. Come fanno le macchine a prevedere per noi pubblicato da Luiss University Press: potranno mai le macchine sostituirsi a noi nel prendere decisioni?
Incoscienza artificiale. Come fanno le macchine a prevedere per noi, Massimo ChiriattiLa risposta breve è che nessuno sa se le macchine riusciranno a decidere per noi, ma è sicuro che ciò non avvenga in questo decennio. Però dobbiamo riflettere e argomentare un po’ più a lungo su quali tipi di compiti -non di decisioni- possiamo e dovremmo delegare alle macchine, perché ci sono tanti compiti che sono già a uso esclusivo delle macchine: pensiamo, per esempio, ai lavori microscopici, veloci, precisi, faticosi, pericolosi etc.

Queste attività non sono più nell’ambito delle capacità umane, anche perché sarebbero molto più costose. Quindi cosa ci resta da fare? Lavorare insieme con multidisciplinarietà sia nel fornire alla macchina i dati da elaborare sia nel controllare, per quanto possibile, la fase di elaborazione. Soprattutto, non dobbiamo considerare l’output come una decisione da seguire per forza: il risultato fornito dalla macchina non deve essere una sentenza. Per questo motivo è importante che il giudizio umano valuti le conseguenze di questa decisione algoritmica così come i contesti in cui una decisione algoritmica può essere applicata o meno.

Proviamo a sintetizzare le differenze. La macchina è un sistema fisico ed è fungibile: possiamo scambiare un atomo con un altro dello stesso tipo e il risultato non cambia. I sistemi biologici, per ora costruiti solo al di sopra dello strato fisico basato sul carbonio (non sul silicio), invece non sono fungibili: nascono, hanno una storia evolutiva complessa e muoiono. La Natura predilige la differenza: se fossimo uguali non saremmo naturali. L’intelligenza delle macchine sembra verosimile ma non è per niente vera.

La macchina soppianterà mai l’essere umano? No, perché la macchina ha bisogno dei nostri bisogni. Non il contrario, perché noi abbiamo bisogno della macchina, ma non dei suoi bisogni. E noi abbiamo bisogni infiniti, perché infinita è la nostra immaginazione.

Qual è la reale natura dell’intelligenza artificiale e quali implicazioni offre la sua continua e sempre più profonda interazione con l’uomo?
La natura dell’intelligenza artificiale è determinata dalla nostra cultura non solo tecnica, ma anche auspicabilmente umanistica e filosofica. Stiamo in effetti creando un oggetto che non è più automatico ma può essere definito autonomo. Questo è un cambio di paradigma perché vuol dire che i sistemi di intelligenza artificiale non si limitano a eseguire regole preordinate ma imparano le regole dai dati che osservano nella realtà. Noi non sappiamo bene quali dati possano incontrare nella realtà, poiché per definizione è impossibile prevedere come si dispiegherà il futuro.

Le macchine sono nativamente “designed for ethical failure” poiché ci sono troppi rischi intenzionali e non intenzionali (accidentali) nella progettazione, nell’implementazione e nell’uso. Per questo motivo non esiste “l’etica dell’AI”, ma siamo noi a creare “l’etica per l’AI”. La macchina non è etica perché è semplicemente la somma delle sue parti e le sue parti sono materia e algoritmi; la nostra coscienza, invece, è più della somma delle parti.

E qui entra in gioco l’interazione: noi insieme alle macchine siamo un insieme superiore. In altri termini, noi abbiamo i limiti della nostra conoscenza mentre la macchina non sa di averli. La differenza è che noi, lavorando insieme ad altri umani e con le macchine, possiamo superarli e proseguire sulla strada del progresso.

Quali rischi comporta lo sviluppo dell’intelligenza artificiale e quali scelte andranno ponderate?
È opportuno considerare i rischi, mettendoli però nella giusta prospettiva, a confronto con gli enormi benefici che potremmo ottenere dall’intelligenza artificiale, perché resta sempre una disciplina a disposizione degli esseri umani: siamo noi che dovremmo tutti insieme valutarne l’efficacia.

In termini generali, ci sono tre grandi famiglie di rischi. La prima riguarda i dati, così pieni di pregiudizi -i cosiddetti bias-, che possono essere introdotti involontariamente nell’elaborazione senza una valutazione molto attenta degli aspetti tecnici ed etici. L’altro fronte dei problemi è il modo in cui tali dati possono essere elaborati, poiché anche questa operazione può contenere pregiudizi. Inoltre esiste un altro rischio, ossia il concetto di monopolio dei dati e il social rating che ne può derivare: se lasciamo che poche grandi imprese possano ottenere tutti i dati (o la gran parte di questi) è evidente che rischiamo una monopolizzazione di questa tecnologia; ponendo un ostacolo molto importante all’innovazione, allo sviluppo e alla concorrenza.

Per mitigare i rischi dovremmo scegliere l’offerta tecnologica più aperta possibile e dovremmo imporre audit internazionali a chi fornisce un servizio perché un’azione di una macchina autonoma, non attentamente analizzata, rischia di essere considerata una regola cui attenersi. E i danni possono raggiungere una scala molto ampia, da cui può diventare molto difficile tornare indietro. Per tale ragione dobbiamo controllarla affinché non faccia danni su scala mondiale.

Con l’accortezza però di non criticare troppo la tecnologia, perché se fosse assente torneremmo tutti animali in condizioni precarie. In assenza della tecnologia non potremmo scegliere come, quanto e quando usarla e saremmo quindi più poveri e ignoranti. Anche per questo abbiamo un estremo bisogno di alfabetizzare velocemente i consumatori di AI.

Quando andavo a scuola mi dicevano che ero sveglio ma non mi applicavo. Ricordiamoci invece che la macchina fa il contrario: si applica ma non sa cosa fa. Ha bisogno di una guida. È incosciente.

Che ruolo avremo dunque nel mondo che verrà?
Anche se può sembrare provocatorio, non avremo un ruolo sempre presente e centrale in ogni decisione. Per esempio, non abbiamo più nessun ruolo nel gioco degli scacchi, è ormai dominio delle macchine. E si può affermare anche che l’Uomo, quando si tratta di operazioni automatizzate, non abbia più un vantaggio competitivo.

D’altro canto, quando le decisioni riguardano la libertà, la salute e i temi etici, la presenza dell’essere umano è centrale, fondamentale e non eludibile. Abbiamo molteplici futuri possibili davanti, il potere dell’algoritmo è troppo potente per essere controllato solo dai tecnici.

Facciamo un esempio. Finora un informatico scriveva il codice di programmazione, sotto forma di regole, per risolvere un problema. Purtroppo, in un mondo troppo complesso, non si possono definire tutte le regole in anticipo, perché sarebbero troppe e ingestibili: pensiamo alla guida autonoma e alla complessità della viabilità delle città. Ora accanto a quell’approccio, che continua ad esistere, c’è anche la possibilità che una macchina generi un modello basato su dati che gli abbiamo fornito, per esempio accedendo a Wikipedia in rete. Gli algoritmi analizzano le relazioni nei dati -non i valori e il significato che rappresentano. L’algoritmo non “predice” o “pensa”, ma segue solo le nostre orme. Siamo tutti complici direttamente, quando sviluppiamo i sistemi, o indirettamente se lasciamo i dati in sistemi non gestiti che potrebbero giocare contro di noi.
È infatti importante notare che le informazioni devono essere nei dati affinché un algoritmo possa, con le correlazioni che scova, estrarre le regole. L’intelligenza artificiale è quindi una creatrice di regole, in tal modo si crea una sua rappresentazione del mondo. Anche se lo fa in modo incosciente.

Non dobbiamo solo immaginare come evolveranno le macchine, ma anche e soprattutto studiare come cambieremo noi in relazione al loro sviluppo. Siamo ancora in equilibrio, nulla è perduto, siamo ancora in un tempo in cui il sonno della ragione naturale sta generando l’incoscienza artificiale.

Massimo Chiriatti, tecnologo, collabora con Università e consorzi di ricerca per eventi di formazione sull’economia digitale. È Chief Technology and Innovation Officer per l’Infrastructure Solutions Group di Lenovo Italia e ha continue relazioni con i CxO delle più grandi imprese italiane. Co-autore con Luciano Floridi del paper scientifico “GPT-3: Its Nature, Scope, Limits, and Consequences” pubblicato su Springer, Minds and Machines. È autore del libro Humanless. L’algoritmo egoista edito da Hoepli nel 2019.

ISCRIVITI ALLA NEWSLETTER
Non perderti le novità!
Mi iscrivo
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link