Prof. Enrico Prati, Lei è autore del libro Mente artificiale edito da EGEA: è possibile costruire un cervello artificiale?
Mente artificiale, Enrico PratiQuando Alan Turing e Von Neumann si sono posti questa domanda a partire dagli anni ‘40 del Novecento, era come chiedersi nel 1850 se fosse possibile arrivare su Marte, quando i trasporti consistevano in carrozze a cavallo e treni a vapore. La domanda ha ispirato la ricerca scientifica per tutta la seconda metà del XX secolo e ha prodotto tecnologie che hanno cambiato la vita delle persone. Sto parlando dei computer e del loro impiego per lo sviluppo della conoscenza e per la progettazione di nuove tecnologie. Queste tecnologie sono state applicate alla medicina, ai trasporti, alla qualità della vita e alla diffusione della cultura. Fu Konrad Zuse a creare il primo computer in Europa poco prima della Seconda Guerra Mondiale, ma l’idea di Von Neumann che lo seguì pochi anni dopo era proprio di arrivare a costruire un giorno un cervello artificiale basato sugli stessi principi di funzionamento che consentono ai neuroni di essere così efficienti in molti compiti. I primi computer furono in grado di aumentare la velocità di calcolo, ma non erano capaci di creare rappresentazioni flessibili della realtà: per fare un esempio, non c’era alcun modo di far distinguere a un computer una generica foto di un gatto da quella di un cane. Con la nuova architettura matematica chiamata deep learning le macchine sono in grado di svolgere questo compito, e anche di analizzare problemi molto più complessi rispetto a distinguere tra delle foto. Può consentire di distinguere strutture di dati di qualsiasi natura, dall’economia, alla genetica, allo spazio, in masse di dati talmente complesse che nessun umano riuscirebbe a gestire. Queste tecnologie si ispirano ad alcune parti relativamente ristrette del cervello, ma sono state sufficienti per iniziare la rivoluzione cui stiamo assistendo. In questo senso siamo solo all’inizio: per arrivare a un intero cervello artificiale, si tenga presente che nel 2012 è stato costruito il prototipo SPAUN, costituito da 2.5 milioni di neuroni artificiali che emulano alcune regioni del cervello integrate tra di loro. Questo cervello artificiale, corredato di un occhio (una videocamera CCD) e di un braccio, è solo un prototipo, ma dimostra di saper memorizzare una scritta e copiarla “a mano”, e risolve i problemi di logica come le matrici di Raven che si usano per misurare l’intelligenza fluida di bambini e adulti. Siamo solo all’inizio di questa nuova generazione di architettura.

L’intelligenza artificiale rappresenta la nuova frontiera della ricerca algoritmica: quali tecnologie la rendono possibile?
C’è un aspetto importante da considerare: oggi è disponibile la tecnologia per imaging del connettoma del cervello, cioè l’intera rete delle sue connessioni, a un livello di dettaglio che fino a 4 o 5 anni fa non era possibile. Questo ha mostrato come i neuroni sono organizzati in microcolonne, che le microcolonne si organizzano in aree specializzate, che a loro volta nel cervello umano sono circa 180. Il lavoro è ancora in corso, ma si è compreso che queste aree sono collegate secondo un modello che ricorda la città, fatto di strade principali che collegano palazzi, in cui le informazioni si muovono su ascensori. Questa conoscenza ispira i tentativi di imitare l’architettura del cervello. Un altro aspetto poi è quello della accresciuta disponibilità di risorse computazionali. I neuroni funzionano tutti allo stesso tempo elaborando informazioni che entrano insieme dagli organi di senso e che non aspettano in coda il proprio turno prima di essere elaborate: per questo si dice che il cervello processa i dati in parallelo. È stato sorprendentemente lo sviluppo delle schede grafiche dei computer, che sono disegnate per trattare in parallelo le immagini che arrivano allo schermo, che ha consentito di fornire l’hardware a basso costo per i programmi deep learning. Una scheda grafica da 100$ è infinitamente più performante per l’intelligenza artificiale dei computer degli scorsi decenni.

Cosa sono le reti neurali ed in che modo possono replicare l’intelligenza umana?
Le reti neurali hanno una storia strana. Von Neumann era in procinto di inventarle negli anni ’50 del Novecento, ma morì di cancro. Iniziate dal Nathaniel Rochester negli anni ’50, nel 1960 furono sviluppate da Frank Rosenblatt, ma dopo un paio di anni Minsky scrisse un libro in cui le demoliva dal punto di vista di un possibile impiego, così che uscirono dai finanziamenti per 15 anni. Chi se ne occupava era “out”. Così, con un ritardo di 30 anni, fu negli anni ’80 che Hopfield propose il suo potente modello e ne rilanciò la ricerca. Una rete neurale è un metodo di memorizzare le informazioni ispirato alle connessioni tra i neuroni, che nel cervello sono costituite da sinapsi. Nei computer la memoria è archiviata a parte, in un hard disk, oppure la memoria temporanea è archiviata nella RAM. In una rete neurale la memorizzazione è distribuita lungo le connessioni e ogni connessione memorizza l’equivalente di una maggiore o minore resistenza a far transitare da lì le informazioni. Una rete neurale viene addestrata con degli esempi per consentirle di memorizzare quail circuiti interni attivare e quali scartare. Quando ne vengono utilizzate molte a cascata, è possibile creare rappresentazioni astratte, come avviene nella corteccia visiva. L’esempio delle immagini è il più intuitivo: il primo strato separa le linee di contrasti verticali, orizzontali, i colori, il secondo strato discrimina le loro combinazioni a piccoli gruppi, formando angoli concavi e convessi, blocchi di linee collegate in vari colori, poi lo strato successivo utilizza questi blocchi per formare figure articolate come una casa, un’auto, una nave, e a quel punto l’immagine può esere classificata in base a quest’ultima rappresentazione di più alto livello. Questo vale per le immagini, così come per qualsiasi altro sistema complesso di dati che può essere digitalizzato. Utilizzando combinazioni di reti neurali si possono creare rappresentazioni anche più complesse di quelle che si formano nel nostro cervello. L’intelligenza umana è molto flessibile, la stessa persona può sapere la relatività di Einstein, come si prepara la malta per fissare le piastrelle e come si suona un pianoforte, mentre oggi le macchine sono molto specializzate. Tuttavia esempi come SPAUN ci dimostrano che questo tipo di flessibilità è solo una questione di quanti neuroni si hanno a disposizione, in quante regioni specializzate sono suddivisi, e come queste sono collegate tra di loro.

Quali sono le applicazioni del deep learning?
Nel mio libro parlo di quattro applicazioni in particolare: la genetica, lo spazio, l’economia e la linguistica, perché li trovo i campi in cui può avere grande impatto. In campo genetico, una delle maggiori difficoltà è legata al fatto che non sono i singoli geni che causano la predisposizione a determinate malattie, ma sono gruppi di geni. Capire quali geni sono di volta in volta coinvolti richiede lenti studi di grandissima complessità. Senza illudersi che le reti neurali siano la soluzione di tutti i problemi, le prime ricerche svolte con questo approccio hanno dato risultati importanti. Anche negli studi rivolti allo spazio le reti neurali possono dare risultati importanti, che vanno dai materiali per lo spazio al calcolo delle traiettorie, alla guida autonoma quando i sistemi sono lontani dalla Terra. Una rete deep learning potrebbe risolvere un problema come un guasto funzionale in tempo reale senza dover comunicare con la Terra e attendere la risposta: si tenga presente che la sonda Cassini doveva aspettare non meno di 166 minuti, orbitando intorno a Saturno, prima che arrivasse una risposta. Uno dei maggiori impatti è atteso dall’applicazione nell’economia. Il deep learning sta trovando applicazione ad esempio per studiare la correlazione tra eventi politici e oscillazioni dei mercati, oppure per adeguare i costi ai rischi da parte delle compagnie di assicurazione. È difficile prevedere tutte le conseguenze dell’uso che si sta facendo in queste applicazioni. Senza dimenticare la profilazione degli utenti da parte delle società di vendita online per vendere il maggior numero di prodotti. Ormai a tutti è capitato di vederci suggerire 4 o 5 libri o DVD che “potrebbero interessarci” mentre ne stiamo acquistando uno. Infine penso che la linguistica è destinata a evolversi, consentendo la fruizione di testi mai tradotti tra due lingue, oppure per consentire la comprensione di testi antichi, magari scritti in lingue ancora non decifrate. Questi sono solo esempi: in realtà il numero delle applicazioni è limitato soltanto dalla nostra fantasia.

Cosa sono i computer quantistici e in che modo possono contribuire allo sviluppo dell’intelligenza artificiale?
È bene precisare che oggi i computer quantistici non esistono ancora. Esistono i primi esempi di circuiti quantistici. Per fare un parallelo, è come se oggi stessimo costruendo esempi di resistenze, capacità e induttanze per dimostrare che piccoli circuiti di 2-3 elementi funzionano. Non esiste ancora una tecnologia che ha definitivamente prevalso, anche se in realtà i superconduttori per ora sono il materiale di maggiore successo. Non si va oltre a sistemi di 1000 bit quantistici (i qubit) mentre per creare un computer quantistico generale, in grado di implementare algoritmi quantistici, servono perlomeno 10 milioni di qubit identici e quasi perfetti. Oggi non sappiamo quale sarà il massimo numero di qubit che tra 10, 40 o 200 anni sapremo gestire: non dimentichiamoci però che 100 anni fa ci si diplomava studiando a lume di candela. Se riusciremo a gestire un numero di qubit sufficiente, potremo eseguire gli algoritmi di machine learning con una potenza di calcolo inconcepibile. L’aspetto più interessante è che questi computer sapranno gestire categorie quantistiche, che prevedono ad esempio che qualcosa sia bianco e nero, oppure vero e falso, allo stesso tempo, quindi non rappresentabili nel cervello umano, e potranno raggiungere conclusioni in un modo che noi non potremo seguire passo per passo, in tutte le fasi della deduzione.

Quale sarà l’impatto sulla società di un’intelligenza artificiale pervasiva?
Penso che oggi esista una mitologia relativa all’intelligenza artificiale, che sta creando molta confusione nel grande pubblico, mentre servirebbe chiarezza per aiutare le persone a comprenderla. Io non sono d’accordo con l’idea di certi visionari della tecnologia come Kurzweil che perderemo il controllo sulla tecnologia, e che a un certo punto essa proseguirà da sola ad autodeterminarsi, o con quelle di professori stimati come Shanahan dell’MIT che narrano l’intelligenza artificiale come un rivale superiore all’uomo che potrebbero sottometterci. Tra un team di ragionieri che usa l’abaco e uno che usa la calcolatrice è ovvio che vince quello con la calcolatrice, ma Shanahan cerca di farci credere che vince la calcolatrice, non la persona che l’ha utilizzata. Utilizzare l’intelligenza artificiale come paravento per l’esercizio del potere o per sottrarsi alle proprie responsabilità è un tentativo maldestro di nascondersi dietro a un dito che non durerà a lungo. In ultima analisi le responsabilità si ascrivono sempre alle persone fisiche e alle persone giuridiche. I film di fantascienza come Trascendence sono divertenti da guardare, ma la presunta perdita del controllo sulle macchine potrebbe solo essere un atto deliberato da parte di umani. Nessuno oggi può dire di sapere quale sarà l’impatto come nessuno 50 anni fa avrebbe previsto il ruolo dell’Internet nella società attuale, o nel 1910 della produzione degli autoveicoli. Tuttavia l’impatto sarà grande e dipenderà completamente dal confronto tra i suoi finanziatori e la collettività, e da come ques’ultima stabilirà di tutelarsi da possibil abusi e di normarla affinché sia destinata al benessere di tutti.