L’arte della previsione. Intervista sull’Intelligenza Artificiale, Massimo BuscemaProf. Massimo Buscema, Lei è autore del libro L’arte della previsione. Intervista sull’Intelligenza Artificiale, a cura di Vittorio Capecchi, edito da Mimesis. L’Intelligenza Artificiale, o il suo simulacro, è ormai divenuta un tema di attualità: quale definizione è possibile dare, innanzitutto, di Intelligenza Artificiale?
L’Intelligenza Artificiale (Artificial Intelligence AI) al momento è un’ “arte” che persegue con il “metodo scientifico” l’obiettivo di creare algoritmi capaci di generare “pensieri”. Questo significa costruire delle macchine in grado di apprendere autonomamente dai dati e dal comportamento di altre macchine, in modo indipendente dal pensiero umano. Ma la sua efficacia viene misurata rispetto al pensiero umano.

Proprio qui si nasconde il primo grosso problema. Il pensiero umano è un concetto troppo “vago” per una teoria scientifica, e una teoria soddisfacente del cervello umano, che è il generatore dei pensieri umani, attualmente non esiste. Quindi, la AI al momento si muove come uno scultore che tenta di scolpire la faccia di un individuo che non vede, ma di cui sente solo la voce, oppure come un pittore cieco che tenta di ritrarre le montagne che gli sono di fronte solo sulla base delle folate di vento che lo colpiscono. Queste difficoltà nascono proprio dall’oggetto che la AI mette al centro del suo interesse: il pensiero. Il pensiero, infatti, è immateriale: sappiamo che parte dalla materia (le reti di neuroni) e che ha effetti sulla materia (fa compiere azioni e modifica altre reti di neuroni), ma non è “materia”. Quindi, la AI si occupa di un oggetto paradossale: qualcosa di invisibile e non “pesabile”, generato dall’organo più pesante del corpo umano, il cervello.

Per questo credo sia necessario dare a questa disciplina degli obiettivi più scientificamente misurabili, senza ridurla ad una semplice tecnologia applicativa, con scopi commerciali.

A che punto è la ricerca sull’Intelligenza Artificiale?
Attualmente esistono diverse linee di sviluppo teorico dell’AI nel mondo. Ad oggi possiamo distinguere, grossolanamente, tre tipi di approccio: un approccio simulativo, uno emulativo ed uno fisico. I primi due sono tradizionali, il terzo, che sta nascendo ora, è quello che mi convince di più per il futuro scientifico della AI.

L’approccio Simulativo: si tratta di costruire algoritmi che imitino e/o comunichino con il cervello umano, allo scopo di capire meglio come questo funziona localmente e globalmente. L’obiettivo scientifico, quindi, è di comprendere meglio il cervello umano, le sue potenzialità, le sue patologie e i suoi limiti, e la AI è un indispensabile supporto a questo scopo. Simulare (costruire artificialmente) il cervello umano, o parti di esso, tenendo conto di vincoli chimici e biologici che l’anatomia e la fisiologia umana implicano è l’obiettivo centrale di questo approccio. I suoi obiettivi possono essere molto dettagliati e quindi misurabili; ad esempio: come costruire reti di neuroni artificiali che:

  1. opportunamente danneggiate possano simulare i comportamenti di alcune malattie note;
  2. possano far emergere spontaneamente i sistemi di regole simboliche che rappresentano la parte cosciente del pensiero umano (“agisco così perchè…..”, anche se tale relazione è falsa);
  3. modificandosi in certe condizioni ambientali siano in grado di generare passioni e comportamenti simili alla rabbia, all’odio, alla preghiera, ecc.
  4. siano in grado di comunicare con parti del cervello umano decodificandone il comportamento e le risposte, come in dei test controllati.

L’approccio Emulativo: si tratta di costruire algoritmi che sfruttino le capacità del cervello umano per essere più veloci ed efficienti, al solo scopo di incrementare le capacità computazionali delle macchine. È un approccio eminentemente informatico ed ingegneristico: sfruttare il parallelismo asincrono con cui funziona il cervello umano per aumentare ed ottimizzare il funzionamento di Hardware e Software in modo tale da risolvere con più efficacia problemi complessi di ricerca operativa.

L’approccio Fisico: si tratta di ideare algoritmi capaci di astrarre le leggi invarianti tramite le quali si passa dai comportamenti individuali ai comportamenti collettivi: dagli atomi alle molecole, dalle molecole alle proteine, dal volo del singolo uccello alla geometria degli stormi, dal comportamento individuale delle api al loro comportamento in sciami, dalle singole persone alla dinamica delle folle, ecc. In due parole l’approccio fisico mira a capire le leggi tramite le quali la natura e la cultura passano dal semplice al complesso. Si tratta di compiere il passo opposto e complementare al riduzionismo scientifico del secolo scorso. Infatti i sistemi complessi in natura non seguono regole fisse, come i sistemi complicati che costruiamo noi umani, ma le regole le inventano mentre funzionano. Quindi creano informazioni mentre esistono e non seguono solo la banale legge di aumento della entropia nel tempo: una cellula nell’ambiente opportuno aumenta la sua informazione e la sua complessità nel tempo, diversamente da un frigorifero che per più tempo funziona tanto più funziona peggio. Questo approccio è quello, a mio avviso, più scientificamente chiaro e produttivo. Gli altri due diventeranno nel tempo due sue specializzazioni applicative.

L’approccio fisico, infatti, parte dalla osservazione del cervello umano che considera un laboratorio in miniatura di come la natura passa dal semplice (lo spike di un neurone) al complesso (la bio chimica delle reti neuronali), dalla materia (reti di neuroni) all’astratto (i pensieri), in modo sistematico. La natura sembra si organizzi di continuo in questo modo: dal basso verso l’alto così come cresce un albero e dal semplice al complesso, così come da molti singoli alberi si forma una foresta. Per l’approccio fisico il cervello umano è il meglio della natura miniaturizzato. Ma questo approccio non mira unicamente alla comprensione del cervello umano, ma alla comprensione delle leggi di natura che nel cervello umano vengono spesso sintetizzate e complessizzate in modo esemplare. Da ciò si deduce che anche tutte le trasformazioni dal semplice al complesso che genera continuamente la natura sono “pensieri”. Per questo la scienza funziona e progredisce quando i nostri pensieri coincidono con i pensieri (le leggi) della natura. Il pensiero atomico che unisce cervello umano e funzionamento naturale (di cui il primo è parte) si chiama “informazione”. L’informazione è l’elemento immateriale che crea un ponte invisibile ma percorribile tra pezzi di materia. L’informazione è l’anima del pensiero; per questo l’obiettivo dell’approccio fisico è quello di costruire una fisica dell’informazione, cioè dare materia al pensiero.

Quale importanza hanno le Reti Neurali Artificiali per l’evoluzione dell’Intelligenza Artificiale?
Le Reti Neurali Artificiali (Artificial Neural Networks ANNs) sono algoritmi adattivi a cui è affidato il compito di “apprendere” dai dati. Oggi nella definizione di “Machine Learning” viene normalmente inclusa una vasta collezione di algoritmi, per molti dei quali il concetto di “apprendimento” non è corretto. Per poter parlare di “apprendimento artificiale” un algoritmo dovrebbe essere in grado di:

  1. affinare nel tempo, tramite un processo iterativo, la funzione matematica che interpola quei dati (approssimazione funzionale);
  2. farsi una rappresentazione interna di quei dati (astrazione);
  3. estrarre da essi nuove conoscenze e associazioni (analisi);
  4. infine, generare risposte ragionevoli su nuovi dati (inferenza).

Pochi sono gli algoritmi di “machine learning” in grado di effettuare questo lavoro: le Reti Neurali Artificiali, superficiali e profonde, sono tra questi.

Quali sono i limiti degli attuali modelli?
Nella definizione di apprendimento artificiale che abbiamo appena descritto, molti degli algoritmi che vengono etichettati come machine learning non apprendono affatto. Sono solo in grado di ottimizzare una specifica funzione di costo, ma non soddisfano le quattro condizioni che abbiamo indicato. Reti come SVM, Bayes Net, kNN ecc. infatti effettuano in molti casi una buona ottimizzazione di una funzione costo, che fornisce una rappresentazione ottimizzata dei dataset, ma senza una consolidata capacità astrattiva, che consente di realizzare un processo analitico ed inferenziale, non si può parlare di apprendimento. Questo è il limite principali di molti degli attuali modelli che vengono inopinatamente classificati come machine learning.

Tutte quelle tecnologie che oggi vanno sotto il nome di Internet delle cose (IoT, Internet of Things), delle quali si dice che acquisiscono intelligenza solo per il fatto che riescono a scambiare dati con altri oggetti e di poter comunicare dati su se stessi, sono sostanzialmente tecnologie che simulano efficacemente un’intelligenza inesistente.

Come è destinata ad evolvere l’intelligenza artificiale?
Per crescere l’AI ha bisogno di consolidare un protocollo sperimentale, sul modello delle scienze naturali, per analizzare i dati e validare i risultati.

Tale protocollo in questo tipo di AI è costituito da tre parole chiave: dati, algoritmi adattivi e sistemi di validazione.

I dati sono una rappresentazione discreta e statisticamente significativa del processo naturale e/o culturale di cui si vogliono trovare le leggi invarianti.

Gli algoritmi adattivi sono quelle equazioni matematiche implementate su computer (la lingua scritta della matematica) che sono in grado per approssimazioni successive di estrapolare la funzione complessa che connette tutti i dati in una iper-superficie, e di eventualmente generarne di nuovi, diversi da quelli di partenza, ma analoghi, in quanto appartenenti alla stessa funzione ed ottenuti esplorandola in modo opportuno. A differenza degli algoritmi statistici classici, gli algoritmi adattivi presentano diverse originalità:

  1. Apprendono dai dati, cioè tentano di farsi una rappresentazione interna ed astratta dei dati stessi (quindi dell’ambiente nel quale sono immersi), partendo dai dati e non dalle ipotesi implicite con il quale il modello statistico è stato pensato. Cercano la geometria intrinseca dei dati nei quali sono immersi, lasciando che i dati stessi interagiscano tra loro localmente allo scopo di far emergere dal basso verso l’alto il modello globale che giustifica tutte quelle interazioni locali.
  2. Usano il tempo per migliorare la loro comprensione dei dati. Quindi vedono gli stessi dati più volte, commettendo ad ogni visione errori diversi e correggendoli ogni volta in modo diverso. Quindi capiscono i dati un po’ alla volta grazie al fatto che commettono errori. Migliorano solo perché sono capaci di sbagliare.
  3. Siccome si fanno un’idea del senso dei dati un po’ alla volta, sono in grado di leggere e apprendere quei segnali deboli tra i dati stessi (per la statistica classica “rumore”) che codificano informazioni chiave ma nascoste e “arrotolate” nei dati stessi. Questo rumore che non è rumore è come le fondamenta di un palazzo: queste reggono l’intero edificio, ma sono invisibili ad uno sguardo superficiale.

I sistemi di validazione sono parte essenziale di ogni procedimento scientifico. Sono procedure per misurare in cieco le capacità inferenziali e predittive su dati nuovi degli algoritmi adattivi addestrati in precedenza.

Una fisica della informazione con una base teorica ed una sperimentale è la AI che dovrebbe svilupparsi come vera e propria disciplina scientifica. Al momento la cosiddetta AI si presenta come una fiera dei diversi approcci all’analisi dei dati; alcuni promettenti, altri decisamente scarsi e datati.

La AI dovrebbe mirare alla elaborazione di una teoria fisica della informazione e come ogni teoria fisica dovrebbe essere dotata di una parte sperimentale. L’apparato sperimentale avrebbe lo scopo di validare e/o falsificare le ipotesi teoriche e allo stesso tempo sulla base dei suoi risultati di suggerire quali nuove ipotesi teoriche vadano considerate e formalizzate. E quindi sperimentare di nuovo.

Il protocollo di base per fare esperimenti in questo tipo di AI è quello che appena descritto.

Qual è, a Suo avviso, la strada per arrivare ad una Intelligenza artificiale forte?
L’idea una AI forte e una debole sembra più una metafora sportiva che un obiettivo scientifico. Proviamo ad andare oltre la battuta giornalistica.

Se l’obiettivo della AI “forte” consiste nel creare informaticamente una “persona umana artificiale” questo obiettivo è ingenuo e pericoloso, culturalmente e scientificamente. Si tratterebbe di costruire una bomba umana, non diversa dalla bomba nucleare della seconda grande guerra. Ci sono voluti quasi 30 anni per capire che le scoperte sul nucleare potevano portare a grandi progressi nella medicina, cioè per la vita, e non solo per eliminare persone. Siccome non sappiamo ancora creare persone umane mettendo insieme atomi, non è sensato cercare di creare un agente artificiale che “per noi” sia simile ad un essere umano. Anche perché se ci riuscissimo, le “funzioni di costo” che questo agente dovrebbe ottimizzare saremmo noi a sceglierle. E dubito che tra queste funzioni non ci siano anche quelle di essere “forte” e “vincente”. Ma se qualcuno vince, qualcun altro perde, che questo altro sia uomo o natura. Il Win-Win funziona solo in politica e nel commercio, perché ragiona a coppie (2 agenti), ma la natura è costituita sempre da “tuple” (N agenti che interagiscono). In fondo ogni cane è la copia sintetica della psicologia del padrone-addestratore.

Se per AI forte si intende una disciplina in grado, tramite simulazione, di scoprire il maggior numero dei segreti della natura e della vita, tale AI non è forte nè debole, è semplicemente scienza. E la scienza non ha il compito di realizzare vecchi sogni massonici.

Il secondo obiettivo di una AI detta “forte” riguarda la trasparenza con cui le reti neurali profonde prendono le loro decisioni su nuovi eventi. Qui esistono almeno due scuole: la prima pretende che ogni rete neurale sia in grado di spiegare a parole le regole generali che ha estratto durante la fase di apprendimento. È come chiedere ad un fisico di spiegare in poche parole e senza equazioni il perché del fenomeno dell’entanglement. Oppure chiedere ad un genitore di spiegare la regola educativa che chiarisce il perché il proprio figlio è diventato un tossico dipendente. Psichiatri e psicoanalisti lavorano proprio perché è noto, anche all’uomo comune, che la consapevolezza del “perché” delle nostre azioni spesso non ci azzecca niente con le ragioni profonde per le quali il nostro cervello le esegue. Quindi, la pretesa di una totale trasparenza delle reti neurali e della AI è pretenziosa quanto lo sarebbe la pretesa che il cervello fosse trasparente alla verbalizzazione della nostra razionalità culturale. In questo senso il fiuto di Sherlock Holmes sarebbe frutto di una intelligenza “opaca”. È poi evidente ai più preparati che più una “funzione matematica” è complessa (altamente non lineare) più il numero delle regole lineari necessarie per spiegarla crescerebbe in modo esponenziale. E piuttosto non lineare sembra che il cervello umano lo sia.

La seconda scuola di pensiero si accontenta di una “trasparenza locale”: una rete neurale deve essere in grado di motivare il “perché” di ogni sua singola decisione: ho classificato il caso “x” nella classe A per queste ragioni, mentre ho posto il caso “y” nella classe B per queste altre, ecc. Questa esigenza ci sembra più ragionevole. Si tratta di chiedere ad una rete neurale addestrata di motivare ogni sua nuova decisione, utilizzando lo strumento delle “analogia”: il caso “x” sembra “simile” ai casi già classificati nella classe A, quindi “x” può essere considerato una manifestazione del “prototipo A”, e così via.

Quindi la “forza” della AI del futuro è, secondo me, legata al capire la perfezione della natura quando è in grado di generare il suo migliore prodotto: la debolezza umana.

Paolo Massimo Buscema, scienziato, esperto in Reti Neurali Artificiali e Sistemi Artificiali Adattivi. Presidente e Direttore del SEMEION Centro Ricerche di Scienze della Comunicazione, ente scientifico riconosciuto dal MIUR. Full Professor Adjoint Dept. of Mathematical and Statistical Sciences University of Colorado, Denver (USA). Membro dell’Editorial Board di riviste scientifiche internazionali. Ha ideato e sviluppato algoritmi di Intelligenza Artificiale, pubblicato oltre 250 articoli scientifici e 24 libri. È inventore di 28 brevetti internazionali.

NON PERDERTI LE NOVITÀ!
Iscriviti alla newsletter
Iscriviti
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link