Complessità. Un’introduzione semplice, Ignazio LicataProf. Ignazio Licata, Lei è autore del libro Complessità. Un’introduzione semplice edito da Di Renzo. Titolo e sottotitolo sembrano apparentemente generare un ossimoro: è possibile spiegare semplicemente la complessità?
Ogni idea può essere spiegata con chiarezza, soprattutto un’idea scientifica. L’importante è dare chiare indicazioni di livello per far comprendere al lettore dove il linguaggio comune si ferma ed entrano in gioco altri strumenti. Però ammetto di essere stato anche un po’ provocatorio nei confronti di alcune accezioni correnti del termine. La complessità non consiste nell’affermare che tutto è collegato con tutto, anche l’osservatore che è dunque compreso nella stessa rete con ciò che osserva. E neppure che, in virtù di questi collegamenti, alla fine il “tutto” è inconoscibile. Si tratta di affermazioni ovvie e perciò riduttive, per cui alla fine lo stesso concetto di complessità diventa ingannevole. Questa visione soffre di oggettivismo ingenuo, quello che in genere si esprime attraverso espressioni come “nient’altro che” (il mito dei mattoni del mondo) e “le cose stanno così” (il mito di un mondo già dato).  Non si prende atto del fatto essenziale che l’osservatore è anche costruttore di rappresentazioni e modelli. È un nodo attivo della rete della conoscenza, e costruisce mappe che sono utili proprio nella misura in cui sono diverse dal territorio. Sostituiscono infatti il fatto vago con un dato grezzo e lo trasformano in osservabile inserendolo dentro una descrizione teorica (dal greco θέα thèa, “spettacolo” e ὁράω horào, “vedo”) costruita sulle nostre scelte.  Invece c’è una tendenza a far credere che la mappa rispecchi il territorio senza alcuna considerazione di scala o di proiezione.

Ci fa alcuni esempi sulla questione mappa-territorio?
C’è ad esempio una vulgata sulla fisica delle particelle profondamente fuorviante.  L’idea è che il fisico sbuccia la cipolla del mondo esaminando costituenti sempre più piccoli finché arriva ad un “fondo” (quello dei quark/ leptoni e delle loro interazioni, o poco più in là dei tasselli della gravità quantistica) e a quel punto possiamo guardare nella “mente di Dio”, abbiamo la teoria “finale”. Dunque stampiamo le formule su una maglietta, infiliamo quest’ultima in lavatrice e le formule in un programma per computer, facciamo girare e suppongo che a questo punto l’effetto speciale atteso sia, a parte la maglietta pulita!  la simulazione del mondo. Purtroppo le cose non funzionano così. È già impreciso il concetto di cipolla, sottintende che uno strato è fatto dagli altri che “stanno sotto”. Ma la nozione di un oggetto “fatto di” altri costituenti è, in modo grossolano, qualcosa che si più applicare soltanto ad un range ristretto di teorie fisiche, le teorie quantistiche di campo. Queste sono strutturate come una torre e vanno dalle energie più alte (“particelle piccole”, che richiedono frequenze molto alte per essere osservate negli acceleratori) a quelle più basse (“particelle grosse”, le energie della chimica che descrivono l’atomo). Ma adesso è il concetto stesso di particella ad essere cambiato. In una teoria di campo infatti la particella non è un oggetto come l’avrebbero pensato Newton e Laplace, ma un modo eccitato del campo con tutte le caratteristiche dell’ubiquità quantistica (non hanno una posizione precisa). Ammettiamo comunque di arrivare ad una teoria del tutto univoca. Questa è, nient’altro che! una teoria sintetica di forze e particelle, ossia una teoria che descrive in modo unitario le interazioni che tessono il mondo, e dovrebbe supporre anche una loro storia cosmologica. È evidente che ogni livello superiore è compatibile con questo, ma ciò che non si dice chiaramente è che questo non implica affatto che le manifestazioni del mondo siano deducibili da quel livello che ci ostiniamo a chiamare “finale”. Basta guardare ad esempio l’effettiva complessità della chimica rispetto all’idea che sia semplicemente un corollario dell’equazione di Schrӧdinger; infatti bisogna usare ipotesi audaci per studiare sistemi con più atomi ed elettroni. O ancora: nei mattoni del mondo non c’è scritta l’evoluzione biologica. Anzi succede spesso il contrario- e questo sì che sembra avere un sapore paradossale: in alcuni approcci cosmologici si introducono concetti biologici per passare dai mondi possibili e coerenti della fisica teorica a questo che sperimentiamo, un criterio di selezione in Lee Smolin, mentre il principio antropico è centrale nel dibattito sul multiverso.    Sono molte le storie importanti assenti se concentriamo l’attenzione unicamente sui costituenti. Infine, anche il modo di guardare alle leggi fisiche come algoritmi implacabili (o simboli feticcio per le t-shirt) non è corretto. David Bohm suggeriva di guardare alle leggi fisiche come griglie di possibilità entro cui agisce il caso in forma di fluttuazioni. In effetti il mondo è un posto di questo tipo, dove tra le cose che possono accadere, alcune succedono altre no. È chiaro che stiamo parlando del riduzionismo, sul quale si è scritto anche troppo. Il riduzionismo non ha in sé nulla di intrinsecamente sbagliato o “cattivo”, semplicemente in molti casi non funziona. È in questi casi che cominciamo a parlare di complessità. Ma non è un’opposizione. In alcuni casi il sistema si presta ad essere studiato per costituenti (bottom up), in altri è necessario un approccio globale di tipo top down.

Cos’è la complessità?
Nel Borghese Gentiluomo di Moliere il Signor Jourdain si circonda di precettori privati per elevare il suo status, e durante le lezioni di grammatica arriva ad una (per lui) rivelazione: “ho sempre parlato in prosa!”. L’equivalente per il fisico riduzionista potrebbe essere quello di scoprire che ogni sistema ha un ambiente. Noi stessi siamo “situati”. Il punto chiave è il confine sistema/ambiente. Quando costruiamo un modello su un aspetto del mondo facciamo una serie di ipotesi su questo confine, sulle interazioni in gioco che svolgono il ruolo di input/output dall’ambiente al sistema e viceversa. È un’esigenza metodologica ma anche un atto di hybris. Infatti nella stragrande maggioranza dei fenomeni che ci circondano e ci riguardano, sistema ed ambiente sono inscindibili, e cambiano in coevoluzione come struttura e relazioni. Tutto questo avviene naturalmente rispettando le “leggi” tra costituenti, ma modificando quelle che in matematica si chiamano condizioni al contorno, il qui ed ora, i vincoli e le possibilità. Per questo motivo i sistemi complessi manifestano proprietà di emergenza. Con quest’ultimo termine indichiamo il manifestarsi di proprietà non deducibili da un modello predefinito del sistema come risposta alla specifica situazione di accoppiamento con l’ambiente. Abbiamo dunque la continua produzione di novità in modo sostanzialmente impredicibile. È possibile apprezzare a questo punto la differenza con l’universo classico di Laplace, fatto di sassi newtoniani che si urtano tra loro, si attraggono, e tutto questo può essere abbracciato da un osservatore ideale, il famoso demone di Laplace in grado di registrare ogni posizione e velocità e così calcolare passato e futuro grazie alle leggi di Newton. Un universo laplaciano è un mondo totalmente assimilabile ad una macchina di Turing, e lo stesso osservatore (ideale, “fuori dal mondo”) ha il ruolo di “registratore” di eventi: accadono poche cose, e tutte già contenute nel “codice cosmico” delle leggi fondamentali, un universo macchina. Notiamo che qui l’impredicibilità è soltanto pratica, non di fondo. Nei sistemi complessi invece è il singolo processo che conta, ed il modo in cui si realizza, le “leggi” sono solo ingredienti di un quadro dinamico molto ricco ed articolato, in cui emergono sorprese non deducibili da un singolo modello formale, e dunque non predicibili neppure secondo una gerarchia di probabilità. Quello che ho cercato di fare in questo libretto è di considerare questi concetti derivati essenzialmente dalla fisica dei processi collettivi– il famoso More is Different del Philip Anderson-, e farli viaggiare in varie direzioni, dalla biologia all’economia ed alla fisica dei big data.

La complessità è un concetto chiave della nostra epoca: in quali ambiti trova applicazione?
La prima cosa da far notare è che ci propone un nuovo stile di spiegazione, un modo diverso di guardare le cose. Gran parte della gente associa l’idea di scienza con la “triade” certezza, causa, predicibilità, ma i pezzi di mondo che rispondono in modo soddisfacente a questo tipo di modelli sono pochi. In quella Middle Way– stavolta il riferimento è all’articolo- manifesto di un altro Nobel, Robert Laughlin-, che sta tra le teorie cosmologiche e la fisica delle particelle c’ è il regno dell’incertezza, del caso e della probabilità per via del gioco continuamente variabile tra possibilità e vincoli. Questo non vuol dire che non si possa far scienza, ma bisogna andare in cerca di una comprensione globale del fenomeno. Consideriamo ad esempio il caratteristico ripiegamento tridimensionale che rende attive le proteine, il folding, può essere considerato come un auto-assemblamento in cui la struttura primaria della proteina esplora le sue possibilità in un fitto scambio informazionale con l’ambiente. L’esito non è mai univoco, a parità di energia e condizioni agisce un caratteristico principio di indifferenza, i.e. sono possibili più esiti, alcuni difficili da spiegare in termini di mera analisi chimico-fisica, ad esempio l’esistenza di proteine termofiliche in grado di resistere anche a temperature dove le proteine mesofile si distruggono. Questo tipo di considerazioni valgono anche per i sistemi biologici, cognitivi e socioeconomici, luoghi in cui il more is different permette l’emergenza di comportamenti collettivi interessanti.

Come si studiano i sistemi interessanti?
Tradizionalmente l’idea che si ha del fisico teorico è che, preso atto dei fenomeni, scriva l’equazione in cui “zippare” tutta la conoscenza acquisita e fare predizioni. In casi di bassa complessità, ad es. i processi di auto-organizzazione studiati da I.Prigogine, si può fare; il brussellator è un sistema di equazioni con una classe di soluzioni che corrispondono ai diversi comportamenti di un insieme di variabili al variare dei parametri. Su un’ideale scala crescente ci sono poi i sistemi della Sinergetica di H. Haken, dove alcune variabili prendono il controllo del processo e permettono dunque una qualche forma di descrizione matematica, ma in generale la faccenda è molto più difficile. Nei processi con emergenza radicale non è disponibile con evidenza un insieme di variabili, ancora una volta il mondo non è “già lì”, l’emergenza si offre alla nostra osservazione attraversata dal rumore, gli aspetti interessanti attendono le nostre scelte cognitive per venire alla luce in forma di modello. In genere si studia il sistema alla ricerca di qualche forma di coerenza, pattern di correlazioni spaziotemporali sospese tra l’ordine e il caos, e si cerca un collegamento con i vincoli. La simulazione al computer è un aspetto importante, in pratica facciamo “teoria in corsa”, seguendo i cambiamenti del sistema, e non di rado si arriva ad uno scenario multimodellistico, in cui ogni singolo modello è come una foto ad alta risoluzione di una classe di comportamenti, mentre il resto- che risponde ad altre osservabili- resta in low resolution. E per la natura stessa del concetto di confine in questi sistemi è impensabile poter arrivare ad un supermodello (una teoria del tutto!) che li contenga tutti. In La Logica Aperta della Mente (Codice, 2008) ho mostrato come i modelli simbolici dell’IA, quelli sub simbolici del connessionismo e quelli recenti che si rifanno al formalismo quantistico descrivono gradi diversi di complessità ed hanno attitudini diverse. Infine, c’è un aspetto semplice nello studio della complessità, i comportamenti universali. In breve, non ci sono molti modi coerenti di stare tra l’ordine e il caos, ed è possibile che l’apparato modellistico trovato per un range di fenomeni possa migrare verso altri contesti e descrivere comportamenti simili di natura diversa. Un esempio classico è che la matematica dei vetri di spin (magneti elementari) è usata anche per lo studio delle correlazioni nei gruppi sociali. Questo accade evidentemente perché questo tipo di comportamenti collettivi non dipendono dalla natura dei componenti o degli agenti, proprio come nella fisica non-lineare poche classi di attrattori descrivono scenari universali di transizione verso il caos o forme di comportamento quasi periodico. Un altro aspetto interessante è la riconoscibilità dei frozen pattern, strutture storicamente fissate che agiscono selezionando informazione, come la nostra memoria o la vita stessa, gioco di infinite variazioni su pochi temi. Questo è un altro tratto decisivo che distingue la complessità dai sistemi dinamici del caos: non solo “traiettorie” ma storie, e possibilità di altre storie.

Un’attività recente di ricerca sul campo?
Il recente dibattito epistemologico sui Big Data, e sulla loro influenza nel costruire teorie, ha portato a due schieramenti opposti. Da una parte si è parlato di “fine della teoria” dall’altra dell’insostituibile primato di essa. Il primo partito, invero minoritario nella misura in cui è anche velleitario, sogna un algoritmo che mette assieme i dati del mondo e produce teorie, o persino qualcosa di più potente. Dall’altra, basandosi sulla tradizione, si osserva che un sistema di questo tipo diventerebbe ben presto il luogo overfitting delle correlazioni insensate. Credo che entrambe le posizioni manchino di complessità, sottovalutando il ruolo attivo dell’osservatore. Ancora una volta, il “già lì”, un certo oggettivismo ingenuo nel concepire il dato vizia la possibilità di una via intermedia. La scienza ha sempre divorato enormi quantità di dati, e questi non danno problemi quando la loro natura e le correlazioni sono ben definite all’interno di una teoria o di un contesto. Il problema è quello di cercare nuovi tipi di correlazioni dove questi filtri non ci sono. Ad esempio tra scenari e range apparentemente non collegati tra loro. In genere si parte da un’ipotesi e poi si sonda il sistema alla ricerca di quelle forme di coerenza di cui abbiamo parlato. Partendo d un’idea di G. Parisi di qualche anno fa per studiare gli storni di uccelli, con G. Minati ed Eliano Pessa abbiamo messo a punto le metastrutture, si tratta in pratica di una griglia attiva a parametri variabili che scandaglia il sistema su un ventaglio di ipotesi. È questo il fare teoria in corsa, inseguendo i processi. Come direbbe il grande Bruno De Finetti, figura che attraversa un po’ tutto il libro, facciamo una scommessa razionale sul sistema e proviamo a testarla. L’esperienza mostra che emergono configurazioni interessanti quando intervengono vincoli che portano ad un rimescolamento delle relazioni tra agenti. Queste storie sono raccontate con chiarezza dai Big Data, se correttamente interrogati.

Quali intrecci tra epistemologia, economia ed ecologia?
Quando costruiamo una teoria o vediamo – ricordiamoci l’etimologia comune- realizziamo un equilibrio cognitivo con il mondo. I limiti della teoria o dello specifico modello ci si presentano come illusioni di Jastrow (anatra/coniglio, o le immagini sfondo/figura), cose che spingono l’osservatore a produrre una nuova visione e nuove mappe per sciogliere qualcosa che appare contraddittorio o impossibile nel territorio. Che dire di questa centralità dell’osservatore- costruttore di modelli per ciò che riguarda l’economia? Non c’è dubbio che il mercato è un sorprendente sistema collettivo. “milioni di mani che lavorano, miliardi di cervelli, un’immensa rete umana che grida alla vita: un organismo, un organismo vivente”, dice Maximilian Cohen, protagonista del bel film di D. Aronofsky pi greco-il teorema del delirio. Ci troviamo dunque entro questo organismo, il mercato, che si è affermato come formula perché favorisce i processi di individuazione e differenziazione. Ma non è certo quella festa che Adam Smith sognava, e l’economia resta la scienza triste che subiamo come un fatto naturale, mentre il problema è ancora che forma vogliamo dare al territorio. L’economia è “già li” come il mondo, e l’homo oeconomicus resta ancorato ad uno schema riduzionista. Credo anche che i nostri strumenti culturali e politici tradizionali siano ormai spuntati ed inefficaci. Questo è propriamente un problema epistemologico di complessità. L’economista non può più essere il clinico di quello che De Finetti chiamava “il tragico sofisma” (del mercato che si regola da sé), ma è chiamato ad un’attività progettuale. Come dico nel libro, non può più limitarsi a calcolare il probabile sull’esistente, m deve esplorare quanto, o come, il mercato può essere compatibile con le nuove esigenze di cooperazione, glocalization, sostenibilità, e scommettere sul possibile e sul non ancora.