“Il computer incontra la fisica teorica. La nuova frontiera della simulazione molecolare” di Giovanni Ciccotti, Gianni Battimelli e Pietro Greco

Prof. Giovanni Ciccotti, Lei è autore con Gianni Battimelli e Pietro Greco del libro Il computer incontra la fisica teorica. La nuova frontiera della simulazione molecolare edito da Carocci: di quale importanza sono i computer nello studio della fisica teorica?
Il computer incontra la fisica teorica. La nuova frontiera della simulazione molecolare, Giovanni Ciccotti, Gianni Battimelli, Pietro GrecoLa fisica teorica, da quando esiste – come disciplina specifica dalla fine dell’’800, ma come aspetto teorico della scienza sperimentale, detta fisica, almeno dai tempi di Galileo – ha sempre calcolato le conseguenze delle leggi fisiche per predire comportamenti del mondo intorno a noi. Tuttavia, osservazione e formulazione di leggi matematiche da cui trarre previsioni hanno ben più lunga vita, in quanto sono ben presenti già nell’antichità nello studio dei fenomeni astronomici. Quindi, da sempre, avrebbe goduto dell’esistenza di macchine di calcolo. Fin qui niente di nuovo: un potente strumento di calcolo aumenta le capacità predittive della fisica teorica calcolando esplicitamente tutte le costruzioni intermedie che i fisici hanno introdotto per riuscire a fare predizioni quantitative. L’esempio più tipico è quello dei calcoli perturbativi che rendono possibile predire il comportamento di sistemi realistici a partire da modelli calcolabili ma non sufficienti per descrivere i fenomeni osservati. Facendo solo questo, il computer aiuta ma non risolve e il calcolo rimane allo stadio di una funzione esecutiva della teoria. Fino a tutti gli anni quaranta del secolo scorso, questa è stata la situazione della fisica teorica, con una drastica limitazione della sua capacità di impatto nelle scienze cugine (chimica, biologia, geologia…) e nella tecnologia. La seconda guerra mondiale è stata caratterizzata come una guerra tecnologica nella quale le esigenze di calcolo sono esplose (un fenomeno già presente nelle guerre precedenti, ma decisamente più limitato). Per rispondere a queste esigenze di vita o di morte, i paesi più avanzati si sono industriati per avere più capacità di calcolo e sono passati dal calcolo meccanico o elettro-meccanico a quello elettronico con un guadagno immediato nella velocità di esecuzione dei calcoli di un fattore di almeno mille, passato poi rapidamente (anni 60) a un milione e da lì fino ad oggi a un milione di milioni di volte quel primo traguardo. Questo è solo il dato di partenza e in sé non rappresenterebbe ancora nulla per la fisica teorica. Il punto è che, dopo aver capito come cambiare le leggi fondamentali per trattare l’infinitamente piccolo (universo quantistico) e grande (relatività/gravitazione), la fisica teorica, per avanzare significativamente, doveva riuscire a risolvere le equazioni implicate da quelle leggi per spiegare, non solo in termini generali i comportamenti complessi del mondo, ma per averli sotto dettagliato controllo. A partire dagli anni 50 un gruppo, dapprima ristretto, di ottimi scienziati ha avuto l’idea di lasciar perdere con la tradizione di approssimazioni successive sempre più complicate per spiegare i fenomeni naturali, ma di “mettere in macchina” direttamente le leggi fondamentali per calcolarne le conseguenze. All’inizio si è trattato di problemi fondamentali, ma semplici, come lo spiegare, con un modello ipersemplificato di atomi, perché la materia si organizza in fasi macroscopiche diverse (gas, solidi, liquidi) a seconda dei valori di pochi parametri esterni (densità, temperatura, etc.) e poi, via via, di ricostruire il tutto della chimica e, in prospettiva, della biologia, calcolandone le caratteristiche a partire da costituenti semplici (gli atomi e le molecole sono sufficienti per questo primo stadio). È nata così la “Simulazione Molecolare” basata sui nuovi metodi di fisica matematica noti come Dinamica Molecolare e Metropolis Monte Carlo. Grazie all’uso fondamentale del computer e della sua potenza, la fisica teorica ha cambiato faccia, ma ha potuto conquistare campi prima indipendenti quali quelli della Chimica e, se non ancora della Biologia, certo della Chimica biologica. Andando poi a condizioni ancora più estreme si tratta di risolvere le leggi fondamentali per costituenti ancora più elementari (la fisica delle alte energie, le particelle elementari) introducendo il computer anche in questo settore con quella che è nota come la Quantum Chromodynamics. La cosa che ci ha colpito e che ha motivato la produzione del libro è che, mentre la nascita della Relatività e della Meccanica Quantistica sono state considerate delle rivoluzioni culturali e hanno generato un’enorme letteratura di riflessione epistemologica, storica e anche divulgativa, questo sviluppo, che non è certamente da meno, è stato declassato a mero sviluppo tecnico, mentre invece è cambiato proprio l’impianto del procedimento di scoperta scientifica. Il nostro è un primo tentativo per rimediare a questa mancanza di autocoscienza della comunità scientifica.

Quando e come nasce la simulazione molecolare?
Alla fine della seconda guerra mondiale i grandi laboratori nazionali americani (Los Alamos e poi Livermore) hanno costruito e utilizzato (soprattutto nel contesto del progetto Manhattan e della produzione della prima bomba atomica) i primi computer elettronici a valvole termoioniche. Finite le esigenze di guerra, si trattava di trovare un utilizzo “pacifico” per queste nuove costosissime macchine. Questo ha creato una forte pressione sugli scienziati legati a questi laboratori nazionali per trovare applicazioni scientifiche significative per questa enorme potenza di calcolo. I primi tentativi sono stati tradizionali: tipicamente, calcolare termini complicati di sviluppi perturbativi. In seguito, scienziati piu’ giovani e brillanti, cui erano affidati questi calcoli noiosi e laboriosi, hanno capito che questa nuova potenza di calcolo poteva essere pienamente utilizzata per risolvere direttamente le leggi fondamentali e scoprire così se e come quelle leggi erano in grado di spiegare la molteplicità dei comportamenti macroscopici del mondo materiale. Nel 1953, con l’aiuto di uno speciale algoritmo (il metodo Monte Carlo di Metropolis), un gruppo di scienziati di Los Alamos ha potuto calcolare l’equazione di stato di un fluido denso e, poco dopo, nel 1956, questa volta a Livermore, una coppia di giovanissimi scienziati ha potuto spiegare la validità della teoria usata dai loro predecessori e in più, introducendo il metodo della Dinamica Molecolare, hanno potuto calcolare il moto degli atomi chiusi in un volume e di cui volevano determinare il comportamento statistico. Poco prima, Fermi, Pasta e Ulam (1954) avevano utilizzato la stessa idea per capire la validità di un’ipotesi alla base della meccanica statistica…

Da allora, questi due procedimenti fondamentali non hanno fatto che affermarsi e crescere in modo da poter risolvere questioni sempre più complesse: nel 1964 risolvendo un modello realistico di aggregato di molecole monoatomiche, nel 1971 quello di molecole poliatomiche (acqua) e nel 1976 studiando i moti di una molecola biologica, aprendo così il campo dello studio dei materiali biologici e del farmaceutico.

In che modo la simulazione molecolare contribuisce allo studio di sistemi complessi di materia condensata?
La materia che noi percepiamo a condizioni ordinarie (temperatura e densità non troppo alte, ovvero energie in gioco non abbastanza forti da rompere i nuclei) è costituita da numeri incredibilmente grandi (il riferimento è il numero di Avogrado) di nuclei ed elettroni, costituenti stabili, interagenti essenzialmente con forze elettriche e magnetiche. La ricostruzione del comportamento collettivo di questi aggregati avviene con i metodi della Meccanica Statistica (che poi sarebbe nient’altro che la spiegazione su base microscopica dei comportamenti descritti dalla Termodinamica). I calcoli richiesti per spiegare già comportamenti semplici – come quelli dei gas densi o dei cristalli non armonici – diventano facilmente estremamente complessi. La simulazione molecolare, invece, parte dal modello fondamentale e ne calcola il comportamento senza ricorrere a costruzioni teoriche intermedie. Il risultato è impressionante: per molti decenni il perché esistesse una fase liquida e quali fossero le sue proprietà era rimasto un mistero, perché quella fase della materia non presenta le semplificazioni che permettono di “capire” il comportamento di un cristallo o di un gas. Il primo risultato della simulazione molecolare (raggiunto alla fine degli anni sessanta) è stato quello di capire come e perché la materia possa organizzarsi e presentare le proprietà tipiche di un liquido. Un risultato che nessuna buona “teoria analitica” – il tipo di teorie su cui era vissuta la fisica teorica precedente – sarebbe mai stata in grado di spiegare…

Quali vicende hanno segnato lo sviluppo della simulazione molecolare?
A parte il risultato di Fermi di cui abbiamo già parlato (e che, probabilmente, la morte prematura di Fermi non ha permesso di sviluppare tra i fisici teorici), la simulazione molecolare è nata nell’ambiente delle Chimica Fisica, una disciplina che, come detto da un mio amico chimico fisico francese, non ha pretese di far cultura. Perciò, malgrado la potenza dei suoi metodi e le vittorie conseguite, la simulazione è rimasta confinata per parecchi anni in un ambito relativamente limitato. Ancora nei primi anni settanta, i fisici teorici tradizionali consideravano irrilevante il contributo della simulazione molecolare allo sviluppo della teoria fisica. La capacità dei metodi numerici di controllare e spiegare i fenomeni della “complessità” ha lentamente fatto scoprire l’interesse del nuovo approccio. Dalla nascita negli anni 50 fino a tutti gli anni 70, la simulazione molecolare è rimasta nell’ambito dei problemi tipici della chimica fisica. A partire dagli anni 80, quando i metodi numerici della simulazione hanno dimostrato di poter dominare anche fenomeni statistici (per es. i famosi fenomeni critici che hanno guastato le notti di molti fisici teorici fino all’avvento del gruppo di rinormalizzazione alla fine degli anni 70) e quantistici (ancora per es. le formazione dell’elio superfluido a temperatura molto bassa e pressione ordinaria) di grande difficoltà per i metodi tradizionali della fisica teorica, la simulazione è stata riconosciuta a pieno titolo come un metodo rilevante per lo sviluppo della disciplina. A ciò va aggiunto, anche se la cosa va oltre la mia competenza diretta, lo sviluppo dell’approccio simulativo nella soluzione dei modelli che vengono risolti nella cromodinamica quantistica (la lattice quantum chromodynamics). Usando i dati di una base dati di ricerca (il cosiddetto web of science) abbiamo recentemente visto che, se nel decennio 1975-1985 si sono pubblicati meno di 500 articoli di ricerca identificabili come simulazione molecolare, nel decennio 2005-2015 ne sono stati pubblicati poco meno di 102.000. È solo un’indicazione quantitativa, ma credo piuttosto significativa, soprattutto se si confronta con il dato per il “gruppo di rinormalizzazione” (lo strumento vincente della fisica teorica tradizionale) che è passato nello stesso periodo da poco più di 1000 a poco meno di 9600… Va detto che questo sviluppo è stato possibile in quanto la simulazione molecolare è diventata essenziale non solo per la tradizionale “materia condensata”, ma anche per la biochimica, la farmaceutica, svariati settori dell’ingegneria e della geologia, mostrando così l’essenza della sua universalità.

Giovanni Ciccotti è professore emerito di struttura della materia al dipartimento di fisica dell’Università di Roma “la Sapienza” e professore emerito di fisica computazionale all’University College di Dublino. Dopo il pensionamento è associato di ricerca alla sezione di Roma dell’Istituto di Applicazioni del Calcolo “M.Picone” del CNR. È fellow della European Physical Society e dell’Institute of Physics. Ha vinto nel 1999 il premio Berni Alder, dato dal CECAM (Centre Europeen de Calcul Atomique et Moléculaire) per contributi eccezionali al campo della simulazione microscopica della materia. Dopo un inizio in fisica teorica delle particelle elementari, un breve periodo come fisico teorico dei molti corpi e un altro nei problemi matematici della meccanica statistica, l’attività di Ciccotti si è rivolta alla simulazione molecolare dove ha sviluppato alcuni algoritmi piuttosto noti e ampiamente utilizzati nella comunità per trattare sistemi sottoposti a vincoli, fenomeni rari e di non-equilibrio. Ha pubblicato più di 200 articoli di ricerca e alcuni libri per la professione. Si è sempre interessato alla storia e all’epistemologia della fisica dove ha pubblicato qualche articolo di ricerca e, oltre al libro attuale, nel 1977, un noto libro di critica storica ed epistemologica della scienza (L’Ape e l’architetto, ripubblicato nel 2011).

ISCRIVITI ALLA NEWSLETTER
Non perderti le novità!
Mi iscrivo
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link