
Quando e come nasce la simulazione molecolare?
Alla fine della seconda guerra mondiale i grandi laboratori nazionali americani (Los Alamos e poi Livermore) hanno costruito e utilizzato (soprattutto nel contesto del progetto Manhattan e della produzione della prima bomba atomica) i primi computer elettronici a valvole termoioniche. Finite le esigenze di guerra, si trattava di trovare un utilizzo “pacifico” per queste nuove costosissime macchine. Questo ha creato una forte pressione sugli scienziati legati a questi laboratori nazionali per trovare applicazioni scientifiche significative per questa enorme potenza di calcolo. I primi tentativi sono stati tradizionali: tipicamente, calcolare termini complicati di sviluppi perturbativi. In seguito, scienziati piu’ giovani e brillanti, cui erano affidati questi calcoli noiosi e laboriosi, hanno capito che questa nuova potenza di calcolo poteva essere pienamente utilizzata per risolvere direttamente le leggi fondamentali e scoprire così se e come quelle leggi erano in grado di spiegare la molteplicità dei comportamenti macroscopici del mondo materiale. Nel 1953, con l’aiuto di uno speciale algoritmo (il metodo Monte Carlo di Metropolis), un gruppo di scienziati di Los Alamos ha potuto calcolare l’equazione di stato di un fluido denso e, poco dopo, nel 1956, questa volta a Livermore, una coppia di giovanissimi scienziati ha potuto spiegare la validità della teoria usata dai loro predecessori e in più, introducendo il metodo della Dinamica Molecolare, hanno potuto calcolare il moto degli atomi chiusi in un volume e di cui volevano determinare il comportamento statistico. Poco prima, Fermi, Pasta e Ulam (1954) avevano utilizzato la stessa idea per capire la validità di un’ipotesi alla base della meccanica statistica…
Da allora, questi due procedimenti fondamentali non hanno fatto che affermarsi e crescere in modo da poter risolvere questioni sempre più complesse: nel 1964 risolvendo un modello realistico di aggregato di molecole monoatomiche, nel 1971 quello di molecole poliatomiche (acqua) e nel 1976 studiando i moti di una molecola biologica, aprendo così il campo dello studio dei materiali biologici e del farmaceutico.
In che modo la simulazione molecolare contribuisce allo studio di sistemi complessi di materia condensata?
La materia che noi percepiamo a condizioni ordinarie (temperatura e densità non troppo alte, ovvero energie in gioco non abbastanza forti da rompere i nuclei) è costituita da numeri incredibilmente grandi (il riferimento è il numero di Avogrado) di nuclei ed elettroni, costituenti stabili, interagenti essenzialmente con forze elettriche e magnetiche. La ricostruzione del comportamento collettivo di questi aggregati avviene con i metodi della Meccanica Statistica (che poi sarebbe nient’altro che la spiegazione su base microscopica dei comportamenti descritti dalla Termodinamica). I calcoli richiesti per spiegare già comportamenti semplici – come quelli dei gas densi o dei cristalli non armonici – diventano facilmente estremamente complessi. La simulazione molecolare, invece, parte dal modello fondamentale e ne calcola il comportamento senza ricorrere a costruzioni teoriche intermedie. Il risultato è impressionante: per molti decenni il perché esistesse una fase liquida e quali fossero le sue proprietà era rimasto un mistero, perché quella fase della materia non presenta le semplificazioni che permettono di “capire” il comportamento di un cristallo o di un gas. Il primo risultato della simulazione molecolare (raggiunto alla fine degli anni sessanta) è stato quello di capire come e perché la materia possa organizzarsi e presentare le proprietà tipiche di un liquido. Un risultato che nessuna buona “teoria analitica” – il tipo di teorie su cui era vissuta la fisica teorica precedente – sarebbe mai stata in grado di spiegare…
Quali vicende hanno segnato lo sviluppo della simulazione molecolare?
A parte il risultato di Fermi di cui abbiamo già parlato (e che, probabilmente, la morte prematura di Fermi non ha permesso di sviluppare tra i fisici teorici), la simulazione molecolare è nata nell’ambiente delle Chimica Fisica, una disciplina che, come detto da un mio amico chimico fisico francese, non ha pretese di far cultura. Perciò, malgrado la potenza dei suoi metodi e le vittorie conseguite, la simulazione è rimasta confinata per parecchi anni in un ambito relativamente limitato. Ancora nei primi anni settanta, i fisici teorici tradizionali consideravano irrilevante il contributo della simulazione molecolare allo sviluppo della teoria fisica. La capacità dei metodi numerici di controllare e spiegare i fenomeni della “complessità” ha lentamente fatto scoprire l’interesse del nuovo approccio. Dalla nascita negli anni 50 fino a tutti gli anni 70, la simulazione molecolare è rimasta nell’ambito dei problemi tipici della chimica fisica. A partire dagli anni 80, quando i metodi numerici della simulazione hanno dimostrato di poter dominare anche fenomeni statistici (per es. i famosi fenomeni critici che hanno guastato le notti di molti fisici teorici fino all’avvento del gruppo di rinormalizzazione alla fine degli anni 70) e quantistici (ancora per es. le formazione dell’elio superfluido a temperatura molto bassa e pressione ordinaria) di grande difficoltà per i metodi tradizionali della fisica teorica, la simulazione è stata riconosciuta a pieno titolo come un metodo rilevante per lo sviluppo della disciplina. A ciò va aggiunto, anche se la cosa va oltre la mia competenza diretta, lo sviluppo dell’approccio simulativo nella soluzione dei modelli che vengono risolti nella cromodinamica quantistica (la lattice quantum chromodynamics). Usando i dati di una base dati di ricerca (il cosiddetto web of science) abbiamo recentemente visto che, se nel decennio 1975-1985 si sono pubblicati meno di 500 articoli di ricerca identificabili come simulazione molecolare, nel decennio 2005-2015 ne sono stati pubblicati poco meno di 102.000. È solo un’indicazione quantitativa, ma credo piuttosto significativa, soprattutto se si confronta con il dato per il “gruppo di rinormalizzazione” (lo strumento vincente della fisica teorica tradizionale) che è passato nello stesso periodo da poco più di 1000 a poco meno di 9600… Va detto che questo sviluppo è stato possibile in quanto la simulazione molecolare è diventata essenziale non solo per la tradizionale “materia condensata”, ma anche per la biochimica, la farmaceutica, svariati settori dell’ingegneria e della geologia, mostrando così l’essenza della sua universalità.
Giovanni Ciccotti è professore emerito di struttura della materia al dipartimento di fisica dell’Università di Roma “la Sapienza” e professore emerito di fisica computazionale all’University College di Dublino. Dopo il pensionamento è associato di ricerca alla sezione di Roma dell’Istituto di Applicazioni del Calcolo “M.Picone” del CNR. È fellow della European Physical Society e dell’Institute of Physics. Ha vinto nel 1999 il premio Berni Alder, dato dal CECAM (Centre Europeen de Calcul Atomique et Moléculaire) per contributi eccezionali al campo della simulazione microscopica della materia. Dopo un inizio in fisica teorica delle particelle elementari, un breve periodo come fisico teorico dei molti corpi e un altro nei problemi matematici della meccanica statistica, l’attività di Ciccotti si è rivolta alla simulazione molecolare dove ha sviluppato alcuni algoritmi piuttosto noti e ampiamente utilizzati nella comunità per trattare sistemi sottoposti a vincoli, fenomeni rari e di non-equilibrio. Ha pubblicato più di 200 articoli di ricerca e alcuni libri per la professione. Si è sempre interessato alla storia e all’epistemologia della fisica dove ha pubblicato qualche articolo di ricerca e, oltre al libro attuale, nel 1977, un noto libro di critica storica ed epistemologica della scienza (L’Ape e l’architetto, ripubblicato nel 2011).