
Oggi lo studioso di letteratura o di filologia che abbia serie competenze informatiche è un caso raro: spesso, nel passato, gli studiosi d’informatica umanistica si sono troppo facilmente affidati alla competenza tecnica di ingegneri e programmatori; un errore notevole, che nasce – a ben vedere – da una concezione implicita delle procedure informatiche come di un momento epistemologicamente “neutro”, mentre non è affatto così: la scelta e l’organizzazione degli strumenti è costitutiva del procedimento informatico, non è un puro momento “macchinistico”. Le procedure computazionali obbligano a formalizzazioni tali che mutano la visione dei problemi: per esempio, quando si parla di “testo” si individuano diversi livelli, ciascuno con una sua identità e le sue domande. Se, come si può sperare, le competenze informatiche diventeranno più diffuse, la communis opinio degli studiosi di campo umanistico potrà comprendere che l’apporto informatico non produce un cambio di mezzi, ma di prospettive. Le delusioni, è vero, sono e sono state molte, ma credo che con l’andar del tempo la realtà riuscirà a imporsi.
Come si è articolata la storia dell’informatica umanistica?
Ritengo che la categorialità storica fondamentale e implicita sia costituita dal rapporto dell’umanista con la tecnologia. I filologi francesi dell’Ottocento compresero che tecnologie all’epoca nuove, come la fotografia, permettevano di far compiere alla ricerca filologica e storica un vero “salto” di qualità: la riproduzione del documento e la custodia delle copie in archivi specializzati ne permetteva l’analisi e il confronto in modi qualitativamente diversi rispetto allo studio isolato, sul posto, del singolo documento, eventualmente copiato a mano con tutti gli errori del caso. Con l’arrivo del computer ci si rese conto delle possibilità di esatta analisi e confronti dei testi, soprattutto di quelli trasmessi da moltissimi testimoni, non dominabili “manualmente”, come la Bibbia o certi testi liturgici e musicali. Nell’ultimo terzo del Novecento emerse la consapevolezza del fatto che l’informatizzazione, grazie alla descrizione delle funzioni di ogni parte del testo, quella che chiamiamo “codifica”, permette uno studio del testo radicalmente nuovo – che non cancella l’esperienza di secoli di filologia e di studio letterario, ma la assume all’interno di una prospettiva che la ridefinisce a fondo: si deve a un gruppo di studiosi italiani, in particolare a Tito Orlandi (che ringrazio per aver discusso con me questa intervista), al compianto Giovanni Gigliozzi, a Raul Mordenti e ai loro allievi, questa ostinata insistenza sul concetto di “codifica” come centrale per la nostra disciplina.
Altrimenti di resta all’interno di un approccio puramente “macchinistico”, senza comprendere che la capacità logico—inferenziale che caratterizza l’approccio computazionale ridefinisce non solo l’oggetto dello studio, ma anche le procedure di studio. Accettare uno sguardo nuovo implica un impegno serio e una capacità teorica di un certo spessore, il che ha portato l’accademia italiana a non ammettere l’esistenza di una disciplina dotata di una propria autonoma individualità: per non parlare poi dei “ciarlatani”, come li definisce Orlandi, che dietro una fascinosa etichetta anglofona, “digital humanities”, spacciano per ricerca innovativa qualunque lavoretto che non chiarisce niente e che magari si limita a trasformare un testo letterario, cinematografico o teatrale in una pagina web a effetto. Spesso si fa credere di ottenere risultati computazionali mentre non si è usato il metodo computazionale ma solo la simulazione computazionale di strumenti tradizionali: in un certo senso il problema è implicito nello stesso mezzo, poiché l’informatica mette a disposizione virtualmente (ma molto efficacemente) ogni altro strumento, creando confusione fra processi informatici e processi tradizionali.
Quali problemi pone l’invecchiamento digitale alla conservazione dell’informazione?
Ogni passaggio da un mezzo di archiviazione a un altro ha sempre presentato pericoli per la conservazione dell’informazione: le opere dell’antichità greca e romana che non hanno superato il passaggio dal rotolo al codice (ossia il nostro “libro”) sono in gran parte perdute per sempre. Oggi il problema riguarda, più che le opere letterarie o i documenti pubblici, l’informazione “minuta”. Per esempio, chi mantiene, oggi, un archivio delle proprie lettere? Usiamo tutti la posta elettronica, ma da un anno all’altro eseguiamo una copia delle mail dell’anno precedente? E i documenti scritti con programmi del passato, non più leggibili dai programmi oggi correnti, o archiviati su supporti non più utilizzabili con facilità, come i floppy disk?
Da un punto di vista teorico generale, la conservazione dell’informazione richiede solo che i dati e i programmi (le procedure) siano archiviati su un supporto stabile, espressi in alfabeto binario. Operativamente, la durata dell’informazione è tanto più possibile quanto più gli strumenti adoperati sono trasparenti: questa è una delle ragioni per il mio convinto sostegno al concetto di “software libero”, che non significa “gratuito” ma “accessibile”: se un programma e il suo modo di archiviare i dati sono descritti in modo chiaro e controllabile, un file prodotto con quel programma resta accessibile anche quando il programma che lo ha prodotto fosse abbandonato da anni. Molti documenti archiviati mezzo secolo fa su nastro magnetico sono illeggibili perché nessuno aveva accompagnato al nastro l’indicazione del tipo di hardware e di sistema operativo necessario per leggerlo. Insomma, il pericolo mi pare costituito dall’illusione di una durata automatica dell’informazione.
Quali caratteristiche presenta il testo informatico?
Io credo che si debba con chiarezza distinguere tra testo “computerizzato” e testo “informatico”. La “computerizzazione” del testo consiste sostanzialmente in un cambio di supporto: per esempio, la scansione di un libro per ottenere un file PDF: l’operazione non è concettualmente diversa ad esempio dall’esecuzione di una serie di fotocopie. Un testo informatico, invece, si caratterizza per la codifica, esplicita, dichiarata e controllabile, della maggior parte possibile delle informazioni contenute. Per esempio, in un’edizione informatica dei Promessi Sposi potrò identificare immediatamente tutte le “battute” dei vari personaggi, o il linguaggio di Renzo rispetto a quello di don Abbondio o del Cardinale Federigo, o confrontare il romanzo con le scene corrispondenti del Fermo e Lucia. Un testo informatico è inoltre intrinsecamente ipertestuale: ogni parte del testo può aprirsi ai confronti con altri testi; il web rappresenta la sede naturale del testo informatico. Sembrerà strano, ma i veri “testi informatici” sono pochi; in Italia citerei il progetto veneziano Musisque Deoque, ideato da Paolo Mastandrea, e la Biblioteca digitale di testi latini tardoantichi dell’Università del Piemonte Orientale, curata da Raffaella Tabacco, Maurizio Lana e altri studiosi. Ambedue i progetti, molto diversi tra di loro, sono uniti da una forte e seria codifica, che non si limita affatto a riprodurre un testo a stampa su un diverso supporto, ma permette allo studioso di affrontare i testi con domande diverse, rese possibili appunto dai livelli di codifica. Naturalmente il latino e il greco antico, lingue che sono formalizzate dalla tradizione scolastica, permettono un approccio più agevole rispetto a lingue meno fortemente formalizzate e quindi meno facilmente codificabili. Esistono poi altri buoni progetti e numerose edizioni di singoli testi, in Italia, Inghilterra e altrove, ma questi due progetti italiani mi sembrano particolarmente significativi perché la centralità della codifica come tratto distintivo dell’edizione informatica è stata presa sul serio.
Quale apporto può fornire l’informatica nella realizzazione di un’edizione critica?
Dipende dalla consapevolezza e dalla preparazione dello studioso, oltre che, ovviamente, dalla natura del testo studiato. L’apporto quantitativo, al quale accennavo all’inizio di questo colloquio, non è ancora stato considerato in tutta la sua portata. Per esempio, nel caso di testi trasmessi con alto tasso di variabilità, il confronto automatico tra le varianti fornisce allo studioso un apporto che diventa qualitativo proprio per la possibilità di eseguire un altissimo numero di confronti in pochissimo tempo; la quantità diventa qualità, oltre una certa soglia. Lo studioso è così liberato da una massa di lavoro meccanico e potrà passare alla valutazione delle varianti. Proprio quest’ultimo momento del lavoro filologico rappresenta, a mio avviso, il futuro di quella che chiamo “filologia computazionale”: elaborando una serie di regole, un programma potrebbe essere in grado di valutare il valore delle varianti, cioè giudicare ad esempio se una differenza tra due manoscritti costituisca pura varianza grafica (come, ad esempio, in molti manoscritti medievali scrivere æcclesia, aecclesia, ecclesia) oppure individui una differenza significativa, che spinge a ipotizzare due rami della trasmissione oppure due versioni del testo. Penso quindi che attualmente la vera potenzialità dell’apporto informatico nei confronti dello studio dei testi sia ancora in buona parte da individuare, descrivere e sperimentare.
Esiste anche un’informatica umanistica non “testuale”?
Certamente, ma qui la necessità di ridefinizioni è spesso ancora maggiore. In campo testuale, l’informatica testuale e la filologia computazionale hanno raggiunto un certo livello di autocoscienza; anche lo studio dei documenti storici e giuridici sono oggi campi in cui la ricerca informatica sta dando risultati di grande solidità. In campo archeologico, studiosi come Paola Moscati hanno riflettuto e riflettono sul ruolo della codifica nella costruzione di una dimensione informatica del loro lavoro; ma non è il mio campo, così come non lo è la storia dell’arte e l’analisi delle immagini. Posso invece dire che nel mio altro ambito di ricerca, che è quello musicologico, l’informatica apre grandi possibilità. La codifica della musica e del rapporto tra testo e musica ha raggiunto livelli di efficienza molto alti, ormai: si stanno delineando campi di ricerca molto promettenti. Si pensi allo studio di tecniche di composizione musicale che lo studioso di oggi riconosce grazie alla propria memoria e al proprio orecchio: una volta codificate, queste strutture diverranno quantitativamente analizzabili e quindi descrivibili come un qualunque oggetto di ricerca scientifica vera. L’intuizione dello studioso, quel guizzo che caratterizza il vero studioso, non finirà mai; ma si eserciterà su un materiale di studio descritto e analizzato in modo chiaro, non ambiguo, in base a procedimenti controllabili, ripetibili e falsificabili. Sarà la fine per gli umanisti “chiacchieroni” e l’inizio di una nuova dimensione per gli studi umanistici seri.
Guido Milanese è professore ordinario di Lingua e Letteratura latina all’Università Cattolica del Sacro Cuore, ove insegna Cultura classica, Letteratura comparata e Informatica umanistica. È docente all’USI di Lugano e all’ISSR di Genova; ha ricevuto un dottorato honoris causa dall’Institut Catholique di Parigi. Ha pubblicato studi sulla filosofia a Roma, sulla poesia romana, sulla didattica del latino e sull’analisi informatica dei testi. Come musicologo è studioso di canto liturgico, direttore della rivista “Studi Gregoriani” e dell’ensemble Ars Antiqua a Genova.