Per una critica del testo digitale. Letteratura, filologia e rete, Domenico FiormonteProf. Domenico Fiormonte, Lei è autore del libro Per una critica del testo digitale. Letteratura, filologia e rete edito da Bulzoni: quali problemi e quali domande genera l’incontro fra discipline umanistiche e informatica riguardo i modi della produzione e trasmissione della conoscenza?
Se digito le parole “testo della divina commedia” su un motore di ricerca ci viene restituita (al momento in cui scrivo) una lista di risultati così composta: al primo posto il testo integrale della Divina Commedia del sito filosofico.net; al secondo posto “testo e parafrasi del Canto 1 dell’inferno” (sito libraryweschool.com); al terzo posto “i versi più memorabili di Dante” (sito libreriamo.it). Solo uno dei primi sei risultati disponibili, il testo fornito da liberliber.it, reca indicazione sul tipo di fonte o edizione utilizzata. Questo semplice esperimento ci pone di fronte a una serie di dilemmi, primo fa tutti: qual oggi è il ruolo delle discipline umanistiche in un mondo in cui l’accesso alla conoscenza e al nostro patrimonio culturale viene mediato da tecnologie prodotte da aziende private localizzate perlopiù nel Nord del mondo? Questo cambiamento delle forme di accesso mette in discussione tutte le nostre istituzioni formative e culturali, a cominciare da scuola e università, la cui autorevolezza era basata su un diretto rapporto con (e controllo su) le forme “stabili” della conoscenza: a cominciare dai libri.

Tornando all’incontro fra discipline umanistiche – in particolare linguistica, filologia, archivistica, ecc. – e informatica si fa risalire convenzionalmente ai primi esperimenti di Padre Roberto Busa negli anni ’50. Non molti oggi ricordano che fu questo gesuita italiano ad aprire la strada all’incontro fra computer e linguaggio. Ma ancora meno persone sospettano che quei primi esperimenti contenevano già in nuce quello che oggi, alla luce del fenomeno della sorveglianza di massa, possiamo chiamare l’ossessione per l’information retrieval: ovvero l’estrazione di informazione da masse di dati. Il mondo dei “big data” è in fondo figlio di quei primi lavori in cui l’obiettivo era studiare il lessico di Tommaso D’Aquino per scoprire regolarità o asimmetrie nel suo stile, studiarne l’evoluzione, ecc. Ma da San Tommaso allo scandalo Cambridge Analytica-Facebook, come cerco di spiegare nell’introduzione, metodologicamente parlando il passo è più breve di quanto pensiamo. Siamo perciò di fronte a un paradosso: da un lato gli umanisti hanno avuto un ruolo centrale, non solo teorico, ma anche pratico, nella costruzione degli strumenti di ricerca e analisi del linguaggio; dall’altro le discipline umanistico-sociali oggi vivono una crisi profonda, proprio perché scavalcate da strumenti e contesti che, nel migliore dei casi, le relegano a custodi di una tradizione che viene ormai pensata, ri-costruita e gestita altrove.

Quali sfide pone la rappresentazione digitale del documento?
Riallacciandomi a quanto appena detto, i processi di rappresentazione/codifica digitale dei documenti (e in generale del linguaggio) costituiscono il cuore e l’origine del rapporto fra scienze umanistiche e informatica. È da questo rapporto che nascono le cosiddette Digital Humanities. Questa disciplina ibrida, nota in Italia come Informatica Umanistica, nasce per riflettere sul cambiamento dei formati della memoria e dei suoi supporti per garantire una valida e culturalmente sostenibile trasmissione del sapere attraverso il tempo. A questo tema mi sono dedicato per vent’anni, studiando l’edizione digitale e realizzando vari progetti, fra cui il più antico è Digital Variants, un sito di testi letterari creato all’Università di Edimburgo nel 1996. Tuttavia, più le DH si espandevano nel mondo, più mi diveniva chiaro che la questione della rappresentazione del documento non era solo un fatto strumentale o metodologico, ma anche culturale e politico. Le tecnologie che utilizziamo infatti non sono mai neutre, ma vengono progettate in determinati contesti, ai quali sostanzialmente le culture (e le lingue) “periferiche” devono adattarsi.

Purtroppo la stragrande maggioranza degli umanisti (ma a questo punto estenderei la critica a tutti gli intellettuali) hanno faticato e tuttora faticano a comprendere le conseguenze epistemologiche della digitalizzazione, nonché il suo profondo impatto sulle istituzioni. Il codice informatico infatti non è solo uno strumento, un tool di trasferimento da un linguaggio a un altro, da una macchina a un’altra, bensì un linguaggio che si sovrappone al linguaggio modellando la materia di cui tratta. Friedrich Kittler, un grande studioso e filosofo dei media purtroppo scomparso, diceva che il codice è diventato oggi la condizione necessaria per la generazione della realtà: perché “la tecnologia codifica il mondo.” Dunque studiare e comprendere come funziona il codice, da chi viene progettato, secondo quali interessi, ecc. è diventato un fattore cruciale per comprendere le trasformazioni – e le costanti manipolazioni – del mondo.

Come può convivere la natura aperta e dinamica dei processi di scrittura con i modelli della rappresentazione digitale?
È una convivenza a volte difficile. La seconda parte del libro è dedicata a una serie di casi di studio che ho affrontato nell’arco di circa dieci anni di lavoro. L’elemento comune di queste ricerche è il tentativo di rappresentare la natura “liquida” del processo compositivo attraverso strumenti informatici. Punto di partenza teorico di tale percorso è stato per me il connubio fra la psicologia della composizione e la moderna critica del testo: da Gianfranco Contini alla cosiddetta scuola “genetica” francese. Secondo questi autori e studi le testimonianze manoscritte o autografe, dall’antichità ai giorni nostri, mostrano una variabilità e un’ “indeterminazione”, se così posso esprimermi, molto più alta rispetto al “prodotto finito” al quale ci ha abituato la stampa. Nella prima parte del volume cerco di riflettere su taluni dei nodi teorici del nesso “testo-tecnologia della stampa” e sul perché, almeno sino a oggi, siamo stati abituati a considerare “testo” solo ciò che è fisso e immutabile. Ma per tornare alla sua domanda, esiste innanzitutto un problema di “attrito” fra supporti che è in parte l’inevitabile frutto del cambiamento del medium. D’altro canto la trasmissione della conoscenza è sempre soggetta a entropia: un messaggio difficilmente può essere trasmesso e recapitato attraverso il tempo senza rischio di perdita parziale di informazione o di eventuali manipolazioni, casuali o intenzionali (si pensi agli interessi religiosi, politici, ecc.). Questa variabilità, come spiegano biologi, antropologi, neuroscienziati, ecc. è la condizione stessa della trasmissibilità: ovvero la cultura non può trasmettersi senza variare.

La questione che mi posi all’inizio della mia ricerca era se fosse possibile usare il computer per rendere conto di questa “variabilità” intrinseca, cioè appunto della natura “dinamica e aperta” del processo scrittorio. La mia preoccupazione non era tanto “conservare” nel modo più fedele possibile il “manufatto” o la fonte (manoscritto, autografo, ecc.), ma sfruttare l’informatica per rappresentare la variazione. La risposta a questa esigenza all’inizio fu positiva e il progetto Digital Variants nacque sull’onda dell’entusiasmo del primo Web, sfruttando tutti gli strumenti che metteva a disposizione per rappresentare la mobilità del testo. Successivamente però le cose cambiarono. Dopo gli anni della libera sperimentazione cominciò a diffondersi la comprensibile esigenza di dare continuità a ciò che avevamo realizzato. Altrimenti a ogni cambiamento tecnologico si rischiava di vedere svanire il nostro lavoro. Fu inevitabile a quel punto rivolgersi agli standard di codifica del testo che venivano promossi dalla comunità internazionale delle Digital Humanities. E lì iniziarono i problemi, nel senso che, come ho accennato sopra, gli standard vengono progettati e decisi in determinati contesti e si pongono determinati obiettivi. Quello che ci trovammo all’epoca, SGML (Standardized Markup Language), era un linguaggio di rappresentazione progettato e diffuso negli Stati Uniti a partire dagli anni ’60 e che ereditava una concezione tipografica del documento. Tuttavia SGML risultava molto potente e flessibile per la “conservazione” delle informazioni. SGML, come il suo erede XML (eXtensible Markup Language), andava bene per tantissime cose, ma non era adatto secondo noi a a rappresentare adeguatamente il processo di scrittura e tantomeno a renderlo facilmente fruibile. Qui apro una breve parentesi per non generare confusione in chi legge. Quando parliamo di “rappresentazione” o “codifica” di un documento non stiamo parlando di ciò che vedrà l’utente finale. L’utente interagisce con un’interfaccia, ovvero un software che “visualizza”, per così dire, il risultato della codifica-rappresentazione informatica. Per fare un esempio immediato: la pagina Web che state leggendo ora è “visualizzata” da un software che comunemente chiamiamo browser (Mozilla, ecc.), ma dietro c’è una codifica con un linguaggio che si chiama HTML (e che deriva, guarda caso, proprio da SGML: Hypertext Markup Language). Dunque un conto è la codifica, un conto ciò che il lettore “vede” e fruisce. Come spiego nel libro uno dei problemi dei linguaggi di rappresentazione della famiglia dei linguaggi derivati da SGML è proprio questa tensione, mai risolta, fra ciò che vogliamo “conservare” e ciò che vogliamo “vedere”. Ma soprattutto il vero limite è teorico: si tratta di modelli che non sono stati progettati pensando al processo compositivo, cioè alla variabilità della scrittura, ma alla relativa stabilità del testo a stampa. In realtà come mostro nel libro esistono delle soluzioni e dei modelli alternativi, ma la questione è come sempre politica: chi ha la forza per imporre degli standard, ha anche la forza per resistere al cambiamento. Sia come sia, oggi chi decide i modelli e gli standard di diffusione della conoscenza (cioè un pugno di multinazionali) non ha nessun interesse né nella corretta ed esauriente rappresentazione del manufatto culturale, né nella sua preservazione a lungo termine. Infatti, come osservo nel libro, c’è chi si domanda se in realtà Internet non stia aumentando il rischio di scomparsa della diversità culturale, a cominciare dalle lingue. La cui commerciabilità riguarda al massimo poco più di duecento lingue sulle circa settemila esistenti.

Quali caratteristiche presentano le scritture digitali?
Non è semplice rispondere a questa domanda perché le caratteristiche dipendono dal medium e dal contesto, rendendo molto complessa una classificazione. Scrittura digitale oggi è WhatsApp, è un blog, è un documento Word e un commento su Facebook… E ciascuno di questi strumenti possiede una propria retorica, propri limiti tecnici e genera diverse possibilità espressive. Accanto a queste forme quotidiane, esiste ovviamente una ricca tradizione di sperimentazioni letterarie che ha inizio negli anni ’90 (cioè prima dell’avvento del Web) e che negli ultimi anni fortemente ibridata con l’arte e con la musica digitali, al punto dal rendere obsoleto qualsiasi incasellamento di genere. Insomma, il panorama è molto vasto. E sto parlando delle scritture prodotte più o meno consapevolmente (più o meno compulsivamente), senza tener conto di quelle inconsapevoli: cioè le tracce che tutti noi lasciamo ogni minuto quando visitiamo un sito, apriamo una App sullo smartphone o passiamo la tessera del supermercato. Si tratta delle cosiddette scritture algoritmiche, di cui ho fornito qualche esempio in un capitolo centrale del libro: perché persino la lista dei risultati di Google è un testo persuasivo! Per non parlare della formidabile “macchina dello storytelling” di Facebook, al quale Paolo Sordi ha dedicato un saggio illuminante. I dati che i software raccolgono ed elaborano incessantemente vanno anch’essi considerati, nel loro complesso interagire, come scritture e narrazioni. Ancora di più: sono testi che ci scrivono e ci de-scrivono in forme estremamente precise e circostanziate. Tanto da creare identità più “reali” dei nostri corpi biologici, così poco docili alla determinazione. Persino i software di profilazione usati nel campo della cybersecurity, come il tristemente noto Palantir, altro non fanno se non costruire ipotesi, connessioni, profili, interpretazioni e “storie” su di noi e attraverso noi.

Non posso dunque che ripetere quanto detto già sopra: oggi non è più possibile parlare di testo senza tenere conto sia degli strati di codice che lo generano e lo rendono possibile, sia di come quegli stessi strati sfuggano totalmente al nostro controllo. Per questo nel libro affermo che il codice non è solo un fenomeno tecnico, estetico, semiotico, ecc. ma un fatto politico.

Quale ruolo possono rivestire le competenze umanistiche nell’analisi delle nuove retoriche digitali?
In un certo senso quello che ho detto sin qui risponde alla sua domanda, sebbene enunciando un paradosso: oggi più che mai avremmo bisogno di umanisti digitali, cioè di analisi, interpretazioni e visioni critiche della realtà e digitale; ma oggi più che mai le preoccupazioni epistemologiche degli umanisti (come cambia la conoscenza?) suonano “eticamente antiquate” e dunque vengono spesso ignorate. Eppure, ancor prima di considerare quanto detto sopra a proposito del potere narrativo di Facebook o Google, il computer è prima di tutto una macchina simbolica. E chi dovrebbe occuparsi dei simboli (e delle storie), se non umanisti e scienziati sociali? Ancora un paradosso: le Digital Humanities si espandono in tutto il globo a livello di ricerca e insegnamento, ma soprattutto in Italia manca un progetto formativo coerente e riconoscibile. L’ostacolo è la rigidità del sistema universitario, ma siamo anche noi accademici, arroccati ciascuno nel suo minuscolo feudo disciplinare. Ma così ci condanniamo all’irrilevanza e presto all’estinzione.

Invece abbiamo un bisogno disperato di figure ibride e interdisciplinari, perché i fondamenti di una possibile scienza del documento digitale attraversano e intersecano varie discipline: informatica, linguistica, semiotica, sociologia dei media, biblioteconomia-archivistica, giurisprudenza, filologia, ecc. In questo delicato momento di passaggio di formato delle nostre memorie culturali e sociali, umanisti e scienziati sociali sono chiamati a dare un contributo non solo in veste di fornitori o custodi di contenuti, ma anche come creatori e architetti dei nuovi “formati” della conoscenza.