“L’architetto e l’oracolo. Forme digitali del sapere da Wikipedia a ChatGPT” di Gino Roncaglia

Prof. Gino Roncaglia, Lei è autore del libro L’architetto e l’oracolo. Forme digitali del sapere da Wikipedia a ChatGPT, edito da Laterza: in che modo la rivoluzione rappresentata dall’intelligenza artificiale generativa si colloca nel contesto di quello che è stato, da millenni, un sogno dell’umanità, organizzare cioè il sapere in modo da poterlo trasmettere, recuperare, utilizzare, accrescere nelle forme di volta in volta più funzionali rispetto ai nostri molteplici e diversi obiettivi?
L'architetto e l'oracolo. Forme digitali del sapere da Wikipedia a ChatGPT, Gino RoncagliaDall’invenzione della scrittura in poi, e quindi almeno da 5.000 anni, la trasmissione nel tempo e nello spazio delle nostre conoscenze è affidata soprattutto ai testi scritti. Man mano che le nostre conoscenze diventavano più articolate e complesse, i testi che le conservavano e le trasmettevano sono a loro volta diventati più strutturati, e l’organizzazione del sapere – sia interna a un testo, sia in collezioni e raccolte – è diventata un tema essenziale per la crescita delle società umane. Una organizzazione che unisce fin dall’inizio due modelli diversi: quello architettonico-sistematico, che trova la sua espressione più chiara nelle enciclopedie e nell’idea di organizzazione enciclopedica ma che è testimoniato anche dai sistemi di classificazione e catalogazione bibliotecaria, e quello che potremmo definire organico e autopoietico, che vede indirizzi di sviluppo e di crescita non sempre prevedibili e classificabili, a volte imprevisti e sorprendenti.

L’intelligenza artificiale è nata in collegamento abbastanza stretto con gli sviluppi della logica novecentesca, dall’idea – a sua volta ben radicata in una lunga tradizione filosofica – di poter ricostruire algoritmicamente, e di poter riprodurre attraverso sistemi informatici, un sistema sostanzialmente deterministico di ‘regole’ del ragionamento, manifestate in primo luogo attraverso l’uso del linguaggio. In altri termini, l’intelligenza artificiale è nata da un paradigma architettonico-linguistico. Le stesse reti neurali sono nate – ancor prima dell’intelligenza artificiale classica – da questo paradigma, e inizialmente consideravano il neurone come una sorta di dispositivo di computazione logica. Ben presto, però, le reti neurali hanno preso una strada diversa, assai più vicina a un modello organicista: per un verso, l’attivazione dei singoli neuroni è stata vista come il risultato di una funzione probabilistica e non deterministica, per altro verso la rete neurale si è arricchita di strati ‘profondi’ i cui stati e le cui modificazioni sono di regola opachi anche per chi la programma e la gestisce. Il risultato sono sistemi che assomigliano molto più a oracoli statistico-probabilistici, dalle capacità e dalle risposte a volte inattese, che a strutture architettonicamente chiare e definite, capaci di produrre contenuti in maniera deterministica. Il libro presenta – cercando di essere il più possibile chiaro e comprensibile – la storia e le relazioni fra questi due modelli, spiegando in che modo hanno portato ad alcuni fra gli strumenti di rete più noti e conosciuti (da Wikipedia a ChatGPT) e proponendo alcune riflessioni sui loro possibili sviluppi futuri.

Come si è evoluto l’enciclopedismo digitale?
L’evoluzione non è stata sempre lineare: la fase iniziale è legata ai primissimi sistemi di rete, quando le informazioni scambiate erano prevalentemente testuali, ma ben presto le enciclopedie su CD-ROM, destinate alla fruizione off-line su home e personal computer, hanno conquistato un pubblico assai vasto, offrendo la possibilità di includere contenuti multimediali che era ancora difficile scambiare via rete. Si è tornati alla rete con la diffusione di Internet, prima attraverso enciclopedie ibride (in parte su CD-ROM e in parte in rete), poi con l’esplosione di Wikipedia. È uno sviluppo pieno di risvolti interessanti e curiosi – dalla guerra fra l’Enciclopedia Britannica e Microsoft Encarta a quella, successiva, fra la stessa Encarta e Wikipedia – e che continua ancor oggi, con il collegamento fra Wikipedia e gli assistenti vocali come Google Assistant, Siri o Amazon Alexa. Ancor più interessante è cercare di capire come si sia sviluppato l’ideale di organizzazione delle conoscenze che è alle spalle di questi sistemi: da una enciclopedia basata su un canone abbastanza ristretto di conoscenze considerate di particolare valore, a un modello che include un insieme di informazioni assai più largo (pensiamo, ad esempio, all’attenzione dedicata da Wikipedia a contenuti che difficilmente troverebbero posto in una enciclopedia tradizionale, come le serie televisive). Non sfuggirà il fatto che ad essere in gioco è in questo caso anche il tema del rapporto fra informazioni e conoscenze. Ma c’è un ulteriore elemento da sottolineare: nei suoi sviluppi più recenti, l’enciclopedismo non è più solo raccolta organizzata di conoscenze o di informazioni, una sorta di grande database, ma anche produzione di contenuti almeno in parte nuovi, creati al momento della richiesta dell’utente. Qui il modello architettonico si incontra con quello organico, e può portare a sviluppi in parte imprevedibili, per un verso assai interessanti, per altro verso a volte anche inquietanti.

Quali sono i più diffusi modelli di organizzazione complessa delle conoscenze e quali le conseguenze rispetto alla costruzione – e alla natura stessa – dell’edificio del sapere?
Come si è detto, il libro si concentra sul modello architettonico-sistematico da un lato, e su quello organico- probabilistico dall’altro. Nel primo caso, due esempi di particolare interesse sono le enciclopedie e le biblioteche, nel secondo caso l’esempio principale sono oggi le reti neurali alla base dei sistemi di intelligenza artificiale generativa. Va ricordato che il secondo modello non si limita a produrre testi: può anche produrre immagini e musica, due tipologie di contenuti che consideriamo da sempre come legati più alla sfera emozionale che a quella strettamente razionale. Mentre, almeno per ora, ha più difficoltà con la sfera strettamente logico-matematica. Può però produrre anche programmi informatici, o indicazioni per la sintesi di proteine: non è affatto detto che gli oracoli probabilistici siano incompatibili con la sfera di conoscenze e competenze tradizionalmente collegate alle scienze ‘hard’.

Le conseguenze di queste capacità – che, ripeto, erano in parte inattese per le stesse persone che hanno lavorato alla produzione e realizzazione dei nuovi sistemi di intelligenza artificiale generativa – sono notevolissime: per molto tempo abbiamo considerato l’edificio del sapere come un prodotto dell’intelligenza e della creatività umana. Oggi ci troviamo di fronte a sistemi che sembrerebbero capaci di affiancarci, e in alcuni casi addirittura di sostituirci, nella produzione di informazioni e conoscenze, e questo anche in campi che avremmo considerato appannaggio esclusivo della nostra creatività. Una situazione che ci porta a ripensare non solo i possibili sviluppi futuri nelle modalità di accrescimento delle nostre conoscenze e competenze, ma anche la natura stessa del processo di produzione di contenuti e di idee originali da parte della mente umana.

Il cosiddetto modello organico ha il suo esempio paradigmatico nelle reti neurali, che hanno oggi portato all’impetuoso sviluppo delle intelligenze artificiali generative come ChatGPT: perché lo si può definire un modello ‘oracolare-probabilistico’?
Per capirlo meglio, dobbiamo avere qualche informazione in più su come funzionano questi sistemi: purtroppo, molto spesso se ne parla avendoli magari provati, ma senza avere veramente capito come lavorano. Una spiegazione completa è ovviamente impossibile nello spazio ristretto di una intervista, ma nel libro ho cercato di approfondire proprio questo aspetto: sono convinto che sia possibile capire almeno alcuni principi generali del funzionamento di un sistema di intelligenza artificiale generativa anche senza essere necessariamente specializzati in ingegneria informatica. In linea generale, comunque, questi sistemi vengono addestrati su un corpus assai ampio di esempi, che però non vengono ‘copiati’ ma usati per costruire modelli. Così, ad esempio, ChatGPT non funziona come un grande database di testi e informazioni da cui ricavare risposte, ed è dunque assai diverso da un motore di ricerca: costruisce invece un modello di come usiamo il linguaggio, partendo da costituenti assai semplici, i ‘token’, che sono singole parole e a volte addirittura parti di singole parole. Per ogni token il sistema costruisce una grande matrice numerica, in cui ogni valore corrisponde a un qualche aspetto dell’uso (sintattico o semantico) del token stesso e alle sue relazioni con altri token. Questa matrice fornisce quello che in termini tecnici è chiamato ‘embedding’ del token: una rappresentazione numerica del suo uso del linguaggio. Partendo da questo enorme modello linguistico, il sistema analizza il ‘prompt’ (l’input, spesso una domanda) dell’utente, e prova a ‘prevedere’, un token dopo l’altro, una risposta adeguata. Si tratta dunque di un lavoro di predizione statistico-probabilistica che produce contenuti nuovi, originali anche se fortemente influenzati da natura e composizione del corpus di addestramento.

Quali sono i possibili sviluppi futuri per la conoscenza digitale?
È molto difficile prevederlo, ed è abbastanza impressionante vedere come le stesse persone che lavorano in questo campo abbiamo idee spesso assolutamente diverse, se non opposte, sulla natura della rivoluzione in corso e sui suoi possibili sviluppi futuri. Nella seconda parte del libro provo ad affrontare due ambiti specifici, che credo possano aiutare a farsi un’idea – almeno parziale – della direzione (o delle direzioni) verso cui ci sitiamo muovendo. Il primo è il campo dei ricordi e delle memorie personali. Molta parte della nostra identità, personale e collettiva, è affidata alla memoria. Con la scrittura abbiamo imparato a ‘esternalizzare’ almeno in parte la memoria, ad appoggiarla anche su supporti esterni al nostro cervello. E con lo sviluppo del digitale le nostre memorie ‘esternalizzate’ sono esplose: fotografie e video fatti con il cellulare, il tracciamento continuo dei nostri spostamenti, gli archivi dei nostri dati personali, documentano la nostra storia personale con un dettaglio assai maggiore rispetto al passato; tanto da costruire – hanno osservato studiosi come Derrick De Kerckhove – una sorta di nostro ‘gemello digitale’ fatto esclusivamente di informazioni. Cosa succede quando il lavoro nel campo dell’intelligenza artificiale generativa incontra questi sterminati archivi di dati personali? È un campo affascinante, per certi versi sicuramente anche inquietante o preoccupante, ed è – credo – un buon banco di prova per cercare di capire almeno alcune delle conseguenze della rivoluzione che stiamo vivendo. Il secondo ambito su cui mi soffermo è quasi obbligato, alla luce delle considerazioni fatte finora, ed è quello della fantascienza. La fantascienza rappresenta di norma assai più una riflessione speculativa sul presente, pur se condotta con la libertà di movimento e immaginazione offerta dalla narrativa, che un tentativo di prevedere il futuro. Ma proprio questa sua natura ‘speculativa’ può forse aiutarci a capire alcune tendenze in atto, e a farlo in forme meno ingessate e più creative.

Gino Roncaglia insegna all’Università Roma Tre, dove è titolare dei corsi di Editoria digitale, Informatica umanistica e Filosofia dell’informazione. Fra i più noti esperti italiani nel campo delle culture digitali e di rete, collabora con RAI Cultura nella realizzazione di trasmissioni televisive dedicate al rapporto fra cultura e nuovi media. È coautore de Il mondo digitale (con Fabio Ciotti, 2000) e autore di La quarta rivoluzione. Sei lezioni sul futuro del libro (2010) e L’età della frammentazione. Cultura del libro e scuola digitale (2018), tutti editi da Laterza.

ISCRIVITI ALLA NEWSLETTER
Non perderti le novità!
Mi iscrivo
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link