
Quello di “ambiguità” non può essere un concetto matematico; la matematica è considerata il regno della precisione e della chiarezza, e lo è. Proprio per questo alcuni concetti sono esplicitamente considerati non matematici, per esempio i concetti sfumati: “poco – molto”, “alto – basso”, “freddo – caldo”. Si può dire tuttavia che il concetto di ambiguità ha la sua funzione nella metamatematica, cioè interviene nella riflessione generale, filosofica sulla matematica, o almeno può intervenire, nell’intenzione dell’autore, con la prospettiva adottata nel volume in oggetto.
I concetti matematici sono chiari e precisi solo quando sono definitivamente entrati a far parte dell’arsenale degli strumenti riconosciuti, accompagnati da una definizione rigorosa e operativa, attraverso un sistema di regole e di algoritmi che li coinvolgono, e di rapporti armonici e cooperativi con altri concetti già consolidati. Ma il percorso può essere lungo e travagliato; quando fanno la loro comparsa, quando sono per la prima volta usati per affrontare matematicamente un nuovo problema, spesso e a lungo rimangono abbozzati o confusi, o rifiutati, vuoi per la difficoltà dell’oggetto, vuoi per apparenti contraddizioni con i sistemi usuali, vuoi per l’influenza di diverse concezioni su cosa è la matematica.
Quasi tutti i concetti fondamentali vengono da idee pre-matematiche; per esempio i numeri sono concepiti nella tradizione greca come misure di grandezze. Ma le idee pre-matematiche, necessariamente imprecise, tanto è vero che si cerca di sostituirle con un concetto matematico, continuano a lasciare una traccia in assunzioni connesse alla pratica iniziale, di solito limitata a casi particolari, e molto concreti. Tali assunzioni magari inconsciamente s’infiltrano nel linguaggio; nel caso delle grandezze, ci si porta appresso un’idea di corposità o pienezza, per cui esse e quindi i numeri non possono essere negativi, anche se la tentazione c’è, o meglio è vagamente insinuata dal trascinamento del simbolismo. Risultato: i numeri negativi non sono considerati numeri, fino ben avanti nell’Ottocento, nonostante le regole per manipolare espressioni come m – n fossero perfettamente dominate e applicate nei calcoli, purché il risultato finale fosse positivo (e lo stesso per il numero 0, anche dopo il riconoscimento della sua funzione essenziale per la rappresentazione posizionale dei numeri – ma i cosiddetti numeri di conto incominciano da 1). D’altra parte la pratica aritmetica con i numeri positivi aveva consolidato l’idea che due numeri debbano essere confrontabili rispetto all’ordine, e quindi nel Seicento i numeri immaginari, che non sono né maggiori né minori tra di loro, né rispetto ai numeri reali, non sono numeri.
La storia della matematica è piena di altri esempi, che riguardano significativamente i concetti più importanti: il continuo fu un cruccio fin dal tempo dei Greci, perché il tipo di densità delle frazioni, o numeri razionali, non era adeguato a corrispondere al tipo di densità dei punti geometricamente individuabili sulla retta, detto continuità; non tutte le grandezze erano perciò commensurabili tra loro, o non tutte misurabili con i numeri, la diagonale del quadrato di lato 1 per esempio, contro l’idea pitagorica che tutto è numero. I Greci hanno inventato una nuova tecnica per trattare le grandezze tra loro incommensurabili (poi divenuta obsoleta dopo l’età moderna), ma in alternativa a questa i numeri che garantiscono la continuità dovranno essere concepiti e definiti alla fine dell’Ottocento come enti infiniti (decimali illimitati).
Alla nascita del calcolo infinitesimale, Newton concettualizzava l’idea di derivata, o velocità, parlando di incrementi evanescenti, che tuttavia erano grandezze infinitesime, non misurate da numeri; un infinitesimo dovrebbe essere un numero non nullo ma di valore assoluto minore di qualsiasi numero positivo; accettando numeri infinitesimi, si contraddiceva la proprietà che dati due numeri positivi a e b, moltiplicando a per un numero sufficientemente grande si poteva superare b (proprietà di Archimede).
Le ambiguità da dirimere in quasi tutti i casi rilevanti hanno a che fare con il concetto di infinito, che dai tempi di Zenone in poi ha continuato a essere fonte di grattacapi. Fino a circa 150 anni fa l’infinito non aveva cittadinanza in matematica, se non nella forma dell’infinito potenziale, che è peraltro ambigua: un dominio è potenzialmente infinito quando i suoi elementi sono tutti finiti e tuttavia per ognuno di essi ne esiste uno più grande (in un senso compatibile con la natura degli elementi); è la condizione che vale ed è accettata per i numeri naturali, o per quelle che Euclide chiamava rette (segmenti sempre prolungabili). Ma allora qualcosa di infinito c’è, il concetto di numero, o la sua estensione, altrimenti non si potrebbe usare la parola “numero”, e il simbolo generico n.
Nell’Ottocento per estendere i risultati dell’Analisi a tutte le possibili funzioni si consideravano quelle date da leggi definibili nel modo più generale con formule matematiche qualunque, incluse, da non molto, le serie infinite; si sentiva tuttavia la precarietà della dipendenza da un formalismo che variava e si arricchiva, e che non era garantito arrivasse a stabilizzarsi e a comprendere la totalità delle possibilità future. In alternativa, prendevano piede discorsi dove le funzioni arbitrarie erano intese come quelle non date da alcuna legge, quindi non definite da alcuna formula, ma costituite solo dalle coppie, possibilmente infinite, di argomento-valore. L’alternativa per esprimere la massima generalità o arbitrarietà si manifestava nell’uso indifferente dei concetti di proprietà oppure di insieme, le proprietà considerate dal punto di vista linguistico, gli insiemi in modo più oggettivo. Ma il linguaggio degli insiemi diventava un nuovo linguaggio diverso da quello delle tradizionali formule algebriche e analitiche, e nascerà così la teoria degli insiemi come quadro fondazionale per la matematica tutta. Il concetto di proprietà invece è rimasto ancora ambiguo, o per ora non matematico.
Liberarsi da restrizioni e vincoli del tipo che ha a lungo condizionato l’accettazione di vari sistemi numerici ha costituito un progresso, nel senso di un arricchimento di concetti e metodi; si è accettato che le strutture algebriche possono non essere ordinate, che in alcune (i quaternioni) può fallire la proprietà commutativa della moltiplicazione, o in altre possono esserci meno o più operazioni delle quattro tradizionali aritmetiche; ma soprattutto alla lunga si è imposta la consapevolezza di un metodo generale per introdurre i nuovi concetti: il metodo consiste nell’assumere per la nuova idea le proprietà su cui nessuno può avere a che ridire, e quindi assumere tale sistema di assiomi, purché non contraddittori tra loro, come una definizione adeguata, seppure possibilmente incompleta del concetto. Si sono potute così per esempio considerare strutture non archimedee, cioè contenenti infinitesimi. Con il metodo assiomatico si sono eliminate un buon numero di perplessità, presenti e future, ma non si può dire di tutte (il ricorso esclusivo a tale metodo fa sorgere altri problemi).
L’ambiguità in questo senso è un concetto positivo, si potrebbe dire che è un motore di avanzamento.
Allo stesso tempo una volta determinato assiomaticamente il concetto, si può vedere che non tutto quello che ci si aspetterebbe risulta dimostrabile, e quindi il concetto intuitivo non è matematizzato completamente dalla definizione. Un caso è quello dei concetti di “piccolo” e “grande”; parlando di sottoinsiemi di un insieme infinito, poniamo quello dei numeri naturali, si conviene che l’intersezione di due insiemi piccoli debba essere piccola; che il complemento di un insieme piccolo debba essere grande (cioè non piccolo); che l’insieme vuoto sia piccolo, che l’aggiunta di un elemento a un insieme piccolo lo lasci tale; quindi tutti gli insiemi finiti sono piccoli. Con questi assiomi si è introdotta una struttura di grande utilità, la struttura algebrica di ideale. Ma si dimostra che il concetto di piccolo non è completamente catturato, perché non è vero che dato un sottoinsieme si ha sempre che o l’insieme è piccolo o il suo complemento lo è (o altrimenti, che insieme e complemento possono essere entrambi non piccoli).
Come opera l’ambiguità nelle geometrie non euclidee?
Per le geometrie non euclidee, l’ambiguità consiste se si vuole nel semplice fatto che queste geometrie esistono, accanto a quella euclidea, e quindi non esiste più la geometria. Ma quando qualcuno ebbe il coraggio di pubblicare quelle raccolte di teoremi come teorie alternative (1831-2) il mondo scientifico fu sconvolto. Euclide aveva posto come quinto dei suoi postulati una proposizione poco intuitiva, priva della semplicità delle altre, che tuttavia era necessaria per dimostrare proprietà che apparivano nette ed eleganti: per esempio che la somma degli angoli interni di un triangolo è un angolo piatto, o 180 gradi. Erano proprietà vere nel piccolo mondo a cui si adattava la descrizione geometrica; chiunque misurasse gli angoli di un triangolo trovava quel risultato, a meno di trascurabili variazioni dovute all’operazione di misura. Anche se ancora non si conosceva la distribuzione gaussiana degli errori tutti sapevano che gli scarti da 180 erano dovuti alle caratteristiche degli strumenti di misura; pensare che quella somma dovesse essere minore, o maggiore di 180 non aveva motivo, e di quanto? Il risultato vero doveva essere quello preciso dimostrato in Euclide. Nessuno lo mise in dubbio, anzi i maggiori sforzi furono dedicati a trovare formulazioni più semplici del quinto postulato (per esempio che per un punto al di fuori di una retta passa una e una sola retta parallela a quella data), o addirittura a dimostrarlo in base agli altri. Dopo tanti secoli, la geometria euclidea era il sostegno non solo di ogni pratica artigianale, ma del sistema del mondo proposto da Newton, la vetta più esaltante della conoscenza umana.
Quando János Bolyai e Nicolaj Ivanovič Lobačevskij, entrambi dalla periferia dell’Europa, rispettivamente Ungheria e Tatarstan, Russia, presentarono i loro sistemi alternativi coerenti, cosa si doveva pensare? Che significato avevano nuove geometrie, se non era quello di essere una descrizione precisa del mondo? La logica legava assieme i teoremi e gli assiomi delle nuove geometrie, ma se queste erano accettate come teorie accreditate, che significato aveva in generale questa situazione per la matematica?
Si potevano dedurre le conseguenze di insiemi arbitrari di assiomi e chiamare questo lavoro matematica? Come in un gioco di deduzioni con simboli privi di significato? Che tipo di verità offriva tale licenza a coloro che l’avevano sempre considerata il paradigma della conoscenza certa? Ci si può documentare sullo sconvolgimento seguìto leggendo il romanzo di G. Suri e H. Singh Bal, Una certa ambiguità: romanzo matematico, Ponte alle Grazie, 2008.
L’ironia della vicenda è che le geometrie non euclidee sono diventate uno dei pilastri della teoria della relatività; ora accettiamo che la geometria dell’universo non è euclidea, e i triangoli che disegniamo o misuriamo con strumenti limitati sono solo un prodotto di metodi primitivi, e di scala trascurabile; sulla terra stessa se non si approssima una estensione non troppo ampia con una regione piana, la geometria è quella di una sfera, una delle geometrie non euclidee (la geometria ellittica: se come rette si considerano i cerchi massimi, due meridiani e l’equatore formano triangoli con somma degli angoli maggiore di 180°). Che la Terra fosse sferica si sapeva almeno fin dal VI sec. a. C., certo dai tempi di Eratostene (III sec. a. C.), eppure nessuno concepiva che le rette potessero essere curve. A posteriori, quando le alternative sono mostrate coerenti, le giustificazioni per riconoscere la loro realtà si trovano, e si capisce che finora si sono usati degli occhiali che ora risultano ridicoli. Una lezione anche per il futuro.
Come si presenta l’ambiguità nella logica?
L’ambiguità fondamentale, in grande, nella logica si presenta in un modo molto semplice da dire: non esiste la logica, esistono tante diverse logiche. Questo pare lo sappiano solo i logici di professione, per i quali la logica è di fatto meta-logica, o studio delle logiche; gli altri, per esempio gli stessi matematici, credono che la logica si riduca a qualche regola diretta di inferenza di una proposizione da un’altra o da altre, regole che sono quelle usate abitualmente (e sono considerate “naturali”, o innate; la prova è che anche altri animali sembrano usarle, per esempio la regola che da A e A implica B segue B: “se c’è odore di cibo, c’è cibo vicino”). Questo è vero forse per l’algebra elementare, ma i matematici trattano anche argomenti dove si parla di elementi, funzioni, insiemi, e quindi devono considerare proposizioni concernenti questi enti disparati, e qui insensibilmente si inseriscono forme argomentative che non sono adeguatamente analizzate. Alla logica più diffusa, dove si ragiona su individui, si affianca quella in cui si ragiona anche su insiemi; in questa logica (detta del secondo ordine, che per alcuni è in realtà una contaminazione di logica e insiemistica) si dimostrano teoremi che non solo non si dimostrano con la logica usuale (del primo ordine) ma sono contraddetti da risultati ottenuti con quest’ultima. Ne segue una specie di dialogo tra sordi, o una vera Babele, dove logici e matematici non s’intendono.
A parte la distinzione sopra accennata, l’elenco delle logiche è troppo lungo per poterle descrivere tutte: logica intuizionista, logiche costruttive, logiche per la dimostrazione automatica, logiche a più valori (p. es. vero, falso, indeterminato), logiche modali (della possibilità e necessità), logiche epistemiche (sapere, credere), logiche deontiche (obblighi e divieti).
Un tema che non è trattato nel libro è quello delle logiche fuzzy, con le quali si cerca di standardizzare i ragionamenti che coinvolgono i concetti sfumati; queste logiche si valgono dell’ausilio di strumenti sofisticati che ormai la matematica offre, con la sua libertà creativa, come una varietà di strutture d’ordine parziale, per i valori di verità, anche infiniti, come il continuo dei numeri reali.
Ogni logica si presenta, per essere considerata tale, con due aspetti: uno è un insieme di regole deduttive, l’altro una semantica, vale a dire un modo di interpretare le formule in funzione dell’obiettivo di modellizzazione scelto. Per i rapporti che si stabiliscono tra questi due aspetti, non tutte le logiche rispondono all’ideale di meccanizzazione che propugnava Leibniz con il motto calculemus quando auspicava che per risolvere ogni problema ci si potesse mettere a un tavolo e calcolare. Le regole deduttive devono giustificare il passaggio da un’affermazione a un’altra nello sviluppo di un argomento, o di una dimostrazione. Devono essere tali che ogni affermazione che si deduce sia una verità, nella semantica; possibilmente, ma non sempre succede, che siano dimostrabili tutte le verità.
Queste regole derivano da una irreggimentazione formale di scambi dialogici che si svolgono negli usuali commerci, nella lingua naturale; tuttavia i discorsi presentano una varietà di forme non tutte equivalenti, e appesantite da significati impliciti, che la versione formale deve eliminare, ed elimina, ma spesso continuando a usare il linguaggio naturale nella spiegazione del significato. Il peso delle abitudini linguistiche continua a farsi talvolta sentire e a produrre ambiguità locali; le più semplici dovute alla polisemia sono risolte dal contesto, per esempio quella della disgiunzione “o” che può essere inclusiva o esclusiva; altre sono più ostiche, in particolare quella dell’implicazione “se A allora B”, nel caso A sia falsa.
Come si presenta l’ambiguità nel gioco degli scacchi?
Negli scacchi l’ambiguità si manifesta a due livelli, uno intrinseco e uno relativo ai giocatori. Il gioco degli scacchi è nella scomoda e ambigua posizione di essere da una parte considerato una caricatura della matematica, dall’altra essere preso come pietra di paragone per valutare l’intelligenza umana e, se così si può dire, quella delle macchine. I filosofi che vogliono contestare l’idea che la matematica si riduca a puro formalismo, denunciano in modo spregiativo la conseguenza che in tale visione la matematica si ridurrebbe a un gioco, come quello degli scacchi. L’Intelligenza Artificiale ha usato questo gioco (e altri come Go) come banco di prova per ottenere programmi intelligenti.
Nel gioco si manifestano sia una facoltà analitica sia una percezione globale, la sensibilità per la distribuzione più o meno favorevole dei pezzi sulla scacchiera. Già nei primi programmi per giocare a scacchi, scritti da Alan Turing durante la seconda guerra mondiale, una macchina decideva la scelta della prossima mossa secondo il criterio minimax: la meno peggiore, ovvero quella alla quale l’opponente è costretto a scegliere la meno vantaggiosa per lui. Alla decisione si arriva esplorando l’albero delle mosse future a una profondità fissata e assegnando punteggi di valutazione ai nodi delle configurazioni raggiunte, per tornare indietro valutando i nodi intermedi fino al punto di partenza. Con i mezzi allora disponibili l’esplorazione era fattibile solo per tre mosse.
Il risultato erano programmi che giocavano male, perché erano modellati sul modo di giocare di Turing stesso, che era un giocatore scarso. I grandi giocatori non basano il loro gioco su una ricerca nello spazio delle mosse in avanti ma su una valutazione qualitativa delle configurazioni che si presentano sulla scacchiera. Casablanca alla domanda quante mosse in avanti considerasse rispondeva “Una sola, la migliore”.
Tuttavia le cose da questo punto di vista non sono molto cambiate; per esaminare criticamente otto mosse in avanti occorrerebbe considerare un numero di possibili proseguimenti maggiore del numero di stelle della galassia. Nella guerra degli scacchi dell’Intelligenza Artificiale contro i Grandi Maestri umani, si è aggiunta, con l’accresciuta potenza delle macchine, la possibilità di memorizzare l’intero archivio storico delle partite; la strategia basata sulla forza bruta non solo interna alle mosse di una partita, ma con l’accesso immediato al patrimonio di tutti gli scontri storici, è allora diventata vincente, ha portato l’IBM con Deep Blue a battere per la prima volta un campione del mondo, Garri Kasparov nel 1997, dopo che la versione precedente aveva perso l’anno prima.
Le previsioni nere susseguenti all’esito dello scontro Deep Blue-Kasparov, sulle conseguenze del risultato per l’attrattiva del gioco, non si sono realizzate. Ma il modo di giocare sta cambiando, per l’influsso del progresso tecnologico, che permette ora di avere sulla scrivania un pc che è meglio di un grande maestro; non c’è più bisogno di passare anni a memorizzare le aperture; le memorie sono in grado di contenere milioni di partite e i programmi capaci di bloccare sul momento un mossa infelice, e personalizzabili secondo le esigenze di chi li usa.
L’altra manifestazione dell’ambiguità degli scacchi è rivelata dagli effetti della passione per il gioco competitivo sui giocatori che ne diventano totalmente dipendenti. Il giocatore di scacchi assomiglia allo stereotipo del matematico autistico che si dedica in modo totale ed esclusivo alle sue ricerche: stesse nevrosi, stessi drammi. La letteratura ha sfruttato tale condizione psicologica con alcuni capolavori, come la Novella degli scacchi (1942) di Stephan Zweig, Garzanti, 1982 e La difesa di Luzin (1930) di Vladimir Nabokov, Adelphi, 2001. Un forte interesse è manifestato anche da Paolo Maurensig, con La variante di Lüneberg, Adelphi, 1993, L’arcangelo degli scacchi, Mondadori, 2013, Teoria delle ombre, Adelphi, 2015.
Che funzione riveste l’ambiguità nella letteratura?
L’ambiguità è un elemento fondamentale costitutivo della letteratura, sia come oggetto d’indagine, sia come fonte di valore artistico. Si potrebbe dire che la ragion d’essere della letteratura è la rappresentazione dell’ambiguità. L’attenzione attuale a questo argomento risale a William Empson e ai suoi Sette tipi di ambiguità (1930, 19472), Einaudi, 1965, che, in riferimento alla poesia inglese, ne ha mostrato l’effetto estetico per la creazione letteraria; egli definisce l’ambiguità come “una qualunque sfumatura verbale, per quanto leggera, che apre la strada a reazioni alternative a uno stesso segmento di linguaggio”, e ha affermato a chiare lettere che “gli intrighi e le trame dell’ambiguità sono alcune delle autentiche radici della poesia”.
I personaggi ambigui dei romanzi sono quelli che maggiormente attirano l’interesse dei lettori per lo scavo psicologico che permettono e richiedono; le trame che li coinvolgono sono quelle che più tengono legati i lettori e più corrispondono alla vita reale, o alla sua trasfigurazione letteraria (sono un ingrediente essenziale nella letteratura poliziesca o nel noir, ma non solo). Alle origini del romanzo moderno troviamo i romanzi gotici svolti intorno a personaggi misteriosi, ma anche Don Chisciotte è un eroe ambiguo, tra innocenza candida e follia furiosa. Se la letteratura deve essere una riflessione sulla vita, non può che fare i conti con l’ambiguità della stessa. Persino il romanzo realista non fotografa mai la realtà, se non vuole ridursi a un resoconto giornalistico, ma racconta pensieri e aspirazioni dei personaggi che configurano un modello di un’altra realtà alternativa, secondo la visione dell’autore. Si direbbe impossibile fare una classificazione di tutte le varianti e le prospettive sotto cui l’ambiguità è presente nella letteratura. Una delle più frequenti è il tema del doppio, costante nella produzione di ogni epoca, e il doppio rappresenta un’ambiguità dell’identità, o dei personaggi o degli autori. Possiamo ricordare Lo strano caso del Dr. Jekyll e di Mr. Hyde (1886) di Robert Louis Stevenson, gli eteronimi di Fernando Pessoa o di Jorge Luis Borges, o tra i contemporanei José Saramago con L’uomo duplicato (2002), Einaudi 2003, Philip Roth con l’alter ego Nathan Zuckermann protagonista di diversi romanzi, da The Ghost Writer a Exit Ghost, o l’impostore di Operation Shylock.
Nel mio libro ho approfondito la forma di ambiguità quasi inevitabile che s’insinua nel rapporto tra la biografia dell’autore e le vicende del protagonista o dei vari personaggi. L’opzione autobiografica è una tentazione per lo scrittore, e forse è ineludibile anche se involontaria, perché l’esperienza vissuta è una fonte primaria di ispirazione; nello stesso tempo è inevitabilmente non veridica, perché le storie sono per forza modificate; e in ogni caso la veridicità è minacciata dall’interpretazione. Le storie sono deformate, non necessariamente per occultare, ma per il sopravvento indispensabile della fantasia. Lalla Romano, in L’eterno presente, Einaudi, 1998, ha affermato: “Si crede che fantasia significhi invenzione, memoria invece testimonianza. Ma per uno scrittore memoria e fantasia sono la stessa cosa. La nostra memoria è la prima facoltà che trasfigura i ricordi e la fantasia è quella che permette di dar loro vita con le parole […]. Credo che ognuno possa inventare storie soltanto se le ha già vissute come se fossero, appunto, d’invenzione, di fantasia”.
Aharon Appelfeld (Il partigiano Edmond (2012), Guanda 2017) ha detto che la realtà è inspiegabile se non la si racconta; il linguista Gian Luigi Beccaria ha osservato acutamente: “la vita e le sue storie sono materiali di per sé inerti, senza tensione […]. Occorre riempire di senso il fluire casuale e irrisolto della vita”.
Le citazioni in tal senso si potrebbero moltiplicare.
Secondo Empson le ambiguità di tipo più forte, del settimo tipo, si hanno quando “due significati determinati dal contesto sono opposti e l’effetto è di mostrare una fondamentale divisione nella mente dell’autore”. Di questa divisione nella mente dell’autore forniscono un esempio le storie degli antenati di Italo Calvino. Al momento della raccolta in un unico volume, nel 1960, della trilogia, Calvino ha riassunto il senso complessivo dei racconti nella presentazione di “esperienze sul come realizzarsi esseri umani” con la tensione verso varie forme di completezza. A proposito del Visconte dimezzato Calvino ha spiegato che voleva presentare l’uomo contemporaneo “dimidiato, mutilato, incompleto […] alienato”, ed esprimere l’aspirazione a una nuova completezza. A opera compiuta tuttavia Calvino si è reso conto che “[Medardo] è riuscito a manifestare una fondamentale ambiguità, corrispondente a qualcosa di non ancora ben chiarito nella mente dell’autore. Il mio intento era combattere tutti i dimidiamenti dell’uomo, auspicare l’uomo totale”; ma Medardo pur essendo il personaggio principale non è ben caratterizzato fin dall’inizio, e alla fine scompare. Invece “[le due metà] risultavano più umane, muovevano un rapporto contraddittorio, la metà cattiva, così infelice, di pietà, e la metà buona, così compunta, di sarcasmo, e ad entrambe facevo declamare un elogio del dimidiamento come vero modo di essere, dagli opposti punti di vista, e un’invettiva contro l’‘ottusa interezza’”.
Il linguaggio è necessariamente condannato all’ambiguità?
Sì, il linguaggio è necessariamente condannato all’ambiguità perché si forma per una accumulo e sovrapposizione di metafore. Lo ha notato un acuto scrittore e filosofo prima che iniziassero gli studi specialistici sul linguaggio: “Il linguaggio è considerato il vestito del pensiero; sarebbe meglio dire che il linguaggio è il vestito carnale, il corpo, del pensiero. L’immaginazione ha tessuto questo vestito, e le metafore sono il suo materiale. Esaminiamo il linguaggio: se si fa eccezione per alcuni elementi primitivi di suoni naturali, tutto il resto sono metafore, riconosciute come tali, oppure non più riconosciute; ancora fluide e floride, oppure solidificate e senza colori. Se quegli elementi primitivi sono la struttura ossea del vestito carnale, allora le metafore sono i suoi muscoli e tessuti e rivestimenti vivi. Inutile cercare uno stile non metaforico”, Thomas Carlyle, Sartor Resartus (1833).
Bisogna distinguere tuttavia le ambiguità di tipo lessicale o grammaticale, che si risolvono facilmente dal contesto e sono innocue. Un esempio ripreso da Beccaria è la frase “la ragazza fu condotta dal padre”; può significare che il padre conduce la ragazza da qualche parte, oppure che la ragazza viene accompagnata, da qualcuno, in presenza del padre. Nel contesto più ampio in cui compare, si capisce cosa si intende. Le ambiguità più interessanti sono quelle che dipendono dal senso, e possono essere sia fonte di gradimento estetico sia al contrario di turbamento; vale il discorso fatto in generale per la letteratura.
Il linguaggio matematico non è necessariamente condannato all’ambiguità, anzi è in grado di liberarsene, a meno che invece di essere usato rispettando le regole precise che lo definiscono sia mescolato con il linguaggio naturale che continua ad esercitare l’influenza delle sue metafore. Il linguaggio matematico, con le sue regole, si forma infatti attraverso metafore, e a un livello più avanzato metafore di metafore. Il linguaggio degli insiemi si forma con la metafora dei contenitori. Le regole per i numeri relativi si giustificano con la metafora dei crediti e dei debiti. Diverse metafore si sovrappongono talvolta in uno stesso concetto, non sempre senza inconvenienti: l’addizione è unione insiemistica, ma anche iterazione dell’aggiunta di un elemento, o concatenazione di segmenti.
Questa ricchezza può essere fonte di ambiguità. Se addizionare significa aggiungere, sottrarre significa togliere; ma quando si tolgono elementi a un insieme, se si arriva all’insieme vuoto non c’è più nulla da togliere; non si può giustificare la sottrazione con la metafora dei contenitori, mentre lo si può con il movimento in avanti e indietro; non tutte le metafore sono utilizzabili per tutte le spiegazioni.