“I misteri del linguaggio” di Enrico Cipriani

Dott. Enrico Cipriani, Lei è autore del libro I misteri del linguaggio, edito da Mimesis: da dove viene il linguaggio?
I misteri del linguaggio, Enrico CiprianiIl problema di capire “da dove viene il linguaggio” è uno dei problemi più seri per chi si occupa di indagare scientificamente il linguaggio; forse, addirittura, è il problema. Il fatto è che capire l’origine del linguaggio è possibile solo una volta che si dispone di una teoria adeguata che spieghi cosa è il linguaggio; e già questo è complesso. Infatti, la teoria che usiamo per spiegare la struttura e il funzionamento del linguaggio va ad influenzare, necessariamente, la teoria con cui spieghiamo la sua origine.

Se guardiamo agli studi attuali, il linguaggio può essere spiegato come il risultato di alcuni meccanismi della mente; esso, cioè, non è appreso in senso stretto ma sorge spontaneo una volta che gli esseri umani vengono posti a contatto con una comunità linguistica. Ci sono alcuni (i chomskiani duri, potremmo chiamarli) che pensano che il linguaggio sia il risultato dell’attivazione di una procedura sintattica innata e che tale procedura sia linguaggio-specifica (tale procedura è stata chiamata fusione). Un tempo, cioè fino a circa vent’anni fa, i chomskiani assumevano che la procedura sintattica fosse linguaggio-specifica, cioè fosse “contenuta” in un organo mentale chiamato facoltà di linguaggio; poi, la loro posizione è diventata più moderata e si ha sostenuto, con argomentazioni più o meno valide, che la procedura “fusione” soggiace sia alla competenza linguistica che a quella matematica (essa è, di fatto, quella procedura che consente la generazione numerica) e che tale procedura funziona seguendo un criterio di ottimalità, cioè di massima efficienza computazionale. In questa prospettiva più recente – e a mio modesto avviso molto più sensata delle precedenti – il linguaggio viene visto come il risultato della procedura “fusione” operante su un insieme di item lessicali che sono associati a specifiche “funzioni grammaticali” o “indici”. Anche le procedure interpretative a livello sintattico-semantico (p.e., la procedura che interpreta il coriferimento fra anafore e pronomi) e quelle che interpretano le relazioni strutturali all’interno dell’enunciato (p.e., le relazioni di quantificazione) sono guidate da un principio di massima semplicità. Il linguaggio, dunque, non è appreso in senso stretto: l’essere umano attiva, nella sua mente, “fusione”. Individuare in “fusione” il meccanismo mentale che soggiace al linguaggio sembra ragionevole (che poi, a ben vedere, “fusione” è una manifestazione di un principio più generale, quello dell’induzione).

Se si assume la prospettiva appena delineata, il problema dell’origine del linguaggio può essere posto domandandosi quale delle teorie evoluzionistiche disponibili meglio si accorda con tale prospettiva; cioè: quando e perché è nata “fusione”? I dati per rispondere sono pochi. La datazione dei primi reperti scritti certamente non corrisponde alla datazione delle prime manifestazioni del linguaggio, che sono state ovviamente orali. E i dubbi sono numerosi. Per esempio: la procedura ricorsiva che soggiace al linguaggio fu usata fin da subito per creare e interpretare enunciati (per elaborare il linguaggio, appunto) oppure la sua funzione, inizialmente, era diversa? Ha senso dire che il linguaggio è nato per comunicare oppure esso ha assolto a tale funzione solo in un secondo momento? Domande complesse, anche solo da formulare. Inoltre, può “fusione” – che è una procedura il più semplice possibile (cioè, non può essere ulteriormente semplificata) – essere considerata come il risultato di un’evoluzione? Se lo fosse, allora dovrebbe essere “scomponibile” in sottomeccanismi più elementari, ma non sembra possibile. Forse, questa è la sola certezza che abbiamo. Naturalmente, le risposte che si danno a queste – e altre domande – influenza la prospettiva che si adotta per spiegare la nascita e l’evoluzione del linguaggio (il neodarwinismo, la teoria del caso e delle necessità, o altre). Il discorso è complesso. Nel libro cerco, per quanto possibile, se non altro di delineare il problema (sarebbe troppo ambizioso proporre soluzioni).

Quale importanza riveste la teoria della grammatica generativa?
Con l’espressione “grammatica generativa” si può fare riferimento sia alla grammatica trasformazionale ideata da Noam Chomsky (professore al MIT di Boston e ora all’UCLA di Los Angeles) e alle sue successive modificazioni, sia alla teoria scientifico-filosofica che Chomsky, a partire dalla formulazione di tale grammatica, ha sostenuto. Con l’espressione “grammatica” i linguisti fanno riferimento non alla grammatica come la intende il senso comune (quella, per capirsi, che si impara a scuola) ma a un insieme di regole (algoritmi) che consentono di generate tutti e soltanto gli enunciati (le frasi) ben formate di una lingua. La grammatica formulata da Chomsky si basa su un insieme di algoritmi che sono in grado – Chomsky dice (e qui sta la novità della teoria chomskiana) – di generare a di interpretare correttamente non solo gli enunciati di una data lingua ma le strutture grammaticali di tutte le lingue. In particolare, secondo Chomsky il modello di grammatica da lui ideato – che poi nel corso dei decenni è stato continuamente modificato e semplificato – consente di scoprire i principi sintattici che veicolano la generazione linguistica negli esseri umani e l’interpretazione sintattica. La grammatica sarebbe dunque uno strumento per scoprire le basi mentali del linguaggio. Chomsky, infatti, assume che il linguaggio non è appreso come si apprende ad andare in bicicletta o come si impara a giocare a un gioco, ma invece esso si sviluppa quando i principi mentali si attivano (questi principi sono stati chiamati Grammatica Universale, GU). La GU ha ricevuto varie formulazioni e interpretazioni nel corso dei decenni, ma l’idea di base è rimasta la stessa; oggi, essa viene identificata con la procedura di fusione che assembla due entrate lessicali alla volta (binaria) in modo ricorsivo al fine di generare strutture (sintattiche) gerarchiche; e si assume anche che il funzionamento del meccanismo “fusione” (“merge”, in inglese) sia guidato da un principio di efficienza computazionale che si manifesta nelle condizioni imposte dall’interfaccia semantica cui vengono mappate le strutture sintattiche per essere interpretate.

Se mi si chiede quale importanza riviste la teoria della grammatica generativa nello studio del linguaggio, la risposta è: la sua importanza è enorme, e non solo nell’indagine naturalistico-filosofica sul linguaggio, ma anche per la scienza in generale (p.e., è un contributo importante alle scienze cognitive e trova applicazioni anche nell’intelligenza artificiale). Se mi si chiede se la teoria è corretta, rispondo di non saperlo. Sin dalla sua formulazione, essa ricevette molte critiche, fra cui due che minavano i presupposti teorico-epistemologici della teoria: perché il linguaggio non può essere visto come un fenomeno mentale paragonabile agli altri, cioè spiegabile ricorrendo ai principi generali del ragionamento e dell’intelligenza umana? Perché assumere che esistano alcuni principi linguaggio-specifici? E poi: come facciamo a stabilire che le regole (gli algoritmi) coi quali descriviamo, per esempio, l’interpretazione anaforica o la generazione sintattica descrivono effettivamente ciò che gli esseri umani “hanno nella testa”? Cosa significa dire – come fanno Chomsky e i sostenitori della sua teoria – che tali principi “rappresentano” ciò che avviene nella mente o nel cervello? Queste critiche, ovviamente, minano le basi della teoria di Chomsky; sono obiezioni, diciamo, filosofiche, non empiriche. È legittimo farle proprie; ma, se lo si fa, allora non si può seguire la teoria chomskiana. Personalmente, penso che la prima obiezione sia corretta e che il lavoro dello stesso Chomsky – e dei linguisti che seguono la sua metodologia di analisi – porti alla conclusione suggerita dalla domanda: il linguaggio, proprio perché fa uso di “fusione”, funziona per induzione, cioè è una manifestazione di un principio generale dell’intelligenza umana, quello induttivo appunto. Chomsky non lo ha mai detto esplicitamente; ma è difficile, secondo me, vederla diversamente. Per quanto riguarda il problema di capire come i principi della GU rappresentano ciò che avviene nella testa, mi pare che il problema sia mal posto: i fisici non si domandano in che senso le formule della fisica rappresentano la caduta dei gravi o il movimento dei pianeti (che poi, questa è la risposta dello stesso Chomsky, per quel che ne so). A prescindere da tutte queste considerazioni, penso che il lavoro di Chomsky, oggi novantenne, sia fondamentale non solo per la teoria della GU ma soprattutto per l’impostazione e la metodologia di analisi che egli ha proposto: egli ha ideato e diffuso un nuovo approccio allo studio del linguaggio, e di ciò bisogna dargli merito, anche se non si è d’accordo con le specifiche conclusioni cui è giunto.

Fin dove può giungere la competenza linguistica delle intelligenze artificiali?
Questa è una domanda particolarmente attuale, visto che spesso vengono pubblicizzate IA in grado di dialogare con gli esseri umani; IA che poi si dimostrano – è accaduto anche recentemente – fallimentari in questo senso, o comunque non all’altezza delle aspettative, visto che non sono in grado di simulare in modo adeguato la conversazione umana (anche se possono rispondere a domande e in un certo senso dialogare). Perché è difficile “costruire” un’IA che si comporta, a livello di elaborazione del linguaggio, come gli esseri umani? La risposta è molto complessa. Provo a riassumere.

Una IA è un programma, cioè un insieme di algoritmi. Gli algoritmi delle IA possono consentire alla macchina di generare strutture sintattiche corrette (e dunque enunciati grammaticalmente accettabili) e possono consentire alla macchine di interpretare gli enunciati, se con “interpretazione” intendiamo “elaborazione della struttura logica della frase” (p.e., una IA sa che l’enunciato “ogni uomo ama una donna” può significare che c’è una sola donna che ogni uomo ama o che per ogni uomo c’è una donna diversa amata da quell’uomo o ancora che “Gianni mangia carne o pesce” corrisponde a una certa forma logica disgiuntiva, con intensioni, quantificazioni e una costante per il nome proprio). Per quanto riguarda la parte fonetica, la IA la può tranquillamente elaborare. Cosa non può elaborare? Ebbene, in primo luogo, i significati lessicali, perlomeno nella loro dimensione referenziale. Per capirsi: un programma può fornire la definizione in stile vocabolario di qualsiasi parola dell’italiano (perché tale definizione viene memorizzata, come se la macchina mandasse a memoria un vocabolario); ma non può individuare, anche se è dotata di sistema visivo, gli oggetti che corrispondono alle parole che computa. Inoltre – e questo è il punto più rilevante per rispondere alla domanda – la macchina non può calcolare i significati impliciti che invece vengono calcolati dagli esseri umani. Per esempio, se io dico, a un mio amico che mi chiede come va, “benissimo: ieri mi si è rotta la macchina” e pronuncio questa frase con un certo tono, il mio amico capisce subito che voglio dire che sono infastidito, per usare un eufemismo, da ciò che è successo alla macchina; una macchina, invece, non è in grado di cogliere il significato implicito. Oppure, Paolo dice a Mario che gli dispiace che Maria non abbia più avuto un ragazzo dopo essersi lasciata con Luigi; Mario risponde che Maria va in città tutti i fine settimana. Inferenza? Maria ha un compagno che va a trovare tutti i fine settimana. Paolo capisce subito cosa Mario intende; la macchina no (l’esempio è discusso nel mio libro). Perché? Perché la macchina non è in grado di elaborare tutte le informazioni extralinguistiche e non rappresentabili con inferenze semantiche (un’inferenza è una formula del tipo “se x allora q”) (le informazioni di background, le regole sociali che guidano la conversazione, ecc.) che gli esseri umani sono in grado di elaborare.

Ripeto: le macchine non possono usare il linguaggio come lo usano gli esseri umani; ma ciò non significa che non possano in alcun modo usarlo. Dati certi input, le macchine possono fornire determinati output sulla base di specifiche istruzioni. Per esempio, una macchina può dirvi che ore sono o, se le chiedete come sta, può fornivi varie risposte memorizzate; ma non è creativa, ovviamente; o, se lo è, lo è limitatamente alle informazioni e alle istruzioni che le sono state implementate.

Cosa significa “significare”?
Inteso nel suo senso generale, “significare” significa qualcosa come “rimandare a qualcosa d’altro”. Per esempio, quando diciamo che un certo segnale stradale significa che non si può parcheggiare lungo quel tratto di strada, noi diciamo che quel segno rimanda a un certo concetto (o a un certo ordine). Il significato sussiste quando un segno viene usato per riferirsi a un concetto – e in quel caso il segno diventa simbolo. La scienza che studia il significato è la semantica (mentre la semiotica studia il rapporto fra segno e significato).

Che cosa si intende, allora, quando si dice che una frase o una parola hanno un certo significato? In cosa consiste il significato? Per rispondere, bisogna fare le opportune distinzioni. Se si guarda alle frasi, infatti, il significato può essere identificato come le condizioni di verità di quella frase: capire cosa una frase significa equivale a capire in quali condizioni tale frase è vera; la semantica esplicita, dunque, le condizioni di verità di un enunciato. Attenzione, però: questa asserzione – la cui migliore formulazione nella filosofia contemporanea è dovuta a Ludwig Wittgenstein – non significa che la semantica ci dice se una certa frase è vera; significa che ci dice a quali condizioni la frase è vera. Per esempio, la semantica ci dice che “il libro è sul tavolo” è vera se e solo se esiste uno e un solo x che è un libro ed esiste uno e un solo y che è un tavolo e x è sopra y; non ci dice se è vero che il libro a cui si fa riferimento è sul tavolo, anche perché – e qui sta il punto – la semantica non esplicita il contenuto lessicale delle parole usate, o, almeno, non ci dice a cosa esse si riferiscono, qual è il loro riferimento nel mondo. Qui veniamo all’aspetto più spinoso della semantica – intensa come lo studio logico del significato. La semantica ci dice molto poco in merito al contenuto lessicale delle parole. Ci dice, quando utilizziamo le formulazioni della semantica dei modelli, il tipo logico delle intensioni corrispondenti alle entrate lessicale; e può fornirci un elenco più o meno lungo di inferenze semantiche che partono da una certa entrata lessicale (p.e., “se x è un cane allora x è un animale allora x si muove allora x respira, ecc.”). Ma non può dirci, ripeto, a cosa le entrate lessicali si riferiscono. La semantica non è in grado di cogliere, insomma, la dimensione inferenziale del significato, che è la dimensione che entra in gioco quando noi formuliamo dei giudizi di verità.

Il problema di comprendere e spiegare la relazione linguaggio-mondo è antico e non ha mai trovato una soluzione. Questo problema è così riassumibile: come spieghiamo la relazione che sussiste fra una parola e l’oggetto o la cosa del mondo che essa denota? Le teorie sono numerose; ma, ripeto, tutte cadono nell’indeterminatezza e in numerose difficoltà. Alcuni (gli internisti) dicono: la relazione fra, p.e., “cane” e i cani passa attraverso l’elaborazione di una rappresentazione mentale; cioè, quando gli esseri umani usano “cane” (o “dog”, “chien”, ecc.), essi elaborano una rappresentazione mentale che poi “proiettano” sul mondo per individuare i cani. Proposta plausibile, in fondo: la testa è una collezione di figurine associate a ogni parola. Proposta, però, difficile da sostenere. I problemi sono molti: come può una sola o anche più immagini memorizzate per la parola “sedia” consentirci di individuare tutte le sedie del mondo, anche quelle che non abbiamo mai visto (è la vecchia questione degli universali, da Aristotele a Kant: ricordiamoci i triangoli)? E poi, cosa significa, a livello operativo, confrontare un’immagine con un oggetto – fra parentesi: proprio perché “confrontare” non è traducibile in termini algoritmi e procedurali, il sistema di memorizzazione di rappresentazioni (di figurine) non funziona per rendere le macchine capaci di individuare gli oggetti nel mondo? Di fronte a queste difficoltà, gli internisti vanno a discutere della nozione di rappresentazione che deve essere usata; ma non si va da nessuna parte. Allora si passa ad analizzare la quesitone guardano alle informazioni rilevanti per il processo di riferimento. Quando uno usa “sedia” per riferirsi a un oggetto che ha di fronte, non la usa solo perché l’oggetto corrisponde – in qualche modo non meglio specificato – a un’immagine che lui ha nella testa; usa la parola perché sa, per esempio, che quell’oggetto è fatto per sedersi; oppure, per fare un esempio chiaro, se uno usa “idraulico” per riferirsi a Pippo, usa questa espressione perché sa che Pippo svolge una certa professione, anche se Pippo è completamente diverso dall’immagine mentale che lui ha degli idraulici (il tipico idraulico con bretelle e cappellino blu, baffi, ecc.). Tutte considerazioni giuste; ma come le spieghiamo a livello procedurale, come le inglobiamo in una teoria della competenza semantica? Non ne ho idea (anche se non mancano i tentativi: vedi il caso del lessico generativo di Pustejovski). Allora arrivano gli esternisti, che dicono: no, no, altroché rappresentazioni mentali; il significato corrisponde a una relazione diretta fra linguaggio e mondo. Quindi, esiste una relazione diretta fra “bicchiere” e i bicchieri. Ora, che cosa ciò significhi non è affatto chiaro. Alcuni (Putnam, per esempio, con un esperimento mentale molto divertente, quello di Terra Gemella) hanno interpretato il riferimento diretto come riferimento paradigmatico; altri (vedi Fodor) come una relazione fra l’oggetto (o, meglio, lo stimolo percepito dalla mente) e simboli (innati) del linguaggio del pensiero; ma anche qui i problemi sono numerosi. In breve: cosa sia il riferimento e come esso funzioni, nessuno lo sa. Forse ha ragione Chomsky, quando dice che la domanda è mal posta e che non ha senso chiedersi a cosa le parole si riferiscono, visto che sono gli umani che usano le parole per riferirsi al mondo; verissimo; peccato che rimane comunque il problema di spiegare i meccanismi che veicolano gli atti referenziali degli esseri umani; e, anche qui, le spiegazioni sono insufficienti.

In breve, il riferimento continua a rappresentare un problema. Discorso diverso vale per il contenuto semantico inferneziale delle entrate lessicali. Il contenuto inferenziale è analizzabile in termini di postulati di significato e inferenze semantiche, che possono essere tranquillamente inserite in opportune reti semantiche. Anche qui, però, i problemi non sono pochi: la catena inferenziale rischia di cadere nella circolarità e non si capisce quale sia il criterio per limitare il calcolo; oppure, le reti semantiche talvolta non colgono le intuizioni semantiche dei parlanti umani. In breve: è difficile sia definire cosa il significato è sia, poi, una volta che si ha adottato una o l’altra definizione, comprendere come analizzarlo in modo sistematico, senza postulare soluzioni ad hoc.

Cosa afferma la teoria dei mondi possibili e quale uso se ne fa nella semantica formale?
La nozione di mondo possibile fu utilizzata da Leibniz per sostenere che il nostro è il migliore fra i mondi possibili. Leibniz la utilizzava come nozione intuitiva. In semantica e logica, invece, essa viene intesa come una nozione tecnica: il mondo possibile è una situazione controfattuale, cioè una situazione diversa da quella attuale. Il mondo attuale è il mondo in cui noi viviamo; e il mondo attuale è soltanto uno fra gli innumerevoli (probabilmente infiniti o comunque non numerabili) mondi possibili. C’è, per esempio, un mondo possibile nel quale in questo momento io, anziché rispondere a questa domanda, sto mangiando un pasticcino; o un nel quale, pur rispondendo a questa domanda, i miei occhi ora guardano a destra anziché a sinistra; ed esiste altresì un mondo possibile nel quale, mangiando io ora un pasticcino, guardo a destra; e uno in cui, mangiando il pasticcino, guardo a sinistra (ma non ne esiste uno in cui guardo contemporaneamente sia a destra che a sinistra, visto che gli esseri umani non sono dotati di vista monoculare). La nozione di mondo possibile è fondamentale per analizzare gli enunciati controfattuali, cioè quelli che esprimono asserzioni del tipo “se P allora Q” dove l’antecedente, cioè “P”, è falso in questo mondo. Enunciati di questo tipo (p.e., “se oggi piovesse, le strade sarebbero bagnate”, “se non fosse scoppiato lo scandalo Watergate, Nixon non si sarebbe dimesso”, ecc.) ci “proiettano” in un mondo in cui ciò che viene asserito dopo la particella ipotetica “se” è vero (infatti, nel mondo attuale e nel punto dove io mi trovo ora che sto rispondendo non piove e nel mondo attuale lo scandalo Watergate è scoppiato, con somma tristezza di Nixon) e asseriscono che, in quel mondo, la verità dell’antecedente avrebbe avuto come conseguenza la verità del conseguente. Ovviamente, gli enunciati controfattuali possono essere veri oppure falsi (p.e, Nixon, pur non essendo scoppiato lo scandalo Watergate, avrebbe potuto dimettersi lo stesso; mentre nel caso di “se fosse morto nel 1290, Dante non avrebbe scritto la Divina Commedia”, l’enunciato non può essere falso, visto che Dante ha cominciato a scrivere la Divina Commedia dopo l’esilio); ma il punto è che il loro antecedente è vero nel mondo nel quale l’enunciato ci “proietta”, non in quello attuale. La semantica dei controfattuali opera utilizzando il sistema dei mondi possibili: “se P allora Q”, inteso come enunciato controfattuale, è vero se e solo se nel mondo più aderente al mondo attuale in cui P è vero (non posso ora spiegare perché si seleziona il mondo più simile al mondo attuale, sarebbe troppo lungo) è vero anche Q.

L’analisi attraverso mondi possibili è utile anche quando si guarda agli enunciati modali (“è necessario che P”, “è possibile che P”, ecc.) e a quelli deontologici (“è obbligatorio P”, “è permesso P”, ecc.). Consideriamo, p.e., l’enunciato “è possibile che domani piova”: questo enunciato significa che esiste almeno un mondo possibile nel quale, domani, piove; oppure, l’enunciato “è necessario che il numero dei pianeti sia dispari” significa che in tutti i mondi possibili il numero dei pianeti è dispari (ossia, che non esiste alcun mondo possibile nel quale il numero dei pianeti non è dispari: qui, però, ci sono due letture possibili per “numero dei pianeti”, due letture che implicano due giudizi di verità diversi). La semantica dei mondi possibile consente di studiare le condizioni di verità degli enunciati modali. Inoltre, è possibile stipulare specifici assiomi che richiedono, a loro volta, specifiche condizioni sui frame di mondi. Per esempio, l’assioma “se P è necessario, allora P sussiste” (p.e., “se è necessario che piova, allora piove”) richiede che vi sia una relazione di accessibilità fra mondi che sia riflessiva. “È necessario che P” significa che P sussiste in tutti i mondi; quindi anche nel mondo attuale, come asserisce appunto l’assioma; ma, per verificarlo, bisogna che il mondo attuale possa vedere se stesso. Oppure, l’assioma “se P sussiste, allora è necessario che sia possibile P” richiede che la relazione di accesso fra mondi sia transitiva; l’assioma significa infatti che se P sussiste in questo mondo allora è necessario (non può essere che non sia così, ossia è impossibile che non) cioè è vero in tutti i mondi possibili che P è possibile, cioè è vero in tutti i mondi possibili che esiste almeno un mondo M in cui P sussiste (M è il mondo attuale, essendo che P sussiste, ma potrebbero esserci anche altri mondi in cui P sussiste). In base agli assiomi che scegliamo, costruiamo diversi sistemi di mondi possibili.

La semantica dei mondi possibili ha un ruolo importante e rappresenta uno dei traguardi più importanti della semantica del Novecento.

Offerta
I misteri del linguaggio
  • Cipriani, Enrico (Autore)

Quali sono le questioni più urgenti rimaste ancora aperte sul linguaggio e la mente?
È molto difficile rispondere a questa domanda. L’urgenza delle questioni dipende, infatti, dall’ambito di indagine e dalla prospettiva dalla quale si guarda all’oggetto di indagine. Se guardiamo al linguaggio da una prospettiva “operativa” (cioè, se ci domandiamo quali sono quegli aspetti che ancora sfuggono a un’analisi formale soddisfacente), penso che i problemi più seri siano rappresentati dal riferimento e dalla competenza pragmatica, come ho detto parlando delle intelligenze artificiali: il riferimento è un oggetto di indagine misterioso e anzi forse lo stesso concetto di riferimento non trova spazio nel discorso scientifico (perlomeno, nel discorso scientifico serio); e ci sono numerose difficoltà anche nell’analisi dei meccanismi che soggiacciono alla comunicazione e all’uso del linguaggio in generale. Personalmente, faccio fatica a immaginare che questi problemi potranno trovare una soluzione nel breve periodo: come ho già detto, le difficoltà che si incontrano in questi ambiti non sono difficoltà operative dovute a limiti di potenza di calcolo, ma sono piuttosto difficoltà concettuali e procedurali.

Per quanto riguarda, invece, l’indagine naturalistica del linguaggio (cioè, l’indagine del linguaggio inteso come oggetto scientifico da analizzare attraverso il metodo deduttivo-galileiano), ritengo che uno dei temi più rilevanti sia rappresentato dal trovare giustificazioni empiriche forti a sostegno della tesi innatista, cioè della tesi che vede il linguaggio come un fenomeno emergente nell’essere umano a seguito dell’attivazione di principi innati (che poi è ciò che sostengono Chomsky e la sua scuola). In altre parole, si tratta di capire quanto il prefisso “bio” in “biolinguistica” sia giustificato: l’acquisizione del linguaggio è davvero guidata dall’attivazione di principi innati, come sostiene la teoria delle Grammatica Universale (sulla quale si è costruito un programma di ricerca)? Oppure il linguaggio è da considerarsi come un prodotto, fra i tanti, della mente umana, strutturato a partire da principi generali dell’intelligenza umana e non da principi linguaggio-specifici? Esistono, guardando al problema dell’elaborazione concettuale, dei primitivi semantici che soggiacciono alla formazione dei concetti? A livello più generale, il problema è capire se la linguistica possa davvero essere considerata parte della psicologica cognitiva e delle scienze empiriche e naturali. Certamente, i linguisti hanno formulato sistemi di analisi raffinati, che consentono di trattare il linguaggio umano – o, almeno, alcuni aspetti di esso – al pari di un oggetto matematico; ma perché questo risultato (ragguardevole) dovrebbe collocare la linguistica nelle scienze della mente? Cosa ci sarebbe di male se la linguistica “si limitasse” a fornire sistemi di analisi (sintattica, semantica e fonetica) alternativi fra loro, senza pretendere poi di ammantare tali sistemi con connotazioni cognitivo-mentalistiche?

Dico questo non per sminuire (non ne ho l’autorità scientifica) il lavoro di quei linguisti e filosofi che hanno creduto e credono nell’interpretazione cognitivo-mentalistica della linguistica; lo dico, invece, per invitare questi studiosi a guardarsi dalla “moda”, cominciata nel secondo dopoguerra e ancora viva, che induce gli studiosi dei vari ambiti (persino gli umanisti) a uniformarsi ai metodi e alle concettualizzazioni caratterizzanti le scienze dure e le scienze empiriche (con particolare riferimento alla fisica e alla biologia, che sono, con l’informatica, le discipline più importanti del panorama scientifico contemporaneo). Questo bisogno di “scientificizzare” (o addirittura potrei dire “di fisicizzare”) induce talvolta gli studiosi, io credo, a voler presentare risultati ottenuti in un certo ambito come qualcosa che non sono oppure a “stiracchiare” i dati provenienti dalle scienze empiriche (la neurologia in special modo) per avallare una o l’altra delle loro conclusioni. I filosofi (anche quelli del linguaggio) devono fare i filosofi e non devono spacciarsi per scienziati (quasi che si vergognassero della loro professione), così come gli scienziati non devono improvvisarsi filosofi.

Enrico Cipriani ha conseguito il dottorato di ricerca in Logica e Filosofia del linguaggio presso l’Università degli Studi di Torino. È autore di diversi articoli pubblicati su riviste nazionali e internazionali. I misteri del linguaggio è il suo primo saggio.

ISCRIVITI ALLA NEWSLETTER
Non perderti le novità!
Mi iscrivo
Niente spam, promesso! Potrai comunque cancellarti in qualsiasi momento.
close-link