Il Pesa-Nervi

«Lei parla a vanvera, giovanotto!
No, penso a dei critici con la barba».

Noam Chomsky: Linguaggio e mente / 3

La terza parte della traduzione in italiano di una conferenza tenuta a Berkeley nel 1968 da Noam Chomsky, in cui l'autore tratta il problema dell'acquisizione del linguaggio ed i suoi rapporti con lo sviluppo mentale dell'uomo.

Fonte: Language and Mind, ed. Harcourt Brace Jovanovich, Inc. 1968. Testo originale disponibile sul sito Marxists Internet Archive. Traduzione in italiano di Gabriele Romanato.

Noam Chomsky

LINGUAGGIO E MENTE
Contributi linguistici allo studio della mente (il futuro)

Leggi le parti precedenti: parte 1 | parte 2.

[Noam Chomsky]Credo che se osserviamo il problema classico della psicologia, quello di giustificare la conoscenza, non possiamo evitare di essere colpiti dall'enorme disparità fra conoscenza ed esperienza - nel caso del linguaggio, fra la grammatica generativa che esprime la competenza linguistica del parlante nativo e i dati poveri e degenerati sulla base dei quali egli ha costruito per sé questa grammatica. All'inizio la teoria dell'apprendimento dovrebbe occuparsi di questo problema, ma di fatto aggira il problema a causa del divario concettuale che ho citato prima. Il problema non può essere in alcun modo formulato finchè non sviluppiamo il concetto di competenza fra i concetti dell'apprendimento e del comportamento e applichiamo questo concetto a qualche dominio. Il fatto è che questo concetto è stato per lo più sviluppato estensivamente e applicato solo allo studio del linguaggio umano. È solo in questo dominio che abbiamo mosso i primi passi verso un risultato di competenza, vale a dire le grammatiche generative frammentarie che sono state costruite per i linguaggi particolari. Man mano che lo studio del linguaggio progredisce, possiamo aspettarci con fiducia che queste grammatiche verranno estese nello scopo e nella profondità, sebbene potremmo difficilmente sorprenderci se le prime tesi sono sbagliate nei loro fondamenti.

Pertanto facendo un primo tentativo di approssimazione per una grammatica generativa di un qualche linguaggio, possiamo formulare per la prima volta in modo utile il problema dell'origine della conoscenza. Possiamo in altri termini formulare la domanda: "Quale struttura iniziale deve essere attribuita alla mente, tale da renderla in grado di costruire una grammatica dai dati dei sensi?". Alcune delle condizioni empiriche che si devono riscontrare in ogni tesi sulla struttura innata sono abbastanza chiare. Dunque sembra esserci una capacità peculiare della specie che è essenzialmente indipendente dall'intelligenza, e possiamo avere una stima abbastanza buona della quantità di dati necessaria affinché il processo sia portato a termine con successo. Sappiamo di fatto che le grammatiche costruite variano solo di poco fra i parlanti della stessa lingua, nonostante le grandi variazioni non solo dell'intelligenza ma anche delle condizioni in cui il linguaggio viene acquisito. Come partecipanti ad una certa cultura, siamo naturalmente consci delle grandi differenze nell'abilità nell'uso del linguaggio, nella conoscenza del vocabolario e così via, che risultano dalle differenze nell'abilità nativa e dalle differenze nelle condizioni di acquisizione. Naturalmente prestiamo molta meno attenzione alle similarità e alla conoscenza comune, che diamo per certe. Ma se proviamo a stabilire la differenza psichica richiesta, se paragoniamo le grammatiche generative che devono essere postulate per differenti parlanti della stessa lingua, scopriamo che le similarità che davamo per certe sono ben marcate e che le divergenze sono poche e marginali. C'è di più: sembra che i dialetti, che sono superficialmente abbastanza lontani ed anche appena intellegibili al primo contatto, condividono un vasto nucleo centrale di regole e processi comuni e differiscono di poco nelle strutture sottintese, che sembrano restare invariate nel corso di lunghe ere storiche. Inoltre scopriamo un sistema vero e proprio di principi che non variano fra linguaggi che sono, per quanto ne sappiamo, del tutto privi di relazione tra loro.

I problemi centrali in questo dominio sono quelli empirici i quali, almeno in principio, sono abbastanza semplici, ma possono essere difficili da risolvere in modo soddisfacente. Dobbiamo postulare una struttura innata che sia abbastanza ricca da incidere sulla disparità fra esperienza e conoscenza e sulla costruzione di grammatiche generative giustificate empiricamente senza le limitazioni di tempo e di accesso ai dati. Al contempo, questa struttura mentale innata che abbiamo postulato non deve essere così ricca e restrittiva da escludere alcuni linguaggi conosciuti. Vi è, in altre parole, un limite superiore ed uno inferiore nel grado e nel carattere esatto della complessità che si può postulare come struttura mentale innata. La situazione attuale è abbastanza oscura da lasciare spazio ad una grande divergenza di opinione sulla vera natura di questa struttura mentale innata che rende possibile l'acquisizione del linguaggio. Tuttavia, non mi sembra che siano dubbi sul fatto che questo è un problema empirico, e che può essere risolto procedendo lungo le linee che ho appena abbozzato.

La mia opinione sulla situazione è che oggi il reale problema stia nello scoprire un'ipotesi sulla struttura innata che sia sufficientemente ricca, non nel trovarne una abbastanza semplice ed elementare da essere "plausibile". A mio avviso non vi è alcuna ragionevole nozione di "plausibilità", nessuna visione aprioristica di quello che le strutture innate ammettono, tale da poter guidare la ricerca di una "ipotesi sufficientemente elementare". Sarebbe mero dogmatismo ritenere, senza prove e argomentazioni, che la mente nella sua struttura innata sia più semplice di altri sistemi biologici, come sarebbe mero dogmatismo insistere sul fatto che l'organizzazione della mente debba necessariamente seguire un certo insieme di principi determinato prima dell'indagine e mantenuto a scapito di ogni scoperta empirica. Credo che lo studio dei problemi della mente sia stato ostacolato da una sorta di apriorismo con cui ci si è generalmente accostati a questi problemi. In particolare le ipotesi empiriciste, che hanno dominato lo studio dell'acquisizione della conoscenza per molti anni, mi sembra che siano state adottate quasi senza garanzia e che non abbiano alcuno status speciale fra le tante possibilità sul funzionamento della mente che possono essere immaginate.

In questo caso è illuminante seguire il dibattito che è sorto da quando le idee che ho appena accennato furono avanzate alcuni anni fa come programma di ricerca - dovrei dire da quando questa posizione fu riesumata, poiché l'approccio razionalista tradizionale è di notevole ampiezza, ora ampliato, approfondito e reso più esplicito in termini di conclusioni raggiunte nei recenti studi sulla competenza linguistica. Due importanti filosofi americani, Nelson Goodman e Hilary Putnam, hanno dato recenti contributi a questa discussione - entrambi fraintesi, a mio avviso, ma istruttivi nel fraintendimento che rivelano.

La trattazione di Goodman della questione soffre per prima cosa di un fraintendimento storico e secondariamente di un fallimento nel formulare correttamente l'esatta natura del problema dell'acquisizione della conoscenza. Il suo fraintendimento storico ha a che fare con il problema fra Locke ed il pensiero di Locke che egli criticava nella sua discussione delle idee innate. Secondo Goodman "Locke... chiarì acutamente" che la dottrina delle idee innate è "falsa o priva di senso". Infatti la critica di Locke aveva poca rilevanza per ogni comune dottrina del XVII secolo. Gli argomenti che Locke fornì furono presi in considerazione e trattati in modo soddisfacente nelle discussioni dell'inizio del XVII secolo sulle idee innate, ad esempio quelle di Lord Herbert e Descartes, i quali davano entrambi per certo che il sistema di idee e di principi innati non avrebbe funzionato senza un'appropriata stimolazione. Per questo motivo gli argomenti di Locke, nessuno dei quali prende atto di questa condizione, sono senza forza; per qualche motivo egli evita i problemi discussi nella precedente metà del secolo. Inoltre, come ha osservato Leibnitz, la propensione di Locke a fare uso di un principio di "riflessione" rende quasi impossibile distinguere il suo approccio da quello dei razionalisti, tranne per il suo fallimento nel fare i passi suggeriti dai suoi predecessori verso la specificazione del carattere di questo principio.

Ma, a parte i problemi storici, credo che Goodman fraintenda anch'egli il problema sostanziale. Egli sostiene che l'apprendimento della prima lingua non costituisce un problema reale, poiché prima di tale apprendimento il bambino ha già acquisito i rudimenti di un sistema simbolico nei suoi modi ordinari di rapportarsi con l'ambiente. Quindi l'apprendimento della prima lingua è analogo all'apprendimento della seconda nel fatto che il passo fondamentale è già stato fatto, ed i dettagli possono essere elaborati senza una struttura già esistente. Questo argomento potrebbe avere una qualche validità se fosse possibile dimostrare che le proprietà specifiche della grammatica - ovvero la distinzione fra struttura profonda e superficiale, le proprietà specifiche delle trasformazioni grammaticali, i principi dell'ordinamento delle regole e così via - sono presenti in qualche forma in questi "sistemi simbolici" prelinguistici già acquisiti. Ma poiché non vi è la minima ragione di credere che le cose così, l'argomento crolla. Esso è basato su un equivoco simile a quello discusso in precedenza riguardo all'argomento secondo cui il linguaggio si è evoluto dalla comunicazione animale. In quel caso, come abbiamo visto, l'argomento si rivolse ad un uso metaforico del termine "linguaggio". Nel caso di Goodman l'argomento è interamente basato su un uso vago dell'espressione "sistema simbolico" e crolla non appena cerchiamo di dargli un significato preciso. Se fosse possibile dimostrare che questi sistemi simbolici prelinguistici condividono alcune significative proprietà col linguaggio naturale, potremmo sostenere che queste proprietà del linguaggio naturale sono acquisite per analogia. Naturalmente vorremmo affrontare il problema di spiegare come i sistemi simbolici prelinguistici svilupparono queste proprietà, ma poiché nessuno ha avuto successo nel dimostrare che le fondamentali proprietà del linguaggio naturale - quello discusso nella seconda conferenza, per esempio - appaiono nei sistemi simbolici prelinguistici o in altri, quest'ultimo problema non si pone.

Secondo Goodman, la ragione per cui il problema dell'apprendimento della seconda lingua è differente da quello della prima sta nel fatto che "una volta che un linguaggio è disponibile" esso "può essere usato per dare spiegazioni ed istruzioni". Continua poi sostenendo che "l'acquisizione di una lingua iniziale è l'acquisizione di un sistema simbolico secondario" ed è quasi alla pari con la normale acquisizione di una seconda lingua. I sistemi simbolici primari a cui egli si riferisce sono "rudimentali sistemi simbolici prelinguistici in cui i gesti e gli eventi sensori e percettivi di ogni tipo funzionano come segni". Ma evidentemente questi sistemi simbolici prelinguistici non possono "essere usati per dare spiegazioni ed istruzioni" nel modo in cui una prima lingua può essere usata in una istruzione della seconda. Perciò, anche nei suoi fondamenti l'argomento di Goodman è incoerente.

Goodman sostiene che "l'affermazione di cui discutiamo non può essere testata sperimentalmente anche quando abbiamo un esempio riconosciuto di 'cattivo' linguaggio" e che "l'affermazione non è stata formulata nell'ambito della citazione di una singola proprietà generale dei 'cattivi' linguaggi". La prima di queste conclusioni è corretta, nel senso di "test sperimentale", ovvero un test in cui "prendiamo un bambino alla nascita, lo isoliamo da tutti gli influssi della nostra cultura legata al linguaggio, e proviamo ad inculcargli uno dei 'cattivi' linguaggi artificiali". Ovviamente ciò non è fattibile. Ma non vi è ragione di essere spaventati dall'impossibilità di portare avanti un test come questo. Vi sono molti altri modi, per esempio quelli discussi nella seconda conferenza e i riferimenti ivi citati - in cui la prova può essere ottenuta preoccupandoci delle proprietà delle grammatiche e le conclusioni sulle proprietà generali di tali grammatiche possono essere inserite nel test empirico. Ognuna di tali conclusioni specifica immediatamente, in modo corretto o no, alcune proprietà dei "cattivi" linguaggi. Poiché vi sono dozzine di articoli e libri che cercano di formulare queste proprietà, la sua seconda affermazione, che non "una singola proprietà generale dei 'cattivi' linguaggi" è stata formulata, è abbastanza sorprendente. Si può cercare di dimostrare che questi tentativi sono fuorviati o discutibili, ma difficilmente si può affermare con serietà che non esistono. Ogni formulazione di un principio della grammatica universale fa una forte affermazione empirica, che può essere falsata trovando controistanze in qualche linguaggio umano lungo le linee della discussione della seconda conferenza. In linguistica, come in ogni altro campo, è solo con modi indiretti come questo che si può sperare di trovare prove che supportino ipotesi non banali. Test sperimentali diretti del tipo di quelli citati da Goodman sono raramente possibili, un fatto che può essere infelice ma che nondimeno è tipico di gran parte della ricerca.

In un punto Goodman osserva, correttamente, che anche "per certi fatti notevoli non ho una spiegazione alternativa... che da sola non implichi l'accettazione di una qualsivoglia teoria, poiché una teoria potrebbe essere peggiore che nessuna teoria. L'incapacità di spiegare un fatto non mi condanna ad accettare una teoria intrinsecamente ripugnante ed incomprensibile". Ma consideriamo ora la teoria delle idee innate che Goodman considera "intrinsecamente ripugnante ed incomprensibile". Si noti, per prima cosa, che la teoria non è ovviamente "incomprensibile" nei suoi termini. Così egli sembra propenso, in questo articolo, ad accettare la visione secondo cui in un certo senso la mente matura contiene idee. Non è ovviamente "incomprensibile" che alcune di queste idee siano "impiantate nella mente come originale bagaglio culturale" (per usare la sua terminologia). E se ci rivolgiamo alla dottrina attuale come viene sviluppata dalla filosofia razionalista (piuttosto che dalla caricatura fatta da Locke), la teoria diviene ovviamente sempre più comprensibile. Non vi è nulla di incomprensibile nella visione secondo cui la stimolazione fornisce l'occasione alla mente di applicare alcuni principi interpretativi innati, alcuni concetti che provengono dalla stessa "capacità di comprendere", dalla facoltà di pensare più che direttamente dagli oggetti esterni. Prendiamo un esempio da Descartes (Replica alle obiezioni, V):

Quando per la prima volta nell'infanzia vediamo una figura triangolare dipinta su carta, questa figura non può mostrarci come un triangolo reale debba essere concepito secondo gli studiosi di geometria, poiché il vero triangolo è contenuto in questa figura proprio come la statua di Mercurio è contenuta in un rozzo blocco di legno. Ma poiché possediamo già dentro di noi l'idea di un vero triangolo, che può essere più facilmente concepita dalla nostra mente rispetto alla più complessa figura di triangolo disegnata su carta, noi, quando vediamo la figura composita, non cogliamo quella, ma l'autentico triangolo.

In questo senso l'idea di un triangolo è innata. Sicuramente la nozione è comprensibile; non vi sarebbe alcun problema, ad esempio, nel programmare un computer a reagire agli stimoli lungo tali linee (sebbene questo non soddisferebbe Descartes per altre ragioni). Similmente non vi è difficoltà di sorta nel programmare un computer con uno schematismo che restringa la forma di una grammatica generativa, con una procedura di valutazione per la grammatica di una data forma, con una tecnica per determinare se i dati sono compatibili con una grammatica di una determinata forma, con una sottostruttura fissa (come le proprietà distintive), con regole principi e così via - in breve, con una grammatica universale del tipo di quella proposta negli ultimi anni. Per motivi che ho già citato, credo che questi propositi possano essere visti come un ulteriore sviluppo della dottrina razionalista classica, come un'elaborazione di alcune delle sue idee principali sul linguaggio e sulla mente. Naturalmente una tale teoria sarà "ripugnante" per chi accetta la dottrina empiricista e la ritiene immune al problema ed al dibattito. Mi sembra che questo sia il cuore del problema.

Il saggio di Putnam tratta più direttamente i punti del problema, ma mi sembra che anche i suoi argomenti siano inconcludenti a causa di alcune ipotesi non corrette che egli fa sulle grammatiche acquisite. Putnam ritiene che al livello della fonetica l'unica proprietà proposta nella grammatica universale sia quella secondo cui un linguaggio ha "una corta lista di fonemi". Questa, sostiene, non è una similarità fra linguaggi che richieda ipotesi esplicative elaborate. La conclusione è corretta, l'ipotesi errata. Infatti, come ho dimostrato diverse volte, sono state avanzate ipotesi empiriche molto valide sulla scelta specifica di proprietà universali, sulle condizioni della forma e dell'organizzazione delle regole fonetiche, sulle condizioni dell'applicazione delle regole eccetera. Se queste proposte sono corrette (o quasi corrette), allora "le similarità fra linguaggi" a livello della struttura del suono sono affatto notevoli e non possono essere semplicemente spiegate con ipotesi sulla capacità della memoria (come suggerisce Putnam).

Sopra il livello della struttura del suono, Putnam ritiene che le uniche proprietà significative del linguaggio siano quelle che hanno nomi propri, che la grammatica contenga un componente della struttura di frase e che vi siano regole che "abbreviano" i periodi generati dal componente della struttura di frase. Sostiene che la natura del componente della struttura di frase è determinata dall'esistenza di nomi propri, che l'esistenza di un componente della struttura di frase è spiegato dal fatto che "tutte le misure naturali della complessità di un algoritmo - dimensione della tabella della macchina, lunghezza delle computazioni, tempo e spazio richiesti per la computazione - portano al risultato", che i sistemi della struttura di frase forniscono gli "algoritmi che sono 'i più semplici' per ogni sistema computazionale", quindi anche "per 'sistemi computazionali' evoluti naturalmente", e che non vi è nulla di sorprendente nel fatto che i linguaggi contengano regole di abbreviazione.

Ognuna delle tre conclusioni riguarda una falsa ipotesi. Dal fatto che un sistema della struttura di frase contiene nomi propri non si può concludere nulla sulle altre sue categorie. Infatti oggi vi è una grande disputa sulle proprietà generali dei sistemi sottintesi della struttura di frase per i linguaggi naturali. La disputa non è risolta dall'esistenza di nomi propri.

Come secondo punto è semplicemente falso che tutte le misure della complessità e della velocità di computazione conducano alla regole della struttura di frase come "il più semplice algoritmo possibile". Gli unici risultati esistenti, che siano anche indirettamente rilevanti, dimostrano che le grammatiche della struttura della frase libera da contesto (un modello ragionevole per le regole che generano strutture profonde, escludendo le voci lessicali e le condizioni distributive che incontrano) ricevono un interpretazione teoretico-automatica come automatismi non-deterministici di memoria [dell'elaboratore. NdT], ma questi ultimi difficilmente sono una nozione "naturale" dal punto di vista della "semplicità degli algoritmi" eccetera. Infatti si può sostenere che il concetto (in qualche modo simile ma non correlato) di automazione deterministica in tempo reale è molto più "naturale" in termini di condizioni di tempo e spazio nella computazione.

Tuttavia è inutile portare avanti questo argomento, poiché quello che è in gioco non è la "semplicità" delle grammatiche della struttura di frase, ma piuttosto quella delle grammatiche trasformazionali con un componente della struttura di frase che ha un ruolo nel generare le strutture profonde. E non vi è in assolutamente alcun concetto matematico di "facilità di computazione" o "semplicità di algoritmo" che suggerisca anche vagamente che tali sistemi possano avere un vantaggio sui tipi di automatismi studiati seriamente sotto questo punto di vista - per esempio automatismi a stato finito, automatismi lineari obbligati e così via. Il concetto basilare di "operazione dipendente dalla struttura" non è mai stato considerato in un senso strettamente matematico. L'origine di questa confusione è un fraintendimento del discorso di Putnam sulla natura delle trasformazioni grammaticali. Esse non sono regole che "abbreviano" i periodi, ma piuttosto sono operazioni che formano le strutture di superficie dalle sottointese strutture profonde, nei modi illustrati nella precedente conferenza e nei riferimenti ivi citati. Quindi, per dimostrare che le grammatiche trasformazionali sono le "più semplici possibili", si dovrebbe dimostrare che il sistema computazionale "ottimale" prende una stringa di simboli come input e determina la sua struttura superficiale, la sua sottintesa struttura profonda e la sequenza di operazioni che li mette in relazione. Nulla del genere è stato dimostrato: infatti la questione non è stata mai sollevata.

Continua la lettura...

Articolo di Gabriele Romanato pubblicato il  22/3/2006 alle ore 16,00.

Indice del Pesa-Nervi | Diodati.org

Inizio pagina.