Post on 20-Feb-2019
transcript
Problemi epistemologici delle scienze cognitive (II) –
La crisi del funzionalismo e gli sviluppi successivi
Alfredo Paternoster
Problemi del funzionalismo (computazionale)
1) Critiche relative alla metafisica della relazione mente/corpo ESPANSIONE VERTICALE
2) Critiche relative alla spiegazione della relazione mente/mondo (intenzionalità) ESPANSIONE ORIZZONTALE
3) Critiche relative alla spiegazione della natura dell’esperienza (coscienza) NECESSITA’ DI AFFRONTARE IL PROBLEMA DELLA COSCIENZA
La scienza cognitiva post-classica
Tre “spinte” o esigenze:
1) Mente cervello: NO funzionalismo o, almeno, attenzione sistematica ai risultati delle neuroscienze
2) Mente corpo: le funzioni mentali non sono il prodotto dell’attività del solo cervello, ma dell’intero corpo.
3) Mente mondo: non si possono studiare i processi mentali fuori da qualsiasi contesto, come se questi processi avessero luogo esclusivamente in uno “spazio” interno.
2+3: La pietra angolare della cognizione è il sistema sensomotorio (considerato in modo integrato), che realizza “l’esserci-nel-mondo”
1. L’ESPANSIONE VERTICALE
Superamento del carattere antibiologico del funzionalismo:
RETI NEURALI
SVILUPPO DELLA NEUROSCIENZA COGNITIVA
TENTAZIONI ELIMINATIVISTE / NEORIDUZIONISTE
Eliminativismo/neoriduzionismo
I predicati della psicologia del senso comune non possono essere messi in corrispondenza con i predicati delle neuroscienze.
Una psicologia scientifica deve usare una cornice teorica integrabile con le neuroscienze gli stati psicologici sono stati o proprietà di reti neurali
Gli stati di una rete neurale sono riducibili a stati del cervello riduzione della psicologia alla neuroscienza
I modelli computazionali tradizionali (tipo LoT) sono inadeguati e vanno sostituiti con i modelli a rete neurale (“connessionismo”).
Reti neurali artificiali
Sono modelli matematici che simulano, a un considerevole
grado di astrazione, il comportamento di una rete di
neuroni reali.
Sono costituiti da un insieme di unità (“nodi”) interconnesse.
Ciascuna unità rappresenta un neurone e ciascuna
connessione una sinapsi.
Tanto alle unità quanto alle connessioni sono associati dei valori
numerici (numeri reali), che rappresentano rispettivamente
il livello di attivazione o eccitazione dell’unità e la forza con
cui la connessione trasmette l’attivazione all’altra unità.
Reti neurali artificiali
Ogni unità ha un valore di attivazione.
Ogni connessione ha un peso.
Le connessioni possono essere di natura eccitatoria (+) oppure
inibitoria (-).
L’influenza (= grado di attivazione) di una unità A su una unità B
è pari al prodotto del valore di attivazione di A per il peso
della connessione tra le due. Il valore di attivazione di
un’unità è direttamente proporzionale alla somma di tutte
le influenze (attivatorie o inibitorie) che riceve.
Df. Vettore di attivazione l’insieme dei valori di attivazione di
una certa porzione della rete.
Reti neurali
Topologia delle reti (= schema delle connessioni):
Ve ne sono di diversi tipi.
Es.
1) Percettrone: un insieme di unità di input (aventi sole connessioni in uscita) e un insieme di unità di output (aventi solo connessioni in ingresso). Ogni unità di input è collegata a tutte le unità di output.
2) Rete “feedforward”: unità di input, unità di output e unità nascoste. Connessioni monodirezionali (inputnascosteoutput).
Ma molte altre topologie sono possibili.
Reti neurali: come funzionano
Data una situazione iniziale, cioè un’assegnazione di valori di attivazione alle unità di input e ai pesi delle connessioni, il vettore di attivazione totale (relativo cioè all’intera rete) evolve spontaneamente nel tempo, fino ad arrivare a un livello stabile.
Tale configurazione finale corrisponde al risultato finale (output), di un processo di elaborazione di informazioni. Ad esempio, il vettore di attivazione finale delle unità di output potrebbe replicare quello iniziale delle unità di input riconoscimento dell’input.
(ci deve essere una convenzione rappresentativa: ogni unità codifica una certa informazione, ma tipicamente non c’è trasparenza semantica)
Reti neurali: come funzionano
Una rete neurale non viene programmata per eseguire una certa attività, ma addestrata mediante una serie di esempi caratteristici del dominio dei problemi da risolvere. L’addestramento consiste nella correzione automatica dei valori dei pesi delle connessioni: ogni volta che un input viene sottoposto alla rete durante la fase di addestramento, si confronta l’output ottenuto con quello desiderato e (semplificando): a) si incrementano i valori dei pesi delle connessioni che vanno alle unità di output che devono essere attivate; b) si indeboliscono i valori dei pesi delle connessioni che vanno alle unità di output che non devono essere attivate. (in base a un’opportuna formula matematica)
Reti neurali: come rappresentano Rappresentazione locale: a ogni unità è associata
un’informazione semanticamente rilevante (un significato o concetto). È semanticamente trasparente.
Rappresentazione distribuita: l’informazione
semanticamente rilevante è distribuita (emerge) sull’intera rete, in forma di vettore di attivazione. La singola unità non ammette un’interpretazione semantica determinata (anche se può essere associata a tratti semantici).
Caratteristiche fondamentali delle reti neurali
- L’elaborazione è parallela e non sequenziale
- Non c’è programma memorizzato
- Non c’è distinzione tra programma (algoritmo) e strutture dati (rappresentazioni)
- Sistemi analogici e non digitali
- Rappresentazioni distribuite subsimboliche
No computazioni su rappresentazioni?
No funzionalismo (computazionale)?
Rappresentazioni con reti neurali: vantaggi
- Gradualità della categorizzazione (prototipi e metrica): il livello di attivazione delle unità può variare con continuità, quindi un pattern può essere riconosciuto come più o meno appartenente a una categoria (NO tutto o niente).
- Tolleranza all’errore e degrado graduale: se lesiono una porzione di rete, la rete non smette di funzionare, ma avrà soltanto un più o meno significativo peggioramento delle prestazioni.
- Apprendimento: non c’è bisogno di avere molta conoscenza prememorizzata.
Reti neurali: un bilancio epistemologico
- Rappresentazioni semanticamente non trasparenti sono nondimeno rappresentazioni
- Evoluzione di una rete nel tempo è ancora una computazione (= una trasformazione I/O Turing-calcolabile), anche se di tipo diverso “computazioni cerebriformi”.
- Funzionalismo?
SI, perché computazionalismo funzionalismo
NO, perché lo studio dei processi mentali non è indipendente dallo studio del cervello, MA: indipendenza dalla materia non è indipendenza dalla struttura funzionale del cervello
CONCLUSIONE: piena continuità con SC classica.
Neuroscienza cognitiva: funzione e struttura
Coevoluzione di psicologia e neuroscienza: il pluralismo esplicativo
- Pluralità di discipline a diversi livelli di spiegazione
- Integrazione piuttosto che riduzione ( influenza reciproca)
- No autonomia dei livelli esplicativi
- Non c’è un livello fondamentale di spiegazione
- Modello di spiegazione meccanicistica
La spiegazione meccanicistica - Non è una spiegazione nomologica, bensì sistemico- funzionale (risponde alla domanda “in che modo è prodotto un certo fenomeno?) analogia con analisi funzionale - Articolazione in livelli di descrizione/spiegazione. Le entità di livello X-1 costituiscono un’entità di livello X. - Non c’è un livello privilegiato di spiegazione: no riduzionismo - bidirezionalità delle relazioni esplicative: - Livello X+1 contestualizza livello X - Livello X-1 scompone livello X - Ogni entità ha una funzione e una struttura. coevoluzione tra psicologia e neuroscienza
Un esempio di spiegazione meccanicista: la memoria spaziale
Livello 4: psicologia /etologia cognitiva (test comportamentali)
Livello 3: sistemi neuro-computazionali (test neuropsicologici: effetti comportamentali di lesioni)
Livello 2: attività elettro-chimiche di neuroni e sinapsi (potenziamento a lungo termine): stimoli a cellule
Livello 1: meccanismi molecolari (recettore NMDA): stimolazione/registrazione tramite elettrodi
* Ci potrebbe essere lo spazio per un livello intermedio, di tipo algoritmico, tra 4 e 3.
Scomposizione/localizzazione
La costruzione di una spiegazione meccanicistica avviene tramite due momenti “dialettici”: - Scomposizione del meccanismo in parti (scomposizione strutturale) e nelle relative operazioni (scomposizione funzionale). - Localizzazione, cioè assegnazione delle operazioni alle parti
Scomposizione e localizzazione si informano reciprocamente. Non c’è una direzione privilegiata (Zawidzki e Bechtel 2002; 2004)
Scomposizione/localizzazione
Nel caso mente-cervello, occorre evitare -sia un approccio puramente top-down, che, sulla base di un’immagine idealizzata iper-semplificata della relazione tra aree cerebrali e funzioni mentali, ipotizza “in astratto” un’articolazione funzionale e si aspetta di trovare un’area o circuito per ogni funzione così individuata (“l’evoluzione del vivente è cosa ben diversa dall’evoluzione tecnologica”); - sia un approccio puramente bottom-up, che individua parti sulla sola base di considerazioni neurofisiologiche, cercando funzioni “alla cieca”
Scomposizione/localizzazione
- L’assegnazione di una funzione cognitiva a una struttura neuronale è uno dei principali criteri della sua individuazione
- La cartografia cerebrale spesso mette capo a revisioni delle scomposizioni funzionali proposte in sede psicologica
la psicologia guida la neuroscienza e la neuroscienza corregge la psicologia
Neoriduzionismo, again? Argomento di Bechtel & Mundale (1999) La multirealizzabilità deriva dall’uso di “livelli di grana” (= risoluzione) differenti nell’individuazione di tipi a livelli descrittivi diversi; ma se si vogliono confrontare le proprietà psicologiche con quelle neurologiche bisogna mantenerne costante la granularità. In funzione del livello di grana scelto, si possono far rientrare gli stati psicologici sotto lo stesso tipo o sotto tipi diversi. Mantenendo costante tale livello i tipi psicologici possono essere posti in corrispondenza biunivoca con quelli neurologici. La coevoluzione tra psicologia e neuroscienza e la ricerca di omologie fra strutture cerebrali confermerebbero, sul piano metodolologico, questo punto di vista.
2. L’ESPANSIONE ORIZZONTALE
GLI ARGOMENTI ANTI-SINTATTICISTI/ANTI-INDIVIDUALISTI
LA ROBOTICA SITUATA
I SISTEMI DINAMICI NON LINEARI
IL PARADIGMA SENSOMOTORIO
LA MENTE ESTESA
L’argomento della stanza cinese
(Searle 1980)
Un programma di analisi automatica del linguaggio naturale è analogo a un parlante inglese (che conosce solo l’inglese) che, chiuso in una stanza, riceve delle domande scritte in cinese e delle istruzioni che gli spiegano quali simboli cinesi deve produrre in risposta alle domande.
Tanto l’uomo quanto il programma non hanno la
minima idea di che cosa significano i simboli che manipolano.
L’argomento della stanza cinese L’esperimento mentale mostra che i simboli
manipolati da un programma di analisi del linguaggio sono privi di significato.
Forma generale dell’argomento: P1) I programmi sono oggetti puramente sintattici (=
tutte le computazioni sono processi sintattici) P2) Non si può ottenere una semantica dalla pura
sintassi (= Nessun processo sintattico può dare luogo a “effetti” semantici o intenzionali)
C) I programmi non possono dare luogo a intenzionalità (= nessuna computazione può dare luogo a un processo intenzionale)
L’influenza della stanza cinese
L’argomento trae la sua indubbia forza intuitiva anche dai risultati abbastanza scoraggianti dell’IA nei compiti semantici: pregi e difetti dei sistemi artificiali mostrano che essi non sono affatto genuini agenti intenzionali. C’è qualcosa nel modo umano di “comprendere” il mondo e il linguaggio che sfugge completamente agli agenti artificiali.
Ma il problema è quello diagnosticato da
Searle?
Obiezioni a Searle
- System reply: l’intenzionalità non è da attribuire al programma ma all’intero sistema che lo ospita (siamo noi che comprendiamo, non i nostri processi computazionali)
- Robot reply: se i simboli sono proiettati sul mondo grazie a programmi percettivi e motori, i simboli acquistano intenzionalità
Risposta del sistema Il sistema costituito dall’uomo chiuso nella stanza, dai fogli e
dalla stanza stessa è un sistema che comprende il cinese.
Replica di Searle: inintelligibile. Inoltre si può immaginare
che l’uomo incorpori l’intero sistema. Anche in questo caso non comprenderebbe il significato dei simboli che manipola.
Controreplica. Immaginare che l’uomo incorpori l’intero sistema è fuorviante. E attribuendo intenzionalità al solo uomo chiuso nella stanza Searle commette un errore categoriale, confondendo due livelli di spiegazione (siamo noi che comprendiamo, non il nostro cervello).
Un problema della system reply: è compromessa col
comportamentismo.
Risposta del robot I simboli manipolati da un programma sono privi di
significato (per il computer), ma se il computer è connesso a un sistema sensomotorio, acquistano significato.
Searle: no, perché i programmi di controllo dell’apparato sensomotorio continuano a essere puramente sintattici.
Controreplica: che cosa hanno di diverso o di particolare i
nostri sistemi di controllo sensomotori? Un limite della scienza cognitiva classica è quello di
considerare i sistemi in modo solipsistico, come se il mondo non esistesse. Le menti devono essere incorporate e immerse (“embedded”) nel mondo.
Altre obiezioni alla stanza cinese
Obiezione alla prima premessa: distinzione tra programma e processo (programma in esecuzione). I processi hanno una semantica, almeno nel senso che producono effetti (semantica operazionale)
Obiezione alla seconda premessa: le relazioni inferenziali
tra espressioni linguistiche, che sono relazioni semantiche, potrebbero essere realizzate tramite connessioni puramente formali ( logica)
Il problema è semmai che queste relazioni puramente intralinguistiche non sono sufficienti per l’intenzionalità symbol grounding problem. Ma a questo si può ovviare con la connessione a un sistema sensomotorio.
Argomenti anti-computazionalisti “in the vicinity”
Non si può dare conto dell’intero comportamento in termini di regole (Dreyfus 1979).
Un conto è possedere una regola, un altro è saperla applicare nelle circostanze appropriate. Come riconoscere le circostanze appropriate? Non posso, pena regresso, ricorrere a regole per stabilirlo.
Frame problem: di quali cambiamenti un sistema deve tenere traccia?
Si può formalizzare la pertinenza? C’è un modulo della pertinenza?
Tutte queste considerazioni sembrano valere anche nella
prospettiva robotistica.
L’argomento di Block
Il funzionalismo non impone requisiti sufficientemente forti sul concetto di mente: basta soddisfare certe proprietà “di organizzazione” per essere una mente.
P. es. il sistema costituito dall’intera popolazione della Cina, dove a ciascun individuo è stato assegnato il compito di eseguire una singola istruzione di una MT che sta simulando un certo processo cognitivo. Grazie a un complesso sistema di segnali, si suppone che ciascun cinese conosca in quale stato si trova questa «macchina collettiva» e quale simbolo essa si accinge a leggere. Per il funzionalismo lo stato costituito da tutti questi individui, unitamente al sistema di segnali, è uno stato mentale, in quanto soddisfa il ruolo causale-funzionale previsto.
L’argomento di Block
Il problema messo in luce da Block può essere evitato se il sistema in questione ha degli scopi adattativi
teleo-funzionalismo: Qualcosa è uno stato mentale se e solo se svolge un certo ruolo causale ed è stato selezionato dall’evoluzione per un certo scopo.
(es. un desiderio ha lo scopo di indurre un agente a modificare la realtà in modo vantaggioso per lui).
Robotica situata
- L’elaborazione delle informazioni è sistematicamente
vincolata dall’ambiente
- Non c’è rappresentazione (immagazzinamento); l’informazione è sfruttata immediatamente per il controllo dell’azione
- L’organizzazione modulare è per attività (= comportamenti) e non per funzioni
- L’enfasi è posta sul sensomotorio
computazioni senza rappresentazioni?
Il paradigma sensomotorio
- La percezione è una forma di azione ed è indisgiungibile dall’azione
- La percezione è un’attività dell’organismo preso nella sua interezza
- Percepire è muoversi in modo competente nell’ambiente per recuperare informazioni; il movimento determina variazione dello stimolo e le variazioni dello stimolo provocano movimento
- Lo stimolo non è una coppia di immagini retiniche statiche ( Gibson 1979)
- Raramente è necessario costruire una rappresentazione completa dell’oggetto.
- Il ruolo delle rappresentazioni nella visione è molto sopravvalutato. Se le informazioni sono presenti nell’ambiente è inutile rappresentarle
Sistemi dinamici non lineari
- sono adatti a descrivere e prevedere fenomeni che evolvono nel tempo;
- danno conto dei fenomeni di auto-organizzazione ed emergenza;
- negano o tendono a negare l’esistenza di una frontiera chiara tra agente e ambiente;
- negano che il comportamento sia guidato da rappresentazioni.
Tipo di spiegazione: descrittivo-predittiva, non ricostruttiva
Auto-organizzazione ed emergenza
Manifestazione spontanea, a livello macroscopico, di un
comportamento ordinato. Si evidenziano certe regolarità e simmetrie a partire da una miriade di interazioni causali a livello microscopico.
I fenomeni di regolarità non sono predicibili dall’analisi
delle relazioni che sussistono tra le microcomponenti del sistema. L’emergenza è in questo senso una proprietà olistica di alto livello.
La mente estesa
La mente non è una funzione del solo cervello, né del solo organismo; diversi processi cognitivi sono estesi in quanto coinvolgono supporti esterni di vario genere.
Concetto di azione epistemica: è un tipo di azione il cui scopo è rendere più efficace un processo cognitivo
Esternismo attivo: l’ambiente concorre, coopera allo svolgimento del processo cognitivo
Esternismo del veicolo (vs. del contenuto): sono i veicoli stessi della cognizione ad essere esterni.
La mente si è estesa molto precocemente: il linguaggio è un’estensione della mente.
6 tesi caratteristiche delle nuove scienze cognitive
La cognizione è situata, cioè ha sempre luogo in un certo contesto ambientale
La cognizione è soggetta a vincoli real-time La cognizione si avvale in misura significativa di supporti
esterni La cognizione (la mente) è estesa: i supporti esterni sono
costitutivi della cognizione/mente La cognizione è al servizio dell’azione [ed è azione] La cognizione è incorporata
Conclusioni
- Il funzionalismo computazionale ha le risorse teoriche per rispondere a molte delle critiche che gli sono state mosse: è possibile “calare” (almeno in una certa misura) la mente nel cervello, nel corpo e nel mondo senza rinunciare alla tesi secondo cui i processi mentali sono computazioni su rappresentazioni.
- La relazione tra i diversi programmi di ricerca è allo stato attuale meglio inquadrabile nei termini di complementarità piuttosto che di opposizione.
- Tuttavia ci sono divergenze non secondarie tra i diversi programmi di ricerca, per esempio, sull’uso della modularità, sul ruolo degli assunti computazionali, sulla relazione tra percezione, cognizione e azione. Per questa ragione l’identità della scienza cognitiva, al singolare, si è notevolmente indebolita.
Conclusioni
- La scienza cognitiva post-classica è in larga misura in continuità col cognitivismo classico; altrimenti detto, i programmi di ricerca che ho presentato (verosimilmente con l’eccezione della teoria dei sistemi dinamici) sono ancora scienza cognitiva, nel senso che non devono rinunciare e di fatto non rinunciano al computazionalismo.
- Tuttavia, il tipo di computazionalismo oggi adottato in SC è notevolmente “liberalizzato”, lasciando spazio a un’ampia varietà di modelli.
- Le istanze della percettologia ecologista (oggi paradigma sensomotorio) e più in generale dell’embodiment e dell’embeddedness sono ormai parte integrante del mainstream della scienza cognitiva.
- Resta qualche dubbio sulla possibilità di integrare in modo coerente tutte queste istanze.