+ All Categories
Home > Documents > Scuola Interateneo di Specializzazione per gli...

Scuola Interateneo di Specializzazione per gli...

Date post: 21-Feb-2019
Category:
Upload: dinhdien
View: 218 times
Download: 0 times
Share this document with a friend
24
Scuola Interateneo di Specializzazione per gli Insegnanti della Scuola Secondaria Centro Di eccellenza per la Ricerca Didattica e la Formazione Avanzata Corso di Perfezionamento in Metodologia Metacognitiva dell’Insegnamento per Ambiti Disciplinari Il testing psicologico nella scuola: teorie e modelli applicativi Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca sull’intelligenza, che negli ultimi duecento anni ha preso un ritmo di crescita serrata grazie allo sviluppo della scienza e delle sue molteplici applicazioni, un momento di particolare rilevanza fu quello vissuto a cavallo tra fine '800 e primi '900 in Europa e nel Nord America, quando la società si trovò a reagire ai forti mutamenti che la crescita dell'economia e della tecnologia portava con sé in gran parte del mondo. In quel momento era tanto forte l’interesse per lo studio delle caratteristiche dell’uomo in termini di tratti individuali, che studiosi come Francis Galton o J. McKean Cattell ricorrevano a misure di grandezze indirette, come la capacità percettiva, le sensazioni o i riflessi, per giungere a descrivere la natura dell’intelligenza, convinti che essa non potesse essere altrimenti rilevabile. Su tutta la materia l’attenzione era forte e molte ricerche si sviluppavano con il preciso obiettivo di individuare quali potevano essere gli approcci migliori per riuscire a costruire in modo sperimentale prove realmente capaci di misurare la qualità intrinseca del pensiero e del suo modo di operare. In effetti nonostante gli studi sull’intelligenza coinvolgano da sempre studiosi di varie discipline e siano ormai numerose le teorie e i metodi per determinarne le caratteristiche, non è stata trovata ancora oggi una convergenza di opinioni, né su ciò che si intende per intelligenza, né su come la si può effettivamente misurare, sebbene un certo grado di accordo esista su alcune idee di massima. Come, ad esempio: l) che l'intelligenza è una capacità di adattamento all'ambiente costituita da una componente presumibilmente innata ma profondamente influenzata da fattori socio-ambientali; 2) che l’intelligenza, come capacità individuale, si incrementa nell'età evolutiva permettendo via via di compiere operazioni mentali ed attività comportamentali progressivamente sempre più complesse. Certo è che la possibilità di misurare questa capacità peculiare dell’uomo in modo preciso ha costituito una delle massime aspirazioni delle scienze umane e della psicologia sperimentale in particolare. Da qui la necessità, con la nascita della psicologia moderna, di studiare le caratteristiche umane rilevandone e valutandone in modo chiaro e definitivo i tratti di capacità individuale e di resa sociale. Non a caso, proprio in forza degli studi dell’inglese Henry Goddard, seguace di Alfred Binet, in molti Stati americani all’inizio del ‘900 il Q.I., il famoso test per la misura 1
Transcript
Page 1: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Scuola Interateneo di Specializzazione per gli Insegnanti della Scuola Secondaria

Centro Di eccellenza per la Ricerca Didattica e la Formazione Avanzata

Corso di Perfezionamento in Metodologia Metacognitiva dell’Insegnamento per Ambiti Disciplinari

Il testing psicologico nella scuola: teorie e modelli applicativiProf. Mario Di Mauro – Lezione n. 1 (on line)

Nella storia della ricerca sull’intelligenza, che negli ultimi duecento anni ha preso un ritmo di crescita serrata grazie allo sviluppo della scienza e delle sue molteplici applicazioni, un momento di particolare rilevanza fu quello vissuto a cavallo tra fine '800 e primi '900 in Europa e nel Nord America, quando la società si trovò a reagire ai forti mutamenti che la crescita dell'economia e della tecnologia portava con sé in gran parte del mondo.

In quel momento era tanto forte l’interesse per lo studio delle caratteristiche dell’uomo in termini di tratti individuali, che studiosi come Francis Galton o J. McKean Cattell ricorrevano a misure di grandezze indirette, come la capacità percettiva, le sensazioni o i riflessi, per giungere a descrivere la natura dell’intelligenza, convinti che essa non potesse essere altrimenti rilevabile. Su tutta la materia l’attenzione era forte e molte ricerche si sviluppavano con il preciso obiettivo di individuare quali potevano essere gli approcci migliori per riuscire a costruire in modo sperimentale prove realmente capaci di misurare la qualità intrinseca del pensiero e del suo modo di operare.

In effetti nonostante gli studi sull’intelligenza coinvolgano da sempre studiosi di varie discipline e siano ormai numerose le teorie e i metodi per determinarne le caratteristiche, non è stata trovata ancora oggi una convergenza di opinioni, né su ciò che si intende per intelligenza, né su come la si può effettivamente misurare, sebbene un certo grado di accordo esista su alcune idee di massima. Come, ad esempio:

l) che l'intelligenza è una capacità di adattamento all'ambiente costituita da una componente presumibilmente innata ma profondamente influenzata da fattori socio-ambientali;

2) che l’intelligenza, come capacità individuale, si incrementa nell'età evolutiva permettendo via via di compiere operazioni mentali ed attività comportamentali progressivamente sempre più complesse.

Certo è che la possibilità di misurare questa capacità peculiare dell’uomo in modo preciso ha costituito una delle massime aspirazioni delle scienze umane e della psicologia sperimentale in particolare.

Da qui la necessità, con la nascita della psicologia moderna, di studiare le caratteristiche umane rilevandone e valutandone in modo chiaro e definitivo i tratti di capacità individuale e di resa sociale. Non a caso, proprio in forza degli studi dell’inglese Henry Goddard, seguace di Alfred Binet, in molti Stati americani all’inizio del ‘900 il Q.I., il famoso test per la misura

1

Page 2: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

dei fattori di intelligenza, rischiò di divenire un odioso strumento razziale (a seguito di uno studio appositamente commissionato, venne dimostrato che l’83% degli ebrei, l’80% degli ungheresi il 79% degli italiani e l’87% dei russi era composto da “deboli di mente” con la conseguenza che questi risultati divennero un’arma per il controllo dell’immigrazione che portò a votare nel 1924 una legge apposita!). In quegli anni molti politici, seguendo le idee di personalità scientifiche famose come Goddard o Terman, sostennero vari movimenti per il controllo sociale, spingendosi persino a proporre leggi per sterilizzare i deboli di mente, una politica che per diverso tempo alcuni Stati americani adottarono, dando luogo a migliaia di interventi chirurgici.

Certamente concezioni estreme che condussero ad un uso smodato delle ricerche e degli studi nel campo della psicologia, ma un segno premonitore di come poteva essere inteso, e a cosa poteva portare, l’interesse della scienza cognitiva applicata all’uomo. Oggi l’uso del testing è indiscutibilmente diffuso ed entra nella vita delle persone spesso in modo invasivo e preoccupante. E’ interessante, in proposito quanto rileva Sternberg parlando della somministrazione dei milioni di test cui vengono ogni anno sottoposti bambini, giovani e adulti negli Stati Uniti, “dopo che tutte le operazioni relative al test sono finite, ciascun soggetto esaminato riceve di solito il solo feedback che, lui o lei, avrà mai: un rapporto su un punteggio o una serie di punteggi. A partire da quel momento, l’esaminato starà probabilmente già studiando per un altro o altri test futuri”. (Sternberg, 2003) Anche nella scuola oggi la necessità di rispondere a criteri di efficienza-efficacia sta profondamente condizionando i metodi di valutazione, ponendo all’ordine del giorno e in modo sempre più impellente la questione degli standard nella misurazione degli obiettivi di apprendimento e nella individuazione delle soluzioni tecniche oggettive ad essi connessi. Già all’inizio del secolo scorso, di metodi valutativi applicati al mondo dell’educazione di base si occupavano molti ricercatori e studiosi di psicologia. L’interesse per la valutazione delle prestazioni cognitive e più in generale dell’intelligenza, dopo essersi concentrato sui comportamenti cognitivi carenti con lo scopo di facilitare la differenziazione tra gli individui, si spostava nel campo dell’educazione e della scuola con lo scopo esplicito di aiutare i processi di formazione e di orientamento professionale e sociale. Per fare questo era necessario conoscere bene e nel modo più rapido possibile le caratteristiche personali in termini di capacità mentali, in modo da poter decidere come effettuare meglio la selezione tra individui, tra chi poteva ricevere una limitata istruzione elementare e chi invece doveva continuare a studiare, tra chi non riusciva per le cattive condizioni familiari e chi non riusciva perché in qualche modo ritardato mentale. Ecco per cui diventava assolutamente impellente ricorrere a metodi affidabili per poter accedere a valutazioni oggettive soprattutto con quei soggetti giovani (bambini innanzitutto) che presentavano difficoltà scolastiche. Agli studi di James McKeen Cattell, fondatore del Laboratorio di Ricerca Psicologica della Columbia University, si deve l'invenzione del "test mentale" inteso nella sua versione moderna di strumento di misurazione di capacità intellettive possedute dall'individuo ed espresse attraverso il suo comportamento cognitivo.

Da un punto di vista pratico questo interesse per il miglioramento della funzionalità scolastica si tradusse in un sistema strutturato di servizi che svolgeva una funzione di orientamento sulla base di una valutazione di tipo psicometrico del comportamento dei bambini. Un procedimento di attribuzione del livello di intelligenza, che innescava inesorabilmente un meccanismo pericoloso capace di incidere, sia sulle attese degli insegnanti, sia sulle aspirazioni dei genitori nei confronti dei figli, sia soprattutto, sulla motivazione degli alunni

2

Page 3: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

per il livello di autostima generato dallo scarso rendimento attribuito alle limitate capacità mentali eventualmente rilevate.

E’ possibile misurare l’intelligenza ? Si è sempre pensato che le differenze individuali sul piano dell’intelligenza riguardino non solo funzioni semplici, ma anche funzioni complesse, come la memoria, l'attenzione, il ragionamento, l’immaginazione, ecc. E che tali differenze siano in un individuo presenti, in forma quantitativa e qualitativa, in modo tale da produrre un legame stretto tra intelligenza e personalità. Fu Binet, tra i primi, ad elaborare un modello di intelligenza, intesa proprio come complesso di funzioni interrelate, rappresentabile, descrivibile e misurabile tramite una scala metrica. E fu questo modello, passato alla storia come modello del Q.I. (Quoziente di Intelligenza) a permettere allo studioso francese di mettere a punto un sistema di misurazione costituito da una batteria di test in grado di determinare l'età mentale di un individuo (dal modello di test della scuola inglese, basato prevalentemente su misure sensoriali, si passava con Binet al modello di test della scuola francese basato su misure comportamentali). La precocità o il ritardo dello sviluppo intellettivo erano dati, nel test di Binet, dal confronto tra l'età mentale ottenuta dal risultato complessivo della prova e l'età cronologica corrispondente. Il successo immediato di questa scala fu tale che ben presto si diffuse in tutto il mondo e in particolare negli Stati Uniti, dove venne modificata da un gruppo di ricercatori dell’Università di Stanford e dove ha poi preso il nome definitivo di scala Stanford-Binet, così come oggi è da tutti conosciuta.

In effetti l'euforia prodotta da queste ricerche e la sicurezza che l'intelligenza potesse essere oggettivamente misurabile spinse in qualche modo a ritenere di avere in pugno "il destino dell'uomo" per quello che poteva significare la facilità con cui si poteva intervenire sulla collocazione sociale di ciascuno (significativa e rivelatrice è, in proposito, la definizione data da Boring sul rapporto test/intelligenza, secondo cui "l’intelligenza è tutto ciò che i test di intelligenza misurano"). Ma sulla questione furono molte anche le critiche, non solo sul modo ingenuo con cui ci si accostava ad una delicatissima materia come l'intelligenza e la sua misurabilità, ma soprattutto sull’ingiustificata euforia che accompagnava la diffusione del test Stanford-Binet in tutto il mondo. Nel mondo dell’istruzione, in particolare, molto acceso fu lo scontro intellettuale e scientifico tra i critici da una parte e i difensori dall’altra di un uso esteso dei test di intelligenza nei processi educativi e dello sviluppo (famoso quello sviluppatosi tra gli studiosi Lipmann e Terman, il primo fortemente dubbioso sulla validità del modello, il secondo tra i suoi più strenui difensori).Ma proprio nel settore dell’educazione, decisive per l’affermazione di questa metodologia furono le ricerche dello psicologo inglese Charles Spearman il quale, tentando di correlare tra loro prove differenti tra quelle adoperate nella scuola (voti scolastici, prove di capacità, test di intelligenza, ecc.), riuscì a sviluppare un modello di analisi fattoriale che gli permise di determinare un indice statistico capace di rappresentare il grado di comparabilità tra risultati di test differenti nel predire una performance cognitiva, o ancora di più un successo scolastico. E’ interessante notare come con questo metodo si dimostrasse la possibilità di utilizzare i punteggi ottenuti nelle prove scolastiche per ricavare due valori parametrici specifici: il primo rappresentativo di una variazione generale e comune a tutti i punteggi (e indicativo del fattore generale G dell’intelligenza umana), l’altro specifico della variazione per ciascuna prova o set di prove ( e indicativo di fattori di abilità specifica in campi definiti).

3

Page 4: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Ciò che si intravede nell’uso di questi metodi di misura è ciò che ha da sempre sostenuto e riaffermato l’approccio del testing classico, e cioè l'attenzione diretta ed esclusiva ai prodotti cognitivi che si ottengono al termine di una prova. Nel senso che questi prodotti potevano (come possono ancora oggi) essere letti in modo differente a seconda della prevalenza di una visione monodimensionale o pluridimensionale dell’intelligenza. Se l’euforia delle prime ricerche e la tendenza riduzionista della complessità umana, come realtà da studiare, facevano prediligere il punto di vista dell’intelligenza generale, gli studi successivi hanno sempre di più arricchito lo scenario di nuove idee e di nuove scoperte. Anche la soluzione del fattore G di Spearman, infatti, venne messa in discussione dall'americano Thurstone che rifiutava di riconoscere in questo fattore la presenza di una capacità cognitiva generale, immaginandolo invece solo come un insieme di capacità fondamentali ma tutte differenti l'una dall'altra.

Se la conoscenza di procedure analitiche, che permettevano di mettere in relazioni più test diversi e di individuare la varianza dei fattori principali, evidenziava da una parte l’importanza e la validità della misurazione di variabili e di indici, dall’altra poneva sempre più interrogativi sul significato da attribuire alle stesse misure ottenute. Secondo Thurstone, che aveva analizzato un ampio gruppo di test e aveva misurato il grado di correlazione tra di essi, il risultato sperimentale, qualunque fosse, non poteva garantire la determinazione di un unico fattore generale, ma semmai rilevare la significatività di diversi fattori corrispondenti a diverse abilità cognitive indipendenti tra loro (come la comprensione verbale, la memoria, l'abilità numerica, la velocità percettiva, ecc.). Come si coglie bene, si trattava di una disputa di fondo riguardante, da una parte appunto la natura mono o pluridimensionale dell’intelligenza, ma dall’altra la reale possibilità, sia nell’uno che nell’altro caso, di misurarne il valore. In effetti, la complessa realtà misurata da un test d’intelligenza può sempre essere considerata scomponibile in più abilità, anche se poi, ad una analisi più generale, appare evidente che in un comportamento cognitivo agiscono fattori di aggregazione che possono rappresentare unitariamente più caratteri intellettivi (anche se ciascuno di noi può rivelare capacità diverse nel risolvere un problema, è sempre possibile ipotizzare che tra queste ce ne sia una di tipo generale accanto alla quale ne agiscono altre di tipo specifico). Comunque sia, ciò che emergeva in quel periodo di fiorente ricerca psicologica è stata la predilezione manifestata per l’approccio psicometrico nella determinazione dei fattori di intelligenza, una soluzione certamente di natura empirica ma di grande attrazione per tutti quanti, ricercatori, professionisti e educatori. Ma l’aver trovato come misurare l’intelligenza, in ogni caso, non risolveva i problemi teorici posti a monte perché l’oggetto, di qualunque oggetto si trattasse, non era chiaramente identificato in quanto continuavano a contrapporsi due visioni dell’intelligenza e della sua natura: la visione biologica e quella culturale. Interessante al riguardo è lo sforzo teorico fatto dal modello elaborato dallo psicologo inglese Raymond B. Cattell che riconosce nell’intelligenza umana, una componente "fluida" di natura biologica (che si presenta con caratteristiche di “insight” e che raggiunge il massimo sviluppo intorno ai 14 anni), e una componente "cristallizzata" tipica dell'esperienza e dell’istruzione sociale. Sforzo lodevole perché il modello comporta implicitamente che, se immaginate presenti insieme in uno stesso individuo, le due forme di intelligenza necessitano per essere rilevate di test diversi proprio perché ciascuna forma agisce in modo peculiare alla sua natura e in modo differente l’una dall’altra. Certamente aspetti teorici complessi, esplorati e dibattuti e che hanno sostenuto nel tempo una continua sperimentazione permettendo di affrontare la materia con idee sempre nuove ed originali.

4

Page 5: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Se abituale era stato infatti per molto tempo adoperare il concetto di intelligenza per indicare essenzialmente una qualità individuale e personale, da taluni posseduta in misura maggiore rispetto ad altri, lentamente si faceva strada un’altra prospettiva di analisi, e cioè quella di una qualità pratica che deriva dall’esperienza e che permette all'individuo che la possiede di muoversi con consapevolezza e padronanza nelle situazioni più diverse. In questo secondo caso non si potrebbe più parlare di peculiare qualità individuale, ma meglio di una struttura risultante dall'interazione pensiero/comportamento così come determinata dal contesto ambientale.La contrapposizione tra le due visioni dell'intelligenza è sempre stata una delle caratteristiche più rilevanti del dibattito scientifico in questi ultimi decenni e fino ai nostri giorni. Interessante, in proposito, il contributo di Eysenck, uno dei maggiori esponenti della corrente innatista, il quale, analizzando il valore statistico dei test mentali ha previsto per l’intelligenza una configurazione a tre componenti, la componente A (Intelligenza A) costituita dal patrimonio genetico, la componente B (Intelligenza B) costituita dall’esperienza e la componente C (Intelligenza C) costitutiva di ciò che effettivamente la misurazione dei test fornisce.

La principale tesi di fondo dell'approccio innatista all'intelligenza attribuisce circa l’80% della variabilità del quoziente d’intelligenza umana alla componente genetica e il 20% ai fattori ambientali. Su queste basi si dovrebbero, di conseguenza, basare e legittimare le ipotesi di intervento educativo, tenendo anche conto del fatto che ciascun essere umano è una realtà complessa, originale, unica ed irripetibile. Poco spazio avrebbero, in questa prospettiva, eventuali interventi finalizzati al potenziamento e al recupero di funzioni intellettive carenti, proprio perché predeterminate ed immodificabili. Allo stesso modo, le differenze razziali e sessuali avrebbero, in questa visione così pessimistica della natura umana, una significativa importanza nel determinare il quoziente intellettivo di ciascun individuo, giustificando scientificamente qualsiasi discriminazione fondata sull’ipotesi di differenti configurazioni cognitive geneticamente condizionate.Molto dibattuto fu il caso che si creò a seguito dei risultati della ricerca dei due studiosi statunitensi, H. Herrnstein e F. Murray, pubblicata con il titolo "The Belle Curve: the Reshaping of American Life by Differences in Intelligence" nel 1996. Nel saggio i due ricercatori sostenevano la tesi secondo la quale la maggioranza dei problemi di natura sociale negli Stati Uniti va rapportata più alle differenze che si riscontrano nel livello intellettuale di ciascuna componente razziale, di cui il popolo americano è composto (che risulta geneticamente determinato), che non a contesti ambientali sfavorevoli o a mancanza di opportunità formative. A questa visione innatista, socialmente pessimista sulla possibilità di reale cambiamento per l'uomo, si è sempre contrapposta una visione ottimistica della realtà umana, una visione nota come ambientalistica, per la quale l'incidenza del fattore genetico sul Q.I. nelle prestazioni cognitive di un individuo è molto più bassa di quanto sostenuto, variando in media dal 20% al 40%, mentre al contrario, l’elemento ambientale, con una incidenza tra il 60% e l'80%, risulta determinate per lo sviluppo individuale e sociale. In questa visione favorevole alle potenzialità individuali, interventi opportunamente mirati sono in grado di contribuire a sviluppare funzioni carenti e/o a potenziarle, mentre la qualità dei contesti di esperienza personale e delle relazioni sociali in ambito educativo possono acquistare notevole rilevanza in rapporto alla crescita cognitiva di ciascuno.

Di questa corrente di pensiero fa parte uno dei più insigni studiosi della materia, il Prof. Sternberg docente di psicologia ed educazione alla Yale University e sostenitore dell’importanza che riveste oggi l’approccio al testing dinamico nella valutazione

5

Page 6: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

dell’intelligenza. L'intelligenza, dice Sternberg non è una realtà statica ma dinamica, che può essere anche oggetto di interventi di modificazione in funzione educativa e formativa. Rispetto ai test tradizionali che si prefiggono di misurarla, rappresenta qualcosa di più e di diverso anche se può venire descritta come una "entità complessa" costituita da tre componenti base:

- le cosiddette metacomponenti, cioè un sistema di processi di controllo di ordine superiore, e di natura metacognitiva, che vengono usati per la pianificazione esecutiva, per il controllo e per la valutazione della propria prestazione in un compito.

- le componenti di prestazione, che sono processi di ordine inferiore, di cui ci si serve per eseguire diverse strategie durante l'esecuzione di un compito, come la codifica della natura di uno stimolo, o l'inferenza delle relazioni tra due condizioni di stimolazione.

- le componenti di acquisizione della conoscenza, che sono processi implicati nell'apprendimento di nuova informazione e nel suo immagazzinamento in memoria, come la codifica selettiva per discriminare l’informazione o la combinazione selettiva. (Sternberg, Smith, 2000)

Un’entità, l’intelligenza, costituita per Sternberg interamente da componenti di processo che l'individuo utilizza in presenza di un compito da svolgere quando è necessario giungere ad una soluzione, anche se non tutte vengono adoperate insieme, ma solo quelle più utili per quel particolare tipo di compito da svolgere. Conoscere il modello di Sternberg è particolarmente utile perché permette di comprendere meglio il sostegno da lui fornito al testing dinamico, e la critica a quello statico. Nel modello si privilegia la dimensione conoscitiva del comportamento umano attraverso il concetto di “processo costruttivo”, processo in cui si correlano strettamente tra loro, “il mondo interno”, fatto da tutti i dispositivi cognitivi che sottendono la realizzazione di una performance intelligente, “il mondo esterno”, costituito dal contesto ambientale in cui si attiva ed opera l’intelligenza e “il mondo dell'esperienza”, costituito dalla interconnesione dei tanti mondi esterni ed interni che l’individuo produce continuamente nel corso della sua vita. L'interazione tra i tre mondi avviene all'interno di un complesso sistema di Information Processing che usa differenti modalità elaborative nel trattare i dati e cioè, “la modalità esecutiva” che serve a scomporre un evento, un oggetto o una struttura concettuale per poi analizzarla nelle sue parti in base a precisi criteri, “la modalità creativa”, che è quella che agisce su base intuitiva e che permette una visione olistica della situazione o dell'evento esperienziale e “la modalità pratica”, che serve a facilitare il processo di adattamento al contesto e alle sue caratteristiche informazionali.

Nel campo dell’educazione, e della valutazione in particolare, ciò che si ricava è il convincimento che nessuna prestazione cognitiva può avvalersi del modello di testing tradizionale, cioè di metodi di analisi statica del comportamento mentale, perché strutturalmente deboli e quindi inapplicabili. Come per Gardner, anche per Sternberg diventa necessario, in questa prospettiva, riconsiderare le modalità di costruzione degli strumenti di rilevazione dei processi di pensiero, modificandone gli schemi metodologici secondo un'ottica più spiccatamente dinamica e pluralista.

In realtà, ancora oggi si vive in una sorta di schizofrenia scientifica perché, se da una parte viene riconosciuta la possibilità di integrare entrambe le prospettive, quella biologica e quella culturale, in un disegno più articolato della configurazione intellettiva umana, di fatto la

6

Page 7: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

ricerca continua ad evidenziare aspetti spesso in contraddizione tra loro. L'intelligenza sembra corrispondere ad un tipo di dotazione che ha caratteristiche uniche e peculiari, variabili da individuo ad individuo: un tipo di dotazione costituita, per taluni aspetti, da capacità cognitive proprie e biologicamente determinate, per altri da capacità cognitive apprese e quindi sviluppabili, modellabili e trasferibili da un individuo all'altro. Se così è bisognerebbe riconsiderare con spirito critico la presunta funzionalità dei sistemi di misurazione dell'intelligenza, per lo meno per come oggi utilizzati nella forma psicometrica. Anche perché negli ultimi anni si sta sempre di più imponendo una nuova ed originale prospettiva di studio dei processi cognitivi, importante sia per la ricerca psicologica che per quella pedagogica, e cioè la prospettiva motivazionale. Secondo una suggestiva ipotesi di J.R. Hayes (1981), sarebbero proprio gli elementi motivazionali a determinare le differenze nelle configurazioni cognitive individuali. Gli individui presenterebbero differenti comportamenti cognitivi perché differenti sono i loro obiettivi, i loro atteggiamenti, le loro aspettative e il loro modo di percepirsi e di percepire il mondo. Su una capacità innata di apprendimento, comune a tutti gli uomini, si innesterebbero spinte motivazionali che produrrebbero specifici orientamenti verso determinate esperienze di apprendimento, implicando ed attivando così lo sviluppo di capacità cognitive corrispondenti. La configurazione intellettuale umana è così complessa nella sua delicata natura soggettuale, ed è così dipendente dalla condizione di contesto in cui si trova, che non è certamente verosimile poter assumere come oggettivamente attendibile il risultato di una prova strumentale per quanto strutturata e standardizzata.

Ma quali sono gli attuali orientamenti sull'uso dei testi psicologici rispetto alle ultime scoperte avvenute in campo neurofisiologico e più in generale rispetto alle idee più recenti sull'intelligenza? Muovendo dai modelli HIP (Human Information Processing) ispirati alle epistemologie informatiche, oggi si vanno facendo strada i modelli modulari della cosiddetta “computazione specifica” (Fodor 1987) e più ancora quelli connessionisti basati sui rapporti tra strutture neurologiche e configurazioni intellettuali umane in termini di sistemi reticolari. Sono ipotesi di grande inventiva concettuale che si basano su studi recenti in neurofisiologia e che spingono ad immaginare la configurazione cognitiva di una persona come il risultato di più cluster di strutture di elaborazione che stanno in rete e che operano per procedure parallele più che seriali. Sembra, in altre parole, che l'attenzione della ricerca si stia spostando, più che sulle caratteristiche del processo di elaborazione degli stimoli in quanto tali, sulle proprietà scalari e vettoriali delle reti di connessioni e sulle risposte che si producono per il sistema cognitivo nel suo complesso.

L'intelligenza, secondo questo punto di vista, verrebbe a configurarsi come il risultato di un insieme di connessioni di varia complessità, che elimina all'origine differenze e discontinuità tra fenomeni neuronali e fenomeni psicologici. E' una prospettiva nuova e piena di possibilità, perché valorizza molto il ruolo dei processi apprenditivi in quanto processi che comportano ricostruzione continua di configurazioni cognitive. Configurazioni intese come "costrutti" che costituiscono il risultato dell'interazione tra elementi interni (strutturabilità del sistema neuronale) ed elementi esterni (stimoli e sollecitazioni ambientali). Uno dei punti più interessanti di questo approccio è rappresentato dalla centralità riconosciuta all'articolazione della struttura intellettiva nel suo insieme ed alla sua evoluzione in rapporto ai dati di riferimento: la configurazione intellettiva è sempre dipendente dal contesto ambientale di appartenenza ed è in stretta relazione di reciproca influenza con gli oggetti comunicativi di natura informazionale e relazionale presenti. Le variabili biologiche, in altre parole, influenzerebbero quelle contestuali e ne sarebbero a loro volta influenzate.

7

Page 8: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Si comprende bene come questa nuova situazione costituisca la ragione principale delle diverse richieste oggi avanzate al testing statico, circa una sua necessaria revisione come sistema di misurazione delle capacità cognitive dell'uomo. Oggi il testing mentale va rivisto, non tanto per la struttura di contenuto che possiede e da cui è caratterizzato, ma soprattutto per le modalità della sua utilizzazione e per gli obiettivi che si propone di conseguire.

Che cosa è e come funziona il testing statico . Non considerando lo Stanford-Binet, il più classico tra i test di intelligenza e certamente il più conosciuto al mondo, il test statico di intelligenza maggiormente utilizzato è la WAIS-R (Wechsler Adult Intelligence Scale). Si tratta di una scala costituita da 11 test differenti, di cui sei misurano le abilità cognitive di natura prevalentemente verbale e cinque le abilità cognitive di natura principalmente visiva, spaziale e manipolativa. I risultati delle prime sei scale danno origine al Quoziente Intellettivo Verbale, i punteggi delle ultime cinque confluiscono nel Quoziente Intellettivo di Performance. E la media di questi due indici è il Quoziente Intellettivo Totale. In generale l’uso di test come quello Wais fa parte di un modo di considerare l’intelligenza di un individuo dal punto di vista della sua natura. In generale le differenze che la scala Wais riscontra nel Quoziente Intellettivo (QI) vengono fatte dipendere o da differenze genetiche o da differenze socio-ambientali. Ma come è possibile che attraverso un test psicometrico sia possibile ottenere un profilo della qualità del pensiero e delle capacità cognitive di un individuo? L’operazione, apparentemente semplice sul piano teorico, non è mai stata facile da realizzarsi su quello tecnico, perché tutta la teoria sulla quale la ricerca ha costruito i suoi modelli di uomo ha avuto poi bisogno di mettere alla prova le sue ipotesi, e il paradigma sperimentale su cui si è basato il testing statico, dal momento della sua prima apparizione ad oggi, ha richiesto precisi protocolli da rispettare. La scelta del contenuto per la misura dell’intelligenza, cioè degli elementi costitutivi della prova stessa, i suoi item, è stata sempre difficile perché ciascun item doveva essere in grado di determinare in modo valido ed obiettivo le qualità dell’oggetto indagato, e questo vincolo metodologico è sempre stato un problema serio.

La capacità che ha un test di misurare ciò che effettivamente si propone di misurare dipende dalla sua validità e costituisce lo scopo stesso del test in quanto prerequisito essenziale per l'interpretazione del risultato finale. Da un punto di vista statistico, la verifica della validità consiste nello stabilire una correlazione tra i punteggi ottenuti nel test e quelli ottenuti dagli stessi soggetti in un’altra serie di misure a base criteriale come confronto. Ciò significa che, attraverso questo procedimento, la validità di uno strumento si esaurisce nella relazione che esso ha con un altro strumento o con un altro indice che misura quella stessa caratteristica (come ad esempio il profitto scolastico posto in relazione al Q.I.). Se un soggetto ottiene un alto punteggio in una prova e presenta anche alti punteggi in un’altra prova, significa che le due prove misurano qualità analoghe e più alta è la correlazione tra le due misure, più i due test possono essere giudicati indicativi della stessa caratteristica o di caratteristiche di per sé diverse, ma in stretta relazione tra loro.

L’aspetto più importante della validità di un test psicometrico tuttavia è la sua forza predittiva, cioè la sua capacità di fare previsioni sul futuro rendimento del soggetto, e questo ha rappresentato il punto di forza ma anche di debolezza di tutto il testing psicometrico per come lo intendiamo oggi.

8

Page 9: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

La forza predittiva di un test di intelligenza viene normalmente misurata dalla corrispondenza con i risultati scolastici, partendo dal presupposto che i soggetti più dotati intellettivamente forniscano risultati scolastici più positivi, mentre i meno dotati tendono ad avere un profitto scolastico normalmente meno brillante. Anche se questa ipotesi viene considerata statisticamente ragionevole per i grandi numeri, esiste un'ampia serie di motivi che inducono a giudicare non così immediata la relazione tra livello intellettuale e successo scolastico. Ciononostante, il convincimento che esista una relazione di interdipendenza tra test psicometrico e risultati sociali in termini di affermazione nella scuola e nella vita è forte e diffuso e rappresenta una condizione di prassi consolidata nel modo di fare orientamento scolastico e professionale. Il convincimento di questa corrispondenza si basa su un altro convincimento ancora più profondo, quello di ritenere impossibile che tutti gli individui abbiano le stesse capacità intellettuali di base. Ciò che si pensa, in effetti, è che esistano nella società individui super-dotati, individui normo-dotati ed individui sotto-dotati, come per tanti altri caratteri che contraddistinguono normalmente l'essere umano. Proprio per questo convincimento, un'altra proprietà importante del test psicometrico è la sensibilità, la capacità, cioè, di discriminare le prestazioni dei singoli soggetti, tra quelli, ad esempio, di intelligenza normale e quelli che presentano un deficit intellettuale, comprendendo tutti i gradi intermedi in tutte le aree previste dalla prospettiva teorica di riferimento. Si tratta, in altre parole, della capacità di saper distinguere i punteggi tra individuo e individuo così come tra diversi gradi di performance in uno stesso individuo. L’ultima importante caratteristica di uno strumento psicometrico, infine, è quella che fornisce il grado di stabilità della misura, cioè la sua attendibilità. Se un test è attendibile, significa che è il più possibile esente da errori di misurazione e se si parte dal presupposto che alcune caratteristiche della personalità di un individuo permangono relativamente stabili nel corso del tempo, uno stesso soggetto, sottoposto alla medesima prova a breve distanza di tempo, dovrebbe fornire le stesse prestazioni. Date tutte queste caratteristiche è conseguente il fatto di vedere nel test psicometrico un vero e proprio sistema di misurazione tecnicamente completo dell’intelligenza umana. Interessante a tal proposito è la costruzione delle unità di misura che dal tempo di Binet ha rappresentato lo sforzo maggiore da parte di tutti i ricercatori. Da questo punto di vista lo studioso francese è stato certamente il primo ideatore di un test di intelligenza nel senso moderno del termine, allorché il Ministero della Pubblica Istruzione francese nel 1904 gli commissionò una prova per individuare gli alunni svantaggiati da inserire nelle classi speciali.

Predisponendo più prove di difficoltà crescente da sottoporre a gruppi di bambini presi a intervalli di età costanti, Binet calcolava la media dei punteggi a queste prove e determinava quali tra esse venivano superate dalla maggior parte dei soggetti di una certa età e non dalla maggior parte dei soggetti delle età anche immediatamente inferiori. In tal modo poteva dedurre che, se un soggetto, ad esempio, di otto anni superava le prove previste per i bambini di sette anni, ma non quelle per i bambini di otto anni, questo bambino era lievemente ritardato rispetto alla norma dei suoi coetanei, aveva cioè un'età mentale di sette anni. Per determinare empiricamente le prove più adatte alla misurazione dell'intelligenza Binet adottava come criterio quello secondo cui una prova era adeguata per misurare l'età mentale di un bambino, ad esempio, di sette anni se:

a) una percentuale compresa tra il 60 e il 75% dei bambini di questa età era in grado di superarla; b) una percentuale inferiore al 60% dei bambini di 6 anni poteva eseguirla correttamente; c) una percentuale superiore al 75% di bambini di 8 anni poteva superarla.

9

Page 10: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

In questo modo confrontava l’età mentale e l’età età cronologica di ciascuno, per cui se un soggetto presentava un'età mentale pari all'età cronologica veniva considerato di intelligenza normale, se presentava invece un’età mentale inferiore o superiore alla propria età cronologica veniva considerato rispettivamente ritardato o dotato, in una misura che variava a seconda dell'ampiezza della differenza tra età mentale e età cronologica. Oggi il significato attribuito ad una prova standard Stanford-Binet viene riassunto in un valore numerico finale che classifica l’intelligenza del soggetto esaminato secondo il seguente ordine:

ad un QI maggiore di 140 corrisponde un’intelligenza eccezionale o molto superiore alla norma;

ad un QI compreso tra 120 e 139 corrisponde un’intelligenza superiore alla norma; ad un QI compreso tra 110 e 119 corrisponde un’intelligenza media; ad un QI compreso tra 90 e 109 corrisponde un’intelligenza media o normale; ad un QI compreso tra 80 e 89 corrisponde un’intelligenza ai limiti della norma; ad un QI compreso tra 70 e 79 corrisponde un’intelligenza al limite con la debolezza

mentale; ad un QI compreso tra 50 e 69 corrisponde un’intelligenza coincidente con la debolezza

mentale; ad un QI compreso tra 20-25 e 49 corrisponde un’intelligenza coincidente con

l’imbecillità; ad un QI minore di 20-25 corrisponde un’intelligenza coincidente con l’idiozia; Come si vede, il punteggio-limite della debolezza mentale è posto a 70 mentre al di sotto si trovano tre gradi di deficit, dal meno grave al più grave. Un’altra classificazione, altrettanto famosa e basata sulla scala Wechsler, fornisce invece la seguente classificazione:

ad un QI maggiore di 128 corrisponde un’intelligenza molto superiore alla norma; ad un QI compreso tra 120 e 127 corrisponde un’intelligenza superiore alla norma; ad un QI compreso tra 111 e 119 corrisponde un’intelligenza normale vivace; ad un QI compreso tra 91 e 110 corrisponde un’intelligenza normale; ad un QI compreso tra 80 e 90 corrisponde un’intelligenza normale ottusa; ad un QI compreso tra 66 e 79 corrisponde un’intelligenza al limite del difetto mentale; ad un QI minore di 65 corrisponde un’intelligenza coincidente con il difetto mentale.

Anche se le misure prodotte appaiono diverse, a causa delle diverse deviazioni standard che presentano le due scale, si coglie come i punteggi-limite esprimono livelli intellettuali differenti tra loro. Ciò che ha permesso a scale di questo tipo di affermarsi è stato certamente il senso di sicurezza che infondevano nella società perché ne giustificava i caratteri di differenziazione manifeste e certamente sentite come ineludibili nella vita di ciascuno. Oltretutto, come per gran parte delle altre qualità umane, anche l'intelligenza si mostrava distribuita nella popolazione secondo l’andamento classico della distribuzione normale, con residue percentuali di soggetti con intelligenza o elevatissima o bassissima e con percentuali massime per i valori di intelligenza entro i valori medi della distribuzione. Per una popolazione di individui che va da 2 a 18 anni, sulla base di un esperimento condotto con la scala di Terman basata sul modello Stanford-Binet, si è ottenuta la seguente distribuzione di frequenze:

l’1% della popolazione presenta un’intelligenza eccezionale o molto superiore; l’11% della popolazione presenta un’intelligenza superiore;

10

Page 11: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

il 18% della popolazione presenta un’intelligenza nei valori alti della media; il 46% della popolazione presenta un’intelligenza media o normale; il 15% della popolazione presenta un’intelligenza nei valori bassi della media; il 6% della popolazione presenta un’intelligenza al limite con la debolezza mentale; il 3% della popolazione presenta uno stato di handicap mentale.

Si nota come il 79% degli individui in età evolutiva si colloca in corrispondenza dei valori medio-bassi, medi o medio-alti della norma (quasi la metà, il 46% esattamente, nei valori medi), mentre solo il 12% mostra punteggi superiori (solo l'1 % presenta un'intelligenza eccezionale) e solo il 9% nei valori nettamente inferiori alla norma (di cui solo al 3% viene riconosciuto un vero e proprio deficit intellettivo). La logica d’uso del Q.I., come si vede bene, è vincente perché stabilizza e legittima l’ordine delle cose così come appare tranquillizzando gli uni (coloro che indotti da spirito democratico sentono pesante il fardello di una società costretta a comprendere al suo interno individui meno fortunati di altri) e rassicurando gli altri (coloro che sentono impellente il bisogno di differenziare gli individui per differenziare se stessi).

Secondo H.I. Eysenck, è possibile riscontrare differenze di rilievo nel Q.I. tra le diverse categorie professionali, e ricerche fatte in diversi paesi sembrano confermare che categorie professionali più qualificate mostrano Q.I. medi più elevati rispetto a categorie di lavoratori non qualificati o semiqualificati (anche se esistono sovrapposizioni particolarmente sensibili nelle classi inferiori con la presenza di molti Q.I. elevati nella classe operaia ed alcuni Q.I. bassi nelle categorie professionali superiori). Ciò che si deriva da questa impostazione di fondo è che chi raggiunge determinati risultati nella scuola e nel lavoro ha generalmente buone capacità intellettuali e non ne ha se invece non ha successo scolastico o socio-professionale, anche se si ammette che in questo secondo caso è possibile che il risultato sociale e nel lavoro può dipendere anche da fattori esterni. I dati che seguono si riferiscono ad una ricerca effettuata negli anni ’70 e basata sullo studio di campioni di soggetti adulti svoltosi nel Regno Unito e riportato da Eysenck e Wilson. Ciò che appare interessante non sono tanto i risultati della ricerca quanto la fiducia nel metodo di misura. Il Q.I. medio registrato nei diversi gruppi professionali era così distribuito:

Docenti universitari, ricercatori, dirigenti statali, professionisti = 140; Medici e chirurghi, avvocati, ingegneri, professionisti = 130; Insegnanti, farmacisti, ragionieri, infermieri, stenografi, dirigenti industriali = 120; Capireparto, impiegati, telefonisti, venditori, poliziotti, elettricisti, aggiustatori, meccanici

= 110; Addetti alle macchine, negozianti, macellai, saldatori, operai siderurgici = 110; Magazzinieri, carpentieri, cuochi, fornai, coltivatori, camionisti = 100; Manovali, giardinieri, tappezzieri, operai agricoli, minatori, operai non qualificati = 90.

Un aspetto evolutivo del testing statico è stato il cambiamento che nel tempo ha subito il protocollo di somministrazione, che da individuale è divenuto, in molte delle sue applicazioni, collettivo e di gruppo. Dati i tempi piuttosto lunghi delle applicazioni individuali, le prove collettive furono prescelte per la loro praticità d’uso: molto più facili, rapide e soprattutto comode perché permettevano di trattare più persone contemporaneamente. I primi ad usare questa modalità furono le giovani reclute americane che giungevano ai distretti militari e che dovevano essere assegnati agli incarichi più idonei senza lunghe selezioni o periodi di prova (famosi furono in proposito, l'Army Alpha, batteria di questionari di tipo verbale e il successivo Army Beta, ideato per valutare adeguatamente le prove degli

11

Page 12: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

analfabeti o di non-anglofoni e sviluppati durante la prima guerra mondiale, l'Army General Classification Test (AGCT) o il più recente Armed Forced Qualification creati durante e dopo l’ultima guerra). Da qui l’estensione ad altri ambiti fu quasi immediata, sia nel caso di selezione del personale sia, soprattutto in ambito scolastico per valutare qualità, attitudini e capacità intellettuali degli studenti. Basta ricordare quelli che sono diventati nel tempo i più famosi test di abilità come lo Scholastic Aptitude Test (SAT), utilizzato per la selezione degli studenti da ammettere all'università, lo School and College Ability Test o il Graduate Record Examination.

Data la facilità d’uso, sono stati numerosi e diversi i tipi di test statici ideati e utilizzati in tanti anni, diversi tra loro per le modalità di somministrazione o per i fattori esaminati, o ancora per la tipologia dei destinatari. Si andava da quelli che misuravano l’efficienza (intelligenza, attitudini, profitto), a quelli che misuravano i tratti di personalità (affettività, interessi, carattere), a quelli che misuravano l’intelligenza generale e, attraverso le batterie multifattoriali, anche le componenti specifiche delle qualità intellettuali. Alcuni test, poi, riguardavano specifiche componenti dell'intelligenza, come le prove di creatività, oppure quelle costruite apposta per particolari categorie di persone, come i non vedenti o i non udenti. Insomma, un approccio differenziale alla misurazione di abilità, che si proponeva di effettuare un’analisi del rendimento individuale in rapporto ai diversi aspetti dell'intelligenza. Non più un unico punteggio (come ad esempio per il caso del Q.I.), ma diversi punteggi, ognuno dei quali riferito ad una singola attitudine, e in modo da ottenere un vero e proprio profilo mentale del soggetto.

In particolare, la convinzione che il fattore generale era molto meno generale di quanto si credesse e che tante e di forma diversa apparivano le intelligenze che un individuo possiede, produceva modelli intepretativi del pensiero sempre più preoccupati di dar conto dei rapporti tra tipi e forme di intelligenza. Come la Batteria Fattoriale delle Attitudini Mentali Primarie di Thurstone (AMP) che costituisce ancora oggi uno dei più diffusi test fondati sulla concezione multifattoriale dell'intelligenza (secondo la quale le capacità intellettuali sono determinate dall'insieme di molteplici e differenti attitudini isolate e descritte attraverso procedure di analisi di tipo fattoriale). Oggi la scala AMP è usata come test collettivo nella pratica di orientamento scolastico e professionale ed è destinata a soggetti di età compresa tra gli 11 e i 17 anni di età. Tra gli strumenti statici è uno di quelli che ha mostrato elevati coefficienti di correlazione con altri test di intelligenza generale, e presenta anche una buona correlazione con gli esiti scolastici nelle varie materie, il che contribuisce ad aumentare il giudizio positivo sulle possibilità di impiego di tale strumento nella scuola.

Dal testing statico al testing dinamico: un passaggio obbligato in campo educativoC’è da chiedersi se nonostante il successo che ancora oggi questi strumenti di misura statici continuano ad avere, essi rispondono davvero allo scopo per cui sono stati costruiti, o la loro diffusione e il loro successo costituiscono solo un rispecchiamento del modello attraverso cui la società è andata strutturandosi ed organizzandosi nell’ultimo secolo. Se da una parte infatti il test di intelligenza in tutte le sue varie forme ha fatto da alibi per il mantenimento di un assetto socio-economico basato sulla specializzazione e sulla differenziazione degli individui, dall’altra la sua natura di mero strumento di rilevazione empirica lo ha reso partecipe di una visione positivistica della realtà. Tutto ciò spiega bene il successo di queste modalità di studio dell’uomo in quanto affini a quelle adoperate per indagare sulla natura fisica del mondo. In fondo anche nel campo della psicologia scientifica si sono applicati in modo coerente e conseguente i protocolli teorici e metodologici della ricerca sperimentale.

12

Page 13: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

La valutazione, dice Wilhelm Dilthey, è quel naturale processo intepretativo in cui, grazie all’altro e davanti all’altro, noi comprendiamo noi stessi. Si valuta, anche se non soprattutto, per valutarsi e perciò per comprendersi meglio. C’è una differenza sostanziale tra “spiegazione” e “comprensione”, ma mentre la metodologia della prima sta nel campo delle scienze naturali in qualche modo dominandolo, la seconda appartiene di diritto alla metodologia delle scienze umane. E il mondo umano, dice ancora Dilthey non è caratterizzato come quello naturale da relazioni causali ma ha a che fare con scopi, valori, intenzionalità. In questo senso oggi si coglie molto bene l’insorgere di nuovi bisogni nel pensiero delle scienze dell’uomo; bisogni che provengono da lontano e che affondano le proprie radici negli stessi cambiamenti che la concezione di intelligenza sta subendo da qualche tempo. C’è un'ampia concordanza, oggi, nella letteratura di settore su alcune idee in proposito, tra le più accreditate quella secondo cui l'intelligenza è la capacità di acquisire le informazioni e di usarle in contesti diversi (Campione e Brown, 1985; Resnick e Glaser, 1976; Gagné, 1970). Si tratta di una definizione che merita attenzione perché contiene in sé due fondamentali implicazioni: la prima è che nello stimare i caratteri dell’intelligenza si tende per la prima volta ad includere anche una stima dell'abilità ad apprendere; la seconda è che non si può più pensare al test di intelligenza come ad uno strumento prescrittivo che misura quanto si è acquisito (come una conoscenza o una abilità), ma che sappia rilevare quanto si può acquisire. (Brown, Ferrara, 1985) Non si tratta più di valutare la qualità del pensiero umano misurandone alcune proprietà in termini di prodotti, ma comprendere che ciò che rende il comportamento di un individuo è l’insieme di tutti quegli attributi relativamente stabili che convenzionalmente chiamiamo “abilità”. Ma non “abilità” intese come caratteri statici di un comportamento cognitivo dato, quanto piuttosto come “developing expertise” come expertise in sviluppo, un processo continuo di acquisizione e consolidamento di un insieme di abilità necessarie per conseguire un elevato livello di padronanza in uno o più ambiti di prestazione. Quello di abilità intesa come expertise in sviluppo è un concetto di grande valore innovativo perché racchiude in sé una dimensione dinamica ed evolutiva dell’intelligenza e quindi della sua stessa misura. Non più la misura di qualcosa di immodificabile perché già accaduto, e quindi ormai ineluttabilmente appartenente al passato, ma la misura di qualcosa che è in divenire e che quindi può cambiare sotto i miei stessi occhi. Il concetto di abilità è un concetto che richiama potenzialità e trasformazione perché: 1. un’abilità costituisce un vero e proprio sistema dinamico, un sistema guidato da un programma che permette una regolazione continua e un adattamento al contesto. Alcune abilità possono avere gradi diversi di complessità in dipendenza del tipo di compito da assolvere e divenire con la pratica e la generalizzazione abitudini perfezionate; altre sono caratterizzate da alta interattività con il contesto a cui continuamente si riadattano (in quanto expertise in sviluppo un’abilità, di qualunque natura essa sia, non consente una conoscenza esplicita dei suoi contenuti come elementi di comportamento ma rispecchia solo una competenza nella sua globalità). 2. un’abilità è sempre il prodotto di una coordinazione di più componenti come l’intenzione, la capacità o l’azione, componenti che si presentano al pensiero come risorse duttili e malleabili pronte all’uso (non è un comportamento definito e riconoscibile ma un insieme di comportamenti in una situazione di problem-solving attraverso cui l’intenzione coordina capacità e azione, ma ne viene a sua volta influenzata) .

13

Page 14: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

3. un’abilità è sempre frutto di un apprendimento, che può derivare da un comportamento imitativo, da una esperienza vissuta o da un insegnamento formale (è la capacità di finalizzare funzioni-base della conoscenza, come l’attenzione, la memoria, il linguaggio o il pensiero, e di rendere i comportamenti cognitivi ed emotivi rispondenti al compito da svolgere). Nel contesto scolastico le abilità mostrano chiaramente la loro natura di expertise in sviluppo, sia quando agiscono in forma specializzata nella gestione dei contenuti di sapere, sia quando cooperano trasversalmente nelle prestazioni cognitive, affettive e psico-motorie. In proposito è interessante ciò che sostiene Elena Grigorenko a proposito di expertise in sviluppo, rappresentandolo come un insieme di sei elementi chiave, tre dei quali in forma di abilità di base e tre in forma di caratteri di campo: le tre abilità di base sono l’abilità metacognitiva, l’abilità di apprendimento e quella di pensiero; i fattori di campo sono la conoscenza, la motivazione e il contesto. (Grigorenko, 1997)Ogni abilità intesa come expertise entra così a far parte del "sistema di produzione" della conoscenza e dell’azione, vale a dire del sapere “che cosa fare” (la conoscenza dichiarativa come insieme dei punti di incrocio nella mappa cognitiva del sistema) e del sapere "come fare" (la conoscenza procedurale come insieme di link associativi nella mappa cognitiva del sistema).Il concetto di “abilità” è una nozione che già da tempo la psicologia aveva elaborato in campo educativo con lo scopo di aiutare l'elaborazione di didattiche per migliorare l’apprendimento: lo scopo di questi approcci era rendere l’alunno competente in determinati apprendimenti relativi alle sfere cognitiva, socio-affettiva o pragmatica, a seconda dei bisogni. La competenza, infatti, veniva caratterizzata come sistema complesso ed originale di abilità integrato nelle strutture cognitive e al quale potersi riferire per risolvere una qualunque situazione di problem solving. Ed è proprio questo modo di intendere il concetto di abilità e questo suo modo di operare a rendere necessaria una valutazione diversa dell'intelligenza e un diverso modo di misurarla, non più con misure di tipo statico ma dinamico. Mentre le misure statiche, infatti, riguardano sempre conoscenze e capacità possedute e già sviluppate in un dato momento, quelle dinamiche chiamano in causa l'abilità ad apprendere, ad utilizzare cioè quanto il mondo esterno è in grado di fornire in termini di aiuto per risolvere quel problema o raggiungere quell’obiettivo.

In tale contesto appare centrale il concetto di “zona di sviluppo prossimale” di origine vygotskiana, come punto di partenza per sviluppare uno schema logico per analizzare, non solo il tradizionale concetto di “apprendimento” ma soprattutto quello molto più recente di “potenziale di apprendimento” (Feuerstein, 1980). Con “zona di sviluppo prossimale”, originale intuizione del grande studioso sovietico, si identifica quell'area di sviluppo cognitivo potenziale che permette al bambino di trarre vantaggio da un intervento di un mediatore esterno. Ed è su questo concetto, in particolare che oggi poggia l’interesse scientifico per l’approccio dinamico alla valutazione dell’apprendimento perché conduce alla teoria Feuresteniana della “Modificabilità Cognitiva Strutturale”. Seguendo lo studioso israeliano, ciò che emerge come punto di accesso ai nuovi studi è il presupposto che tutti gli individui sono suscettibili di modificazione e che tutti, chi più chi meno, differiscono tra loro solo per il livello di modificabilità che possiedono, in termini di resistenza all’azione di stimoli esterni. Per cui: se l'intelligenza è la risultante dell'apprendimento e l'apprendimento consiste in un processo di modificazione continuo di abilità, cioè di expertise in sviluppo, allora le capacità intellettive dovranno essere misurate da un indice che fornisca la misura di questa modificazione, o in termini di velocità o in termini di intensità.

14

Page 15: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

E ciò comporta naturalmente un cambiamento radicale di prospettiva nell’uso del testing, perché mentre in un test statico il comportamento manifesto costituisce il punto di arrivo misurabile e interpretabile secondo la procedura di riferimento, in un test dinamico lo stesso comportamento è solo un punto di partenza da cui muovere per poter valutare con un intervento di mediazione appropriato il potenziale di apprendimento in termini di capacità di apprendere .

In realtà, anche nella storia evolutiva del testing dinamico, molti tra gli stessi sostenitori di questa tecnica hanno intravisto la necessità di indagare di più sulla capacità di apprendere, andando oltre all’appreso. Lo stesso Binet sosteneva nel 1909 l’importanza di una valutazione di processo più che di quella di prodotto, senza peraltro riuscire ad andare oltre queste buone intenzioni. E così pure Penrose per il quale il test ideale per lo studio della deficienza mentale non è quello che mostra quanto si sa fare, ma quello che indaga sulla capacità di apprendere a fare. Allo stesso modo anche Andrè Rey, ideatore di prove considerate fondamentali nella storia del testing tradizionale, esprimeva riserve sul testing statico ritenendo più utile testare l’educabilità di un individuo più che un comportamento cognitivo manifesto nello svolgimento di un compito. E così pure il premio Nobel Luria, che nel 1961 criticò la prospettiva psicometria, caldeggiando un approccio interattivo nell’esaminare le capacità cognitive di un bambino. Secondo il famoso fisiologo era difficile poter considerare affidabile l'analisi statica delle abilità intellettive, dato che i processi psicologici superiori hanno una storia evolutiva assai complessa e si strutturano a partire da interazioni sociali basate sul linguaggio. E’ più utile quindi, diceva Luria, esaminare il bambino attraverso un’analisi dello stato attuale e confrontarlo con quanto egli è in grado di fare con l'aiuto di una figura di mediatore; rilevare cioè il cambiamento, l’apprendere stesso, e non il risultato dell'apprendimento.

Seppure queste idee erano già presenti tanti anni fa, va riconosciuto in ogni caso a Vygotskij il primo serio studio sul testing dinamico in chiave moderna perché è con le sue idee e soprattutto con le sue ricerche che si giunge per la prima volta ad una teoria sistematica di questo modello di valutazione. Dopo Vygotskij sono stati molti gli studi e le ricerche svolte in questo campo, grazie anche al cambiamento culturale che la società ha via via subito nel tempo: dal bisogno di integrazione all’interno di una stessa cultura al bisogno di integrazione di membri appartenenti a culture differenti.Tra gli studi ormai considerati fondamentali sono stati quelli di Reuven Feuerstein. Ciò che contraddistingue lo studioso israeliano, in particolare, è la determinazione con cui ha saputo costruire una teoria per giustificare, non solo la metodologia valutativa da lui elaborata, ma anche se non soprattutto, per sostenere contro ogni resistenza ideologica che l’intelligenza dell’uomo è modificabile e che ciascun individuo in ogni momento della sua vita può aspirare a conseguire trasformazioni tali da migliorare la qualità del suo pensiero e del suo comportamento. Per Feuerstein il testing dinamico non può ridursi a blanda misura di una o più variabili più o meno quantificabili, ma si colloca all’interno di una visione più complessiva e generale in cui ciò che conta è il cambiamento e la sua valutazione. Il concetto chiave che viene richiamato dalla metodologia Feurstein è quello di Esperienza di Apprendimento Mediato (EAM), il modo cioè attraverso cui gli stimoli provenienti dal mondo esterno possono venire trasformati dall’azione di un “mediatore” che seleziona ed organizza per il bambino l’universo di questi stimoli. Attraverso questo processo il bambino acquisisce modelli di apprendimento e di comportamento che a loro volta diventano ingredienti importanti della sua capacità di essere modificato.

15

Page 16: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Noto come Sistema di Valutazione del Potenziale di Apprendimento (LPAD) la batteria di prove che Feuerstein adopera per il testing dinamico si mostra rispetto ad altre strumentazioni di altri autori di gran lunga più ricca e completa, e soprattutto libera dai vincoli di una rigida operazionalizzazione come è invece per tutto il testing statico.

Ma l'utilizzazione di una valutazione dinamica trova anche altre ragioni di natura più etica che culturale perché permette di conseguire risultati importanti anche nella lotta contro le ineguaglianze socio-educative presenti nella scuola e nella società. Nei confronti di uno studente svantaggiato, il riuscire a quantificare l’apprendimento in situazione, attraverso un approccio dinamico all’osservazione e al giudizio, può essere il solo modo di valutare il suo vero livello di funzionamento cognitivo. Ed è questa la ragione che induce a privilegiare questo modello di valutazione rispetto all'altro più tradizionale. E’ un modo di valutare, in altre parole, sia il funzionamento del pensiero che la gestione della conoscenza, rendendo manifesto, nel comportamento di un individuo, il rapporto che c'è tra capacità nascoste e abilità sviluppate. Da un punto di vista tecnico, è la stessa procedura del testing dinamico a rendere chiara tutta la questione. Mentre in un test convenzionale, infatti, la somministrazione degli item avviene senza feedback (in quanto ritenuto causa di errore di misurazione e quindi da evitare ad ogni costo), nel test dinamico l'insieme degli item presentati è sempre comprensivo di istruzioni e di interventi supplementari espliciti forniti al soggetto.E paradossalmente è qui che si crea la contrapposizione tra i due tipi di testing, quello statico caratterizzato da scientificità perché in grado di misurare in forma standardizzata e con uso esteso della statistica, e quello dinamico privo di un sistema di validazione interna, scarsamente rigoroso nella quantificazione dei dati e senza alcuna standardizzazione né della procedura né dell’analisi dei risultati. La prima è che il testing dinamico, proprio perché orientato a rilevare cambiamenti mentre avvengono, esamina solo livelli potenziali di abilità possedute, di abilità non ancora espresse, insomma di expertise in sviluppo non misurabili (anche perché qualunque misura quantificherebbe un dato di una realtà statica, un oggetto in un certo stato e in un certo momento). La seconda è che essendo il testing dinamico un metodo di valutazione della capacità di apprendere di un individuo risente in modo determinante dell’azione di insegnamento e di contesto e quindi della relazione di interdipendenza tra il soggetto che impara, il soggetto che insegna e l’ambiente in cui la relazione si svolge.

E’ la seconda questione, in particolare, a rivestire un’importanza cruciale perché riguarda il ruolo della mediazione che la procedura di testing sottende e che si esplica nell’azione dell'esaminatore, chiunque egli sia. Quando si adopera un test tradizionale, infatti, il soggetto si trova solo davanti al problema e non può beneficiare di alcun feedback. Al contrario, nella valutazione dinamica è previsto sempre un intervento di mediazione che evidenzia, attraverso l'interazione, quali sono le abilità padroneggiate e quali no. Davanti a compiti progressivamente più impegnativi, l'azione di feedback immediato permette al soggetto di percepire e di verificare direttamente l'abilità di apprendimento espressa nello stesso momento in cui avviene l’apprendimento. E’ la "qualità" della relazione che si instaura tra esaminatore ed esaminato che diventa strategica nella valutazione dinamica. Perché, alla neutralità del rapporto del primo tipo di valutazione, si contrappone, il coinvolgimento attivo e la presenza incoraggiante di chi fa mediazione arricchendo la relazione e creando valore aggiunto alla prestazione.

16

Page 17: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Certamente il momento più favorevole per l’uso del testing dinamico nell’attività di valutazione scolastica sarebbe quando non si ha certezza che il test tradizionale misuri le stesse caratteristiche per tutti i soggetti esaminati. Questa condizione, ritenuta statisticamente probabile per molti dei test diffusi nel mondo dell'educazione, può ritrovare nella scelta del testing dinamico un valido strumento di analisi della comparabilità delle differenze tra individui, grazie alle specifiche di intervento proprie della valutazione dinamica (come l'addestramento al contenuto e ai procedimenti risolutivi o come la riduzione di certi fattori di disturbo come i tratti personali o quelli socio-culturali). Per tutte queste ragioni non solo il testing dinamico dovrebbe diffondesi a scuola ed entrare a pieno titolo tra i sistemi di valutazione dell’apprendimento degli allievi, ma che realizzato in ambito educativo, un test dinamico dovrebbe possedere specifiche molto precise come: (1)

una notevole qualità di adattamento ad un modello latente in modo che sia implicita la comprensione degli effetti risultanti dalla modificazione di componenti di tale modello;

un alto valore dinamicamente predittivo; una capacità di prevedere gli effetti che sulla prestazione cognitiva producono fattori

come le strategie o le funzioni esecutive.

In queste condizioni, non solo sarebbe possibile riuscire a valutare, in un bambino, il grado di disposizione al cambiamento nell'esercitare una certa abilità cognitiva, ma sarebbe anche possibile effettuare l’addestramento apposito per raggiungere l'obiettivo. (Feuerstein, 1980)

Purtroppo, come già detto, si tratta di obiettivi non facilmente raggiungibili a scuola, anche perché, se adoperato normalmente, questo metodo di valutazione non sarebbe applicabile facilmente a livello individuale. L'insegnante, infatti, è indotto per come normalmente organizza il suo lavoro, a massimizzare il feedback che riceve dal gruppo di studenti, adattando in modo naturale il suo comportamento come parte integrante del suo compito.

In una serie di recenti ricerche in ambito scolastico (che esaminavano il rapporto tra i test di misura del potenziale di apprendimento e i normali compiti scolastici), è stato trovato che il metodo della valutazione dinamica è correlabile in modo significativo con il profitto scolastico. In particolare, è emerso che il valore predittivo delle prove di valutazione del potenziale di apprendimento in un ambito specifico risulta molto più alto se i compiti contenuti nel test sono simili a quelli dell'ambito specifico stesso (sono state trovate correlazioni alte (p<.01) tra un test di simulazione di lettura, somministrato in un asilo e alcuni test di lettura e di spelling nella prima classe) (Sternberg, Grigorenko, 2000) . Un altro elemento che è emerso, inoltre, è stato la significatività del rapporto esistente tra la natura dinamica dei compiti previsti dal metodo e gli stili di insegnamento praticati nella scuola: mentre le prove tradizionali tendono a corrispondere a stili di insegnamento più conservatori, compiti più dinamici e centrati sull’alunno corrispondono in generale a stili di insegnamento più aperti e progressisti. Da qui, l’idea, praticata per il momento a livello sperimentale, di includere nelle batterie dei test di misura del potenziale di apprendimento anche compiti di apprendimento protocollare corrispondenti a quanto effettivamente svolto nelle attività scolastiche ordinarie. (Hamers, Pennings e Guthke 1994)

Ma ciò che rende particolarmente valido l'approccio dinamico alla valutazione scolastica è l'effetto che il metodo può produrre, se utilizzato nella didattica ordinaria, nei confronti di una prassi valutativa, oggi molto diffusa, che fa uso di prove oggettive per misurare il profitto degli studenti. Si tratta dei numerosi modelli di test che rapidamente stanno sostituendo prove tradizionali di profitto di tipo scritto (come ad esempio, i temi o le relazioni) o di tipo orale

17

Page 18: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

(come le interrogazioni o i colloqui). Basati su modelli psicologici di estrazione psicometrica, da cui importano forme, contenuti e finalità, questi nuovi modelli di testing presentano un rischio molto alto perché si richiamano ad una visione della mente e dei processi di pensiero ormai ampiamente superata. La sostituzione di un test di profitto di questo tipo con un test di tipo dinamico, anche se quest'ultimo si presenta molto impegnativo nella fase di preparazione e soprattutto in quella di esecuzione, costituisce un notevole progresso per l'azione di insegnamento perché è centrato prevalentemente sulla funzione di incontro insegnante-allievo: l'attenzione, durante lo svolgersi della sequenza valutativa, viene rivolta principalmente alle modalità con cui vengono applicati i criteri di mediazione e quindi, in definitiva, al contenuto comunicativo e alla sua efficacia.

Il valore educativo del testing dinamico Uno degli aspetti che caratterizza il rapporto tra un insegnante e il suo allievo, è il modo con cui avviene l’interazione pedagogica nella situazione di valutazione dell’apprendimento: quale comportamento l’insegnante decide di avere di fronte ad un allievo che affronta un problema da risolvere; come l’insegnante pone all’allievo il problema e come giunge a verificare la riuscita del compito. E, cosa ancora più importante, come l’insegnante trae da questa esperienza il suo convincimento circa le abilità sviluppate dal suo allievo, se non addirittura le capacità da lui possedute. Se si prova a studiare la questione, si può certamente convenire sul fatto che lo studente che inizia a lavorare su un problema per lui nuovo, dapprima si orienta, consapevolmente o meno, su quanto egli possiede in conoscenza e competenza per la soluzione del problema. Egli osserva il problema da diversi punti di vista, sia come dati utili alla sua soluzione ma anche come idee e soprattutto strategie su come utilizzare le idee per affrontare il problema. In questa circostanza il modo con cui l’insegnante interagisce con lui può rappresentare un modo per esaminare da vicino il processo di apprendimento, perché permette di considerare la stessa discussione come parte della fase di apprendimento che non riguarda ciò che è avvenuto ma ciò che può avvenire. Come stile pedagogico, questo modo di stare in situazione dell’insegnante oggi non costituisce una prassi molto diffusa nel mondo dell’educazione e della scuola in particolare, anche se in effetti è forse l’aspetto più importante dell’attività di valutazione (perché privilegia proprio le abilità che un individuo mostra nel progettare e pianificare le sue azioni nello svolgimento di un compito cognitivo, cioè quelle abilità che esprimono in potenza ciò che egli sarà in grado di fare ma che ancora non fa). Ancora nel 1946, lo studioso russo S. Rubenstein sosteneva che per poter valutare l’apprendimento di un individuo è necessario prima insegnare qualcosa e poi osservare come avviene l’apprendimento che ne consegue, in modo da trarre conclusioni non tanto su quanto appreso ma su quanto è possibile che egli apprenda, cioè sulle sue capacità potenziali di apprendimento.Certo è che, se si assume che le abilità di un individuo esprimono un divenire che riguarda forme di expertise in sviluppo, allora non ha molto senso, dal punto sperimentale, pensare che sia possibile effettuare la misura di un’abilità per quanto sviluppata essa sia. (2)

D’altra parte, come sostiene Margiotta “è la stessa professionalità dell’insegnante, il suo agire pedagogico e non solo didattico, in tutto simile - nei rischi, nella oblatività, nella decisività dei suoi atti - a quella del medico a dover rendere conto momento dopo momento del divenire. Come il medico della vita così l’insegnante è responsabile della mente dei suoi allievi; come per il medico la diagnosi è momento strategico per l’intervento e la cura, così per l’insegnante lo è la diagnosi educativa” (Margiotta, 2003).

18

Page 19: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Si tratta di una diversa ed originale situazione che si crea perché, secondo lo studioso italiano, non si tratta di una mente adulta, quella dell’insegnante, che dirige la sua azione “a seguito degli aggiustamenti prossimali che la sua pratica e il suo aggiornamento consentono”, ma piuttosto come una sua componente costitutiva, una forma di apprendimento esperto che non produce certezze ma possibilità, “non regole ma connessioni che consentono ad una rete di conoscenze, dati ed esperienze di agire come se conoscessero regole di generalizzazione”. (Margiotta, ib.)

E forse è per questo che la sfida è impegnativa e rischia di fallire, perché pur riconoscendosi al testing dinamico e alla valutazione dinamica un grande valore come strumento di indagine e di intervento, non si riesce a superare la visione psicometrica dell’intelligenza e dei processi cognitivi che la sostanziano. Il limite concettuale risiede nella resistenza a considerare i due tipi di testing come un continuum, come un unico metodo di valutazione che permetta nelle forme a ciascuno più consone di evidenziare aspetti impliciti ed espliciti dell’attività di apprendimento di un bambino o di un ragazzo. Al testing dinamico viene riconosciuta la capacità di guardare oltre il muro ma al testing statico è riconosciuto di descrivere il muro per quello che è. Nella società, e quindi nella scuola che la richiama continuamente attraverso i suoi modelli culturali, l’attenzione è tesa oggi a comprendere il cambiamento e quindi la dinamica che qualunque cambiamento richiama e sottende. Se la struttura valutativa dei sistemi socio-educativi non è ancora a punto, questo non può impedire che ci si incammini al più presto su questa nuova strada. Ciò significa che nella scuola è ormai giunto il momento di sperimentare a livello di processo di apprendimento l’applicazione di modelli di testing dinamico perché sono le uniche alternative eticamente accettabili per consentire ad ogni bambino di trovare in sé le cause e i rimedi dei propri limiti e, nello stesso tempo, i modi e gli strumenti per promuovere le proprie capacità al massimo delle possibilità.

_________________________________________________

Note

(1) Non solo il testing ma anche gran parte della psicologia italiana ha avuto nel suo sviluppo una storia difficile fatta di problemi che spesso non hanno permesso ai suoi esponenti maggiori di far conoscere e valere a livello internazionale le ricerche svolte. Se negli anni ’30 infatti gran parte degli studiosi si trovò ad operare in un clima di totale isolamento a causa del regime politico, negli anni del dopo guerra la pressione del rinascente idealismo limitò molto lo spazio del lavoro che si faceva in questo campo all’interno di facoltà universitarie come quella di Lettere e Filosofia o di Magistero.Ciò nonostante, in quel periodo già erano fiorenti diverse scuole di pensiero che davano del panorama psicologico italiano una solida fisionomia scientifica: da una parte la scuola della Cattolica di Milano di Padre Agostino Gemelli (forse il movimento che ha prodotto il maggior numero di studiosi italiani e di fede strettamente wundtiana) e quella di Torino con Kiesow, dall’altra le scuole di Benussi, di Musatti e di Kanizsa che si sviluppavano nelle università di Padova, Bologna e Trieste e che aderivano alla corrente gestaltista, e quelle di Firenze e Roma con De Sarlo, De Sanctis e Ponzo.Nonostante una certa caratterizzazione scientifica iniziale, furono tutte scuole che a partire dagli anni ’60 andarono perdendo le proprie specificità dottrinarie a vantaggio di una uniformità di approccio manifestamente cognitivista.

19

Page 20: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Se si esamina la storia del testing per quello che ha significato per la ricerca sperimentale italiana un posto di rilievo è certamente quello occupato da Giulio Cesare Ferrari per il contributo fondamentale dato alla nascita della psicologia e al rinnovamento metodologico della psichiatria del ‘900. Ciò che distingue lo studioso emiliano, infatti, è la determinazione con cui si adoperò per il superamento della contrapposizione tra psichiatria e psicologia e a vantaggio di una visione unitaria e sperimentale da attribuire in modo completo alla psicologia sperimentale (disciplina che insegnò per vent’anni all’Università di Bologna presso la Facoltà di Lettere e Filosofia di quella università). Ferrari non solo aderì alle tesi di Binet e ai suoi modelli di test mentale (che egli preferì sempre chiamare “reattivi mentali”) ma operò con grande impegno per dotare la Psicologia italiana di uno statuto scientifico, costruendo uno spazio di ricerca originale che si proponeva di mettere insieme le istanze di una psicologia individuale (alla Binet) e una psicologia sociale (come parte integrante della psicologia generale) a cui si richiamavano in quel periodo le ricerche di James.In Italia Ferrari fu il primo ad introdurre il test per la misura del Quoziente di intelligenza nel trattamento di malati mentali ottenendo risultati di notevole rilievo. Persuaso che tramite tale tipo di test fosse possibile conoscere anche le modalità delle manifestazioni non manifestamente psicotiche ne favorì l’uso e la diffusione nello studio delle personalità normali conseguendo risultati importanti nell’analisi di comportamenti devianti come quelli giovanili.Se all’inizio del ‘900 Giulio Cesare Ferrari era considerato uno dei capiscuola nell’uso del testing mentale, già alla fine degli anni quaranta molte erano le ricerche sui reattivi mentali che si svolgevano in Italia e diversi erano gli studiosi, come Rizzo, Gemelli o Metelli, che trattavano da vicino la materia. In quegli anni venivano già tradotti e adattati molti dei test americani più diffusi mentre la metodologia del testing mentale si diffondeva in molti e diversi campi (come quello psicoterapeutico o anche quello psicometrico molto adoperato per gli interventi di selezione aziendale).

Anche se il positivismo italiano non riuscì mai a produrre una precisa tradizione sperimentale come negli Stati Uniti o in Inghilterra, oggi si può dire che l’uso del testing nel nostro Paese ha seguito di fatto lo stesso percorso e la stessa sorte che si ebbe in Europa e negli Stati Uniti. Se fino agli anni ’60, infatti, l’utilizzazione di strumenti di misura costituiva un vero e proprio business con una diffusione talmente estesa da essere praticamente presenti in quasi tutte le situazioni in cui c’era da valutare una performance individuale (nell’istruzione scolastica, negli ospedali, nelle industrie, negli uffici pubblici, ecc.), la superficialità crescente con cui venivano approntate le batterie di test e soprattutto una mancanza di base teoriche realmente solide, determinò un movimento di critica che culminò nel 1966 con la stampa di norme (aggiornate successivamente nel 1974 e nel 1985) specifiche per la costruzione, la valutazione e le procedure di somministrazione e di interpretazione dei risultati dei test. Ma la fiducia per il testing tuttavia non ha mai spento l’entusiasmo dei ricercatori che hanno continuato anche in Italia a lavorare per una sempre più seria messa a punto di strumenti validi ed affidabili dal punto di vista psicometrico, tanto che oggi viene considerato ormai una pratica indispensabile, se non addirittura insostituibile, in molti ambiti quali quelli ospedalieri, quelli giudiziari, quelli educativi, quelli professionali, ecc. In questi ultimi anni tre sono state le innovazioni scientifiche e metodologiche più importanti che hanno influenzato la storia recente del testing :

1. l’uso massiccio dei computer, che non solo ha reso più veloce la somministrazione del test evitando anche in fase di elaborazione errori di trascrizione, ma ha anche permesso di misurare abilità, come quelle spaziali o percettive, prima impossibile da fare. Anche se alcune critiche sono state rivolte di recente al testing automatico a causa delle modalità di interazione uomo macchina, alcune ricerche recenti sostengono che il testing computerizzato sarà nel futuro sempre più interattivo adattandosi alle caratteristiche dell’uomo.2. l’introduzione della meta-analisi nella verifica delle proprietà metriche del test, che ha permesso di integrare i dati provenienti da differenti indagini attraverso metodologie statistiche basate sull’analisi multicriteriale della “validity generalization”;3. l’utilizzo della teoria del tratto latente, che permette di rintracciare all’interno di un gruppo di item quelli con il medesimo grado di difficoltà e il medesimo potere discriminante, permettendo così di preparare tipi diversi di test con lo stesso grado di difficoltà, oppure di sottoporre gruppi di soggetti diversi a parti dello stesso test.

In generale il sostegno fornito da alcuni autori al processo di integrazione dei due ambiti, quello psichiatrico classico e quello psicologico sperimentale, è sempre stato vissuto in Italia in qualche modo come “provocatorio” ed è per questo che per molto tempo i vari ordini professionali degli psichiatri, psicologi, giuristi e avvocati cristallizzati sulle proprie competenze e conoscenze si sono tenuti distanti gli uni dagli altri. Dal punto di vista della diffusione si può dire che gli anni dal 1960 al 1970 sono stati quelli in cui la psicodiagnostica ha avuto una estesa e rapida espansione (anche se la tendenza era soprattutto quella di “etichettare” in modo semplicistico e

20

Page 21: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

spesso superficiale ciò che emergeva dai reattivi mentali in senso diagnostico-clinico e di trascurare nel contempo gli aspetti fondamentali della diagnosi psicologica, cioè la valutazione dei tratti di personalità). Fu anche a causa di questo che per quasi tutto un decennio i test mentali subirono un attacco continuo da parte dei seguaci dell’antipsichiatria che non riconoscevano la natura della malattia mentale e quindi gli inquadramenti classificatori che ne derivavano (dal movimento antipsichiatrico le prove psicologiche venivano percepite come strumenti per diagnosticare malattie e in qualche modo paradossalmente per provocarle ).Solo nel decennio successivo, dagli anni ’80 agli ’90, il testing mentale trova un proprio spazio nella psicodiagnostica sull'onda di un ampliamento e di una relativa stabilizzazione dei concetti di “malattia mentale”. In questo contesto, in particolare, il testing ha avuto modo di recuperare un proprio spazio riconoscibile nella valutazione della personalità per tratti e quindi nella diagnosi psicologica in generale.

Si può dire che il lavoro psicodiagnostico attraverso l'uso di test psicologici è stato in Italia, come in tutto il resto del mondo, un percorso lungo e complesso perché ha avuto bisogno di diversi momenti di analisi, da quello dell’impianto teorico sottostante allo strumento a quello dell’estrapolazione e della correlazione dei dati, a quello della quantificazioni delle variabili, a quello infine delle conoscenze cliniche, psicopatologiche e psicodinamiche.Un altro settore di applicazione strategica del testing mentale è quello dell’educazione e della scuola. Molti sono stati gli studiosi che anche in Italia si sono adoperati nell’elaborare test per applicazioni in ambito scolastico. Lo psicologo e più in generale l’insegnante si trovano spesso a dover valutare sia abilità cognitive di vario tipo e natura, come quelle mnestiche, quelle percettive o di ragionamento, sia abilità metacognitive come la capacità di prevedere le difficoltà nella soluzione di un problema o quella di pianificare con efficacia un certo compito. Negli ultimi anni la produzione in campo scolastico dei test è stata enorme e anche se la diffusione di una corretta cultura valutativa incontra ancora numerosi ostacoli e resistenze non solo nella scuola di base ma anche in ambito universitario, la loro diffusione sta continuando diversificandosi sempre di più. In generale sono abbastanza differenziate tra loro le applicazioni diagnostiche che oggi si fanno nella scuola: si va dai test di intelligenza a quelli attitudinali e a quelli di profitto finalizzati a conoscere e a valutare le abilità raggiunte o potenziali, ai test, invece, che si prefiggono di conoscere le preferenze di un individuo, come ad esempio i test di personalità, quelli di valori, di interesse, ecc. (Pedrabissi e Santinello, 1997).

Un settore molto indagato dai test di performance è quello per la valutazione dell’attenzione. In lingua italiana sono diverse le scale osservative (e autoosservative) come quelle curate da Cornoldi e collaboratori e che permettono di individuare comportamenti di disattenzione ed iperattività (le scale SDAI, SDAG, SDAB e CTRS) (Cornoldi ed altri, 1996).L’esame delle abilità motorie effettuato su bambini di scuola elementare è ancora oggi una delle indagini più conosciute nella scuola italiana per il rilievo che ha nel mettere in evidenza il rapporto tra motricità e abilità cognitive. Il test più noto di questa serie è costituito dalla batteria delle prove Q1 di cui 6 di tipo prussico carta matita, una di riproduzione, tre a memoria di sequenze, una di tipo motorio e di orientamento ed una di equilibrio statico-dinamico (De beni e Gruppo MT, 1994).

Anche la memoria costituisce nella scuola un terreno di indagine privilegiato con batterie di test appositamente costruite, come quella che si trova all’interno del reattivo per la misura dell’intelligenza di Wechsler (si tratta di una scala di memoria che ha il pregio di richiedere una breve somministrazione e la possibilità di essere confrontata con i punteggi del QI. E’ particolarmente interessante, in proposito, il recente lavoro di ricerca che Cornoldi e il suo gruppo ha intrapreso con l’intento di esaminare i limiti della memoria di lavoro visuo-spaziale in bambini con difficoltà cognitive di natura non verbale (i deficit di memoria di lavoro visuo-spaziale possono essere associati a problemi di generazione e manipolazione di immagini mentali).Sono diversi anche i test che si occupano di abilità linguistiche e che permettono di analizzare la consapevolezza fonologica di un individuo. Una batteria di prove per l’analisi fonologica molto utilizzata è quella raccolta nel test di Cornoldi e del Gruppo MT per la fascia di età che va dai 5 anni agli 11 anni. (Cornoldi ib, 1992). Allo stesso modo si può ricordare la prova di valutazione della comprensione linguistica per i bambini della scuola dell’infanzia di Daniela Rustioni (1992).Se queste prove sono orientate all’esame di aspetti specifici di processi cognitivi, diversi sono i test adoperati per la valutazione dell’abilità di ragionamento (note sono le applicazioni di scale quali la WAIS rivolta agli adulti o la WISC adatta per i bambini).Anche i processi metacognitiva vengono esaminati da molti test che ne analizzano gli aspetti più importanti in campo educativo scolastico. Nel merito Cornoldi e colleghi (1995) hanno sviluppato un questionario relativo agli atteggiamenti metacognitivi e ai processi di controllo che è parte integrante di un programma metacognitivo rivolto allo sviluppo delle abilità matematiche. Si tratta di prove che si rivolgono a bambini della scuola elementare (di quarta e quinta classe) e a ragazzi di prima media.

21

Page 22: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

(2) Educare il pensiero, qualunque sia la relazione pedagogica di riferimento, significa essere consapevoli che ci si trova sempre davanti ad una realtà intersoggettiva che si esprime in uno spazio continuamente negoziato tra individui; una realtà non sempre immediatamente riconoscibile o decodificabile ma che richiede, in ogni caso, di disporre di strategie e di metodi di intervento di tipo radicalmente differente da come oggi si fa a scuola. In questa situazione, infatti, risulta determinante riuscire a far vivere esperienze soggettive di sviluppo che non solo siano basate sul confronto con modelli cognitivi "esperti", ma che sappiano prima creare e poi soddisfare ogni tipo di attesa sociocognitiva attraverso una continua revisione e un continuo adattamento sia di stili che di strategie di pensiero.E' evidente che un insegnante che intenda lavorare sulla ricognizione delle diverse modalità organizzative del pensiero di un proprio allievo, deve essere consapevole della necessità di modificare in profondità il proprio processo pedagogico e didattico (ancora per gran parte troppo vincolato a concezioni tradizionali e ormai superate sia dei processi di pensiero che della costruzione e gestione della conoscenza). La prassi pedagogica che più frequentemente ancora oggi si segue, infatti, è quella della linearità e direttività del controllo cognitivo dell'allievo. Si tratta di una prassi che poggia su due convinzioni molto radicate nella mentalità corrente nella scuola, e che gli insegnanti nella stragrande maggior parte di loro esercitano diffusamente. La prima convinzione è ben rappresentata dalla metafora dell'imbuto di Norimberga secondo la quale tutto l’imparare e tutto l’insegnare altro non significano se non che la conoscenza è qualcosa che alcuni possiedono e altri no, e che i primi la possono molto semplicemente "versarla nelle menti" degli altri che non la possiedono.La seconda convinzione, invece, è quella che, una volta versata nella mente, la conoscenza può essere regolarmente verificata, semplicemente escogitando un modo per controllare se quanto immesso realmente è presente così come è stato pensato. (von Foerster, 1994).Ma queste due convinzioni, a loro volta, costituiscono la conseguenza logica di un altro convincimento, ben più profondo e radicato: quello che il sistema di apprendimento di un individuo sia definibile in termini di processo chiuso, i cui prodotti debbano rappresentare il risultato predeterminato di un'attività di pensiero monovalente e monodimensionale. E che la qualità di questa attività sia anch'essa in qualche modo predeterminata da caratteri stabili e permanenti dell'individuo, definibili banalmente in termini di intelligenza.Ma le cose non stanno così o perlomeno non sono così semplici e immediatamente traducibili in oggetti evidenti come sembra. Insegnamento e apprendimento richiamano in modo diretto il concetto di mediazione ed in particolare quello di comunicazione. Ed esaminando quest’ultimo concetto si comprende bene come tra i tanti modi di intendere la comunicazione l’idea chiave è quella secondo la quale comunicare significa scambiarsi qualcosa, mettere in comune qualcosa. In realtà, ciò che va considerato centrale in un processo comunicativo è il fatto che non è possibile separare il soggetto che comunica da ciò che viene comunicato e questo perché non è possibile pensare ad un sistema osservatore distinto dal sistema osservato. Da Edelman, a von Foerster, da Maturana, a Bateson, ciò che oggi si ritiene è che non può esistere un mondo osservato separato da un mondo osservatore perché ciascuno è sempre parte del mondo che osserva, mondo che a sua volta cambia a causa della stessa osservazione. Nasce da qui la difficoltà di immaginare che qualcosa di determinato e di stabile possa essere oggetto di osservazione, descrizione, o addirittura di valutazione. Nella comunicazione umana tutto è in divenire e in particolare il pensiero e i suoi prodotti che sono ancora pensiero. Tutto ciò, nell’ambito della comunicazione pedagogica e dei processi di apprendimento rende problematico l’intera sistema su cui fino ad oggi è stata costruita la prassi didattica della valutazione scolastica.

Come è possibile pensare di poter descrivere e valutare ciò che sta cambiando davanti ai miei occhi? Come è possibile pensare che semplici modalità meccaniche di misurazione di una prestazione cognitiva costituiscano un buon indice per valutare un apprendimento avvenuto o addirittura una intelligenza?

Sappiamo come sia abituale nella scuola un'idea di valutazione che non tiene in conto la consapevolezza di questi enormi limiti di conoscenza dell’uomo e del mondo che l'uomo crea con il suo pensiero. Ciò dovrebbe indurre ad essere cauti facendo, per evitare un uso maldestro del giudizio, una netta differenza tra ciò che è effettivamente misurabile (se non in senso costruttivistico-oggettivo almeno in quello costruttivistico-intersoggettivo) e ciò che non lo è e non lo può essere.E' importante saper distinguere tra una modalità di valutazione unidirezionale che classifica e prescrive istituendo gerarchie e misurando in modo apparentemente oggettivo una realtà o un suo aspetto, ed una modalità di valutazione bidirezionale che negozia e descrive cambiando continuamente punto di vista e investendo ogni momento della relazione intersoggettiva. Mentre la prima può essere accettabile per prestazioni semplici, per abilità elementari o comunque traducibili in elementari, la seconda deve essere l'unica nel caso di una valutazione di capacità complesse. Non basta una nutrita batteria di test di comprensione e neppure il tipo di osservazioni che un insegnante può fare in una classe per concludere che un bambino "non comprende". Questo naturalmente non significa che l'insegnante debba rinunciare a valutare cose come l'impegno, le emozioni o le propensioni, significa solo che in questi casi è un'altra valutazione che va svolta, una valutazione sorretta dal

22

Page 23: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

dialogo sulla qualità delle relazioni reciproche in cui è determinante la circolarità comunicativa basata su "ecco come mi vedo/ecco come ti vedo" (Bertolini, 1999).

Considerare la complessità del pensiero e valutarne le caratteristiche nell'ambito di un processo di apprendimento, significa saper intervenire profondamente sulle "esperienze" che la relazione educativa tra insegnante ed allievo permette di costruire, in modo da ricavarne significati ed implicazioni che siano effettivamente in grado di orientare l'uno e l'altro verso una diversa consapevolezza di sé.E per fare questo, non è immaginabile potersi servire di set di strumenti, come normalmente si fa a scuola e dei quali normalmente si serve l'insegnante per verificare la qualità del percorso apprenditivo del proprio allievo. E' necessario disporre di altre e diverse tipologie metodologiche e strumentali, che rispondano cognitivamente e funzionalmente ad una gestione autonoma e critica di tali esperienze. Ecco che, sia che si valutino gli apprendimenti o che si valuti l'apprendimento, non si può in ogni caso prescindere dal considerare centrale il ruolo della relazione che si instaura tra, chi apprende da una parte e chi è chiamato a valutare l'apprendimento dall'altra. La valutazione dell'apprendimento non può fare a meno della sua intrinseca natura di "valutazione della mediazione di significati" e quindi di "valutazione della comunicazione", che può essere educativa solo se sta in un linguaggio che progetta e si progetta, un linguaggio aperto alla revisione e al cambiamento ma che è capace di mettere insieme e far dialogare l'esperienza dell'allievo e quella dell'insegnante. Valutare, dice Bertolini, significa stare in un processo interpretativo in cui grazie all'altro, e avendo davanti l'altro, comprendiamo noi stessi. Perché si valuta soprattutto per valutarsi e perciò per meglio comprendersi. La categoria della "comprensione", in questa prospettiva, diventa lo strumento più utile perché permette di riflettere a fondo sul significato dell'atto valutativo, ancor più se riferito ad un contesto che vede un soggetto giovane alle prese con la sua struttura di conoscenza e di affettività ancora in fase di costruzione. Nel valutare, quindi, si deve riconoscere sempre una speciale modalità interattiva tra insegnante ed allievo, una modalità che va oltre qualunque ideale deterministico di una realtà oggettiva da rappresentare e descrivere ad ogni costo, e che realizza invece un incontro tra due mondi attraverso la costruzione di una comprensione comune. E' in questo modo di valutare interattivo che si ha modificazione e cambiamento, perché si diventa diversi da quello che si era prima, ma dando significato a quanto viene messo in comune: nessuna corsa verso verità assolute, stabili e permanenti, ma il rimanere dentro qualcosa che cambiando diviene e che divenendo è certamente migliore di quanto non era prima.

Richiami bibliografici

Ausubel D.P. - Educazione e processi cognitivi. Guida psicologica per gli insegnanti, Angeli, Milano 1994 Bateson, G. - Mente e natura - Adelphi, Milano 1984Bertolini, p. - La valutazione possibile - La Nuova Italia, Milano 1999Boscolo, P. - Psicologia dell’apprendimento scolastico. Aspetti cognitivi e motivazionali, Utet, Torino 1997Bruner e al. - Il pensiero. Strategie e Categorie,Armando, Roma 1971.Campioni, L. e Simion., F. (a cura), Metodi di ricerca in psicologia dello sviluppo, Il Mulino, Torino 1990Cattell, R.B. e Cattell A.K.S - Misurare l’intelligenza con i test Culture Fair, Organizzazioni Speciali, Firenze 1981Cornoldi, C, Colpo, G, e Gruppo MT - La verifica dell’apprendimento della lettura, Organizzazioni Speciali, Firenze 1981Cornoldi, C. - Metacognizione e apprendimento, IlMulino, Bologna 1995Cornoldi, C. Fattori, L. Ramanzini, E, e Gruppo MT, MOT-R Prove per l’esame della motivazione all’apprendimento e alla lettura, Organizzazioni Speciali, Firenze 1994Davidson, D. - Soggettivo, intersoggettivo, oggettivo, Raffaello Cortina Editore, Milano 2003De Beni, R e Moè, A. - Motivazione e apprendimento, Il Mulino, Bologna 2000De beni r.- Moe’ a - Questionario di attribuzione. Attribuzione delle cause di successo /fallimento in compiti cognitivi, Organizzazioni Speciali, Firenze 1995.Del Corno, F. e Lang, M. - (a cura) - La diagnosi testologica, Angeli, Milano 2002Dennett, D.C. - La mente e le menti. Verso una comprensione della coscienza - Sansoni, Milano 1997Dewey, J.- Esperienza e educazione, La Nuova Italia, Firenze 1967.Dweck C.S. - Teorie del sé. Intelligenza, Motivazione, Personalità e Sviluppo, Erickson, Trento 2000.Esposito, P. Rossi, S.V. Tamburini, A. - Origini e sviluppo della psicoanalisi in Italia, Clueb, Bologna 1980Feuerstein R., Rand Y., Rynders J.E. - Non accettarmi come sono, Milano, Sansoni 1995Feuerstein R.. - Instrumental enrichment: An intervention program for cognitive modifiability, Baltimore University Park Press, 1980.

23

Page 24: Scuola Interateneo di Specializzazione per gli Insegnantidigilander.libero.it/irfedtrapani/dmsaval.pdf · Prof. Mario Di Mauro – Lezione n. 1 (on line) Nella storia della ricerca

Feuerstein R. and Rand Y., Mediated Learning Experience. Theorical, Psychosocial and Learning implications - ICELP , Jerusalem 1990.Fodor, J. A. - La mente modulare, Il Mulino, Bologna 1988.Gagnè, R.M. - Apprendimento e differenze individuali, Armando, Roma 1974.

Hayes S.C., Hayes L.J., Reese H.W. - Varieties of scientific contextualism, Reno,NV; Context Press, 1993.Haywood, H.C. e Tzuriel, D. - Interactive Assessment – Springer, New York 1992Herrnstein R.J., MurraY C. - The Bell Curve: The Reshaping of American Life by Differences in Intelligence, New York, Free Press, 1994.LeDoux, , J. – Il se sinaptico – Raffaello Cortina Editore, Milano 2002Lis, A. - Tecniche p roiettive per l’indagine della personalità, Il Mulino, Torino, 1998Luccio, R. - Un secolo di psicologia sperimentale in Italia in E. Hearst , Cento anni di psicologia sperimentale , Il Mulino, Bologna 1979Margiotta, U. in M. Di Mauro, Comunicare bene per insegnare bene, Armando, Roma 2003Margiotta, U. - Riforma del curricolo e formazione dei talenti, Armando, Roma 1997Maturana, H. - Linguaggio ed emozioni , in FOR, Milano 1992Nisbet, J.D. Entwistle, N.J. Cellamare, S. – La ricerca socio-psicopedagogica, Armando, Roma 1999Passolunghi M.C. e De Beni, R. - I test per la scuola, Il Mulino, Torino 2001Pedrabissi L. e Santinello, M. - I test psicologici, Il Mulino, Torino 1997Pietro G. e Foschi, R. - (a cura) - I fondamenti storici della psicologia della personalità, Bollati Boringhieri, Torino 2002Pontecorvo, C. - Manuale di Psicologia dell’educazione, Il Mulino, Bologna 1999Resnick L.B.(ed.) - The nature of intelligence, Hillsdsale, NJ, Erlbaum; 1976Sanavio, E. e Sica, C. - I test di personalità, Il Mulino, Torino 1999Stenberg, J - Stili di pensiero, Erickson, Trento 1991.Stenberg, J e Grigorenkp E. – Il testing dinamico. La natura e la misura del potenziale di apprendimento - Armando, Roma 2003

24


Recommended