1
Ai miei genitori,
per il sostegno sia economico che morale di questo mio percorso
2
“ LA TRADUZIONE AUDIOVISIVA E LA
SOTTOTITOLAZIONE PER PERSONE CON DISABILITÀ
SENSORIALI”
3
4
SOMMARIO
SOMMARIO .................................................................................................................... 4
SEZIONE IN ITALIANO ....................................................................................................... 7
INTRODUZIONE ............................................................................................................... 7
1. LA TRADUZIONE AUDIOVISIVA .................................................................................... 10
1.a CHE COS’È? .................................................................................................................. 10
1.b TECNICHE DI TRASFERIMENTO E TRASPOSIZIONE LINGUISTICA ................................ 15
1.c IL TRADUTTORE AUDIOVISIVO .................................................................................... 20
2. INTRODUZIONE AL SOTTOTITOLAGGIO ...................................................................... 22
2.a IL PASSAGGIO DALLE DIDASCALIE AI SOTTOTITOLI .................................................... 22
2.b SOTTOTITOLAGGIO E TRADUZIONE ........................................................................... 25
2.c TRATTI CARATTERISTICI DEL SOTTOTITOLAGGIO ....................................................... 31
2.d ASPETTI SALIENTI DEL SOTTOTITOLAGGIO ................................................................ 38
3. ACCESSIBILITÀ E USABILITÀ NELLA TRADUZIONE AUDIOVISIVA .............................. 43
3.a STORIA DELL’EDUCAZIONE DELLA COMUNITÀ SORDA .............................................. 46
3.b LA SORDITÀ................................................................................................................. 51
3.c INTRODUZIONE ALLA LINGUA ITALIANA DEI SEGNI ................................................... 56
3.d LA COMUNICAZIONE ED EDUCAZIONE DEL BAMBINO SORDO IN ITALIA .................. 66
3.e LA SOTTOTITOLAZIONE INTRALINGUISTICA PER SORDI ............................................. 69
4. ANALISI DEL CONTESTO VISSUTO DALLE PERSONE NON VEDENTI IN ITALIA E
L’IMPORTANZA DELL’AUDIO DESCRIZIONE .................................................................... 76
4.a COS’È L’AUDIO DESCRIZIONE? .................................................................................... 79
CONCLUSIONI ............................................................................................................... 83
ENGLISH SECTION ......................................................................................................... 85
INTRODUCTION ............................................................................................................ 85
5. AUDIOVISUAL TRANSLATION ..................................................................................... 88
5.a WHAT IT IS? ................................................................................................................ 88
5.b TRANSFER AND LINGUISTIC TRANSPOSITION TECHNIQUES ...................................... 92
5.c AUDIOVISUAL TRANSLATOR ....................................................................................... 96
6. INTRODUCTION TO SUBTITLING ................................................................................. 97
6.a THE TRANSITION FROM CAPTIONS TO SUBTITLES ..................................................... 97
6.b SUBTITLING AND TRANSLATION ................................................................................ 99
5
6.c SUBTITLING CHARACTERISTIC FEATURES ................................................................. 101
6.d SUBTITLING CONSIDERABLE ASPECTS ...................................................................... 103
7. ACCESSIBILITY AND USABILITY IN AUDIOVISUAL TRANSLATION ............................... 105
7.a HISTORY OF THE DEAF COMMUNITY EDUCATION ................................................... 107
CONCLUSIONS ............................................................................................................ 111
SECCIÓN EN ESPAÑOL ................................................................................................. 113
INTRODUCCIÓN .......................................................................................................... 113
8. LA SORDERA............................................................................................................ 115
8.a INTRODUCCIÓN A LA LENGUA DE SIGNOS ............................................................... 119
8.b LA COMUNICACIÓN Y EDUCACIÓN DEL NIÑO SORDO EN ITALIA ............................ 124
8.c LA SUBTITULACIÓN INTRALINGÜĺSTICA PARA SORDOS ........................................... 126
9. ANÁLISIS DEL CONTEXTO VIVIDO POR LAS PERSONAS CIEGAS EN ITALIA Y LA
IMPORTANCIA DE LA AUDIODESCRIPCIÓN ................................................................... 129
9.a ¿QUÉ ES LA AUDIODESCRIPCIÓN? ............................................................................ 132
CONCLUSIONES ........................................................................................................... 135
Ringraziamenti............................................................................................................ 137
Bibliografia e sitografia ............................................................................................... 138
6
7
SEZIONE IN ITALIANO
INTRODUZIONE
La scelta dell’argomento deriva da un particolare interesse per il
tema della traduzione audiovisiva e in particolar modo per la traduzione
dei sottotitoli per non udenti e non vedenti.
Il presente lavoro quindi tratterà le tematiche della traduzione
audiovisiva in generale e del sottotitolaggio, focalizzandosi sul
sottotitolaggio intralinguistico per non udenti e sull’audio descrizione
per non vedenti, cioè il processo che trasforma le informazioni visive di
un film in parole, dando completezza alla traccia sonora e ai dialoghi del
film stesso a beneficio del pubblico cieco e ipovedente. Per motivi di
chiarezza e semplificazione ho deciso di strutturare il lavoro in tre parti:
la prima parte è un quadro generale sulla traduzione audiovisiva; si
esamineranno pertanto le tecniche di trasposizione, si analizzeranno i
protagonisti della traduzione audiovisiva e le varie soluzioni e forme di
traduzione audiovisive. La seconda parte si concentrerà sul tema del
sottotitolaggio, in cui verranno esaminate le caratteristiche principali, lo
scopo dell’utilizzo dei sottotitoli, cioè l’apprendimento di una lingua
straniera o l’ausilio per disabili. Si farà riferimento anche alla storia della
comunità sorda e alla sordità in generale, a come hanno vissuto le
persone sorde fino ad oggi e come hanno imparato a comunicare. Si
passerà poi ad una breve introduzione alla lingua dei segni italiana, alla
8
sottotitolazione per non udenti e infine all’audio descrizione, la tecnica
di sottotitolazione intralinguistica per non vedenti.
Nonostante le tecniche dell’audio descrizione e della
sottotitolazione per non udenti siano, purtroppo, ancora poco utilizzate
oggi, ho deciso di concentrare il mio lavoro su questo argomento
perché negli ultimi tempi sta diventando comunque argomento di
discussione sempre più popolare e si sta affermando in molti Paesi
europei e non. Il fenomeno della globalizzazione ha avuto un impatto
piuttosto forte e diretto su tutti noi, soprattutto per ciò che riguarda la
dimensione linguistica e culturale. Il rapido sviluppo delle tecnologie
dell’informazione e della comunicazione ha modificato profondamente
alcuni aspetti della nostra vita quotidiana e, grazie alla diffusione dei
mezzi di comunicazione di massa e al rapido sviluppo tecnologico
avvenuto negli ultimi decenni, abbiamo assistito ad una massiccia
produzione e distribuzione su scala mondiale di prodotti audiovisivi di
ogni genere. Infatti non è un’esagerazione affermare che al giorno
d’oggi siamo costantemente circondati da dispositivi e strumenti
tecnologici di ogni forma e dimensione, i quali ci permettono di
lavorare, apprendere e tenerci sempre informati. Negli ultimi anni
abbiamo assistito ad una vera e propria rivoluzione audiovisiva, con la
creazione di canali televisivi satellitari, internet, la telefonia mobile,
prodotti cinematografici, dunque si ha accesso ad una grande varietà di
materiali audiovisivi provenienti da ogni parte del mondo;
parallelamente, la comunicazione ha assunto un ruolo sempre più
importante della nostra società, tanto da diventare un vero e proprio
prodotto sul mercato internazionale.
9
Per queste ragioni il ruolo delle lingue e, in particolare, le attività
legate al trasferimento linguistico hanno acquisito un’importanza
crescente negli ultimi anni perché divenute essenziali per diffondere
informazioni e veicolare conoscenze a livello internazionale. La
competenza linguistica svolge quindi un ruolo di primaria importanza, in
quanto indispensabile per usufruire dei prodotti audiovisivi di ogni
nazionalità e per comprendere il significato dei testi che questi nuovi
prodotti incorporano. È sorta così una nuova esigenza, ovvero quella di
abbattere qualsiasi tipo di barriera (linguistica, culturale, ma anche
sensoriale) che impedisca una piena accessibilità e fruibilità dei prodotti
distribuiti per mezzo delle tecnologie audiovisive e multimediali ad un
pubblico sempre più vasto ed eterogeneo in termini di età, sesso, livello
di istruzione, capacità ricettive, lingua e cultura. In conseguenza di tale
fenomeno, ha assunto un’importanza cruciale la dimensione culturale,
linguistica e traduttologica. Non è difficile immaginare, quindi, quanto
sia ampia la varietà di metodologie traduttive ed ambiti applicativi che
possono essere ascritti al settore della traduzione audiovisiva. Lo scopo
dei capitoli che seguono, dunque, è quello di offrire un quadro teorico
di riferimento che permetta di comprendere e analizzare nel dettaglio le
caratteristiche e le peculiarità che contraddistinguono la traduzione
audiovisiva, elencare le principali tecniche traduttive in uso oggi e
differenziare questo tipo di traduzione da altre forme di trasposizione
linguistica che per tradizione sono al centro degli studi sulla traduzione.
10
1. LA TRADUZIONE AUDIOVISIVA
1.a CHE COS’È?
Prima di dare una definizione e spiegare cos’è la traduzione
audiovisiva è bene precisare che essa è un mondo vivo ed elastico, in
continua espansione e ridefinizione. Quando parliamo di traduzione di
un prodotto audiovisivo non ci riferiamo solo ad una metodologia in
particolare, bensì a diverse forme di traduzione che non comportano
necessariamente il passaggio da una lingua all’altra, ma che operano da
e verso la stessa lingua o da un codice a un altro. In questi ultimi casi ci
riferiamo alla sottotitolazione per sordi, che implica un’attenta attività
di riscrittura e di adattamento del dialogo originale all’interno dello
stesso codice linguistico, e all’audio descrizione per non vedenti,
un’attività che rende verbale il visivo e che non opera all’interno dello
stesso codice. Ma di questo parleremo nella seconda parte della tesi.
Attualmente viviamo, ma possiamo dire che siamo sempre vissuti,
in un mondo multimodale. La multimodalità si riferisce a come si
comunica il significato attraverso la combinazione di modalità (o canali
semiotici) diverse. Oltre allo scritto e al parlato, esistono altre fonti in
grado di trasmettere il significato come ad esempio i gesti, la postura, lo
sguardo, i rumori, la musica i simboli. In un testo multimodale, il
significato è trasmesso attraverso la forza integrata di diverse modalità
semiotiche. Oggi, la tecnologia a nostra disposizione e la possibilità di
11
comunicare istantaneamente a livello globale hanno creato orizzonti
senza precedenti per l’espansione multimodale. Le modalità semiotiche
diverse dalla lingua (gesti, sguardo, postura, suoni…) trasmettono il
significato in molti modi diversi. La gestualità dell’uomo utilizza tutte le
parti del corpo, dai cenni di assenso fatti con la testa, all’indicare con le
dita, alla scrollata di spalle. Alcuni di questi gesti sono universali, altri
sono tipici di determinate culture, altri ancora cambiano di significato
da una cultura all’altra, mentre alcuni hanno usi diversi, ma tutti hanno
un significato. Nel contesto multimediale, comunque, la lingua
costituisce il fattore più importante. Il dialogo di un film tradotto, se
tradotto in modo adeguato, interagirà con le stesse modalità
semiotiche per ricreare lo stesso effetto nel pubblico di arrivo come
aveva fatto l’originale con il pubblico di partenza. Quello che può
incrinare questa situazione ideale è la presenza di vincoli di tempo che
non permettono una traduzione completa, o quella degli squilibri
sintattici tra lingue (l’inglese, per esempio, è generalmente più breve
dell’italiano), oppure la mancanza di un tempo sufficiente per
consentirne la lettura da parte del pubblico. In questi casi il traduttore
audiovisivo può cercare aiuto tra le altre risorse semiotiche in gioco e
può quindi operare delle scelte che riguardano la versione tradotta del
prodotto. Tra le varie scelte non è da escludere il non tradurre. Infatti,
se un gesto ha un significato inequivocabile, il traduttore potrebbe
anche scegliere di non tradurre, oppure può scegliere anche di
abbreviare la traduzione, cioè di tradurre solo gli elementi più
importanti. In una situazione marcata dal punto di vista culturale,
12
invece, la decisione potrebbe essere di espandere il testo di partenza,
aggiungendo informazioni, per facilitarne la comprensione.
Dopo questa breve introduzione, con il termine “traduzione
audiovisiva”, dunque, si fa riferimento a tutte le modalità di
trasferimento linguistico che si propongono di tradurre i dialoghi
originali di prodotti audiovisivi, al fine di renderli accessibili ad un
pubblico più ampio. Mantenere un alto livello di aderenza con specifici
aspetti dell’originale è un’operazione sempre complessa, che fa del
traduttore (audiovisivo e non) una figura di grande responsabilità.
Oggetto della traduzione audiovisiva sono testi che non contengono
solo l’elemento verbale, ma che includono sistemi semiotici differenti,
di cui i principali sono quello verbale e visivo, ma anche quello sonoro,
grafico, cinetico e gestuale. Ogni modalità semiotica è portatrice di un
significato fondamentale ai fini della comprensione del testo nella sua
totalità, perciò non deve essere trascurata dal traduttore. In altre
parole, il destinatario di un testo audiovisivo può cogliere appieno il
messaggio e percepirne ogni sfumatura solo se può usufruire di tutti i
segnali simultaneamente. La maggiore difficoltà della traduzione
audiovisiva risiede quindi nel fatto che essa deve restituire
parallelamente al senso degli elementi verbali quello degli elementi non
verbali.
13
Ogni tecnica traduttiva è costituita da due processi focali:
Processo: attività tramite l’esecuzione della quale si ottiene
il testo di arrivo (TA) a partire da un testo sorgente (TS),
comprendente i percorsi operativi e psico-cognitivi del
traduttore.
Prodotto (=TA): risultato conseguito mediante il processo
traduttivo, dato in fruizione all’utenza finale.
Inoltre, per ogni tecnica traduttiva devono essere definiti il mezzo
(orale, scritto o entrambi), il canale (acustico, visivo, audio-visivo,
simbolico-tattile), la modalità del processo (in tempo reale, in differita,
consecutiva, simultanea, a vista), la lingua (linguaggio di TS e TA) e la
localizzazione del prodotto (cartacea, nastro, web, software).
In sintesi, possiamo distinguere due tipi di traduzione: la
traduzione interlinguistica (il testo sorgente TS e il testo di arrivo TA
sono in due lingue differenti), la traduzione intralinguistica (TS e TA
condividono la medesima lingua). Mentre tra le tipologie dei processi
traduttivi distinguiamo l’interpretazione, che può essere simultanea,
consecutiva o “a trattativa”, la traduzione propria, che può essere
letteraria o tecnico-scientifica e la traduzione audiovisiva, di cui fanno
parte il doppiaggio e la sottotitolazione. La traduzione audiovisiva, che è
di nostro interesse nel presente lavoro, possiede un TS a due canali,
quello audio e quello visivo (verbale e non) e l’obiettivo è quello di
rendere disponibili a un’utenza più ampia prodotti audiovisivi che
altrimenti risulterebbero non fruibili per motivi sensoriali o linguistici. Si
14
può riferire quindi a prodotti eterogenei come il materiale televisivo o
cinematografico, prodotti derivanti dall’Opera e dal teatro, materiale
prodotto in seminari e conferenze ecc. La componente audio verbale
nella traduzione audiovisiva comprende i dialoghi, i monologhi,
eventuali brani musicali cantati dagli attori e qualsiasi altra componente
verbale o dialogica significativa per il prodotto finale; mentre la
componente audio non verbale è costituita da effetti speciali, rumori di
fondo, musiche di sottofondo, altri effetti sonori non voluti o non
significativi per il prodotto finale. Per quanto riguarda la componente
video verbale, essa annovera qualsiasi dato scritto visibile durante la
fruizione del prodotto come didascalie, sottotitoli, sottopancia, scritte
interne derivanti da inquadratura, mentre la componente video non
verbale è costituita da elementi di fotografia, prossemica (l’ambiente di
svolgimento della comunicazione) e cinesica (gestualità e linguaggio del
corpo degli attori).
Negli anni ’80 e ’90 in Europa si assiste ad una riconsiderazione
delle minoranze linguistiche e ai media è riconosciuto il ruolo di
strumenti utili per agevolare la comunicazione e per promuovere e
rinforzare l’identità linguistico-culturale. Si hanno quindi i primi studi di
“traduzione filmica” (film translation) e “traduzione per lo schermo”
(screen translation), ancora oggi molto utilizzate. Mentre il
“trasferimento linguistico” (language transfer) subentra in un secondo
momento, e mette in evidenza la componente verbale del prodotto
audiovisivo. Da qui nasce l’esigenza di introdurre la designazione più
precisa ed esauriente di “traduzione audiovisiva”, oggi utilizzata per
fare riferimento alla dimensione semiotica di tutte le opere
15
cinematografiche e televisive i cui dialoghi subiscono una traduzione.
Nel testo audiovisivo la sfera sonora e quella visiva si combinano
creando un complesso testo multicolore la cui traduzione può essere
problematica. Fin dalla nascita del cinema sonoro si è manifestato il
bisogno di tradurre i film importati e, di conseguenza, si sono sviluppati
numerosi metodi di traduzione audiovisiva e strategie di trasferimento
linguistico molto differenti tra loro.
1.b TECNICHE DI TRASFERIMENTO E TRASPOSIZIONE
LINGUISTICA
A seconda del trattamento che subiscono i dialoghi originali e di
come la loro versione tradotta e adattata è presentata al pubblico, si
distinguono diverse forme di traduzione audiovisiva che vanno dal
doppiaggio alla descrizione audiovisiva per non vedenti. Esistono tredici
tipi di trasferimento linguistico, ma otto sono quelli dominanti:
Sottotitolazione interlinguistica
Doppiaggio
Interpretazione consecutiva
Interpretazione simultanea
Voice-over
16
Commento libero
Traduzione simultanea
I challenging (traduzione degli script, la sottotitolazione
simultanea o in tempo reale, la sopratitolazione, la descrizione
audiovisiva e la sottotitolazione intralinguistica per sordi).
La tecnica della sottotitolazione è il procedimento grazie al quale
una traduzione viene resa, grazie ad un testo scritto, collocato nella
parte inferiore dello schermo, e che riporta un testo tradotto
condensato risultante da un forte lavoro di riduzione testuale. Poiché la
traduzione è offerta simultaneamente alla versione originale e poiché lo
spettatore ha accesso contemporaneamente a entrambe, la
sottotitolazione ha acquisito l’etichetta di “modalità di traduzione
trasparente”. Esistono vari tipi di sottotitolazione, come ad esempio la
sottotitolazione simultanea, che è una procedura che si esegue i tempo
reale, nel momento stesso della trasmissione di un programma. Si tratta
di una sorta di “interpretariato scritto”, in cui un interprete-traduttore
riferisce un messaggio tradotto e ridotto rispetto al testo originale,
mentre un tecnico è incaricato di scrivere velocemente ciò che lo
spettatore riceverà sotto forma di sottotitolo. Un esempio di questo
tipo di traduzione è il respeaking, l’utima nata tra le tecniche di
sottotitolazione. Il respeaking è una tecnica di sottotitolazione
simultanea tramite software di riconoscimento del parlato; un testo
orale viene simultaneamente tradotto in un testo scritto. Questa forma
di traduzione è utilizzata soprattutto per trasmettere in diretta
interviste o notizie all’ultimo minuto ed è particolarmente impegnativa.
17
La sopratitolazione è una modalità di traduzione adottata negli
anni ’80 per tradurre il teatro in prosa e l’opera lirica, ma è marginale
nell’ambito cinematografico. Questa tecnica consiste nel riportare una
traduzione scritta del testo originale dell’opera teatrale, proiettata su
appositi schermi al lato del palcoscenico oppure sopra o al di sotto della
scena. Questa idea non è affatto nuova, ma ha raggiunto visibilità solo
nel ventesimo secolo, mentre prima la maggior parte delle opere liriche
veniva recitata in lingua tradotta.
Il doppiaggio è la procedura di traduzione audiovisiva più nota e
diffusa in Italia che consiste nel sostituire per post-sincronizzazione la
colonna sonora originale di un film con una nuova colonna sonora
provvista di dialoghi tradotti nella lingua dei fruitori. Nel caso del
doppiaggio, la traduzione sostituisce del tutto il testo originale, mentre
per la sottotitolazione possiamo parlare di “modalità di traduzione
trasparente” perché il testo tradotto affianca quello originale, senza
eliminarlo affatto. Questo sistema richiede grande precisione nella
sincronizzazione, cioè nell’adattare i nuovi dialoghi in modo che il testo
udito nella lingua della traduzione e i movimenti labiali degli attori
coincidano il più possibile per dare l’impressione al nuovo spettatore
che gli attori stiano parlando nella sua lingua. Ovviamente la difficoltà
del dialoghista non è solo questa, ma a livello linguistico deve affrontare
e risolvere altre situazioni difficili: tradurre giochi di parole, adattare la
traduzione all’immagine, tradurre termini culturalmente connotati,
trasporre, usando formule opportune, il turpiloquio o forme allocutive,
mantenere, se presente, l’umorismo del testo originale.
18
Il voice-over è usato per mandare in onda notizie, documentari o
interviste provvisti di una traduzione simultanea al dialogo originale. Ciò
permette di accedere solo in maniera parziale alla versione originale,
che non è mai udita nella sua integrità. Questa tecnica consiste
nell’aggiungere una nuova colonna sonora sul filmato da tradurre, ma
consentendo contemporaneamente di lasciare inalterata la pista audio
originale. L’unica variazione che il testo di partenza subisce consiste in
un abbassamento di volume, così da far risaltare la versione audio
tradotta e lasciare il sottofondo sonoro originale. La coincidenza tra i
dialoghi letti e dialoghi originali è tuttavia approssimativa e non così
puntuale. Il voice-over non richiede sincronia labiale e quindi facilita e
velocizza la traduzione.
Nella narrazione il testo rielaborato presenta un maggior numero
di riduzioni e adattamenti rispetto al voice-over. Il testo di partenza, già
tradotto anticipatamente, è alleggerito dalle parti ritenute superflue. Il
testo viene poi letto da un’unica voce ed è presentato in sincronia con il
testo originale. Rispetto al voice-over, la tecnica della narrazione
ammette un maggiore distacco dal testo originale sia a livello
contenutistico, sia a livello stilistico; quindi il testo sarà più formale e
curato nei particolari stilistici, e i discorsi diretti sono trasformati in
indiretti perché la voce del narratore racconta in modo distaccato ciò
che accade.
Il commento è spesso utilizzato per rendere fruibili documentari o
cortometraggi. Una delle caratteristiche principali di questa tecnica sta
nella libertà d’interpretazione del testo originale; in molti casi, infatti, il
19
prodotto di arrivo rappresenta una vera e propria versione nuova
rispetto all’originale. La scarsa fedeltà al testo di partenza è
implementata dalla possibilità di aggiungere o eliminare informazioni
ogni volta che lo si ritiene opportuno grazie all’elasticità dei vincoli
spazio-temporali. Il commento è particolarmente efficace per rendere
accessibili programmi culturalmente distanti; i contenuti possono
essere attualizzati o sostituiti da informazioni ritenute più facilmente
accessibili; interi brani relativi ad argomenti specifici della cultura
emittente possono essere rimossi o espansi in base alle esigenze del
pubblico di destinazione. La lingua del commento presenta strutture
sintattiche semplici in cui vi è la predilezione per frasi coordinate e
proposizioni brevi.
La descrizione audiovisiva, o audio descrizione, è quella forma di
traduzione audiovisiva indirizzata a un pubblico di non vedenti. Consiste
in una voce fuori campo che descrive ciò che si vede sullo schermo, dà
informazioni più o meno dettagliate riguardanti la scena, permettendo
allo spettatore cieco o ipovedente di integrare le informazioni
percepibili attraverso la banda sonora del film o del programma scelto
con una versione sonora delle informazioni visive più significative. La
difficoltà della descrizione audiovisiva risiede nell’eterogeneità del
pubblico cui si rivolge: il traduttore che deve operare con questa tecnica
deve tenere in considerazione le diverse difficoltà di ricezione degli
utenti. La ricerca del messaggio udito verrà infatti rielaborata in modo
diverso dai ciechi dalla nascita, assolutamente privi di memoria visiva, e
da chi, avendo perso la vista in una fase successiva della propria vita, è
provvisto di un maggiore o un minore grado di memoria visiva.
20
La traduzione filmica costituisce in ogni caso un campo di ricerca
complesso a causa delle diverse metodologie utilizzate nei vari campi.
Inoltre i copioni dei testi audiovisivi nelle lingue di partenza e di arrivo
non sono sempre disponibili e quindi qualche volta è necessario un
lavoro di trascrizione che richiede molto tempo.
1.c IL TRADUTTORE AUDIOVISIVO
L’attenzione riservata in misura sempre maggiore da parte della
comunità scientifica ha fatto sì che la figura del traduttore si sviluppasse
ulteriormente, in maniera professionale anche in nuovi ambiti
lavorativi. Questo esito si è avvertito soprattutto in campo
cinematografico, dove nel corso degli ultimi vent’anni, con l’aumento
esponenziale della circolazione di prodotti audiovisivi, è cresciuta di pari
passo la necessità di una qualsiasi forma di traduzione adatta al mondo
del cinema. Grazie allo sviluppo delle nuove tecnologie in campo
informatico, come ad esempio internet, ma anche grazie alla comparsa
di supporti ottici come CD o DVD, oppure quelle piattaforme satellitari
per la televisione, la traduzione in questo campo ha raggiunto
un’importanza cruciale per i futuri esiti della comunicazione audiovisiva.
In questo nuovo scenario mondiale, come abbiamo già detto, ha trovato
21
spazio una nuova figura professionale e specializzata, il traduttore
audiovisivo. Laddove un tempo la traduzione era principalmente gestita
da traduttori indipendenti o da persone con inadeguate abilità
linguistiche, talvolta favorite da un retroterra professionale legato al
mondo del cinema o della televisione, adesso questo non è più
accettabile. Comunque oggi è sempre più forte la consapevolezza da
parte di produttori e distributori che un’efficace ricezione di un film non
dipende solo dalla qualità dei meccanismi di sincronizzazione del
doppiaggio, o dalla sottotitolazione, ma anche dalla qualità della
traduzione del testo.
Il traduttore audiovisivo ha un ruolo molto importante durante il
processo di sottotitolazione. Innanzi tutto, all’arrivo di un prodotto
audiovisivo, il traduttore ha il compito di trascrivere tutti i dialoghi,
ascoltando la colonna sonora originale. Inoltre, si occuperà di tradurre,
nella lingua in cui dovranno apparire i sottotitoli, il testo originale,
adattandolo alla lingua di arrivo. Una volta effettuato il lavoro di
traduzione, ci sarà bisogno di un’accurata revisione, che può essere
effettuata sia dal traduttore stesso, sia da un altro traduttore, per un
diverso punto di vista. Un buon traduttore dovrà prendere nota ogni
volta che si presentano punti critici nel testo di partenza, come parole o
espressioni ambigue, frasi idiomatiche e colloquiali, uso e omissione di
deittici (questo/questi, quello/quelli), esclamazioni che non sono
direttamente traducibili da una lingua all’altra, che potrebbero causare
problemi linguistici o di traduzione nelle fasi successive del lavoro. Dopo
queste operazioni può procede alla traduzione vera e propria.
22
2. INTRODUZIONE AL SOTTOTITOLAGGIO
2.a IL PASSAGGIO DALLE DIDASCALIE AI SOTTOTITOLI
Dopo l’avvento del cinema muto (1895) in Europa vengono usati
per la prima volta gli intertitoli
(generalmente bianchi su sfondo
nero), che costituivano delle
“didascalie complementari”.
Questi brevi testi scritti, che
sono brevi sequenze di commenti
descrittivo-esplicativi o brevi dialoghi, apparivano su tutto lo schermo
su fondo nero per veicolare informazioni utili alla comprensione della
scena, o per riportare brevi dialoghi dei personaggi nei film. Questa
tecnica può essere considerata come un precedente dei sottotitoli
odierni, anche se con sostanziali differenze. Infatti gli intertitoli
occupano un fotogramma ad essi destinato e quindi si posizionano tra
due fotogrammi del film originale, mentre il sottotitolo viene proiettato
direttamente sull’immagine del film.
A partire dal 1927 le didascalie incominciano ad essere
sovrapposte e non più interposte alle immagini, finché spariscono
definitivamente, permettendo agli spettatori di ascoltare la versione
originale dei dialoghi e di comprenderla, se necessario, anche
23
attraverso il sottotitolo. Con l’avvento del sonoro lo scenario
cinematografico cambia totalmente; in un primo momento si tentò di
favorire la fruizione di una stessa pellicola in diverse culture e lingue del
mondo tramite le “edizioni multilingue”. Questo procedimento
consisteva nel girare lo stesso film in più versioni linguistiche, spesso
con attori e registi diversi, ma questa tecnica chiaramente risultava
molto costosa e per questo fu abbandonata. Così si è cominciato a
consolidare l’utilizzo della sottotitolazione. Sin dalla nascita, il processo
di sottotitolazione ha subito molte trasformazioni in maniera graduale,
si è evoluto, è migliorato e si è affinato grazie alla modernizzazione
delle tecniche coinvolte e anche grazie ai media, i quali, ideati
inizialmente per il cinema, sono stati poi usati anche per la televisione.
In seguito, però, ci si è resi conto che i sottotitoli preparati per il cinema
non erano adatti per essere trasmessi anche in televisione. Nemmeno la
ricezione del pubblico è rimasta la stessa: è stato infatti dimostrato che
la velocità di lettura degli spettatori dipende anche dal mezzo che
trasmette i sottotitoli (per leggere i sottotitoli al cinema si necessita il
30% di tempo in meno rispetto al tempo necessario per leggere gli
stessi sottotitoli sul piccolo schermo). Risulta chiaro, quindi, che non
esiste un sottotitolo universale adatto a tutti i contesti, ma esso deve
essere costruito in base al media specifico per cui viene preparato.
Il 1927 segna il punto di partenza di un secolo di cambiamenti e di
evoluzione: dai sottotitoli costituiti da brevi frasi di dialogo si arriva ai
sottotitoli di oggi che, insieme al doppiaggio, costituiscono il principale
veicolo di internazionalizzazione del cinema come della televisione. In
quest’ottica, quindi, i sottotitoli sono da considerarsi i garanti
24
dell’esportazione dell’industria cinematografica e televisiva, soprattutto
laddove la tecnica della sottotitolazione è preferita a quella del
doppiaggio. Non è il caso dell’Italia, in cui nelle sale cinematografiche
risulta quasi impossibile trovare un film straniero nella sua versione
originale. Ciò è dovuto essenzialmente a ragioni di natura politica (in
Italia il governo fascista privilegiava il doppiaggio dei film in lingua
straniera perché questo dava la possibilità di “variare o addirittura
capovolgere il significato di un discorso o l’assunto di un film”, se
questo non era conforme alle idee del regime) e culturale (in un paese
come l’Italia in cui il tasso di analfabetismo nazionale dell’epoca era
molto basso, il doppiaggio era considerato come veicolo di
uniformazione dell’Italia a livello linguistico). Al contrario, paesi come
Danimarca e Norvegia sono stati i primi ad utilizzare la tecnica del
sottotitolaggio. Oggi anche in Francia la maggior parte dei film di
produzione straniera viene proposta nelle sale cinematografiche in
versione originale sottotitolata.
Un produttore canadese di film documentari e autore di diverse
opere sul cinema, Lucien Marleau, in un suo saggio sul sottotitolaggio
pubblicato sulla rivista online traduttologica Meta, nel 1982 affermò
“Les sous-titres… un mal nècessaire1” (i sottotitoli…un male necessario).
L’autore, già dal titolo, fornisce al lettore una visione complessa e
antitetica; in poche parole egli ha saputo riassumere l’essenza stessa
del sottotitolo, sottolineandone da un lato la sua necessità di esistere e
dall’altro il suo carattere “nocivo” per chi ne fa uso, lo spettatore.
1 L. Marleau, Meta, 1982.
25
Questa breve parentesi ha permesso di dare un perché
all’essenzialità del sottotitolaggio. Dunque, per guardare un film in
lingua straniera, a meno che non si abbia un’ottima conoscenza della
lingua originale, il sottotitolaggio rimane uno dei principali veicoli di
fruizione di una pellicola cinematografica in versione originale.
2.b SOTTOTITOLAGGIO E TRADUZIONE
Nell’ambito della traduzione la sottotitolazione è stata finora
considerata come una delle numerose forme di traduzione di prodotti
audiovisivi. L’attività di sottotitolazione è un’attività che necessita di
una specifica inquadratura metodologica e terminologica. Fra i
numerosi esempi, si possono citare le attività di sottotitolazione per il
materiale cinematografico da rendere in lingua differente dall’originale,
il materiale cinematografico da rendere in lingua originale per non
udenti, i contributi filmati a conferenze, meeting e incontri da rendere
nelle varie lingue di appartenenza alla composizione dell’uditorio e il
materiale audiovisivo di animazione in lingua differente dall’originale.
Nel tentativo di definire la sottotitolazione, gli studiosi mettono in
evidenza i tratti più caratteristici e cioè quelli relativi alla riduzione
testuale e alla semplificazione. Il sottotitolo non viene considerato
come un “riassunto dell’originale”, bensì una sua “riduzione selettiva”,
volta ad adattare la lingua alle circostanze e a permetterle di
rappresentare ciò che il parlante intendeva comunicare. Ovviamente di
26
rado è possibile tradurre ciò che si dice nell’originale. La
sottotitolazione è un tipo di traduzione che implica modi di
rielaborazione testuale piuttosto complessi, poiché il passaggio da una
lingua di partenza a una di arrivo deve essere in consonanza con la
contemporaneità delle immagini e dei suoni a esse attinenti. Quindi il
traduttore di sottotitoli deve saper trasferire le intenzioni comunicative
veicolate dal codice della lingua di partenza al codice della lingua di
arrivo, dal codice orale al codice scritto, il quale deve essere in sincronia
con tutte le realtà paralinguistiche presenti nel film, come le distanze e i
movimenti degli attori. Inoltre il traduttore di sottotitoli deve anche
saper far corrispondere il testo sovraimpresso del sottotitolo al testo
parlato, calibrando la inevitabili riduzioni per non ostacolare il flusso
della comprensione da parte degli spettatori. La componente traduttiva
della sottotitolazione include quindi alcuni concetti fondamentali
riguardo la teoria della traduzione quali l’equivalenza, l’adeguatezza, la
fedeltà e la traducibilità, nozioni molto importanti a cui un traduttore
deve tener conto. L’equivalenza fa riferimento alla descrizione della
natura e il tipo di relazioni che si instaurano tra testo originale e testo
tradotto. Ricorrere a espressioni equivalenti significa fare uso, nel
metatesto (testo di arrivo), di espressioni che si adattano alla
situazione, che sono appropriate al contesto inserite nell’originale.
L’obiettivo, quindi, è quello di presentare una stessa situazione
dell’originale usando parole diverse per tradurre frasi idiomatiche fisse,
proverbi ecc.
Anche l’adeguatezza fa riferimento alla relazione tra testo e lingua
di partenza e testo e lingua di destinazione, ma è più debole, meno
27
rigida. La produzione di una traduzione adeguata riflette la risposta del
traduttore a una situazione comunicativa che non può essere trasferita
in modo completo e assoluto, ma che esige una sorta di compromesso e
sacrificio, inteso come perdita necessaria per poter veicolare gli aspetti
principali ed essenziali del testo fonte. In presenza di un elemento
“dominante” nel testo, verranno sacrificati altri elementi ritenuti
secondari e meno importanti e si cercheranno tutti i mezzi possibili per
tradurre l’elemento dominante; gli elementi secondari saranno poi
ripristinati in varie forme attraverso adeguate strategie di
compensazione. Più precisamente, quindi, con il concetto di
adeguatezza ci si riferisce ad una traduzione che guarda il testo di arrivo
ed è pienamente consapevole delle esigenze di quest’ultimo. Infine,
l’impego di una soluzione adeguata deve essere per necessità e non per
decisione del traduttore.
Il termine fedeltà invece viene usato per dire quanto una
traduzione possa considerarsi una rappresentazione ragionevole e leale
all’originale, e questo presuppone che il traduttore comprenda appieno
il significato e il messaggio del prototesto. Facendo riferimento alla
questione tanto discussa del “traduttore-traditore”, il rischio e la
possibilità di “tradire” è presente soprattutto nel momento in cui si
traducono opere filmiche. Quindi, il fatto che il traduttore deve
conoscere bene la lingua e la cultura straniera da cui traduce è un
fattore molto importante per assicurare una buona traduzione. Il primo
compito del traduttore è quello di capire e analizzare il testo di
partenza, in modo da poter scegliere il metodo traduttivo più adeguato,
poi deve riuscire a mantenere quanto più possibile l’originalità
28
grammaticale e semantica del testo, capire quindi qual è l’intenzione
dell’autore e il linguaggio che usa per persuadere lo spettatore, quindi
deve acquisire la tecnica per muoversi con più sicurezza e svolgere un
buon lavoro.
Il fattore traducibilità è molto importante per sapere fino a che
punto è possibile tradurre da una lingua all’altra. Dove non è possibile
tradurre per motivi lessicali o culturali, possono essere adottate
strategie traduttive particolari come l’esplicitazione, aggiunte di glosse,
commenti esplicativi, parafrasi o riformulazione di termini originali per
chiarificare un significato.
Quando parliamo, invece, di problemi di trasferimento linguistico,
facciamo riferimento alle difficoltà di traduzione che risiedono
nell’asimmetria linguistica, che implica numerosi procedimenti
linguistici per adattare il testo tradotto agli standard del pubblico per
cui si traduce. Gli elementi linguistici trattati sono giochi di parole, e, in
particolar modo, quelle parole o espressioni che non hanno un
corrispettivo nella lingua verso cui si sta traducendo. I giochi di parole
presentano un’ambiguità lessicale basata sull’omonimia o sull’omofonia
delle parole utilizzate. Per espressioni che non hanno un corrispettivo
nella lingua verso cui si traduce si intendono quelle frasi per cui non
esiste nessun equivalente codificato. Queste si oppongono ai modi di
dire o frasi fatte, come ad esempio i proverbi, che invece possono avere
un equivalente in diverse lingue. Ma oltre alle problematiche di natura
linguistica, in un testo audiovisivo è molto probabile imbattersi in
problemi di trasferimento culturale, poiché ad essere tradotta non è
29
solo la lingua, ma anche elementi culturali, e ogni paese possiede
culture e tradizioni differenti. Come comportarci in questo caso?
Bisogna ricorrere a delle strategie. Il traduttore e storico americano
Lawrence Venuti propone il modello “addomesticamento-
straniamento2”: il primo consiste nella sostituzione di un dato elemento
culturale, cancellando l’estraneità da esso rappresentata e
sostituendolo con un elemento familiare nella cultura di arrivo. Lo
straniamento, invece, è la strategia opposta, cioè rappresenta
l’elemento culturale esattamente come appare nel testo originale. Altre
strategie presentate da altri studiosi sono: l’omissione (dell’elemento
culturale nel testo tradotto), traduzione letterale, prestito (il termine
viene presentato nella traduzione nella sua forma originale),
equivalenza (uso del corrispettivo dell’espressione originale all’interno
del testo tradotto), adattamento (la traduzione è conformata alla
cultura del pubblico per cui si traduce), sostituzione del termine
culturale con un deittico, generalizzazione (il termine culturale viene
sostituito con un termine più generale di facile comprensione),
spiegazione del termine culturale attraverso una parafrasi.
Ma vediamo nel dettaglio quali sono tutte le strategie traduttive
utilizzate nella sottotitolazione:
1. Espansione (Expansion): aggiunta di spiegazioni
2. Parafrasi (Paraphrase): cambiamento di qualche
elemento della frase, necessario nel passaggio della lingua di
partenza alla lingua obiettivo
2 Venuti, L., Strategies of Translation, 1998:240.
30
3. Trasposizione (Transfer): traduzione letterale
4. Imitazione (Imitation): riproduzione di alcuni tratti
della lingua di partenza
5. Trascrizione (Transcription): tentativo di riprodurre
suoni che sono insoliti per entrambe le lingue, come le voci di
animali
6. Slittamento (Dislocation): uso di mezzi linguistici
diversi per mantenere lo stesso effetto
7. Restrizione (Condensation): riassunto del testo
originale senza perdite di significato
8. Riduzione (Decimation): eliminazione di una parte
del testo originale contenente significati non essenziali
9. Cancellazione (Deletion): eliminazione totale di una
parte del testo con perdita di significati
10. Rinuncia (Resignation): soluzione che non soddisfa le
esigenze linguistiche o semantiche del testo di partenza
Roman Jakobson, nel suo saggio del 1959 Aspetti linguistici della
traduzione3, ha dato una svolta alla teoria della traduzione. Egli intende
la traduzione come un problema di interpretazione e non di semplice
trasposizione di un segno in un altro e individua tre tipi di
interpretazione di un segno linguistico, dai quali nascono tre tipi di
traduzione: la traduzione endolinguistica (intralinguistica), che consiste
3 R. Jakobson, Aspetti linguistici della traduzione, 1959, Milano, Edizione Strumenti Bompiani, 2002.
31
nell’interpretare dei segni linguistici per mezzo di altri segni della stessa
lingua, la traduzione interlinguistica o traduzione propriamente detta,
quando opera su testi appartenenti a due sistemi linguistici differenti, e
la traduzione intersemiotica, che si serve di segni non linguistici per
interpretare segni linguistici. Più precisamente quando si incontra una
lacuna linguistica la terminologia sarà modificata e ampliata da prestiti,
calchi o trasposizioni semantiche.
2.c TRATTI CARATTERISTICI DEL SOTTOTITOLAGGIO
Abbiamo già detto che il sottotitolaggio è una tipologia di
traduzione audiovisiva che ha delle proprie tecniche, regole e criteri;
viene definita “traduzione subordinata”, poiché ha delle restrizioni di
tempo e spazio che influenzano in modo diretto il risultato finale. La
traduzione dipende quindi da questi parametri, e consiste non solo nel
tradurre il contenuto testuale, ma si basa anche sull’immagine e
sull’audio, contando su un tempo e uno spazio determinati. Per questo
motivo la traduzione del sottotitolo è definita “sincronica” e
“traduzione trasparente”, poiché rispetta totalmente l’integrità del
dialogo originale, che nella sua forma orale convive con la traduzione
scritta. Il film sottotitolato non può permettersi di manipolare il
32
messaggio originale perché mette lo spettatore nelle condizioni di
confrontarlo costantemente con la traduzione. L’unica manipolazione
possibile, e necessaria, riguarda la riduzione del testo tradotto rispetto
a quello originale. La sottotitolazione deve infatti essere selettiva ed
economica rispetto alle informazioni da veicolare: poiché lo spettatore
non può leggere un testo troppo lungo in tempi troppo brevi, è
importante che si selezionino solo le informazioni rilevanti, eliminando
ciò che è ridondante o poco utile per la comprensione globale del film.
Anche se vi è, tra le altre caratteristiche, l’impossibilità di rendere in
forma scritta tutte le sfumature e le caratteristiche della lingua parlata,
la sottotitolazione rappresenta una procedura vantaggiosa per una
larga fetta di utenti che comprende sordi, immigrati e apprendenti di
lingue straniere.
Lo spazio che si dispone per la traduzione in sottotitoli si limita a
due linee, di solito collocati nella parte inferiore dello schermo; ogni
linea non può contenere più di 35 caratteri, il che significa che il numero
di caratteri che può contenere un sottotitolo intero è di 70 caratteri. In
termini di tempo, un sottotitolo ha una durata minima di un secondo e
una durata massima di sei secondi nello schermo.
Per quanto riguarda infatti la struttura del sottotitolo, bisogna
adottare linee di testo più corte dell’intera larghezza dell’area visuale,
suddividendole laddove necessario in stringhe multi-linea (linea
superiore solitamente più corta); soprattutto nelle traduzioni bisogna
adottare laddove consentito una sintassi lineare per consentire una
lettura veloce e intuitiva; bisogna utilizzare colori, sfondi, dimensioni dei
33
font adeguati al contesto e non invasivi da un punto di vista grafico e
cromatico. Infine è importante rispettare la punteggiatura e utilizzarla
come vettore di elementi para-linguistici (stati d’animo, toni, emozioni
manifestate dal parlante).
La sottotitolazione comprende anche una parte tecnica chiamata
modello, spotting in inglese, vale a dire calcolare il momento nel quale i
sottotitoli appaiono e scompaiono dallo schermo, in modo che esista
una sincronizzazione con l’audio. Si deve inoltre tener conto della
durata dei sottotitoli e dei cambi di inquadratura che vengono fatti
nell’immagine. Infatti, quando si produce un cambio di inquadratura, lo
spettatore tende ad abbassare lo sguardo per rileggere il sottotitolo. È
molto importante che il canale visivo (testo scritto e immagini) e il
canale uditivo (colonna sonora e testo orale) siano perfettamente
integrati per ricostruire in modo chiaro ed efficace il messaggio
originale. L’eccessiva concentrazione su una sola delle due coordinate
informative può comportare la perdita di parte del contenuto veicolato
da quella trascurata. Quindi, la riduzione, la trasformazione diamesica
(passaggio dal codice orale a quello scritto) e la traduzione sono le fasi
principali ed essenziali che costituiscono il processo di sottotitolazione.
La riduzione del testo originale è quasi necessaria poiché i sottotitoli
non possono essere una trasformazione integrale e dettagliata dei
dialoghi della versione originale, per motivi di tempo e spazio sia del
sottotitolatore, sia dei tempi di lettura del pubblico. La trasformazione
diamesica riguarda invece la trascrizione del dialogo sotto forma di
sottotitolo. In generale, la lingua scritta non rappresenta una
trascrizione del parlato; i due codici hanno una diversa funzione, un
34
target diverso, che non sempre si possono far coincidere. È bene che il
sottotitolo raggiunga il giusto equilibrio tra il polo della rigidità, del
controllo, della pianificazione, della chiarezza e della concisione tipiche
dello scritto e il polo della flessibilità, della libertà, della ridondanza e
dell’implicitezza tipiche del parlato. La realizzazione dei sottotitoli può
essere effettuata tramite un’agenzia di sottotitolazione, che mette a
disposizione un team di esperti del settore, insieme ad apparecchiature
per la sottotitolazione. La creazione di sottotitoli tramite agenzia
prevede quindi un lavoro di squadra e vede coinvolta ogni singola
persona in maniera diretta o indiretta al processo di realizzazione.
Ognuno degli stadi di esecuzione prevede, da parte dei soggetti che ne
prendono parte, accuratezza e precisione e si spazia dal momento in cui
il lavoro viene commissionato, fino al momento in cui i destinatari finali,
ovvero gli spettatori, possono usufruire di un prodotto sottotitolato. Di
solito è sempre presente un traduttore, che si occupa di trasporre il
testo dalla lingua originale a quella del sottotitolatore, che crea
sottotitoli, dividendoli e sincronizzandoli al video e, se non dovesse
essere presente un traduttore, il sottotitolatore si occuperà di tradurre
la colonna sonora originale prima di dedicarsi all’adattamento e allo
spotting; infine, possono essere presenti dei tecnici, che si dedicano al
controllo dell’audiovisivo prima di iniziare il lavoro di sottotitolazione e
che imprimono il file dei sottotitoli sulla traccia video. Al giorno d’oggi,
le operazioni di sottotitolazione possono essere eseguite anche da una
singola persona, purché abbia dimestichezza con le lingue straniere in
cui decide di creare i sottotitoli e con i programmi per sottotitolare
materiali audiovisivi. È possibile creare dei sottotitoli anche senza
35
l’ausilio di alcuna agenzia, grazie ai software disponibili su internet. In
questo caso, la singola persona che decide di affrontare questo lavoro
diventerà traduttore, sottotitolatore e tecnico. È possibile suddividere,
quindi, il processo di sottotitolatura in diverse fasi:
1. Arrivo del prodotto da sottotitolare;
2. Il tecnico controlla che il prodotto non sia
danneggiato;
3. Il traduttore annota i punti critici del testo originale e
poi inizia la traduzione vera e propria;
4. Il sottotitolatore revisiona e divide il testo tradotto;
5. Si esegue lo spotting (viene deciso il preciso istante in
cui compariranno i sottotitoli e quando dovranno sparire;
6. Si esegue una prova cartacea della sottotitolatura e si
fa un’altra revisione per eventuali errori;
7. Viene eseguita l’incisione dei sottotitoli sulla
pellicola.
Prima di essere presentata al pubblico, la pellicola verrà poi
visionata da un cliente e da un tecnico. Possiamo, pertanto, riassumere
così il processo di sottotitolazione:
Modello: localizzazione dei tempi di entrata e uscita dei
sottotitoli, sincronizzati con l’audio, calcolando i tempi minimo e
massimo di durata e rispettando i cambi id inquadratura e di
scena.
36
Traduzione (adattamento): traduzione dell’originale,
adattandola e aggiustandola ai caratteri permessi secondo la
durata del sottotitolo.
Simulazione: rappresentazione dei sottotitoli tradotti con
l’immagine audio per verificare che si rispettino tutti i criteri e
che si possano leggere in modo naturale.
Correzione: correggere eventuali errori e riallineare il testo.
Per quanto riguarda invece la parte di adattamento, esistono una
serie di criteri basici che si eseguono nella sottotitolazione. Il testo che
contiene i sottotitoli deve essere un testo naturale, con la stessa
punteggiatura, regole ortografiche e convenzioni della lingua naturale.
Non si deve convertire in un telegramma per cercare di adattarlo al
numero dei caratteri, ma si deve arrivare ad un adattamento che risulti
naturale e corretto.
Ecco quali sono alcuni criteri basici principali:
Il taglio del sottotitolo, la separazione delle due linee, non deve
mai interrompere in nessun modo l’unità del significato. Non si deve
separare un sostantivo e il suo aggettivo in due linee differenti, o un
sostantivo e un verbo, ma deve essere un taglio naturale.
Si utilizza il trattino breve nelle conversazioni per indicare che
parlano due persone, con un trattino e un intervento per linea di
sottotitolo.
37
Si utilizza il corsivo per voci in off, canzoni e audio provenienti da
fuori della scena degli apparati elettronici.
Si utilizzano virgolette , abbreviature, cifre, e si evitano per quanto
possibile le lettere maiuscole.
Possiamo inoltre distinguere due tipi di sottotitolazione: quella
tecnica e quella generalistica. Nel primo caso è importante trasmettere
fedelmente il messaggio essenziale per trattare un argomento rivolto ad
un pubblico ristretto ma conoscitore della materia trattata, mentre nel
secondo è importante fare leva su ogni mezzo linguistico a disposizione
per rappresentare le più sottili sfumature colloquiali.
Si fa inoltre distinzione tra sottotitolaggio per ausilio fisico e quello
per ausilio linguistico (per gli utenti che non conoscono la lingua
originale del testo audiovisivo).
38
2.d ASPETTI SALIENTI DEL SOTTOTITOLAGGIO
Il film o il programma televisivo sottotitolato svolge una funzione
comunicativa con molteplici finalità. Inizialmente lo scopo era quello di
rendere accessibile a un pubblico internazionale la fruizione della
produzione cinematografica multilingue servendo interessi economici e
favorendo il superamento di barriere linguistiche e culturali. In seguito
emerge un’ulteriore funzione comunicativa del sottotitolo, che si rivolge
a un numero inferiore di fruitori, ma con uno scopo socioculturale più
elevato. Stiamo parlando della sottotitolazione per soggetti sordi, di cui
parleremo più approfonditamente nella seconda parte della tesi.
Questa multifunzionalità del sottotitolo è legata ai diversi tipi di
sottotitoli esistenti ed è finalizzata a soddisfare le esigenze di un
eterogeneo numero di fruitori. In base ai criteri di carattere linguistico si
possono distinguere due tipi di sottotitoli: quelli interlinguistici e quelli
intralinguistici, riassunti in una tabella di questo tipo da Elisa Perego4:
4 Elisa Perego, La Traduzione Audiovisiva, Carocci, 2005
39
Sottotitoli
intralinguistici
Sottotitoli nella stessa
lingua del film originale
Sottotitoli
interlinguistici
Sottotitoli in una lingua
diversa da quella del
film originale
destinatari Sordi e sordastri-
Apprendenti di L2
Normoudenti-
Apprendenti di L2
Caratteristiche
distintive
-Trasposizione scritta e
semplificata del dialogo
originali.
-Rappresentazione
simultanea del dialogo
originale e della sua
trascrizione integrale.
-Sottotitolazione
standard.
-Dialoghi in L2.
-Traduzione scritta e
ridotta in L1.
-“Sottotitolazione
rovesciata”.
-Dialoghi in L1.
-Traduzione scritta in L2.
Funzione Mezzo principale o
ausiliario per l’accesso
alle informazioni
televisive e/o
cinematografiche.
Utile supporto didattico
in diverse situazioni di
apprendimento
linguistico.
Riprodurre e adattare il
dialogo nella lingua dei
fruitori per permettere
loro la comprensione
del film straniero.
Vantaggioso per la
memorizzazione a lungo
termine del lessico;
anche per principianti.
40
Poiché la decifrazione di un film con sottotitoli comporta
un’attività di lettura sia di immagini in movimento, sia di un testo
scritto, esiste una tecnica, chiamata la tecnica del tracciamento oculare
(eye tracking in inglese), che consente di capire, e quindi perfezionare e
potenziare, i criteri di presentazione e la fruibilità di un film. Ciò è
particolarmente importante perché può essere applicata anche a quei
film con sottotitoli indirizzati a persone con disabilità sensoriali (visive e
uditive) che esigono una particolare cura nella definizione di criteri
(linguistici, strutturali, contenutistici) per la realizzazione di traduzioni o
trasposizioni audiovisive mirate ed efficaci.
Il tracciamento oculare, quindi, è una tecnica che consente di
registrare e osservare i meccanismi del sistema visivo umano.
Attraverso la registrazione dei movimenti degli occhi durante la lettura
è possibile infatti stabilire dove un utente sta guardando, in che
direzione si muove il suo sguardo, quali aree del testo, dell’immagine o
della scena in movimento sono ispezionate con maggiore intensità.
Grazie a questo si è potuto capire, ad esempio, che la lettura non
avviene mediante uno spostamento continuo degli occhi da sinistra
verso destra sul testo da leggere, come si pensava succedesse, ma
attraverso un loro rapidissimo spostamento per sbalzi (saccadi) seguiti
da fermate (fissazioni). Nel caso dei sistemi più diffusi, cioè quelli a
infrarosso, la riflessione di una radiazione infrarossa di piccola potenza
inviata al centro delle pupille permette di ricostruire la posizione e il
movimento degli occhi che sono registrati per mezzo di una telecamera.
41
Il film con sottotitoli, che richiede la distribuzione dell’attenzione
su numerosi canali semiotici sempre ridondanti, comporta il
coinvolgimento di un’attività cognitiva complessa. È importante, quindi,
conoscere le similitudini e le differenze di uso del sottotitolo per
regolarsi nella sua realizzazione, adattandola alle esigenze del reale
destinatario. Il sottotitolo intralinguistico, infatti, nasce come strumento
che offre una possibilità di accesso al prodotto audiovisivo a utenti sordi
e sordastri.
Tra i fenomeni più interessanti emersi dagli studi sulla fruizione di
un film con sottotitoli ci sono la “regola dei sei secondi”, le teorie
sull’automaticità della lettura e della rilettura dei sottotitoli e l’impatto
di specifiche scelte lessicali o di specifiche strategie traduttive sulle
modalità di elaborazione del sottotitolo.
Come abbiamo già affermato, i sottotitoli sono condizionati da
rigide regole riguardanti la loro lunghezza e la loro permanenza sullo
schermo, che deve consentire la lettura e la comprensione completa,
ma non la rilettura. Quindi, la “regola dei sei secondi” stabilisce il
tempo, di sei secondi, di permanenza del sottotitolo per una lettura
chiara e completa, evitando inutili processi di rilettura che
disturberebbero l’elaborazione e la comprensione del sottotitolo.
L’automaticità di lettura e di rilettura del sottotitolo si riferisce
all’ipotesi secondo cui gli spettatori inizierebbero automaticamente la
lettura dei sottotitoli ogni volta che sono esposti, e attiverebbe un
processo di rilettura del testo se questo rimane esposto per troppo
tempo sullo schermo. L’effetto delle scelte lessicali sulla lettura del
42
sottotitolo è stato introdotto da alcuni studiosi, i quali hanno
dimostrato che i tempi di lettura del sottotitolo tendono a diminuire se
questo contiene parole ad alta frequenza d’uso, ripetizioni di elementi
lessicali al posto di forme pronominali e congiunzioni; allora è possibile
pensare che i sottotitoli più lunghi e più espliciti siano più leggibili ed
efficaci dei sottotitoli che si attengono alle lunghezze standard imposte
dai tradizionali vincoli di numero di caratteri per riga, e che possano
assicurare una comprensione generale migliore. È interessante notare
anche quali sono le reazioni degli spettatori di fronte agli aspetti
strutturali del sottotitolo, in particolar modo riguardo alla
segmentazione del sottotitolo, per rendere il sottotitolo più leggibile e
fruibile. Anche se i gruppi sintattici funzionali all’interno delle frasi non
andrebbero mai scompattati, in realtà sembra che il sottotitolo sia
decodificato in modo efficace a prescindere dal modo in cui è proposto
allo spettatore. Dunque, qualunque sia lo spezzamento del sottotitolo,
l’attenzione dello spettatore e la comprensione del film non vengono
ostacolati.
43
3. ACCESSIBILITÀ E USABILITÀ NELLA TRADUZIONE
AUDIOVISIVA
Nell’era della globalizzazione, in un mondo in cui tutto ruota
intorno alle parole, alle immagini e al messaggio televisivo e
pubblicitario, si fa ancora poco per abbattere le barriere della
comunicazione e rendere accessibile l’informazione alle persone con
disabilità sensoriali. Si tratta di una questione culturale che impedisce la
comunicazione e di conseguenza l’integrazione dei disabili nella società.
Tuttavia, negli ultimi tempi si stanno sviluppando nuovi sistemi per la
sottotitolazione dei programmi
Garantire l’accesso a prodotti audiovisivi ergonomici è oggi una
preoccupazione centrale, che nasce dalla sensibilità verso utenti con
disabilità sensoriali che non permetterebbero loro di usufruire di una
enorme fetta di prodotti informativi artistico-culturali. È proprio
dall’esigenza di eliminare le barriere linguistiche e sensoriali
nell’accesso al materiale audiovisivo che si fanno strada, nel campo
della traduzione audiovisiva, i concetti di usabilità e di accessibilità. Nel
dettaglio, possiamo definire l’accessibilità come il “livello di fruibilità di
qualche cosa, che può quindi essere usata a prescindere da
impedimenti fisici o cognitivi dell’utente”. La nozione di usabilità
affonda le sue radici in una dimensione cognitiva, più che materiale o
fisica. Possiamo definire l’usabilità come la qualità che rende un
prodotto efficace e soddisfacente per l’utente; il grado di semplicità di
uso del prodotto. Un sottotitolo, quindi, può essere perfettamente
44
accessibile ma scarsamente usabile o, viceversa, perfettamente usabile
ma totalmente inaccessibile.
I sottotitoli sono tra i mezzi di comunicazione più importanti che
aiutano i sordi a “sentire con gli occhi” e che interrompono il silenzio
che li circonda. Lo sviluppo intellettivo e culturale dei sordi, come degli
udenti, passa attraverso la comunicazione. I sottotitoli costituiscono per
i sordi un’ottima opportunità per stimolare il loro sviluppo culturale e
lessicale, un sussidio dell’apprendimento dell’italiano. La lingua è una
cultura e la sottotitolazione esprime la natura multiculturale della
comunicazione di massa. Per questo motivo la fedeltà linguistica è
importante nelle sottotitolazioni: fedeltà quantitativa e qualitativa,
quando i vincoli tecnico-linguistici di tempo e spazio lo permettono.
Inoltre, ancora oggi ci sono persone che pensano che i sordi siano anche
muti, non conoscono la realtà e le differenze che ci sono tra i sordi, e la
logica conseguenza che i sordi non capiscono. Ci sono ancora molti
preconcetti e pregiudizi sull’argomento sordi e sordità e pochi sanno
che i sordi, “guardando”, possono capire molte cose che agli udenti
sfuggono. Alcuni professionisti che si occupano del sottotitolaggio per
non udenti hanno approfondito i loro studi e hanno cercato di capire
cosa pensano le persone sorde dei sottotitoli e quali sono le loro
esigenze. La prima cosa di cui si lamentavano era la fedeltà linguistica,
poi hanno chiesto il motivo per il quale il testo fosse ridotto e infine si
sono lamentati della durata troppo breve dei sottotitoli. Quindi,
l’obiettivo di chi svolge questo lavoro è quello di rimanere il più
possibile fedeli al parlato. La riduzione del testo e la durata del
sottotitolo sono pressoché necessarie per rientrare nei tempi e negli
45
spazi consentiti e per eliminare informazioni che spesso non sono così
importanti e non impediscono la comprensione del prodotto
audiovisivo.
Esistono due tipi di servizi di accesso alla televisione per i sordi:
l’interpretazione in lingua dei segni, di cui parleremo successivamente,
e la sottotitolazione. L’interpretazione in lingua dei segni è fornita da un
interprete LIS che compare su una porzione del teleschermo,
opportunamente diviso in due, o in una finestra che occupa un angolo
dell’immagine. Si tratta purtroppo di un servizio ancora poco diffuso in
Italia, malgrado le richieste. Per la precisione, solo alcune edizioni
ridotte del telegiornale vi fanno ricorso. Questo può essere attribuito al
fatto che la lingua dei segni, a differenza della sottotitolazione, non è
accessibile a tutte le persone audiolese, ma essenzialmente ai sordi di
nascita. Nel capitolo precedente abbiamo fatto distinzione tra
sottotitoli interlinguistici e sottotitoli intralinguistici e proprio
quest’ultimi rappresentano un’operazione di transfer linguistico in seno
ad una stessa lingua, finalizzata a fornire una rappresentazione scritta di
tutte le informazioni contenute nella banda sonora di un film (verbali,
non verbali e paraverbali), al fine di renderle accessibili ai sordi. I
sottotitoli per non udenti non sono impressi in modo permanente
nell’immagine e non sono, quindi, visibili a tutti i telespettatori, ma
sono attivabili o disattivabili a scelta mediante un tasto del
telecomando, essendo fondamentalmente destinati ad un pubblico
specifico. La sottotitolazione intralinguistica rappresenta oggigiorno un
supporto essenziale per un numero inestimabile di sordi. Si rivela altresì
importante per altre categorie di persone, come ad esempio gli anziani,
46
molto spesso vittime di una riduzione dell’udito, gli immigrati che non
padroneggiano la lingua del paese di arrivo o i bambini che imparano a
leggere.
3.a STORIA DELL’EDUCAZIONE DELLA COMUNITÀ SORDA
In antichità, non si poteva sapere se esisteva la comunità sorda,
sebbene passi dell’Antico Testamento testimoniano che il sordo veniva
accettato nella società non per un senso di compassione, ma in quanto
opera della creazione divina, degna quindi di rispetto. Quel periodo, che
ha inizio con i tempi biblici, attraversa la civiltà Greca, Romana, Ebraica,
per potersi poi considerare concluso con l’inizio del ‘500; il pregiudizio
nei confronti dei sordi era elevato come dimostravano le leggi ebraiche
che consideravano le persone sorde irresponsabili e la parola
“sordomuto” nella lingua ebraica significava ritardato (shoté) oppure
piccolo d’età (katan). Anche due grandi autorevoli autori greci avevano
compiuto osservazioni contrapposte. Platone scrisse il suo pensiero
positivo dicendo che il “linguaggio dei segni dei sordi si riteneva adatto
ad esprimere sia pensieri che sentimenti”5, mentre Aristotele, che,
insieme a Platone, fu tra i primi a compiere studi sulla formazione del
linguaggio, nella Storia degli Animali afferma negativamente che
“coloro che sono sordi sono in tutti i casi anche muti, possono cioè
emettere suoni ma non possono parlare”, e poiché le parole “sordo” e
5 Platone, Cratilo. Bari, Laterza, 2008.
47
“muto” significavano anche “stupido”, questa confusione di termini
generò l’erronea ma logica interpretazione che fu attribuita nei secoli a
venire alle parole di Aristotele, cioè che i nati sordi dovessero essere
considerati <<insensati ed incapaci di ragionare>> e, di conseguenza,
non educabili.
Nel Vecchio Testamento, le Sacre Scritture considerano i
sordomuti come esseri incompleti, deboli, bisognosi della grazia di Dio.
Ancora non si conosceva il legame causale sordità-mutismo, e
l’incapacità di articolare i suoni viene creduta la conseguenza di un
nodo alla lingua. Aristotele considera i sordomuti come ineducabili, dal
momento che la loro sordità costituisce un impedimento alla ricezione
della parola, unico strumento in grado, secondo lui, di trasmettere
l’insegnamento e la disciplina. Risulta chiaro, quindi, come ancora
scarsa e tentennante fosse ai tempi dei Greci la conoscenza del
fenomeno del sordomutismo. La situazione per i Romani è simile e il
Diritto Romano diceva che i sordi erano come i “mentecatti”,
coniugando, in questo modo, un pregiudizio fisiologico e psicologico
all’impossibilità di fornire un’educazione; inoltre erano considerati
incapaci: non potevano stipulare, né essere tutori, non potevano fare
da testimoni nei testamenti e non potevano in alcun modo
testimoniare. Ciò dimostra ancora l’ignoranza da parte dei Romani, del
legame sordità-mutismo, e la persuasione che si trattasse di individui
incurabili e ineducabili. Nonostante questo, non mancano comunque,
nella letteratura latina, resoconti di incontri con sordomuti intelligenti.
Il primo documento storico che menzionò l’esistenza dei segni come
mezzo per l’istruzione dei sordi fu quello di Ammiano Marcellino.
48
Ovviamente non possiamo dire che già esisteva la lingua dei segni, però
questi sono più antichi di molte altre lingue. Nel codice Giustiniano I
viene precisato che “i sordomuti, divenuti per caso tali, possono
usufruire dei loro diritti civili a condizione che sappiano leggere e
scrivere”. Questa citazione testimonia l’esistenza dei sordi che
potevano leggere e scrivere già ai tempi dell’impero romano nel
tentativo di operare distinzioni legali per poter ottenere pieni diritti dal
punto di vista legale. Nel Medioevo (476-1492, V-XV sec.) si ritorna ad
una vera e propria persecuzione nei confronti dei sordi: furono
soppressi del tutto quei diritti che erano già stati concessi al tempo
dell’Imperatore Giustiniano. Durante il feudalesimo vennero
completamente emarginati, in quanto la sordità non permetteva loro di
combattere in guerra, che era il principale interesse dei signori del
tempo. Facendo una sintesi di questo primo periodo, possiamo dire che
in esso prevalgono il pregiudizio, che porta a considerare il sordomuto
come individuo stolto, da compatire in quanto infelice, incapace di
ricevere la parola e, di conseguenza, estraniato dai sacramenti o da una
qualsiasi educazione, incapace di produrre la parola e perciò selvaggio,
spesso neanche riconosciuto giuridicamente; prevale anche l’ignoranza
in merito al fenomeno del sordomutismo, ovvero in merito alle sue
cause, alla relazione sordità-mutismo, alla distinzione tra sordomutismo
e ritardo mentale.
Nel periodo che va dal XVI fino alla metà del XVII secolo ha origine
la vera e propria istruzione dei sordomuti. La nuova atmosfera di nuove
sperimentazioni e conoscenze porterà diversi scrittori ad ipotizzare
l’educabilità dei sordomuti e a concentrarsi su questo argomento,
49
favorendo così lo sviluppo di studi e ricerche di tipo medico, linguistico,
storico intorno al fenomeno del sordomutismo. Nel XIV secolo Bartolo
della Marca D’Ancona, giureconsulto italiano e scrittore, afferma di aver
conosciuto un uomo completamente sordo che era così intelligente da
comprendere facilmente le persone grazie alla lettura dei movimenti
delle labbra (è la prima volta che si parla di lettura labiale) e fu il primo
a sostenere la possibilità di istruire i sordi, sia attraverso i segni sia con
la lingua parlata. L’educazione verbale delle persone sorde, sebbene
argomento di grande attualità, è soggetto a continui mutamenti ed
evoluzioni. La prima persona a parlare in maniera seria della possibilità
di educare i sordomuti è Girolamo Cardano (1501-1576), il quale arriva
alla conclusione che la parola non sia indispensabile per l’educazione
dell’individuo, e che un sordomuto possa perciò venire istruito in modo
più che soddisfacente attraverso la scrittura e la lettura.
Ma in che cosa consiste l’arte di educare e istruire i sordomuti nel
periodo che va dall’età greca all’età medievale? Possiamo notare
innanzi tutto il carattere privato e individuale di tale arte: i primi
maestri dei sordomuti sono maestri privati e i loro alunni sono figli di
persone ricche ed influenti che possono permettersi l’alto costo per
questo tipo di istruzione. L’educazione per sordomuti è perciò un
privilegio di pochi fortunati in questo periodo e la maggior parte dei
sordomuti rimane nell’ignoranza e nella miseria. Il metodo su cui si
concentrano i maestri è orale; il punto di partenza è l’assunto che,
nell’istruzione dell’individuo, il senso dell’udito possa essere sostituito
da quello della vista. Come dice George Dalgarno, famoso pedagogista
del tempo,
50
“[…] non si vede quindi una ragione per cui la mente umana debba
apprendere più facilmente le immagini acustiche di quelle ottiche della
parola”.
Si procede dunque con l’insegnamento dell’articolazione dei suoni.
L’alunno apprenderà innanzi tutto la distinzione tra respirazione e
funzione vegetativa (fenomeno involontario, atto all’ossigenazione del
sangue) e respirazione fonica (per l’emissione dei suoni). In un secondo
tempo si passerà all’apprendimento delle diverse posizioni articolatorie
dei singoli suoni. Il passo successivo consiste nell’apprendimento, da
parte dell’alunno, delle sillabe, poi di gruppi fonetici sempre più
complessi, infine delle parole. Il mezzo attraverso il quale il sordomuto
può imparare tutto questo è il senso della vista.
Con il graduale avvicinarsi del XX secolo si delineano in misura
sempre più evidente tre tendenze principali: l’orientamento verso il
metodo orale, un senso del diritto dei sordomuti di ricevere
un’istruzione e un senso del dovere, da parte della società, di fornire ed
estendere questa istruzione. Inizialmente si commette l’errore di
credere che per l’istruzione di soggetti sordomuti sia sufficiente una
buona dose di pazienza, e che un qualsiasi maestro di scuola o parroco
possa svolgere questo compito. Molte sono perciò le proposte di
istruzione di soggetti sordomuti in normalissime classi di udenti. Diverse
sono anche le opere scritte e le pubblicazioni che elencano i vantaggi ed
i risultati del metodo orale rispetto a quello mimico. La tendenza del
metodo orale coinvolge in generale tutta l’Europa e in parte anche gli
Stati Uniti. In Italia nasce nel 1873, con il Primo Congresso Nazionale
51
degli Educatori Italiani dei Sordomuti, tenutosi a Siena, l’esigenza di
riunirsi e discutere metodi ed esperienze dei diversi istituti del Paese. La
proposta generale è quella di dare all’insegnamento orale un ruolo più
importante e significativo nell’ambito dell’educazione dei sordomuti.
Anche se i sostenitori del metodo mimico sono pochi, non si proibisce ai
sordomuti di segnare, specialmente nei primi anni di vita. Viene
comunque affermata in maniera definitiva la superiorità della parola sui
gesti e del metodo orale puro su quello mimico o misto, in quanto in
grado di permettere al sordo l’integrazione sociale, oltre che uno
sviluppo del pensiero e dell’intelletto. In seguito al Congresso di Milano,
molte scuole riorganizzano la loro impostazione e la loro struttura
didattica, abbandonando i segni e adottando il metodo orale puro.
3.b LA SORDITÀ
L’Organizzazione Mondiale della Sanità (World Health
Organization, 2001) ha definito la sordità o ipoacusia un’acuità uditiva
tale da non consentire all’individuo di apprendere una lingua verbale, di
partecipare alle attività tipiche della sua età, di trarre profitto
dall’insegnamento scolastico. L’ipoacusia può avere una causa genetica
o ereditaria, può derivare da una sofferenza del feto o dell’embrione
nella fase di vita prenatale, da una serie di complicazioni dovute alla
nascita prematura o, più genericamente, a condizioni di sofferenza
perinatale, da patologie traumatiche, tossiche o infettive successive alla
52
nascita. In questi ultimi anni la popolazione sorda si è ritrovata al centro
di una notorietà imprevista che ha determinato una vasta diffusione di
informazioni precedentemente riservate solo agli addetti ai lavori. È
sorto il problema di stabilire una terminologia adeguata per discorrere
della questione sordità nell’era del “politicamente corretto”. I termini
sordo e sordità sono spesso oggetto di correzione e pertanto il sordo è
definito minorato dell’udito, non udente, audioleso, ipoacusico,
portatore di deficit uditivo ecc., mentre la sordità diventa minoranza
uditiva, audiolesione, anacusia, otologopatia ecc.. Un altro termine
spesso usato per indicare le persone sorde è sordomuto, ma non può
essere considerato un sinonimo dei primi. Questa denominazione,
infatti, risulta imprecisa e può generare degli equivoci in chi non
possiede competenze specifiche. Essa suggerisce un impedimento oltre
che dell’udito anche della parola, ma in realtà il soggetto sordo, con
un’adeguata terapia riabilitativa, può imparare a programmare
l’emissione della propria voce e quindi a parlare. Il termine sordomuto è
però ancora in uso nel sistema normativo italiano per il quale si
considera sordomuto il minorato sensoriale dell’udito affetto da sordità
congenita o acquisita durante l’età evolutiva che gli abbia impedito il
normale apprendimento del linguaggio parlato, purché la sordità non
sia di natura esclusivamente psicologica o dipendente da causa di
guerra, di lavoro o di servizio (art. 1 legge 381).
La sordità è la riduzione più o meno grave dell’udito. Dal punto di
vista clinico si distinguono diversi gradi di sordità diversamente correlati
alla possibilità di percepire i suoni linguistici e di sfruttare i residui
53
acustici attraverso l’uso delle protesi. Si distinguono quattro gradi di
sordità in base al grado di perdita uditiva espresso in decibel;
Sordità lieve: perdita uditiva compresa fra 20 e 40
db;
Sordità media: perdita uditiva compresa fra 40 e 70
db;
Sordità grave: perdita uditiva compresa fra 70 e 90
db;
Sordità profonda: perdita uditiva uguale o superiore
a 90 db.
Le cause della sordità sono ancora oggi uno degli aspetti meno
chiari della diagnosi: questa incertezza è determinata dalla varietà di
fattori che possono causare la sordità. Le cause possono comunque
essere distinte in due grandi aree: le sordità congenite (insorte prima
della nascita o postnatali in quanto sordità genetiche progressive) e le
sordità acquisite (insorte al momento della nascita o in seguito alla
nascita). Le sordità prenatali a loro volta si distinguono in ereditarie, che
non si manifestano, cioè, necessariamente alla nascita e in molti casi
sono di natura progressiva, e acquisite, cioè malformazioni congenite,
tossiche o infettive. Le sordità ereditarie rappresentano il 50% dei casi.
In base al momento dell’insorgenza della sordità e della possibilità di
acquisire spontaneamente una lingua vocale, si procede con
un’ulteriore classificazione: sordità prelinguali: presenti alla nascita o
54
insorte precocemente, cioè prima dei 18 mesi; sordità perlinguali,
acquisite fra i 18 e i 36 mesi d’età e sordità postlinguali, acquisite dopo i
36 mesi.
In generale, possiamo affermare che, attraverso uno stesso
processo, sia i bambini udenti, sia quelli sordi, raggiungono le stesse fasi
di sviluppo linguistico alla stessa età, indipendentemente dalla modalità
in cui la lingua a cui sono esposti si realizza. È importante sottolineare
come ci sia, di fatto, un’equipotenzialità comunicativa fra la modalità
verbale e quella gestuale che, nelle fasi più precoci dello sviluppo
linguistico, costituiscono un unico sistema; in seguito, poi, i diversi
contesti influenzeranno la scelta dell’una o dell’altra modalità. Il
contesto in cui la comunicazione ha luogo influenza quindi l’uso da
parte del bambino di parole o gesti: l’input nell’interazione bambino-
adulto diviene quindi discriminante per il successivo prevalere della
modalità vocale o segnica. Molto diverso è il caso di quei bambini che
nascono sordi da genitori udenti (95% dei casi). Questi bambini non
sono esposti, a causa del loro deficit, alla lingua parlata nell’ambiente,
né possono acquisire spontaneamente la lingua dei segni perché questa
non è usata in famiglia. Alcuni autori si sono interessati al ruolo
dell’input nello sviluppo linguistico dei bambini sordi, non esposti ad
una lingua dei segni, analizzando le loro produzioni gestuali. Queste
ricerche hanno mostrato che i bambini sviluppano ed usano un sistema
gestuale che esprime molte delle funzioni comunicative, semantiche e
pragmatiche, tipicamente presenti nel linguaggio di bambini esposti ad
una lingua, in condizioni normali. L’acquisizione della lingua vocale da
parte di un bambino sordo, invece, non è mai spontanea e avviene in
55
modo artificiale grazie ad un insegnamento specifico e formale e alla
terapia logopedica. Le prime parole possono non comparire fino ai 2/3
anni, lo sviluppo del vocabolario procede ad un ritmo molto lento e le
frasi di più parole possono non presentarsi fino ai 4/5 anni. Per quanto
riguarda quindi i bambini sordi con genitori sordi ci può essere
acquisizione spontanea della LIS se i genitori sono segnanti, ma non ci
può essere acquisizione spontanea dell’italiano; per i bambini sordi figli
di genitori udenti, invece, non ci può essere acquisizione spontanea né
della LIS, né dell’italiano. È importante distinguere l’età in cui si è
manifestata la sordità perché è strettamente collegata col tipo di
linguaggio raggiunto.
Vorrei concludere citando la ricerca linguistica di Fabbro che dice
di dover distinguere, dal punto di vista neurolinguistico, tra
l’acquisizione e l’apprendimento di una lingua. “L’acquisizione di una
lingua viene effettuata con modalità naturali, in un ambiente informale,
con il coinvolgimento soprattutto della memoria implicita. Tutti i
bambini acquisiscono la madrelingua attraverso strategie informali.
L’apprendimento di una lingua, invece, si realizza con modalità formali,
cioè per regole, spesso in un ambiente istituzionale”.6
6 Fabbro F., Il cervello bilingue. Neurolinguistica e poliglossia, Astrolabio, Roma 1996, (Cap. 11).
56
3.c INTRODUZIONE ALLA LINGUA ITALIANA DEI SEGNI
Un individuo udente riesce a comunicare attraverso il canale
acustico-verbale perché fin dalla nascita ha potuto udire i suoni emessi
dalle persone che lo circondavano, capirne appieno il significato, quindi
passare all’imitazione e giudicare con le sue orecchie la propria
produzione vocale. Nel caso di una persona sorda, però, la situazione è
diversa: pur disponendo della stessa facoltà di linguaggio di un udente,
la sordità impedisce sia la percezione degli input, sia il feedback
acustico e per questa ragione la lingua vocale non può diventare la
lingua naturale della persona sorda. Ma, poiché tutti hanno bisogno di
comunicare con gli altri, è necessario per i sordi trovare una modalità di
comunicazione che sostituisca il canale compromesso (quello acustico)
con un canale integro (quello visivo). Nasce perciò la lingua dei segni,
che trova la sua espressione sul piano visivo-gestuale; l’input è
percepito dagli occhi e l’output è prodotto impiegando le mani, il viso,
la postura del corpo. Se il sordo entra a contatto fin da subito con
questa modalità di comunicazione può acquisirla anche
spontaneamente, in modo naturale.
La lingua dei segni è una lingua che veicola i propri significati
attraverso un sistema codificato di segni delle mani, espressioni del viso
e movimenti del corpo. Viene utilizzata dalle comunità dei segnanti a cui
appartengono in maggioranza persone sorde. Si tratta di una
comunicazione che contiene aspetti verbali (i segni) e aspetti non
verbali (le espressioni sovrasegmentali di intonazione) come tutte le
lingue parlate o dei segni. La comunicazione avviene producendo quelli
57
che a un profano possono sembrare dei banali gesti, ma che sono in
realtà precisi segni compiuti con una o entrambe le mani, che, a
differenza di quelli percepibili nell’ordinaria gestualità, hanno uno
specifico significato, codificato e assodato, come avviene per le parole.
Ad ognuno di essi è assegnato uno o più significati. Le lingue dei segni
sfruttano il canale visivo-gestuale, perciò il messaggio viene espresso
con il corpo e percepito con la vista.
La comunicazione gestuale dei sordi è nota sin dall’antichità, ma
inizia ad essere studiata da un punto di vista linguistico solo a partire
dagli anni ’60. William Stokoe, un ricercatore americano, fu il primo a
dimostrare che questa forma di comunicazione non è una semplice
mimica, ma una vera e propria lingua, una lingua dei segni, con un suo
lessico e una sua grammatica, in grado di esprimere qualsiasi
messaggio.
58
Le parole di una lingua
vocale sono formate sulla base
della combinazione di un certo
numero di suoni (fonemi); così
pure, tutti i segni di una lingua
gestuale sono formati
attraverso la combinazione di
quattro parametri formazionali:
luogo (lo spazio dove le mani eseguono il segno), la configurazione
(delle mani nell’eseguire il segno), l’orientamento del palmo delle mani
e il movimento nell’eseguire il segno. I segni risultanti dalla
combinazione di questi quattro parametri costituiscono il vocabolario di
una lingua dei segni, il suo lessico. La presenza di precise regole
grammaticali è uno degli elementi più importanti e distintivi delle lingue
dei segni rispetto ad altre forme di comunicazione gestuale che non
possono definirsi lingue, come i gesti e le pantomime. La grammatica
viene espressa principalmente attraverso alterazioni sistematiche del
luogo di esecuzione dei segni e di alcuni tratti del movimento, come la
direzione, la durata, l’intensità o l’ampiezza. La sintassi viene espressa
con mezzi quali: le espressioni facciali, l’orientamento e la postura del
capo, degli occhi e di tutto il corpo, l’ordine dei segni nella frase.
L’ordine dei segni in una frase è del tipo Soggetto-Oggetto-Verbo; nella
frase negativa, la negazione è posta alla fine. Esisteva, ed esiste tutt’ora,
la convinzione che il linguaggio dei segni non possiede né una
morfologia né una sintassi, invece ecco quali sono, in modo sintetico, i
caratteri principali della grammatica LIS:
59
TEMPO E MODO DEI VERBI
Il verbo viene segnato sempre all’infinito, ma per indicare il
presente, il passato e il futuro, i segni sono eseguiti lungo una linea
astratta denominata “la linea del tempo”, situata sul piano orizzontale
all’altezza della spalla segnante.
VERBI DIREZIONALI
Si muovono nello spazio secondo la direzione di chi fa o riceve
l’azione (es. ho ricevuto il fax, il segno “fax” si muove verso di me).
PLURALE
È ottenuto ripetendo il segno, modificando il luogo di articolazione
e, in parte anche il movimento. Esistono alcuni segni che non si possono
ripetere per formare il plurale e in quel caso si aggiunge il segno “tanti”
dopo l’oggetto o il soggetto plurale.
PRONOME PERSONALE
È basato su una serie di indicazioni gestuali e oculari: la prima
persona è data dall’indicazione di sé stessi; la seconda persona è
rappresentata dall’indicazione e dallo sguardo diretti verso la persona
che conversa con il segnante; la terza persona è data dall’indicazione
rivolta al soggetto in questione se presente, verso un punto indefinito
dello spazio se assente ma lo sguardo rimane rivolto all’interlocutore; lo
stesso vale per la 1°, 2°, 3° persona plurale e il movimento è
semicircolare.
60
FRASE AFFERMATIVA, NEGATIVA E INTERROGATIVA
Nella frase affermativa, l’espressione facciale è positiva ma neutra
e le spalle e il tronco non hanno particolari posizioni, la frase negativa
viene espressa con l’avverbio posto alla fine della frase, le spalle sono
spostate all’indietro e il capo è leggermente inclinato da una parte e la
frase interrogativa viene usata con gli aggettivi o i pronomi interrogativi
che sono posti alla fine della frase, le sopracciglia sono inarcate o la
fronte è corrugata, il capo e le spalle sono inclinate in avanti.
CONDIZIONALE
Le sopracciglia sono inarcate, il capo e le spalle sono inclinate in
avanti, dando l’espressione della domanda, segue una pausa che dà il
tempo di rilassare l’espressione della domanda, e la postura del tronco
che esprime la conseguenza della condizione.
ESPRESSIONE
Ha un ruolo fondamentale nella lingua dei segni italiana, nella
grammatica senza la quale il gesto perderebbe il significato: il
movimento del corpo, l’ampiezza, la velocità sono gli elementi
fondamentali della corretta espressività nella lingua dei segni.
QUATTRO PARAMETRI FORMAZIONALI
I segni risultanti dalla combinazione dei quattro parametri
costituiscono il vocabolario della lingua dei segni, il suo lessico:
Luogo
61
Configurazione
Orientamento
Movimento
SEGNI IDIOMATICI
Sono espressioni che appartengono alla cultura sorda, ma anche
influenzate dalla cultura udente, che tradotte letteralmente sembrano
non avere nessun significato.
Nella formazione dei segni si possono distinguere cinque fasi:
1. Osservazione della realtà circostante e influenze
linguistiche esterne come persone e oggetti
2. Percezione visiva
3. Patrimonio personale di conoscenza linguistica, segni
già codificati, gesti italiani, dattilologia
4. Produzione dei segni “provvisori”
5. Segni codificati/convenzionali e/o “segni
abbandonati”
Nei diversi paesi, ciascuna comunità di sordi crea e tramanda da
una generazione all’altra una sua lingua, per cui esistono tante lingue
dei segni diverse. Varietà locali e nazionali sono documentate in
numerosi dizionari. Si parla di Lingua dei Segni Americana (ASL), Lingua
dei Segni Spagnola (LSE), Lingua Dei Segni Italiana (LIS), Lingua dei Segni
Francese (LSF) e così via. Uno stesso segno può avere significati
62
completamente diversi nelle varie lingue dei segni.
Le Lingue dei Segni sono molto diverse dai gesti che le persone che
ci sentono usano durante una normale conversazione; per questo
motivo si è scelto di usare il termine “lingua dei segni”, proprio per
sottolineare che si tratta di una vera e propria lingua e non di semplici
gesti.
Per quanto riguarda l’Italia, la svolta rigidamente oralista
affermatasi dopo il Congresso di Milano nel 1880 impedì che questa
forma di comunicazione avesse in Italia più ampia diffusione in ambito
educativo. D’altra parte anche per quanto riguarda gli altri paesi,
l’interesse per la lingua dei segni da un punto di vista linguistico si
risveglia soltanto a partire dagli anni ’60 grazie all’opera di William
Stokoe. Si è osservato che in Italia spesso i segni variano da una città
all’altra e talvolta all’interno di una stessa città un gruppo di sordi può
usare segni diversi da un altro gruppo, in base all’istituto o al circolo che
frequenta. È molto difficile allo stato attuale delle ricerche dire se si
tratti di semplici varietà dialettali o addirittura di lingue dei segni
diverse. In Italia la lingua dei segni viene prevalentemente usata nei
63
circoli, in famiglia o negli istituti per sordi; non è stata usata
ufficialmente in contesti educativo-scolastici, ha scarse occasioni di
essere utilizzata nel corso di incontri tra sordi e udenti a livello
internazionale o nazionale, non ha avuto molte opportunità di
diffondersi attraverso la televisione; pertanto nessuna delle varietà
usate si è affermata come lingua “standard” o “ufficiale”. Uno dei
problemi più dibattuti attualmente dalle associazioni dei sordi di varie
regioni italiane è la necessità di adottare una lingua italiana dei segni
“comune” pur continuando a rispettare ed utilizzare le varietà dialettali.
Nel nostro paese viene molto utilizzata nella comunicazione tra sordi
anche la lettura labiale, data la particolare struttura fonetica della
lingua italiana e corrispondenza tra parola scritta e pronunciata.
Quest’uso del labiale resta in parte anche nella comunicazione tra sordi
e permette la disambiguazione tra segni simili e la reciproca
comprensione tra segnanti di aree geografiche diverse. Possiamo
affermare che la lettura labiale nella LIS svolge una funzione simile a
quella che la dattilologia, cioè la trasposizione in segni manuali di una
parola lettera per lettera, ha ad esempio nell’ASL. Le persone sorde
adulte si trovano spesso in una situazione di bilinguismo: con gli udenti
comunicano attraverso la lettura labiale, l’italiano parlato e scritto e
talvolta una specie di italiano segnato, mentre con i sordi utilizzano la
lingua dei segni.
Lo scarso interesse che la società udente in Italia ha mostrato
verso i bisogni comunicativi ed educativi delle persone sorde ha
determinato una sempre maggiore emarginazione del sordo e ha
favorito la formazione di gruppi o circoli in cui la maggiore forma di
64
coesione e il riconoscimento di un’identità di gruppo è data proprio
dalla condivisione della lingua. Per mutare questa condizione è
indispensabile considerare le persone sorde e in particolare il loro
curriculum educativo in una prospettiva di bilinguismo. In molte
situazioni l’uso esclusivo della lingua vocale può diventare per i sordi un
terribile fattore di emarginazione, mentre la lingua dei segni può e deve
diventare uno strumento d’integrazione.
Ogni volta che si analizza una lingua dei segni ci si pone il problema
di una sua rappresentazione e trascrizione precisa e fedele. È evidente
anche che nel corso dell’attività segnica i segni si modificano
notevolmente rispetto alla loro forma citazionale allo stesso modo in
cui le parole appaiono nel discorso spontaneo notevolmente mutate
rispetto alla forma in cui compaiono ad esempio, in un dizionario.
Precedentemente abbiamo citato i quattro parametri fondamentali
della lingua dei segni e il luogo, cioè lo spazio preciso in cui viene
eseguito il segno, è tra questi. L’area in cui vengono prodotti i segni è
relativamente circoscritta, per facilitarne la produzione e la percezione.
Quest’area è definita lo “spazio segnico” e si estende dall’estremità del
capo alla vita e da una spalla all’altra. Dal momento che l’espressione
facciale, la posizione del capo e del corpo sono elementi cruciali della
lingua, i movimenti delle mani avvengono in modo da non offuscare
questi aspetti ma, anzi, a renderli facilmente visibili
contemporaneamente all’attività manuale. Si distinguono in totale 15
luoghi di esecuzione (spazio neutro, faccia, parte superiore della testa,
occhio, naso, guancia, orecchio, bocca, mento, collo, spalla, petto).
65
Da un punto di vista strettamente motorio le mani possono
assumere moltissime configurazioni, ma non tutte vengono utilizzate
nell’esecuzione dei segni. Stokoe nella sua originaria analisi dell’ASL
aveva individuato 19 configurazioni e aveva deciso di trascriverle con
una serie di simboli corrispondenti alle lettere dell’alfabeto manuale.
Non tutte le lingue dei segni utilizzano necessariamente le stesse
configurazioni e alcune configurazioni possono avere diverso significato
da una lingua dei segni all’altra.
Il sistema visivo presenta maggiore attenzione ai movimenti degli
oggetti che alla loro posizione statica, ne consegue che maggiori
possono essere le differenze di significato tra due movimenti diversi di
quanto lo possano essere tra due diverse posizioni o disposizioni delle
mani. Alcuni segni sono eseguiti nello stesso luogo e hanno simile
configurazione, ma ciò che li differenzia è il movimento.
La postura del corpo, i movimenti degli occhi, del capo, delle spalle
ed in particolare l’espressione facciale sono tutti elementi non manuali
che concorrono alla produzione e comprensione dei segni manuali e
trasmettono informazione linguistica indispensabile per la
comprensione sia dei singoli segni che delle strutture frasali più
complesse.
66
3.d LA COMUNICAZIONE ED EDUCAZIONE DEL BAMBINO
SORDO IN ITALIA
Dopo un lungo periodo di silenzio, si comincia oggi in Italia a
parlare della Lingua dei Segni e del suo ruolo in ambito educativo. Il
linguaggio dei segni è un insieme strutturato e organizzato di gesti,
utilizzato fra persone che non parlano la stessa lingua o fra persone
affette da sordità. Un linguaggio di segni universalmente diffuso è
quello elaborato per persone prive di udito, i movimenti delle mani
sono principalmente di due tipi: gesti naturali o mimici per
rappresentare oggetti, idee, emozioni, sensazioni; segni metodici o
sistematici per esprimere principalmente la lingua scritta. Con altri
sistemi gestuali si esprimevano alcuni gruppi etnici dell’India e
dell’Australia, noti anche quelli di alcuni popoli d’America del Nord che
utilizzavano come mezzo di comunicazione fra gruppi di lingua differenti
riuscendo a esprimere con i gesti anche conversazioni molto dettagliate.
I segni usati dai sordi non sono un insieme di gesti per comunicare,
essi hanno una grammatica ben precisa, regole per i verbi, per il plurale
e il singolare, costituiscono, cioè, una vera e propria lingua al pari delle
lingue vocali. I sordi l’hanno sempre usata, anche se per molto tempo di
nascosto, perché i gesti erano considerati “poveri” e si riteneva che
usandoli i sordi non avrebbero mai imparato a parlare.
Per quanto riguarda l’Italia, all’inizio degli anni ’60 si giunse alla
conclusione che la Lingua dei Segni è una lingua a tutti gli effetti sia dal
punto di vista grammaticale, sintattico che morfologico e con il
67
riconoscimento giuridico da parte del Parlamento Europeo del 1988
diventa la lingua ufficiale dei sordomuti. La Lingua dei Segni Italiana è
un metodo comunicativo che utilizza il canale visivo-gestuale, invece del
nostro che utilizza il canale acustico-verbale.
La conformazione dell’apparato vocale di un neonato è tale da non
permettere di parlare. Il bambino è capace solo di piangere, starnutire e
tossire. A sei mesi il bambino inizia a controllare volontariamente alcuni
suoni e in seguito il tono vocale. All’età di un anno il bambino comincia
ad imitare gli adulti udenti ed è proprio a questo punto che la differenza
tra lo sviluppo di un bambino udente e lo sviluppo di un bambino sordo
diventa tangibile e da qui iniziano le prime difficoltà, per il bambino,
nell’apprendimento del linguaggio vocale. Chi nasce sordo o perde
l’udito entro i due anni di vita non riesce ad imparare il linguaggio
perciò diventa, come si suole dire “sordomuto”. Questa parola ha
creato una serie di equivoci in quanto ha portato l’immaginario
collettivo a credere che chi fosse sordo di conseguenza dovesse essere
anche privo di parola e quindi “muto”. In realtà non è così, salvo rare
eccezioni. Essere esposti ad una lingua significa udire e comunicare con
l’ambiente circostante in quella lingua. Il problema del bambino sordo è
proprio questo: non potendo udire la lingua parlata intorno a sé, non
può imitare i suoni dell’ambiente, non ha un feedback acustico sulle sue
stesse produzioni e non può comunicare a pieno con coloro che lo
circondano. La sua facoltà di linguaggio subisce un arresto forzato e la
vista integra funge da canale sostitutivo nel trasmettere tutta quella
parte di comunicazione che viaggia su questa modalità. Dal momento
però che nel contesto familiare si utilizza prevalentemente il canale
68
acustico vocale per comunicare, il bambino rimane escluso dalla
comunicazione linguistica con l’ambiente che lo circonda e quei pochi
messaggi che li giungono sono impoveriti e quasi privi di informazione.
Quindi, il modo più adatto è quello di utilizzare la vista: al posto dei
suoni vocalici e delle parole, cioè, i sordi hanno introdotto gesti o segni
per comunicare. La mobilità visivo-gestuale ha sostituito così quella
acustico-vocale. Il linguaggio svolge un ruolo centrale nello sviluppo dei
bambini normali e la sua importanza non può essere sottovalutata. Nel
caso dei sordi ogni strumento di comunicazione regolare e socialmente
accettato può essere efficace per il normale sviluppo quanto il
linguaggio verbale. Ovviamente la deprivazione uditiva compromette la
totale integrazione della persona sorda, la quale tende ad isolarsi e ad
assumere un atteggiamento più ostile verso la società. Perciò il
linguaggio che consentirà alla persona sorda di interagire e partecipare
alla vita comunitaria sarà il linguaggio gestuale. Poiché il linguaggio
vocale è indispensabile per poter comunicare con la maggior parte delle
persone, studi sull’acquisizione del linguaggio orale da parte di soggetti
non udenti hanno evidenziato che l’insegnamento del linguaggio dei
segni e contemporaneamente del linguaggio orale facilita
l’apprendimento di quest’ultimo, oltre a favorire lo sviluppo delle
capacità intellettive ed una più armonica strutturazione della
personalità. Per quanto riguarda l’apprendimento del linguaggio da
parte di un soggetto sordo si possono verificare quattro situazioni:
acquisizione del solo linguaggio orale, acquisizione del solo linguaggio
dei segni, acquisizione di entrambi i linguaggi distinti (bilinguismo) e
69
acquisizione del linguaggio orale con supporto dei segni (approccio
bimodale).
Comunque al bambino sordo non dovrebbe mancare la possibilità
di imparare spontaneamente una lingua vocale, la possibilità di
acquisire il linguaggio vocale rende dopo aver appreso una lingua
secondo i tempi e i modi del normale sviluppo evolutivo, attraverso la
modalità visivo-gestuale, la lingua dei segni italiana (LIS).
3.e LA SOTTOTITOLAZIONE INTRALINGUISTICA PER SORDI
Innanzi tutto, la sottotitolazione standard e quella per i sordi
hanno diverse caratteristiche comuni. Entrambe hanno natura scritta,
poiché traducono in forma scritta il dialogo orale, e aggiuntiva, perché si
sommano e convivono con i dialoghi e la colonna sonora originale.
Inoltre, tutt’e due sono sincroniche e trasparenti, poiché sono proposte
allo spettatore in simultanea con il dialogo parlato e coincidono con i
dialoghi originali per contenuto e momento di presentazione allo
spettatore: dialoghi orali e sottotitoli scritti compaiono e scompaiono in
coincidenza con le battute del film. Sono forme di trascrizione
trasparenti perché convivono e sono presentate all’utente assieme al
testo di partenza, e consentono così il confronto diretto con lo stesso.
Entrambe le sottotitolazioni sono anche immediate e transitorie.
70
Immediate perché vanno consumate in tempo reale e transitorie perché
rimangono fuori dal controllo dell’utente.
I sottotitoli televisivi per le persone sorde contribuiscono a
rompere l’isolamento e consentono ai sordi un accesso immediato alle
informazioni. Con essi si attiva, inoltre, una sorta di educazione
permanente, in cui le persone sorde, in un contesto di relax e non
rigidamente strutturato, arricchiscono e migliorano la loro competenza
linguistica nell’italiano. Da qualche mese è iniziata anche la
sottotitolazione in diretta di alcune edizioni del telegiornale, dando così
alle persone sorde una maggiore scelta delle fonti d’informazione.
Il tipo di sordità, il metodo riabilitativo, così come il livello di
formazione delle persone sorde, sono tutti elementi che possono avere
un’influenza nell’elaborazione come nella fruizione dei sottotitoli, anche
se è impossibile realizzare sottotitoli su misura per ciascun grado di
sordità e quindi si lavora in una direzione di usabilità media e
condivisibile, che non penalizzi eccessivamente chi non ha alcun
appiglio acustico e al contempo non risulti troppo pesante in termini di
informazioni sonore veicolate per chi soffre di forme di sordità più lievi
e meno invalidanti. Poiché la realizzazione dei sottotitoli per sordi
realmente adeguati comporterebbe un lavoro basato sulla piena
conoscenza del problema da parte di chi sottotitola, pochi sono i
sottotitoli che davvero incontrano le esigenze degli utenti che
condividono questa problematica. La necessità di ricorrere a mezzi
lessicali per trasmettere informazioni sonore è un aspetto che distingue
la procedura di sottotitolazione intralinguistica per i sordi da quella
71
interlinguistica. Il risultato finale è una traccia scritta necessariamente
più ricca e più informativa rispetto alla traccia elaborata per la
sottotitolazione interlinguistica in virtù del fatto che il sottotitolo per
sordi deve condensare e trasmettere informazioni svariate cercando il
giusto equilibrio comunicativo che consenta ad un pubblico eterogeneo
per tipo e grado di sordità di beneficiare in modo ugualmente
gratificante del testo. Il deficit acustico non solo impedisce all’utente
sordo di afferrare i dialoghi e di capire chi sta parlando, ma interferisce
anche con la possibilità di riconoscere le informazioni intrinseche al
parlato, tutti gli elementi di natura fonica del film, e quegli aspetti della
conversazione cui lo spettatore normodotato può accedere grazie al
riconoscimento della banda sonora e che nel sottotitolo per sordi è
necessario tradurre visivamente. Per questa ragione, rispetto al
sottotitolo standard, quello per sordi salta all’occhio. È visivamente
diverso, più presente e più ricco non solo perché incorpora una serie di
informazioni supplementari che non sono necessarie allo spettatore
udente, ma anche perché sfrutta al massimo la normazione orto-
tipografica che la lingua scritta ha a sua disposizione per informare lo
spettatore sordo di dettagli e di sfumature sonore di vario tipo. Inoltre,
il modo tradizionale di verbalizzare nei sottotitoli i tratti non verbali
della lingua è quello che impiega le didascalie, generalmente racchiuse
tra parentesi, che compaiono sole o affiancate al sottotitolo che
trascrive la battuta cui fanno riferimento. Il ricordo alle didascalie
rappresenta una strategia efficace, accessibile e di semplice
realizzazione e si riesce ad essere sempre chiari e diretti; tuttavia, sono
state proposte di recente soluzioni alternative di vario genere che
72
potrebbero sostituire le didascalie. Stiamo parlando delle emoctions
testuali (brevi composizioni di caratteri utilizzate come icone emotive
per esprimere una sensazione), degli smileys o delle icone (piccole
immagini grafiche). Anche per quanto riguarda l’identificazione dei
personaggi in un film, se dallo spettatore udente ci si aspetta che
riconosca la voce di chi parla anche se questo è di spalle, allo spettatore
sordo questo viene segnalato chiudendo tra parentesi il nome del
personaggio che parla e anche la reazione non verbale dell’ascoltatore.
Esistono diverse strategie orientate alla disambiguazione del parlante.
Le più diffuse sono il collocamento del sottotitolo direttamente sotto il
parlante, l’impego del nome del personaggio che precede il sottotitolo
che trascrive il suo turno di conversazione e l’impiego di colori diversi
per parlanti diversi. Se ci spostiamo sul versante tecnico della
sottotitolazione per sordi i fattori di cui dobbiamo parlare sono quello
della sincronizzazione dei titoli e quello dei tempi di lettura da parte
degli utenti. Infatti, la sincronizzazione del sottotitolo con i dialoghi in
termini di tempi di comparsa e di scomparsa sullo schermo e in termini
di contenuti è un fattore decisivo. Discrepanze anche minime tra
l’apparizione del sottotitolo sullo schermo e il momento in cui l’attore
inizia a parlare possono essere molto fastidiose. I tempi di lettura del
pubblico sordo possono differire da quelli del pubblico normodotato.
Anche se non ci sono ancora studi specifici e affidabili sui tempi di
lettura dei sottotitoli filmici da parte del pubblico sordo, il più rilevane
dimostra che la velocità di lettura preferita dai sordi si attesta sulle 145
parole per minuto. La tendenza preferibile resta quella di allungare di
qualche frazione di secondo i tempi standard, e cioè quelli stabiliti in
73
base alla regola dei 6 secondi. Poiché la persona sorda impiega più
tempo per leggere i sottotitoli rispetto ad una persona udente, vi sono
difficoltà legate anche alle conoscenze linguistiche, poiché la persona
sorda possiede un vocabolario più limitato e povero sia in produzione,
sia in comprensione. Bisogna quindi cercare di equilibrare e calibrare le
scelte lessicali sulla base delle competenze linguistiche medie dello
spettatore sordo non dimenticando le diverse esigenze di adulti e
bambini. È importante quindi non inserire nei sottotitoli termini
eccessivamente opachi o poco comprensibili per il pubblico sordo, non
riprodurre dialetti o termini gergali ma preferire piuttosto un italiano
standard, usare domande chiare e dirette ed usare quindi una sintassi
semplice senza riferimenti a concetti astratti, per non scoraggiare le
persone sorde. Infine la revisione testuale e le strategie di riscrittura dei
dialoghi originali rappresentano un fattore molto delicato e complesso.
Come abbiamo già detto, trascrivere i dialoghi interamente non è
possibile, ma il problema della riduzione rispetto all’originale è mal
tollerato dal pubblico sordo che è portato a considerare tali strategie
discriminatorie e vengono spesso criticate. In realtà, è stato dimostrato
che trascrivere tutto significherebbe ostacolare e non facilitare la
lettura e la decodificazione del messaggio. Si è dimostrato infatti che i
sottotitoli sottoposti a revisione testuale sono più comprensibili dei
sottotitoli trascritti letteralmente.
La lettura labiale è molto diffusa in Italia nella comunicazione tra
sordi e udenti, per via della struttura fonetica della lingua italiana, in cui
la parola scritta e la parola pronunciata trovano corrispondenza. Il suo
uso è comune anche tra i sordi che si esprimono in lingua dei segni. La
74
lettura labiale permetterebbe infatti di evitare le ambiguità tra segni
simili e favorirebbe la comprensione tra segnanti provenienti da aree
geografiche diverse. Secondo alcuni studi sulle caratteristiche del
movimento oculare durante la visione di un film sottotitolato gli
individui che comunicano principalmente mediante la lettura labiale
hanno tendenza a focalizzare lo sguardo sulle labbra dei personaggi
piuttosto che sui sottotitoli.
L’importanza della fedeltà dei sottotitoli ai dialoghi riguarda non
soltanto i sordi profondi, con una buona capacità di lettura labiale, ma
ancor più le persone che soffrono di una perdita uditiva leggera o media
e che conservano residui uditivi. I sottotitoli permetterebbero, infatti, di
combinare le informazioni, sonore e scritte, facilitando così la loro
comprensione. Secondo alcuni studi effettuati si è potuto capire che la
visione di programmi sottotitolati è essenzialmente un processo di
lettura, poiché i soggetti passano la maggior parte del tempo a leggere i
sottotitoli piuttosto che osservare le immagini. Dal punto di vista del
lessico, i sordi dispongono in generale di un vocabolario ridotto,
presentando una certa rigidità lessicale che si manifesta, in particolare,
nella produzione e nella comprensione di espressioni linguistiche come
modi di dire, metafore e allegorie. Quanto alla morfologia e alla sintassi,
non padroneggiano elementi come i pronomi clitici, gli articoli e le
preposizioni e incontrano difficoltà con le concordanze e con le
strutture più complesse, quali le frasi passive e relative e il discorso
indiretto. Il grado di complessità di sottotitoli cambia secondo il tipo di
trasmissione, in considerazione del presunto livello di scolarizzazione e
di competenza linguistica in italiano dell’utenza. Le trasmissioni
75
destinate ai bambini saranno maggiormente semplificate, mentre i
telegiornali rimangono comunque integrali e mantengono il linguaggio
giornalistico.
Il primo vantaggio della sottotitolazione è quello di permettere
l’accesso alle informazioni attraverso la vista, che è un canale integro
per i sordi. Rappresentano quindi una possibilità di arricchire il
vocabolario e di rinforzare le strutture morfologiche e sintattiche e un
potente strumento didattico per l’apprendimento della lettura ai sordi,
riscontrando significativi miglioramenti soprattutto nella comprensione
e nell’acquisizione del vocabolario visualizzato.
Per quanto riguarda il formato dei sottotitoli, è possibile sfruttare
37 caratteri per linea, spazi inclusi. I sottotitoli già preparati appaiono in
blocco, quelli realizzati in diretta non sono riformattati e compaiono sul
teleschermo in una striscia continua. Sono sempre centrati e occupano
il fondo del teleschermo. Solo all’inizio sono posti in alto, per non
nascondere i titoli del giornale (nel caso del telegiornale). Quando una
frase non è finita, il seguito è indicato da tre puntini di sospensione alla
fine di un sottotitolo e due all’inizio del seguente. Nel caso delle
interviste, gli interventi degli intervistati si trovano tra virgolette. Sulle
reti pubbliche e private i sottotitoli appaiono su non più di due linee.
Per quanto riguarda i caratteri, il tipo di carattere utilizzato è uno
standard del sistema di trasmissione Vortex per il teletext. Di solito i
sottotitoli appaiono in fondo allo schermo a sinistra oppure sono
centrati. Quando in basso ci sono elementi visivi importanti o altre
indicazioni, quali ad esempio il nome della persona che parla, si trovano
76
in alto. Le indicazioni sonore sono centrate, a meno che non appaiono
nello stesso sottotitolo dell’intervento di un personaggio.
4. ANALISI DEL CONTESTO VISSUTO DALLE PERSONE NON
VEDENTI IN ITALIA E L’IMPORTANZA DELL’AUDIO
DESCRIZIONE
È impensabile che al giorno d’oggi, con tutta la tecnologia che
abbiamo a disposizione, una persona non vedente non possa andare al
cinema e godere pienamente dello spettacolo del film. Questo vale
anche per il teatro e per qualunque altro contesto. Per una persona non
vedente l’audio descrizione è fondamentale, poiché permette di godere
a pieno il film. L’accesso al prodotto culturale e di intrattenimento
rappresenta un momento di crescita e condivisione fondamentale nella
vita di ogni individuo ed è uno strumento determinante di integrazione
all’interno del contesto socioculturale. Per questo motivo è
fondamentale che anche le persone non vedenti e ipovedenti, come
tutti, vengano messe in condizione di accedere a tali pratiche. È
importante quindi una standardizzazione e stabilire che il prodotto
DVD, quello cinematografico e quello televisivo siano accessibili a tutti,
come criterio di base. Come è garantito il doppiaggio in lingua italiana,
un doppiaggio professionale, deve essere garantita l’audio descrizione
delle scene prive di dialogo. Bisogna quindi abbattere le barriere
culturali; solo in questo modo si può mirare ad un miglioramento della
77
qualità della vita, perché dove vive bene una persona con disabilità,
viviamo meglio tutti.
Nel nostro paese la fruibilità del prodotto cinematografico e più in
generale del prodotto culturale e di intrattenimento da parte di disabili
visivi è ancora estremamente limitata. L’accessibilità è infatti la
prerogativa fondamentale per poter giocare un ruolo attivo all’interno
del proprio tessuto sociale. A questo proposito vorrei fare chiarezza sui
termini “handicap” ovvero “ostacolo”, e “deficit”, cioè “minorazione”.
Nel caso di una persona non vedente il deficit è la cecità, mentre
gli handicap sono gli ostacoli che questa persona può incontrare, che
possono derivare da un’assenza di ausili. Se non è possibile restituire ciò
che il deficit fisico impedisce, è doveroso invece supportare la cultura di
riduzione dell’handicap. Secondo l’Istat in Italia vi sono oltre 362.000
non vedenti e circa 1 milione e mezzo di ipovedenti. La comunità
formata da disabili visivi raggiunge quindi una quota di circa 1.862.000
persone. Nonostante il lavoro portato avanti negli ultimi anni da
organizzazioni importanti come l’Unione Italiana Ciechi e Ipovedenti, e
spesso dagli sforzi di singoli individui, molte pratiche sociali sono ancora
difficilmente accessibili, tra queste vi è il consumo di contenuti
dell’industria culturale.
Il sistema culturale occidentale è principalmente strutturato su
media che utilizzano le immagini come principale strumento di
comunicazione (televisione e cinema), per questo motivo il prodotto
culturale è spesso difficilmente fruibile da parte di un consumatore non
vedente o ipovedente. L’impossibilità di una fruizione visiva
78
rappresenta quindi un grave elemento di discriminazione. Il consumo
culturale rimane, per chiunque, una pratica di partecipazione e di
appartenenza sociale irrinunciabile. Proprio per questo è necessario
trovare una strada che possa mettere la comunità di disabili visivi
italiana nelle condizioni di soddisfare tale bisogno. Le modalità di
consumo culturale più comuni tra i disabili visivi, il cinema è il mezzo
prediletto. Nonostante la fruizione filmica da parte di spettatori non
vedenti e ipovedenti risulti scarsamente accessibile, una parte di
adolescenti e adulti disabili visivi sono assidui fruitori di prodotti filmici.
Grazie alla componente sonora infatti il prodotto cinematografico può
essere anche solamente ascoltato; è necessaria però una descrizione
delle immagini prive di dialogo. Per questo motivo, al fine di ottenere
una fruizione comprensibile dei contenuti, lo spettatore con deficit visivi
ha bisogno di un accompagnatore vedente in grado di descrivere le
scene prive di dialogo. Oltre che rappresentare un vincolo di fruizione
individuale dello spettatore non vedente o ipovedente, questo
procedimento risulta spesso inefficace. Esiste però uno strumento che
rende possibile aggirare l’ostacolo: l’audio descrizione.
79
4.a COS’È L’AUDIO DESCRIZIONE?
In Italia l’audio descrizione è una disciplina relativamente nuova. È
una tipologia di traduzione audiovisiva indirizzata principalmente ai non
vedenti e ipo-vedenti, e si basa su una rielaborazione della componente
audio (verbale e non) nel passaggio da TS a TA al fine di rendere fruibili
anche queste tipologie di utenti tutte quelle informazioni che nel TS
erano veicolate tramite la sola componente video (verbale e non).
L’audio descrizione è “il visivo reso verbale”7. Dei cinque canali di
informazione della scrittura cinematografica il dialogo, la musica e gli
altri effetti sonori fanno parte del canale uditivo e sono accessibili
anche da parte del pubblico cieco, mentre le immagini e qualsiasi altro
tipo di testo verbale che è possibile trovare sullo schermo, come i
sottotitoli, didascalie o scritte di scena, devono essere audio descritti.
Bisogna precisare come l’audio descrizione non implichi
necessariamente una traduzione e quindi rientri nelle traduzioni
audiovisive solo in senso lato. Questa tecnica è un sistema di
descrizione verbale che utilizza le pause sonore del film per fornire allo
spettatore informazioni relative alle scene che possono essere
altrimenti percepite solo visivamente. In questo modo lo spettatore può
avere un’idea del contesto su cui si sta svolgendo l’azione attraverso il
canale sonoro. Solitamente l’audio descrizione riguarda intere scene
prive di dialogo, azioni, espressioni del viso e altri particolari importanti;
può essere applicata sia ai nuovi film in uscita nelle sale
cinematografiche che alla home video. Nelle sale cinematografiche
7 J. Snyder, 2008, p.15
80
avviene attraverso l’utilizzo di cuffie senza fili con ricevitore audio a
raggi infrarossi che vengono collegate ad un lettore digitale
sincronizzato con la pellicola. Un problema che ricorre spesso in questa
tecnica di trasposizione è il grado in cui si debbano descrivere le
componenti visive del prodotto. È importante, infatti, non esagerare
con le descrizioni, altrimenti il film o il programma televisivo
risulterebbe troppo pesante e noioso, ma non bisogna neanche
eliminare dettagli importanti che possano compromettere la sua piena
comprensione da parte del pubblico. Si deve considerare che il
messaggio trasposto verrà udito sia da persone cieche dalla nascita, sia
da ipovedenti o da chi ha perso la vista in età più avanzata, dunque non
ha bisogno di lunghe descrizioni per immaginare il contesto del dialogo.
L’audio descrizione è efficace quando riesce a catturare l’atmosfera resa
dalla fotografia dell’opera filmica, restituendola a parole, senza fornire
informazioni eccessive, che potrebbero sviare lo spettatore uditivo.
L’interpretazione del film deve essere chiara, senza ricorrere a frasi
complicate o a subordinate; bisogna evitare anche vocaboli oscuri e,
soprattutto bisogna cercare di non sovrapporsi ai dialoghi o ad altri
suoni significativi. È bene invece usare aggettivi o avverbi pittoreschi
quando è opportuno; per esempio invece di usare il termine
camminare, che può risultare molto generico in alcune situazioni, si
possono inserire parole più specifiche come passeggiare o barcollare, a
seconda della scena. Anche i cambiamenti d’intonazione, del ritmo e
dell’enfasi sono utili, e per quanto riguarda la concisione, il tempo è un
fattore cruciale. Tra le competenze che un audio descrittore deve
possedere sono state identificate la capacità di realizzare traduzioni
81
intersemiotiche (traduzione di immagini in parole), l’eccellente
padronanza della lingua, la capacità di sintetizzare le informazioni al fine
di adattare il testo ad uno spazio limitato e di mantenere il significato
originale, la capacità di adattare lo stile linguistico al target
dell’audience e del prodotto, grazie all’utilizzo di diversi registri
linguistici, l’abilità di selezionare criticamente le informazioni più
rilevanti ed, infine, l’ottima espressione orale e una dizione eccellente.
Tutti questi fattori aggiunti all’esperienza e la sensibilità del cinefilo con
deficit visivo e alla conoscenza approfondita del linguaggio
cinematografico contribuiscono a rendere la tecnica dell’audio
descrizione chiara ed efficace. Per raggiungere questo obiettivo spesso
l’audio descrizione di ogni film viene eseguita da un team composto da
due professionisti: un traduttore vedente e un audiodescrittore non
vedente, i quali si confrontano continuamente per una resa del film
migliore. L’audio descrizione si concentra su diversi aspetti, quali i
personaggi e il luogo della scena, chi parla, cosa fanno e cosa indossano
i personaggi, espressioni facciali e gesti, testi visibili sullo schermo e
colori. Questi sono gli elementi che è necessario includere nella
narrazione, senza però troppi dettagli. Da un punto di vista
grammaticale, il tempo verbale preferito dall’audio descrizione è il
presente e l’aspetto progressivo.
Possiamo quindi sintetizzare il processo di audio descrizione di un
film attraverso le seguenti tappe:
1. Prima visione del film da audio descrivere, da parte di
un team di audio descrittori
82
2. Analisi del film, scena per scena e discussione di quali
momenti richiedano l’ausilio di un audio descrizione
3. Realizzazione di una bozza dell’audio descrizione
4. Visione del film e rielaborazione dell’audio
descrizione
5. Realizzazione dell’audio descrizione definitiva
6. Registrazione dell’audio descrizione da parte di un
attore professionista
7. Montaggio audio
8. Verifica dell’audio descrizione da parte di un
professionista non vedente appartenente ad un altro team
9. Realizzazione dei media necessari alla distribuzione
(dvd, mp3, CSS).
83
CONCLUSIONI
Dagli approfondimenti e dalle ricerche fatte nel campo della
traduzione audiovisiva, del sottotitolaggio per udenti e non udenti,
dell’audio descrizione per non vedenti, abbiamo potuto notare la
complessità del lavoro svolto dietro a queste tecniche che stanno
diventando ormai di fondamentale importanza. Quando vediamo un
film appena uscito al cinema, vediamo la sua traduzione e non ci
rendiamo conto della complessità del lavoro che c’è dietro, ma
pensiamo che sia semplicemente tradotto nella nostra lingua, ma la
traduzione è solo uno dei tanti passaggi. Lo stesso vale per i sottotitoli,
anche quelli per non udenti e all’audio descrizione, che, attraverso
passaggi articolati e precisi, trasforma il visivo in sonoro. La volontà di
inserire nella tesi il sottotitolaggio per non udenti, l’accenno alla sordità
e un’introduzione alla Lingua dei Segni Italiana, ma anche l’audio
descrizione per non vedenti, è data dall’interesse personale di capire in
maniera più approfondita come si relazionano le persone con disabilità
sensoriali nella società, come affrontano i momenti di svago e come li
condividono con le persone non disabili. Queste tecniche
rappresentano uno strumento di inclusione sociale e culturale per le
persone con disabilità sensoriali, anche se al giorno d’oggi non
bisognerebbe nemmeno parlare di “inclusione”, perché ci rimanda
automaticamente a qualcosa o qualcuno che è stato “escluso”.
Ma visto che in Italia queste pratiche di traduzione
cinematografiche sono ancora poco praticate, si è voluto dare voce e
spazio anche a questi argomenti di cui si parla ancora poco, ma che
84
sono fondamentali. L’obiettivo quindi è quello di aprire una finestra di
comunicazione in continua evoluzione per rappresentare e quindi
sensibilizzare le istituzioni e l’opinione pubblica sulla disabilità
sensoriale, spesso vittima di pregiudizi e quindi di discriminazioni, a
causa di una scarsa e imprecisa informazione.
85
ENGLISH SECTION
INTRODUCTION
The choice of this topic has come from a special interest in the
theme of audiovisual translation, and particularly in subtitle translation
for the deaf and the blind.
The present work is going to analyse the audiovisual translation
issue in general and subtitling, with a focus on intralingual subtitling for
the deaf in the second part of the work and on audio description for the
blind, a technique of subtitling that consists of a narrator talking
through the presentation, describing what is happening on the screen
or stage during the natural pauses in the audio, and sometimes during
dialogue if deemed necessary.
For simplification this thesis is structured in three parts: the first
part is an overview and a presentation of audiovisual translation in
which the most important techniques of transposition, strategies and
kinds of audiovisual translation are analysed.
The central part is going to focus on the subtitling topic. It will
explore the main features of subtitling, the purpose and the use of
subtitles, as a tool when learning a foreign language or help for the
disabled.
86
The last chapters concern subtitles for the deaf and the audio
description technique for the blind. These subjects will form the basis of
this thesis because translation and audiovisual translation have become
more and more popular of recent not only in European countries but all
over the world. Globalization has had a deep and immediate impact on
us and above all on linguistic and cultural aspects. The rapid
development of information technology and communication has
changed many aspects of our daily lives and thanks to the diffusion of
the means of mass communication and to the rapid technological
development of the last decades, we have witnessed a large production
and distribution of audiovisual products of any type at a global level. So
it is not exaggerated to affirm that nowadays we are constantly
surrounded by devices and technological tools of all shapes and sizes
that allow us to work, learn and keep us informed. Recently, we have
seen a real audiovisual revolution, with the creation of satellite
television channels, internet, mobiles and film products. Therefore we
have access to a large variety of audiovisual materials that come from
all over the world. In parallel with this, communication has obtained an
increasingly important role in our society, so important that it has
become a real product on the international market.
For these reasons the role of languages and, in particular those
activities related to linguistic transfer have obtained an increasing
importance ever the last years because they are essential for the
diffusion of information and to spread knowledge and contacts at an
international level. Linguistic competence plays a fundamental role, as
it is indispensable for benefit from audiovisual products by all
87
nationalities and to understand the meaning of the texts that these new
products incorporate. A new need has risen, that is the need to break
down every kind of barrier (linguistic, cultural or sensory barrier) that
prevents full accessibility and usability of the products distributed by
audiovisual and multimedia technologies to an increasingly large and
heterogeneous audience in terms of age, sex, level of education,
language, culture and accommodation capacities. As a result of this
phenomenon, also the cultural, linguistic and translation aspects have
assumed a crucial importance. So it is not difficult to imagine how wide
the variety of translation methodologies is, and translation application
scopes that can be ascribed to the audiovisual translation field.
The following chapters are aimed to give a theoretical framework
that consent detailed understanding and analysis of the features and
peculiarities of audiovisual translation, to list the main translation
techniques used today and to distinguish this kind of translation from
other forms of linguistic transposition which traditionally are the focus
of translation studies.
The third paragraph of this thesis focuses on the theme of
deafness, with a short introduction of sign language, a real language still
little used in Italy but fundamental and necessary to break down the
sensory barriers that unfortunately are still present in our country.
88
5. AUDIOVISUAL TRANSLATION
5.a WHAT IT IS?
Before giving a definition and explanation what audiovisual
translation is, we must specify that it is a living and elastic world, in
constant evolution and definition. When we talk about translation of an
audiovisual product we refer not only to a specific methodology, but to
various and different forms of translation that not necessarily imply the
transition from one language to another, but work from and to the
same language or from a code to another. In these latter cases we refer
to subtitling for the deaf, that implies the careful work of rewriting and
the adapting the original dialogue within the same linguistic code, and
to audio description for the blind, a work that makes the verbal visual
and an activity that doesn’t work within the same code. However we
will talk about this topic later.
At present we live, and we have always lived, in a multi-modal
world. This multi-modal interaction refers to how to communicate the
meaning through the combination of different semiotic channels. In
addition to written and spoken language, there are other sources that
can convey meaning like gestures, posture, look, noise, sound and
symbols. In a multi-modal text, the meaning is transmitted through the
integrated force of these different semiotic channels. Today, technology
at our disposal and the possibility to communicate instantly and globally
89
have created unprecedented horizons for the expansion of a multi-
modal world. The semiotic methods different from language (gesture,
look, posture and sounds) transmit meaning in various different ways.
Man gestures using every part of his body, from nodding to indicating
with fingers, to shoulders shrugs. Many of these gestures are universal
signs, others are typical of certain cultures, others change their
meanings from one culture to another, while other gestures have
different uses, but all have a meaning. In the multi-modal context,
however, language is the main factor. The dialogue of a translated film,
if adequately translated, will interact with the same semiotic code to
recreate the same effect in the target audience as did the original with
the starting audience. The bond of time that doesn’t permit a complete
translation, or the imbalance between languages (for example, English
is generally shorter than Italian), or the lack of sufficient time to allow
reading by the public are the factors that can damage the ideal situation
described. In these cases the audiovisual translator can use other
semiotic sources at his disposal, and he can choose the most suitable
way to translate the product. Among the various choices, even non-
translated can be a solution. In fact, if a gesture has an unequivocal
meaning, the translator can choose not to translate, or he can translate
only the most important elements. In a situation in which culture is the
main factor, the translator can also expand the original text to simplify
translation.
After this short introduction, the term “audiovisual translation”
refers to all linguistic transfer models that aim to translate the original
dialogues of audiovisual products in order to make them accessible to a
90
wider audience. The coherence between the original and the target
dialogue is not so simple, so the figure of the translator is very
important and with a lot of responsibilities. The subject of audiovisual
translation are not only verbal texts, but also texts which include
different semiotic elements like verbal and visual ones, but also
gestures, sound, graphics and motion. Each semiotic modality has a
fundamental meaning for the comprehension of the text, so it cannot
be neglected by the translator. In other words, the audience of an
audiovisual text can totally capture the message and perceive every
shade only if it can benefit from all the signals simultaneously. The main
difficulty of audiovisual translation is to give sense to verbal words from
non-verbal elements.
Each translation techniques has two main processes:
Process: the activity through which target text
is obtained from the original text; it includes also the
operating and psycho-cognitive paths of the translator.
Product (target text): the result achieved by
the translation process, given to the audience.
For each translation technique it is necessary to define the means
(oral, written or both), the channel (acoustic, visual, audio-visual,
symbolic-tactile channel), the method of the process (in real time, in
consecutive, simultaneous or sight translation), the language of the
original and target text and product location (papery, on web,
software..). In short, we can distinguish two types of translation:
91
interlingual translation, in which the source and the target text are in
different languages, and intralingual translation where the texts are in
the same language.
Among the types of translation processes, indeed, we distinguish
interpretation that can be simultaneous, consecutive or in
“negoziations”, translation that can be literal or technical-scientific, and
audiovisual translation that includes subtitling and dubbing. The
audiovisual translation will be the subject of our interest in this work. It
has a source text that includes verbal and non-verbal channels and the
goal is to make audiovisual products available to a greater chunk of
users that otherwise would not be used by those who suffer from
sensory and language disabilities. The audio-verbal component in
audiovisual translation includes dialogues, monologues, any music sung
by the actors and any other significant verbal or dialogic component for
the final product; while the audio but non-verbal component includes
special effects, background music and other sound effects that are not
significant for the final product. The verbal video component includes
any written data visible during the use of the product like captions,
subtitles or other internal writing resulting from one shot, while video
but non-verbal component includes photos and kinesics like gestures
and body language of the actors.
In the 80s and 90s in Europe there was a reconsideration of
linguistic minorities and the media become a useful tool to facilitate
communication and to promote and strengthen linguistic and cultural
identity. From this moment the first studies on film translation and
92
screen translation began. Language transfer came after. Later came the
need to introduce a more accurate and exhaustive designation of
“audiovisual translation”, now used to refer to the semiotic dimension
of all film works whose dialogues undergo translation. The sound and
the visual spheres are combined in the audiovisual text to create a
multicolored text whose translation may be problematic. Since the birth
of sound films the need to translate imported movies was manifested,
so a lot of audiovisual translation methods and linguistic transfer
strategies have developed.
5.b TRANSFER AND LINGUISTIC TRANSPOSITION TECHNIQUES
According to how the source dialogues are translated and to how
its adaptation and translation are presented to the public, we
distinguish many forms of audiovisual translation, and there are 13
kinds of linguistic transfer, but the most important are 8:
Interlingual subtitling
Dubbing
Consecutive interpretation
Simultaneous interpretation
93
Challenging (script translation, surtitling, audio
description and intralingual subtitling for the deaf)
Voice-over
Comment
Simultaneous translation
The technique of subtitling is a process that allows a condensed
translation to be carried out, resulting from a great work of textual
reducing, thanks to a written text situated at the bottom of the screen.
We can define subtitling as a “transparent mode translation”
because the viewer has access to the original version and the translated
version which is subtitled simultaneously. There are various forms of
subtitling and one of these is simultaneous subtitling, a kind of written
interpretation that is carried out in real time, in which an interpreter-
translator refers a translated and reduced message to technician who
writes quickly what viewers will get in the form of subtitles. Respeaking
is an example of simultaneous subtitling technique that uses a speech
recognition software; an oral text is simultaneously translated into a
written text. This technique is utilized above all for on air programmes
and requires great commitment.
Surtitling is another subtitling technique used to translate a spoken
text and opera, but it is marginal in films. Adopted in the 80s, this
technique makes a written translation of the original text of the play,
projected on a screen near, at the bottom or on top of the scene.
94
Dubbing is the most common technique in Italy. In this case, the
original text is eliminated and translation replaces the source text. This
technique requires great accuracy and precision in synchronization, that
is to say in adopting new dialogues perfectly so that the text heard in
the language of the translation and the lip movements of the actors
coincide as much as possible to give to the new viewer the impression
that the actors are speaking in their own language. The difficulty is not
only this, but it is also linguistic: translation of puns, adaptation of
translation with the images, translation of foul language and to keep
the source text comical.
Voice-over technique is used to broadcast news, documentaries
and interviews provided with a simultaneous translation to the original
dialogue. This technique consists in adding a new soundtrack to the
movie to translate, but at the same time it allows the original audio
track to be unchanged. The source text undergoes only one variation,
that is to say it has turned down the volume to highlight the audio
version translated. This technique doesn’t require lip synchronization,
therefore facilitates and speeds up translation.
Narration is another technique in which in the source text, already
translated before, the most unnecessary parts are reduced or
eliminated. Then the text is read by only one person synchronized with
the original text.
Comment is often used in documentaries or short films. Its major
characteristic is the freedom of interpretation of the original text and
poor fidelity to the source text. The target text is often a totally new
95
version compared to the original text and it is possible to add or
eliminate information when it is considered appropriate. Comment is
particularly effective to make programs which are culturally distant
accessible because the contents can be expanded or reduced
depending on the needs of the public, and the language is simple and
characterized above all by coordinated and short sentences.
The audio description, or visual description, refers to an additional
narration track intended primarily for blind and visually impaired
consumers of visual media. It is a verbal commentary that complements
the underlying soundtrack of a television program, movie, DVD or live
performance. It is designed to assist people with vision impairment and
those with print, learning and physical disabilities. During gaps in
dialogue, a narrator describes visual elements such as scenes, settings,
actions and costumes. The main difficulty of this technique is the
heterogeneity of the target public because each user has a certain
difficulty depending on the type of blindness.
Film translation is a complex area of research because of the
different methodologies used in various fields. Moreover, the scripts of
audiovisual texts in the source and target languages are not always
available, and then sometimes a transcription work is required, even if
it takes a long time.
96
5.c AUDIOVISUAL TRANSLATOR
Recently the figure of the translator is under greater obsevation by
the scientific community. This attention concerns above all translator in
the cinema, thanks to the rise of the circulation of audiovisual products,
the consequent growing need for any form of translation suitable to the
world of cinema and the development of new information technologies
like internet and CDs and DVDs. While in the past translation was
handled by translators with inadequate language skills, now this is an
unacceptable condition because there is the awareness of producers
that the effective reception of a film depends not only on the quality of
synchronization mechanisms of dubbing or subtitling, but also on the
quality of the text translation. The audiovisual translator has a very
important role during the subtitling process. He has to write down
dialogues and translate the original text adapting it to the target
language. After translation, revision of the work is necessary and it can
be done by the translator himself or by another translator and so
ensuring a different point of view. A good translator notes the critical
parts in the source text, like words or some difficult expressions,
colloquialism or exclamations that are not directly translatable from
one language to another. After these operations he can proceed with
translation.
97
6. INTRODUCTION TO SUBTITLING
6.a THE TRANSITION FROM CAPTIONS TO SUBTITLES
After the advent of the silent film in 1895, intertitles were used for
the first time in Europe. They were usually white on black and
represented “complementary captions”.
These short written texts were explanatory-descriptive comments
or short dialogues on the screen
useful to convey information for
the comprehension of the scene or
to report short dialogues of the
characters in the movies. This
technique can be considered as the
forefather of today’s subtitles, even if with significative differences
because while intertitles occupied one frame between two frames,
subtitles are directly projected on the image in the movie.
Since 1927 captions began to be overlapped and no longer
interposed to images, and slowly disappeared permanently, allowing
viewers to hear the original version of dialogues and to understand it, if
necessary, even through subtitles. With the advent of sound film the
cinematographic scenario totally changed and it was from this moment
that the use of subtitling has become more and more frequent. The
subtitling process has undergone many gradual transformations; it has
98
improved and become specialized thanks to the modernization of
techniques and media. Not only has the scenario of cinema changed,
but also the reception of the public: it has been demonstrated that the
reading speed of the spectators depends also on the medium that
transmit the subtitles. For example, the time necessary to read subtitles
at the cinema is 30% less than the time required to read subtitles on the
small screen. It is clear that there is not a universal subtitle suitable for
all contexts, but it must be created according to the specific media for
which it is prepared.
1927 marks the starting point of a change and a century of
evolution: from brief subtitles made up of short dialogues to the
subtitles of today which, together with dubbing, are the main means to
internationalize cinema and television. In Italy it is almost impossible to
find a foreign movie in its original version, due to political reasons, but
Denmark and Norway were the first countries that utilized subtitling
technique. Also in France, today, most foreign movies are available in
cinemas in the original version with subtitles.
Lucien Marleau8, a Canadian producer of films and documentaries
said in his sage about subtitling in 1982 “Les sous-titres… un mal
necessaire” (subtitles… a necessary evil). As you can see from the title,
the author was able to sum up the essence of the subtitle, highlighting
from one hand its need to exist, to the other hand its “harmful” nature
for those who use it, that is to say the spectator.
8 Lucien Marleau, “Les sous-tritres…un mal nécessaire”, journal de traducteurs, 1982.
99
This brief parenthesis has allowed a reason to be given to the
essentiality of subtitling. Subtitling is the best way to watch a movie in a
foreign language.
6.b SUBTITLING AND TRANSLATION
In translation, subtitling has been considered as one of the many
forms of translation of audiovisual products. The activity of subtitling is
an activity that requires a specific methodology and terminology.
Among the various types of subtitling there is subtitles for movie
material to make it different from the original language, the movie
material to make it in the original language for the deaf, and the
audiovisual material of animation in a different language from the
original. The main features of subtitling are textual reduction,
adaptation and simplification because it is not a “summary of the
original text”, but a “selective reduction of the text” aimed to adapt the
language to the circumstances and to permit it to represent what the
speaker wanted to communicate. It is clear that it is not always possible
to translate everything, but subtitling is a kind of translation that
requires a complex text reworking. For this reason the translator must
be able to transfer the communicative intentions conveyed by the
source language code to the target language code, from written to oral
code, which has to coincide with the all paralinguistic situations of the
movie, like the distance and the movements of the actors. In addition to
100
this, subtitle translators must be able to match the subtitled text to the
spoken dialogue as not to impede the spectators comprehension. The
translation component of subtitling includes some basic concepts
concerning the theory of translation like equivalence, appropriateness,
fidelity and translatability, the most important notions that a translator
has to take into account.
When we talk about issues of linguistic transfer, however, we refer
to the translation difficulties of linguistic imbalance. The linguistic
elements used are puns, in particular way those words that don’t have
an equivalent expression in the language to which we are translating.
On the contrary, the expressions which have an equivalent phrase in
various languages are idioms, phrases or sayings. In addition to related
linguistic issues, transfer cultural problems are other difficulties that
arise in an audiovisual text, because not only is the language translated,
but also cultural elements and each country has different cultures and
traditions. So what can we do? We have to adopt some strategies. One
of these is the model which tames and alienates the text; taming
consists in replacing a cultural element with another familiar element in
the target culture. Alienation means the opposite, that is the cultural
element remains exactly as it appears in the original text. Other
possible strategies are omissions, equivalence, adaptation, replacement
of the cultural term with a deictic, generalization, explanation, through
a paraphrase, of the term, transfer (literal translation), imitation,
transcription, dislocation, condensation, decimation, deletion,
resignation.
101
Roman Jakobson in his sage “linguistic aspects of translation”
(1959), means translation as an interpretation and not a transposition
problem, and he identifies three kinds of interpretation and translation:
intralingual translation (interpretation of linguistic signs through other
signs of the same language), interlingual translation (texts of two
different linguistic systems) and intersemiotic translation which
translates linguistic signs with other non-linguistic signs.
6.c SUBTITLING CHARACTERISTIC FEATURES
As previously mentioned, subtitling is a kind of audiovisual
translation which has its own techniques, rules and standards. It has
been defined a “subordinated translation” because it has some time
and space restrictions that directly affect the final result. So translation
depends on these parameters, and it consists not only in the translation
of textual contents and dialogues, but it is also based also on images
and audio, with a certain time and space. For this reason subtitle
translation is defined transparent and synchronic translation, because it
totally respects the integrity of the original dialogue. A movie with
subtitles can not edit the original message but it must be a selective and
economic reduction of information because the viewer can’t read long
texts in a very short time; only the most important information must be
selected. Although it is impossible to report in writing all the nuances of
spoken language, subtitling is a useful procedure for the deaf,
102
immigrants and foreign language learners. The available space for
subtitled translation is only two lines, usually positioned at the bottom
of the screen; each line can not have more than 35 characters, so the
number that a subtitle can contain is 70 characters. As regards to time,
a subtitle has a minimum duration of 1 second and a maximum duration
of 6 seconds on the screen. The subtitles should be text lines shorter
than the entire visual area, they must have a simple and linear syntax to
allow a fast and intuitive read and respect punctuation. Subtitling also
includes a technical part called spotting, that is the act of defining in
and out times for subtitles on the screen, so as to allow synchronization
with the audio.
It is very important that visual (written text and images) and
auditory channels (oral text and soundtrack) are perfectly integrated to
rebuild clearly the original text. The reduction of the information of the
original text, the transformation from oral (dialogue) to written code
(subtitle) and translation represent the main phases of the subtitling
process.
Today the subtitling process can be possible not only through
specific agencies with the participation and collaboration of various
figures, but we can create subtitles without an agency, thanks to the
software available on the internet. In this case the person who decides
to face this work will be a translator, subtitler and technician.
103
The subtitling process can be divided into different phases:
1. Spotting: the act of defining in and out times for
subtitles on the screen, synchronized with the audio.
2. Translation (adaptation): source text translation,
adaptation to the subtitles rules of duration and characters.
3. Simulation: representation of translated subtitles
with the images to verify that all the criteria are observed.
4. Revision: correction of any errors and text alignment.
6.d SUBTITLING CONSIDERABLE ASPECTS
The movie or the programme with subtitles have a communicative
function with manifold purposes. Initially the aim was to make
multilingual film productions accessible to an international audience
and so promote the overcoming language and cultural barriers. Then a
new communicative function of subtitling emerged, concerning a lower
number of users, but with a higher socio-cultural purpose. We are
talking about subtitling for the deaf, which we will discuss later. This
multipurpose function is linked to the various kinds of existing subtitles
aimed at satisfying the needs of a great number of users. According to
linguistic criteria we distinguish two types of subtitles: intralingual and
interlingual subtitles. Intralingual subtitles are addressed to the deaf
104
and learners of a foreign language, subtitles and the original movie are
in the same language, but the original dialogue is simplified; the original
dialogue and its transcription are represented simultaneously. It is a
useful educational support in different situations of learning a language.
Interlingual subtitles are addressed to learners of a foreign language
and to people without auditory disabilities, the dialogues are in another
language compared to the original movie and the translation is reduced.
It adapts and reproduces the dialogue in the users language to allow
them comprehension of the foreign movie.
Seeing that the deciphering of a film with subtitles involves both
the reading of images both of a written text, there is a technique called
eye tracking, the process of measuring either the point of gaze (where
one is looking) or the motion of an eye relative to the head. Thanks to
this technique it was possible to state that the reading does not occur
by continuous eyes movements from left to right, but through rapid eye
shifts in oscillation followed by a stop.
The “rule of six seconds”, the theories concerning the automatic
reading of subtitles and the impact of specific lexical choices or
translation strategies on subtitles are the most interesting phenomena
which emerged from the studies on the fruition of a film with subtitles.
As already mentioned, subtitles are tied to strict rules concerning
their length and permanence on the screen which must permit the
entire reading and comprehension, but not a second reading. It is clear
that the reading time of a subtitle tends to decrease if it contains words
that are frequently used, but it has also been demonstrated that the
105
subtitle is decoded effectively regardless of the manner in which it is
proposed to the viewer. So, it isn’t important how the subtitle is
divided, the attention and the comprehension of the viewer are not
obstructed.
7. ACCESSIBILITY AND USABILITY IN AUDIOVISUAL
TRANSLATION
In the age of globalization, in a world where everything revolves
around words, images and television message, there are not so many
initiatives to break down communication barriers and to make
information accessible to people with sensory disabilities. It is a cultural
issue that impedes communication and integration of the disabled in
society as a result. In the last few years, however, new subtitling
systems have been improved. The concepts of usability and accessibility
come from the need to eliminate linguistic and sensory barriers in
access to audiovisual product. Accessibility is the “level of usability of
something that can be used regardless of physique or cognitive
obstacle”. We define usability as the quality that makes a product
satisfactory and effective. A subtitle can be perfectly accessible but
poorly usable and vice versa, perfectly usable but completely
inaccessible. Subtitles, moreover, are among the most important means
of communication that help the deaf “to hear with the eyes”, breaking
106
that silence that surrounds them. Intellectual and cultural development
for the deaf, like for hearing people, is through communication, and
subtitles are an excellent opportunity for them to motivate their
cultural and lexical development, an aid to learn Italian language,
because language is a culture; for this reason linguistic fidelity is very
important in subtitling. Even today there are people who think that the
deaf are also dumb, and don’t understand the differences among the
deaf. Only few people know that the deaf, looking, can understand
many things that the hearing persons don’t perceive.
There are two types of access to television for the deaf: sign
language interpretation and subtitling. Sign language interpreting
makes communication possible between people who are deaf or hard
of hearing and people who can hear. Interpreting is a complex process
that requires a high degree of linguistic, cognitive and technical skills.
Sign languages show the same language faculty as do spoken languages.
Hundreds of sign languages are in use around the world and are at the
core of local deaf cultures. This technique is not very common in Italy,
maybe because sign language is not accessible to all people with
disabilities, but essentially to those born deaf.
Between interlingual and intralingual subtitles, only the latter
represents a linguistic transfer operation in the same language, aimed
at providing a written representation of all information present in the
movie (verbal, non-verbal, paraverbal elements). Subtitles for the deaf
are not visible permanently in the image and are not visible to all
viewers, but they can be activated or deactivated through a remote
107
control button. So, intralingual subtitling represents a basic support for
an inestimable number of deaf people.
7.a HISTORY OF THE DEAF COMMUNITY EDUCATION
In ancient times it was not possible to know if there was a deaf
community, even if in some passages of the Old Testament there was
evidence according to which deaf people were accepted in society as
God’s creatures, worthy of respect, and not of pity. However, prejudice
against the deaf was high, and they were considered retarded and
stupid; we are talking about Greek, Roman and Jewish civilizations. Also
two great influential Greek authors carried out opposing observations.
Plato had a positive opinion; he states that “sign language was suitable
to express thoughts and feelings”, while Aristotle, who together with
Plato did the first studies on language formation, affirms negatively that
<<those who are deaf are dumb in all cases, that is they can emit
sounds but they can’t speak>>. Seeing that the words “deaf” and
“dumb” meant also “stupid”, this confusion of terms caused the wrong
but logical interpretation that was attributed to Aristotle in centuries to
come, that is to say that who born deaf should be considered <<foolish
and without reasoning>> and, as a result, they could not be educated.
Then it is clear how poor the knowledge of deaf-mutism
phenomenon was in Greek times. In the Old Testament, scriptures
108
consider the deaf-mute as incomplete, a weak person, in need of the
grace of God; their deafness is an obstacle for communication and
receiving word, considered the only instrument to transmit teaching
and discipline. The same situation occurred for the Romans: according
to Roman law, the deaf were unable to decide, they couldn’t testify, or
even be witness.
Despite this, there are however reports and meeting with
intelligent deaf-mutes in Latin literature. The first historical document
that mentioned the existence of signs as a means for the education of
the deaf was that of Ammianus Marcellinus. We can’t say that a sign
language already existed, but it is more ancient than many other
languages. The Justinian I code stated that “deaf-mutes can benefit
from their civil rights only if they can read and write”. In the Middle
Ages (476-1492, V-XV century) the persecution towards the deaf
returns and those rights granted by Emperor Justinian were abolished.
During feudalism they were completely marginalized, as deafness didn’t
permit them to fight in wars, the principal interest of seigniory of that
times. Making a summary of this first period, we can affirm that
prejudice and ignorance are the key words; there is a negative opinion
of the deaf, considered as stupid, foolish and in all cases deaf-mute,
incapable to speak and to be educated. There is ignorance about the
difference between deaf and deaf-mute, and the relation and
distinction between deaf-mutism and mental retardation.
Only in the period from the XVI to the mid XVII century the real
education of deaf-mute people started. The new atmosphere of new
109
experiments and knowledge will drive many writers to consider the
possibility of educating the deaf-mute and to focus them on this topic.
Bartolo della Marca of Ancon was among the first writers that stated “it
is possible to educate the deaf-mute”; he met such an intelligent deaf
person who could understand other people by reading their lip
movements (it is the first time that lip-reading is documented). With
Gerolamo Cardano (1501-1576) we come to the conclusion that the
word is not essential for the individual education, so a deaf-mute
person can be educated through writing and reading. But what is the art
of educating and teaching the deaf and dumb in the period from the
Greeks to the Middle Ages? First of all, this was a private and individual
art: only the most influential people could afford the high cost of this
type of education. In this period it was the privilege of a few fortunate
people, most of the deaf-mute remain in ignorance. The method used
by teachers was oral and the starting point was that eyesight could
replace hearing. The student would learn, first of all, the distinction
between breathing and vegetative function (an involuntary
phenomenon) and phonic breathing (for the sound emissions). Then he
would learn the different articulatory positions of every single sounds.
The following step consisted in learning syllables before, then phonetic
groups and finally words. The means through which a deaf-mute person
could learn all this was the sense of sight.
In the XX century three main factors began to become popular: the
orientation towards the oral method, the sense of the deaf-mutes right
to get an education and the sense of duty by society to make this
possible and extend this education. Initially, there was the mistaken
110
opinion according to which a good quantity of patience was the only
way to educate a deaf-mute person. There were a lot of proposals to
educate deaf-mute people in normal classes with hearing people. The
tendency to use the oral method involved all Europe and also the USA.
In 1873, with the First National Congress of Italian Educator of the Deaf-
mute in Siena, the need for a meeting to discuss methods and
experiences of the various different institutes of the country came up in
Italy. The general proposal was to give oral teaching a more important
and significant role in deaf-mute education. Although not many people
supported the mime or gesture method, the communication with signs
was not prohibited, even if there was the conviction that word is
superior to gestures because it permits not only social integration but
also the development of thought and intellect. After the Congress in
Milan, a lot of schools rebuilt their educational structure and settings,
abandoning signs and adopting the oral method.
111
CONCLUSIONS
By the analysis and the studies carried out in the field of
audiovisual translation, subtitling for hearing people and the deaf and
the audio description technique for the blind, it has been possible to
understand the complexity of the work conducted behind these
techniques which are becoming crucial. When we watch a movie just
come out at the cinema, we look at its translation without imaging the
complexity of the work behind the simple translation; but translation is
just one of many steps. The same situation is for subtitles, for hearing
and deaf people and for the audio description, which turn the visual
into the sound, through specified and articulated steps.
The desire to include in my thesis the subtitling for the deaf, the
deafness issue, the introduction to the Italian Sign Language and also
the audio description technique is given by a great personal interest to
understand in detail how people with sensorial disabilities live and what
kind of relation they have with the society, how face the moments of
relax and entertainment and how link these moments with the other
people. These techniques represent a mean of social and cultural
inclusion for those who have sensorial disabilities, even if we shouldn’t
talk about “inclusion” today, because it refers to someone or something
which has been “excluded”.
Seeing that in Italy these kinds of audiovisual translation practices
are not very utilized, the objective is to open an evolving
communication window to represent and sensitize the public opinion
112
and institutions about sensorial disability, a prejudice and
discrimination victim, due to poor and inaccurate information.
113
SECCIO N EN ESPAN OL
INTRODUCCIÓN
La elección del argumento deriva de un personal interés sobre el
tema de la traducción audiovisual y especialmente por lo que concierne
la traducción de los subtítulos para sordos y ciegos.
De hecho, el objetivo de la presente labor trata de examinar las
temáticas de la traducción audiovisual en general y de los subtítulos, es
decir todos aquellos textos que aparecen en el borde inferior de una
pantalla, con frecuencia sobrepuesto a ella, adoptando información
adicional sobre la misma o traduciendo una narración o diálogo en
cualquier idioma extranjero. Apreciados por los cinéfilos, para permitir
la audición de la voz del actor original si aún no se domina el idioma de
la producción, se emplean también como ayuda para mejorar el
conocimiento de un idioma, o como auxilio de la banda sonora para
personas con deficiencias auditivas.
Para simplificar, he decidido estructurar y dividir el presente
trabajo en tres partes: en la primera (en italiano), se introduce un
marco general sobre la traducción audiovisual en la que se examinarán
las técnicas de transposición, las diferentes estrategias y formas de
traducción audiovisuales. En cambio, la parte central (en inglés), se
enfoca sobre el utilizo de los subtítulos interlingüisticos y los subtítulos
114
intralingüísticos para sordos como una manera para aprender una
lengua extranjera o como ayuda para las personas con inhabilidad
sensoriales. Finalmente, en la última parte (en español), hay una breve
introducción acerca de la lengua de señas, a los subtítulos para sordos y
al audiodescripción para ciegos. En esta sección se ha querido enfocar
la atención sobre el tema de la sordera y como se ha desarrollado la
educación del sordomudo con el pasar de los años.
Sin lugar a duda, el rápido desarrollo de las tecnologías de la
información y de las técnicas educativas para la comunicación ha
modificado muchos aspectos de nuestra vida cotidiana. Esta evolución
de los medios de comunicación de masa ha permitido una intensa
producción y distribución de productos audiovisuales de cada típo a
nivel mundial. Además de sta revolución audiovisual, las lenguas y en
especial manera todas aquellas actividades vinculadas al traslado
lingüstico han ido adquiriendo grande importancia en los últimos años
ya que resultan indispensables para difundir informaciones y
conocimientos a nivel internacional. La competencia lingüistica es
fundamental para disfrutar de los productos audiovisuales de cada
nacionalidad y para comprender el significado de los textos. Por eso la
principal necesidad es abatir cualquier típo de barrera, que sea
lingüistica, cultural o sensorial que pueda dificultar la total accesibilidad
y utilización de los productos audiovisuales.
Concluyendo, la intención del presente trabajo es ofrecer un
cuadro teórico como punto de referencia para comprender y analizar
detalladamente las características y las peculiaridades de la traducción
115
audiovisual y enumerar las principales técnicas de traducción en uso
hoy en día.
8. LA SORDERA
Según estimaciones de la Federación Mundial de Sordos, hay en el
mundo cerca de 70 millones de personas con deficiencias auditivas. Un
porcentaje no determinado de ellas tiene una lengua de señas como su
principal medio de comunicación, y con ella, también, una cultura
peculiar.
La Organización Mundial de la Salud ha definido la sordera o
hipoacusia una agudeza auditiva que no permite aprender al individuo
una lengua verbal. La hipoacusia puede tener causa genética o
hereditaria, puede derivar de un padecimento del feto o de una serie de
complicaciones y patologías traumáticas y tóxicas antes o después del
nacimiento. Además puede tener un curso agudo (repentino) o crónico
(progresivo) y conllevar daños transitorios o permanentes en el oído
afecto. Aproximandamente, un 6% de los jóvenes presentan
hipoacusias relacionadas con éstimulos auditivos intensos constantes. Si
no se trata, coarta la vida social en mayor o menor grado y si no se
detecta en recién nacidos o niños, puede influir negativamente sobre su
desarrollo intelectual porque los niños necesitan oír para aprender a
hablar. Hasta hoy muchas personas usan el término sordomudo para
116
indicar una persona sorda, pero se equivocan porque sordomuto no es
sinónimo de sordo. La sordomudez implica un impedimento de la
palabra y de la audición; la persona sorda puede aprender a hablar a
través de apropiadas terapias rehabilitativas. Las causas de la pérdida
de audición son muy heterogéneas e incluyen desde la merma de la
capacidad auditiva asociada a la edad hasta infecciones. De hecho, estas
causas pueden ser divididas en dos areas: la sordera congénita, cuando
el daño se produce antes o después del nacimiento, debido a una
infección o complicaciones durante el parto y la sordera adquirida
(durante el nacimiento o después).
En función de los sonidos y tonos que la persona no es capaz de
oír, los médicos distinguen entre diversos grados de pérdida de
audición y sordera:
Pérdida de audición lieve: pérdida de audición
comprendida entre 20 y 40 dB.
Pérdida de audición moderada: pérdida de audición
de entre 41 y 60 dB.
Pérdida de audición grave: pérdida de audición
situada entre 61 y 80 dB.
Pèrdida de audición profunda o sordera: pérdida de
audición superior a 81 dB.
Cuando se toma en consideración una sordera especialmente
aguda, se puede afirmar con seguridad que ésta puede afectar
considerablemente en la forma en que la persona sorda se relaciona
117
con su entorno humano, al encontrarse con una seria limitación en su
capacidad de encontrar una vía de comunicación por el canal auditivo,
es decir, con el lenguaje oral. Sin embargo, el modo en que se
entienden las consecuencias de esa incapacidad puede variar
considerablemente, de manera que hay dos perspectivas
fundamentales acerca del modo de entender la sordera. La educación
para las personas sordas o con deficiencia auditiva es un tema
importante porque, tal y como para los alumnos oyentes es esencial
tener un bueno proceso educativo, ya que de ello dependerá su futuro,
lo mismo ocurre con los alumnos sordos. Un colectivo de personas
sordas que se comunican entre sí por su medio de una lengua de signos
puede ser considerado una comunidad lingüística minoritaria, con una
cultura propia. Dependiendo de los casos, una persona sorda
normalmente puede desarrollar una idiosincrasia con las personas que
se comunican por el canal visual, es decir, con el lenguaje de signos,
considerándose como una colectividad cultural y social propia
diferenciada, normalmente con la definición de Comunidad Sorda. El
vínculo social entre los sordos signantes suele ser muy fuerte debido,
sobre todo, al aislamiento social con respeto a los oyentes, provocado
por el escaso conocimiento de su problemática común, o estilo de vida,
así como la escasa relación social por motivos de entendimiento
lingüístico o también por ideas preconcebidas que las personas tienen
acerca de los sordos las cuales pueden ir cambiando mediante la
completa interacción dentro de su cultura. Entre las personas sordas,
además, los sordos signantes se dintinguen de las personas sordas
oralistas, es decir, quienes no utilicen habitualmente una lengua de
118
signos o usan una comunicación bimodal y que han recibido una intensa
reeducación del lenguaje oral en su infancia.
Cabe subrayar que en la historia de la educación para alumnos
sordos ha habido muchos cambios que no han llevado a un buen
proceso educativo. Desde hace relativamente poco se está intentando
implantar el bilingüismo en el aula pero todavía falta por recorrer
mucho camino. Existen algunos centros de primaria y secundaria que ya
son bilingües, es decir, que se enseña utilizando dos lenguas, la oral y la
de signos. Antiguamente el objetivo principal era formar a los alumnos
sordos mediante la lengua oral. Sin embargo, había una gran falta de
informaciones, por lo tanto intentaban enseñar una lengua oral a través
de la vista. De ahí, la necesidad de utilizar la lengua de signos para
poder enseñar la lengua oral y la escrita.
Sin lugar a duda, la sociedad no ha tenido muy en cuenta las
personas sordas. Por muchos años se consideraron como enfermas o
como personas incapaces de razonar. Vivían totalmente apartadas del
mundo real y, por supuesto, no se pensaba en su educación. Girolamo
Cardano fue la primera persona que pensó que los sordos podían
comunicarse con los oyentes a través de signos manuales. A partir del
siglo XVII el tema de los sordos va adquiriendo cada día más
importancia y en 1878 se celebró en París el primero Congreso
Internacional sobre la istrucción de niños sordos. En este Congreso se
aprobó la resolución de que sólo el lenguaje oral podría incorporar al
sordo en la sociedad, entendiéndose los signos como una ayuda. El
método oral se impuso totalmente al de signos en la educación de
119
sordos y mudos. A partir de los años 60 los educadores de niños sordos
iban tomando conciencia de que el método oral puro no proporcionaba
a los alumnos un nivel suficiente de lenguaje.
Es por eso que la idea de integración es y tiene que ser el objetivo
principal que debemos conseguir. No hay que olvidar que la lengua de
signos es la lengua natural de las personas sordas y por consiguiente es
imprescindible usarla para trasmitir los conocimentos en el aula desde
sus inicios y en su totalidad mediante profesores e intérpretes de
lengua de signos.
8.a INTRODUCCIÓN A LA LENGUA DE SIGNOS
Los oyentes consiguen comunicar a través del canal acústico-verbal
porqué desde hace su nacimiento han oído los sonidos emetidos por las
personas que les rodean, han comprendido su significado y por lo tanto
han imitado y juzgado con sus mismas orejas su producción vocal. En el
caso de una persona sorda la situación es completamente diferente
porque la sordera impide tanto la percepción del input como el recibo
del sonido; por eso la lengua vocal no puede convertirse en la lengua
natural de la persona sorda. Sin embargo, todas las personas necesitan
comunicar, por lo tanto hay que encontrar una formalidad de
comunicación para los sordos que sustituya el canal comprometido
(acústico) con un canal íntegro (visivo). Por esta razón nació la lengua
120
de signos: se trata de una lengua natural de expresión y configuración
gesto-espacial y percepción visual, gracias a la cual los sordos pueden
establecer un canal de comunicación con su entorno social, ya sea
conformado por otros sordos o por cualquier persona que conozca la
lengua de señas empleada. Mientras que con el lenguaje oral la
comunicación se establece en un canal vocal-auditivo, el lenguaje de
señas lo hace por un canal gesto-viso-espacial. El uso de las señas en la
comunicación es tan antiguo como el de las lenguas orales, o incluso
más, en la historia de la Humanidad, y también han sido y siguen siendo
empleados por comunidades de oyentes. William Stokoe fue el primero
fundador de los estudios de las lenguas de señas y en 1960 publicó la
monografía Sign Language Structure 9(Estructura de la lengua de
signos), en la que propone que las señas pueden ser analizadas como
compuestos simultáneos de tres elementos sin significado: una forma
de la mano, una actividad de la mano y un lugar ocupado por la mano.
Eso le permitió argumentar que la lengua de señas usada por su
estudiantes era un código doblemente articulado, es decir, una lengua
natural. Las lenguas de signos no son simple mímica, ni tampoco una
reproducción visual de alguna versión simplificada de ninguna lengua
oral. Tienen gramática compleja, creativa y productiva como la de
cualquier otra lengua natural. Una prueba más de la diferencia entre las
lenguas orales y las lenguas de señas es el hecho de que estas últimas
explotan únicamente los disparos del medio visual. La lengua oral es
auditiva y, consecuentemente, lineal. Sólo se puede permitir o recibir
un sonido a la vez, mientras que la lengua de señas es visual y, por lo
9 W. Stokoe, Sign Language Structure, 1960.
121
tanto, se puede referir un espacio entero al mismo tiempo. En
consecuencia, la información puede fluir mediante varios “canales” y
expresarse simultáneamente.
Todos los signos de una lengua gestual disponen de cuatro
elementos básicos llamados queremas o parámetros formativos y son:
1. La localización o lugar de articulación (espacio en el
que se artícula el signo).
2. La configuración de las manos (la forma de la mano o
manos que intervienen en la articulación del signo).
3. El movimiento de los dedos, manos, brazos que
pueden actuar individual o conjuntamente en la formación de un
signo.
4. La orientación de la mano o las manos que
intervienen en la articulación de los signos.
Los signos que resultan de la combinación de estos paramentros
costituyen el vocabulario de una lengua de signos y su léxico. La
existencia de precisas reglas gramaticales es uno de los elementos más
importantes y distintivos de las lenguas de signos. El orden de los signos
en una frase es Sujeto-Objeto-Verbo; en la frease negativa la negación
está al final de la frase. Por lo que concierne la parte verbal, el verbo
está al infinitivo, pero cuando hace referencia al presente, pasado y
futuro, los signos se realizan a lo largo de una línea abstracta llamada
“la línea del tiempo”, colocada en el piano horizontal a la altura del
hombro de quien hace el signo. Podemos expresar el plural repitiendo
122
el signo, con el uso de las dos manos o añadiendolo a continuación del
signo. Algunos signos no tienen la forma plural; en este caso el plural se
realiza agregando el signo “mucho” después del objeto plural. Los
pronombres personales son fundamentales para saber quien realiza o
recibe la acción, colocándose al inicio de ésta. La primera persona se
forma indicando a sí mismos, la segunda persona y otras están
representada dirigiendo la mirada hacia la persona que está hablando
con nosotros. La expresión tiene un papel fundamental en la lengua de
signos; los movimientos del cuerpo, la amplitud y la velocidad son los
elementos básicos para una correcta expresividad en la lengua de
signos. En cambio, los signos idiomáticos son expresiones que
pertenecen a la cultura de los sordos, pero son influidas también por la
cultura de los oyentes, y traducidas literalmente parecen no tener
significado.
En lo diversos países, cada comunidad de sordos crea y transmite
de una una generación a otra su propia lengua, por esa razón hay
muchas lenguas de signos diferentes. Se habla de lengua de signos
americana (ASL), lengua de signos española (LSE), lengua de signos
Italiana, lengua de signos francesa (LSF) y así sucesivamente. Signos
iguales pueden tener sentidos distintos según la varias lenguas de
signos. En Italia, después del Congreso de Milán de 1880, el triunfo del
método oral dificultón el éxito y la difusión de la comunicación a través
de signos en el ámbito educativo. También en otros países el interès por
la lengua de signos desde un punto de vista lingüístico sólo se presentó
a partir de los años 60 por medio de la obra de William Stokoe. Se ha
podido observar que en Italia los signos varian muy a menudo de una
123
ciudada otra y a veces dentro de una misma ciudad un grupo de sordos
puede utilizar signos diferentes en comparación a otro grupo. En Italia
la lengua de signos se utiliza sobre todo en familia, en los círculos o en
institutos para sordos; no ha sido utilizada de manera oficial en
contextos educativo-escolares, no se emplea mucho en los encuentros
entre sordos y oyentes a nivel internacional y no ha podido difundirse a
través de la televisión. Puesto que en Italia se utiliza mucho la lectura
labial, algunas personas sordas se encuentran en una situación de
bilingüismo: hablan con los oyentes a travès de la lectura labial, italiano
escrito o hablado, mientras que utilizan la lengua de signos con las
personas sordas. El insuficiente interés de la sociedad oyente por la
necesidad de comunicación y educación de las personas con deficiencia
auditiva ha causado una marginación del sordo cada vez mayor. Hay
que tener en consideración el factor bilingüismo porque en muchas
situaciones el uso exclusivo de la lengua vocal puede representar una
causa de exclusión, mientras que la lengua de signos puede ser
instrumento de integración. Ya que la expresión facial, la posición de la
cabeza y del cuerpo son elementos cruciales en la lengua de signos, los
movimientos de las manos ocurren de manera que no confundan estos
aspectos. Los lugares de esecución del signo más importantes son la
cabeza, la cara, el espacio neutral, la boca, los ojos, la nariz, el mentón,
el cuello, el hombro y el pecho. También las configuraciones de las
manos son variadas y diferentes, pero no se utilizan todas y pueden
tener diferentes sentidos en cada país. Por ejemplo, signos que tienen
el mismo lugar de ejecución pueden tener tambièn la misma
configuración, pero se diferencian por el movimiento.
124
8.b LA COMUNICACIÓN Y EDUCACIÓN DEL NIÑO SORDO EN
ITALIA
Después de un largo período de silencio, sólo hoy en día se
empieza hablar de la lengua de signos y de su papel en la educación. Los
signos empleados por las persona sordas no son un simple conjunto de
gestos para comunicar, sino signos que tienen una gramática precisa,
reglas para verbos, plural y singular; una verdadera lengua a la par de
otras lenguas vocales. Por lo que concierne Italia, al inicio de los años 60
se llegó a la conclusión que la lengua de signos es una verdadera lengua
desde un punto de vista gramatical, sintáctico y morfológico y en 1988
se incluyó en la lengua oficial de sordomudos, la cual utilizaba el canal
visual-gestual en lugar del canal acústico-verbal empleado por los
oyentes.
De hecho, quien ha nacido sordo o ha perdido la audición dentro
de dos años de vida no logra aprender un lenguaje, por tanto se queda
como se suele decir “sordomudo”. Esta palabra ha causado una serie de
malentendidos ya que mucha gente está convencida de que una
persona sorda es en todo caso muda. En realidad no es así, excepto
raras excepciones. Tener la posibilidad de ser expuestos a una lengua
signifíca oír y comunicar con el ambiente que nos rodea en la misma
lengua. El problema del niño sordo es precisamente éste: ya que no
puede oír la lengua hablada alrededor de él, no puede imitar los sonidos
del ambiente, no recibe un feedback acústico de sus mismas
producciones vocales así que no puede comunicar enteramente con los
demás. Su capacidad de lenguaje sufre un paro forzado y la vista íntegra
125
sirve como canal sustitutivo para transmitir informacciones y
comunicar. Considerado que en el contexto familiar el canal acústico se
utiliza con mayor frecuencia para comunicar, el niño se queda excluido
de la comunicación. Por esta razón sería mejor emplear la vista en estos
casos, es decir, usar los gestos en lugar de las palabras. El lenguaje tiene
una función muy importante en el desarrollo de todos los niños y no se
puede subestimar. En el caso de niños sordos cada instrumento de
comunicación regular puede ser eficaz para el normal desarrollo cuanto
el lenguaje verbal. Queda claro que la carencia auditiva compromite la
total integración de la persona sorda, la cual tiende a aislarse y tener
una actitud hostil con respecto a la sociedad. Algunos estudios sobre la
adquisición del lenguaje oral por parte de sordos han demostrado que
la enseñanza del lenguaje de signos y al mismo tiempo del lenguaje oral
facilita el conocimiento de este último y favorece también el desarrollo
de la facultad intelectiva. Por lo que concierne el conocimiento del
lenguaje por una persona sorda pueden verificarse cuatro situaciones:
adquisición sólo del lenguaje oral, adquisición sólo de lengua de signos,
adquisición de los dos (bilingüismo) y adquisición del lenguaje oral con
auxilio de signos (acercamiento/aproximación bimodal). En cualquier
caso nunca debe faltar la posibilidad al niño sordo de aprender una
lengua vocal espontáneamente.
126
8.c LA SUBTITULACIÓN INTRALINGÜĺSTICA PARA SORDOS
La subtitulación es una práctica lingüística que se basa en la
palabra oral, la imagen y los subtítulos: textos escritos que pretenden
dar cuenta de los diálogos de los actores y los elementos discursivos.
Por medio del canal visual percibimos tanto la imagen como el texto, y a
través del canal auditivo nos llega la palabra oral, es decir, la versión
original en la que se rodó la película. Cuando hablamos de subtitulación,
hablamos de un tipo de traducción audiovisual con sus propias técnicas,
reglas y criterios; se trata de una traducción subordinada, ya que tiene
unas restricciones de tiempo y espacio que afectan directamente el
resultado final, por lo que todo traductor tendrá que tener en cuenta
estos parámetros a la hora de traducir el texto. En cuanto al espacio, la
traducción se limita a dos lineas de subtítulos colocados en el centro de
la parte inferior de la plantalla. Por norma general, la línea no puede
contener más de 36 carácteres entre letras, signos o espacios, así que el
número total no puede sobrepasar los 72 carácteres. Un subtítulo tiene
que durar entre uno y seis segundos en pantalla.
Antes de todo, la subtitulación estándar y la de sordos tienen
características en común: son ambas de natura escrita porque traducen
en forma escrita el diálogo original, de natura adicional, porque
conviven con los diálogos y la banda sonora orginales y son también
sincrónicas y transparentes porque coinciden de manera simultánea
con el diálogo hablado orignal (diálogos orales y subtítulos escritos
aparecen y desaparecen al mismo tiempo con las partes de la película).
Las dos subtitulaciones son también inmediatas y transitorias porque se
127
consumen en tiempo real y pueden ser controladas por los usuarios. En
el subtitulado intralingüístico no se produce un cambio de lengua.
Entrarían dentro de esta categoría los subtítulos para la enseñanza de
lenguas y para sordo, de los cuales se hablará en esta segunda parte de
tesis.
Muchas personas tienen algún tipo de discapacidad auditiva, por lo
que necesitan de la eliminación de las barreras de comunicación que les
impiden el acceso a la información, el ocio y la cultura; lo cual, adémas
de ser una necesidad, es un derecho para el pleno desarrollo individual.
El subtitulado para las personas sordas y con discapacidad auditiva
contribuye en romper el aislamiento y permiten a los sordos el acceso
inmediato a las informacciones. Por medio de esto se activa una
formalidad de educación permanente donde las personas sordas, en un
contexto de relajamiento, pueden enriquecer y mejorar su competencia
lingüística de la lengua italiana. Desde hace poco tiempo se ha iniciado
también la subtitulación en directo de algunas ediciones del telediario,
un ulterior acceso a las informaciones para sordos. De esta manera, el
subtitulado permite una clara mejora de la calidad de vida de todo el
colectivo de personas sordas favoreciendo la integración y el disfrute
inclusivo de la oferta cultural y de entretenimiento presente en la
sociedad. No obstante, el colectivo de personas sordas y con
discapacidad auditiva es un colectivo muy heterogéneo, por lo que el
subtitulado puede que no sea suficiente para eliminar las barreras de
comunicación de todas las personas. Por eso hemos mencionado en el
párrafo anterior la importancia de la lengua de signos.
128
El tipo de sordera, el método rehabilitativo y el nivel de formación
de las personas sordas son todos elementos que pueden influir en la
elaboración y fruición de subtítulos. La importancia de la fidelidad de
los subtítulos a los diálogos no concierne solamente las personas con
una pérdida de audición profunda con una buena capacidad de lectura
labial, sino también y sobre todo las personas que sufren de una ligera o
media pérdida de audición que tienen residuos comunicativos. Por eso
los subtítulos permitirían la combinación de informaciones sonoras y
escritas para facilitar la comprensión. Todas la informaciones
contenidas en los subtítulos para sordos tienen que facilitar la
comprensión de la película. Por exemplo, para saber cúando habla un
personaje y quién está hablando en aquel momento, cada personaje
tendrá su propio color en el subtítulo para distinguirse. La ventaja de la
subtitutlación es permitir el acceso a las informaciones a través de la
vista, un canal integro para los sordos y por lo tanto representa un
potente instrumento didáctico para el conocimiento de la lectura a los
sordos.
129
9. ANÁLISIS DEL CONTEXTO VIVIDO POR LAS PERSONAS
CIEGAS EN ITALIA Y LA IMPORTANCIA DE LA
AUDIODESCRIPCIÓN
El concepto de discapacidad sensorial engloba tanto a personas
con deficiencia visual cuanto a personas con deficiencia auditiva. Son
los sentidos de la vista y del oído los más importantes en el ser humano
porque a través de ellos percibimos la mayor parte de información del
mundo que nos rodea. El concepto de deficiencia visual hace referencia
tanto a la ceguera como a otras afecciones de la vista que no llegan a
ella. Según el momento de aparición de la deficiencia existen cegueras y
deficiencias visuales de nacimiento y adquiridas, temprana o
tardíamente, teniendo gran importancia el momento de dicha aparición
porque de ello dependerán las experiencias visuales que se hayan
podido adquirir antes de la lesión. Hay personas con ceguera total
(ausencia total de visión o percepción mínima de la luz que impide su
uso funcional, y personas con baja visión o deficientes visuales: aquellos
que ven lo suficiente como para hacer un uso funcional de su visión
pero su agudeza visual es igual o inferior a 1/3. Las patologías visuales
pueden provocar alteraciones en la agudeza visual, en el campo visual o
en ambos. Hay que subrayar que existe otro colectivo, que es el de
personas sordociegas. La sordoceguera es una discapacidad única
causada por una combinación de deficiencia auditiva y visual, que
genera en las personas que la padecen problemas de comunicación
únicos y necesidades muy especiales. El grupo es heterogéneo y
130
complejo debido a las diferentes variables que determinan las
características individuales motivadas por cada uno de los déficit.
Es absurdo que hoy en día, con todas las tecnologías disponibles,
una persona ciega no puede ir al cine y no disfrutar del espectáculo de
la película. Por eso, la técnica de la audiodescripción es fundamental
para un ciego, porque permite gozar enteramente de la película. El
acceso al producto cultural y de entretenimiento representa un
momento de crecimiento y participación de extrema importancia en la
vida de cada persona y es un instrumento determinante de integración
dentro del contexto cultural.
Muchas personas ciegas no pueden disfrutar del cine o del teatro
por una sola razón: ser parcial o totalmente ciegos. La integración de
este colectivo en el mercado del ocio sigue siendo una asignatura
pendiente de exhibidores e instituciones públicas. La ONCE lleva más de
20 años mejorando la accesibilidad de las personas invidentes a los
medios audiovisuales a través de sistema de audiodescripción AUDESC,
que proporciona información en los bocadillos, los tiempos muertos de
los filmes. Un ciego no quiere que le expliques la película, sino que le
aportes los datos que necesita para entenderla. Aunque no lo parezca,
lograr que un ciego “vea” una película no es complicado. Inventada en
1974 por el estadounidense Gregory Frazier, la audiodescripción detalla
la parte visual (gestos, paisajes, o vestuarios) de una película
aprovechando los “huecos” entre los diálogos y la banda sonora; bastan
uno auricolares y un emisor de radio frecuencia como los de traducción
simultánea. Sin embargo, sigue siendo un terreno casi inexplorado.
131
En italia, la utilización del producto cinematográfico y más en
general del producto cultural y de entretenimiento por las personas con
discapacidad visual es todavía limitada. La accesibilidad es la
prerrogativa principal para jugar un papel activo dentro de nuestro
tejido social. Por lo tanto quería clarificar los términos “hándicap”, o sea
“obstáculo”, y “déficit”, o sea “minoración”.
En el caso de una persona ciega el déficit es la ceguera, mientras
que el hándicap es el obstáculo que esta persona puede encontrar. Si
no es posible restituir lo que el déficit físico impide, hay que sostener la
cultura de riducción del hándicap. Según ISTAT en Italia hay más de
362.000 personas ciegas y la comunidad constituida por discapacitados
visuales alcanza el número de 1.862.000 personas.
El sistema cultural occidental está estructurado principalmente
sobre medios de comunicación de masa que usan las imágenes como
principal instrumento para comunicar (televisión y cine), por esta razón
el producto cultural es difícil de utilizar por personas con
discapacidades sensoriales. Considerado que la imposibilidad de esta
utilización representa un grave elemento de discriminación, hay que
encontrar un medio que pueda poner la comunidad de discapacitados
en condiciones de satisfacer sus necesidades.
132
9.a ¿QUÉ ES LA AUDIODESCRIPCIÓN?
En la actualidad, y desde hace un par de décadas, los estudios de
TAV están viviendo un momento dulce, que algunos han calificado de
eclosión y nosostros somos testigos de un gran incremento de la
investigación en este campo. Sin embargo, por curioso que pueda
parecer, la mayoría de los trabajos se ha centrado en unos pocos
enfoques, mientras que otros muchos siguen aún virgenes; uno de ellos,
considerado, además, por los estudiosos una de las líneas emergentes,
es la TAV para colectivos discapacitados. La necesidades de los
deficientes visuales han recibido una atención mínima en la literatura,
reduciéndose a meras menciones en el mejor de los casos. Es por eso
por que en esta parte se aportará el fenómeno de la AD de ayuda al
colectivo invidente, el sistema audiodescriptivo adoptado en algunos
países.
La AD es el comentario insertado en los silencios de películas,
obras de teatro y programas de televisión cuya misión es describir las
imágenes relacionadas con el escenario, el atrezo, el vestuario, las
expresiones faciales, el lenguaje corporal, la acción, y todo lo démas a
todas aquellas personas que tengan graves problemas de visión. La
finalidad del sistema es aportar información relevante para que lo
deficientes visuales sean capaces de disfrutar de los productos
audiovisuales del modo más similar posible al de cualquier vidente. Por
lo tanto, podemos afirmar que la AD es el arte de traducir imágenes en
palabras. El hecho de que la AD trasvase el componente icónico al
verbal tiene connotaciones semióticas muy importantes. El macrosigno
133
audiovisual pierde uno de sus canales y necesita que esa información se
transmita a través de otro medio para no alterar su valor semiótico
significativo.
La técnica de la audiodescripción apareció por primera vez en los
Estados Unidos en 1981 aplicada al teatro. Posteriormente se
extendería al ámbito cinematográfico y televisivo, donde España fue
pionera en el mundo occidental. La AD conlleva un proceso complejo en
el que entran en juego diversos profesionales, entre los cuales destacan
dos figuras clave: el audiodescriptor y el narrador. El audiodescriptor es
la persona encargada de trasvasar el contenido de las imágenes en
palabras, ya sea en directo o en diferído. Por otro lado, el narrador, por
su parte, es la persona encargada de leer dichas descripciones. El
proceso completo de AD abarca una semana y media de trabajo,
aproximadamente. Ahora vamos a veer los pasos que componen la AD y
como se realiza:
Selección de las películas, ya que no todas las obras son
adecuadas para la AD.
Visionado. El descriptor debe captar el espíritu de la obra
por lo que se refiere al género, estilo y trama y notificar los punto
problemáticos.
Elaboración del guión. Es el momento en el que se produce
la traducción intersemiótica: el descriptor decide qué imágenes
debe verbalizar y cuáles no.
134
Sincronización de la AD. Una adecuada inserción temporal
de la narración con respecto a la imagen en pantalla evitará el
solapamiento de la AD con los diálogos originales de los
personajes.
Ensayo. La narración tiene que expresar los sentimientos
que la película despierta en un espectador vidente.
Revisión. Se corrigen los errores y omisiones para evitar
posibles imperfecciones en la emisión de AD.
Distribución de la obra.
Los avances técnicos, la aparición de nuevos formatos de
presentación y una mayor sensibilidad social dejan una puerta abierta
para satisfacer las necesidades de comunicación de los colectivos con
dificultades sensoriales. Es muy importante desarrollar esta técnica
porque representa, como los subtítulos para sordos, la integración de
todas personas con discapacidades sensoriales, las cuales no pueden
ser excluidas por la sociedad, sino socorridas y animadas.
135
CONCLUSIONES
Por medio de los ahondamientos y estudios desarrolados en el
ámbito de la traducción audiovisual, subtitulación para oyentes y
sordos, de la tècnica de la audiodescripción para las personas ciegas, ha
sido posible notar la complejidad del trabajo y actividades que se
realizan detrás de estas técnicas, las cuales ya están adquiriendo una
importancia fundamental. Cuando vemos una película acaba de salir en
el cine, vemos su traducción sin tener cuenta de la complejidad del
trabajo para su traducción y creemos que la película es simplemente
traducida en nuestro idioma; en realidad la traducción es sólo una entre
las tantas operaciones. La misma cosa ocurre para los subtítulos, tanto
para oyentes como para sordos, y para la audiodescripción, la cual, a
través de pasos articulados y specificos, convierte el visual en sonoro.
La voluntad de introducir en este trabajo la subtitulación para
sordos, la sordera en general y también la lengua de signos y la
audiodescripción es por un gran interés personal y curiosidad sobre
este argumento, para comprender de manera más exhaustiva como se
relacionan las personas con inhabilidades sensoriales en la sociedad,
como enfrentan los momentos de ocio y entrenamiento y como los
comparten con los demás. Estas técnicas representan un medio de
inclusión social y cultural para las personas con inhabilidades
sensoriales, aunque hoy en día no habría que hablar de “inclusión”,
porque se riefiere a algo o algún que ha sido “excluido”. Considerado
que en Italia estas prácticas de traducción audiovisual están muy poco
136
utilizadas, es importante dar voz y espacio a argumentos como estos,
de los cuales se habla poco, pero son fundamentales.
El objetivo es de abrir una ventana de comunicación en continuo
desarrollo para representar y sensibilizar a la opinión pública y las
instituciones sobre la discapacidad sensorial, víctima a menudo de
estereotipos, prejuicio y por lo tanto de discriminación, por causa de
una insuficiente y imprecisa información.
137
Ringraziamenti
Vorrei ringraziare innanzi tutto i miei genitori: mio padre, che con
grande sacrificio mi ha supportato economicamente per tutti i tre anni
accademici, e mia madre che mi ha trasmesso l’interesse, nonché
l’ispirazione per il mondo delle persone con deficit uditivo e in
particolar modo l’interesse per la Lingua dei Segni Italiana, che ho
intenzione di approfondire in futuro. Vorrei ringraziare anche i miei
amici, i miei colleghi e gli insegnanti dell’università che mi hanno
sostenuto e aiutato nei momenti di difficoltà mostrandosi sempre
disponibili; in particolar modo vorrei ringraziare la mia relatrice, la
professoressa Adriana Bisirri, e i miei correlatori, le professoresse
Claudia Piemonte, Luciana Banegas e il professor Paul Farrell, che hanno
avuto sempre un atteggiamento umano e disponibile e hanno saputo
trasmettermi interesse verso le loro materie grazie al metodo
d’insegnamento adottato.
Grazie a tutti.
138
Bibliografia e sitografia
Bonsignori M., La disabilità in Italia, Roma, Istat
servizio editoria, 2009.
Che lingua parlano i Sordi. Il Mondo dei Segni,
Periodico audiovisivo per i Sordi e gli Udenti, n.3, Settembre,
Milano, 1996.
Di Silvio M., La sottotitolazione intralinguistica per i
sordi sentire con gli occhi, 2009.
E. Fois, Traduzione audiovisiva, teoria e pratica, in
Between, vol.II, n.4, 2012.
FilmVoices, Ascoltare il cinema, Audiodescrizione,
2012, http://filmvoices.wordpress.com/tag/audiodescrizione/
Díaz J., Cintas G., Anderman, Audiovisual Translation,
London, Palgrave Macmillan, 2009.
Perego E., La traduzione audiovisiva, Roma, Carocci
editore.
Perego E., Taylor C., Tradurre l’audiovisivo, Roma,
Carocci editore.
Perego E., Da dove viene e dove va l’audiodescrizione
filmica per i ciechi e gli ipovedenti,
139
http://www.openstarts.units.it/dspace/bitstream/10077/9997/1/
perego.pdf
Perego E., Taylor C., ac. Di Christopher Taylor,
Tradurre l’audiovisivo, Roma, pp. 231, 2012.
PerMondo, Introduzione alla sottotitolazione,
vol.24.345, foglio 96, sez.8, MondoAgit, 2015,
http://www.permondo.en/it/volontari/introduzione-alla-
sottotitolazione/
Spadafora A., Inter Media: la mediazione
interlinguistica negli audiovisivi, sette città, Viterbo, 2007.
Volterra V., La lingua italiana dei segni e la
comunicazione visivo-gestuale dei sordi, Bologna, Il Mulino, 2004.
Wikipedia, la comunità sorda,
http://it.wikipedia.org/wiki/Comunit%C3%A0 sorda.