Post on 01-May-2015
transcript
Analisi e Gestione del Rischio
Lezione 9
Non normalità dei rendimenti e simulazione storica
Non normalità dei rendimenti
• L’assunzione di normalità dei rendimenti non è generalmente supportata dai dati: – Asimmetria
– Leptocurtosi
• La non-normalità dei rendimenti riguarda sia la specificazione della distribuzione dei fattori di rischio sia la determinazione dei prezzi.
Informazione implicita e storica
• La letteratura sulla non normalità dei rendimenti riguarda sia l’informazione storica (analisi serie storiche) sia l’informazione implicita (analisi dei prezzi delle opzioni)
• Modelli econometrici: hanno studiato possibili distribuzioni alternative alla distribuzione normale
• Modelli finanziari: hanno cercato tecniche alternative di determinazione dei prezzi dei titoli derivati (opzioni) coerenti con distribuzioni alternative a quella normale
Oltre Black & Scholes
• Il modello di Black & Scholes implica la stessa volatilità per ogni contratto derivato
• Dal crash del 1987, questa regolarità non è supportata dai dati– La volatilità implicita varia per diversi strike
(smile effect)– La volatilità implicita varia per diverse date di
esercizio (struttura a termine di volatilità)• Il sottostante non ha distribuzione log-normale.
Smile, please!Smiles in the equity markets
0
0,5
1
1,5
2
2,5
3
3,5
4
0,8 0,85 0,9 0,95 1 1,05 1,1 1,15 1,2 1,25 1,3
Moneyness
Imp
lied
Vo
lati
lity
Mib30
SP500
FTSE
Nikkei
Non-normalità dei rendimenti
• La distribuzione normale è completamente descritta dai primi due momenti, media e varianza.
• La varianza di una variabile a distribuzione normale è costante.
• Non normalità dei rendimenti significa che la varianza– Non esiste (es. distribuzioni di Cauchy)
– E’ una variabile stocastica
Momento terzo: asimmetria
• La distribuzione normale è simmetrica.• Distribuzione non normale può significare
asimmetria nella distribuzione, cioè diversa probabilità di aumento e diminuzione del prezzo
• I trader sanno che una distribuzione asimmetrica è legata a volatilità implicite decrescenti all’aumentare della moneyness (trade the skew)
Momento quarto: curtosi
• La distribuzione normale standard ha curtosi pari a 3. Distribuzioni con eccesso di curtosi presentano il cosiddetto fenomeno di “code grasse” (fat tails)
• Leptocurtosi significa che la probabilità di eventi estremi è maggiore di quanto previsto dalla distribuzione normale
• Evidenza da serie storiche: ad esempio, un evento come il crollo di borsa del 19/10/87 avrebbe, sotto l’ipotesi di normalità dei rendimenti una probabilità pari a 10-160!!
Modelli econometrici
• I primi modelli econometrici utilizzati per spiegare la non-normalità dei rendimenti sono stati i modelli Garch.
• L’assunzione è che il il rendimento di un titolo segua una distribuzione a media zero e varianza ht: H(0,ht).
• La varianza varia nel tempo in funzione di un processo autoregressivo, ad esempio
ht = + shock2t-1 + ht -1
Modelli Arch/Garch
• Nei modelli Arch/Garch standard si assume che i rendimenti condizionali siano distribuiti normalmente: H(.) è la distribuzione normale
• In applicazioni più evolute si assume che anche H non sia distribuita normalmente, ma che sia per esempio una T-student o una funzione GED (generalised error distribution). In alternativa possono anche venire anche utilizzate delle metodologie non parametriche (semi-parametric Garch)
Asimmetria di volatilità• Un problema dei modelli Garch è che la risposta del
rendimento a shock di segno diverso è la stessa. • Possibili soluzioni consistono nel
– distinguere il segno nella equazione dinamica della volatilità Threshold-GARCH (TGARCH)
ht = + shock2t-1 + D shock2
t-1 + ht -1
D = 1 se lo shock è positivo e zer altrimenti– Utilizzare una forma esponenziale EGARCH
log(ht ) = + g (shockt-1 / ht -1 ) + log( ht -1 )con g(x) = x + ( x - E(x )).
Il problema della persistenza
• Uno dei problemi dei modelli Garch è il fatto che la stima della volatilità su orizzonti più lontani non è affidabile. Un problema molto rilevante per prodotti di finanza strutturata.
• Soluzioni:– Component Garch: ripartizione della varianza in una
componente di trend e una di breve periodo
– Figarch (Fiegarch): la varianza segue un processo autoregressivo a “integrazione frazionaria”.
Dai modelli Garch ai modelli a volatilità stocastica
• Un limite dei modelli Garch è che sia la dinamica della variabile che la sua volatilità sono determinati dallo stesso shock.
• Perché non considerare due shock distinti, anche se correlati, tra la variabile e la sua volatilità?
• Modelli a volatilità stocastica.
ht = + shock2t-1 + ht -1 + 2
t -1
Break strutturali
• Un altro modo di rappresentare la volatilità nel tempo è quello di assumere che la volatilità possa cambiare con un processo “a salto”.
• Modelli “switching regime”: la volatilità del processo varia tra un numero finito di possibili “stati”
• Modelli “a salto”: la volatilità procede per variazioni “finite”, piuttosto che continue.
Dati ad alta frequenza
• Per alcuni mercati sono disponibili dati ad alta frequenza (transaction data o tick-by-tick).– Vantaggi: poter analizzare il processo dinamico del
prezzo su intervalli di tempo molto brevi– Svantaggi: le statistiche possono essere sporcate da
questioni di “microstruttura dei mercati finanziari”• Modelli “realised variance”: utilizzare statistiche intra-
giornaliere per rappresentare la varianza, invece della variazione (logaritmica) al quadrato su base giornaliera.Tipicamente vengono rilevati i rendimenti su intervalli di 5 minuti. Ne viene calcolata la varianza e successivamente la dinamica giornaliera.
Processi stocastici subordinati
• Considerate la sequenza delle variazioni logaritmiche del prezzo in un intervallo dato, ad esempio 5 minuti. Il rendimento cumulato
R = r1 + r2 +… ri + …+ rN
è una variabile che dipende dai processi stocastici
a) i rendimenti logaritmici ri.b) il numero delle transazioni N.
• R è un processo stocastico subordinato e N è il processo subordinatore. Clark (1973) mostra che R è un processo a “code grasse”. La volatilità sale quando sale il numero delle transazioni, ed è per questo correlata con i volumi.
Orologio stocastico
• Il fatto che il numero delle transazioni come variabile stocastica induca non-normalità dei rendimenti suggerisce la possibilità di ricavare la normalità dei rendimenti, ponderandoli per tenere conto del diverso numero delle transazioni.
• In pratica l’unità di misura del tempo viene cambiata in funzione del numero delle transazioni. Il tempo si dilata e si restringe con il numero di transazioni (stochastic clock)
Processi di Lévy
• Non solo il tempo viene considerato non continuo, anche i prezzi non sono variabili continue, ma variano di numeri di tick di dimensione finita.
• Per questo motivo, un possibile modello di rappresentazione dei prezzi è dato da una variabile “a salti puri” (pure jump).
• Processi stocastici misti (diffusivi e a salti) sono noti come processi di Levy. Esempi di utilizzo di processi di Levy: modelli Variance-Gamma, modelli CGMY (Carr-Geman-Madan-Yor).
Fat tails
• Affrontare la non-normalità dei rendimenti richiede la soluzione di tre problemi– Tecniche di compressione dei dati per
l’applicazione di modelli univariati – Determinazione del tipo di informazione da
utilizzare– Scelta del modello da utilizzare in sostituzione
della distribuzione normale
Compressione dei dati
• Prima opzione: rivalutare il portafoglio corrente su dati storici e stimare o simulare la distribuzione con tali dati.
• Seconda opzione: stimare la distribuzioni dei fattori di rischio più rilevanti e le sensitività del portafoglio a tali fattori
• Terza opzione: le tecniche statistiche tradizionali (componenti principali e modelli fattoriali)
La distribuzione dei rendimenti
• Prima opzione: scegliere un nuovo modello, o una nuova classe di modelli di distribuzione
• Seconda opzione: simulare la distribuzione utilizzando dati storici
• Terza opzione: determinare scenari estremi per la distribuzione
Simulazione storica classica
• Rivalutazione del portafoglio su dati storici – ogni insieme di dati storici rappresenta un possibile scenario
di mercato
• Calcolo dei profitti e perdite del portafoglio sotto ogni scenario
• Ordinamento degli scenari per dimensione della perdita – istogramma che rappresenta la distribuzione empirica di
profitti e perdite
• Calcolo del percentile empirico. – Es. su 100 dati il peggiore rappresenta il VaR all’1%.
L’istogramma
0
50
100
150
200
250
-10.03%
-8.50%
-6.97%
-5.45%
-3.92%
-2.39%
-0.87%
0.66%
2.19%
3.71%
5.24%
6.77%
8.29%
9.82%
11.35%
FIAT
Simulazione storica classica
• Problemi– I dati possono non essere identicamente e
indipendentemente distribuiti (i.i.d.)
– In particolare, la distribuzione dei rendimenti futuri può variare al variare delle condizioni di mercato
– Periodi di alta e bassa volatilità possono essere raggruppati (volatility clustering)
• Effetti– Sotto o sopravvalutazione del VaR.
Autocorrelazione della volatilità
-0.12
-0.07
-0.02
0.03
0.08
0.13
Mar-99
Jun-99
Sep-99
Dec-99
Mar-00
Jun-00
Sep-00
Dec-00
Mar-01
Jun-01
Sep-01
Dec-01
FIAT
Simulazione storica filtrataBarone-Adesi e Giannopoulos
• Barone-Adesi e Giannopoulos hanno proposto una modifica dell’algoritmo di simulazione storica basato sul filtraggio preventivo dei dati.
• Simulazione storica filtrata– Rivalutazione del portafoglio su dati storici
– Stima di un modello Garch su tale serie
– Utilizzo delle stime per filtrare i dati
– Utilizzo di tecniche bootstrap per simulare l’evoluzione dei rendimenti e della volatilità
Simulazione storica filtrata:l’algoritmo
• Step 1. Rivalutazione del portafoglio sulla base di dati storici, e calcolo di profitti e perdite in ogni scenario
• Step 2. Specificazione e stima di un modello Garch, ad es.
2t
2tt
tttt N~ R
11112
,0
Filtraggio dei dati
• Step 3. Calcolare e salvare la serie storica dei residui t, per t = 0, 1, …,T
• Step 4. Calcolare e salvare la serie storica delle volatilità t, per t = 1, …,T + 1
• Step 5. Calcolo della serie storica dei residui filtrati
zt = t / t
per t = 1, …,T
L’algoritmo bootstrap…• Step 6. Estrarre n residui filtrati dalla serie storica zt = z(1),
z(2), …,z(n)– n è il numero di giorni che rappresenta il periodo di smobilizzo
• Step 7. Porre il rendimento simulato al tempo T + 1 uguale a
RT+1 = z(1) T+1 = T+1
• Step 8. Calcolo della volatilità T+2.
211
211
22 ttT
• Step 9. Ripetere gli step 7 e 8 calcolando
RT+i = z(i) T+i = T+i
per i = 2, …,n – 1
• Step 10. Calcolare e salvare
RT+n = z(n) T+n = T+n
RT+1 + RT+2 + … + RT+i … + RT+n
211
211
21 ititiT
…prima iterazione
…ripetere NITER volte
• Step 11. Ripetere gli step dal 6 al 10 un numero NITER (es. 1000) di iterazioni.
• Step 12. Ordinare gli scenari per dimensione della perdita (istogramma)
• Step 13. Calcolare il percentile empirico dell’istogramma– Es. nel caso di 1000 iterazioni scegliere il valore
decimo peggiore per un percentile dell’1%, il 50 peggiore per il 5%...
Applicazioni
• Con questa metodologia sono determinati margini alla London Clearing House
• Recentemente, in un lavoro Barone-Adesi, Engle e Mancini, la metodologia è stata applicata alla valutazione di opzioni.
• In questo caso si utilizza l’algoritmo sopra descritto utilizzando per n i giorni mancanti all’esercizio.