+ All Categories
Home > Documents > DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria...

DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria...

Date post: 15-Feb-2019
Category:
Upload: nguyenxuyen
View: 262 times
Download: 1 times
Share this document with a friend
118
1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione aleatoria DICCA Università di Genova Versione: 1.12 04.10.2013 Luigi Carassale
Transcript
Page 1: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

1

Dispense del corso

DINAMICA DELLE STRUTTURE II

Teoria della probabilità e dei processi aleatori

Dinamica delle strutture con eccitazione aleatoria

DICCA – Università di Genova

Versione: 1.12

04.10.2013 Luigi Carassale

Page 2: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

2

Sommario 1 Introduzione ................................................................................................................................. 6

2 Teoria della Probabilità ................................................................................................................ 7

2.1 Eventi e spazio campionario .................................................................................................. 7

2.2 Probabilità ............................................................................................................................. 8

2.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812) ........................................... 8

2.2.2 Definizione empirica (frequentista, Von Mises 1920) ................................................... 9

2.2.3 Definizione assiomatica (Kolmogorov 1933) .............................................................. 10

2.3 Teoremi classici della probabilità........................................................................................ 11

2.3.1 Teorema dell’evento complementare ........................................................................... 11

2.3.2 Teorema dell’evento totale ........................................................................................... 12

2.4 Probabilità condizionata e composta ................................................................................... 13

3 Variabili Aleatorie...................................................................................................................... 16

3.1 Definizione .......................................................................................................................... 16

3.2 Distribuzione di probabilità ................................................................................................. 16

3.3 Funzione di probabilità (di una variabile aleatoria discreta) ............................................... 18

3.4 Densità di probabilità (di una variabile aleatoria continua) ................................................ 20

3.5 Valore atteso ........................................................................................................................ 24

3.6 Momenti statistici di una variabile aleatoria ....................................................................... 25

3.7 Funzione caratteristica di una variabile aleatoria continua* ................................................ 28

3.8 Cumulanti* ........................................................................................................................... 28

3.9 Entropia* .............................................................................................................................. 29

3.10 Trasformazioni lineari di variabili aleatorie .................................................................... 30

3.11 Trasformazioni non-lineari di variabili aleatorie* ............................................................ 31

3.12 Modelli di variabili aleatorie ........................................................................................... 32

3.12.1 Distribuzione normale (o Gaussiana) ........................................................................... 33

3.12.2 Distribuzione uniforme ................................................................................................ 34

3.12.3 Modello log-normale.................................................................................................... 34

3.12.4 Modello di Rayleigh..................................................................................................... 35

3.12.5 Modello di Gumbel ...................................................................................................... 36

Page 3: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

3

3.12.6 Modello di binomiale ................................................................................................... 37

3.12.7 Modello di Poisson....................................................................................................... 39

3.13 Rappresentazioni approssimate della densità di probabilità* ........................................... 40

3.13.1 Espansione in serie di funzioni ortogonali* .................................................................. 40

3.13.2 Principio di massima entropia* .................................................................................... 42

3.13.3 Trasformazione non-lineare di variabili Gaussiane* .................................................... 43

3.14 Rappresentazione della relazione probabilistica fra due grandezze ................................ 46

3.14.1 Distribuzione congiunta di probabilità ......................................................................... 46

3.14.2 Densità congiunta di probabilità .................................................................................. 46

3.14.3 Variabili aleatorie statisticamente indipendenti ........................................................... 48

3.14.4 Valore atteso di funzioni di due variabili aleatorie ...................................................... 49

3.14.5 Somma di variabili aleatorie ........................................................................................ 49

3.14.6 Correlazione e covarianza ............................................................................................ 50

3.14.7 Modello normale bi-variato ......................................................................................... 52

3.14.8 Distribuzione condizionata di probabilità di una variabile aleatoria* .......................... 52

3.15 Proprietà delle variabili aleatorie Gaussiane ................................................................... 54

3.15.1 Indipendenza statistica di variabili non-correlate ........................................................ 54

3.15.2 Linearità dello spazio delle variabili Gaussiane .......................................................... 54

3.15.3 Teorema del limite centrale* ........................................................................................ 55

3.15.4 Simmetria polare delle variabili Gaussiane* ................................................................ 56

3.15.5 Variabili Gaussiane e cumulanti* ................................................................................. 57

3.15.6 Variabili Gaussiane e massima entropia* ..................................................................... 57

3.16 Variabili aleatorie a valori complessi .............................................................................. 58

4 Affidabilità di strutture descritte da una singola variabile aleatoria .......................................... 60

4.1 Asta soggetta a carico aleatorio ........................................................................................... 60

4.2 Risposta dinamica di una struttura aleatoria soggetta a forzante armonica ........................ 60

5 Vettori Aleatori .......................................................................................................................... 63

5.1 Definizione .......................................................................................................................... 63

5.2 Momenti statistici ................................................................................................................ 64

5.3 Modello normale (Gaussiano) ............................................................................................. 64

Page 4: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

4

5.4 Grandezze statistiche di ordine superiore al secondo* ........................................................ 65

5.5 Entropia ed informazione mutua* ........................................................................................ 66

5.6 Rappresentazione di vettori aleatori .................................................................................... 66

5.6.1 Analisi a componenti principali (PCA) ........................................................................ 66

5.7 Simulazione di vettori Gaussiani ......................................................................................... 68

6 Processi aleatori ......................................................................................................................... 69

6.1 Definizioni ........................................................................................................................... 69

6.1.1 Medie statistiche del primo ordine ............................................................................... 70

6.1.2 Medie statistiche del secondo ordine ........................................................................... 70

6.2 Processi aleatori stazionari .................................................................................................. 71

6.2.1 Medie temporali di una funzione campione ................................................................. 74

6.2.2 Processi aleatori ergodici ............................................................................................. 75

6.2.3 Rappresentazione nel dominio della frequenza di processi stazionari ......................... 75

6.3 Rappresentazione congiunta di una coppia di processi aleatori .......................................... 79

6.3.1 Medie statistiche congiunte del secondo ordine .......................................................... 79

6.3.2 Densità di Potenza spettrale incrociata ........................................................................ 80

6.3.3 Funzione di coerenza ................................................................................................... 81

6.4 Trasformazioni lineari di processi stazionari ...................................................................... 81

6.4.1 Derivazione di processi stazionari ............................................................................... 84

6.5 Momenti spettrali ................................................................................................................ 85

6.6 Modelli di processi stazionari .............................................................................................. 87

6.6.1 Processo armonico ....................................................................................................... 87

6.6.2 Processo a banda stretta ............................................................................................... 88

6.6.3 Processo a banda estesa................................................................................................ 89

6.6.4 Rumore bianco ............................................................................................................. 90

6.7 Analisi statistica di processi aleatori stazionari ................................................................... 91

6.7.1 Stima della funzione densità di potenza spettrale di un processo stazionario ............. 93

6.8 Simulazione di processi aleatori .......................................................................................... 95

6.8.1 Metodo della rappresentazione spettrale ...................................................................... 95

7 Risposta stazionaria di strutture lineari a un grado di libertà ..................................................... 98

Page 5: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

5

7.1 Modelli di azioni ambientali stazionarie ........................................................................... 102

7.1.1 Velocità del vento ...................................................................................................... 102

7.1.2 Accelerazione sismica ................................................................................................ 103

7.1.3 Onde marine ............................................................................................................... 104

7.2 Soluzioni analitiche per la risposta stazionaria di un oscillatore semplice* ...................... 105

7.2.1 Rumore bianco filtrato* .............................................................................................. 105

7.2.2 Processo a banda stretta ideale* ................................................................................. 106

7.2.3 Rumore bianco ideale* ............................................................................................... 107

7.2.4 Densità di potenza spettrale regolare e struttura debolmente smorzata* .................... 107

7.2.5 Densità di potenza spettrale decrescente e struttura debolmente smorzata* .............. 108

7.3 Analisi della risposta massima di una struttura lineare soggetta a forzante stazionaria.... 108

7.3.1 Attraversamento di una soglia deterministica di un processo stazionario ................. 109

7.3.2 Distribuzione di probabilità del massimo (superamenti di soglia indipendenti) ....... 112

8 Processi aleatori multi-variati .................................................................................................. 114

8.1 Rappresentazione congiunta di una coppia di processi aleatori multi-variati ................... 116

8.2 Trasformazioni lineari di processi stazionari multi-variati ............................................... 118

Equation Chapter (Next) Section 1

Page 6: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

6

1 Introduzione La teoria della probabilità è un formidabile strumento matematico adatto allo studio qualitativo e

quantitativo di innumerevoli problemi ingegneristici. Essa coinvolge la rappresentazione rigorosa e

la manipolazione razionale dell’aleatorietà, la quale è un ingrediente essenziale del mondo fisico

che osserviamo, così come delle sue idealizzazioni matematiche. Seguendo un approccio di tipo

realista che predilige l’elaborazione di descrizioni capaci di rappresentare parti specificate del

mondo fisico rispetto alla ricerca di supposte leggi di natura, il concetto di aleatorietà è esteso oltre

il suo naturale alveo degli eventi a esito puramente casuale includendo, in modo pragmatico, le

incertezze determinate da una parziale conoscenza della realtà o dalla parziale adeguatezza delle

leggi impiegate per descriverla. Procedendo lungo questa generalizzazione, il formalismo della

teoria della probabilità è impiegato per trattare razionalmente opinioni soggettive o per analizzare la

sensibilità di sistemi puramente deterministici rispetto ai parametri di modello.

Le presenti dispense si prefiggono l’obiettivo di fornire gli strumenti matematici necessari per lo

studio qualitativo e quantitativo del comportamento di sistemi dinamici eccitati da forzanti di natura

aleatoria. Gli argomenti trattati comprendono lo studio delle variabili aleatorie a valori scalari e

vettoriali e i processi aleatori mono-variati e multi-variati. Particolare enfasi è rivolta al caso dei

processi aleatori stazionari, alle loro trasformazioni lineari e proprietà di estremo. Tutti gli

argomenti sono trattati in modo sostanzialmente generale, ma gli esempi richiamano applicazioni

tipiche dell’ingegneria civile, con particolare attenzione per i concetti e gli strumenti utilizzati in

ingegneria del vento.

Tutte le grandezze matematiche trattate sono sistematicamente presentate attraverso tre passi

concettuali: (1) definizione, prima qualitativa e poi matematica/formale; (2) stima a partire da una

popolazione di dati disponibili; (3) simulazione di dati compatibili con una grandezza assegnata.

Alcuni argomenti specialistici legati essenzialmente alla rappresentazione e analisi delle proprietà

non-Gaussiane di variabili aleatorie sono stati introdotti in occasione del corso di dottorato Analisi

qualitativa di fenomeni aleatori svolto nel 2011. Questi sono identificati mediante un asterisco alla

fine del titolo e la loro lettura è raccomandata come approfondimento per gli studenti interessati.

La trattazione qui esposta si basa largamente sull’impostazione che il Corso di Dinamica delle

strutture svolto all’Università di Genova ha ricevuto alla fine degli anni ’90 per mano del prof.

Giovanni Solari. Una parte significativa dei contenuti qui riportati sono tratti dagli appunti dei suoi

corsi. Malgrado questa impostazione consolidata queste dispense rimangono scritte di getto e non

pretendono di sostituire gli ottimi libri di testo disponibili. Il loro obiettivo è viceversa

complementare, nel fornire una guida allo studente per affrontare l’esplorazione di una materia

eccezionalmente vasta con la visione pragmatica dell’ingegnere.

L’unico aspetto deterministico inerente questo testo è la presenza di errori (ma il loro numero e

localizzazione sono aleatori). Sarò grato a chi vorrà segnalarmi errori o suggerirmi miglioramenti.

La revisione di ampie parti di testo e la realizzazione di numerose figure è dovuta a Michela Marrè

Brunenghi. Per questo prezioso (e faticoso) lavoro le sono molto grato.

Equation Chapter (Next) Section 1

Page 7: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

7

2 Teoria della Probabilità Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di

diverse discipline scientifiche. I primi studi che portarono successivamente a concetti legati alla

probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano

(scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi

di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò il motivo per cui, lanciando

tre dadi, il 10 sia più probabile del 9 nonostante che entrambi i risultati si ottengano da un uguale

numero di combinazioni.1

La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre

de Fermat (1601-1665).2 Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de

ratiociniis in ludo aleæ, il primo trattato sul calcolo delle probabilità, nel quale introduceva il

concetto di valore atteso. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli,

dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri.

Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre

Simon Laplace (1749-1827), del Teorema del limite centrale. La teoria della probabilità raggiunse

così basi matematicamente solide e, con esse, il rango di nuova disciplina.

2.1 Eventi e spazio campionario

In teoria della probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista

della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Un ruolo centrale in

questo contesto è svolto dal concetto di evento.

Si consideri una singola osservazione o misura di un fenomeno (es. la tensione di snervamento in un

provino metallico soggetto alla prova di trazione, il numero di studenti in un aula, la velocità del

vento in un determinato luogo e in un dato istante). Se il fenomeno in esame è deterministico, il

risultato dell’osservazione (o dell’esperimento) può essere predetto con esattezza. Se il fenomeno è

aleatorio, il risultato dell’osservazione non è noto a priori; tuttavia è possibile identificare un

insieme , che contiene tutti i possibili risultati dell’esperimento. L’insieme è chiamato spazio

campionario; gli elementi di sono detti punti campionari.

Si definisce evento, E, un insieme di punti campionari (e quindi di risultati possibili

dell’osservazione). Lo spazio campionario Ω contiene tutti i possibili punti campionari, quindi gli

eventi sono sottoinsiemi dello spazio campionario. Si definisce evento elementare l’evento che

contiene un solo punto campionario; evento certo, quello che contiene tutti i punti campionari (cioè

coincide con lo spazio campionario); evento impossibile, quello che non contiene punti campionari.

Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con

AB la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si

indica con AB la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che

dell'evento B. Se AB = i due eventi A e B vengono detti mutuamente esclusivi o incompatibili

1 Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni

(1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi

in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi

diversi. Si può quindi ottenere il 10 in 27 modi (6+6+3+6+3+3), il 9 in 25 modi (6+6+3+3+6+1).

2 Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4

lanci di un dado era equivalente ad ottenere almeno un doppio 6 in 24 lanci. Tuttavia, visto che giocando secondo tale

convinzione invece di vincere perdeva, scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza

empirica. Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità

nell'accezione frequentista.

Page 8: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

8

(non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, Ω\A, è detto

negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).

Esempio 2.1. Eventi.

Nel lancio di un dado, i possibili risultati sono i numeri 1, 2, … 6. Ognuno è un punto

campionario ω dello spazio campionario Ω = {1, 2, 3, 4, 5, 6}. Si considerino i seguenti

eventi:

A = “occorrenza di un numero pari” = 2,4, 6;

B = “occorrenza di un numero dispari” = 1, 3, 5;

C = “occorrenza del numero 2” = 2;

D = “occorrenza del numero 7” = ;

E = AB = ;

A e B sono eventi incompatibili;

C è un evento elementare, D è un evento impossibile, E è l’evento certo.

2.2 Probabilità

Esistono diverse definizioni di probabilità. Nel seguito si forniranno 3 definizioni che hanno rilievo

per la loro importanza storica o utilità pratica.

2.2.1 Definizione classica (eventi equiprobabili, Laplace, 1812)

Secondo la prima definizione di probabilità, per questo detta classica, la probabilità P(A) di

occorrenza dell’evento A è definita come:

ANP A

N (2.1)

dove N è il numero di risultati possibili (assumendo che siano equiprobabili) e NA è il numero di

risultati favorevoli all’evento A.

Esempio 2.2. Definizione classica di probabilità

Lancio di una moneta Ω = {T, C}; sia A:=T, allora P(A) = 1/2;

Lancio di un dado Ω = {1, 2,…,6}; sia A = {1, 2}, allora P(A) = 2/6 = 1/3;

Estrazione numero roulette: Ω = {0, 1,…,90}; sia A = “estrazione numero dispari” = {1,

3,…,89}, allora P(A) = 45/91.

La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni.

Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia

diversi aspetti negativi non irrilevanti:

si applica soltanto a fenomeni con risultati equiprobabili;

presuppone un numero finito di risultati possibili;

la definizione è circolare perché utilizza la nozione di probabilità (eventi equiprobabili) per

definire la probabilità stessa.

Page 9: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

9

2.2.2 Definizione empirica (frequentista, Von Mises 1920)

Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un

evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli

esperimenti. Si consideri un esperimento che possa essere ripetuto un numero infinito di volte e si

assuma che un evento E si sia verificato un numero nE di volte durante l’esecuzione di n

esperimenti. La probabilità di occorrenza dell’evento E si definisce come il limite per n che tende a

infinito della sua frequenza relative nE/n:

lim E

n

nP E

n (2.2)

Esempio 2.3. Definizione frequentista di probabilità: convergenza alla definizione classica

Si simuli il lancio di un dado e si verifichi mediante la definizione (2.2) che l’evento A =

{1, 2} ha probabilità 1/3.

Il codice Matlab riportato in Figura 2-1 genera una successione di numeri casuali, x,

mediante il comando rand. I valori di x così generati sono compresi nell’intervallo chiuso

[2-53

, 1-2-53

]. A partire da x, il codice genera numeri interi, y, casuali equiprobabili compresi

fra 1 e 6.

La Figura 2-2 mostra i primi 10 risultati di una sequenza casuale. La Figura 2-3 mostra la

convergenza della probabilità calcolata mediante la definizione frequentista al valore

ottenuto dalla definizione classica (1/3). Si osserva che per avere una buona corrispondenza

fra i due valori sono necessari circa 104 esperimenti.

% Convergenza definizione frequentista probabilità

% Esempio: lancio di un dado

% n = numero esperimenti

% A = evento

% y = risultati esperimenti

% fA = elenco eventi favorevoli (1) e sfavorevoli (0)

% PA = probabilità di occorrenza evento A

n = 1e6;

x = rand(n,1);

y = round(6 * x + 0.5);

A = [1 2];

fA = zeros(n,1);

for k=1:n

fA(k) = sum(A==y(k));

end

PA = cumsum(fA) ./ (1:n)';

figure(1)

plot(1:10,y(1:10),'xr')

ylim([0 7])

grid on

xlabel('j')

ylabel('y_j')

figure(2)

semilogx(1:n,PA, 1:n, ones(n,1)*length(A)/6,'r--')

xlabel('n')

ylabel('n_E/n')

grid on

set(gca,'xMinorGrid','off')

Figura 2-1. Codice Matlab per verifica convergenza definizione frequentista di probabilità.

Page 10: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

10

Figura 2-2. Lancio di un dado: punti campionari corrispondenti a 10 esperimenti.

Figura 2-3. Convergenza della frequenza relativa al valore della probabilità definita mediante

la (2.1).

La definizione frequentista, come quella classica, è operativa, cioè consente di calcolare

praticamente la probabilità di eventi in molte circostanze; inoltre, è coerente con quanto fornito

dalla definizione classica nel caso di eventi equiprobabili. Tuttavia è necessario osservare:

il "limite" delle frequenze relative non corrisponde all'analogo concetto matematico; ad

esempio, data una successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un

numero naturale N tale che |an - a| < ε per ogni n > N, e, comunque dato ε, è sempre

possibile calcolare N; nella definizione frequentista, invece, N non è sempre calcolabile;

non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia

la probabilità che vi sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la

metà di quello attuale, ma in casi simili non è possibile immaginare esperimenti ripetibili

all'infinito.

2.2.3 Definizione assiomatica (Kolmogorov 1933)

L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov

nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo

delle probabilità). Va notato che la definizione assiomatica non è una definizione operativa e non

fornisce indicazioni su come calcolare la probabilità. Il nome deriva dal procedimento per

"assiomatizzazione" basato sull'individuare di concetti primitivi, da cui individuare i postulati e, per

via deduttiva, i teoremi.

1 2 3 4 5 6 7 8 9 100

1

2

3

4

5

6

7

j

yj

100

101

102

103

104

105

106

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

n

nE/n

Page 11: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

11

L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi

esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω,

detto spazio campionario, e ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in

prima approssimazione, come una misura, cioè come una funzione che associa a ciascun

sottoinsieme di Ω un numero reale non negativo tale che la somma delle probabilità di tutti gli

eventi sia pari a 1.

Si assuma che ogni evento nello spazio campionario sia associato a un numero reale P(E),

chiamato probabilità di E. Questo numero soddisfa le tre seguenti condizioni:

1. La probabilità è un numero non-negativo: P(E) ≥ 0;

2. La probabilità dell’evento certo è unitaria: P(Ω) = 1;

3. Dati due eventi A e B definiti come mutuamente esclusivi, allora P(AB) = P(A) + P(B).

Si osservi che, come conseguenza degli assiomi precedenti, necessariamente, P(E) 1.

I tre assiomi introdotti da Kolmogorov sono coerenti con la definizione empirica fornita da Von

Mises e con la definizione classica enunciata da Laplace.

2.3 Teoremi classici della probabilità

Dagli assiomi precedenti si ricavano i teoremi di seguito riportati.

2.3.1 Teorema dell’evento complementare

Si definisce evento complementare Ec = \E dell’evento E, l’evento che comprende tutti i punti

campionari di Ω non compresi in E (Figura 2-4).

Figura 2-4. Evento complementare.

Un evento E e il suo complementare Ec sono mutuamente esclusivi, cioè la loro intersezione

fornisce l’evento vuoto, mentre la loro unione genera l’evento certo

0c

c

E E

E E

(2.3)

Applicando alla (2.3) l’Assioma 3 si deduce:

1cP E P E (2.4)

In particolare, essendo Ωc = , l’applicazione della (2.4) dimostra che l’evento vuoto ha probabilità

di occorrenza zero (P(0) = 0). La (2.4) e l’assioma 1 dimostrano che P(E) 1.

E

Ec

Page 12: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

12

Esempio 2.4. Probabilità dell’evento complementare

Sia P = 10-6

la probabilità di collasso di una struttura in un anno. La probabilità che tale

struttura non collassi in un anno è 1 – P = 1 – 10-6

.

2.3.2 Teorema dell’evento totale

Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due, ovvero la

probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi

se sono mutuamente esclusivi; in caso contrario, alla somma va sottratta la probabilità

dell’intersezione. Si consideri due eventi E1 e E2 in (Figura 2-5):

Figura 2-5. Evento totale.

L’unione degli eventi E1 e E2 può essere scritta come:

1 2 1 2 2 1 1 2E E E E E E E E (2.5)

dove (E1 – E2) contiene i punti campionari presenti in E1, ma non in E2 (E2 – E1 è definito

analogamente). I tre eventi rappresentati dagli insiemi del termine di destra della (2.5) sono

mutuamente esclusivi, quindi per l’Assioma 3 risulta:

1 2 1 2 2 1 1 2P E E P E E P E E P E E (2.6)

Da Figura 2-5 risulta inoltre che 1 1 2 1 2E E E E E . La probabilità di occorrenza

dell’evento E1 – E2 risulta pertanto:

1 2 1 1 2P E E P E P E E (2.7)

Sostituendo la (2.7) (e un’espressione analoga per E2 – E1) nella (2.6), la probabilità di occorrenza

dell’evento totale E1 E2 risulta:

1 2 1 2 1 2P E E P E P E P E E (2.8)

Dalla (2.8) e dall’assioma di positività discende la condizione:

1 2 1 2P E E P E P E (2.9)

E1

E1E2

E2

Page 13: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

13

Esempio 2.5. Probabilità dell’evento totale.

Si consideri il lancio di un dado e si considerino i seguenti eventi:

1 21,2,3 ; 3,4 ; 1, ,6E E

Applicando la definizione (2.1) risulta:

1 2 1 21 2 1 3; 1 6P E P E P E E

Applicando il teorema dell’evento totale risulta:

1 2 1 2 1 2 2 3P E E P E P E P E E

2.4 Probabilità condizionata e composta

Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di

verificarsi quando si sappia che B si è verificato.

| 0

P A BP A B P B

P B

(2.10)

La definizione di probabilità condizionata può essere facilmente spiegata considerando il caso di

uno spazio campionario contenente N punti campionari equiprobabili . Sia NB il numero di

risultati favorevoli per l’evento B e NAB il numero di risultati favorevoli contemporaneamente per

gli eventi A e B (e quindi per l’evento A B). Sostituendo nella (2.10) la definizione classica di

probabilità (Eq. (2.1)):

| AB AB

B B

N NNP A B

N N N (2.11)

La probabilità condizionata P(A|B) può essere dunque interpretata come la probabilità di occorrenza

di A nello spazio campionario ridotto determinato da B (Figura 2-6).

Figura 2-6. Probabilità condizionata.

Esempio 2.6. Probabilità condizionata.

Si consideri il lancio simultaneo di due dadi. Si voglia determinare la probabilità di

occorrenza del numero 7 (evento A), dato che uno dei due dadi ha fornito il numero 1

(evento B). Lo spazio campionario contiene i 36 punti campionari equiprobabili:

(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6),

(2, 1), (2, 2), (2, 3), (2, 4), (2, 5), (2, 6),

(3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6),

(4, 1), (4, 2), (4, 3), (4, 4), (4, 5), (4, 6),

(5, 1), (5, 2), (5, 3), (5, 4), (5, 5), (5, 6),

(6, 1), (6, 2), (6, 3), (6, 4), (6, 5), (6, 6).

A

B

Page 14: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

14

Il numero di risultati favorevoli a A è NA = 6, quindi P(A) = 1/6; il numero di risultati

favorevoli a B è NB=11, quindi P(B) = 11/36; il numero di risultati favorevoli

simultaneamente ad A e B è NAB = 2, quindi P(AB) = 1/18; il numero di risultati

favorevoli a A, dato che si è verificato B sono 2 su 11 possibilità, quindi P(A|B)=2/11.

Attraverso il concetto di probabilità condizionata si perviene al teorema della probabilità composta,

che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità

che essi si verifichino entrambi. Nel caso di due eventi, si ha

| |P A B P A B P B P B A P A (2.12)

Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti

stocasticamente (o probabilisticamente, o statisticamente) indipendenti e dalla stessa definizione

segue una diversa formulazione della probabilità composta, caso particolare del precedente:

P A B P A P B (2.13)

Esempio 2.7. Eventi statisticamente indipendenti.

Si consideri i seguenti eventi legati al lancio di un dado:

1,2,3,4,5,6 ; 1,2 ; 1,3,5 ; 2,4,6A B C

2/6; 3/6; 3/6P A P B P C ;

1 , 1/6A B P A B P A P B A, B indipendenti;

, 0B C P B C P B P C B, C dipendenti.

Si osserva che gli eventi A e B sono indipendenti, ma non mutuamente esclusivi, mentre gli

eventi B e C sono mutuamente esclusivi, ma non indipendenti. Si potrebbe osservare, in

proposito, che due eventi mutuamente esclusivi non possono essere statisticamente

indipendenti, in quanto la realizzazione di uno comporta la non-realizzazione dell’altro.

Il codice Matlab riportato in Figura 2-7 valuta, applicando la definizione frequentista, la

probabilità di occorrenza dell’evento A = {1, 2} e la probabilità di occorrenza di A

condizionata all’occorrenza di B = {2, 4, 5}. La Figura 2-8 mostra che, all’aumentare del

numero di esperimenti n, le probabilità P(A) e P(A|B) tendono al medesimo valore. Ciò

indica che gli eventi A e B sono statisticamente indipendenti.

Page 15: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

15

% Esempio: lancio di un dado

% verifica che gli eventi A = [1 2] e B = [2 4 5] sono statisticamente

% indipendenti.

%

% n = numero di esperimenti

% y = risultati esperimenti (lanci dado)

% fA = elenco eventi favorevoli (1) e sfavorevoli (0) per A

% fB = elenco eventi favorevoli (1) e sfavorevoli (0) per B

% fAB = elenco eventi favorevoli (1) e sfavorevoli (0) per A e B

% contemporaneamente

% PA = probabilità di occorrenza evento A

% PAcB = probabilità di occorrenza di A dato B

n = 1e5;

x = rand(n,1);

y = round(6 * x + 0.5);

A = [1 2];

B = [2 4 5];

fB = zeros(n,1);

fAB = zeros(n,1);

for k=1:n

fA(k) = sum(A==y(k));

fB(k) = sum(B==y(k));

fAB(k) = sum(A==y(k)) & sum(B==y(k));

end

PA = cumsum(fA) ./ (1:n)';

PAcB = cumsum(fAB) ./ cumsum(fB);

Figura 2-7. Codice Matlab per verifica indipendenza statistica mediante definizione

frequentista di probabilità.

Figura 2-8. Probabilità di A (linea blu), e probabilità di A dato B (linea rossa).

Equation Chapter (Next) Section 1

100

101

102

103

104

105

0

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

n

P(A

),

P(A

|B)

Page 16: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

16

3 Variabili Aleatorie In teoria della probabilità, una variabile casuale (o variabile aleatoria o variabile stocastica o

random variable) può essere pensata come il risultato numerico di un esperimento quando questo

non è prevedibile con certezza (ossia non è deterministico). Ad esempio, il risultato del lancio di un

dado può essere matematicamente modellato come una variabile casuale che può assumere uno dei

sei possibili valori 1, 2, 3, 4, 5, 6. Bruno de Finetti definiva numero aleatorio (termine suggerito

dallo stesso per denotare la variabile casuale) un numero ben determinato ma non noto per carenza

di informazioni.

3.1 Definizione

Dato uno spazio campionario Ω su cui è definita una misura di probabilità, una variabile aleatoria è

una funzione (misurabile) dallo spazio campionario a uno spazio misurabile (es. l’insieme dei

numeri naturali, l’insieme dei numeri reali, ecc.; Figura 3-1).

In questo capitolo, si considerano variabili aleatorie a valori scalari (dette mono-variate). Variabili

aleatorie a valori vettoriali sono definite nei capitoli successivi.

Una variabile aleatoria è definita continua se ha valori in intervalli continui di . Una variabile è

detta discreta si ha valori in un insieme di numeri finito o numerabile (es. ). Una variabile

aleatoria è detta mista se assume valori in un insieme continuo, ma possiede un numero discreto di

valori aventi probabilità di occorrenza finita.

Nel seguito, le variabili aleatorie verranno indicate con lettere maiuscole (es. X), mentre le

corrispondenti lettere minuscole (es. x) verranno utilizzare per identificare generici valori assunti da

X, detti realizzazioni. La realizzazione x può essere interpretata come l’immagine del punto

campionario attraverso X (Figura 3-1).

Figura 3-1. Variabile aleatoria X.

3.2 Distribuzione di probabilità

La distribuzione di probabilità (o distribuzione cumulativa, o cumulative distribution function,

CDF) è una funzione che definisce la probabilità che la variabile aleatoria X assuma valori minori o

uguali ad un parametro in .

XF P X (3.1)

La distribuzione di probabilità è definite per qualsiasi valore dell’argomento in e possiede le

seguenti proprietà (facilmente deducibili dalla (3.1) e dagli assiomi della teoria della probabilità):

0XF P X P (3.2)

x

x = X()

Page 17: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

17

1XF P X P (3.3)

1 2 2 1 1 2X XP X F F (3.4)

Dalla (3.4) discende (per l’assioma di positività) che la distribuzione di probabilità è una funzione

non-decrescente i cui valori appartengono all’intervallo chiuso [0, 1]. Sarebbe possibile dimostrare

anche l’implicazione inversa: una funzione non-decrescente che soddisfa le condizioni (3.2) e (3.3)

rappresenta la distribuzione di probabilità di una qualche variabile aleatoria.

Esempio 3.1. Stima distribuzione di probabilità di una variabile aleatoria discrete

La Figura 3-2 mostra il codice Matlab per la stima della distribuzione di probabilità di una

variabile aleatoria discreta X, rappresentativa dei risultati del lancio di un dado. La Figura

3-3 mostra la distribuzione di probabilità stimata. Si osserva la struttura discontinua della

funzione, tipica delle variabili aleatorie discrete. I salti nella funzione rappresentano

probabilità finite di avere risultati in corrispondenza dei valori 1, 2,…,6.

% stima distribuzione di probabilità di v.a. discreta

n = 1e5;

X = round(6*rand(n,1) + 0.5); % lancio di un dado

xi = linspace(-2, 10, 3001);

FX = zeros(size(xi));

for k=1:length(xi)

FX(k) = sum(X<=xi(k))/n;

end

plot(xi,FX,'.')

xlabel('\xi')

ylabel('F_X(\xi)')

grid on

ylim([0 1.1])

Figura 3-2. Codice Matlab per stima distribuzione di probabilità: esempio variabile aleatoria

discreta

Figura 3-3. Distribuzione di probabilità dei risultati del lancio di un dado stimata mediante il

codice di Figura 3-2.

Esempio 3.2. Stima distribuzione di probabilità di una variabile aleatoria continua

Il codice riportato in Figura 3-4 stima la distribuzione di probabilità della variabile aleatoria

continua X, il cui spazio campionario è generato attraverso una trasformazione non-lineare

di numeri casuali Gaussiani u. Per ogni valore (k) dell’ascissa discretizzata, la

distribuzione di probabilità è ottenuta valutando la probabilità dell’evento X (k)

-2 0 2 4 6 8 100

0.2

0.4

0.6

0.8

1

FX(

)

Page 18: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

18

mediante la definizione frequentista. La Figura 3-5 mostra la distribuzione di probabilità

stimata.

% stima CDF della variabile aleatoria X

n = 1e5; % numero esperimenti

u = randn(n,1);

X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X

xi = linspace(-10, 10, 300); % definizione ascissa discretizzata

FX = zeros(size(xi));

for k=1:length(xi)

FX(k) = sum(X<=xi(k))/n;

end

plot(xi,FX)

xlabel('\xi')

ylabel('F_X(\xi)')

grid on

ylim([0 1.1])

Figura 3-4. Codice Matlab per stima distribuzione di probabilità

Figura 3-5. Distibuzione di probabilità di una variabile aleatoria continua stimata mediante il

codice di Figura 3-4.

3.3 Funzione di probabilità (di una variabile aleatoria discreta)

Si consideri una variabile aleatoria discrete X che può assumere gli n valori discreti j (j = 1,…,n).

Si definisce funzione di probabilità di X la funzione:

X j jP P X (3.5)

che definisce, la probabilità di realizzazione di ogni possibile valore j. La funzione di probabilità e

la distribuzione di probabilità sono legate dalla relazione:

X j X j X jP F F (3.6)

j

X X jF P

(3.7)

-10 -8 -6 -4 -2 0 2 4 6 8 100

0.2

0.4

0.6

0.8

1

FX(

)

Page 19: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

19

dove j- indica un numero reale minore, ma arbitrariamente vicino a j. La Figura 3-6 mostra la

funzione di probabilità e la corrispondente distribuzione di probabilità di una variabile aleatoria

discreta.

Figura 3-6. Funzione di probabilità e distribuzione di probabilità di una variabile discrete.

Esempio 3.3. Stima della funzione di probabilità

Si consideri un esperimento realizzando lanciando due dadi. Sia X ottenuto come somma

dei risultati forniti dai due dati. La Figura 3-7 riporta il codice per simulare il lancio di due

dadi; la funzione di probabilità è valutata attraverso la funzione riportata in Figura 3-7

realizzata introducendo la definizione frequentista di probabilità nella (3.5).

La Figura 3-9 mostra la funzione di probabilità (a) e la distribuzione di probabilità (b)

stimata sulla base di 105 lanci di dadi simulati.

% esempio lancio di due dadi

n = 1e5;

X1 = round(6*rand(n,1) + 0.5); % lancio di un dado 1

X2 = round(6*rand(n,1) + 0.5); % lancio di un dado 2

X = X1 + X2;

[PX, xi] = pf1(X);

figure(1)

for k=1:length(xi)

plot(xi(k)*[1 1],PX(k)*[0 1],'b',xi(k),P(k),'.b')

hold on

end

hold off

xlim([0 14])

grid on

xlabel('\xi')

ylabel('P_X(\xi)')

Figura 3-7. Codice Matlab per simulazione del lancio di due dadi.

1 2 3 40

0.2

0.4

0.6

0.8

1

FX(

)

1 2 3 40

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

PX(

)

Page 20: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

20

function [P, xi] = pf1(x)

% stima funzione di probabilità per v.a. discreta X di cui sono disponibili

% n realizzazioni contenute nel vettore x

% P = funxione di probabilità

% xi = ascissa P

xi = min(x):max(x); % ascissa funz di probabilità

P = zeros(length(xi),1);

z = x - min(x) + 1;

for k=1:length(x)

P(z(k)) = P(z(k)) + 1;

end

P = P / length(x);

end

Figura 3-8. Codice Matlab per stima dai dati della funzione di probabilità di una variabile

aleatoria discreta.

(a) (b)

Figura 3-9. Funzione di probabilità (a) e distribuzione di probabilità (b).

3.4 Densità di probabilità (di una variabile aleatoria continua)

La distribuzione di probabilità, FX, di una variabile aleatoria continua, X, è una funzione continua in

, ma non necessariamente derivabile. Si assuma che i punti in cui FX non è derivabile formino un

insieme numerabile. Ove FX è derivabile, si definisce la densità di probabilità pX() (o probability

density function, o pdf) come derivata di FX rispetto all’argomento :

d

d

X

X

Fp

(3.8)

In virtù delle proprietà di FX si deducono le seguenti proprietà della densità di probabilità:

0Xp (3.9)

dX XF p

(3.10)

1Xp d

(3.11)

2

11 2 2 1 1 2dX X XP X F F p

(3.12)

In cui si è supposto che, nei punti dove pX non è definita (FX non derivabile), essa assuma un

qualsiasi valore positivo finito.

0 2 4 6 8 10 12 140

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

PX(

)

0 2 4 6 8 10 12 140

0.2

0.4

0.6

0.8

1

FX(

)

Page 21: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

21

La Figura 3-10 descrive la relazione fra pX e FX definita dalla (3.10): l’ordinata FX() equivale

all’area sottesa da pX a sinistra dell’ascissa .

La Figura 3-11 mostra che l’occorrenza di un punto * in cui FX non è derivabile si riflette in una

discontinuità in pX.

Figura 3-10. Relazione fra densità e distribuzione di probabilità.

Figura 3-11. Punti singolari nella densità di probabilità.

La (3.12) afferma che l’area sottesa dalla densità di probabilità, compresa fra due valori di ascissa,

1 e 2, rappresenta la probabilità che la variabile aleatoria assuma un valore compreso in tale

intervallo (Figura 3-12). Ponendo 1 = e 2 = + , la (3.12) può essere riscritta nella forma:

dX XP X p p

(3.13)

Nella quale, l’applicazione del teorema della media impone di assumere che pX sia continua in .

pX()

x

FX(x)

FX()

x

FX(x)

1

pX()

x

FX(x)

*

FX()

x

FX(x)

1

*

Page 22: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

22

Figura 3-12. Significato probabilistico di densità e distribuzione di probabilità.

L’applicazione della definizione empirica di probabilità alla (3.13) fornisce uno strumento per

stimare la densità di probabilità attraverso la relazione:

limXn

np

n

(3.14)

dove n() è il numero di volte in cui il valore di X è compreso nell’intervallo (, + ] in n

esperimenti. La densità così ottenuta è rappresentata da un istogramma (Figura 3-13) che, se è

sufficientemente piccolo può essere interpretato come la discretizzazione di una funzione di

variabile continua.

Figura 3-13. Stima della densità di probabilità.

Esempio 3.4. Stima della densità di probabilità.

Si consideri la variabile aleatoria del precedente Esempio 3.2 e si stimi la densità di

probabilità utilizzando la definizione frequentista.

pX()

x1

FX()

x1

FX(x1)

1

x2 x2

FX(x2)

P(x1 X x2)

pX()

x

n(x)/n

x+

Page 23: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

23

% stima pdf della variabile aleatoria X

n = 1e6; % numero esperimenti

u = randn(n,1);

X = u + 0.1*u.^2 + 0.05*u.^3; % generazione spazio campionario per X

xi = linspace(-10, 10, 300); % definizione ascissa discretizzata

pX = zeros(size(xi));

Dx = xi(2) - xi(1);

for k=1:length(xi)

pX(k) = sum(X > xi(k)-Dx/2 & X <= xi(k)+Dx/2)/n/Dx;

end

plot(xi,pX)

xlabel('\xi')

ylabel('p_X(\xi)')

grid on

xlim([-6 6])

Figura 3-14. Codice Matlab per stima densità di probabilità.

Figura 3-15. Densità di probabilità stimata mediante il codice riportato in Figura 3-14.

Il codice riportato in Figura 3-14 è molto semplice perché implementa brutalmente

l’estimatore definito dalla (3.14). Sfortunatamente, tale algoritmo è piuttosto inefficiente,

avendo una complessità computazionale pari a n2. In alternativa, la densità di probabilità

può essere stimata mediante la funzione riportata in Figura 3-16, che ha complessità

computazionale pari a n.

function [p, xi] = pdf1(x,Nx)

% stima pdf per v.a. continua X di cui sono disponibili le realizzazioni

% raccolte nel vettore x

% p = pdf

% xi = ascissa pdf

% Nx = numero punti ascissa pdf

xi = linspace(min(x),max(x),Nx)'; % ascissa discretizzata pdf

Dx = (max(x)-min(x)) / Nx; % ampiezza intervalli

p = zeros(Nx,1);

z = (x - min(x)) / (max(x) - min(x)); % x è mappato in [0 1]

z1 = round((Nx-1) * z)+1; % numero d'ordine intervallo ascissa

for k=1:length(x)

p(z1(k)) = p(z1(k)) + 1;

end

p = p / length(x) / Dx; % normalizzazione

end

Figura 3-16. Codice Matlab per stima distribuzione di probabilità.

-6 -4 -2 0 2 4 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

pX(

)

Page 24: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

24

3.5 Valore atteso

Il valore atteso (o media, o expectation) di una variabile aleatoria X, è un numero E[X] che

formalizza l'idea euristica di valore medio di un fenomeno aleatorio.

In generale il valore atteso di una variabile aleatoria discreta è dato dalla somma dei possibili valori

di tale variabile, ciascuno moltiplicato per la probabilità di essere assunto (ossia di verificarsi), cioè

è la media ponderata dei possibili risultati. Se la variabile aleatoria X può assumere i valori j (j =

1,2,…), il valore atteso è definito dalla relazione:

1

E j X j

j

X P

(3.15)

Per una variabile aleatoria continua il valore atteso è essere definito mediante un integrale.

E d dX XX F p

(3.16)

Si osservi che la definizione di valore atteso ottenuta attraverso l’integrale di Stieltjes nella (3.16)

può essere applicata anche nei casi in cui la funzione densità di probabilità non è definita, come per

le variabili aleatorie discrete e miste.

Il valore atteso è un operatore lineare che dallo spazio delle variabili aleatorie conduce nello spazio

dei numeri reali. Esso gode quindi delle proprietà:

E E EaX bY a X b Y (3.17)

dove X e Y sono variabili aleatorie, mentre a e b sono costanti reali.

Il valore atteso ha la proprietà di monotonia, cioè se una variabile aleatoria X appartiene

all’intervallo [a, b], allora anche il suo valore atteso E[X] appartiene ad [a, b].

Il valore atteso di una variabile aleatoria di cui è disponibile un insieme di realizzazioni può essere

stimato attraverso la media statistica. Ciò può essere dimostrato facilmente nel caso di variabili

aleatorie discrete (il concetto è altrettanto valido per le variabili continue) sostituendo la definizione

frequentista di probabilità nella (3.15)

1

Ej

j

j

nX

n

(3.18)

dove nj rappresenta il numero di volte che si è realizzato il valore j nel corso di n esperimenti, con

n grande a sufficienza. La (3.18) contiene la somma dei risultati possibili j moltiplicati per il

numero di volte che questi si sono realizzati nj. Questa somma corrisponde alla somma dei valori xk

realizzati dalla variabile aleatoria negli n esperimenti (ammesso che n sia grande a sufficienza a fin

che l’insieme dei risultati xk contenga tutti i risultati j aventi una probabilità di occorrenza

significativa). La (3.18) può dunque essere riscritta nella forma:

1

1E

n

k

k

X xn

(3.19)

Page 25: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

25

Il concetto di valore atteso può essere esteso al caso di una variabile aleatoria Y legata, attraverso

una funzione deterministica, ad una variabile aleatoria X di cui è nota la densità di probabilità (cioè,

Y = f(X), con f funzione deterministica). Il valore atteso di Y è fornito dalle espressioni:

1

E E j X j

j

Y f X f P

(3.20)

E E dXY f X f p

(3.21)

per i casi di variabili aleatorie discrete e continue, rispettivamente.

3.6 Momenti statistici di una variabile aleatoria

Si definisce momento statistico di ordine k (k ≥ 1) di una variabile aleatoria X il valore atteso della

potenza di ordine k di X:

m E 1,2,k

k X X k (3.22)

Sostituendo la (3.22) nelle (3.20) e (3.21), ponendo f(X) = Xk, si ottengono le espressioni:

1

m 1,2,k

k j X j

j

X P k

(3.23)

m d 1,2,k

k XX p k

(3.24)

Il momento statistico di ordine 1, X = m1[X], è detto valore medio (o media); il momento statistico

di ordine 2, X2 = m2[X], è detto valore quadratico medio (o media quadratica).

Si definisce momento statistico centrale di ordine k (k ≥ 2) di una variabile aleatoria X la quantità:

E 2,3,k

k XX X k

(3.25)

Il momento statistico centrale di ordine 2, X2 = 2[X] è detto varianza, mentre la sua radice

quadrata, X, è detta deviazione standard.

I momenti statistici centrali sono legati ai momenti statistici da relazioni ricorsive. Arrestandosi

all’ordine 4, risultano:

2

2 2 1

3

3 3 2 1 1

2 4

4 4 3 1 2 1 1

m m

m 3m m 2m

m 4m m 6m m 3m

(3.26)

Nel caso in cui X è una variabile aleatoria continua, la media X = m1[X] rappresenta, da un punto di

vista grafico, la posizione (ascissa) del baricentro dell’area sottesa dalla densità di probabilità;

pertanto, la media misura la posizione della funzione di densità di probabilità rispetto all’asse reale.

La media ha la medesima dimensione (unità di misura) delle realizzazioni della variabile aleatoria.

Page 26: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

26

La varianza X2 = 2[X] rappresenta il momento d’inerzia dell’area sottesa dalla densità di

probabilità rispetto all’asse baricentrico; pertanto, la varianza rappresenta una misura di dispersione,

intono al valore medio, delle realizzazioni di una variabile aleatoria. La deviazione standard ha la

medesima dimensione delle realizzazioni della variabile aleatoria.

In accordo con le (3.26), media, varianza e media quadratica sono legate dalla relazione:

2 2 2

X X X (3.27)

Il rapporto fra deviazione standard e media è detto coefficiente di variazione:

XX

X

I

(3.28)

Il momento centrale di ordine 3, adimensionalizzato con la deviazione standard è detto skewness (o

coefficiente di asimmetria). Il momento centrale di ordine 4 adimensionalizzato con la deviazione

standard è detto kurtosis (o coefficiente di piattezza).

3 4

3 4skw ; kurt

X X

X XX X

(3.29)

Lo skewness è generalmente indicato con il simbolo 3. Frequentemente, al valore del kurtosis

definito dalla (3.29) si sottrae 3; in questo caso modo si ottiene un valore detto coefficiente di

eccesso (o eccesso di kurtosis), generalmente indicato con il simbolo 4.

3 4

3 43 4; 3

X X

X XX X

(3.30)

La Figura 3-17 mostra l’effetto della media e della deviazione standard sulla forma della densità di

probabilità. La media determina una traslazione della curva lungo l’asse delle ascisse, mentre la

deviazione standard controlla l’ampiezza della curva (alla quale corrisponde un abbassamento per

conservare l’area unitaria).

La Figura 3-18 mostra l’effetto di skewness e coefficiente di eccesso sulla forma della densità di

probabilità. La condizione 3 = 0 corrisponde ad una funzione simmetrica rispetto alla media; la

condizione 3 > 0 rappresenta la situazione in cui la densità di probabilità ha la coda di destra più

alta della coda di sinistra. Una variabile aleatoria avente 4 > 0 è detta supergaussiana e ha densità di

probabilità alta sulla moda (ascissa corrispondente al picco) e sulle code; una variabile aleatoria

avente 4 < 0 è detta subgaussiana e ha densità di probabilità bassa sulla moda e sulle code; il caso

4=0 corrisponde alla distribuzione Gaussiana che verrà descritta nel seguito. Per lo studio delle

code della distribuzione è generalmente conveniente diagrammare le funzioni di densità di

probabilità con ordinata in scala logaritmica, come mostrato in Figura 3-19 per i casi già discussi in

Figura 3-18.

È possibile dimostrare che il coefficiente di eccesso è inferiormente limitato a 4 = -2; tale valore è

attinto da variabili aleatorie con densità del tipo:

1

1 12

Xp (3.31)

Page 27: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

27

Una variabile aleatoria è detta standardizzata se è centrata rispetto alla sua media e scalata in modo

da avere varianza unitaria:

ˆ X

X

XX

(3.32)

da cui ovviamente risulta ˆ 0X

e ˆ 1X

.

(a) (b)

Figura 3-17. Densità di probabilità: influenza della media (a) e deviazione standard (b).

(a) (b)

Figura 3-18. Densità di probabilità: influenza skewness (a) e coefficiente di eccesso (b).

(a) (b)

Figura 3-19. Densità di probabilità (scala logaritmica): influenza skewness (a) e coefficiente di eccesso (b).

-4 -3 -2 -1 0 1 2 3 410

-3

10-2

10-1

100

, ,

pX(

),

p Y(

),

p Z(

)

-4 -3 -2 -1 0 1 2 3 410

-3

10-2

10-1

100

, ,

pX(

),

p Y(

),

p Z(

)

-4 -3 -2 -1 0 1 2 3 40

0.1

0.2

0.3

0.4

0.5

0.6

0.7

, ,

pX(

),

p Y(

),

p Z(

)

3 = 0

4 = -0.5

3 = 0

4 = 5

3 = 0

4 = 0

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

, ,

pX(

),

p Y(

),

p Z(

)

3 = -0.5

4 = 0

3 = 0.5

4 = 0

3 = 0

4 = 0

-6 -4 -2 0 2 4 60

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

,

pX(

),

p Y(

)

X = 0

X = 1

Y = 0

Y = 2

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

,

pX(

),

p Y(

)

X = 0

X = 1

Y = 1

Y = 1

Page 28: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

28

I momenti statistici della variabile aleatoria X possono essere stimati a partire da un insieme di sue

realizzazioni xj (j = 1,…,n) attraverso un’espressione analoga alla (3.19)

1

1m E

nk k

k j

j

X X xn

(3.33)

3.7 Funzione caratteristica di una variabile aleatoria continua*

Si definisce funzione caratteristica (o funzione generatrice dei momenti) della variabile aleatoria X,

la funzione a valori complessi:

iE exp i e dX XX p

(3.34)

dove l’argomento è definito in ℝ. In base alla (3.34), la funzione caratteristica è la trasformata di

Fourier della densità di probabilità, pertanto essa determina completamente la struttura

probabilistica di X.

La funzione caratteristica può essere rappresentata attraverso la serie di McLaurin:

1 0

d10

! d

kkX

X X kk k

(3.35)

Operando per derivazione sulla (3.34), i termini della (3.35) risultano nella forma:

0

0 1

di E i m 1,2,

d

X

kk k k

kkX X k

(3.36)

che, sostituendo nella (3.35), forniscono un’espressione della funzione caratteristica in termini di

momenti statistici.

1

i1 m

!

kk

X k

k

Xk

(3.37)

La (3.37) dimostra che, conoscendo i momenti statistici fino all’ordine infinito, è possibile

rappresentare la funzione caratteristica e quindi la densità di probabilità. In questo senso, la

conoscenza dei momenti statistici è equivalente alla conoscenza della distribuzione di probabilità,

quindi determina completamente la struttura probabilistica della variabile aleatoria.

3.8 Cumulanti*

Si definisce log-funzione caratteristica ΨX(θ) della variabile aleatoria X il logaritmo naturale della

funzione caratteristica ΦX(θ); tale funzione può essere espansa attraverso la serie di McLaurin come

segue:

1 0

1

d1log

! d

i

!

jjX

X X jj

j

j

j

j

Xj

(3.38)

Page 29: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

29

i cui coefficienti κj[X] sono detti cumulanti. I cumulanti sono legati ai momenti statistici ed ai

momenti centrali attraverso le relazioni ricorsive riportate in appendice A; tali relazioni, fino

all'ordine 4, hanno la forma:

1 1

2

2 2 1 2

2

3 3 2 1 1 3

2 2 4 2

4 4 2 3 1 2 1 1 4 2

m

m m

m 3m m 2m

m 3m 4m m 12m m 6m 3

(3.39)

Si osserva che il quarto cumulante adimensionalizzato rispetto alla deviazione standard corrisponde

al coefficiente di eccesso definito in (3.30).

3.9 Entropia*

Sia X una variabile aleatoria discreta con funzione di probabilità PX(ξj). Si definisce entropia (di

Shannon) la quantità:

logX j X j

j

H X P P (3.40)

dove la sommatoria è estesa a tutti i valori ξj che X può assumere. Considerando la funzione

logf p p p diagrammata in Figura 3-20, l'entropia può essere generalizzata nella forma:

X j

j

H X f P (3.41)

Figura 3-20. Funzione f(p) nell'intervallo [0,1]

Dalla (3.41) si osserva che H è un numero non negativo ed è nullo nel caso in cui X sia

deterministica (un particolare ξj ha probabilità uno e tutti gli altri hanno probabilità zero). In

generale H è piccola se un valore ξj ha una probabilità di occorrenza dominante, mentre H è grande

se molti valori ξj hanno probabilità di occorrenza comparabile.

In termini qualitativi, l'entropia misura il grado di "aleatorietà" di una variabile aleatoria o, in

termini più corretti, specifica quanto una variabile aleatoria è strutturata.

In teoria dell'informazione l'entropia è utilizzata per quantificare il contenuto di informazione di un

canale digitale.

0 0.2 0.4 0.6 0.8 1

p

f(

p)

Page 30: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

30

Sia ora X una v.a. continua; si definisce entropia (differenziale) la quantità:

logX XH X p p d (3.42)

dove l'integrazione è estesa all'intero dominio di definizione di pX. A differenza dell'entropia di

Shannon, l'entropia integrale può assumere valori negativi (dato che la funzione densità di

probabilità può essere maggiore di uno); da un punto di vista qualitativo possiede il medesimo

significato.

3.10 Trasformazioni lineari di variabili aleatorie

Sia X una variabile aleatoria continua e Y una sua trasformazione lineare tale che Y = aX + b con

,a b . Le rispettive distribuzioni di probabilità sono legate dalla relazione

Y X

b bF P Y P aX b P X F

a a

(3.43)

Segue che le densità di probabilità sono legate dalla relazione

1 1Y X

Y Xb

a

dF dF bp p

d a d a a

(3.44)

Le funzioni caratteristiche di X e Y ed i loro logaritmi sono legate dalle relazioni

E exp i E exp i

E exp i exp i exp i

Y

X

Y aX b

aX b a b

(3.45)

logY Y X a i b (3.46)

Dalla (3.46) segue che i cumulanti delle due variabili aleatorie X e Y sono legati nel seguente modo

1 1

2j

j j

Y a X b

Y a X j

(3.47)

Nel caso particolare in cui b = 0 la (3.47) vale anche per i momenti e assume la forma

j

j jm aX a m X (3.48)

La (3.48) dimostra che momenti e cumulanti di ordine j sono operatori omogenei di grado j.

Infine l'entropia di X e Y si relazionano nel seguente modo

Page 31: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

31

log

1 1 log

1 log

log

Y Y

X X

X X

H Y p p d

X b X bp p d

a a a a

p p da

H X a

(3.49)

da cui si deduce che l'entropia aumenta con la scala a ed è invariante rispetto alla posizione. In altri

termini, fissata la forma della distribuzione di probabilità, l'entropia cresce all'aumentare della

varianza ed è invariante rispetto al valor medio.

3.11 Trasformazioni non-lineari di variabili aleatorie*

Sia X una variabile aleatoria continua e Y = g(X) con g funzione monotona crescente. La funzione di

distribuzione FY può essere relazionata a FX imponendo che P Y sia pari a 1P X g

dove g-1

è la funzione inversa di g (Figura 3-21).

Figura 3-21. Trasformazione monotona crescente.

Da questa uguaglianza discende la relazione:

1

Y XF F g (3.50)

che in termini di densità di probabilità risulta:

1

1 11Y X

Y X

g

dF dF dg dgp p g

d d d d

(3.51)

Se la funzione g è monotona decrescente la relazione che lega FX e FY può essere ricavata

eguagliando P Y e 1P X g (Figura 3-22).

Page 32: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

32

Figura 3-22. Trasformazione monotona decrescente.

Da questa uguaglianza discendono le relazioni

1

1

1

1Y X

Y X

F F g

dgp p g

d

(3.52)

Le (3.52) possono essere unificate per comprendere sia il caso di funzione crescente che

decrescente attraverso la relazione:

1

1

Y X

dgp p g

d

(3.53)

Le entropie di X e Y sono legate dalla relazione

1 1

1 1

1

log

log

log

log

Y Y

X X

X X

g

X

H Y p p d

dg dgp g p g d

d d

dgp p d

d

dgH X p d

d

(3.54)

L'integranda nella (3.54) fornisce un contributo positivo all'entropia per i valori di ξ per cui

1dg d , mentre fornisce un contributo negativo quando 1dg d . Questo effetto è pesato

dalla densità di probabilità pX.

3.12 Modelli di variabili aleatorie

Nel presente capitolo si introducono alcuni modelli probabilistici rilevanti per lo studio della

meccanica delle vibrazioni e dell’affidabilità strutturale. Il modello normale (o Gaussiano) è

descritto con maggiore enfasi in virtù delle sue caratteristiche probabilistiche e della sua importanza

applicativa.

Page 33: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

33

3.12.1 Distribuzione normale (o Gaussiana)

Una variabile aleatoria X ha distribuzione normale (o Gaussiana) se la sua densità di probabilità è

nella forma:

2

1 1exp

22

XX

XX

p

(3.55)

Una variabile aleatoria X, con distribuzione normale X e varianza X2 è formalmente definita

attraverso l’espressione X = N(X, X2). La Figura 3-23 mostra la densità di probabilità di una

variabile aleatoria normale standardizzata; nel piano semilogaritmico la curva è costituita da una

parabola.

(a) (b)

Figura 3-23. Densità di probabilità normale: ordinata in scala decimale (a) e logaritmica (b).

La distribuzione di probabilità è data dall’espressione:

2

1 1exp d

22

XX

XX

F

(3.56)

che può essere scritta in forma analitica attraverso la funzione di errore

1

1 erf2

XX

X

F

(3.57)

Per ispezione della (3.55) è immediato verificare che se Y = aX + b, con a e b costanti

deterministiche e X = N(X, X2), allora Y = N(aX + b, a

2X

2).

La funzione caratteristica di una variabile Gaussiana può essere ottenuta calcolando la trasformata

di Fourier della (3.55) e risulta:

2 21exp i

2X X X

(3.58)

Se X è una variabile aleatoria Gaussiana standardizzata, X = N(0,1), allora densità di probabilità e

distribuzione di probabilità risultano:

-4 -3 -2 -1 0 1 2 3 40

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

pX(

)

-4 -3 -2 -1 0 1 2 3 410

-4

10-3

10-2

10-1

100

pX(

)

Page 34: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

34

21 1exp

22Xp

(3.59)

21 1

exp d 1 erf2 22

XF

(3.60)

21exp

2X

(3.61)

Si osserva che la funzione caratteristica di una variabile Gaussiana standardizzata è formalmente

identica alla corrispondente funzione densità di probabilità.

3.12.2 Distribuzione uniforme

Una variabile aleatoria continua ha distribuzione uniforme se la sua densità di probabilità è espresso

nella forma:

per1/

altrove0X

a bb ap a b

(3.62)

Il modello uniforme è utilizzato quando una variabile aleatoria può assumere valori equiprobabili in

un intervallo chiuso [a, b]. La funzione di distribuzione può essere ottenuta dalla (3.62) per

integrazione e risulta:

0 per

/ per

1 per

X

a

F a b a a b

b

(3.63)

La media e la varianza di una variabile aleatoria uniforme risultano:

/ 2X a b (3.64)

22 /12

Xb a (3.65)

Figura 3-24. Densità e distribuzione di probabilità di una variabile aleatoria uniforme.

3.12.3 Modello log-normale

Una variabile aleatoria X è della log-normale se Y = log(X) ha distribuzione normale. La densità di

probabilità di una variabile log-normale è espressa nella forma:

0 a b0

1/(b-a)

pX(

)

0 a b0

1

FX(

)

Page 35: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

35

2

2

log1exp

22X

mp

ss

(3.66)

dove m e s sono i parametri della distribuzione (e rappresentano, rispettivamente, la media e la

deviazione standard di Y). La media e la varianza di X risultano:

2

2 2 2

exp2

exp 2 exp 1

X

X

sm

m s s

(3.67)

Le equazioni (3.67) possono essere invertite nella forma:

2

2 2

22

2

log

log 1

X

X X

X

X

m

s

(3.68)

Figura 3-25. Densità e distribuzione di probabilità di una variabile aleatoria log-normale (m = 1, s = 1).

3.12.4 Modello di Rayleigh

Una variabile aleatoria X è detta di Rayleigh se ha densità di probabilità nella forma:

2

2 2exp

2Xp

b b

(3.69)

dove b è il parametro della distribuzione. A partire dalla (3.69) è possibile dimostrare le seguenti

proprietà delle variabili aleatorie di Rayleigh:

2

21 exp

2XF

b

(3.70)

22 12

k

k

k

km X b

(3.71)

0 2 4 6 8 10 12 14 16 18 200

0.05

0.1

0.15

0.2

0.25

pX(

)

0 2 4 6 8 10 12 14 16 18 200

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

FX(

)

Page 36: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

36

2

X b

(3.72)

2 24

2x b

(3.73)

3 3

2

2 3

4

X

(3.74)

2

4 2

6 24 16

4X

(3.75)

1 ln22

bH

(3.76)

dove () è la funzione Gamma e ≃ 0.577 è la costante di Eulero-Mascheroni.

Figura 3-26. Densità e distribuzione di probabilità di una variabile aleatoria di Rayleigh (b = 1).

3.12.5 Modello di Gumbel

Una variabile aleatoria X è detta di Gumbel se ha densità di probabilità nella forma:

1

exp expXp

(3.77)

dove e (>0) sono i parametri della distribuzione. Sulla base della (3.77) è possibile dimostrare le

seguenti proprietà:

exp expXF

(3.78)

X (3.79)

2

2 2

6X

(3.80)

ln 1H (3.81)

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

0.1

0.2

0.3

0.4

0.5

0.6

0.7

pX(

)

0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 50

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

FX(

)

Page 37: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

37

3.12.6 Modello di binomiale

Si consideri una successione di variabili aleatorie discrete, Xk (k = 1,2,…), aventi spazio

campionario Ω = {0, 1}. Si assuma che gli eventi legati a ogni possibile coppia di variabili aleatorie

Xh e Xk (h,k = 1,2,…; hk) siano statisticamente indipendenti; sia inoltre P(Xk = 1) = p.

La successione Xk è detta sequenza di Bernoulli. La funzione di probabilità di una variabile aleatoria

di Bernoulli risulta dunque:

0 0 1

1 1

k

k

X k

X k

P P X p

P P X p

(3.82)

Sia Ym una variabile aleatoria discreta definita come la somma dei primi m termini di una sequenza

di Bernoulli (Figura 3-27):

1

m

m k

k

Y X

(3.83)

Figura 3-27. Sequenza di Bernoulli (blu) e corrispondente sequenza binomiale (rosso).

La funzione di probabilità di Ym può essere ottenuta operando in modo ricorsivo. Per m=1, la

funzione di probabilità di Ym = Y1 risulta:

1

1

1 1

1 1

0 0 0 1

1 1 1

Y

Y

P P Y P X p

P P Y P X p

(3.84)

Analogamente, per m=2, la funzione di probabilità di Ym = Y2 risulta (per il teorema dell’evento

totale e per l’ipotesi di indipendenza statistica fra le variabili di Bernoulli):

2

2

2

2

2 1 2

2 1 2 1 2

2

2 1 2

0 0 0 0 1

1 1 1 0 0 1 2 1

2 2 1 1

Y

Y

Y

P P Y P X X p

P P Y P X X X X p p

P P Y P X X p

(3.85)

Le (3.84) e (3.85) possono essere generalizzate, per un m qualsiasi in , attraverso l’espressione:

0 5 10 15 20 25 300

1

2

3

4

5

6

7

8

9

k

Xk,

Yk

Page 38: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

38

1m

m

Y m

mP P Y p p

(3.86)

dove il binomio di Newton è espresso nella forma:

!

! !

m m

m

(3.87)

Sostituendo la (3.86) nell’espressione di media e varianza risulta:

2 1

m

m

Y

Y

mp

mp p

(3.88)

da cui si evince che la media e la varianza di una variabile binomiale sono lineari in m.

Esempio 3.5. Sequenze di Bernoulli e variabili binomiali

Il codice riportato in Figura 3-28 simula una serie di sequenze di Bernoulli di lunghezza n e

la variabile Binomiale Ym ottenuta per m = n. La stima di media (Figura 3-29a), varianza

(Figura 3-29b) e funzione di probabilità (Figura 3-30) è effettuata applicando la definizione

frequentista di probabilità. I risultati della stima sono confrontati con quanto previsto dal

modello binomiale.

Nseq = 10000; % numero realizzazioni

n = 30; % numero esperimenti di Bernoulli

p = 0.2; % prob. di successo esperimenti di Bernoulli

X = rand(n,Nseq) >= (1-p); % sequenza di Bernoulli

Y = cumsum(X); % sequenza binomiale

m = n; % considero m = n esperimenti

% stima funzione di probabilità dai dati

[PY_data, eta_data] = pf1(Y(m,:));

% modello binomiale

eta = 0:m; % ascissa per PY

PY_bi = factorial(m)./factorial(eta)./factorial(m-eta) .* (p.^eta) .* ((1-

p).^(m-eta));

figure(1)

plot(1:n,mean(Y,2),'--.b', 1:n,(1:n)*p,'-r')

xlabel('m')

ylabel('\mu_{Y_m}')

figure(2)

plot(1:n,var(Y,[],2),'--.b', 1:n,(1:n)*(1-p)*p,'-r')

xlabel('m')

ylabel('\sigma^2_{Y_m}')

figure(3)

bar(eta_data,PY_data)

hold on

plot(eta, PY_bi,'-*r')

hold off

xlabel('\eta')

ylabel('p_{Y_m(\eta)}')

xlim([0 20])

Figura 3-28. Codice Matlab per simulazione di sequenze di Bernoulli e binomiali; stima di

media, varianza e funzione di probabilità della variabile binomiale.

Page 39: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

39

(a) (b)

Figura 3-29. Media (a) e varianza (b) della variabile binomiale simulata nel codice di Figura

3-28: stima dai dati (blu), modello (rosso).

Figura 3-30. Funzione di probabilità della variabile binomiale simulata nel codice di Figura

3-28: stima dai dati (blu), modello (rosso).

3.12.7 Modello di Poisson

Una variabile aleatoria discrete Y ha distribuzione di Poisson se la sua funzione di probabilità è

nella forma:

exp 0,1,!

YP

(3.89)

Dalla (3.89) risulta, evidentemente, che PY(0) = e-

; inoltre Y = Y2 = . Al variare del parametro ,

la funzione di probabilità assume le forme mostrate in Figura 3-31.

0 5 10 15 20 25 300

1

2

3

4

5

6

m

Y

m

0 5 10 15 20 25 300

0.5

1

1.5

2

2.5

3

3.5

4

4.5

5

m

2 Y

m

0 2 4 6 8 10 12 14 16 18 200

0.02

0.04

0.06

0.08

0.1

0.12

0.14

0.16

0.18

0.2

pY

m(

)

Page 40: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

40

Figura 3-31. Funzione di probabilità di una variabile di Poisson al variare del parametro .

Una variabile aleatoria di Poisson, Y, può essere interpretata come il limite, per m , di una

sequenza binomiale Ym derivata da una sequenza di Bernoulli Xk avente probabilità di successo

p0. In tal caso la variabile Y è definita dal parametro = mp.

La Figura 3-31 mostra la funzione di probabilità di tre variabili aleatorie binomiali definite,

rispettivamente, dai parametri m = 10, 20 e 100 e p = 0.50, 0.25, 0.05 (blu) e di una variabile

aleatoria di Poisson definita dal parametro = 5.

Figura 3-32. Convergenza di variabili binomiali (blu) a una variabile di Poisson (rosso).

3.13 Rappresentazioni approssimate della densità di probabilità*

Si affronta il problema di definire un'approssimazione della densità di probabilità di una variabile

aleatoria sulla base di limitate informazioni sintetiche, come ad esempio un numero finito di

momenti statistici e cumulanti.

3.13.1 Espansione in serie di funzioni ortogonali*

Sia X una variabile aleatoria continua e X la sua versione standardizzata; Xp e X

p sono le

rispettive densità di probabilità. Sia inoltre Gp la densità di probabilità di una variabile

Gaussiana standardizzata, ovvero

2

21

2Gp e

(3.90)

0 2 4 6 8 10 120

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0.4

0.45

0.5

PY

( )

= 0.7

= 2.5

= 5.0

0 1 2 3 4 5 6 7 8 9 100

0.05

0.1

0.15

0.2

0.25

PY

m(

),

PY

( )

m = 20

m = 100

m = 10

Page 41: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

41

Se X

p ha le code sufficientemente basse (è sufficiente che 2

GXp p L ), allora la seguente

serie di funzioni ortogonali è uniformemente convergente in :

0

Xj j

jG

pa

p

(3.91)

dove Ψj son un insieme di funzioni ortogonali in che può essere definito come segue:

1

!j j GH p

j (3.92)

in cui Hj(ξ) sono polinomi di Hermite (Appendice B).

Le funzioni definite in (3.92) sono ortonormali in , cioè:

j k jkd

(3.93)

Sfruttando la (3.93), i coefficienti aj della serie (3.91) possono essere valutati attraverso la

relazione:

ˆ 1

!

1 ˆ !

Xj j X j

G

j

pa d p H d

jp

E H Xj

(3.94)

I coefficienti della serie (3.91) sono proporzionali al valore atteso dei polinomi di Hermite in X .

Sostituendo la (3.92) e la (3.94) nella (3.91), X

p assume la forma:

ˆ

1

1

!G j jX

j

p p b Hj

(3.95)

dove i coefficienti

ˆ! j j jb j a E H X (3.96)

sono detti momenti di Hermite o quasi-momenti.

I primi momenti di Hermite hanno la forma:

Page 42: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

42

0

1

2

2

3

3 3 3

4 2

4 4 4

1

ˆ 0

ˆ 1 0

ˆ ˆ ˆ3

ˆ ˆ ˆ6 3

b

b E X

b E X

b E X X X X

b E X X X X

(3.97)

In generale i momenti di Hermite sono legati ai cumulanti dalla relazione ricorsiva:

3

3

1 !

! 1 !

j

j j j r r

r

jb k k b

r j r

(3.98)

Nota la densità di probabilità della variabile standardizzata X , pX(ξ) può essere calcolata attraverso

la (3.44)

1

1

!

G

X j j

j

p

p b Hj

(3.99)

dove μ e σ sono la media e la deviazione standard di X. La (3.99) è chiamata serie di Gram-Charlier

tipo A.

3.13.2 Principio di massima entropia*

Si suppongo di conoscere la variabile aleatoria X attraverso le grandezze

d E 1,...,j X j jc p F F X j n (3.100)

dove Fj sono funzioni arbitrarie tali da far convergere l'integrale nella (3.100). La conoscenza di un

numero finito di cj non permette di stimare il valore esatto di Xp . Tuttavia se p0(ξ) è la densità

di probabilità compatibile con il vincolo (3.100) che massimizza l'entropia di X, allora p0

rappresenta la v.a. compatibile con i vincoli meno strutturata possibile. In altre parole, il principio di

massima entropia fornisce una densità di probabilità, compatibile con i dati, facendo meno

assunzioni possibili sulla sua struttura. La densità di probabilità che soddisfa il principio di massima

entropia è nella forma:

0

0

expn

j j

j

p A a F

(3.101)

dove A e aj sono costanti determinate imponendo le (3.100) e la condizione di normalizzazione.

Se si sceglie Fj(ξ) = Hj(ξ), la (3.101) riscritta per la variabile standardizzata X , è chiamata serie di

Gram-Charler tipo C e assume la forma

ˆ

0

expn

j jXj

p A H

(3.102)

dove γj sono costanti da determinare. A tale scopo, si considera una funzione f(ξ) che cresce per

|ξ|→∞ più lentamente di un'esponenziale. Sotto questa ipotesi sussiste la relazione

Page 43: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

43

ˆ ˆ 0X X

f dp p df

(3.103)

che può essere facilmente dimostrata attraverso la formula di integrazione per parti. Scegliendo

1if H , sostituendo la (3.102) nella (3.103) e sfruttando le proprietà dei polinomi di

Hermite (Appendice B) risulta:

ˆ ˆ1 1 2

1

1 0n

j i j iX Xj

j H H p d i H p d

(3.104)

È possibile dimostrare che il prodotto di polinomi di Hermite nel primo integrale può essere

espresso nella forma:

2

1 1 1, 1,

0

1

!

i j

i j i j k k

k

H H A Hk

(3.105)

dove

, ,, ,

1 se pari e , ,

1

0 altrimenti

p q kp q k

p q k p q kA

(3.106)

in cui 2p q k .

Sostituendo la (3.105) nella (3.104) si ottengono le relazioni:

2

1, 1, 2

1 0

11 0 1,2,...,

!

i jn

j i j k k i

j k

j A b i b i nk

(3.107)

dove bj sono i momenti di Hermite di X . La (3.107) rappresenta un sistema di n equazioni lineari

nei coefficienti γj (j = 1,…,n) la cui valutazione richiede la conoscenza dei momenti di Hermite fino

all'ordine 2n-2. Una volta calcolati i coefficienti γj (j = 1,…,n) risolvendo le (3.107) la densità di

probabilità di X è ottenuta nella forma:

0

1

expn

X j j

j

ep H

(3.108)

dove γ0 è ottenuto imponendo la condizione di normalizzazione.

3.13.3 Trasformazione non-lineare di variabili Gaussiane*

Sia X una variabile aleatoria continua di cui sono noti i momenti di Hermite fino all'ordine n+1. La

corrispondente v.a. standardizzata X è approssimata attraverso l'espressione:

0

ˆn

j j

j

X a H U

(3.109)

dove U è una variabile Gaussiana standard.

Page 44: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

44

I coefficienti della sommatoria sono calcolati imponendo l'uguaglianza dei momenti di Hermite dei

due membri della (3.109) fino all'ordine n+1

0

ˆ 1,..., 1n

k k j j

j

E H X E H a H U n n

(3.110)

Svolgendo i prodotti impliciti nel membro di destra della (3.110) si ottengono polinomi in U fino al

grado nk nella forma:

0

20

! 1,..., 1

2 !2

nkjk

k j jj

nkk

jijj dispari

m Ub

E U

jk n

j

(3.111)

In cui si è impiegata la formula che fornisce i momenti statistici di prodotti di variabili aleatorie

Gaussiane (Appendice E). I coefficienti αj(k)

sono legati ai coefficienti aj da relazioni polinomiali

piuttosto complesse.

Nel caso particolare n = 3 le (3.111) assumono la forma esplicita:

1 0

2 2 2

2 1 2 3

2 2 2

3 3 2 1 1 3 2 3

4 3 2 2 2 2 2

4 4 1 1 3 1 2 1 3 1

2 3 4 2 2

1 2 3 1 3 2 2 3

2 4

2 3

0

0 2 6 1

2 3 18 4 54

3 24 60 252 6

576 1296 60 2232

12 3348 3

b a

b a a a

b X a a a a a a

b X a a a a a a a a

a a a a a a a a

a a

2

36 3a

(3.112)

I coefficienti a0 - a3 possono essere calcolati attraverso le (3.112) dati skewness e coefficiente di

eccesso.

La densità di probabilità di X è ottenuta applicando la (3.53):

1

21

ˆ

1 1exp

22X

dgp g

d

(3.113)

Nel caso n = 3, la funzione g-1

e la sua derivata prima possono essere ottenute in forma chiusa:

Page 45: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

45

1 1

3 32 21

21

32

21

2

32

2

12

1

H H H

HH

H

H

H

g c c a

dg bc

d a c

cc

(3.114)

dove

2

3

1

3

32

3

3

1

H

H

H H H

aa

a

ab

a

c b a

(3.115)

La densità di probabilità della variabile X è ottenuta a partire dalla (3.113) nella forma:

12

11 1exp

22

X

XXX

XX

dg

p gd

(3.116)

Il modello di densità di probabilità fornito dalle (3.114)-(3.116) è chiamato Moment-Based Hermite

Transformation (MBHT).

La Figura 3-33 mostra la densità di probabilità di una variabile aleatoria stimata a partire dai primi

quattro momenti di Hermite mediante i tre metodi sopra discussi. La densità Gaussiana è aggiunta

per confronto.

Figura 3-33. Densità di probabilità stimata mediante serie di Gram-Charlier A e C e mediante MBHT.

-3 -2 -1 0 1 2 30

0.1

0.2

0.3

0.4

0.5

pX(

)

Dati

Gram-Charlier A

Gram-Charlier C

MBHT

Gaussiana

-10 -8 -6 -4 -2 0 2 4 6 8 1010

-6

10-5

10-4

10-3

10-2

10-1

100

pX(

)

Dati

Gram-Charlier A

Gram-Charlier C

MBHT

Gaussiana

Page 46: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

46

3.14 Rappresentazione della relazione probabilistica fra due grandezze

Nei paragrafi precedenti si è discusso su come rappresentare, probabilisticamente, variabili aleatorie

continue e discrete. In molte applicazioni è necessario rappresentare contemporaneamente più

variabili aleatorie e definirne le mutue relazioni statistiche che le governano. Ad esempio, ha senso

chiedersi quale sia la relazione statistica che intercorre tra il modulo elastico di un provino di

acciaio e la sua tensione si snervamento, oppure fra la velocità del vento (in un determinato luogo,

ad un certo istante) e la sua direzione.

Al fine di sviluppare strumenti per rappresentare la mutua relazione probabilistica fra diverse

grandezze, si considerino due variabili aleatorie, X e Y, con valori in . Per semplicità si assuma

che X e Y siano variabili aleatorie continue.

3.14.1 Distribuzione congiunta di probabilità

La distribuzione congiunta di probabilità, FXY(,), delle variabili aleatorie X e Y è, per definizione,

la probabilità che si verifichi l’evento X Y per la generica coppia di valori e in :

,XYF P X Y (3.117)

In questo contesto, le distribuzioni di probabilità FX() e FY() delle variabili aleatorie X e Y

(considerate separatamente) sono chiamate distribuzioni marginali di probabilità. In generale, la

conoscenza delle distribuzioni marginali non è sufficiente a definire la distribuzione congiunta;

viceversa, nota la distribuzione congiunta, le marginali risultano:

,

,

X XY

Y XY

F P X Y F

F P X Y F

(3.118)

La distribuzione congiunta di probabilità gode delle seguenti proprietà (dimostrabili facilmente

attraverso la definizione (3.117) e gli assiomi della teoria della probabilità):

, 0

, 0

, 0

, 1

XY

XY

XY

XY

F P X Y P

F P X Y P

F P X Y P

F P X Y P

(3.119)

Inoltre, con semplici passaggi è possibile dimostrare che FXY(,) è una funzione non-decrescente

di , :

2 1 2 1

2 1 2 1

, ,

, ,

XY XY

XY XY

F F

F F

(3.120)

cioè la distribuzione congiunta di probabilità è una funzione non-decrescente di e .

3.14.2 Densità congiunta di probabilità

Si consideri le variabili aleatorie X e Y definite dalla distribuzione congiunta di probabilità FXY(,),

supposta derivabile per ogni e in , salvo che, al più, in insiemi di misura nulla (punti o linee).

Si definisce densità di probabilità congiunta:

Page 47: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

47

2 ,

, XY

XY

Fp

(3.121)

Per la (3.120), la densità di probabilità risulta non-negativa. La (3.121) può essere invertita

applicando il teorema fondamentale del calcolo integrale (in forma bi-dimensionale)

, , d dXY XYF p

(3.122)

per la quale il valore della distribuzione congiunta nel punto (, ) corrisponde al volume sotteso

dalla densità congiunta nel dominio definito dai punti (, ) con e .

(a) (b)

Figura 3-34. Distribuzione congiunta (a) e densità congiunta (b) di probabilità di due variabili aleatorie continue.

Applicando il teorema dell’evento totale, è possibile dimostrare le relazioni (Figura 3-35):

2 2

1 1

1 2 1 2 2 2 1 2

2 1 1 1

2 2 1 2 2 1 1 1, , , ,

, d d

XY XY XY XY

XY

P X Y P X Y P X Y

P X Y P X Y

F F F F

p

(3.123)

Figura 3-35. Rappresentazione grafica dell’equazione (3.123).

-10-5

05

10

-10

0

100

0.2

0.4

0.6

0.8

1

FX

Y(

,)

-10-5

05

10

-10

0

100

0.005

0.01

0.015

pX

Y(

,)

1

2

1 2

Page 48: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

48

Da cui discende, per l’assioma di normalizzazione della probabilità:

, d d 1XYp

(3.124)

Sostituendo la (3.122) nella prima delle (3.118) si ottiene l’espressione della distribuzione

marginale di probabilità nella forma:

, , d dX XY XYF F p

(3.125)

la quale, derivata rispetto a fornisce la densità marginale di probabilità:

, dX XYp p

(3.126)

Operando analogamente rispetto alla variabile , si ottiene la densità marginale di probabilità della

variabile aleatoria Y:

, dY XYp p

(3.127)

In maniera equivalente, le variabili aleatorie X e Y possono essere rappresentate attraverso la

funzione caratteristica congiunta

i

, E exp i i

e , d d

XY

XY

X Y

p

(3.128)

che corrisponde alla trasformata di Fourier bi-dimensionale della densità di probabilità congiunta.

Nota la funzione caratteristica congiunta, le funzioni caratteristiche marginali possono essere

ottenute annullando uno dei due argomenti della funzione:

,0

0,

X XY

Y XY

(3.129)

Si definisce log-funzione caratteristica congiunta il logaritmo naturale di XY

, log ,XY XY (3.130)

3.14.3 Variabili aleatorie statisticamente indipendenti

Due eventi A e B sono definititi statisticamente indipendenti se la probabilità composta della loro

occorrenza è pari al prodotto della probabilità di occorrenza dei due eventi considerati

singolarmente (P(AB) = P(A)P(B)). Due variabile aleatorie X e Y si definiscono statisticamente

indipendenti se gli eventi {X } e {Y } sono statisticamente indipendenti. Da questa

definizione segue immediatamente che, X e Y sono statisticamente indipendenti se e solo se la

distribuzione (densità) congiunta di probabilità è pari al prodotto delle distribuzioni (densità)

marginali. Lo stesso vale per le funzioni caratteristiche.

Page 49: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

49

,

,

,

XY X Y

XY X Y

XY X Y

F F F

p p p

(3.131)

La log-funzione caratteristica di due variabili aleatorie statisticamente indipendenti è la somma

delle log-funzioni caratteristiche marginali

,XY X Y (3.132)

3.14.4 Valore atteso di funzioni di due variabili aleatorie

Nel paragrafo 3.5 si introduce il concetto di valore atteso, definito come la media di tutti i possibili

valori realizzabili da una variabile aleatoria X, pesati attraverso la loro probabilità di occorrenza.

Attraverso l’equazione (3.21) il concetto di valore atteso è esteso ad una variabile aleatoria Y = f(X)

definita, a partire dalla variabile aleatoria X, attraverso la funzione deterministica f.

In questo paragrafo si considera una variabile aleatoria Z definita attraverso una funzione

deterministica f(X,Y) sulla base di due variabili aleatorie X e Y. Il valore atteso della variabile

aleatoria Z è definito come la media dei possibili valori = f(,) assunti da Z, pesati attraverso la

loro probabilità di occorrenza pXY(,)dd:

E E , , , d dXYZ f X Y f p

(3.133)

Dalla seconda delle (3.131) discende che se X e Y sono statisticamente indipendenti, allora

E E Ef X g Y f X g Y (3.134)

per ogni funzione f e g per qui i valori attesi esistono.

3.14.5 Somma di variabili aleatorie

Sia Z = X + Y, con X e Y due variabili aleatorie. La funzione caratteristica di Z può essere espressa

nella forma:

i ii ie d E e E e e , d d ,X Yz

Z Z XY XYp p

(3.135)

da cui si evince che:

, dZ Xp p

(3.136)

Se X e Y sono statisticamente indipendenti, allora:

dZ X Yp p p

(3.137)

Z X Y (3.138)

Z X Y (3.139)

Page 50: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

50

1,2,...j j jZ X Y j (3.140)

3.14.6 Correlazione e covarianza

Date due variabili aleatorie X e Y, si definisce correlazione il valore atteso del loro prodotto:

E , d dXY XYR XY p

(3.141)

Dalla definizione si evince che la correlazione di X rispetto a X stessa coincide con la media

quadratica (RXX = X2).

Si definisce covarianza il valore atteso del prodotto delle variabili X e Y centrate rispetto alla loro

media:

E , d dXY X Y X Y XYC X Y p

(3.142)

La covarianza della variabile aleatoria X rispetto a se stessa coincide con la varianza (CXX = X2).

Correlazione e covarianza sono legate dalla relazione:

XY XY X YR C (3.143)

Si definisce covarianza normalizzata (o coefficiente di correlazione) il rapporto:

ˆ ˆEXYXY

X Y

CXY

(3.144)

dove X e Y sono le versioni standardizzate di X e Y.

Le variabili aleatorie X e Y sono dette non-correlate se le loro covarianza CXY è nulla. Se X e Y sono

statisticamente indipendenti, allora sono anche non-correlate. Questa affermazione può essere

facilmente verificata ricordando che se X e Y sono statisticamente indipendenti, allora la loro

densità di probabilità congiunta può essere fattorizzata nella forma: pXY(,) = pX()pY().

Sostituendo nella (3.142) si dimostra immediatamente che CXY=0.

L’implicazione opposta non è, in generale, vera: due variabili aleatorie non-correlate non sono, in

generale, statisticamente indipendenti.

La covarianza e la covarianza normalizzata sono limitate dalle relazioni:

1

XY X Y

XY

C

(3.145)

Nelle quali l’uguaglianza si verifica nel caso X è Y sono legate da una relazione lineare del tipo

Y=aX + b. La (3.145) può essere dimostrata notando che la seguente disuguaglianza è valida per

ogni a in

2

E 0X Ya X Y a

(3.146)

Page 51: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

51

Espandendo l’espressione contenuta nel valore atteso e utilizzando le definizioni di varianza e

covarianza, si ottiene la disequazione di secondo grado:

2 2 22 0X XY Ya C a a (3.147)

La quale è soddisfatta a condizione che il discriminante sia minore o uguale a zero; dunque:

2 2 2 0XY X YC (3.148)

da cui discendono banalmente le (3.145).

Esempio 3.6. Realizzazioni di una coppia di variabili aleatorie

Si considerano le variabili aleatorie X e Y caratterizzate dai seguenti parametri: X = 10, Y

= 20, X2 = 10, Y

2 = 5. La Figura 3-36 mostra 1000 realizzazioni di X e Y per diversi

valori di covarianza: CXY = 0 (a), CXY = 3 (b), CXY = 7 (c), CXY = -5 (d). A questi quattro casi

corrispondono i valori di covarianza normalizzata XY = 0, 0.42, 0.99, -0.71.

(a) (b)

(c) (d)

Figura 3-36. Realizzazioni di una coppia di variabili aleatorie.

Esempio 3.7. Coefficiente di correlazione e dipendenza lineare

Il coefficiente di correlazione può essere interpretato come una misura della dipendenza

lineare che intercorre fra due variabili aleatorie. In particolare, due variabili X e Y sono

legate da una legge deterministica lineare se e solo se il loro coefficiente di correlazione è

1. Infatti, se Y = aX con aℝ deterministico, allora risulta:

2 22 2 2 2

2 2

E E

E E

E E

Y X

Y Y X X

xy X Y X X

Y aX a

Y a X a

C X Y a X a

(3.149)

0 2 4 6 8 10 12 14 16 18 2012

14

16

18

20

22

24

26

28

x

y

2 4 6 8 10 12 14 16 18 20

14

16

18

20

22

24

26

28

x

y

0 2 4 6 8 10 12 14 16 18

14

16

18

20

22

24

26

x

y

0 2 4 6 8 10 12 14 16 18

14

16

18

20

22

24

26

x

y

Page 52: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

52

Dalla seconda delle (3.149) si deduce che Y = |a|X, quindi sostituendo nella (3.144) si

ottiene:

sgnXY

aa

a (3.150)

La Figura 3-37 mostra 1000 realizzazioni di una coppia di variabili aleatorie perfettamente

non-correlate, ma legate da un’evidente relazione statistica (non-lineare).

Figura 3-37. Coppia di variabili aleatorie con legame non-lineare.

3.14.7 Modello normale bi-variato

Due variabili aleatorie X e Y sono dette congiuntamente normali se la loro densità di probabilità

congiunta è fornita dalla relazione:

2

2 2

2 22

1,

2 1

21exp

2 1

XY

X Y XY

X Y XY X Y

X Y X YXY

p

(3.151)

Oppure se la loro funzione caratteristica congiunta ha la forma:

2 2 21, exp exp 2

2XY X Y X XY Yi C

(3.152)

3.14.8 Distribuzione condizionata di probabilità di una variabile aleatoria*

Siano A e B due eventi legati ad un medesimo esperimento. La probabilità di occorrenza dell’evento

A condizionata all’occorrenza dell’evento B è definita dalla relazione (2.10):

| 0

P A BP A B P B

P B

(3.153)

Si assuma ora che gli eventi A e B siano determinati da due variabili aleatorie X e Y come segue:

; ,A X B Y (3.154)

-6 -4 -2 0 2 4 6 8

-4

-2

0

2

4

6

x

y

Page 53: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

53

Sfruttando la definizione di distribuzione di probabilità, la (3.153) può essere riscritta nella forma:

,| |

XY

X

Y

FP X Y F Y

F

(3.155)

Dove la funzione FX(|Y) è detta distribuzione di probabilità condizionata della variabile X

rispetto all’evento {Y}. La corrispondente funzione di densità di probabilità è ottenuta derivando

la (3.155) rispetto a e risulta:

,1|

XY

X

Y

Fp Y

F

(3.156)

Si consideri ora il caso in cui l’evento che genera la condizione sia B = {1 < Y 2}. La

distribuzione di probabilità di X condizionata all’occorrenza di B risulta:

2 1

1 2

2 1

, ,|

XY XY

X

Y Y

F FF Y

F F

(3.157)

La corrispondente densità di probabilità può essere ottenuta derivando la (3.157) rispetto a e

risulta:

2

1

1 2

2 1

, d

|

XY

X

Y Y

p

p YF F

(3.158)

avendo sfruttato la relazione:

,

, dXY

XY

Fp

(3.159)

Sostituendo 1= e 2 = + , la (3.158) può essere riscritta nella forma:

, d

|

XY

X

Y Y

p

p YF F

(3.160)

che, per 0 risulta:

|

,|

XY

X Y

Y

pp

p

(3.161)

dove, la notazione pX|Y(|) indica la densità di probabilità di X condizionata all’occorrenza di Y in

un intono infinitesimo di .

Dalla (3.161) deriva banalmente il teorema della probabilità totale (o di Bayes) che si esprime

attraverso la relazione:

Page 54: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

54

| || |X Y Y Y X Xp p p p (3.162)

Confrontando le equazioni (3.131) e (3.161) si deduce che se le variabili aleatorie X e Y sono

statisticamente indipendenti, allora valgono le relazioni:

|

|

|

|

X Y X

Y X Y

p p

p p

(3.163)

3.15 Proprietà delle variabili aleatorie Gaussiane

Il modello Gaussiano è largamente il più diffuso grazie a una serie di proprietà che lo distinguono.

Fra queste, si menzionano le tre più rilevanti: variabili Gaussiane non-correlate sono statisticamente

indipendenti; la somma di variabili aleatorie Gaussiane è Gaussiana; la somma di un gran numero di

variabili aleatorie statisticamente indipendenti comunque distribuite tende a essere Gaussiana.

3.15.1 Indipendenza statistica di variabili non-correlate

Siano X e Y due variabili Gaussiane non-correlate 0XY . La densità di probabilità congiunta

fornita dalla (3.151) risulta:

2 2

2 2

1 1, exp

2 2

X Y

XY

X Y X Y

p

(3.164)

che può essere chiaramente fattorizzata in due termini corrispondenti con le espressioni della

densità di probabilità di due variabili Gaussiane. Ciò dimostra l’indipendenza statistica.

3.15.2 Linearità dello spazio delle variabili Gaussiane

Uno spazio vettoriale è detto lineare se contiene ogni combinazione lineare dei membri dello spazio

stesso. Per dimostrare che lo spazio delle variabili Gaussiane è lineare è sufficiente dimostrare che

se X e Y sono Gaussiane allora Z = aX + bY è Gaussiana per ogni a e b in ℝ. In realtà, è evidente

che la semplice scalatura di una variabile Gaussiana ha distribuzione Gaussiana (è possibile

verificarlo con un cambio di variabile nella (3.55)), allora senza perdita di generalità è possibile

porre a = b = 1 e quindi Z = X + Y.

Applicando la definizione di distribuzione di probabilità si osserva che la distribuzione di

probabilità di Z risulta:

d , d d

, d d

Z

Z XY

XY

F P Z P X Y

p p

p

(3.165)

in cui l’ultimo passaggio è eseguito operando la sostituzione - . Inoltre, confrontando la

seconda e la terza riga della (3.165) si deduce la relazione:

, dZ XYp p

(3.166)

Page 55: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

55

La (3.166) dimostra che la densità di probabilità della somma di due variabili aleatorie

statisticamente indipendenti è fornita dalla convoluzione della loro densità marginale. Applicando la

trasformata di Fourier alla (3.166) si ottiene la funzione caratteristica di Z nella forma:

i

i i

e , d d

e e , d d

,

Z XY

XY

XY

p

p

(3.167)

in cui si è moltiplicato e diviso per la medesima quantità ei

e si è applicata la definizione di

funzione caratteristica congiunta. Sostituendo l’espressione di XY pertinente per il modello

Gaussiano (Eq. (3.152)) si ottiene la relazione:

2 2 21exp i exp 2

2Z X Y X XY YC

(3.168)

che corrisponde alla funzione caratteristica di una variabile Gaussiana con media Z = X + Y e

varianza Z2 = X

2 + 2CXY + Y

2.

3.15.3 Teorema del limite centrale*

Si consideri un insieme di variabili aleatorie Xj (j = 1,…, n) statisticamente indipendenti con media

X e varianza X2; Yn sia la variabile aleatoria definita attraverso la somma:

1

n

n j

j

Y X

(3.169)

Applicando la definizione di media e varianza, e tenendo conto dell’indipendenza delle Xj, risulta:

2 2

n

n

Y X

Y X

n

n

(3.170)

La versione standardizzata di Yn è fornita dalla relazione:

1

ˆ

1 ˆ

n Xn

X

n

j

j

Y nY

n

Xn

(3.171)

dove ˆ ( ) /j j X XX X . La funzione caratteristica di ˆnY risulta:

Page 56: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

56

ˆ

1

1

ˆE exp i

i ˆE exp

i ˆE exp

nnY

n

j

j

n

j

j

Y

Xn

Xn

(3.172)

Tenendo conto che le Xj sono statisticamente indipendenti, il valore atteso nella (3.172) può essere

fattorizzato nella forma:

ˆ

1

i ˆE expn

n

jYj

Xn

(3.173)

Se n è grande, gli esponenziali nella (3.173) possono essere espansi in serie di Taylor

32

2 2ˆ

1

22

1

i ˆ ˆE 12

i ˆ ˆ1 E E2

n

n

j jYj

n

j j

j

X X O nnn

X Xnn

(3.174)

che, tenendo conto che le ˆjX sono standardizzate, risulta

3:

2

ˆ 12n

n

Y n

(3.175)

Il limite per n della (3.175) fornisce:

2

ˆ

1exp

2nY

(3.176)

che è la funzione caratteristica di una variabile Gaussiana con media nulla e varianza unitaria.

3.15.4 Simmetria polare delle variabili Gaussiane*

Se X e Y sono variabili Gaussiane standardizzate e statisticamente indipendenti, allora le curve di

livello della densità di probabilità congiunta sono circonferenze. L'osservazione può essere

dimostrata scrivendo pXY nella forma:

2 2 21 1

, exp exp2 2 2 2 2

XYp

(3.177)

dove ρ2

= ξ2 + η

2. Questa proprietà, peculiare della distribuzione Gaussiana, fa sì che il vettore

,X YX sia statisticamente invariante rispetto alla rotazione del sistema di riferimento.

3 Si considera il limite notevole lim 1 e

n

x

n

x

n

Page 57: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

57

3.15.5 Variabili Gaussiane e cumulanti*

Una variabile Gaussiana X ha tutti i cumulanti di ordine maggiore di 2 nulli. Ciò può essere

verificato notando che la log-funzione caratteristica di una v.a. Gaussiana ha la forma:

2 21

2X Xi (3.178)

che corrisponde alla (3.38) avendo posto 2

1 2, e 0 per 2X X j j .

In conseguenza di questa proprietà i cumulanti di grado >2 possono essere usati come misura di

non-Gaussianità.

3.15.6 Variabili Gaussiane e massima entropia*

In accordo con il principio di massima entropia, assegnati un insieme di vincoli j jE F X c , la

variabile aleatoria meno strutturata possibile ha densità di probabilità nella forma:

0

0

expn

j j

j

p A a F

(3.179)

Se si assume F1(X) = X e F2(X) = X2, allora le condizioni di vincolo su p0 sono espresse dalle

relazioni:

0

0

2 2 2 2

0

d 1

d

d

X

X X

p

p E X

p E X

(3.180)

Sostituendo la (3.179) nella (3.180) si ottengono i valori delle costanti a1, a2 e A:

1 2

2 2

2

2

1

2

1exp

22

X

X

X

X

XX

a

a

A

(3.181)

che sostituite nella (3.179) forniscono:

2

0 2

1exp

22

X

XX

p

(3.182)

Si deduce che, assegnata media e varianza, la distribuzione Gaussiana fornisce la massima possibile

entropia. In altre parole, le variabili aleatorie Gaussiane sono quelle meno strutturate ("più

aleatorie") possibile.

Grazie a questo principio, l'entropia può essere impiegata come misura di non-Gaussianità. Allo

scopo di rimuovere la dipendenza dalla varianza, si introduce la neg-entropia:

Page 58: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

58

GJ X H X H X (3.183)

dove XG è una v.a. Gaussiana avente varianza pari alla varianza di X.

1log 2

2G XH X (3.184)

La neg-entropia così definita è una quantità non-negativa e si annulla solo se X ha distribuzione

Gaussiana.

3.16 Variabili aleatorie a valori complessi

Una variabile aleatoria a valori complessi Z è una legge che mappa ogni punto dello spazio

campionario in un punto z del piano complesso avente parte reale x e parte immaginaria y. I numeri

reali x e y possono essere interpretati come le realizzazioni di due variabili aleatorie X e Y in

corrispondenza del punto campionario (Figura 3-38).

Figura 3-38. Variabile aleatoria complessa Z.

Secondo questa interpretazione, la variabile aleatoria Z è espressa come funzione delle variabili X e

Y attraverso

iZ X Y (3.185)

dove i è l’unità immaginaria. Il valore atteso di Z e, più in generale, di funzioni deterministiche di

f(Z) può dunque essere calcolato attraverso la (3.133).

2

E i , d dXYf Z f p (3.186)

Particolarizzando la (3.186) si definiscono media, media quadratica e varianza di Z:

22 2 2

22

2 2 2 2 2 2

E E i i

E E i i

E E i i i i

Z X Y

Z X Y

Z Z X Y X Y

X Y X Y X Y

Z X Y

Z X Y X Y

Z X Y X Y

(3.187)

x=Re(z)

y=Im(z)

Z

X

Y

Page 59: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

59

Date due variabili aleatorie complesse Z1 e Z2, si definiscono correlazione e covarianza le quantità:

1 2 1 2 1 2 1 2 2 1

1 2 1 2 1 1 2 2

1 2 1 2 1 2 2 1 1 2 1 2 1 2 2 1

1 2 1 2 1 2

*

1 2 1 1 2 2

*

1 2 1 1 2 2

E E i i i i

E E i i i

i i i i

i i

Z Z X X Y Y X Y X Y

Z Z Z Z X Y X Y

X X Y Y X Y X Y X X Y Y X Y X Y

X X Y Y X Y

R Z Z X Y X Y R R R R

C Z Z X Y X Y

R R R R

C C C

2 1X YC

(3.188)

Si osserva che la media quadratica e la correlazione sono definita utilizzando, rispettivamente,

modulo quadro e il prodotto di una variabile per il coniugato dell’altra. Ciò è necessario per

garantire che lo spazio delle variabili aleatorie complesse sia uno spazio vettoriale dotato di norma e

prodotto interno.

Equation Chapter (Next) Section 1

Page 60: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

60

4 Affidabilità di strutture descritte da una singola variabile aleatoria La conoscenza acquisita fino a questo punto è sufficiente per analizzare l’affidabilità (la probabilità

di non-superamento di determinati stati limite) di sistemi strutturali semplici per i quali le incertezze

possono essere descritte mediante un singolo parametro aleatorio.

4.1 Asta soggetta a carico aleatorio

Si considera un asta facente parte di una struttura reticolare metallica avente caratteristiche

meccaniche deterministiche e soggetta ad una forza assiale aleatoria. Sia l la lunghezza, A area della

sezione trasversale, J il momento di inerzia minimo, E modulo elastico e fy la tensione di

snervamento. L’azione assiale N è modellata attraverso una variabile aleatoria gaussiana con media

nulla e deviazione standard N. Gli stati limite rilevanti per l’elemento strutturale sono il

superamento del carico ultimo Nu a trazione e del carico critico di instabilità Ncr a compressione.

Questi limiti sono deterministici e sono forniti dalle relazioni:

2

22

u u

cr

N f A

EJN

l

(4.1)

La probabilità di collasso Pf dell’elemento strutturale è definita dalla relazione:

1

11 erf erf

2

f u cr

N cr N u

cr u

N N

P P N N N N

F N F N

N N

(4.2)

La probabilità di sopravvivenza Ps (detta affidabilità o reliability, R) è fornita dal teorema

dell’evento complementare e risulta:

1

1 erf erf2

u crs f

N N

N NR P P

(4.3)

La (4.3) può essere impiegata per valutare l’affidabilità di un elemento strutturale deterministico

soggetto ad un’azione aleatoria, oppure, assegnato un valore di affidabilità (o di probabilità di

collasso), può essere utilizzata per dimensionare l’elemento.

4.2 Risposta dinamica di una struttura aleatoria soggetta a forzante armonica

Si considera una struttura costituita da una trave appoggiata di lunghezza l, momento di inerzia J e

modulo elastico E. La massa, m, è concentrata in mezzeria, dove è applicata una forza sinusoidale di

ampiezza F e pulsazione (Figura 4-1). La struttura è modellata mediante un sistema dinamico a

un grado di libertà governato dall’equazione del moto:

2

0 0

12q t q t q t f t

m (4.4)

dove 0 è la pulsazione propria e è lo smorzamento relativo al critico. La pulsazione propria può

essere calcolata sulla base delle caratteristiche meccaniche della struttura e dello schema statico:

Page 61: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

61

0 3

4;

3

k EJk

m l (4.5)

Lo smorzamento deve essere stimato dal progettista sulla base della tipologia strutturale e delle

condizioni di vincolo, ma la sua valutazione è affetta da grande incertezza. Si assume dunque che lo

smorzamento sia rappresentato dalla variabile aleatoria di cui è una generica realizzazione. Si

assume che abbia distribuzione log-normale con media e deviazione standard . La densità di

probabilità è fornita dalla (3.66)

2

2

log1exp

22

mp

ss

(4.6)

dove i parametri m e s sono forniti dalle (3.68)

2

2 2

22

2

log

log 1

m

s

(4.7)

Figura 4-1. Schema strutturale.

sinf t F t (4.8)

La risposta dinamica (spostamento) a regime è armonica ed ha ampiezza Q. A causa dell’aleatorietà

dello smorzamento, Q è una variabile aleatoria ed è legata a dalla funzione deterministica:

2 22 20

2

2 2

0 0

1

1 4

FQ g

m

(4.9)

La densità di probabilità di Q può essere calcolata attraverso la (3.53):

1

1

Q

dgp p g

d

(4.10)

dove

f(t) = Fsin(t)

l

m

E, J

Page 62: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

62

21 2 2 2 2 2

0

0

1 2

2 22 2 2 2 20

0

1

2

d 1

d 2

g F mm

g F

mF m

(4.11)

Si considerano i valori numerici l = 3m, J = 392610-8

m4 (2 elementi IPE200 in parallelo), m = 100

kg, F = 200 N, /2 = 10Hz. Lo smorzamento ha valore medio = 2% e deviazione standard =

1%. La Figura 4-2 mostra la densità di probabilità dello smorzamento (a) e della risposta (b).

(a) (b)

Figura 4-2. Densità di probabilità dello smorzamento (a) e dell’ampiezza della risposta (b).

Si considera ora il caso i cui lo smorzamento assume il valore deterministico = 2%, mentre la

pulsazione propria è rappresentata dalla variabile aleatoria 0 con distribuzione log-normale, media

0 = (k/m)

0.5 e deviazione standard 0

= 0.10. Il problema così posto è concettualmente identico

al precedente, ma comporta maggiori difficoltà analitiche a causa di una dipendenza funzionale di Q

rispetto a 0. La Figura 4-3 mostra la densità di probabilità della pulsazione propria (a) e

dell’ampiezza della risposta (b). Si osserva che la risposta ha densità di probabilità bimodale e che

in un punto raggiunge valore infinito. Tale accumulo di probabilità è dovuto alle realizzazioni di 0

che cadono nell’intorno della pulsazione della forzante.

(a) (b)

Figura 4-3. Densità di probabilità della pulsazione propria (a) e dell’ampiezza della risposta (b).

Equation Chapter (Next) Section 1

0 0.01 0.02 0.03 0.04 0.05 0.06 0.070

10

20

30

40

50

60

p(

)

0 0.005 0.01 0.015 0.02 0.0250

10

20

30

40

50

60

70

80

90

100

(m)

pQ

( )

(m

-1)

0 5 10 150

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0/(2) (Hz)

p

0

( 0)

(s

)

0 0.005 0.01 0.0150

50

100

150

200

250

300

(m)

pQ

( )

(m

-1)

Page 63: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

63

5 Vettori Aleatori

5.1 Definizione

Definiamo vettore aleatorio un vettore di variabili aleatorie o, con maggior precisione, una variabile

aleatoria le cui realizzazioni sono in uno spazio multi-dimensionale (es. ℝn).

Figura 5-1. Vettore aleatorio X.

Un vettore aleatorio è rappresentato specificando le proprietà statistiche congiunte delle sue

componenti. Si definisce distribuzione di probabilità congiunta la funzione

1 1 n nF P X X X (5.1)

definita per ℝn; Xj e j (j = 1,…,n) sono le componenti di X e , rispettivamente. La distribuzione

di probabilità di un vettore aleatorio ha proprietà analoghe alla distribuzione di probabilità di una

variabile aleatoria scalare; in particolare:

1

1

: [0,1]

0 , ,

1 , ,

n

n

n

F

F se

F se

X

X

X

(5.2)

Se le componenti Xj di X sono variabili aleatorie continue, può essere definita la densità di

probabilità congiunta attraverso la relazione:

1...

n

n

Fp

X

X

(5.3)

La funzione caratteristica di X è fornita dalla trasformata di Fourier n-dimensionale della densità di

probabilità e risulta:

T

T

i

E exp i

e dn

p

X

X

X

(5.4)

x

n

x = X ( )

Page 64: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

64

5.2 Momenti statistici

Si definisce media del vettore X il vettore contenente la media delle sue componenti.

1

2E

n

X

X

X

X X (5.5)

Si definisce matrice di correlazione del vettore X:

1 1 2 1

2 1 2

1

2

2

T

2

E

n

n n

X X X X X

X X X

X X X

R R

R

R

XR XX (5.6)

Gli elementi diagonali della matrice di correlazione sono le medie quadratiche delle componenti di

X; gli elementi fuori diagonale rappresentano le correlazioni di tutte le possibili coppie di

componenti.

Si definisce matrice di covarianza del vettore X:

1 1 2 1

2 1 2

1

2

2T

2

E

n

n n

X X X X X

X X X

X X X

C C

C

C

X X XC X X (5.7)

Gli elementi diagonali della matrice di covarianza sono le varianze delle componenti di X; gli

elementi fuori diagonale rappresentano le covarianze di tutte le possibili coppie di componenti.

Le matrici di correlazione e di covarianza sono legate dalla relazione:

T

X X X XC R (5.8)

La matrice di correlazione rappresenta la generalizzazione del concetto di media quadratica al caso

di vettore aleatorio, mentre la matrice di covarianza generalizza il concetto di varianza. Queste

matrici possono essere quindi interpretate, rispettivamente, come il momento statistico di ordine 2 e

il momento statistico centrale di ordine 2 del vettore X. Da un punto di vista concettuale, non vi

sono preclusioni a considerare momenti statistici di ordine superiore al secondo. In questo caso

nascono però difficoltà formali in quanto tali grandezze non possono essere espresse sinteticamente

attraverso il prodotto “riga per colonna” come nelle (5.7) e (5.8).

5.3 Modello normale (Gaussiano)

Un vettore aleatorio X ha distribuzione normale (o Gaussiana) se la sua densità di probabilità è nella

forma:

T 1

1 22

1 1exp

22X X Xn

p

X

X

CC

(5.9)

Page 65: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

65

Si osserva che la densità di un vettore Gaussiano è definita dalla media e dalla matrice di

covarianza. Inoltre, si osserva che la densità di probabilità congiunta della coppia di variabili

aleatorie X e Y espressa dalla (3.151) può essere rappresentata in forma compatta attraverso la (5.9)

ponendo X = [X Y]T.

La funzione caratteristica di X risulta:

T T1exp i exp

2

X X XC (5.10)

Se X è un vettore di variabili aleatorie Gaussiane non correlate a media nulla, la densità di

probabilità assume la forma:

/2

2

/2

1 1exp

22

1 1exp

22

n

n

p

T

X ξ ξ ξ

ξ

(5.11)

La densità di probabilità dipende soltanto dalla norma di ξ, quindi ha simmetria polare, cioè le

superfici di livello sono iper-sfere. La medesima proprietà vale per la funzione caratteristica.

5.4 Grandezze statistiche di ordine superiore al secondo*

Passando dalle v.a. aleatorie scalari a quelle vettoriali, i momenti statistici di ordine 1 e 2 sono

generalizzati utilizzando quantità vettoriali (ordine 1, media) e matriciali (ordine 2, matrice di

correlazione). Analogamente il ruolo del secondo cumulante è assunto dalla matrice di covarianza.

La trattazione di grandezze statistiche di ordine superiore è formalmente più complessa e dà luogo a

quantità di natura sensoriale. Ciò e reso evidente espandendo in serie di McLaurin la funzione

caratteristica per generare i momenti statistici:

1

1 1

2

1 , 1 , , 1

1 11

d 2 ! r

r r

rn n n

j j k j j

j j k j jj j k j jr

X X X

X

θ 0 θ 0 θ 0

θ (5.12)

in cui le derivate parziali di ordine r in θ = 0 rappresentano il valore atteso del prodotto di tutte le

possibili sequenze di r componenti Xj di X.

1

1

1...

...r

r

r

j j r

j j

E X Xi

X

θ 0

(5.13)

La proliferazione dei momenti statistici può essere formalmente controllata adottando il formalismo

dell'algebra di Kronecker (Appendice C). In questo modo, il momento statistico di ordine j del

vettore X si esprime nella forma:

j

j Em X X (5.14)

dove j rappresenta la potenza di Kronecker j-esima. Se X ha dimensione n, allora jm X ha

dimensione nj e contiene il valore atteso dei prodotti di tutte le possibili sequenze di j componenti di

X. Se ad esempio T

1 2,X XX , allora:

Page 66: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

66

T2 2

2 1 1 2 2 1 2

T3 2 2 2 2 3

3 1 1 2 1 2 1 1 2 2 1 2 1 2 2 1 2

X X X X X X

X X X X X X X X X X X X X X X X

m

m

(5.15)

Si osserva che il vettore m2 contiene i medesimi termini di RX.

Sfruttando questa notazione, la funzione caratteristica di X assume la forma:

T

1

1!

jj

j

j

i

j

Xθ θ m X (5.16)

Analogamente la log-funzione caratteristica assume la forma:

T

1 !

jj

j

j

i

j

Xθ θ κ X (5.17)

dove jκ X sono i cumulanti di X.

5.5 Entropia ed informazione mutua*

L'entropia di un vettore aleatorio è definita esattamente come nel caso scalare

logn

H p p d X XX ξ ξ ξ (5.18)

con la differenza che l'integrazione avviene su uno spazio di dimensione n.

Si definisce informazione mutua fra le componenti di X la grandezza:

1 2

1

, ,...n

n j

j

I X X X H X H

X (5.19)

Interpretando l'entropia come misura del contenuto di informazione, I rappresenta una misura di

quanto l'informazione contenuta nelle diverse componenti di X si sovrappone. L'informazione

mutua è un numero non-negativo ed è zero se e solo se le componenti di X sono statisticamente

indipendenti.

5.6 Rappresentazione di vettori aleatori

Passando dal caso di una variabile aleatoria X a valori scalari (le cui realizzazioni x sono in ℝ) al

caso di un vettore aleatorio X (le cui realizzazioni x sono in ℝn) si pone il problema di scegliere la

base in ℝn più opportuna da adottare. La scelta non è univoca ed esistono diversi criteri che si

adattano più o meno bene alle diverse circostanze. Fra tutti i sistemi di riferimento è opportuno

menzionare il riferimento utilizzato nell’analisi a componenti principali (Principal Component

Analysis, PCA).

5.6.1 Analisi a componenti principali (PCA)

Si consideri un vettore aleatorio X con realizzazioni in ℝn che per semplicità assumiamo a media

nulla. Ci poniamo l’obiettivo di individuare un vettore ℝn che rappresenti la direzione tipica di

X, quindi che sia più parallelo possibile alle realizzazioni di X. Ciò può essere ottenuto

massimizzando una misura di parallelismo, ad esempio:

Page 67: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

67

2

E TJ

X (5.20)

con il vincolo ||||=1 (altrimenti sarebbe sufficiente allungare per incrementare J). La

massimizzazione vincolata della (5.20) può essere sostituita dalla massimizzazione della funzione

ausiliaria:

2 2

E TJ

X (5.21)

dove è un moltiplicatore di Lagrange. I punti di stazionarietà (fra cui il massimo) di J possono

essere ottenuti annullando le derivate di J rispetto alle componenti di ottenendo l’equazione:

TE XX 0 (5.22)

che corrisponde al problema agli autovalori:

XC I 0 (5.23)

La matrice di covarianza è simmetrica e definita positiva, quindi gli autovettori k (k=1,…,n) sono n

e sono mutuamente ortonormali; i corrispondenti autovalori k sono reali e positivi. Gli autovalori

sono convenzionalmente ordinati in modo decrescente.

Gli autovettori k formano una base ortonormale in ℝn, quindi possono essere impiegati per

rappresentare il vettore aleatorio X (o più esattamente le sue realizzazioni x).

1

n

k k

k

Y

X (5.24)

dove le variabili aleatorie Yk (k=1,…,n) sono le proiezioni di X sui vettori k

T

k kY X (5.25)

e sono dette componenti principali del vettore aleatorio X. Si dimostra che le componenti principali

hanno media nulla, sono mutuamente non-correlate e hanno varianza pari agli autovalori

T T

T T

E E 0

E E

k k k

T

h k h k h k k hk

Y

Y Y

X

X

X

XX C

(5.26)

La (5.24) rappresenta il vettore X come una somma di vettori deterministici k modulati da variabili

aleatorie non-correlate con media nulla e varianza k. Se gli autovalori sono ordinati in modo

decrescente, la (5.24) fornisce una rappresentazione gerarchica di X, in cui i primi termini della

somma tendono a essere dominanti rispetto a quelli successivi. Quando la (5.24) è utilizzata per

analizzare statisticamente un insieme di dati misurati, queste proprietà gerarchiche possono essere

utilizzate per separare la parte significativa dei dati dal rumore sperimentale.

L’analogia fra la (5.24) e la rappresentazione modale della risposta di strutture lineari è evidente. In

entrambi i casi le coordinate naturali del problema sono sostituite da un sistema di coordinate

opportuno in modo da consentire un troncamento modale (considerare un numero di termini m<n

nella somma dell’Eq. (5.24)). In entrambi i casi, il cambio di coordinate comporta vantaggi

Page 68: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

68

aggiuntivi: nel caso dell’analisi modale, le coordinate principali sono determinate da equazioni del

moto disaccoppiate (per sistemi con smorzamento proporzionale), mentre nel caso di vettori

aleatori, le componenti principali sono statisticamente non-correlate.

La (5.24) può essere riscritta in forma compatta

X Y (5.27)

dove la matrice , ottenuta assemblando per colonne gli autovettori, è una matrice ortogonale e

rappresenta una rotazione in ℝn.

5.7 Simulazione di vettori Gaussiani

Realizzazioni x di un vettore Gaussiano X con media X e matrice di covarianza CX possono essere

generate sfruttando la relazione (5.27) e le proprietà delle componenti principali.

Sia z una realizzazione del vettore aleatorio Z, le cui componenti hanno distribuzione Gaussiana,

media nulla, varianza unitaria e sono mutuamente non-correlate (e quindi statisticamente

indipendenti per la Gaussianità). Realizzazioni di questo vettore possono essere ottenute attraverso

le funzioni disponibili in ogni ambiente computazionale per la generazione di numeri casuali

Gaussiani statisticamente indipendenti. Dato z, una realizzazione di x può essere ottenuta attraverso

la relazione:

0.5

Xx z (5.28)

dove = diag(1…n) è la matrice degli autovalori di CX.

Esempio 5.1. Simulazione di vettori aleatori Gaussiani

Il codice riportato in Figura 5-2 simula una serie di realizzazioni di un vettore aleatorio

Gaussiano con assegnata media e matrice di covarianza.

function x = randn_multi(N, mu, C)

% genera N realizzazioni di un vettore aleatorio Gaussiano con media mu e

% matrice di covarianza C

% x ha dimensione length(mu), N

n = length(mu);

[F,L] = eig(C);

y = sqrt(L)*randn(n,N);

x = F*y;

for k=1:n

x(k,:) = x(k,:) + mu(k);

end

Figura 5-2. Codice Matlab per simulazione di vettori aleatori Gaussiani.

Equation Chapter (Next) Section 1

Page 69: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

69

6 Processi aleatori Un processo stocastico (o aleatorio) è una legge che associa, ad ogni punto dello spazio

campionario Ω una funzione x(t) dipendente da un parametro t (nelle applicazioni trattate nel

seguito rappresenterà sempre il tempo). In questo senso, un processo aleatorio può essere

interpretato come la generalizzazione del concetto di variabile aleatoria, ammettendo che questa

assuma valori nello spazio delle funzioni, anziché in .

6.1 Definizioni

Si consideri un esperimento il cui risultato è una funzione del tempo (l’accelerazione sismica del

suolo, la velocità del vento, la risposta di un sistema dinamico). Ogni storia temporale x(r)

(t) (r =

1,2,…) derivante da un esperimento è interpretata come una possibile realizzazione di un processo

aleatorio X(t). Le realizzazioni sono dette funzioni campione (Figura 6-1).

Figura 6-1. Funzioni campione.

Un processo aleatorio X(t) può essere interpretato come un contenitore per le funzioni x(j)

(t)

(j=1,2,…) ottenute in corrispondenza del risultato j di un qualche esperimento (o osservazione). In

questo senso, fissando il parametro t = t1, il processo aleatorio si reduce ad una variabile aleatoria

X1=X(t1), mentre fissando l’indice j, il processo aleatorio si riduce ad una funzione deterministica

(Figura 6-2).

Si considerino un insieme di variabili aleatorie X1,...,Xn estratte dal processo X(t) in corrispondenza

degli istanti t = t1,...,tn. La loro completa descrizione probabilistica è fornita dalla densità di

probabilità congiunta:

1 2 1 2

1 2 1 2, , , , , ,n n

X X X n nX t X t X tp p (6.1)

È chiaro che la (6.1) descrive il processo aleatorio X(t) tanto più accuratamente quanto più grande è

l’ordine della distribuzione congiunta considerata. Si deve osservare, tuttavia che anche se si

arrivasse idealmente a considerare una distribuzione congiunta di ordine infinito, estraendo un

numero infinito di variabili aleatorie dal processo X(t), si tratterebbe comunque di una

rappresentazione parziale4 del processo aleatorio, perché esso è formato da un’infinità non-

numerabile di variabili aleatorie. Questo tipo di rappresentazione è comunque sufficiente per gli

scopi della presente trattazione.

4 Una rappresentazione completa di un processo aleatorio può essere ottenuta attraverso il funzionale caratteristico

(generalizzazione della funzione caratteristica definita per le variabili aleatorie).

x(r)(t)

x(1)(t)

x(2)(t) x(3)(t)

pX(t1) () pX(t2) ()

Page 70: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

70

Figura 6-2. Variabile aleatoria estratta da un processo aleatorio.

6.1.1 Medie statistiche del primo ordine

Si consideri la variabile aleatoria X1 estratta dal processo X(t) per t = t1. Essa è completamente

descritta dalla densità di probabilità pX(t1)(). Le medie statistiche del primo ordine includono i

momenti statistici della variabile aleatoria X1 = X(t1). In particolare, la media, la media quadratica e

la varianza del processo aleatorio X(t) sono definite attraverso le relazioni:

1

1 1 1 1 1dX X tt E X t p

(6.2)

1

22 2

1 1 1 1 1dX X tt E X t p

(6.3)

1

222

1 1 1 1 1 1 1dX X X X tt E X t t t p

(6.4)

e sono dunque funzioni (deterministiche) del tempo. La varianza e la media quadratica sono legate

dalla relazione:

2 2 2

1 1 1( )X XXt t t (6.5)

6.1.2 Medie statistiche del secondo ordine

Si considerino due variabili aleatorie X1 e X2 estratte dal processo X(t) nei due istanti t = t1 e t = t2.

Le medie statistiche del secondo ordine coinvolgono la rappresentazione congiunta delle variabili

x(1)(t)

x(2)(t)

x(N)(t)

x(1)(t2)

x(1)(t1)

x(2)(t1)

x(N)(t1)x(N)(t2)

x(2)(t2)

Page 71: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

71

X1 e X2, estratte dal processo per ogni possibile coppia di istanti t1 e t2. Ciò avviene, in generale,

attraverso la funzione di densità di probabilità congiunta pX(t1)X(t2)(1, 2), oppure attraverso momenti

statistici congiunti quali correlazione e covarianza. Si definiscono auto-correlazione e auto-

covarianza le due seguenti grandezze:

1 2

1 2 1 2 1 2 1 2 1 2, E , d dXX X t X tR t t X t X t p

(6.6)

1 2

1 2 1 1 2 2

1 1 2 2 1 2 1 2

, E

, d d

XX X X

X X X t X t

C t t X t t X t t

t t p

(6.7)

da cui si evince che l’auto-correlazione e l’auto-covarianza sono funzioni deterministiche in 2 e

sono legate dalla relazione:

1 2 1 2 1 2, ,XX XX X XC t t R t t t t (6.8)

L’auto-covarianza normalizzata è definita dal rapporto:

1 2

1 2

1 2

,,

XX

XX

X X

C t tt t

t t

(6.9)

Dalle (6.6), (6.7) e (6.9) discendono immediatamente le seguenti proprietà:

1 2 2 1

1 2 2 1

1 2 2 1

2

1 1 1

2

1 1 1

1 1

, ,

, ,

, ,

, ( )

,

, 1

X

XX XX

XX XX

XX XX

XX X

XX

XX

R t t R t t

C t t C t t

t t t t

R t t t

C t t t

t t

(6.10)

6.2 Processi aleatori stazionari

Un processo aleatorio è definito stazionario se la sua densità di probabilità congiunta di ordine n è

indipendente da una traslazione dell’origine dell’asse del tempo.

1 1

1 2 1 2

1 1

1 1

1 2 1 2

1 1

, ,

, , , ,n n

X t X t

X t X t X t X t

n nX t X t X t X t

p p

p p

p p

(6.11)

Ponendo = -t1, si verifica immediatamente che la (6.11) implica le seguenti proprietà:

1. La densità di probabilità del primo ordine (pdf) è indipendente dal tempo t1;

Page 72: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

72

2. La densità di probabilità congiunta di ordine 2 dipende soltanto dalla distanza t2 – t1 dei due

istanti considerati;

3. La densità di probabilità congiunta di ordine n dipende dalle n – 1 distanze t2 – t1, t3 – t2, …,

tn – tn-1 fra gli n istanti considerati per l’estrazione delle variabili aleatorie.

Un processo aleatorio X(t) è detto debolmente stazionario se le condizioni (6.11) sono verificate per

n ≤ 2.

Dalle (6.11) è immediato dimostrare che le medie statistiche del primo ordine di un processo

(debolmente) stazionario sono indipendenti dal tempo:

22 2

2 22

E d

E d

E d

X X t

X X t

X X X X t

X t p

X t p

X t p

(6.12)

Analogamente, le medie statistiche del secondo ordine di un processo (debolmente) stazionario

dipendono dalla distanza = t2 – t1 fra i due istanti considerati per estrarre le variabili aleatorie. Tale

distanza è detta tempo di ritardo (o time lag):

1 2 1 2 1 2

1 2 1 2 1 2

2

E , d d

E

, d d

XX X t X t

XX X X

X X X t X t

XX

XX

X

R X t X t p

C X t X t

p

C

(6.13)

È immediato verificare che le funzioni definite dalle (6.13) soddisfano le seguenti proprietà:

2

2

0

0

0 1

XX XX

XX XX

XX XX

XX X

XX X

XX

R R

C C

R

C

(6.14)

Inoltre, per la (3.145) risulta:

2

1

XX X

XX

C

(6.15)

Page 73: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

73

Un’ulteriore proprietà dell’auto-covarianza può essere dedotta da considerazioni di natura fisica.

Quando le due variabili aleatorie X(t1) e X(t2) utilizzate per valutare la covarianza sono estratte in

istanti molto distanti tra loro (||), queste variabili aleatorie tendono ad essere statisticamente

indipendenti e quindi non-correlate. Da ciò risulta la proprietà:

lim 0XXC

(6.16)

Mentre le proprietà (6.14) e (6.15) hanno origine matematica e sono sempre rigorosamente

soddisfatte, la (6.16) ha un’origine di natura fisica e, in alcuni casi, può cadere in difetto. I processi

aleatori per i quali la (6.16) è valida sono detti a memoria finita.

La Figura 6-3 mostra una tipica funzione di auto-covarianza di un processo stazionario.

Figura 6-3. Funzioni di auto-covarianza di un processo stazionario.

Si osservi che, a rigore, le funzioni campione di un processo stazionario devono necessariamente

avere supporto infinito (devono essere definite su tutto ℝ). In realtà l’ipotesi di stazionarietà è

applicata ogniqualvolta che gli effetti di inizio e fine generati dalla non-stazionarietà sono

trascurabili perché hanno una durata molto limitata rispetto alla lunghezza della parte di processo in

cui le caratteristiche statistiche sono effettivamente invarianti rispetto a traslazioni del riferimento

temporale. Considerando il caso in cui il processo X(t) costituisce la forza applicata ad una struttura,

o la risposta dinamica della struttura stessa (spostamento, tensione, ecc.), allora l’ipotesi di

stazionarietà appare accettabile quando la scala dei tempi caratteristici della struttura è molto più

rapida della scala temporale su cui variano le caratteristiche statistiche del processo. Un tempo

caratteristico di una struttura può essere, ad esempio, il primo periodo proprio ed è generalmente

dell’ordine di un secondo. Il tempo caratteristico delle forze applicate alla struttura dipende dalla

natura fisica del fenomeno eccitatore. Nel caso del vento, le proprietà statistiche della turbolenza

tendono a conservarsi invariate su periodi di lunghezza compresi fra 10 minuti e un’ora. Nel caso

delle onde marine il periodo di stazionarietà tende ad essere anche maggiore (circa 3 ore). Nel caso

del sisma, la fase pseudo-stazionaria in cui le caratteristiche dell’accelerazione sono invarianti dura

pochi secondi. Con questi argomenti è chiaro come l’ipotesi di stazionarietà sia assai più

ragionevole nel caso di strutture eccitate dal vento e dalle onde marine rispetto al caso di forzante

sismica.

CXX()

Page 74: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

74

6.2.1 Medie temporali di una funzione campione

La stima delle quantità statistiche definite dalle (6.12) e (6.13) può essere effettuata sulla base della

conoscenza di un insieme di realizzazioni xj(t) (j = 1,…,n) del processo X(t), utilizzando la

definizione frequentista di probabilità:

1

2 2

1

22

1

1

1

1

1

1

1

1

n

X j

j

n

X j

j

n

X j X

j

n

XX j j

j

n

XX j X j X

j

x tn

x tn

x tn

R x t x tn

C x t x tn

(6.17)

È chiaro che, se il processo è effettivamente stazionario, le quantità statistiche stimate attraverso le

(6.17) dovranno essere invarianti rispetto a t e potranno quindi essere valutate per un t qualsiasi.

Questo comporta ovviamente un uso poco efficiente delle informazioni statistiche contenute nelle

realizzazioni xj(t) disponibili per l’analisi e può portare a stime poco accurate (se n non è grande a

sufficienza). Con l’obiettivo di migliorare l’efficienza della stima, si definiscono le medie temporali

di una funzione campione x(t) attraverso le relazioni che seguono. Si definisce media temporale

della funzione campione x(t) il valore deterministico:

/2

/2

1lim d

T

TTx x t t

T (6.18)

Si definisce media quadratica temporale della funzione campione x(t) il valore deterministico:

/2

2 2

/2

1lim d

T

TTx x t t

T (6.19)

Si definisce varianza temporale della funzione campione x(t) il valore deterministico:

/2

22 2 2

/2

1lim d

T

TT

s x t x t x xT

(6.20)

Si definisce auto-correlazione temporale della funzione campione x(t) la funzione deterministica:

/2

/2

1lim

T

xxTT

r x t x t dtT

(6.21)

Si definisce auto-covarianza temporale della funzione campione x(t) la funzione deterministica:

/2

2

/2

1lim

T

xx xxTT

c x t x x t x dt r xT

(6.22)

Page 75: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

75

È possibile dimostrare che le funzioni rXX() e cXX() hanno le medesime proprietà di RXX() e di

CXX().

Le medie temporali del primo ordine di una funzione campione possono essere interpretate come

realizzazioni di variabili aleatorie che, in generale, assumono un valore diverso per ogni

realizzazione del processo aleatorio. In altri termini, le medie temporali di una funzione campione

sono realizzazioni di variabili aleatorie generate nel medesimo punto campionario che ha

generato la funzione campione.

Analogamente le medie temporali del secondo ordine di una funzione campione di un processo

stazionario possono essere interpretate come realizzazioni di processi aleatori (funzioni aleatorie del

tempo di ritardo ).

È semplice verificare che se X(t) è un processo stazionario i valori attesi delle sue medie temporali

coincidono con le corrispondenti medie statistiche (per la dimostrazione è sufficiente applicare

l’operatore di valore atteso alle (6.18) - (6.22)). Risulta dunque:

2 2

2 2

E

E

E

E

E

X

X

X

XX XX

XX XX

X

X

S

R

C

R

C

(6.23)

dove le lettere maiuscole sopralineate rappresentano le variabili aleatorie le cui realizzazioni sono

definite dai simboli minuscoli corrispondenti, mentre RXX() e CXX() sono i processi aleatori aventi

rXX e cXX come (generiche) funzioni campione.

6.2.2 Processi aleatori ergodici

Un processo aleatorio stazionario è detto ergodico se le medie temporali di ogni sua realizzazione

sono coincidenti, ovvero se le medie temporali delle sue realizzazioni sono deterministiche. In

questo caso le medie statistiche coincidono con le medie temporali calcolate a partire da una

qualsiasi funzione campione purché sufficientemente lunga (a rigore di lunghezza infinita):

2 2

2 2

X

X

X

XX XX

XX XX

x

x

s

R r

C c

(6.24)

6.2.3 Rappresentazione nel dominio della frequenza di processi stazionari

L’analisi dei sistemi dinamici (deterministici) lineari è svolta in modo conveniente operando nel

dominio della frequenza. In questo modo, la trasformata di Fourier della risposta dinamica a regime

è ottenuta moltiplicando la trasformata di Fourier dell’eccitazione per la funzione di risposta in

frequenza del sistema dinamico. Allo scopo di estendere questi concetti all’analisi di sistemi lineari

con eccitazione aleatoria, è necessario introdurre una rappresentazione nel dominio della frequenza

di processi aleatori.

Page 76: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

76

Nel caso di processi stazionari l’introduzione del concetto di trasformata di Fourier è piuttosto

complicato. Ciò è dovuto al fatto che la trasformata di Fourier di una funzione deterministica esiste

se e solo se questa è assolutamente integrabile (l’integrale del suo valore assoluto è finito). Per

contro, le funzioni campione di un processo stazionario non sono assolutamente integrabili, perché

non si estinguono per |t|. Da un punto di vista matematico, questo problema può essere risolto in

molti modi. Di seguito viene descritto quello matematicamente più semplice, che fa uso del

concetto di limite. Una trattazione matematicamente più rigorosa è riportata in Appendice D.

Sia x(t) una realizzazione del processo stazionario X(t) (per semplicità supposto a media nulla) e sia

xT(t) la funzione ottenuta finestrando x(t) in t(-T/2 T/2).

per ,

2 2

0 altrimenti

T

T Tx t t

x t

(6.25)

Si supponga che xT(t) sia assolutamente integrabile per ogni T finito. La trasformata di Fourier di xT

è fornita dalla relazione:

/2

i i

/2e d e d

Tt t

T TT

x x t t x t t

(6.26)

ed esiste per ogni T finito, mentre xT(t) può essere espressa nella forma:

i1e d

2

t

T Tx t x

(6.27)

Si definisce energia della funzione xT(t) la grandezza scalare:

/2

2 2

/2Enrg

T

T

TT

x t x t dt x t dt

(6.28)

Essendo xT(t) una realizzazione di un processo aleatorio XT(t), l’energia può essere interpretata

come una variabile aleatoria. Il nome energia associato alla grandezza definita dalla (6.28) è dovuto

al fatto che essa corrisponde (a meno di una costante) all’energia cinetica nel caso in cui x(t)

rappresenti una velocità o all’energia potenziale, nel caso in cui x(t) rappresenti lo spostamento di

un sistema elastico. Il limite per T dell’energia diverge quando x(t) è una realizzazione di un

processo stazionario. Si definisce potenza della funzione xT(t) la grandezza scalare:

/2

2 2

/2

1 1Pwr

T

T

TT

x t x t dt x t dtT T

(6.29)

Confrontando la (6.29) con la (6.19) si osserva che il limite per T della potenza coincide con la

media quadratica temporale di x(t):

2 21lim Pwr lim dT TT T

x x t x t tT

(6.30)

La varianza del processo X(t) corrisponde al valore atteso della media quadratica temporale (X è a

media nulla per ipotesi), quindi risulta:

Page 77: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

77

2 2 21E E lim dX T

TX X t t

T

(6.31)

dove, l’integrale del processo XT(t) può essere interpretato come una variabile aleatoria le cui

realizzazioni sono ottenute integrando le funzioni campione xT(t) di XT(t). L’integrale nella (6.30)

può essere riscritto applicando il teorema di Parseval nella forma:

22 1

d d2

T Tx t t x

(6.32)

La (6.32) è valida per ogni realizzazione xT(t), quindi può essere applicata per riscrivere la (6.31)

nella forma:

2 dX XXS

(6.33)

dove

21 1

lim E2

XX TT

S XT

(6.34)

In qui ( )TX è il processo aleatorio (funzione della frequenza) le cui realizzazioni sono le

trasformate di Fourier ( )Tx ; la funzione SXX() è detta densità di potenza spettrale (Power

Spectral Density, PSD). Dalla (6.34) si deduce che la densità di potenza spettrale è una funzione

reale non-negativa.

L’auto-covarianza del processo X(t) può essere scritta come valore atteso dell’auto-covarianza

temporale:

2

2

1E lim d

1E lim d

T

XXT

T

T TT

C X t X t tT

X t X t tT

(6.35)

dove, ancora, gli integrali sono interpretati come agenti su ogni realizzazione del processo X(t).

Sostituendo la (6.27) nella (6.35) si ottiene:

ii

2

ii *

2

ii *

2

1E lim e d e d d

4

1E lim e d e d d

4

1E lim e e d d d

4

tt

XX T TT

tt

T TT

t

T TT

C X X tT

X X tT

X X tT

(6.36)

L’integrale in t all’interno della (6.36) risulta:

Page 78: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

78

i

e d 2t

t

(6.37)

che sostituito nella (6.36) fornisce la relazione:

2i

i

1E lim e d

2

e d

XX TT

XX

C XT

S

(6.38)

da cui si dimostra che la densità di potenza spettrale è, a meno di un fattore 2, la trasformata di

Fourier della funzione di auto-covarianza.

La densità di Potenza spettrale può essere espressa invertendo la (6.38) e risulta:

i1e d

2XX XXS C

(6.39)

Le equazioni (6.38) e (6.39) sono chiamate equazioni di Wiener-Khintchine.

Applicando la formula di Eulero alla (6.39) è possibile espandere l’esponenziale nella forma:

1 i

cos d sin d2 2

XX XX XXS C C

(6.40)

Ricordando che la funzione di auto-covarianza è pari rispetto a , il secondo integrale nella (6.40) si

annulla, pertanto la densità di potenza spettrale rimane espressa attraverso la relazione:

1

cos d2

XX XXS C

(6.41)

che è pari rispetto a

XX XXS S (6.42)

La (6.33) indica che l’area sottesa dalla densità di Potenza spettrale rappresenta la varianza del

processo. Inoltre, l’area elementare 2SXX()d rappresenta il contributo alla varianza X2 delle

armoniche del processo di pulsazione comprese nell’intervallo (, +d) (Figura 6-4). Per questa

ragione la densità di Potenza spettrale descrive il contenuto armonico del processo aleatorio così

come lo spettro di Fourier descrive il contributo armonico di un segnale deterministico.

Page 79: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

79

Figura 6-4. Densità di Potenza spettrale.

6.3 Rappresentazione congiunta di una coppia di processi aleatori

Si consideri un esperimento il cui risultato è costituito da una coppia di processi aleatori X(t) e Y(t)

(per esempio il moto sismico lungo due direzioni o in due punti del terreno, la velocità del vento

misurata da due anemometri, la risposta dinamica di una struttura con 2 gradi di libertà).

Si consideri il valore del processo X(t) all’istante t = t1 e il valore del processo Y(t) per t = t2. Essi

possono essere interpretati come una coppia di variabili aleatorie e, come tali, possono essere

rappresentati attraverso la densità di probabilità congiunta pX(t1)Y(t2)(, ); quest'ultima dipende da

due parametri, e , nonché dai tempi t1 e t2 in cui le variabili aleatorie sono state estratte.

Dalla densità di probabilità congiunta si ottengono immediatamente le densità marginali dei

processi X e Y per integrazione parziale:

1 1 2

2 1 2

, d

, d

X t X t Y t

Y t X t Y t

p p

p p

(6.43)

6.3.1 Medie statistiche congiunte del secondo ordine

Si definisce cross-correlazione dei processi X(t) e Y(t) la correlazione delle variabili aleatorie X(t1) e

Y(t2) estratte da X e Y agli istanti t1 e t2, rispettivamente:

1 2

1 2 1 2, E , d dXY X t Y tR t t X t Y t p

(6.44)

Analogamente, si definisce cross-covarianza di X e Y la funzione:

1 2

1 2 1 1 2 2

1 2

, E

, d d

XY X Y

X Y X t Y t

C t t X t t Y t t

t t p

(6.45)

La cross-covarianza normalizzata è definita dalla relazione:

SXX()

Page 80: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

80

1 2

1 2

1 2

,,

XY

XY

X Y

C t tt t

t t

(6.46)

Il prefisso cross indica che la variabili aleatorie X(t1) e Y(t2) sono estratte dai due processi differenti

X e Y (sebbene associati al medesimo esperimento).

Dalle definizioni (6.44) - (6.46) risultano le proprietà:

1 2 2 1

1 2 2 1

1 2 2 1

, ,

, ,

, ,

XY YX

XY YX

XY YX

R t t R t t

C t t C t t

t t t t

(6.47)

In analogia a quanto definito per le variabili aleatorie, due processi aleatori X(t) e Y(t) sono detti

non-correlati se la loro cross-covarianza CXY(t1,t2) è nulla per ogni t1 e t2 in .

Appare evidente che le medie statistiche del secondo ordine di due processi stazionari X e Y non

dipendono da t1 e t2 separatamente, ma soltanto dal tempo di ritardo = t2 – t1.

E , d d

E

, d d

XY X t Y t

XY X Y

X Y X t Y t

XY

XY

X Y

R X t Y t p

C X t Y t

p

C

(6.48)

Dalle equazioni (6.48) è immediato verificare le seguenti proprietà:

XY YX

XY YX

XY YX

R R

C C

(6.49)

Inoltre per la (3.145) risulta:

1

XY X Y

XY

C

(6.50)

Per le medesime ragioni fisiche esposte per l’auto-covarianza, anche la cross-covarianza

(generalmente) tende a zero per ||.

6.3.2 Densità di Potenza spettrale incrociata

Siano X(t) e Y(t) una coppia di processi stazionari a media nulla; si definisce densità di potenza

spettrale incrociata la funzione:

Page 81: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

81

*1 1lim E

2XY T T

TS X Y

T

(6.51)

dove TX e TY sono i processi aleatori che contengono le Trasformate di Fourier delle realizzazioni

di X e Y finestrate secondo la (6.25). Operando in maniera analoga a quanto fatto per la densità di

potenza spettrale, è possibile dimostrare le relazioni:

ie dXY XYC S

(6.52)

i1e d

2XY XYS C

(6.53)

La densità di Potenza spettrale incrociata e la cross-covarianza costituiscono una coppia di Fourier.

La cross-covarianza è, in generale, non simmetrica, quindi la densità di Potenza spettrale incrociata

è, in generale, una funzione a valori complessi. La particolare simmetria della cross-covarianza

espressa dalla (6.49) si riflette sulle proprietà:

*

YX XY XYS S S (6.54)

6.3.3 Funzione di coerenza La funzione di coerenza di due processi stazionari è definite dalla relazione:

XY

XY

XX YY

S

S S

(6.55)

La coerenza è, in generale, una funzione a valori complessi. Frequentemente, la sua parte reale è

chiamata co-coerenza, mentre la sua parte immaginaria è definita quad-coerenza. Alcuni testi

chiamano coerenza il modulo della (6.55), altri il suo modulo quadrato.

Una volta introdotta la funzione di coerenza, la densità di Potenza spettrale incrociata può essere

espresso nella forma:

( ) ( ) ( ) ( )XY XX YY XYS S S (6.56)

La funzione di coerenza può essere interpretata come la controparte nel dominio della frequenza

della cross-covarianza normalizzata. Questa analogia si riflette nella proprietà:

( ) 1XY (6.57)

Due processi aleatori che hanno coerenza unitaria sono detti coerenti. Se due processi aleatori

hanno coerenza nulla, allora sono non-correlati.

6.4 Trasformazioni lineari di processi stazionari

Si considerino due processi stazionari X(t) e Y(t) definiti in modo che le loro funzioni campione x(t)

e y(t) siano legate deterministicamente attraverso la trasformazione lineare:

Page 82: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

82

y t x t H (6.58)

dove ℋ è un operatore lineare, tempo-invariante, causale e asintoticamente stabile. La funzione x(t)

è della ingresso (o input, o eccitazione); la funzione y(t) è detta uscita (o output, o risposta).

L’operatore ℋ è lineare se, per ogni coppia di funzioni x(t) e y(t) e per ogni coppia di costanti a e b in ℝ, vale la relazione:

a x t b y t a x t b y t H H H (6.59)

L’operatore ℋ è tempo-invariante se, per ogni τ in , vale la relazione:

y t x t H (6.60)

L’operatore ℋ è detto causale se la risposta y(t) dipende soltanto dal passato dell’eccitazione x()

con ≤ t.

L’ operatore ℋ è detto (asintoticamente) stabile se, per ogni ingresso limitato x(t) fornisce un’uscita

limitata y(t).

La risposta a regime (lontano dalle condizioni iniziali) dell’operatore (6.58) può essere espressa

attraverso l’integrale di convoluzione:

0

d

t

y t h t x (6.61)

dove h è detta funzione di risposta a impulso e pesa l’eccitazione applicata al tempo in funzione

del tempo trascorso (t - ). L’operatore ℋ è tempo-invariante se h non dipende esplicitamente da t,

ma soltanto dalla differenza t - ; ℋ è causale su h(t - ) = 0 per > t (assegna peso nullo alle eccitazioni future); ℋ è asintoticamente stabile se è assolutamente integrabile in .

Ipotizzando che l’istante iniziale di applicazione dell’eccitazione sia t = -, e sfruttando l’ipotesi di causalità, la (6.61) può essere riscritta nella forma:

d dy t h t x h x t

(6.62)

Applicando la trasformata di Fourier ad entrambi i membri della (6.62), si ottiene l’espressione nel

dominio della frequenza della trasformazione lineare:

y H x (6.63)

dove x e y sono le trasformate di Fourier di x e y (che si suppone esistano) e H è la funzione di

risposta in frequenza (FRF) dell’operatore lineare ℋ. La funzione di risposta in frequenza è la

trasformata di Fourier della funzione di risposta a impulso.

Se x(t) e y(t) sono funzioni campione di due processi aleatori stazionari X(t) e Y(t), allora la (6.58)

può essere formalmente interpretata come una trasformazione lineare di processi stazionari

Page 83: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

83

Y t X t H (6.64)

In questo caso ha senso chiedersi se, conoscendo la rappresentazione probabilistica di X è possibile

valutare la rappresentazione probabilistica di Y. Come passo preliminare, il problema è affrontato

nell’Esempio 6.1 per il caso particolare dell’amplificatore ideale.

Esempio 6.1. Amplificatore ideale.

Sia X(t) un processo aleatorio stazionario a media nulla (X = 0) e sia Y(t) l’uscita

dell’amplificatore ideale ℋ.

Y t aX t (6.65)

dove la costante a rappresenta il guadagno dell’amplificatore. Applicando le definizioni di

auto- e cross-covarianza, è immediato dimostrare le seguenti relazioni:

2

YX XX

YY XX

YY YX XX

C aC

C a C

(6.66)

Inoltre, sfruttando le equazioni di Wiener-Kinchine:

2

1

YX XX

YX XX

XY

S aS

S a S

(6.67)

In generale, quando un processo aleatorio X(t) a media nulla è applicato un operatore lineare ℋ la

situazione può essere idealizzata come mostrato nello schema di Figura 6-5. Dal processo X(t) si

estrae una realizzazione x(t) che viene finestrata sul periodo T, ottenendo xT, quindi trasformata nel

dominio della frequenza ottenendo Tx . Applicando la (6.63) si perviene alla risposta Ty che

antitrasformata produce yT e quindi y, passando al linite per T→; quest’ultima è interpretata come

una realizzazione di Y. Analogamente Tx e Ty sono interpretate come realizzazioni dei processi

aleatori TX e TY che sono dunque legati dalla relazione formale:

T TY H X (6.68)

Sostituendo la (6.68) nelle definizioni di densità di potenza spettrale e densità di potenza spettrale

incrociata si dimostra:

*

2

YX XX

XY XX

YY XX

S H S

S H S

S H S

(6.69)

Dalla definizione di coerenza di dimostra inoltre che:

Page 84: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

84

XY

H

H

(6.70)

da cui emerge che la coerenza fra l’eccitazione e la risposta di un operatore lineare ha

necessariamente modulo unitario.

d

T T T

T

T T T

X t x t x t x X

h t x H x

Y t y t y t y Y

Figura 6-5. Schema per il calcolo della risposta stazionaria di sistemi lineari.

In generale, se l’ingresso X(t) ha media non nulla, allora il valore medio dell’uscita può essere

calcolato applicando l’operatore di media alla (6.62).

E E d

E d

d 0

Y

X X

Y t h t X

h t X

h H

(6.71)

La media dell’uscita è proporzionale alla media dell’ingresso attraverso il favore in zero della FRF.

Ne segue che se l’ingresso ha media nulla, allora anche l’uscita ha media nulla.

6.4.1 Derivazione di processi stazionari

L’introduzione del concetto di derivate di un processo aleatorio (così come per il concetto di

inegrale) richiederebbe la definizione del limite di un processo aleatorio (o del limite di una

successione di variabili aleatorie). In termini matematicamente approssimativi, è possibile

concepire la derivata ( )X t di un processo aleatorio ( )X t come il processo aleatorio le cui funzioni

campione ( )x t sono le derivate delle funzioni campione di X(t).

In altri termini, è possibile concepire la derivata temporale come un particolare operatore lineare

avente FRF H() = i. In quest’ottica, la densità di potenza spettrale del processo derivato può

essere ottenuta particolarizzando le (6.69):

2

i

i

XXXX

XXXX

XXXX

S S

S S

S S

(6.72)

Le (6.72) possono essere facilmente generalizzate per considerare derivate di qualsiasi ordine n. In

questo caso l’auto-spettro della derivata n-ma di X è ottenuto nella forma:

Page 85: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

85

2n n

X X

n

XXS S (6.73)

Dalle (6.72) discende che la coerenza fra un processo stazionario e la sua derivata risulta:

i sgnXX (6.74)

cioè ha modulo unitario e fase /2. Questo è in accordo con il principio per cui la coerenza misura

la presenza di un legame lineare deterministico fra due processi aleatori.

Applicando le equazioni di Wieren-Kintchine alle (6.72) si ottengono relazioni analoghe per il

dominio del tempo:

2

2

XXXX

XXXX

XXXX

dC C

d

dC C

d

dC C

d

(6.75)

6.5 Momenti spettrali

La densità di Potenza spettrale unilaterale ( )XXG è definite dalla funzione (Figura 6-6):

2 per 0

0 per 0

XX XX

XX

G S

G

(6.76)

È una funzione non-negativa definite per 0 e possiede la seguente proprietà:

2

0( )X XXG d

(6.77)

Figura 6-6. Densità di Potenza spettrale bilatera e unilatera.

Si definiscono moment spettrali (o moment di Vanmarcke) le quantità:

,0

( ) 0,1,2,...i

X i XXG d i

(6.78)

In particolare, i primi 3 momenti spettrali risultano:

Page 86: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

86

2

,00

,10

2 2 2

,20

( ) ( )

( ) ( ) 0

( ) ( )

X XX XX X

X XX XX

X XX XX X

G d S d

G d S d

G d S d

(6.79)

La posizione X,1 del baricentro dell’area sottesa da GXX() è data dalla relazione (Figura 6-7):

,10,1

,00

( )

( )

XX X

X

XXX

G d

G d

(6.80)

Il rapporto X = X,1 / 2 è detto frequenza attesa.

Il raggio di inerzia dell’area sottesa da GXX() è fornito dall’espressione:

1/22

,20,2

,00

d

d

XX X XX

X XXX

G

G

(6.81)

Figura 6-7. Interpretazione geometrica dei moment spettrali.

Il raggio di inerzia dell’area sottesa da GXX() rispetto al suo baricentro, X,2 , fornisce una misura

della dispersione della potenza spettrale (Figura 6-7). Questa quantità è definita dalla relazione:

2

,1

,2 ,2 ,2

,0 ,0

1 X

X X X X

X X

q

(6.82)

Dove il parametro qX è detto ampiezza di banda:

2

,1

,0 ,2

1X

X

X X

q

(6.83)

ed è una quantità adimensionale compresa fra 0 e 1.

Page 87: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

87

6.6 Modelli di processi stazionari

Nel presente paragrafo sono presentati quattro classi di processi aleatori: il processo armonico, il

processo a banda stretta (narrow band), il processo a banda estesa (broad band) e il processo a

banda infinita (rumore bianco, white noise). Questi modelli così ordinati sono caratterizzati da

ampiezze di banda spettrale crescenti.

6.6.1 Processo armonico

Un processo aleatorio stazionario e a media nulla si definisce armonico se ogni sua possibile

realizzazione è esprimibile nella forma

0sinx t A t y (6.84)

dove l'angolo di fase y è una realizzazione della variabile aleatoria Y uniformemente distribuita

nell'intervallo 0, 2:

1

0 22

Yp

(6.85)

Figura 6-8. Processo armonico: realizzazione (a), funzione di autocorrelazione (b), densità di Potenza spettrale (c).

La funzione di auto-covarianza coincide con la funzione di auto-correlazione e risulta

2

0 0

22

0 0

0

2

0

E sin sin d

sin sin d2

cos2

XX YC X t X t A t t p

At t

A

(6.86)

x(r)(t)

RXX()SXX()

Page 88: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

88

La funzione densità di potenza spettrale di un processo armonico è definita come

2i i

0

2

0 0

1e d e cos d

2 4

4

XX XX

AS C

A

(6.87)

Ne consegue che 2 2 / 2X A , inoltre

2

, 0 / 2i

X i A e la larghezza di banda vale 0Xq .

6.6.2 Processo a banda stretta

Un processo aleatorio stazionario a media nulla si definisce a banda stretta se la sua densità di

potenza spettrale è non-nulla solo entro un limitato intervallo di frequenze con ampiezza B =

2 1 , dove B/ 0 0, 0 essendo il valor medio di banda: 0 1 2 / 2 .

Un processo a banda stretta si definisce ideale se la sua densità di potenza spettrale è definita come

0 1 2per

0 altrimentiXX

SS

(6.88)

La varianza di X(t) è 2

0 2 12 ( )X S .

Figura 6-9. Processo a banda stretta: realizzazione (a), funzione di autocorrelazione (b), densità di Potenza spettrale (c).

La funzione di auto-covarianza di un processo a banda stretta ha la forma:

x(r)(t)

RXX()SXX()

Page 89: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

89

2

1

i

0

02 1 0 0

e d 2 cos d

sin2 2

sin sin 2 cos

2

XX XXC S S

B

SS B

B

(6.89)

Inoltre:

,0 02X S B ; ,1 0 02X S B ;

22

,2 0 0212

X

BS B

;

2 200

1212X

B Bq

B

Ogni realizzazione del processo a banda stretta è caratterizzata da un contenuto armonico

concentrato intorno alla frequenza circolare al centro della banda armonica. Le realizzazioni

possono essere definite armoniche distorte, ovvero modulate in ampiezza e fase.

Un processo aleatorio a banda stretta può essere convenientemente espresso mediante la

rappresentazione di Rice:

0sinX t A t t t (6.90)

dove A(t) e (t) sono processi aleatori che rappresentano, rispettivamente, la modulazione in

ampiezza e in fase del segnale portante sin(0t). Generalmente si impone la condizione che i

processi modulanti abbiano scale dei tempi lente rispetto alla portante.

È evidente che se a(t) e (t) sono realizzazioni di A e , allora è possibile ottenere la corrispondente

realizzazione x(t) di X. Il passaggio opposto è meno banale ed è chiamato demodulazione.

L’approccio standard per la demodulazione di segnali del tipo (6.90) è basato sulla trasformata di

Hilbert definita dalla relazione:

1

dx t

y tt

(6.91)

Il segnale y(t) prodotto dalla trasformata di Hilbert è una copia esatta di x(t) sfasata di /2. Pertanto,

l’ampiezza e la fase di x(t) possono essere stimate attraverso le relazioni:

i

ang i

a t x t y t

t x t y t

(6.92)

dove ang() è la fase complessa.

6.6.3 Processo a banda estesa

Un processo aleatorio stazionario si definisce a banda estesa se la sua densità di potenza spettrale è

non nulla solo entro un ampio intervallo di frequenze. Un processo a banda estesa si definisce ideale

se la sua densità di potenza spettrale è definita come

0 per

0 altrimentiXX

S BS

(6.93)

Page 90: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

90

La varianza assume il valore 2

02X S B .

Figura 6-10. Processo a banda estesa: realizzazione (a), funzione di autocorrelazione (b), densità di Potenza spettrale (c).

La funzione di auto-covarianza ha la forma

00

0

2 cos

sin2

Bi

XX XXC S e d S d

BS B

B

(6.94)

Inoltre:

,0 02X S B ; 2

,1 0X S B ;

3

0,2

2

3X

S B ;

1

2Xq

Ogni realizzazione del processo a banda estesa è caratterizzata da un andamento irregolare dovuto

all'ampiezza del suo contenuto armonico.

6.6.4 Rumore bianco

Un processo aleatorio stazionario si definisce rumore bianco se la sua densità di potenza spettrale è

costante per ogni valore della frequenza; è generalmente indicato con il simbolo W(t):

0( )XXS S (6.95)

La varianza di un rumore bianco è illimitata. Un processo a banda infinita è dunque fisicamente non

realizzabile, ma la sua importanza in dinamica strutturale è fondamentale.

x(r)(t)

RXX() SXX()

Page 91: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

91

Figura 6-11. Rumore bianco: realizzazione (a), funzione di autocorrelazione (b), densità di Potenza spettrale (c).

Fig. 17

La funzione di auto-covarianza risulta

i i

XX XX 0

0

C S e d S e d

2 S

(6.96)

È immediato dimostrare che: ,X i i , 1Xq .

Ogni realizzazione di un processo definito rumore bianco è caratterizzata da un andamento

infinitamente irregolare dovuto al contenuto armonico di ampiezza infinita.

6.7 Analisi statistica di processi aleatori stazionari

Le funzioni campione dei processi aleatori considerati fino a questo memento sono funzioni di una

variabile continua; per questo motivo sono definiti processi aleatori a tempo continuo. Nelle

applicazioni pratiche tali funzioni devono essere discretizzate mediante sequenze ordinate di numeri

calcolati per un insieme definito di valori (non necessariamente equispaziati) assunti dalla variabile

indipendente. I segnali discreti sono pertanto definiti come funzioni di variabili indipendenti che

possono assumere solo un insieme finito di valori.

Sia x t una funzione della variabile continua t (generalmente il tempo) e kx la sequenza degli N

valori assunti da x agli istanti 0,1,..., 1kt k N ; indichiamo inoltre con T la lunghezza del

segnale disponibile e con sT il periodo di campionamento, ovvero il tempo che intercorre tra un

valore di tk e il successivo (il pedice s deriva da sample, campione). Tali grandezze sono legate dalla

relazione

Page 92: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

92

sT NT (6.97)

L'inverso del periodo di campionamento è definito frequenza di campionamento sn e vale

1s sn T (6.98)

mentre il reciproco della lunghezza del segnale campionato è definito risoluzione in frequenza pn e

corrisponde alla minima frequenza osservabile

1pn T (6.99)

Il campionamento è il primo passo del processo di conversione di un segnale (funzione) da continuo

a discreto e la sua applicazione corretta è vincolata al teorema del campionamento di Nyquist-

Shannon. Il teorema afferma che la minima frequenza di campionamento necessaria per evitare

ambiguità nella ricostruzione di un segnale con larghezza di banda finita e nota è pari al doppio

della massima frequenza delle componenti armoniche significative:

2s cn n (6.100)

dove cn è detta frequenza di cut-off. La condizione (6.100) afferma che per ricostruire

correttamente un segnale è necessario che questo sia campionarlo con frequenza almeno doppia

rispetto alla frequenza della massima componente armonica. Un’armonica di frequenza maggiore di

2sn viene campionata con meno di un punto per ogni semi-periodo ed è confusa con un’armonica

a frequenza inferiore. La Figura 6-12 mostra un’armonica campionata con frequenza inferiore a

quella richiesta dalla (6.100). Si osserva che i campioni estratti dall’armonica originale sono punti

appartenenti anche ad un’armonica con frequenza inferiore. Dalla conoscenza dei punti campionati

è dunque impossibile distinguere le due armoniche mostrate in figura. Questa ambiguità è detta

aliasing.

Figura 6-12. Campionamento insufficiente e aliasing.

Il teorema del campionamento viene anche utilizzato in analisi statistica per stabilire il numero di

esperimenti da eseguire per collezionare un numero di dati (campioni) sufficienti per poter

ricostruire correttamente una funzione non nota in alcuni punti, per esempio in punti inaccessibili a

causa di vincoli fisici oppure semplicemente per ottenere dati tra due punti campionati tramite un

esperimento. Congiuntamente a spline e a funzioni di regressione il teorema del campionamento

0 1 2 3 4 5 6 7 8 9 10-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

t

x(t

)

Page 93: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

93

permette di eseguire analisi elaborate su segnali di origine fisica (temperature, pressioni, conteggio

di globuli bianchi e rossi, conteggio di stelle...).

6.7.1 Stima della funzione densità di potenza spettrale di un processo stazionario

Sia x(t) una funzione deterministica nota nell’intervallo t[0, T]. Estendendo la funzione in modo

periodico fuori dal suo dominio di definizione, essa può essere rappresentata attraverso la serie di

Fourier:

i

e jt

j

j

x t A

(6.101)

dove 2 2j p pj j n j T e jA sono i coefficienti di Fourier

i

0

1e dj

Tt

jA x t tT

(6.102)

Supponendo che x(t) sia campionata in corrispondenza della sequenza di istanti temporali

uniformemente distribuiti tk, = kTs (k = 0,…, N-1) le (6.101) e (6.102) assumono la forma:

2

ii i 2 i /e e e es

j k j sjkTt kT jk NT

k k j j j j

j j j j

x x t A A A A

(6.103)

1

2 i /

0

1e

Njk N

j k

k

A xN

(6.104)

dove è stata impiegata la (6.97) e l’integrale è stato approssimato attraverso la regola dei rettangoli.

La sommatoria (6.104) è estesa comprendendo tutte le armoniche di frequenza j pn jn fino a

frequenza infinita. Se il segnale kx è campionato alla frequenza sn , per il teorema del

campionamento non possono essere distinte al suo interno armoniche con frequenza maggiore di

2sn . Supponendo inizialmente che il segnale in questione non contenga armoniche superiori a

2sn , la (6.103) può essere riscritta nella forma

2

2 i /

2

eN

jk N

k j

j N

x A

(6.105)

Si definisce trasformata di Fourier discreta (DFT) della sequenza kx la sequenza dei coefficienti di

Fourier jA ordinati in modo da evitare indici negativi e moltiplicati per il numero dei campioni N

0,1,..., 2 1

2, 2 1,..., 1

j

j

j N

NA j Nx

NA j N N N

(6.106)

Sostituendo nella (6.105) si ottiene

12 i /

0

1e

Njk N

k j

j

x xN

(6.107)

Si dimostra che la DFT definita in (6.107) è legata alla trasformata di Fourier continua dalla

relazione

Page 94: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

94

j s jx n x (6.108)

cioè la DFT approssima la Trasformata di Fourier a meno di un fattore sn .

Nel caso in cui il segnale contenesse armoniche significative oltre la frequenza di cut-off la (6.108)

andrebbe sostituita con la seguente relazione:

2j s j s

m

x n x mn

(6.109)

pertanto diventa impossibile ricostruire la trasformata di Fourier continua ( )x a partire dalla DFT

jx .

Si assuma ora che x(t) sia una porzione di lunghezza T di una realizzazione di un processo aleatorio

stazionario. Si adotta dunque la notazione XT(t) per identificare il processo aleatorio finestrato e

xT(t) la sua generica realizzazione.

Supponendo che siano disponibili Nseq porzioni di realizzazioni lunghe T, denotate xT(h)

(t) (h =

1,…,Nseq), la densità di potenza spettrale di X(t) può essere stimata adattando la definizione (6.34):

2

1

2

1

1 1

2

1 1

2

seq

seq

N

h

XX j T j

h

N

h

j

hseq

S xT

xNN

(6.110)

Dove ( ) ( )h

Tx è la trasformata di Fourier di ( ) ( )h

Tx t e ( )h

jx la sua DFT; il valore atteso è stato

sostituito dalla media aritmetica estesa alle Nseq sequenze disponibili; N = T/Ts è il numero di

campioni di ogni sequenza.

% stima PSDF

function [S, n] = psd1(x,Nwin,ns)

% stima PSD (monolatera normalizzata in frequenza) del segnale x campionato

% alla frequenza ns

% Nwin = lunghezza finestre per metodo di Welch (usare potenza di 2 per

% maggiore velocità)

Nfft = Nwin;

Nover = floor(Nwin/2);

Nt = length(x);

Nn = ceil(Nfft/2)+1;

S = zeros(Nn,1);

kk = 0;

i1 = 1;

i2 = Nwin;

while i2 <= Nt

kk = kk + 1;

X = fft(x(i1:i2),Nfft); % fft: algoritmo ottimizzato per il calcolo

% della DFT

S = S + X(1:Nn).*conj(X(1:Nn));

i1 = i1 + Nwin - Nover;

i2 = i2 + Nwin - Nover;

end

S = S / (kk * Nwin * ns/2);

n = (0:Nfft/2)*ns/Nfft;

Figura 6-13. Codice Matlab per stima per stima densità di potenza spettrale.

Page 95: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

95

6.8 Simulazione di processi aleatori

6.8.1 Metodo della rappresentazione spettrale

Il metodo della rappresentazione spettrale permette di simulare realizzazioni x t di un processo

aleatorio stazionario Gaussiani X t a media nulla e con assegnata densità di potenza spettrale

XXS . A tale scopo, si consideri un processo aleatorio ˆ ( )X t espresso mediante sovrapposizione

di armoniche di ampiezza deterministica e fase casuali nella forma

1

ˆ 2 cosN

XX j j j

j

X t S t

(6.111)

dove j sono valori di frequenza distanti e j sono variabili aleatorie statisticamente

indipendenti con distribuzione uniformemente in 0,2 .

Si intende dimostrare che il processo aleatorio ˆ ( )X t definito dalla (6.111) coincide con X(t), cioè ha

densità si potenza spettrale SXX, almeno asintoticamente per N→∞. Allo scopo di semplificare la dimostrazione si introduce un processo aleatorio a valori complessi:

i

1

ˆ ˆ ˆi 2 e j j

Nt

XX j

j

Z t X t Y t S

(6.112)

dove risultano

1

1

1

ˆ ˆRe 2 cos

ˆ ˆIm 2 sin

2 cos 2

N

XX j j j

j

N

XX j j j

j

N

XX j j j

j

X t Z t S t

Y t Z t S t

S t

(6.113)

Dalla (6.113) e dall'assunzione che j sono uniformemente distribuite si deduce che i processi

aleatori ˆ ( )X t e ˆ( )Y t hanno medesime proprietà statistiche, ovvero

ˆ ˆ ˆ ˆXX YYS S (6.114)

L’autocorrelazione di ˆ( )Z t può essere calcolata utilizzando la definizione (6.112):

ˆ ˆ

i i

, 1

ii i

, 1

i

1

E

E 4 e e

4 e e E e

4 e

j j k k

k jj k

k

ZZ

Nt t

XX j XX k

j k

Nt t

XX j XX k

j k

N

XX j

j

R Z t Z t

S S

S S

S

(6.115)

ed è dunque messa in relazione con la densità di potenza spettrale del processo obiettivo X. D’altra

parte, espandendo la definizione di auto-covarianza risulta:

Page 96: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

96

ˆ ˆ

ˆ ˆ ˆ ˆ

ˆ ˆ

ˆ ˆE

ˆ ˆ ˆ ˆ ˆ ˆ ˆE E iE iE

ˆ ˆ ˆ ˆiE iE

ˆ ˆ ˆ ˆ2 iE iE

ZZ

XX YY

XX

R Z t Z t

X t X t Y t Y t X t Y t Y t X t

R R X t Y t Y t X t

R X t Y t Y t X t

(6.116)

Eguagliando le parti reali della (6.116) e della (6.115) si ottengono le equazioni:

i

ˆ ˆ

1

i

ˆ ˆ

1

ˆ ˆ

10

2 4Re e

2 e d 4 cos

cos d cos

j

N

XX jXXj

N

XX jXXj

N

XX jXXj

R S

S S

S S

(6.117)

L'ultima uguaglianza della (6.117) è corrisponde con la definizione di integrale secondo Riemann,

quindi il secondo membro converge al primo per 0 .

Il processo a media nulla X t simulato attraverso la (6.111) è stazionario ed ergodico; la sua

distribuzione tende ad essere Gaussiana (per N ) in virtù del teorema del limite centrale.

Una rappresentazione alternativa alla (6.111) che possiede migliore convergenza alla distribuzione

Normale è fornita dalla formula

i

1

ˆ 2Re e j

Nt

XX j j

j

X t S A

(6.118)

dove j j jA R iI sono numeri complessi, non correlati, con distribuzione di probabilità Gaussiana

standardizzata 0,1N .

La Figura 6-14 mostra il codice Matlab per la generazione di realizzazioni di processi stazionari

Gaussiani con assegnata densità di potenza spettrale.

Page 97: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

97

function [varargout] = simSR(varargin)

%function [x, t] = simSR(Suu, Dt, Nseq, rind)

%

% simulation of input spectrum 'Suu' (one-side, freq. normalized) using 'Dt'

time step.

% The length of Suu determines the number of data points produced.

% any one single realization will be 2*length(Suu) in length.

% Suu(1) should correspond to the spectrum for n = Dn.

% the abscissa for PSD should be defined as

% Nn = ceil((Nt-1)/2); n = (1:Nn)/Nn/Dt/2; % Nt = # time steps to simulate

% create 'Nseq' simulations and put them in matrix 'x' column-wise

% 't' is the returned time x-axis vector.

% rind=1 means reset rand seed to clock (default), 0 means leave unseeded

% This version uses random amp and phase ****RARP****

if nargin < 2

return

end

Suu = varargin{1};

if size(Suu,1) == 1

Suu = Suu';

end

if size(Suu,2)~=1

return

end

Dt = varargin{2};

if nargin >= 3

Nseq = varargin{3};

else

Nseq = 1;

end

if nargin == 4

rind = varargin{4};

else

rind = 1;

end

Nt = length(Suu)*2; % number of desired simulation points

Nn = ceil((Nt-1) / 2); % number of freq. points (Nt even => Nn=Nt/2, Nt odd

=> Nn=(Nt-1)/2)

%T = Dt * Nt; % length of simulation

t = (0:Nt-1) * Dt;

ns = 1/Dt; % sampling freq.

nc = ns / 2; % cutoff freq.

%Dn = nc / Nn; % freq. step

%n = (1:Nn) * nc / Nn; % frequency

if rind == 1;

rand('seed',sum(100*clock));

end

x = zeros(Nt, Nseq);

X = zeros(Nt,1);

for k = 1:Nseq;

rnd = randn(Nn,2); % generate matrix Nf x 2 of standard, normal numbers

re = rnd(:,1);

im = rnd(:,2);

re = sqrt(.5) * (re - mean(re));

im = sqrt(.5) * (im - mean(im));

xsi = re + 1i*im;

X(2 : Nn+1) = sqrt(Nt * nc * Suu) .* xsi;

% %mirror conjugate of linear fourier coeff.

X(Nn+2 : Nt) = conj(X(Nn : -1 : 2));

X(Nn+1) = abs(X(Nn+1));

x(:,k) = real(ifft(X)); %IFFT to generate time series

end

if nargout >= 1

varargout{1} = x;

end

if nargout == 2

varargout{2} = t;

end

Figura 6-14. Codice Matlab generazione realizzazioni di processo stazionario Gaussiano.

Equation Chapter (Next) Section 1

Page 98: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

98

7 Risposta stazionaria di strutture lineari a un grado di libertà Una struttura lineare a un grado di libertà può essere concepita come un particolare sistema lineare

causale tempo-invariante avente come ingresso la forza e come uscita lo spostamento. Un sistema

dinamico di questo tipo può essere rappresentato attraverso l’equazione differenziale:

mq t cq t kq t f t (7.1)

dove f(t) è la forza esterna, q(t) è lo spostamento, m la massa, c il coefficiente di smorzamento

viscoso e k la rigidezza. Se la forza esterna f(t) è nota in modo deterministico, la (7.1) può essere

integrata a partire dalle condizioni iniziali fornendo la risposta q(t). Partendo da condizioni iniziali

omogenee, oppure ipotizzando che il loro effetto si sia estinto, la risposta q(t) può essere espressa

nella forma:

0

t

t

q t h t f d (7.2)

dove t0 è l’istante iniziale di applicazione del carico e h è la funzione di risposta a impulso

2

0 0exp sin 1h t t t (7.3)

in cui 0 = (k/m)0.5

è la pulsazione propria e = c/(2m0) è lo smorzamento relativo al critico.

Alternativamente, la relazione (7.2) può essere rappresentata nel dominio della frequenza nella

forma:

q H f (7.4)

dove H è la funzione di risposta in frequenza

2 2

0 0

1 1

2iH

m

(7.5)

Se la forza agente sulla struttura è un processo aleatorio F(t), allora è possibile supporre che la (7.1)

sia valida per ogni possibile realizzazione f(t) di F(t) e che le corrispondenti risposte q(t) siano le

realizzazione di un processo aleatorio Q(t). In questo senso la (7.1) può essere formalmente riscritta

in termini di processi aleatori:

mQ t cQ t kQ t F t (7.6)

Se F e Q sono processi aleatori stazionari (la stazionarietà di F implica la stazionarietà di Q), le

relazioni (7.2) e (7.4) possono essere riscritte nella forma:

Q t h t F d

(7.7)

T TQ H F (7.8)

dove gli estremi di integrazione della convoluzione sono stati estesi tenendo conto della

stazionarietà di F e della causalità del sistema e le trasformate di Fourier sono finestrate sul periodo

T.

Page 99: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

99

La media e la densità di potenza spettrale della risposta di una struttura lineare a un grado di libertà

con eccitazione stazionaria può essere valutata attraverso le equazioni ricavate per il caso di un

generico sistema lineare. Per il caso specifico assumono la forma:

2

10Q F F

QQ FF

Hk

S H S

(7.9)

Esempio 7.1. Risposta stazionaria di un oscillatore semplice.

Si consideri un’antenna di altezza h = 8 m realizzata attraverso una struttura tubolare in

acciaio. La massa in sommità è M = 100 kg; il palo di sostegno è realizzato mediante un

profilo tubolare 139.72.9 (massa per unità di lunghezza del palo di sostegno è m = 9.86

kg/m, momento di inerzia 292.0 cm4). La struttura è modellata come un sistema dinamico a

un grado di libertà (corrispondente con lo spostamento della massa in sommità). Lo

smorzamento relativo al critico è = 0.5%.

L’eccitazione esterna è costituita da un processo aleatorio stazionario Gaussiano F(t) con

media F = 500 N e densità di potenza spettrale SFF:

2100N se 6,6

0 altrimentiFF

sS

(7.10)

Si intende caratterizzare il processo aleatorio Q(t) rappresentativo della risposta strutturale

(spostamento) e valutare la probabilità lo spostamento supera il valore limite deterministico

qlim = 40cm corrispondente allo stato limite di servizio per la trasmissione dell’antenna.

Come primo passo dell’analisi si calcolano i parametri meccanici della struttura:

3

3

0

33.52 10

139.4 2

5.03

t

t

EJ Nk

h m

hM M m kg m

k rad

M s

(7.11)

dove E = 206 MPa è il modulo elastico, k la rigidezza, Mt la massa totale attribuita al grado

di libertà e 0 la pulsazione propria. La media, Q, e la densità di potenza spettrale, SQQ(),

della risposta sono ottenuta dalle relazioni:

2

10 0.142Q F F

QQ FF

H mk

S H S

(7.12)

La Figura 7-1 mostra la densità di potenza spettrale della risposta tracciata con ordinata in

scala logaritmica.

Page 100: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

100

Figura 7-1. Densità di potenza spettrale della risposta.

La varianza della risposta è ottenuta per integrazione della densità di potenza spettrale:

2 dQ QQS

(7.13)

a cui corrisponde la deviazione standard Q = 0.112 m.

L’eccitazione F(t) è un processo aleatorio Gaussiano, quindi in virtù della linearità e del

sistema dinamico anche la risposta Q(t) è un processo Gaussiano, pertanto la sua densità di

probabilità, nota a partire dalla conoscenza di media e varianza, può essere tracciata come

mostrato in Figura 7-2. La probabilità con cui lo spostamento dell’antenna viola la verifica

di esercizio può essere calcolata valutando l’area indicata in Figura 7-2.

lim

lim d 0.01Q

q

P Q q p

(7.14)

Figura 7-2. Densità di probabilità della risposta.

In alternativa, la probabilità di superamento della soglia per la verifica di sicurezza rispetto

alla stato limite di servizio può essere valutata attraverso la relazione:

-10 -8 -6 -4 -2 0 2 4 6 8 1010

-6

10-5

10-4

10-3

10-2

10-1

(rad/s)

SQ

Q(

) (

m2 s

)

-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 0.2 0.3 0.4 0.50

0.5

1

1.5

2

2.5

3

3.5

4

pQ

( )

Page 101: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

101

lim lim1 QP Q q F q (7.15)

dove FQ è la distribuzione di probabilità di Q(t).

Nella prassi progettuale, la scelta del valore di smorzamento da impiegare nelle verifiche è

essenzialmente dettata dall’esperienza ed è soggetta a pesanti incertezze. Per contro, la

valutazione della frequenza propria può essere effettuata in modo piuttosto accurato

attraverso una modellazione a elementi finiti. Per questa ragione è spesso raccomandabile

valutare la risposta strutturale per diversi valori di smorzamento al fine di valutare la

sensibilità delle verifiche di sicurezza nei riguardi di questo parametro. La Figura 7-3

mostra la deviazione standard della risposta in funzione dello smorzamento relativo, mentre

la Figura 7-4 mostra la probabilità di superamento dello stato limite di esercizio. Si osserva

che la variazione di valori di smorzamento fra 0.5% a 1.0% comporta una variazione di un

ordine di grandezza della probabilità di superamento dello stato limite di servizio.

Figura 7-3. Deviazione standard della risposta in funzione dello smorzamento.

Figura 7-4. Probabilità di superamento del limite di esercizio in funzione dello smorzamento.

0 0.005 0.01 0.015 0.02 0.025 0.03 0.035 0.04 0.045 0.050

0.05

0.1

0.15

0.2

0.25

Q

0 0.005 0.01 0.015 0.02 0.025 0.0310

-8

10-7

10-6

10-5

10-4

10-3

10-2

10-1

100

P(Q

>q

lim)

Page 102: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

102

7.1 Modelli di azioni ambientali stazionarie

7.1.1 Velocità del vento

La velocità del vento all’interno dello strato limite atmosferico è generalmente modellata come la

somma di un valore costante vm, dipendente dalla quota z, e di una fluttuazione aleatoria

rappresentata attraverso tre processi aleatori stazionari gaussiani a media nulla U(t), V(t) e W(t) che

rappresentano rispettivamente le fluttuazioni di velocità nella direzione della velocità media, in

direzione trasversale e in direzione verticale. La velocità media è fornita dalla relazione:

min

0

logm r r

zv z v k z z

z

(7.16)

dove vr è la velocità di riferimento che dipende dalla zona geografica e dal periodo medio di ritorno

assunto in fase di progettazione, mentre kr, z0 e zmin dipendono dalle caratteristiche del sito. I

processi aleatori U, V e W sono rappresentati attraverso le densità di potenza spettrale:

2

5 3

2

5 3

2

5 3

6.868

1 10.302

9.434

1 14.151

6.103

1 63.181

U

mUU U

U

m

V

mVV V

V

m

W

mWW W

W

m

L

vG n

Ln

v

L

vG n

Ln

v

L

vG n

Ln

v

(7.17)

dove U, V e W sono le deviazioni standard e LU, LV e LW le lunghezze integrali di scala di U, V, e

W, rispettivamente

0.75

0.50

U r r

V U

W U

v k

(7.18)

minper

0.25

0.10

U

V U

W U

zL L z z

z

L L

L L

(7.19)

In cui L =300 m, z =200 m e è un parametro dipendente dalle caratteristiche del sito.

La Figura 7-5 mostra la densità di potenza spettrale delle tre componenti della fluttuazione della

velocità del vento; all’usuale rappresentazione in scala lineare (a) è affiancata la rappresentazione

con ascissa logaritmica e ordinata moltiplicata per la frequenza (b). Per entrambe queste

Page 103: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

103

rappresentazioni l’area sottesa alle curve rappresenta la varianza del processo aleatorio. I diagrammi

sono realizzati utilizzando i parametri z0 = 0.01 m, kr = 0.17, vr = 32 m/s, z = 10 m, = 0.44.

(a) (b)

Figura 7-5. Densità di Potenza spettrale della velocità del vento.

L’ipotesi di stazionarietà della velocità è generalmente accettata per i venti prodotti da fenomeni

meteorologici a scala sinottica, per i quali le condizioni atmosferiche rimangono sostanzialmente

immutate all’interno di intervalli temporali con lunghezza dell’ordine di 10 minuti. I venti generati

da fenomeni meteorologici locali quali i fronti temporaleschi, i downburst e i tornado, al contrario,

evolvono in tempi dell’ordine di alcune decine di secondi, dunque confrontabili con il periodo

proprio di strutture molto flessibili come i ponti sospesi. In questo caso la trattazione stazionaria

non è corretta da un punto di vista teorico e non è necessariamente conservativa da un punto di vista

progettuale.

7.1.2 Accelerazione sismica

In ambito ingegneristico, l’accelerazione sismica è generalmente rappresentata attraverso lo spettro

di risposta elastico. Lo spettro di risposta di progetto è ottenuto mediando e lisciando gli spettri di

risposta elastici ottenuti a partire da accelerogrammi misurati in siti di caratteristiche analoghe. A

causa di questa genesi, lo spettro di risposta di progetto non ha una chiara definizione statistica e il

suo impiego in ambito probabilistico è problematica. Per altro verso, lo spettro di risposta contiene

implicitamente informazioni legate al carattere non-stazionario dell’azione e della risposta dinamica

che sono tradotte in termini probabilistici solo a prezzo di notevoli difficoltà.

Un approccio probabilistico semplice consiste nel modellare la fase di moto sismico intenso come

processo stazionario. Questa ipotesi è lecita nei casi in cui la sua durata sia molto grande rispetto

alla scala dei tempi della struttura. A questo scopo si introduce la funzione di Husid:

2

0

2

0

d

d

f

t

t

u t t

t

u t t

H (7.20)

Dove u è l’accelerazione sismica e tf la durata del sisma. Su questa base, la durata Ts della fase

intensa di un evento sismico è valutata attraverso la relazione:

90 5sT t t (7.21)

0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.50

50

100

150

200

250

300

350

400

450

n (Hz)

GU(n

), G

V(n

), G

W(n

)

(m

2/s

)

U

V

W

10-4

10-3

10-2

10-1

100

101

102

0

1

2

3

4

5

6

7

n (Hz)

nG

U(n

), n

GV

(n),

nG

W(n

)

(m

2/s

2)

U

V

W

Page 104: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

104

dove t5 e t95 sono rispettivamente gli istanti in cui la funzione di Husid assume i valori 0.05 e 0.95.

Si ritiene che l’ipotesi di stazionarietà della fase intensa sia accettabile se vale la condizione:

03

2s

TT

(7.22)

dove T0 è il periodo fondamentale e lo smorzamento relativo al critico della struttura.

Un modello di densità di potenza spettrale di un processo stazionario U rappresentativo

dell’accelerazione sismica intensa, proposto da Kanai (1957) e Tajimi (1960) e modificato da

modificato da Clough e Penzien (1975) è fornito dall’espressione:

4 2 2 2 4

0 2 2 2 2 2 2 2 2 2 2

4

4 4

K K K

UU

K K K P P P

S S

(7.23)

Sulla base di questo modello, l’accelerazione sismica è rappresentata attraverso un rumore bianco di

ampiezza S0 filtrati mediante operatori lineari, di cui i termini della (7.23) rappresentano il modulo

quadro delle funzioni di risposta in frequenza. Il primo filtro, con parametri K e K, modella la

forma spettrale introducendo una regione armonica di amplificazione nell’intorno di K; il secondo

filtro, con parametri P e P, è semplicemente un passa-alto e ha la funzione di rendere finito lo

spettro della velocità e dello spostamento del terreno che, altrimenti a causa dell’integrazione,

assumerebbero valori illimitati. La Tabella 7-1 mostra i parametri di modello identificati da alcuni

terremoti registrati.

Tabella 7-1. Paramentri di modello identificati da alcuni terremoti registrati.

K (rad/s) K P (rad/s) P S0 m2s

-3

El centro 19.0 0.65 2.0 0.6 2.910-3

Taft 20.0 0.65 1.0 0.5 2.810-3

Mexico D.F. 4.2 0.1 0.23 0.1 3.310-3

7.1.3 Onde marine

Il profilo del mare soggetto a moto ondoso generato dal vento, lontano dalla costa e per grande

profondità è generalmente rappresentato attraverso un processo aleatorio stazionario. Come nel caso

del vento, la condizione di stazionarietà è limitata a periodi di tempo in cui le condizioni non

mutano significativamente, che per le onde marine hanno tipicamente lunghezza di 1-3 ore. In

accordo con la formulazione lineare della teoria delle onde, l’altezza del pelo libero (t) può essere

idealizzata come un processo Gaussiano. Un popolare modello spettrale basato su misure

sperimentali effettuate nel Mare del Nord (JONSWAP) è definito mediante la relazione:

2

2 2

( )4 4 exp2

2

45

515exp

16 5 4

p

pp psHS

(7.24)

dove p è la pulsazione di picco dello spettro, Hs l’altezza d’onda significativa (altezza media del

terzo di onde di altezza maggiore); e sono fattori che correggono la forma del picco spettrale.

Nel caso in cui si pone = 1 la (7.24) corrisponde con l’espressione di Pierson-Moskowitz.

Page 105: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

105

7.2 Soluzioni analitiche per la risposta stazionaria di un oscillatore semplice*

Si studiano le vibrazioni a regime di un sistema strutturale ad un grado di libertà eccitato da un

processo stazionario ideale. Si ricercano soluzioni analitiche eventualmente approssimate.

L’equazione del moto è nella forma:

2

0 0

12Q t Q t Q t F t

m (7.25)

dove 0, e m sono parametri deterministici.

7.2.1 Rumore bianco filtrato*

Si considera il caso in cui l’eccitazione è costituita da un rumore bianco filtrato con pulsazione di

taglio c (Figura 7-6)

Figura 7-6. Densità di Potenza spettrale eccitazione.

La densità di potenza spettrale della risposta è fornita dalla (7.9) e particola rizzata nella forma:

2

0

22 2 2 2 2 2

0 0

( ) ( ) ( )

1

4

QQ FF

c

S H S

s

m

(7.26)

La varianza della risposta è ottenuta per integrazione della (7.26)

2 0

22 2 2 2 2 2

0 0

002 3

0 0

1d

4

,2

c

c

Q

c

S

m

SI

m

(7.27)

in cui la funzione I0 è diagrammata in Figura 7-7 e fornita dall’espressione analitica:

2

2 2

0

0 220 2 2

0

2 2

0 0

1

, ln2 1

1

1 11

atan atan

c

c

c

c c

I

(7.28)

SFF()

-c c

Page 106: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

106

Figura 7-7. Funzione I0 definita dalla (7.28).

7.2.2 Processo a banda stretta ideale*

La soluzione ricavata nel precedente paragrafo può essere estesa al caso di processo a banda stretta

ideale sfruttando la linearità del sistema dinamico considerato. Si consideri la forzante con densità

di potenza spettrale definita in Figura 7-8. La varianza della risposta può essere ottenuta

modificando la (7.27) nella forma:

2 0 2 1

0 02 3

0 0 0

, ,2

Q

SI I

m

(7.29)

Page 107: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

107

Figura 7-8. Densità di Potenza spettrale eccitazione.

7.2.3 Rumore bianco ideale*

Il caso in cui l’eccitazione è rappresentata da un rumore bianco ideale la varianza della risposta può

essere ottenuta considerando il limite per c→∞ della (7.27). Si ottiene:

2 0

2 3

02Q

S

m

(7.30)

Si osserva che il rumore bianco ideale è un processo aleatorio fisicamente irrealistico dal momento

che possiede varianza infinita. Nonostante questo, se il sistema strutturale eccitato è smorzato, la

varianza del processo di risposta assume un valore finito. Questa proprietà è largamente sfruttata in

numerose applicazioni tecniche (es. spettro Kanai-Tajimi per accelerazione sismica).

7.2.4 Densità di potenza spettrale regolare e struttura debolmente smorzata*

Si considera un’eccitazione definita da una generica densità di potenza spettrale purché

sufficientemente regolare.

Figura 7-9. Densità di Potenza spettrale eccitazione.

Si supponga la struttura debolmente smorzata 1 ; in questa ipotesi 2

( )H assume un

andamento talmente appuntito da consentire la seguente assunzione:

0 0

0 0

2 22

0

2 2

0

( ) ( ) 2 ( )

2 ( ) 2 ( )

Q QQ FF FF

FF FF

S d S H d S H d

S H d S H d

(7.31)

Utilizzando la (7.27) la (7.31) può essere semplificata nella forma:

SFF()

Page 108: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

108

02 0 00 02 3

0 0 0

0

2 3

0

, ,2

2

FF

Q

FF

SI I

m

S

m

(7.32)

avendo nuovamente utilizzato la condizione ≪ 1 per valutare le funzioni I0.

7.2.5 Densità di potenza spettrale decrescente e struttura debolmente smorzata*

Si considera un’eccitazione definita da una generica densità di potenza spettrale regolare e

velocemente decrescente. Se la struttura è debolmente decrescente, la varianza della risposta può

essere ottenuta modificando la (7.31) per tenere in conto l’effetto del contenuto armonico a bassa

frequenza dell’eccitazione.

Figura 7-10. Densità di Potenza spettrale eccitazione e funzione di risposta in frequenza.

0 0

0 0

0 0

0

2 22

0

2 2 2

0

2

04

2 0 0

0

2 4 2 3

0 0

( )d ( ) d 2 ( ) d

2 ( ) d 2 ( ) d 2 ( ) d

2( )d 2 ( ) d

2

Q QQ FF FF

FF FF FF

FF FF

FFF

S S H S H

S H S H S H

S S Hm

S

m m

(7.33)

7.3 Analisi della risposta massima di una struttura lineare soggetta a forzante stazionaria

Si consideri un processo aleatorio stazionario Q(t) rappresentativo della risposta strutturale, in

termini di spostamento o sollecitazione. Sia Q la variabile aleatoria che esprime il valore Massimo

di Q(t) in un intervallo temporale di lunghezza T. In altri termini le realizzazioni q della variabile

aleatoria Q sono i massimi nel periodo T delle realizzazioni q(t) del processo Q(t) (Figura 7-11).

Page 109: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

109

Figura 7-11. Massimo di un processo aleatorio.

La valutazione della distribuzione di probabilità di Q ha fondamentale importanza per la

valutazione della sicurezza di una struttura rispetto a uno stato limite ultimo. Per questo caso,

infatti, l’occorrenza di un unico evento sfavorevole (superamento di una soglia fissata della

risposta) comporta, almeno in principio, la perdita della struttura. Per questa ragione, a differenza di

ciò che accade per la verifica a stato limite di servizio per cui è rilevante valutare il tempo per il

quale la risposta della struttura è sopra una soglia, nel caso di stato limite ultimo, è necessario

valutare la probabilità di superamento della soglia all’interno della vita di riferimento T della

struttura, o alternativamente, la distribuzione di probabilità del tempo di primo superamento.

Per valutare la distribuzione di probabilità di Q è conveniente affrontare preliminarmente il

cosiddetto problema dell’attraversamento di soglia. Si assume per semplicità che Q(t) sia un

processo a media nulla. È chiaro che un eventuale valore medio non nullo (costante in virtù della

stazionarietà) potrà essere sommato a posteriori alla stima del valore massimo.

7.3.1 Attraversamento di una soglia deterministica di un processo stazionario

Si considera un valore deterministico 0 definito soglia e sia K la variabile aleatoria discreta che

rappresenta il numero di volte in cui Q attraversa la soglia verso l’alto in un intervallo di

lunghezza T. Si definisce K+ la variabile aleatoria che conta gli attraversamenti verso l’alto (Figura

7-12).

t

t

1q

2q

1q t

2q t

T

Page 110: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

110

Figura 7-12. Numero di attraversamenti verso l’alto di una soglia deterministica.

Il conteggio degli attraversamenti della soglia può essere effettuato introducendo il processo

aleatorio ausiliario

Y t Q t H (7.34)

dove H è la funzione a gradino di Heaviside. La derivata temporale di Y (in senso formale perché H

non è derivabile nei punti di discontinuità) è:

Y t Q t Q t (7.35)

dove è la funzione a impulso di Dirac. Le realizzazioni y di Y sono sequenze di impulsi positivi

e negativi. Quelli positivi sono posizionati in corrispondenza degli attraversamenti della soglia

verso l’alto della realizzazione corrispondente di Q. Viceversa, gli impulsi negativi corrispondono

agli attraversamenti verso il basso. La Figura 7-13 mostra una realizzazione di Q e le corrispondenti

realizzazioni di Y e Y . Il numero di attraversamenti di soglia K può essere formalmente valutato

contando gli impulsi di Y mediante l’integrale:

0 0

, d d

T T

K T Y t t Q t Q t t (7.36)

La (7.36) deve essere intesa come una relazione fra le realizzazioni del processo Y e le

realizzazioni della variabile aleatoria K, che formalmente dipende dal livello della soglia e dalla

lunghezza del periodo di osservazione T. Il valore atteso di K può essere valutato attraverso la

relazione:

2 1 1 2 1 2

0

, E , d , d d

T

K Q t Q tT K T t p

(7.37)

t

t

1q t

2q t

1 2 3 4 5 6 7

12 3 4 5

(1) 7k

(2) 5k

T

Page 111: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

111

dove Q t Q t

p è la densità di probabilità congiunta di Q e Q estratte al medesimo istante t, che è

invariante rispetto a t per l’ipotesi di stazionarietà. Sfruttando le proprietà della funzione di Dirac e

integrando rispetto al tempo la (7.37) può essere semplificata nella forma:

2 2 2, E , , dK Q t Q tT K T T p

(7.38)

Il valore atteso dei superamenti verso l’alto può essere ottenuto modificando la (7.38) includendo

nella media soltanto i valori positivi di Q

2 2 2

0

, E , , dQ t Q tK

T K T T p

(7.39)

Figura 7-13. Conteggio degli attraversamenti di soglia.

Si osserva che la lunghezza del periodo di osservazione T è a fattore nella (7.39), quindi è

conveniente definire il numero di attraversamenti verso l’alto nell’unità di tempo attraverso la

variabile aleatoria:

,K T

NT

(7.40)

0

1

1q t

1y t

1y t

T

Page 112: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

112

Il valore medio di K+ o di N

+ possono essere valutati attraverso la (7.39) assumendo un modello per

la densità di probabilità congiunta di Q e Q . Si ipotizza che queste abbiano distribuzione congiunta

Gaussiana (è corretto se la struttura è lineare e l’eccitazione Gaussiana), cioè si pone:

2 2

1 21 2 2 2

1, exp

2 2 2Q t Q t

Q QQ Q

p

(7.41)

in cui si è tenuto conto che a causa della stazionarietà i processi Q e Q hanno covarianza nulla al

tempo di ritardo zero. Sostituendo la (7.41) nella (7.39) e per la (7.40) si ottiene il valore medio del

numero di attraversamenti verso l’alto della soglia

2

2

1exp

2 2

Q

NQ Q

(7.42)

Ponendo = 0 la (7.42) fornisce il numero medio di attraversamenti verso l’alto della soglia zero

nell’unità di tempo. Tale quantità è definita frequenza attesa del processo Q.

1

02

Q

Q NQ

(7.43)

7.3.2 Distribuzione di probabilità del massimo (superamenti di soglia indipendenti)

Se la soglia è alta a sufficienza, si potrebbe ipotizzare che gli attraversamenti siano eventi rari e

statisticamente indipendente. Questa assunzione suggerisce di caratterizzare il numero degli

attraversamenti K+ mediante una variabile aleatoria di Poisson, la cui funzione di probabilità è data

dalla (3.89)

exp 0,1,!

N

K N

TP T

(7.44)

Ponendo = 0 la (7.44) fornisce la probabilità che il numero di attraversamenti della soglia nel

tempo T sia nullo, ossia che il massimo Q sia inferiore a .

ˆ, 0 expN

P K T P Q T

(7.45)

Tale probabilità (dipendente da ) è, per definizione, la funzione di distribuzione di probabilità di

Q che risulta:

2

ˆ 2exp exp

2QQ

Q

F T

(7.46)

Dalla quale la funzione di densità di probabilità può essere ottenuta per derivazione:

2 2

ˆ 2 2 2

ˆexp exp exp

2 2Q QQ

Q Q Q

qp T T

(7.47)

Page 113: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

113

Dalla (7.47) è possibile determinare la media e la deviazione standard di Q per integrazione. Valori

approssimati possono essere calcolati con le espressioni:

ˆ Q QQ

Q

ˆ QQ

Q

0.57722log T

2log T

12log T

(7.48)

La Figura 7-14 mostra la densità di probabilità (del primo ordine) del processo Q(t) e la densità di

probabilità del massimo per diversi valori del parametro QT.

Figura 7-14. Influenza del parametro QT sulla densità di probabilità del Massimo.

Si osserva che all’aumentare di QT la densità di probabilità del massimo trasla verso destra e si

stringe a causa della riduzione della deviazione standard di Q . In virtù di questa tendenza è lecito

assumere che per QT molto grande sia lecito ipotizzare che il valore massimo sia quasi

deterministico e che coincida con il valore atteso fornito dalla (7.48). Il valore atteso del massimo

diviso per la deviazione standard è definito fattore di picco

ˆ 0.57722log

2log

Q

Q Q

QQ

g TT

(7.49)

Se il processo Q(t) ha valore medio non nullo Q, allora il valore atteso del massimo è fornito dalla

relazione:

ˆ Q Q QQg (7.50)

Il fattore di picco può dunque essere interpretato come la distanza, misurata in termini di deviazioni

standard, fra il valore medio del processo e il valore medio del suo massimo.

Equation Chapter (Next) Section 1

-2 -1 0 1 2 3 4 5 60

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

Q tp

Q

p

102

103

104

105

10QT

Page 114: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

114

8 Processi aleatori multi-variati Nel corso del capitolo precedente si sono trattati processi aleatori le cui funzioni campione hanno

valori scalari. Questi processi aleatori sono detti mono-variati. Si considera ora il caso di processi,

detti multi-variati, le cui funzioni campione hanno valori vettoriali, ad esempio in ℝn.

Coerentemente con la notazione adottata per i vettori aleatori, i processi multi-variati saranno

indicati mediante lettere maiuscole in grassetto, es. X(t).

In perfetta analogia con quanto descritto per i processi mono-variati, le medie statistiche di un

processo multi-variato sono calcolate valutando il valore atteso di vettori aleatori Xj (j = 1,…,N)

estratta dal processo X(t) per i generici istanti tj. Esse sono completamente descritte dalla densità di

probabilità di ordine N pX(t1)…X(tN)(1,… N). Le medie statistiche del primo ordine includono i

momenti statistici della variabile aleatoria X1 = X(t1). In particolare, la media X(t) è la funzione in

ℝn definita dalla relazione:

1

1 1E dn

tt t p X X

X (8.1)

Analogamente, al secondo ordine, le funzioni di auto-correlazione e auto-covarianza sono

generalizzate come segue attraverso funzioni a valori matriciali in ℝnn:

1 2

2

T T

1 2 1 2 1 2 1 2 1 2, E , d dn

t tt t t t p XX X X

R X X (8.2)

1 2

2

T

1 2 1 1 2 2

T

1 1 2 2 1 2 1 2

, E

, d dn

t t

t t t t t t

t t p

XX X X

X X X X

C X X

(8.3)

Le componenti diagonali delle matrici Rxx e Cxx rappresentano, rispettivamente, le auto-correlazioni

e auto-covarianze delle componenti di X; le componenti fuori diagonale rappresentano le cross-

correlazioni e cross-covarianze. Dalla loro definizione di deduce che Rxx e Cxx godono delle

seguenti proprietà:

T

2 1 1 2

T

2 1 1 2

, ,

, ,

t t t t

t t t t

XX XX

XX XX

R R

C C (8.4)

e che sono legate attraverso l’equazione:

T

1 2 1 2 1 2, ,t t t t t t XX XX X XC R (8.5)

Nel caso in cui X(t) sia un processo stazionario, la densità di probabilità di ordine 1 non dipende dal

tempo e la media risulta un vettore costante; la densità di probabilità di ordine 2 dipende soltanto

dal tempo di ritardo = t2 – t1, quindi le funzioni di correlazione e covarianza dipendono da un solo

parametro.

2

T T

1 2 1 2 1 2E , d dn

t tt t p

XX X X

R X X (8.6)

Page 115: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

115

2

T

T

1 2 1 2 1 2

E

, d dn

t t

t t

p

XX X X

X X X X

C X X

(8.7)

È immediato verificare che le funzioni definite dalle (8.6) e (8.7) soddisfano le seguenti proprietà:

T

T

XX XX

XX XX

R R

C C (8.8)

In alternativa alla rappresentazione offerta dalle (8.6) e (8.7), il processo X(t) può essere

rappresentato al secondo ordine nel dominio della frequenza generalizzando la funzione di densità

di potenza spettrale. A tale scopo la generica funzione campione x(t) del processo aleatorio X(t) è

finestrata all’interno di un intervallo temporale finito di lunghezza T, definendo la funzione xT(t)

con valori in ℝn. Sia poi ( )T x la trasformata di Fourier di xT(t) e sia ( )T X il processo aleatorio

(funzione della frequenza con valori in ℂn) le cui funzioni campione sono ( )T x . Su tale base si

definisce matrice di densità di potenza spettrale del processo X(t):

*1 1lim E

2T T

T T

XXS X X (8.9)

dove il simbolo * rappresenta il coniugato trasposto. La matrice Sxx contiene sulla diagonale le

densità di potenza spettrale delle componenti di X e fuori diagonale i loro spettri incrociati. Da

questa osservazione di deduce, generalizzando la (6.33), la relazione:

0 d

XX XXC S (8.10)

La matrice SXX() ha valori complessi (sulla diagonale è reale), è semi-definita positiva per ogni

valore di e gode delle proprietà di simmetria:

*

T

XX XX

XX XX

S S

S S (8.11)

In analogia al caso scalare, la matrice di covarianza e la matrice di densità di potenza spettrale sono

legare dalle equazioni di Wiener-Khintchine:

ie d

XX XXC S (8.12)

i1e d

2

XX XX

S C (8.13)

Esempio 8.1. Rappresentazione della velocità del vento.

Sia V(t) il processo aleatorio stazionario gaussiano che rappresenta la velocità del vento in

corrispondenza dei punti j = 1,…,n disposti alla quota zj lungo un allineamento verticale. In

Page 116: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

116

accordo con un modello di vento ampiamente diffuso, il valore medio delle componenti Vj

di V è fornito dalla relazione:

0

log 1, ,j

j

V r r

zv k j n

z

(8.14)

dove vr è la velocità di riferimento che dipende dalla zona geografica, mentre i parametri kr

e z0 dipendono dalle caratteristiche del sito. La densità di potenza spettrale incrociata di Vj e

Vk è definita dalla relazione:

Coh , 1, ,j k j j k k j kV V V V V V V VS S S j k n (8.15)

dove

2

2

5 3

6.907 10

1, ,

1 1.640

j

j

j j j

j

j

V

V

V V V

V

V

L

S j nL

(8.16)

Coh exp , 1, ,4j k

j k

z j k

V V

V V

C z zj k n

(8.17)

in cui Vj e LVj sono la deviazione standard e la lunghezza integrale di scala della turbolenza

atmosferica nel punto j e Cz il coefficiente di decadimento esponenziale della coerenza. Le

grandezze definite dalle (8.14) - (8.17) sono utilizzate per costruire il vettore media V e la

matrice di densità di potenza spettrale SVV. Si osserva che il valore medio della velocità

cresce con la quota e che la fluttuazione di velocità in due punti distinti ha coerenza che

decresce all’aumentare della distanza di separazione. La funzione di coerenza puramente

reale indica che le armoniche di pari frequenza sono in fase in ogni punto del dominio. La

Figura 8-1 mostra una realizzazione del processo aleatorio V = [V1 V2]T simulato in accordo

con il modello sopra descritto.

Figura 8-1. Velocità del vento in due punti allineati verticalmente.

8.1 Rappresentazione congiunta di una coppia di processi aleatori multi-variati

Due processi aleatori multi-variati X(t) e Y(t), le cui funzioni campione hanno valori in ℝn e ℝm

,

rispettivamente, possono essere rappresentati generalizzando le quantità statistiche definite nel

0 10 20 30 40 50 60 70 80 90 1000

2

4

6

8

10

12

v 1,

v 2

(m/s

)

t (s)

Page 117: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

117

paragrafo 6.3. In particolare si definisce cross-correlazione dei processi X(t) e Y(t) la matrice di

correlazione dei vettori aleatori X(t1) e Y(t2) estratti da X e Y agli istanti t1 e t2, rispettivamente:

1 2

T T

1 2 1 2, E , d dn m

t tt t t t p

XY X YR X Y (8.18)

Analogamente, si definisce cross-covarianza dei processi X e Y la funzione:

1 2

T

1 2 1 1 2 2

T

1 2

, E

, d dn m

t t

t t t t t t

t t p

XY X Y

X Y X Y

C X Y

(8.19)

dove 1 2( ) ( )t tp

X Y è la densità di probabilità congiunta dei vettori X(t1) e Y(t2). Dalle definizioni (8.18)

e (8.19) risultano le proprietà:

T

1 2 2 1

T

1 2 2 1

T

1 2 1 2 1 2

, ,

, ,

, ,

t t t t

t t t t

t t t t t t

XY YX

XY YX

XY XY X Y

R R

C C

C R

(8.20)

Nel caso in cui X e Y sono processi aleatori stazionari, le medie statistiche del secondo ordine non

dipendono da t1 e t2 separatamente, ma soltanto dal tempo di ritardo = t2 – t1.

T T

T

T

E , d d

E

, d d

n m

n m

t t

t t

t t p

t t

p

XY X Y

XY X Y

X Y X Y

R X Y

C X Y

(8.21)

In alternativa alla rappresentazione offerta dalle (8.21), la relazione probabilistica al secondo ordine

fra i processi X e Y può essere rappresentata nel dominio della frequenza attraverso la matrice:

*1 1lim E

2T T

T T

XYS X Y (8.22)

dove ( )T Y è il processo aleatorio che colleziona le funzioni campione ( )T y definite come

trasformata di Fourier delle funzioni campione di Y(t) finestrate su un periodo di lunghezza T.

La matrice SXY() ha dimensione nm, ha valori complessi, e gode delle proprietà di simmetria:

*

XY YX

XY XY

S S

S S (8.23)

dove la sopralineatura indica il coniugato non trasposto. In analogia al caso scalare, la matrice di

covarianza e la matrice di densità di potenza spettrale sono legare dalle equazioni di Wiener-

Khintchine:

Page 118: DINAMICA DELLE S II - dicat.unige.it · 1 Dispense del corso DINAMICA DELLE STRUTTURE II Teoria della probabilità e dei processi aleatori Dinamica delle strutture con eccitazione

118

ie d

XY XYC S (8.24)

i1e d

2

XY XY

S C (8.25)

8.2 Trasformazioni lineari di processi stazionari multi-variati

Si considerino due processi stazionari multi-variati X(t) e Y(t) definiti in modo che le loro funzioni

campione x(t) e y(t), con valori rispettivamente in ℝn e ℝm, siano legate deterministicamente

attraverso la trasformazione lineare:

t t y xH (8.26)

La risposta a regime (lontano dalle condizioni iniziali) dell’operatore (8.26) può essere espressa

attraverso l’integrale di convoluzione:

0

d

t

t t y h x (8.27)

dove h è la matrice di risposta a impulso del sistema lineare. Ipotizzando che l’istante iniziale di applicazione dell’eccitazione sia t = -, e sfruttando l’ipotesi di causalità, la (8.27) può essere riscritta nella forma:

d dy t h t x h x t

(8.28)

Applicando la trasformata di Fourier ad entrambi i membri della (8.28), si ottiene l’espressione nel

dominio della frequenza della trasformazione lineare:

y H x (8.29)

dove x e y sono le trasformate di Fourier di x e y (che si suppone esistano) e H è la matrice di

risposta in frequenza dell’operatore lineare ℋ. La matrice di risposta in frequenza è la trasformata

di Fourier della matrice di risposta a impulso.

Se x(t) e y(t) sono funzioni campione di due processi aleatori stazionari X(t) e Y(t), allora la (8.26)

può essere formalmente interpretata come una trasformazione lineare di processi stazionari

t t Y XH (8.30)


Recommended