LA DISTRIBUZIONE NORMALE o DI GAUSS · In base alle 3 ipotesi e dal principio della media...

Post on 18-Jan-2021

2 views 0 download

transcript

LA DISTRIBUZIONE NORMALE o DI GAUSS

Osservando gli istogrammi dellemisure e degli scarti, nel caso diosservazioni ripetute in identichecondizioni

Gli istogrammi sono campanulari e simmetrici, con la colonnacentrale corrispondente alla media aritmetica (misure) e allo zero(scarti).

– p. 1/27

LA DISTRIBUZIONE NORMALE o DI GAUSS

Osservando gli istogrammi dellemisure e degli scarti, nel caso diosservazioni ripetute in identichecondizioni

Gli istogrammi sono campanulari e simmetrici, con la colonnacentrale corrispondente alla media aritmetica (misure) e allo zero(scarti).

Le misure prossime alla media sono più numerose di quelle lontane.Gli scarti più piccoli sono più numerosi di quelli grandi.

– p. 1/27

LA DISTRIBUZIONE NORMALE o DI GAUSS

Osservando gli istogrammi dellemisure e degli scarti, nel caso diosservazioni ripetute in identichecondizioni

Gli istogrammi sono campanulari e simmetrici, con la colonnacentrale corrispondente alla media aritmetica (misure) e allo zero(scarti).

Le misure prossime alla media sono più numerose di quelle lontane.Gli scarti più piccoli sono più numerosi di quelli grandi.

Il numero delle misure maggiori della media è all’incirca uguale aquello delle misure minori della media. Il numero deli scarti positivi (ineccesso) è all’incirca uguale a quello degli scarti negativi (in difetto).

– p. 1/27

LA DISTRIBUZIONE NORMALE o DI GAUSS

Osservando gli istogrammi dellemisure e degli scarti, nel caso diosservazioni ripetute in identichecondizioni

Gli istogrammi sono campanulari e simmetrici, con la colonnacentrale corrispondente alla media aritmetica (misure) e allo zero(scarti).

Le misure prossime alla media sono più numerose di quelle lontane.Gli scarti più piccoli sono più numerosi di quelli grandi.

Il numero delle misure maggiori della media è all’incirca uguale aquello delle misure minori della media. Il numero deli scarti positivi (ineccesso) è all’incirca uguale a quello degli scarti negativi (in difetto).

Una funzione analitica atta a rappresentare una tale distribuzionedeve essere simmetrica, unimodale e campanulare.

– p. 1/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Proprietà ipotetiche de-dotte da Gauss dalleosservazioni:

s = x − x∗ scarto di una misura dal valore vero

– p. 2/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Proprietà ipotetiche de-dotte da Gauss dalleosservazioni:

s = x − x∗ scarto di una misura dal valore vero

1. Se s > 0 e s < 0 equiprobabili → distribuzione degliscarti simmetrica rispetto allo zero.

– p. 2/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Proprietà ipotetiche de-dotte da Gauss dalleosservazioni:

s = x − x∗ scarto di una misura dal valore vero

1. Se s > 0 e s < 0 equiprobabili → distribuzione degliscarti simmetrica rispetto allo zero.

2. Scarti piccoli più probabili: se |s1| > |s2| →P (|s1|) < P (|s2|).

– p. 2/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Proprietà ipotetiche de-dotte da Gauss dalleosservazioni:

s = x − x∗ scarto di una misura dal valore vero

1. Se s > 0 e s < 0 equiprobabili → distribuzione degliscarti simmetrica rispetto allo zero.

2. Scarti piccoli più probabili: se |s1| > |s2| →P (|s1|) < P (|s2|).

3. Condizione di normalizzazione (ipotesi aggiuntiva)∫ +∞

−∞

f(s) ds = 1

– p. 2/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

In base alle 3 ipotesi e dal principio della mediaaritmetica a Gauss derivò che la distribuzione degliscarti di misure affette da errori accidentali è descritta

da: f(s) = h√π

e−h2s2

funzione di Gauss o legge

normale di distribuzione degli errori

a

– p. 3/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Soddisfa alle 3 ipotesi iniziali:

– p. 4/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Soddisfa alle 3 ipotesi iniziali:

1. Forma a campana simmetrica rispetto a s = 0;

– p. 4/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Soddisfa alle 3 ipotesi iniziali:

1. Forma a campana simmetrica rispetto a s = 0;

2. Decrescente per |s| crescente;

– p. 4/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Soddisfa alle 3 ipotesi iniziali:

1. Forma a campana simmetrica rispetto a s = 0;

2. Decrescente per |s| crescente;

3. Tendente a zero per s → ±∞, come richiesto dallacondizione di normalizzazione)

– p. 4/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Soddisfa alle 3 ipotesi iniziali:

1. Forma a campana simmetrica rispetto a s = 0;

2. Decrescente per |s| crescente;

3. Tendente a zero per s → ±∞, come richiesto dallacondizione di normalizzazione)

La legge normale degli scarti dipende da un soloparametro h, detto modulo di precisione della misura.Tanto maggiore è h tanto minore è la dispersione dellemisure rispetto alla media.

– p. 4/27

DISTRIBUZIONE DEGLI ERRORI ACCIDENTALI

Soddisfa alle 3 ipotesi iniziali:

1. Forma a campana simmetrica rispetto a s = 0;

2. Decrescente per |s| crescente;

3. Tendente a zero per s → ±∞, come richiesto dallacondizione di normalizzazione)

La legge normale degli scarti dipende da un soloparametro h, detto modulo di precisione della misura.Tanto maggiore è h tanto minore è la dispersione dellemisure rispetto alla media.

Per h descrecente la campana si abbassa e si allarga.

– p. 4/27

PROPRIETÀ DELLA LEGGE NORMALE

Hp: Supponiamo di aver infinite misure, N → ∞

– p. 5/27

PROPRIETÀ DELLA LEGGE NORMALE

Hp: Supponiamo di aver infinite misure, N → ∞Valore di aspettazione dello variabile scarto:

E(s) =h√π

∫ +∞

−∞

sf(s)ds =

h√π

∫ +∞

−∞

se−h2s2

ds = 0

è identicamente nullo.

– p. 5/27

PROPRIETÀ DELLA LEGGE NORMALE

Hp: Supponiamo di aver infinite misure, N → ∞Valore di aspettazione dello variabile scarto:

E(s) =h√π

∫ +∞

−∞

sf(s)ds =

h√π

∫ +∞

−∞

se−h2s2

ds = 0

è identicamente nullo.

Ne segue un’importantissima conseguenza:E(s) = E (x − x∗) = E(x) − x∗ = 0 → E(x) = x∗

– p. 5/27

PROPRIETÀ DELLA LEGGE NORMALE

E(x) = x∗

– p. 6/27

PROPRIETÀ DELLA LEGGE NORMALE

E(x) = x∗

Il valore di aspettazione delle misure di una grandezzafisica affette solo da errori casuali esiste, e coincide conil valore vero della grandezza misurata.

– p. 6/27

PROPRIETÀ DELLA LEGGE NORMALE

ERRORE MEDIO θ: il valore di aspettazione delmodulo dello scarto θ = E

(

|s|)

θ =1

h√

π

– p. 7/27

PROPRIETÀ DELLA LEGGE NORMALE

ERRORE MEDIO θ: il valore di aspettazione delmodulo dello scarto θ = E

(

|s|)

θ =1

h√

π

ERRORE PROBABILE ρ: quel valore di s per cui metàdelle misure ha |s| ≤ ρ

∫ +ρ

−ρ

f(s)ds = 0.5

– p. 7/27

PROPRIETÀ DELLA LEGGE NORMALE

ERRORE MEDIO θ: il valore di aspettazione delmodulo dello scarto θ = E

(

|s|)

θ =1

h√

π

ERRORE PROBABILE ρ: quel valore di s per cui metàdelle misure ha |s| ≤ ρ

∫ +ρ

−ρ

f(s)ds = 0.5

ERRORE QUADRATICO MEDIO σ: è la radicequadrata del valore di aspettazione del quadrato degli

scarti ( E(

s2)

= 1

2h2 ) σ =1√2h

– p. 7/27

RELAZIONI TEORICHE

Per misure affette da errori distribuiti secondo la leggenormale:

l’errore quadratico medio ed il modulo di precisione h

soddisfano alla relazione σ = 1

h√

2

– p. 8/27

RELAZIONI TEORICHE

Per misure affette da errori distribuiti secondo la leggenormale:

l’errore quadratico medio ed il modulo di precisione h

soddisfano alla relazione σ = 1

h√

2

Il rapporto tra errore probabile ed errore quadraticomedio vale ρ

σ ≃ 0.674

– p. 8/27

RELAZIONI TEORICHE

Per misure affette da errori distribuiti secondo la leggenormale:

l’errore quadratico medio ed il modulo di precisione h

soddisfano alla relazione σ = 1

h√

2

Il rapporto tra errore probabile ed errore quadraticomedio vale ρ

σ ≃ 0.674

Il rapporto tra errore medio ed errore quadratico medio

vale θσ≃ 0.798

– p. 8/27

RELAZIONI TEORICHE

– p. 9/27

DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI

Esprimendo h in funzione di σ la legge di Gauss diventa

f(s) = 1

σ√

2πe−

s2

2σ2

– p. 10/27

DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI

Esprimendo h in funzione di σ la legge di Gauss diventa

f(s) = 1

σ√

2πe−

s2

2σ2

Esprimendo s = x − µ otteniamo f(x) = 1

σ√

2πe−

1

2

(

x−µ

σ

)2

– p. 10/27

DISTRIBUZIONI DELLE MISURE E DEGLI SCARTI

Esprimendo h in funzione di σ la legge di Gauss diventa

f(s) = 1

σ√

2πe−

s2

2σ2

Esprimendo s = x − µ otteniamo f(x) = 1

σ√

2πe−

1

2

(

x−µ

σ

)2

– p. 10/27

LO SCARTO NORMALIZZATOEssendo la distribuzione normale largamente utilizzatae non avendo il suo integrale indefinito una formaanalitica, per il calcolo delle probabilità vengono usativalori pre-tabulati.

– p. 11/27

LO SCARTO NORMALIZZATOEssendo la distribuzione normale largamente utilizzatae non avendo il suo integrale indefinito una formaanalitica, per il calcolo delle probabilità vengono usativalori pre-tabulati.

Impossibile avere tabelle per tutte le possibili coppie divalori dei parametri σ e µ. È quindi conveniente rendereil calcolo della funzione cumulativa F (x) indipendentedai parametri.

– p. 11/27

LO SCARTO NORMALIZZATOEssendo la distribuzione normale largamente utilizzatae non avendo il suo integrale indefinito una formaanalitica, per il calcolo delle probabilità vengono usativalori pre-tabulati.

Impossibile avere tabelle per tutte le possibili coppie divalori dei parametri σ e µ. È quindi conveniente rendereil calcolo della funzione cumulativa F (x) indipendentedai parametri.

Definiamo scarto normalizzato o variabile normalestandardizzata t =

x − µ

σ

– p. 11/27

LO SCARTO NORMALIZZATOEssendo la distribuzione normale largamente utilizzatae non avendo il suo integrale indefinito una formaanalitica, per il calcolo delle probabilità vengono usativalori pre-tabulati.

Impossibile avere tabelle per tutte le possibili coppie divalori dei parametri σ e µ. È quindi conveniente rendereil calcolo della funzione cumulativa F (x) indipendentedai parametri.

Definiamo scarto normalizzato o variabile normalestandardizzata t =

x − µ

σ

La densità di probabilità della variabile t è

ϕ(t) =1√2π

e−1

2t2

– p. 11/27

DISTRIBUZIONE NORMALE STANDARDIZZATA

Indipendente dall’errore quadratico medio, ovvero dallaprecisione della misura.

– p. 12/27

DISTRIBUZIONE NORMALE STANDARDIZZATA

Indipendente dall’errore quadratico medio, ovvero dallaprecisione della misura.

La distribuzione normale standardizzata è unaparticolare normale con E(x) = 0 e σ = 1.

ϕ(t) =1√2π

e−1

2t2

– p. 12/27

DISTRIBUZIONE NORMALE STANDARDIZZATA

Alla normale standardizzata può essere ricondotta qualunque

funzione di Gauss, effettuando il cambio di variabili: t =x − µ

σ

valendo la relazione:∫ z

−z

1√2π

e−1

2t2dt =

∫ µ+zσ

µ−zσ

1

σ√

2πe−

1

2

(

x−µ

σ

)2

– p. 13/27

DISTRIBUZIONE NORMALE STANDARDIZZATA

Alla normale standardizzata può essere ricondotta qualunque

funzione di Gauss, effettuando il cambio di variabili: t =x − µ

σ

valendo la relazione:∫ z

−z

1√2π

e−1

2t2dt =

∫ µ+zσ

µ−zσ

1

σ√

2πe−

1

2

(

x−µ

σ

)2

Esistono delle tabelle per il calcolo dell’integrale della distribuzionenormale standardizzata

– p. 13/27

DISTRIBUZIONE NORMALE STANDARDIZZATA

Alla normale standardizzata può essere ricondotta qualunque

funzione di Gauss, effettuando il cambio di variabili: t =x − µ

σ

valendo la relazione:∫ z

−z

1√2π

e−1

2t2dt =

∫ µ+zσ

µ−zσ

1

σ√

2πe−

1

2

(

x−µ

σ

)2

Esistono delle tabelle per il calcolo dell’integrale della distribuzionenormale standardizzata

La distribuzione normale standardizzata presenta le stessecaratteristiche della distribuzione normale NON standardizzata. Ciòche distingue le due distribuzioni è che la normale standardizzata haµ = 0 e σ = 1.

– p. 13/27

DISTRIBUZIONE NORMALE STANDARDIZZATA

L’aspetto più importante della standardizzazione è chetrasformando una distribuzione normale di parametri(µ, σ) nella distribuzione standardizzata (0, 1), le areeindividuate nella prima da due qualsiasi ascisse x1 e x2

sono uguali alle aree individuate nella seconda dagliscarti normalizzati

t1 =x1 − µ

σt2 =

x2 − µ

σ

– p. 14/27

DISTRIBUZIONE NORMALE STANDARDIZZATA

La distribuzione normale standardizzata èrappresentata da UNA SOLA CURVA, mentre ladistribuzione normale generale è costituita da unafamiglia a seconda dei valori di µ e σ.

– p. 15/27

LO SCARTO NORMALIZZATOPr(

t ∈ [−1, +1])

= 1√2π

∫ +1

−1

e−t2

2 dt = 0.6827 . . .

Pr(

t ∈ [−2, +2])

= 1√2π

∫ +2

−2

e−t2

2 dt = 0.9545 . . .

Pr(

t ∈ [−3, +3])

= 1√2π

∫ +3

−3

e−t2

2 dt = 0.9973 . . .

– p. 16/27

LO SCARTO NORMALIZZATORicordando che t = s/σ

Pr(

s ∈ [−σ,+σ])

≡ Pr(

t ∈ [−1,+1])

≈ 0.6827

Pr(

s ∈ [−2σ,+2σ])

≡ Pr(

t ∈ [−2,+2])

≈ 0.9545

Pr(

s ∈ [−3σ,+3σ])

≡ Pr(

t ∈ [−3,+3])

≈ 0.9973

– p. 17/27

INTERPRETAZIONE PROBABILISTICA DI σ

Le misure affette da errori casuali (e quindi normali)hanno una probabilità del 68% di cadere all’interno diun intervallo di semiampiezza σ centrato sul valore verodella grandezza misurata. Il 95% e il 99,7% (quasi latotalità) delle misure sono affette da errore in modulominore o al piu‘ uguale a 2σ e 3σ rispettivemente.

– p. 18/27

INTERPRETAZIONE PROBABILISTICA DI σ

Le misure affette da errori casuali (e quindi normali)hanno una probabilità del 68% di cadere all’interno diun intervallo di semiampiezza σ centrato sul valore verodella grandezza misurata. Il 95% e il 99,7% (quasi latotalità) delle misure sono affette da errore in modulominore o al piu‘ uguale a 2σ e 3σ rispettivemente.

L’intervallo di semiampiezza σ centrato su di una misuraqualsiasi di un campione ha pertanto una probabilitàdel 68% di contenere il valore vero, sempreché gli errorisiano casuali e normali.

– p. 18/27

ESAME DEI DATI: criterio del 3σ

In una serie di misure dirette quale criterio perindividuare dati sospetti e anomali?

– p. 19/27

ESAME DEI DATI: criterio del 3σ

In una serie di misure dirette quale criterio perindividuare dati sospetti e anomali?

Si calcolano x e σx

– p. 19/27

ESAME DEI DATI: criterio del 3σ

In una serie di misure dirette quale criterio perindividuare dati sospetti e anomali?

Si calcolano x e σx

Si eliminano le misure |x − x̄| > 3σ (p ∼ 0.003).

– p. 19/27

ESAME DEI DATI: criterio del 3σ

In una serie di misure dirette quale criterio perindividuare dati sospetti e anomali?

Si calcolano x e σx

Si eliminano le misure |x − x̄| > 3σ (p ∼ 0.003).

Si ricalcolano x e σx

– p. 19/27

STIMA DELL’ERRORE QUADRATICO MEDIO

Si abbiano n misure xi di una stessa grandezza fisica

– p. 20/27

STIMA DELL’ERRORE QUADRATICO MEDIO

Si abbiano n misure xi di una stessa grandezza fisica

Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero(incognito) della grandezza fisica in esame.

– p. 20/27

STIMA DELL’ERRORE QUADRATICO MEDIO

Si abbiano n misure xi di una stessa grandezza fisica

Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero(incognito) della grandezza fisica in esame.

Sia ǫ =1

n

n∑

i=1

ǫi l’errore da associare alla media aritmetica.

– p. 20/27

STIMA DELL’ERRORE QUADRATICO MEDIO

Si abbiano n misure xi di una stessa grandezza fisica

Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero(incognito) della grandezza fisica in esame.

Sia ǫ =1

n

n∑

i=1

ǫi l’errore da associare alla media aritmetica.

Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.

– p. 20/27

STIMA DELL’ERRORE QUADRATICO MEDIO

Si abbiano n misure xi di una stessa grandezza fisica

Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero(incognito) della grandezza fisica in esame.

Sia ǫ =1

n

n∑

i=1

ǫi l’errore da associare alla media aritmetica.

Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.

Ne segue che ǫi = si + ǫ.

– p. 20/27

STIMA DELL’ERRORE QUADRATICO MEDIO

Si abbiano n misure xi di una stessa grandezza fisica

Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero(incognito) della grandezza fisica in esame.

Sia ǫ =1

n

n∑

i=1

ǫi l’errore da associare alla media aritmetica.

Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.

Ne segue che ǫi = si + ǫ.

Quadriamo: (ǫi)2 = (si)

2 + ǫ2 + 2siǫ

– p. 20/27

STIMA DELL’ERRORE QUADRATICO MEDIO

Si abbiano n misure xi di una stessa grandezza fisica

Sia ǫi = xi − x∗ l’errore di una misura, dove x∗ è il valore vero(incognito) della grandezza fisica in esame.

Sia ǫ =1

n

n∑

i=1

ǫi l’errore da associare alla media aritmetica.

Sia si = xi − x lo scarto di una misura rispetto alla media aritmetica.

Ne segue che ǫi = si + ǫ.

Quadriamo: (ǫi)2 = (si)

2 + ǫ2 + 2siǫ

Sommiamo da 1 a nn∑

i=1

(ǫi)2 =

n∑

i=1

[(si)2 + ǫ2 + 2siǫ] =

n∑

i=1

(si)2 + nǫ2 + 2ǫ

n∑

i=1

si

n∑

i=1

(ǫi)2 =

n∑

i=1

(si)2 + nǫ2

– p. 20/27

STIMA DELL’ERRORE QUADRATICO MEDIODividiamo per n →

∑n

i=1(ǫi)

2

n=

∑n

i=1(si)

2

n+ ǫ2

– p. 21/27

STIMA DELL’ERRORE QUADRATICO MEDIODividiamo per n →

∑n

i=1(ǫi)

2

n=

∑n

i=1(si)

2

n+ ǫ2

La varianza è dunque:

σ2 =

∑n

i=1(si)

2

n+ ǫ2 (1)

espressa in funzione degli scarti e dell’errore della media, ancoraincognito.

– p. 21/27

STIMA DELL’ERRORE QUADRATICO MEDIODividiamo per n →

∑n

i=1(ǫi)

2

n=

∑n

i=1(si)

2

n+ ǫ2

La varianza è dunque:

σ2 =

∑n

i=1(si)

2

n+ ǫ2 (1)

espressa in funzione degli scarti e dell’errore della media, ancoraincognito.

Quadriamo l’errore della media:

ǫ2 =1

n2

(

n∑

i=1

si

)2

=1

n2(ǫ1 + ǫ2 + · · · ǫn)2 =

1

n2(ǫ21 + ǫ22 + · · · ǫ2n + 2ǫ1ǫ2 + 2ǫ1ǫ3 + · · · )

ǫ2 =1

n2

[

n∑

i=1

(ǫi)2 + (2ǫ1ǫ2 + 2ǫ1ǫ3 + · · · )

]

– p. 21/27

STIMA DELL’ERRORE QUADRATICO MEDIODividiamo per n →

∑n

i=1(ǫi)

2

n=

∑n

i=1(si)

2

n+ ǫ2

La varianza è dunque:

σ2 =

∑n

i=1(si)

2

n+ ǫ2 (1)

espressa in funzione degli scarti e dell’errore della media, ancoraincognito.

Quadriamo l’errore della media:

ǫ2 =1

n2

(

n∑

i=1

si

)2

=1

n2(ǫ1 + ǫ2 + · · · ǫn)2 =

1

n2(ǫ21 + ǫ22 + · · · ǫ2n + 2ǫ1ǫ2 + 2ǫ1ǫ3 + · · · )

ǫ2 =1

n2

[

n∑

i=1

(ǫi)2 + (2ǫ1ǫ2 + 2ǫ1ǫ3 + · · · )

]

La somma dei termini misti può essere ragionevolmente posta = 0

per la simmetria della distribuzione di Gauss degli errori.

– p. 21/27

STIMA DELL’ERRORE QUADRATICO MEDIOIl quadrato dell’errore della media è quindi:

ǫ2 =1

n2

[

n∑

i=1

(ǫi)2

]

=1

n

n∑

i=1

(ǫi)2

n

=σ2

n

– p. 22/27

STIMA DELL’ERRORE QUADRATICO MEDIOIl quadrato dell’errore della media è quindi:

ǫ2 =1

n2

[

n∑

i=1

(ǫi)2

]

=1

n

n∑

i=1

(ǫi)2

n

=σ2

n

Introduciamo questa relazione nell’ Eq. (1)

σ2 =

∑n

i=1(si)

2

n+

σ2

n

– p. 22/27

STIMA DELL’ERRORE QUADRATICO MEDIOIl quadrato dell’errore della media è quindi:

ǫ2 =1

n2

[

n∑

i=1

(ǫi)2

]

=1

n

n∑

i=1

(ǫi)2

n

=σ2

n

Introduciamo questa relazione nell’ Eq. (1)

σ2 =

∑n

i=1(si)

2

n+

σ2

n

Esplicitiamo σ2 → σ2

[

1 − 1

n

]

=

∑n

i=1(si)

2

n→ σ2 =

∑n

i=1(si)

2

n − 1

– p. 22/27

STIMA DELL’ERRORE QUADRATICO MEDIOIl quadrato dell’errore della media è quindi:

ǫ2 =1

n2

[

n∑

i=1

(ǫi)2

]

=1

n

n∑

i=1

(ǫi)2

n

=σ2

n

Introduciamo questa relazione nell’ Eq. (1)

σ2 =

∑n

i=1(si)

2

n+

σ2

n

Esplicitiamo σ2 → σ2

[

1 − 1

n

]

=

∑n

i=1(si)

2

n→ σ2 =

∑n

i=1(si)

2

n − 1

Infine: σ =

∑n

i=1(si)2

n − 1

che esprime lo scarto quadratico medio in funzione di tutti e soli gliscarti delle misure.

– p. 22/27

STIMA DELL’ERRORE QUADRATICO MEDIO DELLA MEDIA

L’errore della media o scarto quadratico medio della media derivadall’Eq. (??)

σx =

σ2

n=

σ√n

σx =

∑n

i=1(si)2

n(n − 1)

– p. 23/27

STIMA DELL’ERRORE QUADRATICO MEDIO DELLA MEDIA

L’errore della media o scarto quadratico medio della media derivadall’Eq. (??)

σx =

σ2

n=

σ√n

σx =

∑n

i=1(si)2

n(n − 1)

Il guadagno in precisioneall’aumentare del numero dimisure non scala linearmentecon n. Inoltre Il processo nonpuò essere spinto all’infinito:interviene l’usura degli strumenti,verificarsi di errori accidentali,ecc.

– p. 23/27

INDETERMINAZIONI STATISTICHE

Nel caso di misure ripetute

lo scarto quadratico medio σm rappresental’indeterminazione statistica da associare alla singolamisura. Infatti se prendiamo un qualunque misura mi, siha il ∼ 68% di probabilità che |mi − m| ≤ σm e cioè chenell’intervallo

mi − σm| − − − −−−mi −−m −−−−|mi − σm

sia compreso il valore m assunto per vero.

– p. 24/27

INDETERMINAZIONI STATISTICHE

Nel caso di misure ripetute

lo scarto quadratico medio σm rappresental’indeterminazione statistica da associare alla singolamisura. Infatti se prendiamo un qualunque misura mi, siha il ∼ 68% di probabilità che |mi − m| ≤ σm e cioè chenell’intervallo

mi − σm| − − − −−−mi −−m −−−−|mi − σm

sia compreso il valore m assunto per vero.

lo scarto quadratico medio della media σm rappresental’indeterminazione statistica da associare alla mediaaritmetica. Essa è minore di quella della singola misuradi un fattore 1/n.

– p. 24/27

INDETERMINAZIONI STATISTICHE

Nel caso di misure ripetute

lo scarto quadratico medio σm rappresental’indeterminazione statistica da associare alla singolamisura. Infatti se prendiamo un qualunque misura mi, siha il ∼ 68% di probabilità che |mi − m| ≤ σm e cioè chenell’intervallo

mi − σm| − − − −−−mi −−m −−−−|mi − σm

sia compreso il valore m assunto per vero.

lo scarto quadratico medio della media σm rappresental’indeterminazione statistica da associare alla mediaaritmetica. Essa è minore di quella della singola misuradi un fattore 1/n.

– p. 24/27

TEOREMA DEL LIMITE CENTRALE

Hp: N variabili casuali xi, statisticamente indipendenti e provenientida una distribuzione avente densità di probabilità ignota, della qualeesistano finite sia la media µi che la varianza σ2

i .

– p. 25/27

TEOREMA DEL LIMITE CENTRALE

Hp: N variabili casuali xi, statisticamente indipendenti e provenientida una distribuzione avente densità di probabilità ignota, della qualeesistano finite sia la media µi che la varianza σ2

i .

Th: Una qualunque cobinazione lineare delle variabili con coefficientiαi , tende asintoticamente alla distribuzione normale con media µ evarianza σ2/N al crescere di N → ∞.

µ =N∑

i=1

αiµi σ2 =N∑

i=1

α2i σ

2i

– p. 25/27

TEOREMA DEL LIMITE CENTRALE

Hp: N variabili casuali xi, statisticamente indipendenti e provenientida una distribuzione avente densità di probabilità ignota, della qualeesistano finite sia la media µi che la varianza σ2

i .

Th: Una qualunque cobinazione lineare delle variabili con coefficientiαi , tende asintoticamente alla distribuzione normale con media µ evarianza σ2/N al crescere di N → ∞.

µ =N∑

i=1

αiµi σ2 =N∑

i=1

α2i σ

2i

Nessuna ipotesi sulle distribuzioni delle variabili; unico requisito:esistenza di media e varianza.

– p. 25/27

TEOREMA DEL LIMITE CENTRALE

Hp: N variabili casuali xi, statisticamente indipendenti e provenientida una distribuzione avente densità di probabilità ignota, della qualeesistano finite sia la media µi che la varianza σ2

i .

Th: Una qualunque cobinazione lineare delle variabili con coefficientiαi , tende asintoticamente alla distribuzione normale con media µ evarianza σ2/N al crescere di N → ∞.

µ =N∑

i=1

αiµi σ2 =N∑

i=1

α2i σ

2i

Nessuna ipotesi sulle distribuzioni delle variabili; unico requisito:esistenza di media e varianza.

Particolarizzando alla media aritmetica: x, tende asintoticamente alladistribuzione normale con media µ e varianza σ2/N al crescere di N .

– p. 25/27

TEOREMA DEL LIMITE CENTRALE

– p. 26/27

TEOREMA DEL LIMITE CENTRALE

La figura precedente mostra il teorema del limite centrale all’opera. Itre pannelli in alto mostrano tre distribuzioni continue di eventigenerati secondo una distribuzione normale (sinistra), uniforme(centro) ed esponenziale (destra).

Successivamente (dall’alto verso il basso) sono mostrate ledistribuzioni delle medie di n variabili casuali estratte dalle duedistribuzioni. n vale, nell’ordine, 2, 5, 30.

Al crescere di n le distribuzioni della media tendono ad assumereuna forma regolare a campana, indipendentemente dalle distribuzioniiniziali, fino a convergere a distribuzioni normali.

Da notare il secondo pannello centrale dall’alto (per n = 2). La formatriangolare corrisponde, ad esempio, alla distribuzione della variabile“somma del punteggio di due dadi”, già incontrata.

Visuallizza qui

– p. 27/27