Você está na página 1de 152

ANALISI STATISTICA DEI DATI

STATISTICA E PROBABILITA'

Misura di una grandezza fisica


Errori dovuti a: Strumenti di misura Parametri non controllabili da sperimentatore

= da valore vero grandezza varia da misura a misura La misura fenomeno casuale e la singola misura sar evento casuale. Evento casuale (o aleatorio): evento ripetibile (infinite volte) che si manifesta in modo non prevedibile singolarmente (es. lancio dado/moneta, estrazione carta ...)

AS-1

S E

S: insieme di tutti i modi possibili del fenomeno casuale E: generica modalit dell'evento casuale (generico evento casuale ) in modo univoco

x(E) (numero reale)

x(E):

variabile casuale definita nell'insieme S.


discrete o continue

Variabili casuali numero finito o infinito di valori La misura di una grandezza fisica pu essere considerata come un evento casuale e il numero (che si ottiene) la variabile casuale associata all'evento. PROBLEMA DELLA MISURA insieme di misure della stessa grandezza fisica

valore vero

Analisi statistica delle misure che utilizza teoria della probabilit

Definire intervallo di valori della variabile casuale "misura" con assegnata probabilit di contenere valorevero della grandezza
AS-2

La STATISTICA un ramo della matematica che studia i fenomeni casuali utilizzando la TEORIA della PROBABILITA`

PROBABILITA`
1) Definizione "classica" Probabilit P(E) di un evento casuale E: rapporto fra numero dei casi "favorevoli" (casi in cui si presenta E) e numero totale casi possibili, purch tutti i casi possibili siano equiprobabili

COROLLARIO:

0=P=1
numero reale

PROBLEMA:

Tautologia (per definire probabilit necessario valutare equiprobabilit)

Es. 1.

Lotto P(n) = 1 90 P(pari) = 45 1 = 90 2

Es. 2.

3 figli non dello stesso sesso

MMM MMF MFM FMM MFF FMF FFM FFF Tot casi possibili = 8 3 P(non stesso sesso)= 6 = 8 4
AS-3

2) Definizione "empirica"

(Frequenzistica)

Frequenza relativa di E : f (E) f (E) = n N

N: numero totale prove n: numero volte in cui si presentato E su N prove Si definisce: P(E) = lim f (E) = lim
N8

N8

n N

PROBLEMA:

postula che lim f (E) sia numero definito non def. operativa

f (E)

.5

0 0 1 1 2 2 3 3 4 5 3 5 N 3 6 3 7 4 8 4 9 5 6 10 11 AS-4

E: testa su lancio moneta

2) Definizione "assiomatica" S: Insieme di tutti i possibili E A: Sottoinsieme di S A

A P(A) E' un numero associato univocamente ad tale che: Unione P(A) = 0 per ogni A Intersezione Contenuto P(S) = 1 P(A+B) = P(A) + P(B) se A B = 0 A B
PROBLEMA:

Non ci dice quanto vale P L'asseganzione di P ad A un modello matematico

A partire da definizione assiomatica di P si pu dimostrare che: f(E) P(E) per N 8

LEGGE DEI GRANDI NUMERI

AS-5

LEGGE DEI GRANDI NUMERI

Dato evento casuale E a cui associata P(E), n se f(E) = (su N prove), scelti due numeri positivi a piacere N ', " possibile definire un N tale che, per ogni M > N:

P (|f(E) - (E)|>)< (In analisi: |f(E) - P(E)|<) Si dimostra a partire dalla diseguaglianza di BIENAYME' - CEBICEV
v v

AS-6

PROPRIETA` DELLA PROBABILITA`

1) Evento complementare di E : E

f (E) =

N-n = 1 N

n N

= 1 - f(E)

P(E) = 1 - P(E) P(E) + P(E) = 1 Se E1... E m : insieme di tutti gli eventi possibili in S, mutuamente esclusivi:

i 1

P(Ei) = 1

Evento complesso = prodotto logico di due eventi casuali E, F (es.: moneta/carta)

F E Su N prove E

4 possibili casi: EF EF EF EF

n11 n12 n21 n22

AS-7

f (EF) =

n 11 ; N

f(EF) = n 21 ; f(EF) = n 12 ; f(EF) = n 22 ; N N N

f (E) = n11 + n12 = f (EF) + f (EF) N f (F) = n11 + n21 = f (EF) + f (EF) N P(E) = P(EF) + P(EF) P(F) = P(EF) + P(EF)

PROBABILITA` CONDIZIONATA: Probabilit che si verifichi E se si verificato F (o viceversa) P(E|F) f (E|F) = n11 = n11 + n 21 n11 N P(F|E) f (EF) N . = f (F) n11 + n 21

n11 = f (F|E) = n11 + n 12

f (EF) f (E)

P(E|F) =

P(EF) P(F) P(EF) P(E)

P(EF) = P(F) .P(E|F)

P(F|E) =

P(EF) = P(E) .P(F|E)

AS-8

2) LEGGE DELLE PROBABILITA` COMPOSTE

Se E ed F sono statisticamente indipendenti P(E|F) = P(E) P(F|E) = P(F)

P(EF) = P(E). P(F) P(E1 . E 2 ... . E m ) =

i 1

P(E i )

La probabilit che avvengano contemporaneamente E ed F (prodotto logico) uguale al prodotto delle probabilit dell'evento E e dell'evento F se E ed F sono statisticamente indipendenti Es. 2 dadi - Probabilit che escano due 4 P(4,4) = P(4) . P(4) = 1 . 1 = 1 6 6 36 Se E ed F sono mutuamente esclusivi:

P(E|F) = P(F|E) = 0

P(EF) = 0

AS-9

3) LEGGE DELLE PROBABILITA` TOTALI

f (E + F) : evento f (E + F) =

o evento

o ambedue

n 11 + n12 + n 21 N

(n11+ n 12 )+(n 21 + n 11)-n11 = N

f (E + F) = f (E) + f (F) - f (EF)

P(E + F) = P(E) + P(F) - P(EF) Se E ed F sono mutuamente esclusivi P(EF) = 0 P(E + F) = P(E) + P(F) P(E1 ... E m ) =

i P(E i ) 1

Dimostrabile anche usando la definizione assiomatica di probabilit: A B C A = (A - C) + C B = (B - C) + C (A - C),(B - C), C: disgiunti


AS-10

Da III assioma: (P(A + B) = P (A) + (P(B)) se A,B disgiunti; P(A) = P(A - C) + P(C) P(B) = P(B - C) + P(C) P(A - C) = P(A) - P(C) P(B - C) = P(B) - P(C)

Se ora consideriamo insieme somma A+B : A + B = (A - C) + (B - C) + C P(A + B) = P(A - C) + P(B - C) + P(C) P(A + B) = P(A) - P(C) + P(B) - P(C) + P(C) P(A + B) = P(A) + P(B) - P(C) P(A . B) P(A + B) = P(A) + P(B) - P(A .B)

Se considero 3 eventi casuali : P(A1 + A2 + A 3) = P(A 1) + P(A 2) + P(A 3) - P(A 1A 2) - P(A 1A 3) - P(A2.A3 ) + ( P(A1. A 2 . A 3)

A1
1-2 1-3 1-2-3 2-3

A2

A3
AS-11

STATISTICAMENTE INDIPENDENTI P(E|F) = P(E) P(F|E) = P(F) P(EF) = P(E) . P(F)

STATISTICAMENTE DIPENDENTI MAZZO CON 42 CARTE (solo KQJ fiori) E estrazione FIORI F estrazione RE P(E) = 3 42 P(E|F) = 1 4 P(F) = 4 42 P(F|E) = 1 3

P(E . F) =

3 . 1 42 3

1 42

# P(E) . P(F) 1 . 4 = 1 126 12 42 3

P(E) P(F|E)

AS-12

SO M M AR IO
s t is t at icam ent e indipendent i s t is t at icam ent e dipendent i
P(A) . P(B| A) P(B) . P(A| B)

s t is t at icam ent e e s cl s iv u i

P(A . B)

P(A) . P(B)

=0

P(A+ B) P(A) + P(B) - P(A . B) P(A) + P(B) -P(A.B) P(A) + P(B) -P(A.B)

AS-13

Es.: efficienza di scanning nella ricerca di eventi rari

N : N. di eventi rari presenti nel campione (incognito) N12 + N1 : N. di eventi trovati nella 1 a ricerca N + N : N. di eventi trovati nella 2 a ricerca
12 2

N12 : N. di eventi trovati in ambedue P(1) = N12 + N1 N N12 + N2 N N12 N = P(1) . P(2) N12 N12 + N2 N= (N12 + N1 ). (N12 + N2 ) N12 N12 (N12 + N1 ) (1) e (2) statisticamente indipendenti

P(2) = P(1, 2) =

P(1) =

P(2) =

Probabilit di trovare un evento nelle due ricerche: P(1 +2) = P(1) + P(2) - P(1) . P(2) = (N12 + N1 ) (N12 + N2 ) N12 = + N N N

N12 . (N1 + N2 + N12 ) = . (N12 + N2 ) (N12 + N1 )


AS-14

DISTRIBUZIONE DI PROBABILITA` E DENSITA` DI PROBABILITA`

1) Variabile casuale discreta xi

xi

i = 1, ... n (xi ) N

Pi (xi ) = lim N "

i Pi (xi ) = 1
S

L'insieme di Pi costituisce la distribuzione di probabilit della variabile casuale 2) Variabile casuale continuax x 2 x f (x - x , x + x ) : frequenza in x x 2 2 2 n(x x 2) N x 2

Frequenza limite per unit di x: f (x - x , x + x ) 2 2 lim = f(x) x 0 x N "


f(x) : DENSITA` DI PROBABILITA` o FUNZIONE DI DISTRIBUZIONE

AS-15

dP(x, x + dx) = dx dP =
f(x) dx b

f(x)

P(a, b) =

probabilit che la variabile casuale cada in (a,b)

b f(x) dx

s
Es. P(x)
1 6

f(x) dx =

-"

+"

f(x) dx = 1 11 12 21 2 3

un dado

P(x)
6 36

2 dadi (somma)

1 1 2 3 4 5 6

36 2 7 12

13 22 31 . . .

Es.
f(x) 1 b-a f(x)

Densit uniforme di probabilit f(x) = C

C . dx = C . (b - a) = 1

1 C= b-a
AS-16

CUMULATIVA DI UNA FUNZIONE DI DISTRIBUZIONE

Funzione cumulativa: PROPRIETA': F(x) = P (-" < x' < x) P(a < x < b) =
a b

F(x) =

-"

f(x') dx'

f(x) dx = -"

f(x) dx -

f(x) dx = F(b) - F(a) -"

f(x)dx = F(x + dx) - F(x) = dF(x) dF(x) dx F(x) monotona crescente dato che f(x) " 0 sempre

= f(x)

Se x definito fra a e b: F(a) = 0 Es. f(x)


1 b-a

F(b) = 1

(F(-" ) = 0; F(+" ) = 1)

F(x)
1

1 F(x) = b-a
0 a b

dx' =

x-a b-a
AS-17

PARAMETRI CARATTERISTICI DISTRIBUZIONI DI PROBABILITA`

1) La "posizione" della distribuzione I II La moda: x per cui la distribuzione ha il massimo (unimodali, multimodali ) La mediana: xM che divide a met la distribuzione

-"
III

xM

f(x) dx =

xM f(x) dx =

+"

1 2

La media (o valore aspettato) : (= ) E[x] = = E[x] = =

-" x . f(x) dx i x i .P i (x i )
1 n

+"

continuo discreto

In generale si definisce il valore aspettato di una funzione di x, g(x) (se x variabile casuale g(x) anche variabile casuale): E[g(x)] =

-"

+"

g(x) . f(x) dx

AS-18

f(x) 0.15 0.1 0.05

10

15

20 x

Media (valore aspettato) Mediana Moda

f(x)

xo

x
Moda Mediana Media (valore aspettato)

AS-19

Propriet del valore aspettato: E[k ak. gk (x)] = k ak .E[gk (x)] Casi notevoli:

a. f(x) dx = a . f(x) dx = a E[a] = a E[a . g(x)] = a . E[g(x)] =1


Notare: E[(x - )] = E[x] - = 0

2)

La "larghezza" della distribuzione = varianza = valore aspettato di (x - )2 Varianza = 2 E[(x - )2]

2 =

-"
n

+"

(x - )2 .f(x) dx continuo discreto

P 2 = i (xi - )2 . i (xi) 1 E[(x - )2] = E[(x2 + 2 - 2x)] = = E[x2] + 2 - 2E[x] = E[x2] - 2

= E[x2] - (E[x])2
AS-19A

= 2 = deviazione standard

3) La "asimmetria" della distribuzione (valore aspettato di (x - )3)

SKEWNESS

SK =

-"

+"

(x- )3 f(x) dx

3 = 0 per distribuzioni

> 0: coda a destra < 0: coda a sinistra rispetto a f(x) simmetriche

E [(x - )4 ] -3 4 > 0 pi piccata = 0 per gaussiana < 0 meno piccata In generale la funzione di distribuzione completamente definita dall'insieme dei suoi momenti: +" Momento k-esimo di f(x) rispetto a xo = -" (x - xo)k . f(x) dx = k(xo) = E[(x - xo)k] CURTOSIS o(0) = 1 o() = 1
k

i (xi - xo)k

Pi(xi)

Si pu dimostrare che: k(xo) = Funzione simmetrica momenti dispari rispetto = 0 rispetto a


VALORE ASPETTATO : 1(0)= = momento primo rispetto a xo = 0 VARIANZA : SKEWNESS : CURTOSIS :
r k (-1)r . r . x o. k -r (0) r o coefficiente binomiale

() = 2 = momento secondo rispetto a xo = 2 3(/3) = momento terzo rispetto a 3 momento quarto rispetto a 4
AS-20

VALORE ASPETTATO di f(x) simmetrica rispetto a xo = xo xo Infatti: = x

-8

+8

x f(x) dx =

-8

+8

(x' + xo ) f(x' + x o) dx' = x = x' + xo dx = dx'

x' = x - xo =

-8

+8

x'. f(x' + xo) dx' + xo = 0 (f dispari . f pari)

-8

+8

f(x' + xo) dx' = xo =1

VARIANZA

di una distribuzione uniforme


-8

a
+8

a = b x
b

0 f(x) = 1
b-a

c= 1
b2 - a2

b-a

a,b
b+a

x f(x) dx =

1
b-a b

x dx =

2=

(x - ) f(x) dx = (b + a)2 4

x2 f(x) dx - 2 =

b3 - a3 3(b-a)

(b - a) 2 12

(b - a) 12

(b - a) 2

1 3

D 3 AS-21

FUNZIONE GENERATRICE DEI MOMENTI

Funzione della variabile casuale x : Gx (t) = E [ext] Sviluppano in serie ext : Gx (t) = E [1 + xt + x2 t2
2

+...

xk tk
k!

+ . . .] =
k!

2 k = 1 + 1 (0)t + 2 (0) t2 . . . k (0) t

+...

I coefficienti dello sviluppo della Gx (t) in serie di potenze di t sono i momenti intorno all'origine. dk Gx(t) dtk dk ext =E = E xk . ext k dt

dk Gx(0) = E xk = k (0) k dt

AS-22

PROPRIETA` NOTEVOLI :
. I Gcx (t) = E [e c.x. t] = E [e x ct]

= Gx (ct)

. II Gc+x (t) = E [e (c+x) t] = ect E [ext] = ect .Gx (t)

III Gx (0) = 1 La II ci permette di calcolare i momenti centrali: Es. 2 : momento secondo di (x - ) Gx- (t) = e-t Gx (t)
d dt d2 dt2

Gx- (t) = - .e-t . x(t) + e-t . G


. . Gx- (t) = 2e-t Gx(t) - e-t

d dt

Gx (t)

. d Gx (t) + dt

2 .e-t . d Gx (t) + e-t . d Gx (t) - 2 dt

dt

d dt

Gx- (0) = - Gx (0) =1


d2 dt2 2

d dt

Gx (0) = 0 =

d dt

Gx (0) =

2 2 - . d Gx (0) + d Gx (0) Gx- (0) = - dt dt2

= 2 2=
d2 dt2

Gx (0) - 2
AS-23

FUNZIONE DI DISTRIBUZIONE PER FUNZIONE DELLA VARIABILE CASUALE

f(x)

y = y(x) corr. biunivoca

f(y) ?

dP(x, x + dx) = dP(y, y + dy) y(x)

f(x) dx = f(y) dy dx (y) dy

f(y) =

. f(x(y))

dato che f deve essere sempre 0

AS-24

NOTARE :

E[g(x)] =

g(x) . f(x) . dx g(x) = y

E[y] =

y . f(x) . dx = y . f(y) . dy

Infatti: f(y) = dx dy . f(x)

E[y] = y f(y) dy = = y. dx f(x) . dy = dy

= y(x) f(x) . dx

AS-25

Es.

SORGENTE DI PARTICELLE ISOTROPA

z y

Isotropa: flusso di particelle emesso (per unit di tempo ) proporzionale ad angolo solido e costante dS dSsfera= r2 sindd d = sfera = d(cos ) . d r2 Quindi la funzione di distribuzione di cos sar costante fra -1, +1; f(cos) = 1 2 Funzione di distribuzione di ? -1 < x < 1 = arcos (cos ) p>y>0 y x 1 sin dx 1 dcos f(y) = f(x) . = = dy 2 2 d
p 0

1 sin d = - 1 cos 2 2

=1
0

Es.

CUMULATIVA
x

F(x) variabile casuale funzione di x f(x') dx'

dy = f(x) dx -8 f(x) dx Funzione di distribuzione di y : f(y) = f(x) =1 = f(x) dy uniforme fra 0 e 1 1 AS-26 f(x) y = F(x) =

Dato che F(x) distribuita uniforme (0, 1) posso ottenere variabili casuali con funzione di distribuzione qualsiasi a partire da variabile casuale con distribuzione uniforme fra 0 e 1 (utile nei calcolatori). Es.
DISTRIBUZIONE ESPONENZIALE

x 1 e-x f(x) = o xo
0

f(x) dx = 1

y = F(x) =
0

x x' 1 e - x dx' = 1 - e- x o o xo

Se y la cumulativa di f(x), generato y uniforme, x = g(y) sar distribuito secondo f(x)


x y = 1 - e - xo

lge (1 - y) = -

x xo

x = - xo lge (1 - y)

Per generare gaussiana( = 0, = 1) : x = sin (2py1) . - 2 lgey2 y1, y2 : 2 numeri casuali con distribuzione uniforme
AS-27

VALORE ASPETTATO E VARIANZA DI y

y = g(x)

Siano x e 2 valore aspettato e varianza di x. x Sviluppo y(x) in serie di Taylor intorno a x: y(x) = y(x) + dy . dx (x - x) + x A y = E[y] = y(x) + dy . E dx [(x - x)] + x =0 1 2 d2y . E (x - x)2 + . . . dx2 x 1 2 d2y 2 2 (x - x) + . . . dx x

Trascurando i termini di ordine pi alto:

y = E [y] ~ y(x) dy 2 . dalla ~ dy 2 2 E (x - x)2 E dx (x - x) = dx A x x 2 x 2 = E y


2

E y - y(x) (y)

y - y(x)

dy 2 . 2 x dx x
AS-28

approssimata

Se y funzione lineare di x : y = ax + b y = ax + b
2 y = a2 2 x

y = g (x)

ESATTA

AS-29

DISTRIBUZIONE BINOMIALE

Processo casuale generico "successo" : una certa modalit E di presentarsi nel processo casuale con probabilit p (evento complementare E, probabilit (1 - p)) Se facciamo n prove, quale la probabilit che il successo si presenti k volte? Pn,p (k) Da teorema delle probabilit composte (le prove sono statisticamente indipendenti) : k successi, n-k insuccessi pk ( 1 - p )n-k p (1 - p)n-k pk-1 . . . Sommare su tutte le possibili combinazioni: n! n = n. di combinazioni n oggetti k a k = k k! (n - k)!
AS-30

k volte (SI), (n-k) volte (NO) SI, (n-k) volte NO, (k-1) SI

PERMUTAZIONI

Dati n oggetti distinti, in quanti modi se ne possono selezionare r?

nPr = n . (n - 1) . . . (n - r + 1) nPn = n . (n - 1) . . . (n - n + 1) = n!
RICORDARE:

nPr =

n! (n - r)!

0! = 1

COMBINAZIONI

Se non siamo interessati all'ordine in cui compaiono gli r oggetti:

n! n = n.(n - 1)...(n - r + 1) nCr = (n - r)! r! = r r!


nCr . r! = nPr nCr =

n! (n - r)! r!
AS-31

Pn , p (k) = n . pk . (1 - p)n-k k k=0n

DISTRIBUZIONE BINOMIALE

Distribuzione di probabilit nella variabile casuale k (n. finito di valori: 0 . . . n) n n n n . k. n-k = p + (1 - p) = 1 P (k) = p (1 - p) k n, p k k 0 0

Ricordare che: (a+b)n = Es.

k 0

n k n-k a b k

Probabilit di un 2 su 10 lanci di un dado: 1 p= 6 probabilit evento favorevole


1

n = 10 . 1- 1 6
9

numero prove

10! . 1 P10, 1 (1) = 1! (10 - 1)! 6 6 Probabilit di nessun 2 :

= 0.32

0 10! . 1 . 5 P10, 1 (0) = 0! 10! 6 6 6

10

= 0.16

Probabilit di tutti 2: 1 P10, 1 (6) = 10! . 10! 0! 6 6


10

5 6

= 1.7 .10-8
AS-32

Probabilit di avere almeno un 2:

10

(k) = 1 - P10,1/6 (0) = 1 - 0.16 = 0.84 P k 10,1/6

Propriet notevoli della binomiale: 1 Valore aspettato e varianza = E[k] =

n! . pk . (1 - p)n-k = k k! (n - k)! 0 1 dato che k = 0 annulla primo termine k.

= n.p k' = k - 1 n' = n - 1 = n.p

(n -1)! pk-1 .(1 - p)n-k k (k -1)! (n - k)! 1

n'! pk'. (1 - p)n'-k' k' k'! (n' - k')! 0 =1 =n.p

n'

2 = E (k - np)2 = E[k2] - (np)2

AS-33

E[k2] =

k2
n 1

n! pk (1 - p)n-k k! (n - k)! k

=np k' = k - 1 n' = n - 1 =np

n' 0

(n -1)! pk-1(1 - p)n-k = (k -1)! (n - k)!

(k' + 1) P

n',p

(k') =

su n-1 prove = np .E[(k' + 1)] = np . (E[k'] + 1) = (n - 1) . p = np . {(n - 1) . p + 1} = n (n - 1) . p2 + n . p 2 = n (n - 1) . p2 + n . p -(n . p)2 = np(1 - p) 2 = np . (1 - p)

= np (1 - p)

Distribuzione binomiale: pn,p (k) = = np n k n-k p q k = npq


AS-34

q = (1 - p)

e 2 della distribuzione binomiale usando funzione generatrice dei momenti

= 1 (0) 2 = 2 () Gk (t) = E [etk] = =

PN,p (k) = N .pk qN-k k


N 0

etk N pk qN-k = k sviluppo di un binomio

N . ( p)k . qN-k = k

= (et . p + q)N d G (t) = N .(et . p + q)N-1 . p .et k dt d2 G (t) = N. (et . p + q)N-1 . p .et + k dt 2 + N . (N - 1) . (et . p + q)N-2 p2 . e2t d 1 (0) = dt Gk (0) 2 2 () = 2 = d 2 Ge (0) - 2 dt

AS-35

d = dt Gk (0) = N .(p + q)N-1. p = N . p =1 d2 G (0) = N .(p + q)N-1 . p + k dt2 =1 + N (N - 1) . (p + q)N-2 . p2 = =1 = N . p + N . (N - 1) . p2

2 2 = d 2 Gk (0) - 2 = Np + N2p2 - Np2 + dt -(Np)2 = Np .(1 - p) =

= N . p .q

AS-36

Massimo della distribuzione Massimo in corrispondenza a k ~ np N!


PN,p(k + 1) PN,p(k)

se np >> 1

(k + 1)! (N -k -1)! . = N! k! (N - k)! p = N-k . q k+1

pk+1 qN-k-1 = k . qN-k p

Distribuzione crescente per : N-k . p q k+1 =1

k = Np - q

AS-37

Massimo della distribuzione Massimo in corrispondenza a k ~ np se np >> 1

se p = 0.5 pn,1/2 (k) = n! k! (n - k)! 1 2


k

. 1- 1 2
n-k

n-k

pn,1/2 (n - k) = p(k) = p (n - k)

n! (n - k)! k!

1 2

. 1- 1 2

Se p = 0.5 distribuzione simmetrica intorno a np (intero)

n 8 , p = costante Tende alla distribuzione "normale" (gaussiana) con: = np = np . (1 - p)

n 8 , np = costante Tende alla distribuzione di Poisson


AS-38

0.5

n=2 p=0.2

n=5 p=0.2

n=10 p=0.2

n=20 p=0.2

0 1 2

0 1 2 3 4

0 1 2 3 4 5

0 1 2 3 4 5 6 7 8 9

Poisson (m = 1) Binomiale n=2 p=0.5 np=1.0 n=5 p=0.2 np=1.0 n=10 p=0.1 np=1.0

P1 (k)

0.1

n=20 p=0.05 np=1.0

0.2

0 0 1 2 3 4 0 1 2 3 4 0 1 2 3 4 0 1 2 3 4

AS-39

Es.

Frequenza su n prove

(Evento favorevole con probabilit p) k = n 1 = E[] = n


2 = E[( - 2] = E )

E[k] = k -p n
2

np =p n = vedi
AS-34

=E

k n

- p2 = 12 n(n - 1) p2 + np - p2 n

p . (1 - p) = 1 . np . (1 - p) = n n2 0 p per n per n Vedi anche Teorema di Bernoulli

Es. Fluttuazioni di densit in un gas ideale

Date N molecole in V, sia p la probabilit per generica molecola di essere in A e (1 - p) la probabilit di essere in B. (Nessuna interazione fra molecole, a parte urti posizione molecola indipendente da posizione altre molecole).
AS-40

Probabilit ad un certo istante di avere nA molecole in A? Ogni molecola una prova indipendente e "evento favorevole" = essere in A. PN,p (nA) =
A

N . pnA . (1 - p )N-n A A nA A

se p = (1 - pA) =
A

1 (dato che i volumi sono uguali) 2


2

PN, 1 (nA) = (nA) = N 2

N! . nA! (N -nA)!

1 2

1 (nA) = 2 . N

Applicando la formula di Stirling alla variabile x: x=


nA

N 2

N 2

scarto relativo di nA dal suo valore aspettato


2

2 . e-(N-1) . x2 P(x) = p .N

N . x2 Dato che nell'esponente compare con N molto grande, 2 appena x si scosta da 0, P 0 (x = 10-8, P ~ 0). UN GAS HA SEMPRE DENSITA` UNIFORME
AS-41

DISTRIBUZIONI SPERIMENTALI

Variabile casuale discreta

Es. Somma di due dadi x P(x) 2 P2 3 P3 4 . . . 12

P4 . . . P12

N Esperimenti ripetuti (lancio dadi) Risultato: n2 n3 . . . n12 n = N

n12 n n F2 = N2 F3 = N3 . . . F12 = N Per il Teorema N8 di Bernoulli

... P2 P3 P12

AS-42

Consideriamo un particolare valore della variabile casuale (Es. 2): N8 N finito: n2 NP2 F2 ? P2 n2 ? NP2

Quale la distribuzione di probabilit di n2? P N, P2(k) = N P2 k (1 - P2)N-k


k

(binomiale)

Se P2 probabilit della variabile 2, la probabilit di k(=n2) successi su N prove si ottiene dalla distribuzione binomiale Ripetendo M volte la serie di N lanci (N cost) i valori di n2 che si ottengono saranno distribuiti secondo la P N, P (n2)
2

(0 < n2 < N). [Se N grande e P2 piccolo la distribuzione tender alla poissoniana con m = NP2. Vedi dopo. V alore aspettato e varianza d in 2 : (n 2)= NP 2 2(n2) = N . P2 . (1 - P2)

AS-43

Variabile casuale continua

N prove : x1 . . . . . xN n1 n2 n3 1 x ni N N8 Pi = 2 3 . 4 . 5 . . . . . . . . ni i x

ni valori di x in intervallo i
xi+x xi

f(x) dx ~ f(xi) .x

Per N finito ni ? NP. Ripetendo M volte la serie di N misure il contenuto ni del generico x avr distribuzione binomiale P N,f(x ) x (ni) [tender alla poissoniana .
i

con (ni) = N .f(xi) . x per N grande e P piccolo]. Valore aspettato di ni : (ni) = N f(xi) . x 2(ni) = N . f(xi) . x . (1 - f(xi) . x)
AS-44

Rappresentazione grafica (istogrammi ) caso discreto N eventi N prove

* * * * * * *
2 4 6 8

* valore aspettato = NPi : eventi osservati * * * *


10 12 x

10 5

caso continuo N eventi 15 10 5 xi x Area = i ni x = x i ni = x .N Valore aspettato in intervallo i: i = N f(xi) . x Area = i i x = N . x i f(xi) x = x. N f(x) dx = 1
AS-45

ni valori di x in intervallo i N . f(xi) .x N prove

QUINCONCE DI GALTON

N : file di perni x : spaziatura perni

N
x 0 1 2 3

p : probabilit di deviazione a destra 1 ) (in genere p =

xi

Ad ogni urto la pallina subir spostamento x 2 Coordinata xi finale della pallina : xi = nD Infatti: nD : n. urti con deviazione a destra nS = (N - nD): n. urti con deviazione a sinistra x = nD . x - (N - nD) x = 2 2 = (2nD - N) x = (nD - N ) x 2 2 nD = 0, . . . , N x=- N ,..., N 2 2 Vogliamo valutare la probabilit che la pallina abbia alla fine xi N + 1 valori (x = 1) P (xi) = P (nD)
AS-46

N x 2

Evento favorevole : deviazione a destra Un singolo urto : una prova ogni fila di perni Dopo N prove (= N di file di perni), la probabilit che evento favorevole si sia presentato nD volte (essendo p la probabilit di deviazione a destra) : PN,p (nD) = N . p nD . (1 - p)N-n D nD

(nD) = N . p 2(nD) = N .p . (1 - p) Se considero ora la variabile x = f(nD): y = az + b


2 z , z

P(y) = P(z = 1 {y - b}) a (y) = a . z + b 2(y) = a2 . 2 z

x = (nD - N ) x 2
N nD = x + 2 x

P(x) = P (nD calcolato in x) = (x) = (N . p N 2

N . p nD .(1 - p)N-nD nD

) . x

2(x) = N . p . (1 - p) . x2 La probabilit che la pallina abbia coord. finale x una n. prove = n. file chiodi BINOMIALE con p = prob. urto a destra

AS-47

LANCI RIPETUTI
Numeriamo caselle di arrivo della pallina da 0 a N (k (numero della casella) = nD) xk = (coordinata centro cella) = P(k) = P(nD) = P(xk) kN 2

avendo posto: x = 1

Se faccio N lanci di palline, quale la probabilit di trovare mk palline in cella k? Se eseguiamo N lanci (N prove) e se P(k) la probabilit che la pallina vada nella cella k (evento favorevole), la distribuzione di probabilit per la variabile casuale mk (= numero di successi su N prove, cio numero di palline in cella k) una binomiale:

P N ,p(k) (mk) =

N
mk

. P(k)

mk

. Q(k)

N-mk

Q=1-P 0 = mk = con P(k) = PN,p(k) = N pk . (1 - p)N-k k N: numero di file di chiodi p: probabilit di deviazione a destra

AS-48

La variabile casuale mk avr valore aspettato e varianza: (mk) = N . P(k) 2 (mk) = N . P(k) .(1 - P (k)) Dove (mk) rappresenta il numero aspettato di palline nella cella k se si eseguono N lanci e (= varianza = deviazione standard) la larghezza della distribuzione intorno al valore aspettato. Notare che: (mk) (mk) N . P(k) . 1 - P(k) N . P(k)

1 . 1 -1 P(k) N

Larghezza relativa distribuzione = intervallo fluttuazione valori osservati intorno a valore aspettato/valore aspettato Quindi decresce come NOTARE: se P(k) << 1, 1 - P(k) & 1 2 (mk) ~ (mk) = 1
AS-49

1 N

per un dato P(k)

TRACCIA SUGGERITA ESPERIENZA (P = 0.5; X = 1)

Verifica valore aspettato e varianza variabile x N determinazioni di x con N lanci Miglior stima di e : x= i xi N i xi2 - x2 N

i (xi - x)2 ~ s= ~ ( N - 1)

( N - 1) ~ N

Nella generica cella k, mk palline; osservato mk volte xk = k - N 2

i x i = k x k . mk 0 1 1
N i

x2 = i

(xk . mk ) 2

AS-50

Confronto valori misurati

valori aspettati

(Stime) x, s(x) (x), (x)

Per buon accordo alto numero N di lanci (N = 30, N = 10. 000)

Confronto distribuzione aspettata e distribuzione osservata variabile mk Valore aspettato di mk in cella k avendo effettuato N lanci: k = (mk) = N . P(k)

Confrontare, per ogni cella k, k con valore osservato mk. Verificare, utilizzando il test del 2 (vedi dopo),l'accordo fra distribuzione aspettata e distribuzione osservata.

Accordo (visivo)migliora con

1 N

AS-51

Con stesso valore di N fare due serie con N piccolo e N grande N 1 = 100 N 2 = 10000

= 30

Confronto distribuzione osservata e distribuzione aspettata per un determinato mk

Fisso una cella k M serie di N lanci


jm

k = numero di palline in cella k nella serie

j(j = 1, M)

Distribuzione aspettata per ni, i ni = numero di volte che si osserva mk in cella k


i i ni (mk) = M. P (mk)

con

P (mi ) = k

N . mi . k i P(k) Q(k) mk

N -mik

n nii(mk)

i mk

mk

AS-52

DISTRIBUZIONE DI POISSON
Evento casuale E cui associata variabile casuale t con le seguenti caratteristiche : 1) Densit di probabilit uniforme f(t) = dP = dt 2) Eventi statisticamente indipendenti 3) Probabilit trascurabile di avere pi di un evento in dt Distribuzione di probabilit che in un intervallo (0, t) si verifichino k eventi: P (k, t) dP (1, dt) = dt dP(0, dt) = 1 - dt

P(k, t + dt) = P(k -1, t) . dP(1, dt) + P(k,t) dP (0, dt) = P(k -1, t) . dt + P(k, t) . (1 - dt) P(k, t + dt) - P(k, t) = . P(k - 1, t) - . P(k, t) dt

dP(k, t) + . P(k, t) - . P(k - 1, t) = 0 dt

AS-53

k=0

P(k - 1, t) = 0 dP(0, t) = - P(0, t) dt P(0, t) = e-t P(0, 0) = 1

k=1 dP(1, t) + . P(1, t) - e-t = 0 dt Sol. : P(1, t) = t .e-t infatti: =0

e-t - 2 te-t + 2 te-t - e-t k=2 . . . k

dP(2, t) + . P(2, t) - 2 t . e-t = 0 dt ( t)k e-t P(k, t) = k!

t : costante; m = t costante mk -m Pm(k) = k! e Distribuzione di Poisson


(dipende da un solo parametro: m)

k: variabile casuale discreta fra 0 + 8 Normalizzazione : k 0


8

mk e-m = e-m . 8 mk = e-m . e+m = 1 k 0 k! k! sviluppo in serie di em


AS-54

Valore aspettato : 0 = k = 8
8

= E[k] = k k
0

mk-1 mke-m = m .e-m . k (k -1)! k! 1 1

k' = k - 1 = m . e-m

k' 0

mk' = m .e-m .em k'! Notare: m Pm (k) = Pm (k -1) . k crescente fino a k=m Pm (m) = Pm (m - 1)

em =m

Varianza :

2 = E (k - m)2 = E k2 - m2 E k2 k' = k - 1 =m =

k 0

k2
1
8

mk e-m = m k!

k k
1

mk-1 e-m = (k - 1)!

k' (k' + 1) m e-m = k' k'! 0 = m E [k' + 1] = m (m + 1)

2 = m(m + 1) - m2 2 = m = m
AS-55

La distribuzione di Poisson si pu anche ottenere da distribuzione binomiale per n molto grande, p molto piccolo (n . p limitato). Infatti (esempio decadimento radioattivo): per ogni intervallo di tempo t: p : probabilit di decadere 1) Si fanno n prove (n nuclei che possono decadere) 2) Si ottengono k "successi" (= k decadimenti) p : molto piccolo Pn,p(k) = lim
n8 np=cost.

n : molto grande n k

np : limitato

pk(1 - p)n-k =
1-p~1 se p piccolo

(k) = n .p m

. 2(k) ~ n p
in Poisson

p= m n n . (n - 1) . . . (n - k +1) m = lim n k! n8

1 -m n 1 -m n

n-k

n k

k . . n . (n - 1) . . k (n - k +1) m = lim n k! 1 - m n8 n = 1 dato che k finito

=
n k k = m e-m k!

= lim 1 1 - 1 1 - 2 . . . 1 - k-1 . k! . n n n n8 Ricordare che: lim 1 + a x x8


x

mk

1 -m n 1 -m n

c.v.d. = ea lim 1 - m n n8
n

= e-m
AS-56

DIMOSTRAZIONE ALTERNATIVA: n! . pk (1 - p)n-k = n8 k! (n - k)! lim

p= m n

FORMULA DI STIRLING :

n! ~ 2pn . nn . e-n n>>1

n-k

= lim 1 n8 k!

k 2pn nn . e-n . . m . 1 -m n 2p (n - k) (n - k)n-k .e-(n-k) n

n-k

=1 = lim 1 n8 k! 1 1-k n
n-k

ek

mk 1 - m n

n-k e-m

e-k

Ricordare: lim 1 + a x x8

= ea

= 1 mk . e-m k!

AS-57

Es.

Decadimento nuclei radioattivi :

Se m numero medio di decadimenti per unit di tempo (m = media), la probabilit di osservare k dec. nell'unit di tempo data dalla :
k Pm (k) = m e-m k!

10 dec./U.T. ;

Probabilit di 0 dec.? 100 -10 P10 (0) = e = 4.5 10-5 0! 1010 -10 P10 (10) = e = 0.13 10!

=m

= m P(m - m = k = m + m )

P10 (7 = k = 13) = F10 (13) - F10 (7) = 0.865 - 0.220 = 0.645 Se m = 4: P4 (2 = k = 6) = F4 (6) - F4 (2) = 0.889 - 0.238 = 0.651

AS-58

Es.

(Esperimento di Rutherford) Sorgente su bersaglio

conteggio numero di particelle con angolo di "scattering" 2608 conteggi da 7.5 s; 10. 094 particelle in totale. . 10 094 = in media 3.87 particelle/conteggio = m 2608 Verifica della distribuzione Poisson del numero di particelle osservate in un conteggio: Prove fatte: 2608 = N Probabilit di osservare k particelle in un conteggio : mk e-m Pm (k) = k! Numero aspettato di conteggi in cui osservo k particelle, avendo fatto N prove (da binomiale) : nk = N .Pm(k) k
(osservato) (aspettato)

0 57 54 7

8 45 68 8

9 27 29 5

=10

nk

203 383 525 210 407 526 14 20 23

532 408 273 139 508 393 254 140 22 20 16 12

11 17 4
AS-59

nk

n k

Es.

Conteggi da rivelatore con < 1

numero medio per unit di tempo di particelle nel rivelatore : (con distribuzione di Poisson) r: numero di particelle osservate nell'unit di tempo quale : P (r) ? Per avere r conteggi, = r particelle nel rivelatore con p = probabilit del rivelatore di osservare particella P(r) = n P(n) .Bn,p(r) = r 1 = n n! r
8 . 8

n . e-

. 8

n r. n-r r p (1 - p) = 1 (n - r)!
.

1 = r! .(p)r .e-

n r

. (1 - p)

n-r

sviluppo in serie di ek con k = (1 - p) 1 = r! .(p)r . e- . e(1-p) = = 1 .(p)r . e-p = Pp (r) r! Poisson con m = p
AS-60

DISTRIBUZIONE UNIFORME

f(x) = 1 b-a = E[x] =?


a b

F(x) = b - x b-a x2 b 2 a=

x 1 dx = 1 b-a b-a

2 2 = 1 bb - a = 1 (b + a) 2 2 -a

2 = E (x - )2 = E x2 - 2 E x2 =?
a 2= b

x2

1 dx = 1 b-a b-a

b3 - a3 3

b3 - a3 - (b + a)2 = 1 = (b - a)3 = 1 (b - a)2 12 12 b-a 3(b - a) 4 1 = 2 (b + a) 2 = = 1 (b - a)2 12 1 (b - a) 12


2 x 3

(b - a) = 2 .x

1 x 3

P( - = x = + ) =

2 x

= 0.58

AS-61

DISTRIBUZIONE ESPONENZIALE

f(x) = 1 e-x/

f(x) dx = 1
8

0=x=8 >0 e-x/ dx = - e-x/ =0


8 0

=1

1 (x) =

x . e
0

-x/

dx = - x . e-x/ +
0

e
8 0

-x/

dx =

= 1 2 =

integrando per parti : u=x v = e-x/ dv = 1 e-x/ dx

x2 e-x/ dx - 2 = 1 .2 3 - 2 = 2

2 eax

dx =

ax 2 2x = ea x2 - a + a2

f(x) = 1 e-x/

(x) = 2 (x) = 2

AS-62

CUMULATIVA DELLA DISTRIBUZIONE ESPONENZIALE

F(x) =

1 e-x'/ dx' = 1 - e-x/

P( - = x = + ) = F(2) = 1 - e-2 = 0.86 2 0

AS-63

Esempio Distribuzione del t fra due particelle consecutive in un fascio con distribuzione temporale uniforme. Ntot particelle t

t1 f(t) 1 t2 - t1 t1

t0 t2 f(t) = cost

t2

Fissato arbitrariamente t0 : 0 particella in t 1 " dt " dP(t ) = e-t . dt dP(1, dt) P(0, t) (vedi pag. AS-54) f(t ) = = Ntot t2 - t1 dP(t ) = . e-t dt (t ) = 1 = t2 - t1 Ntot
AS-64

DISTRIBUZIONE DI GAUSS (NORMALE) (x - xo)2 1 . e- 2a2 f(x) = ; 2.a 1 Simmetria intorno a: x = xo 2 d2f xo - a, xo + a sono i punti di flesso =0 dx2 a misura la larghezza della distribuzione massimo: f(x = xo) = 1 2.a df dx = 0

+8

f(x)dx = 1

-8

Valore aspettato 1 = E[x] = 2 .a

xe+8 -8

(x - xo)2
2a2

dx =

cambiando variabile: x-x 1 t= a o dt = a dx 1 = 2

dt =

+8

-8

. t + x ) e- t2 (a o 2 -8
+8

+8

Gauss con xo = 0 a =1

=1

1 . = a t e 2 dt + 2 -8 2 =0

t2

xo

+8

-8

2 - t dt e 2

= xo
AS-65

f(x) xo = - 1 a = 0.5 t2 xo = 3.5 a = 1.5 xo = 1.5 a=2

0.5 t

-2

-1

AS-66

Varianza
2 = E (x - )2 = t= x- a 1 2 a

= xo

(x - )2 (x - )2 e 2a2 dx = -8

+8

t a2 2 .e- 2 dt = integrando per parti = t 2 -8

dt = 1 dx a
2

+8

u=t t v = e- 2
2

du = dt dv = t . et2
2

dt
+8

u . dv = u . v -
+8 +8 -8 -8 +8 t2

-8

vdu =

a2t . e=2 -8 2 =0 = a2

a2
2

+8

=1 t e- 2
2

dt

-8

Gauss x = 0 a=1

(x - )2 1 . ef(x)= 22 2

Distribuzione di Gauss

AS-67

F(x) =

-8

(x' - )2 1 e 22 dx' . 2

Cumulativa

Variabile ridotta

t=

x-

dx dt =

Se x ha funzione di distribuzione f(x) , t = t(x) Funzione universale g(t) = . g(t) = dx . f(x = t) dt


2 1 - t . e 2 2

Gaussiana

=0 =1

Cumulativa G(t) = g(t) e G(t) tabulate.

-8

g(t') dt'

AS-68

~0.4

0.3

g(t)

0.2

0.1

-3

-2

-1

1.0

G(t)
0.5

-3

-2

-1

AS-69

Il contenuto probabilistico di un intervallo x per la funzione di Gauss si ottiene usando G(t): P, (-, +) = P(-to, to) = to = xo - 2

-t

to
o

g(t) dt = 2

to

g(t) dt =

Se si ha G(t) = tabulata fra 0 e t

to

g(t) dt -

-8

g(t) dt =
0 -8

= 2 G(to) - G(0) = 2G(to) - 1


1 2

G(0) = 0.5 G(1) = 0.841345 G(2) = 0.977250 G(3) = 0.998650 G(4) = 0.999968
-2 -1

g(t) G(to) G(0) =


1 2

to

P( 1) = 2 . G(1) - 1 = 0.6827 P( 2) = 2 . G(2) - 1 = 0.9545

P( 3) = 2 . G(3) - 1 = 0.9973 P( 4) = 2 . G(4) - 1 = 0.99994


AS-70

P(a = x = b) = G

b-

-G

a-

Se, fissato P = Po, voglio ricavare (a, b) ? Po = G b- -G a- infinite soluzioni

Se richiedo intervallo simmetrico: (intorno a ) Po = 2G G b- b- = -1

Po + 1 2 G b- = 0.95 b - = 1.645 .

Es:

Po = 0.9 b-

= 1.645

P(x > + n) = 1 - G(n) P( - n = x = + n) = 2(1 - G(n))

AS-71

Funzione di distribuzione di pi variabili casuali

Dato un fenomeno causale che dipende da pi variabili casuali x = (x1, x2, ... xn) Si pu definire una densit di probabilit congiunta f(x) = f(x1, ... xn)
cn

f(x) dx = 1

E G(x) = E xi =

cn

G(x) f(x) dx

x n i c

f(x) dx = i

E (xi - i)2 =

cn

(xi - i)2 f(x) dx (xi - i) (xj - j) f(x) dx

E (xi - i) . (xj - j) =

cn

AS-72

= (xixj + ij - xij - xji) f(x) dx =


cn

= E xixj + ij - 2ij = E xixj -E xi .E xj = Vij Vij : matrice di covarianza I II III una matrice simmetrica Vij = Vji elementi diagonali Vii = 2 (xi) i ? j Vij : covarianza (xi, xj) >0 <0

Coefficiente di correlazione (xi, xj) : (xi, xj) = Vij cov(xi, xj) = .V i . j Vii
jj

-1 = (xi, xj) = 1

= 0 scorrelate = 1 completamente correlate

Infatti : (es) 2(x1 +ax2) = 2(x1) + a22(x2) + 2a. cov(x1x2)

[Vedi dopo combinazioni lineari di variabili casuali]


AS-73

Dato che 2(x1 +ax2) per definizione = 0 : 2(x1) + a22(x2) + 2a cov(x1x2) = 0 Dividendo per 2(x1) : 1+ a2 2(x2) (x2) . cov(x1x2) + 2a =0 (x1) (x1) . (x2) 2(x1) 2 (x1x2) per ogni -1 = = 1

1 + 2 + 2 = 0 2 = 1

Se le xi sono mutuamente indipendenti: . f(x1 ... xn) = f(x1) f(x2) ... f(xn) E{xi xj} = = = xi xj f(xi) ... f(x n) dx1 ... dxn = xi xj f(xi) . f(x j) dxi dxj = xi f(xi) dxi . xj f(xj) dxj = E{xi} .E{x j}

(vedi pag. prec.)

cov(xixj) = 0 per j ? i

AS-74

Es.

x1 e x2 indipendenti 0 < x1 < 1 x2 1 C2 0 1 x1 0 < x2 < 1 F. di distribuzione uniforme entro C2 f(x1, x2) = 1 Infatti:
1 1 0 0

f(x1,x2) dx1 dx2 = 1

x1 = x2 =

x1f(x1,x2) dx1 dx2 = 2 2 x2 " = 2

2 x1

= 2 0
1

2 x2

1 2

= 2 0
1 0

2 = V11 = x
1

1 2

(x1- x1
2 x1

)2 . f(x

. . 1,x2) dx1 dx2 =

(x1- x1)2 dx1 =

=E V12 =

- 2

3 x1 1 1 2 - x1 = 1 - 1 = 12 x1 = 3 4 3 0

(x1 - x1 (x2 - x2) f(x 1x2) dx1 dx2 = )

= (x1 - 1) dx1 (x2 - 2) dx2 = 0


AS-75

x1 e x2 correlati 0 < x1 < 1 0 < x2 < 1 C2 0 1 x1


C2 2 2 x1 + x2 = 1 F. di distribuzione uniforme entro C2

x2 1 0

f(x1,x2) = cost. f(x1,x2) dx1 dx2 = 1 f(x1,x2) = 4 p


1 0 2 area = pR 4

x1 = 4 p 2 4 x1 = V11 = p

1 0 1 0

x1 dx1.

2 1-x1

0 2.

dx2 = 4 p
2 1-x1

2 x1. 1 - x1 . dx1 = 0.42

(x1 - x1) dx1 .


1 0

4 (x1 - x )2 dx2 = p 1 . 0
2 1-x1

2 1-x1

dx1 = 0.07

V12 = 4 p

(x1 - x1) dx1

(x2 - x2) dx2 = - 0.022

12 =

- 0.022 = - 0.31 0.07 . 0.07

AS-76

DISTRIBUZIONE GAUSSIANA MULTIVARIATA

La funzione di distribuzione di n variabili casuali gaussiane correlate:


T (x . e-1/2(x - a) .B . - a) (x) = k

k=

1 (2p)n/2 . (DET B-1)1/2

Con: a = (1, 2 . . . n) B-1 = C Matrice delle covarianze di x1, . . . xn

(x) . dx = 1
B11 . . . . . B1n (x1 - 1, . . . xn - n) . . . . . . . . . . x1 - 1 . . . . xn - n
AS-77

Bn1 . . . . . Bnn

DISTRIBUZIONE GAUSSIANA BIDIMENSIONALE Distribuzione binormale 1


2

cov (x1 x2) 2


2

C=

= B-1

cov (x1 x2) 1


2 1 2 2

B=

- cov (x1 x2) 1


2

- cov (x1 x2)2

- cov (x1 x2)

se (x1 x2) sono scorrelate (cov (x1 x2) = 0):


2 1/ 1

0
2 1/ 2 2 1/ 1

B=

0 .
2 1/ 2

(x1 - 1, x2 - 2)

x1 - 1 x2 - 2

0 x1 - 1 = (x1, 1, x2 - 2) 1 x2 - 2 2
2 2

(x1 - 1 )2
2 1

(x2 - 2 )2 2
2

1 . e(x1, x2) = . 12 2p

2 1 (x1 - 1 ) 2 2

. e-

1 2

(x2 - 2 )2

Prodotto di 2 gaussiane
AS-78

Nel caso in cui x1 e x2 sono correlate: = cov (x1 x2) 12


moltiplico e divido per 12

C = 12

1 2

2 1

B pu essere scritta: 1 B= 1 - 2

1 -

12 1

12 1 2 2 . e -1/2 G

f(x1 x2) =

2 12

1 - 2

G=

1
1 - 2

(x2 - 2 )2 (x1 - 1 )2 + -2 2 2 1 2

x1 - 1

x2 - 2 2

f(x 1, x2) x2 x1 Probability density of a bivariate Gaussian distribution AS-79

FUNZIONI LINEARI DI VARIABILI CASUALI


n

y(x1, ... xn) =

i ai xi

Valore aspettato: E[y] = E[i ai xi ] = i ai E[xi] = i ai i Dato che E un operatore lineare

Varianza: E[(y - y)2] = = E i ai xi - i ai i = E i ai (xi - i) 2 = = E i a2 (xi - i) 2 + i?j aiaj (xi - i) (xj - j) = i = i a2 i2 + i?j a iaj . cov (xi , xj) i
2

AS-80

Se le variabili xi sono indipendenti:

? y = i=1 ai . xi

y = ? ai . x i
i=1

2 y

2 ? ai . 2 i = x

i=1

Ma: forma della y, date le x i ? Difficile in generale ma:

Alcuni casi particolari

a) Distribuzioni gaussiane b) "Tante" f(xi) qualsiasi


(sotto particolari condizioni)

AS-81

FUNZIONI LINEARI DI VARIABILI CASUALI CON DISTRIBUZIONE "NORMALE" (GAUSSIANA)

Date n variabili casuali xi con funzione di distribuzione gaussiana ("normale") f(i, i) la funzione : y = ? i ai . xi 1
n

avr ancora una funzione di distribuzione "normale" f(y, y) (si pu dimostrare) con :

y = ? i ai . i 2 = ? i a2 . 2 y i i
xi
i

Ne segue che la media x = ?

di un campione di

dimensione N di una variabile "normale" (x, x) ancora x una variabile "normale" con: x = x e x = N [Ogni xi pu essere considerata una variabile casuale con f. di distribuzione normale]
AS-82

TEOREMA DEL LIMITE CENTRALE

Date n variabili casuali indipendenti xi con funzioni di distribuzione qualsiasi (i, i finita), la funzione: y = ? i ai . xi
1 n

nel limite n 8

avr distribuzione "normale" con :

y = ? i ai i
2 2 2 = ? ai i y

Condizioni di validit molto ampie, ma : importante che le 2 siano tutte finite e i paragonabili, cio nessuna domina le altre.

N.B.

Se le i sono concentrate attorno al valore aspettato (i piccole), il teorema valido gi per valori piccoli di N.

AS-83

Es.:
1 T

y = x1 = 2 T
T T2

y = x1 + x2 =T 2 = 12
2T2

y = x1 + x2 + x3
3 = 2 T

2 = 12 T

2 = 4
3 T 2

T2

1 T

3 p

e-3(x-T) /T

1 T

2 p

e-2(x-1.5 T) /T

Gaussiana con stessa , ES.

Gaussiana con stessa ,

Generatore di numeri a caso con distribuzione Gauss G (0, ): ottenuto con la somma di n numeri a caso con distribuzione uniforme in (0, 1).
1 - n =0 2 2 1 2 = n . 12 =n.

y = ? xi
i=1

- n 2

Buon accordo con gaussiana per n > 510. Per n = 12 si ottiene G (0, 1) N.B. Il teorema del L.C. ha validit pi generale.

AS-84

Il modello di Laplace degli errori di misura


Sia x* il valore vero di una grandezza fisica, x il risultato di una generica misura. x = x* a causa degli errori di misura che assumeremo puramente casuali

Modello di Laplace : errore di misura = insieme estremamente grande ( 8 ) di disturbi contemporanei molto piccoli ( infinitesimi) Ogni disturbo = (50% + , 50% - ) Ogni disturbo statisticamente indipendente Se N sono i disturbi e k i disturbi + : x = x* + k -(N -k) = x* + (2k - N) PN,p(k) = con : N! pk . qN-k k! (N - k)!
1 2

p = probabilit di disturbo + =

AS-85

(k) = N . p

2 (k) = Npq

: scarto di k dal suo valore aspettato k - Np = k = Np + N - k = N. q - 0=k=N -Np = = N . q

PN,p() =

N! . pNp + . qNq - (Np + )! (Nq - )! () = E[] = E[k] - N . p = 0

2() = E[( - E())2] = =0 = E[(k - Np)2] = Npq Al crescere di N si pu utilizzare per N! la formula di Stirling : ~ N! = 2p .NN+1/2 . -N e I (Np + )! = 2p (Np + )Np++1/2 . e-Np- =
= 2p (1 + Np )Np++1/2 . e-Np- .(Np)Np++1/2
AS-86

II

(Nq - ) =

2p

1-

1 Nq - + 2 Nq

e-Nq + (Nq)Nq - + - Np Nq

1 2

I e II valide per lontano dai suoi limiti


PN,p() = 2p 2p
1 Nq + 2 N

1 + Nq pNp + pNp + +

Np++1/2

e-N . Np-+1/2 N+1 2p 1 - e-Nq -Nq . N1/2 Nq


=N

. qNq -
1 2

. qNq - + .

1 2

=
1 1

1 2p

-Np-- 2

1+

Npq

Nq

1-

Nq

-Np+- 2

NOTE:
I

PN,p(0) =

1 2p

Npq

Valore massimo k P(k) = 1

P(0) 0 come N ; quindi il numero di valori di per cui P() non trascurabile rispetto a P(0) deve divergere come N , anche se il numero totale di valori di diverge come N+1. II La formula approssimata per P() non valida per ~ -Np e ~ Nq; ma in questi intorni P() trascurabile rispetto a P(0).

AS-87

Consideriamo ora:
Np - - 2 Np
1

lg =

1+

1-

Nq

Np + - 1 2

= Np + + 1 2

lg 1 + Np

1 lg 1 - Nq + 2

Nq

Np

Nq

sono << 1 lontano dagli estremi.


3 x2 + x 2 3

lg (1 + x) = x -

....

= Np + + 1 2

2 - 2 2 + ... Np 2N p

Np - + 1 2

2 - - + ... = Nq 2N2q2

2 =- 2Npq 2N

1 1 p q

3 6N2

p2 q2

+ ...

Per ~ N (unici valori non trascurabili) solo I termine 1 1 finito (secondo 0 , terzo 0 1 , altri come N ).
N N

AS-88

lg k ~ -

2 2Npq 1 2p Npq

2 - k = e 2Npq
1 2 e 2 Npq

P() ~

P( )

1 2p

.e -

1 2

2 2

Ma nel modello di Laplace: p= 1 2 Np + 2Np + 2 - N = 2 . N . 1/2 + 2 - N = 2

x = * + (2k - N) . =

= x* + 2

(x - x*) = 2

E[x] = E[x* + 2] = x* + 2 E[] =0

E[(x - x*)2 ] = E [(2)2] = 42 E[2] = 422

AS-89

Per 0 (x da discreta a continua) :

P(x) =

? ?x

. P() = (x) 1 2

1 P(x) = 2 x = x* + 2 x = 2

1 . e2p

1 2

2 2

1 eP(x) = 2p x

1 2

(x - x*)2 2

c.v.d

In questo caso P(x) rappresenta una densit di probabilit La misura di una grandezza fisica una variabile casuale con f. di distribuzione gaussiana (normale). Il valore aspettato di tale variabile casuale proprio il valore vero della grandezza.

AS-90

MISURA DI UNA GRANDEZZA FISICA (Caso generale)

1) Ammettiamo che esista un valore "vero" x* della grandezza. 2) Ammettiamo che esistano molte sorgenti (N) di disturbo della misura. Queste sorgenti generano degli errori casuali i che hanno le seguenti propriet: (i) = i f(i) d i = 0
2 2(i) = i f(i) d i

finito

(Nessuna ipotesi sul tipo delle f( i)) Potremo quindi scrivere per la generica misura di x, xM : xM = x* + ? i i
1 N

xM = x* + = ? i i
1 N

Per il teorema del limite centrale la variabile casuale , somma di N variabili casuali a varianza finita, per N 8 avr distribuzione normale con valore aspettato e varianza: () = ? i ( i) = 0
1 N

= ? i 2(i)
2

N 1

f() =

1 2p

e-

2 2 2
AS-91

Per il teorema della addizione di variabili normali, xM sar ancora una variabile normale con : x M= x* + = x* x M=
2 2

y = ax + b y = ax + b
2 y = a2 2 x

f(xM) =

1 2p x M

. e-

(xM - x*)2 2 2

xM

Dimostreremo (vedi prossime lezioni) anche che: h se si eseguono N misure xi della grandezza, cio se si estrae un campione di dimensione N dalla popolazione (infinita) della variabile xM (che ha funzione di distribuzione normale), la miglior stima di x M (cio del valore x* della grandezza fisica) sar dato da:
N

x=

? i xi
1

(media aritmetica delle xi)

AS-92

2 e che la miglior stima di xM :

s2

1 N-1

?i
1

(xi - x )2

(scarto quadratico medio)

La media x , essendo combinazione di variabili casuali normali, avr a sua volta distribuzione normale con : (x) = x* (x) =
2
2 x

Indicheremo il risultato di N misure ripetute (con stesso metodo nelle stesse condizioni) di una grandezza fisica con la notazione: x = x sx = x
sx N

x=
sx =

1 ? i N 1

xi

? (xi - x)2 N-1

Con questa notazione si intende : P( x - x* = sx) = 68% Cio la probabilit che l'intervallo: x - sx = x* = x + sx contenga x* il 68% Risultato di una singola misura x i (assumendo noto sx) :

x = xi sx
AS-93

f(x) 0,399

-8 f(x) dx = 1 GAUSS = 1

+8

WP WP uniforme

=1

2 = 12 1,73

-3

-2

-1

0 68,27% 95,45% 99,73% 57,8%

1,73 2

3 GAUSS

uniforme

AS-93 bis

PROPAGAZIONE DEGLI ERRORI (STATISTICI)

Misura indiretta di una grandezza fisica: y = f(x1, . . . xn) Dove xi sono grandezze fisiche misurate direttamente (xi si); dato che le xi sono variabili casuali, anche la y sar variabile casuale. Se sviluppiamo y in serie di Taylor in un intorno di (1, . . . n) [valori aspettati delle xi]:
?y y = y(1, . . . n) + ? i ?x n
i 1

(xi - i) + . . .

Se trascuriamo i termini di ordine superiore (cio assumiamo che le xi siano in un intorno dei loro valori veri i) y combi nazione lineare di variabili casuali con distribuzione normale (quindi) y ha funzione di distribuzione normale con : y = y(1, . . . n) (dato che (xi - i) ha valore aspettato = 0)
AS-94

Per la varianza:
2 y =

E[(y - y

)2]

=E ?i

?y (x ?xi i i

i)

n n ?y ?y ? i ? j ?x . ?x . (xi - i) . (xj - j) = =E 1 1 j j i i

?y ?y = ? i ? j ?x . ?xj . E (xi - i) . (xj - j) = 1 i j i

Vij Vij = E (xi - i) (xj - j) = E xi xj + i j - xi j - xj i =


(Vij = Vji )

= E [xi xj] + i j - 2 i j = E [xi xj] - i j

?y 2 y = ? i ? j ?x
i 2 y = n

LEGGE.DI PROPAGAZIONE ?y

ij ?xj ERRORI STATISTICI

?i
1

?y ?xi

2 xi + ? i ? j ?y

?xi

?y ?xj

. Vij

i?j

Se le xi sono statisticamente indipendenti : (Vij = 0


2 y = n

i ? j)

?i
1

?y ?xi

LEGGE D IPROPAGAZ I ONE


2 xi

ERROR I STAT IST IC I (x iscorrelate)

Questa legge di propagazione degli errori esatta solo se y funzione lineare della xi .
AS-95

Nel caso in cui y sia un monomio : y = ? ix i i

LEGGE D IPROPAGAZ IONE ERROR IRELAT IV I

xi correlate:
y 2 y =

? i 2 . i i x
n 1 i

j + ? i ? j i . j . ij . x i . x i j
i=j

xi scorrelate:
y 2 y =

? i 2 . i i x
n 1 i

AS-96

STIMA DEI PARAMETRI DELLE DISTRIBUZIONI

Se distribuzione di probabilit o funzione di distribuzione non note a priori :

Numero infinito di prove per determinarla Esperimento con N. finito di prove : "campione" di dimensione n della popolazione Analisi statistica dei dati (risultato delle prove) permette una stima delle propriet (delle grandezze caratteristiche) della distribuzione e permette di valutare bont della stima.

BONTA' : probabilit statistica che il valore vero del


parametro cada in un certo intervallo intorno alla stima ottenuta (intervallo di confidenza)

Stime con campioni di egual n hanno bont equivalenti. Stime con n maggiore hanno intervalli di confidenza pi stretti.

AS-97

CAMPIONAMENTO

Estrazione di n valori della variabile casuale campione


.

di dimensione n ....... x1
(1)

. . . . . . . . . . xn

(1)

m CAMPIONI .......... x(m) n

x1

(m)

Se considero : x (j) = (x1 . . . xn ) _ x sar ancora una variabile casuale con _ f(x) = f(x1 . . . xn) Il campione sar casuale se : I xi indipendenti f(x1 . . . xn) = f(x 1) . . . f(xn) II xi tutte con la stessa formula di distribuzione: f(x1) = . . . = f(xn) = f(x) Una generica funzione di un campione: "statistica"
AS-98 (j) (j)

Una "statistica" si usa per stimare i parametri di una funzione di distribuzione S(x1 . . . xn) Estimatore S una variabile casuale Un estimatore gode delle seguenti propriet: 1) ASSENZA DI DISTORSIONE Per un campione finito, un estimatore non distorto se: ^ E[S(x1, ... xn)] = E[a] = a* (per ogni n) Se la distorsione tende solo asintoticamente a 0 lo estimatore si dice asintoticamente non distorto. 2) CONSISTENZA Al crescere delle dimensioni del campione l'estimatore converge al valore vero del parametro : per n 3) 8 ^ a
2

se a sono i parametri incogniti:

^stima a=

=S

EFFICIENZA La stima ottenuta da un estimatore avr una certa varianza; pi efficiente un estimatore con varianza minore. (A parit di dimensioni n del campione).

4) INVARIANZA SOTTO TRASFORMAZIONE DEI PARAMETRI ^ Se a la stima del parametro a, allora la stima per una ^ generica f(a), proprio f(a).
AS-99

Estimatore del valore aspettato : media aritmetica x= PROPRIETA': _ 1 E[x] = n 1


1 n (x1 + . . . xn)

E[x] + . . . E[xn] =

1 n

. n = (x)

non distorto

Per le propriet di funzioni lineari di variabili casuali: a = 2 (x) = _


1 . . 2 n (x) = n2

1 n

2 (x)
n

consistente

2 0 n8

Si pu dimostrare che la media aritmetica la stima del valore aspettato che ha la minima varianza, cio la pi efficiente

AS-100

Propriet della media: I _ Somma degli scarti da x = 0 ? ixi _ _ ? i (xi - x) = ? ixi - x .n = n . n 1


n

_ _ _ - nx = nx - nx = 0

II

_ Somma dei quadrati degli scarti da x minima Infatti, scelto un generico x: ? i (xi 1 n

x)2

_ _ 2 = ? i (xi - x) + (x - x) =
n 1

n _ _ _ _ = ? i (xi - x)2 + (x - x) 2 + 2(xi - x) (x - x) = 1

_ _ 2 . _ 2 _ = ? i (xi - x) + n (x - x) + 2(x - x) ? i(xi - x) =


n 1

_ _ 2 _2 2 = ? i (xi - x) + n(x - x) > ? i(xi - x)


n 1

=0

Estimatore della varianza (scarto quadratico medio)

s2

1 n -1

_ ? i(xi - x)2

AS-101

Consideriamo inizialmente: s'2 =


1 n

(x1 - x)2 + . . . (xn - x)2


1 n 1 n 1 n 1 n

E[s' 2] = = = = =

_ E ? i (xi - x)2 = _ 2 ? i E (xi - ) - (x - ) =

_ ? i E (xi - )2 - E (x - ) 2 = n2 - n
1 n

2 =
1 n

2(x)

n -1 n

2 = (1 -

) . 2

E' distorto (solo "asintoticamente non distorto") _ ? i(xi - x)2

s2

1 n -1

Sar invece non distorto

AS-102

LA LEGGE DEI GRANDI NUMERI (Applicata al caso della media aritmetica)

Data una popolazione di varianza finita 2, e dati 2 numeri positivi ' e " , esister sempre un numero N tale che, per ogni campione della popolazione di dimensione M = N, si avr: P( x- x = ') = "
v v

DISEGUAGLIANZA DI BIENAYME' - CEBICEV Data una variabile casuale x con funzione di distribuzione f(x) e varianza finita 2 : P( x - = ) = per positivo qualunque. Infatti: P( x - = ) = f(x) dx
C*

1 2

dove C* = dominio in cui

x-

= 1.
AS-103

Graficamente: 2 1 f(x) =2

Voglio dimostrare che:

= f(x) dx = 1 = C* 2

1 4

f(x)

C*

AS-104

In C* sar anche vero : (x - )2 2 2 =1 Quindi: (x - )2 P( x - = ) = 2 2 f(x) dx = C* =


C

(x - )2 2 2 f(x) dx

Dove C tutto il campo di definizione di x. P( x - = ) = c.v.d.


2

1 E[(x - )2] = 2 2
varianza di x = 2

1 2

Ricordando che x ha varianza = la diseguaglianza di B.C. :


v

, potremo riscrivere N

P( x - = ) = 1 2 N " ' ' =


N

" = 2 = '2 N
1
2

AS-105

Fissato ' ed " (quindi ), si sceglie N tale che : 2 N= ' 2 . " Per ogni M = N la diseguaglianza iniziale sar soddisfatta. Valore di N per cui la probabilit che la media x disti Es.: da pi di 1 = 20%. ' = 1 . =1 ; N 1 2 = 1 N

" = 0.2

Infatti se ' = , ne segue che

2 N= 0.2 * 2

=5 1 : N 0.32 0.20 0.04 0.001

In generale, fissato N, la P(|x - | > 1) = N= 1 2 5 10 100 P( x - > 1) = 1 1/2 1/5 1/10 1/100 f(x) qualsiasi

f(x) gaussiana x =
N
AS-106

Significato dell'argomento :

Data una variabile casuale con distribuzione qualsiasi, fissato un livello di confidenza richiesto (cio una probabilit), possibile determinare la grandezza minima del campione (cio il valore di N) per cui la media (con probabilit assegnata) prossima al valore "vero" pi di un dato valore (in unit di )

popolazione

campione

AS-107

TEOREMA DI BERNOULLI

Data distribuzione binomiale: PN,p(k) consideriamo la variabile casuale : = N


k

PN,p() = PN,p(k = N)
1 E[] = N E[k] = Np = p N

2[] =

1 N
2

E[k2] = Npq = 2
N
v

pq N

Dalla diseguaglianza di B.C. : P( x - = ) = =

1
2

P( x - = ) = P( - p = ) = Per N 8 P( k - p > ) N frequenza

2 2
p. q N 2

tende a 0.

AS-108

In altre parole, per N 8 la probabilit che la frequenza relativa differisca dalla probabilit per pi di una quantit assegnata, tende a 0.

Il teorema di Bernoulli una giustificazione della definizione di probabilit in termini della frequenza relativa.

AS-109

METODO DELLA MASSIMA VEROSIMIGLIANZA

Stima dei parametri di distribuzioni : data una funzione di distribuzione di una variabile casuale, con forma funzionale nota, dipendente da un certo numero di parametri incogniti, si vuole stimare il valore dei parametri a partire da un campione limitato della popolazione.

f(x, a)

a : parametri incogniti (a1 . . . an) (campione)

x1, x2, x3, . . . xN : misure della variabile casuale

Se f la funzione di distribuzione di x, la probabilit di osservare l'insieme x1 . . . xN di valori :


N

dP = f(x1, a) dx f(x2, a) dx . . . f(xN , a) dx = ? i f(xi, a) dx


1

AS-110

Se si definisce funzione di verosimiglianza :

=?

i i

f(xi , a)

IL PRINCIPIO DELLA MASSIMA VEROSIMIGLIANZA :

La miglior stima dei parametri a quella che rende massima la funzione L


? ?ai

?2

=0

?a2 i

<0

Un estimatore di massima verosimiglianza gode delle seguenti propriet: 1) ASSENZA DI DISTORSIONE. E[Estimatore] = valore vero (per ogni N) Gli estimatori di massima verosimiglianza sono solo asintoticamente non distorti. 2) CONSISTENZA. ^ (a a* per N 8) ^ a
2

0
8

Gli estimatori di massima verosimiglianza sono consistenti 3) EFFICIENZA. Gli estimatori di massima verosimiglianza sono quelli con efficienza migliore. 4) INVARIANZA SOTTO TRASFORMAZIONE DEI PARAMETRI. Gli estimatori di massima verosimiglianza sono invarianti sotto trasformazione dei parametri.

AS-111

In generale si preferisce usare, invece della L , il suo logaritmo: w = lnL = ? i lnf(xi , a)


1 N

e cercare quel valore di a che rende massimo w.


?w ?a

= 0;

?2 w ? 2a

<0

Es.

Stima di e 2 per una distribuzione normale

Stima di .

(dati: x1 . . . xN)
1 N 2p
N

L=

(xi - )2 e- 22

w = lnL = - N ln
?w ?
N N

2p N

ln(

N 2)1/2

?i

(xi - )2 22

= ?i
1

(xi - ) 2

=0
N

?i
1

xi - N . = 0

^ =

? i xi
1

Stima di massima verosimiglianza del parametro

? 2w ?2

N = - 2 < 0 AS-112

II

Stima di 2.
?w ? 2

=-

N 2
N

1 2

(xi - ) + ?i 2 4 =0
1

^2 =

? i (xi - )2
1

N ? i xi N

Ma da I , : ^ =
? i (xi - x)2 N

=x

^2 =

Stima di massima verosimiglianza del parametro 2 solo asintoticamente non distorta

^ 2 = 2 . N - 1 = non
dist.

1 = 2non . (1 - N )
dist.

Asintoticamente non distorto

Es.

Combinazione di misure con diversa precisione (Media pesata di misure con diversa stesso ) x1 x2 . . . xN 1 2 . . . N
N

L=

1
i

2p i

(xi - )2 e- 22 i
N

w = - N ln
?w ?

2p - ? i
1 N i = ? i 2 1 i

ln i =0

(xi - )2 ?i 2 2 i 1
N

x -

AS-113

?i
1

xi 2 i

= . ? i 12
1

^ =

?i
1 N

1 2 i 1

xi

?i
1

2 i

Ponendo : pi =

1 2 i
N

MEDIA PESATA

^ =

? i pi xi
1

? i pi
1

Varianza della stima di massima verosimiglianza Si pu dimostrare che per N 8 la funzione di verosimiglianza L (che la funzione di distribuzione per a) tende ad una distribuzione gaussiana:

L (a) =

1 2p a

(a - a*)2 e- 22 a

Se consideriamo w(a) = ln L (a) e la deriviamo 2 volte rispetto ad a: w(a) = (a - a*)2 22 a

+ cost

AS-114

?w ?a

=-

(a - a*) 2 a

?2w = ?a2

1 - 2
a

a = -

1 ?2w ?a2

Se non si ha espressione analitica di w: w wmax wmax 1 2

Fare grafico di w in funzione di a parabola

a
^ a

a a + const. ~ const.
^ se a ~ a*

wmax = ^ Se: a ~ a* :

^ (a - a*)2 22 a

^ In corrispondenza ad: (a - a) = a

w(a) = wmax -

1 2 1 2

Quindi le due intersezioni con wmax -

: a

AS-115

Es. Varianza sulla media

stima di

= ?i
1

xi
N

=x

Errore sulla stima di :


2 ^

2 x

1 ?2w ?2

?2w ?2

=-

2 ^

^2 N

Es. Varianza sulla varianza

^2

stima di

? i(xi - x)2 N

AS-116

?w ? 2

=-

N 2

2
N 2 N 2 N 2

+?i
1

(xi - )2 2 4
N

(2)2
= =
^ 2

?2w ?(2)2

=+ =

4
1

-2
1

? i (x - )2 1 i 2 . 6
N

4
1

- 6 N

? i (x - )2 i 1
N N 2 1

=
2

4
^ 2 4 N

1 - N 4 = -

4
d d
2 2

2 = ^ x = 2
? x ?x
2

= ^
2

2 = ^

2 4 4 2 N 1

2
2N

1 2

1 x
^ = ^ 2N

= ^

2
^

2N

Es. Varianza sulla media pesata


N

?i

=
?2w = ?2
2 ^

2i
1

xi

?i
1

2i
N ?i 1 1 2i

?i
1

2i

AS-117

Es. Stima di m in una distribuzione di Poisson Fatte N prove, sono stati osservati i valori: n1 . . . nN

=?

N i 1

e-m mn i ni !

-m n i w = ? i lge e nm! = i 1

= - Nm + ? i ni lge m + ? ilge n1 ! i 1 1
?w ?m 1 = - N + ? i ni m = 0 1
N

N ^ = ? i ni m N 1

?2w ?m2

? i ni

=-

m2

2 m ^

m2
N

? i ni
1

^ m2 ^ Nm

^ m N

AS-118

Es. Stima di p in una distribuzione binomiale Fatte n serie di N prove: k1 , k2 . . . kn n, casi favorevoli in ogni serie
N! ki ! (N - ki ) !
n 1

L=?i
1 n

. p ki . (1 - p)N- ki

w = ? i ki lge p + ? i (N - ki) .lge (1 - p) + cost


1

?w ?p

= p ? i ki - 1-p ? i (N - ki) = 0 1 1
n 1 n 1

(1 - p) ? i ki = p ? i (N - ki)
n 1 n 1 n 1

? i ki - p ? i ki = Npn - p ? i ki
n

p=

? i ki 1 N

k N

^= k p N

AS-119

Es. Stima parametri retta y = ax + b y1 1 . . . yn n x1 . . . xn (yi : funzione di distribuzione Gauss)

L =?

1 2p i

i i e- 2 2 i

(y - y*)2

y* = i

a*xi + b*

w = - ? i 2 2 i max (w)
?w ?a ?w ?b

(yi - yi*)2

+ cost
(yi - y*)2 i

min ? i 2 2 i
(yi - axi - b) 2 i (yi - axi - b) 2 i

= +? i = +? i
xi
2

. xi = 0 =0
xi yi

a ?i a?i

2 i 2 i
xi

+b?i +b?i

2 i
1

xi

= ?i = ?i

2 i
yi

^ e ^ a b

2 i

2 i

AS-120

Es. Stima di per distribuzione: f(t, ) =


8

e-

f(t,) dt = 1
0

Osservati i tempi: t1 . . . tN in N. prove Voglio stima di massima verosimiglianza per .

L =?i
1

e-

ti

w = - ? i lge + ? i - ti
1 1

?w ?

=-?i
1

+ ?i
1
N

ti
2

=0

^ =
?2w ? 2
N

? i ti
1

N
N

= +? i
1

1
2

-2 ? i
1 ^

ti
3

N
2

2N
3

i ? i tN = 1

N
^2

^ =
2

^2

N AS-121

IL METODO DEI MINIMI QUADRATI

Date due grandezze x, y legate dalla relazione funzionale: y = f(x, a) a : a1, . . . , an Fatte N misure : y1 1 . . . yN N x1 . . . xN [Errore su x trascurabile; |f(xi + x) - f(xi)| << yi ] Voglio stimare i valori dei parametri a1, . . . , an. Se le yi hanno formula di distribuzione gaussiana, posso applicare il metodo della massima verosimiglianza. n parametri

L =?i
1 N

1 2p i

e- 2 2 i

(yi - i )2

w=-?i
1

(yi - i )2

2 2 i

+ cost

AS-122

w=-?i
1

(yi - f(xi , a) )2

2 2 i

+ cost

Max (w)

min ? i
1

(yi - f(xi , a) )2 2 i

Il principio dei minimi quadrati afferma che la miglior stima dei parametri a quella che minimizza la somma:
N

X2

=?i
1

(yi - f(xi , a) )2
2 i

+ cost

indipendente dalla formula di distribuzione delle yi.

Notare che il metodo richiede la conoscenza a priori di tutte le i; nel caso per in cui le i siano tutte uguali il metodo ancora applicabile anche non conoscendo . (Altro parametro incognito)

AS-123

MINIMI QUADRATI NEL CASO LINEARE

Supponiamo che la dipendenza della y dai parametri sia lineare: y = f(x, a) = ? k ak . fk(x)
1 n

y1 1 ... yN N x1 ... xN

Assumiamo inoltre che la yi siano fra loro statisticamente indipendenti


n N

X2 = ? i
1

yi - ? k ak fk (xi) 1
i
2

? X2 =0 ? aj n equazioni lineari nelle n incognite ak

j = 1, ... , n

n N fj (xi) ? X2 . ? i yi - ? k ak fk (xi) . =0 =2 1 2 1 i ? aj

? i ? k ak . fk (xi) fj(xi)
1 1

2 i

= ? i fj(xi) 1

yi
i
2

AS-124

n 1

? k ak ? i fk (xi) fj(xi)
1

2 i

= ? i fj(xi) 1

yi
i
2

n equazioni lineari al variare j = 1, n. Sistema di n equazioni lineari nelle incognite ak. k A11 a1 A12 a1 ...... A1n a1 + A11 . . . . A1n . An1 . . . . Ann
N 1

+ +

A12 . a2 . . . . . . + A1n an = b1 A22 . a2 . . . . . . + A2n an = b2 ...... A2n . a2 . . . . . . + Ann an = bn a1 = an b1 bn j

Ajk = ? i fk (xi) .fj(xi)


N 1

bj = ? i yi . fj(xi) A.a= b

....

2 i

....
2

....

= Akj matrice simmetrica

sistema di equazioni lineari


AS-125

SOLUZIONE:

matrice inversa

A-1

(A-1 A = U)

A-1 . A . a = A-1 . b U .a = a a = A-1 . b


-1 Akj =

(-1)k+j

Akj A

A = determinante matrice A Akj = minore kj della matrice A


-1 ^ ak = ? j Akj . bj 1 n n -1 j Akj N 1

= ?

. ? i yifj(xi)

2 i

Stima ak con minimi quadrati A-1 : matrice delle covarianze Infatti si pu dimostrare che : E (ak a *) k .(aj - a * = cov (ak, aj) = ) j
-1 Akj

AS-126

2 k = Akk

-1

Nota la matrice delle covarianze, possibile calcolare la varianza su una qualsiasi funzione delle ak. In particolare: ^ = ? k ^k fk(x) a y
1 n n

^ : valore stimato della y y ^ dalla stima ak


^ . ?y . cov (ak, aj) = ^ ?aj

2 ^ = ? k,j y

^ ?y ^ ?ak

-1 = ? k,j fk(x) .fj(x) . Akj 1

Per verificare se il risultato delle stime degli ak con i minimi quadrati compatibile con i dati:
n 2 N-n = ? i 1

Nel caso di errori gaussiani sulla yi

^ (yi - y(xi))2 2 i

Distribuzione normale

^ i y,

N-n gradi di libert: N variabili casuali yi - n parametri estratti dai dati

AS-127

ES.

y = ax
N

X2 =
?X2 ?a
N

? i (yi - axi)2
1

i
N

=-2?i
1

(yi - axi)2
i
N 2

xi = 0

?i
1

xi - yi
i
2

=a?i
1

2 i

x2 i

?i a=
1 N 1

xi . yi
2 i 2 i

?i

x2 i

Essendo a una combinazione lineare di variabili casuali yi con varianza nota (trascuro varianza su xi), la sua varianza:
N

2 a

= ?i
1

?a 2 . ?yi

2 i

?i =
1 N

x2 i
2 i

i
2

?i
1

x2 i 2 i

1
N

?i
1

x2 i
i
2

AS-128

ES.

y = a1 + a2x
n

y = ? k ak . fk(x) 1 In questo caso: n=2 f1(x) = 1 y1 1 . . . . yN N x1 . . . . xN A:


N N 2 i

f2(x) = x

A11 = ? i f1(xi).f1(xi) 1
N

= ?i 1
N

=s

A12 = ? if1(xi).f2(xi) 1
N

2 i

= ?i
1 N

xi

= sx

A22 = ? if2(xi).f2(xi)
1

= ?i
1

xi

2 2

= sxx

s A= sx

sx sxx

2 A = det A = s . sxx - sx = N N .

= ?i 1

1
2 i

?i
1

x2 i

2 i

?i
1

xi

AS-129

b:
N 1 i N 1

b1 = ? i yi . f1(xi) 2 = ? i
N 1 i N 1

yi

= sy

b2 = ? i yi .f2(xi) 2 = ? i

yi xi

= sxy

A-1: (Matrice covarianze) A-1 =


1 A

sxx - sx

- sx s

SOLUZIONE :

A =D a = A-1 . b a1 a2
-1 A11 A-1 12 . b1 = -1 = -1 b2 A21 A22

1 D

sxx -sx

-sx s

sy sxy

AS-130

a1 =

1 D

(Sxx . Sy - Sx .Sxy) =

1 D 1 D

?i
1

xi2
i2

.? i
1

yi
i
2

- ?i
1

xi
i
2

. ?i
1

x i yi
i
2

a2 =

(- Sx . Sy + S .Sxy) =

1 D

-? i
1

xi
i2

.? i
1

yi
i2

+?i
1

1
i2

. ? i x i yi 2
1

2 a1 =

-1 A11 =

1 D

. Sxx =

1 D

?i
1

xi2
i2

2 a2 =

-1 A22

1 D

.S

1 D

. ? i 12
1

cov = (a1a2) = -

1 D

. Sx = -

1 D

.?i
1

xi
2 i

D = S . Sxx - Sx2

AS-131

ES. Calcolo banda errore intorno a soluzione


?y ?y ? j ? k ?a . ?a . cov (aj, ak) = j k 1 1
n n n n

2 ^ = y

= ? j ? k fj(x) .fk(x) . cov (aj, ak) = 1 1 = f1(x) .f1(x) . cov (a1, a1) + f2(x) .f2(x) . cov (a2, a2) + y + 2f1(x) .f2(x) . cov (a1, a2) = = a1 + x2 a 2 + 2x cov(a1, a2) = x
1 = D Sxx + x2 .S - 2x . x S
2 2

1 D
2

?i
1

x2 i
i2

+ x . ?i
2

N 1

1 2 i

2x ? i
1

xi
i2

^ Notare: y funzione della x

Minimo di

2 y : ^

? ^ y ?x

=0

2xmin .S = 2 .Sx xmin = Se 2 uguali:


Sx S

xmin = 2

? i xi
N

=x
AS-132

Per vedere che A-1 la matrice delle covarianze: ^k : funzione delle yi (i = 1, N) con varianza a Dalla legge di propagazione degli errori: ?aj ^k, aj) = ? k ?ak . ^ . cov (a ?yi 1 ?yi
N

i . (indipendenti )

Dato che yi indipendenti


N

cov (a1, a1) = ? i


1

?a1 2. ?yi

a1 = A11 . b1 + A12 b2 ?a1 = A-1 . 11 ?yi


-1

-1

-1

1
i
2

+ A12 .
-1

-1

xi

b1 = ? i 1
N

yi

a2 = A21 . b1 + A22 . b2 ?a2 ?yi = A-1 . 21 1


i
2

b2 = ? i 1

xi yi

+ A22 .

-1

xi

AS-133

Abbiamo dimostrato che: y = y(x)


?y 2 y = var (y) ~ ? i ? j ?x i ?y ?x j

Vij(x)

se y un vettore: y(x) = y1(x), y2(x) . . . Si pu dimostrare che: cov(yl , ym) = Vl, m ~ ? i ? j ?yl
?ym ?x j

?x i

Vij(x)

AS-134

cov (a1, a1) = ? i


1 N

N ?a1 2 2 i = ? i ?yi 1

(A11 + A12 xi)2 =

-1

-1

= ?i
1

1
2 i

-1 2 -1 -1 -1 2 (A11) + (A12)2 . xi +2A11A12 xi = -1 -1

= =

-1 (A11)2 . s + (A12)2 sxx + 2A11 A12 sx =

-1

(A11)2 . A22
-1

-1

-1

-1 . D + (A-1 )2 A11 . D + 12

vedi pagina precedente


-1 + 2A11 A12 . (-A12) . D = -1 -1 = D{A11 . [A11 . A22 + (A12)2 - 2(A12)2]} = -1 -1 -1 = D{A11 [A-1 . A22 - (A12)2} = 11 -1 -1 -1 -1

A11

-1

DET (A-1) =

1 D

Analogamente: cov (a2, a2) = A22 cov (a1, a2) = A12


-1 -1

AS-135

Dipendenza degli errori su a1 e a2 dal N. misure

Assumiamo tutti i i uguali D = Sxx . S - (Sx)2 = ? i 1 = =


N2 N

xi2
2
N

.
x

2
2 i

?i
1

xi
2
N

?i
1

N2

?i
1

xi
N

N2

. (x2 - x2)

2 a 2 =

1 D

?i
1

4
N
2

(x2 - x2)

1 N

(x2 - x2)

2 a 1 =

1 D

?i
1

xi2
2

4
N
2

(x2 - x2)

. x2 =

1 N

2 2 x

(x2 - x2)

Gli errori sulla stima dei parametri diminuiscono all'aumentare del N. dei punti misurati (a parit di 1 . intervallo in x) come
N

AS-136

Se: tutte i = Cambio sistema di riferimento: i xi xo = N ' xi = xi - xo ' yi = yi - yo N 2 1 2

yo =

i yi N ix' = 0 i

(ATT: b' ? b)

S=

Sx = 0 y i

1 Sxx = 2 ix' i

' Sxy = 12 ixi yi

Sy =

D = S . Sxx a= 1 .S.S = xy S . Sxx 1 .S .S = xx y S . Sxx S = 1 Sxx Sxy Sxx Sy S = ix' yi i = ix' 2 i iyi N 1 = 2 Sxx = S N

b=

1 2 a = . S Sxx

2 1 b = . S Sxx

cov (a, b) = -

1 .S =0 x S . Sxx
AS-137

TEST DI IPOTESI

Confronto di dati sperimentali con predizioni di un modello (o pi modelli) e accettazione del modello (o scelta fra pi modelli). DATI SPERIMENTALI ( estrazione di un campione) STIMA DEI PARAMETRI DEL MODELLO TEST DEL MODELLO / SCELTA FRA MODELLI 1 Date due ipotesi H0 e H1 stabilire quale delle due sia statisticamente pi accettabile sulla base dei dati. Data una ipotesi H0 stabilire se accettabile o no sulla base dei dati sperimentali.

ESEMPIO: Campione di monete buone + monete false buone : peso x1 false: peso x2 Bilancia con errore gauss. () Una moneta x

H0 : appartenente a N (x1, ) H1 : appartenente a N (x2, )


AS-138

H0

H1

x1

xL

x2

Si fissa a priori un valore xL H0 H1 Fissato xL : = vera se x = xL vera se x > xL -8 , xL xL, 8

8 xL xL

(x - x2)2 1 e- 22 dx Probabilit di rigettare H0, anche se vera 2p (x - x )2

-8

2 1 e22 2p

dx

Probabilit di accettare H1, anche se falsa

: significativit del test (100 . = livello di significativit in %). (confidence level) 1 - : potenza del test (probabilit di rigettare ipotesi sbagliata).

AS-139

ES. H0 : grandezza fisica ha distribuzione gaussiana N (o, o)

Si accetta l'ipotesi H0 se x1 < x < x2 |x1| = |x2| = n o = -1

o + no

o - no

1 2p

(x - o)2 e- 22 dx o

In questo caso non pu essere definito

Pi in generale, dato un certo test di ipotesi, si definisce:

Statistica di controllo: grandezza, funzione dei dati sperimentali, sulla base della quale si effettua la selezione di ipotesi. Ipotesi accettate se: a = stat. controllo = b La regione di accettanza (a, b) dovr avere la massima potenza di reiezione una volta fissata la significativit del test.

AS-140

DISTRIBUZIONE DEL 2 E TEST DEL 2 Date n variabili gaussiane indipendenti xi(i, i), la variabile: n (xi - i)2 2 = i 2
1

E' ancora una variabile casuale con: fn (2) =


1 2n/2 ( n )
2

e- 2 . (

n -1 2) 2

Funzione :

n 2

n=1 n=2 n pari

( 1 ) = p 2 (1) = 1 ( n ) = ( n - 1)! 2 2
3 2

n dispari ( n ) = ( n - 1)( n - 2) ... 2 2 2

1 2

.p

n (N. di gradi di libert) N. di variabili indipendenti (2) = n 2(2) = 2n Per n = 1 Per n = 2 f1 f2 diverge per 2 0 0.5 per 2 = 0

n grande tende alla gaussiana con stesso , .


AS-141

0,5 f(2)

n = 1, 2, 3, 4, 8

3 4 1 2

0 0 10

f(2) 0,05

n = 16,30
16 30

0 0 2 50

AS-142

TEST DI IPOTESI (statistica di controllo 2) Supponiamo di aver estratto un campione di dimensione N dalla popolazione di una variabile casuale (continua) (cio aver fatto N misure di una grandezza fisica) e di voler verificare se questa variabile segue una certa funzione di distribuzione f(x) (ipotesi Ho).
.

Neventi

r intervalli Neventi: N volte che si osservato il valore xi x/2 xi 0 x

Generico intervallo i:

pi = f(xi)x ni : N di eventi in i

ni = N 1

ni avr distribuzione binomiale con: i = N .pi


2 = N . pi . (1 . p i) i

Dato che per N la binomiale tende a gaussiana, potremo dire che la variabile: r r i (ni - i)2 i (ni - N pi)2 1 1 = 2 = N pi . (1 - pi) 2 i r : N. di intervalli considerati ha come funzione di distribuzione ~ fr-1 ( 2)
AS-143

Segue la funzione di distribuzione del 2 con r - 1 gradi di libert r (r -1 dato che: i n i = N; uno degli ni non indipendente).
1

La variabile casuale: 2 sar la "statistica di controllo" i = Npi sar il valore aspettato per l'iesimo intervallo. (pi : probabilit, per la variabile casuale xi , di trovarsi nell'intervallo i, calcolata sulla base dell'ipotesi teorica f(x)) Detto i il N. di eventi aspettati nell'intervallo i, la varianza
2 potr essere ottenuta anche dalla distribuzione di Poisson; i 2 = i . i

2 =

i 1

(ni - i)2 i

Si fissa a priori il livello di significativit del test, . Fissato , dato che f. di distribuzione della statistica di controllo nota, si ottiene 2 . LIM

28

fr-1 (2) d2 =

r-1: n. di gradi di libert


AS-144

LIM

Se 2 MIS = 2 MIS >

2 LIM 2 LIM

Ho accettata Ho rigettata

NOTA Per r = nD >> 1 , f(2) gaussiana. Quindi la variabile y: 2 - nD y= 2nD sar gaussiana con valore aspettato = 0 e varianza 1. Migliore approssimazione (Fisher): y = 2 2 2nD - 1

NOTARE: ~ 1) Test valido se variabile casuale ni gaussiana ( i = 10). 2) Arbitrariet del test: scelta x istogramma. 3) Dato che la statistica di controllo opera sui quadrati, non pu evidenziare discrepanze sistematiche di segno.

AS-145

2 confidence level vs. 2 for nD degrees of freedom

1.0 0.6 0.4 0.3 0.2 0.1 Confidence Level CL 0.06 0.04 0.03 0.02 0.01 0.006 0.004 0.003 0.002 0.001 0.0006 0.0004 0.0003 0.0002 0.0001

4 5 6

8 10

20

30 40 50 60 80 100 nD = 1

For nD > 30, 1 ?8 2 CL& exp - x 2 2p y with y = 1 2 22 3

dx

2nD - 1 8 10 20 ) 30 40 50 60 80 100

4 5 6

2 (or 2 x 100 for

AS-146

4) Il test del 2 potr essere utilizzato per verificare fit con minimi quadrati: y = ax + b x1 y1 1 x2 y2 2 . . .... . .... .

distribzione gaussiana Np punti misurati 2N


p- 2

i (yi - {axi + b})2


2 i

axi + b = i :

se la mia ipotesi (y = ax + b) corretta

a, b: stima con il metodo dei minimi quadrati Il test di compatibilit di N istogrammi sperimentali della stessa variabile casuale (grandezza fisica) di cui si ignora funzione di distribuzione
N

2 = j i 1 1

^ (nij - pi Nj)2 ^ N p
i j

r: N. di intervalli nij: N. eventi, intervallo i istogramma j nj: N. totale eventi, istogramma j


AS-147

^ = pi

j 1
N

nij (definzione frequenzistica di probabilit) Nj

j 1

N. di gradi di libert: (N - 1) (r - 1) infatti N. di variabili indipendenti = (N . r - N ) N. di parametri stimati = (r - 1)

Nel caso di egual numero di eventi negli istogrammi (2 istogrammi) 2 = i 1


r

(ni1 - ni2)2 ni1 + ni2

(banale)

AS-148

ES. Errore sull'errore quadratico medio


N

s2 =

i (xi - x )2 1 N-1

La variabile casuale: i (xi - x )2 2 (N - 1)

2 (N - 1 in quanto la x introduce una correlazione fra le xi). u = 2 (N - 1) = N - 1 . s2 2 E[u] (u) = N - 1 E[(u - )2] = 2 (u) = 2(N - 1)
2 . 2 (N - 1) s2 = N-1

s2 = f( 2 (N - 1) 2 2 = s ?f ? 2
2

. 22
2 2 N-1

2 . (N -1)
2 s2

4 2 . = = (N - 1)2

2 . 4 (N - 1)

2 . s4 N-1

s =

ds ds2

2 s2

1 4 s2

2 s4 s2 = N-1 2(N - 1)

1 2s

AS-149

s =

s 2 (N - 1)

(errore sull'errore quadratico medio)

Per l'errore sulla media: s sx = N s N

L'errore sull'errore sulla media

s x =

s 2 (N - 1)

AS-150

Você também pode gostar