Escolar Documentos
Profissional Documentos
Cultura Documentos
STATISTICA E PROBABILITA'
= da valore vero grandezza varia da misura a misura La misura fenomeno casuale e la singola misura sar evento casuale. Evento casuale (o aleatorio): evento ripetibile (infinite volte) che si manifesta in modo non prevedibile singolarmente (es. lancio dado/moneta, estrazione carta ...)
AS-1
S E
S: insieme di tutti i modi possibili del fenomeno casuale E: generica modalit dell'evento casuale (generico evento casuale ) in modo univoco
x(E):
Variabili casuali numero finito o infinito di valori La misura di una grandezza fisica pu essere considerata come un evento casuale e il numero (che si ottiene) la variabile casuale associata all'evento. PROBLEMA DELLA MISURA insieme di misure della stessa grandezza fisica
valore vero
Definire intervallo di valori della variabile casuale "misura" con assegnata probabilit di contenere valorevero della grandezza
AS-2
La STATISTICA un ramo della matematica che studia i fenomeni casuali utilizzando la TEORIA della PROBABILITA`
PROBABILITA`
1) Definizione "classica" Probabilit P(E) di un evento casuale E: rapporto fra numero dei casi "favorevoli" (casi in cui si presenta E) e numero totale casi possibili, purch tutti i casi possibili siano equiprobabili
COROLLARIO:
0=P=1
numero reale
PROBLEMA:
Es. 1.
Es. 2.
MMM MMF MFM FMM MFF FMF FFM FFF Tot casi possibili = 8 3 P(non stesso sesso)= 6 = 8 4
AS-3
2) Definizione "empirica"
(Frequenzistica)
N: numero totale prove n: numero volte in cui si presentato E su N prove Si definisce: P(E) = lim f (E) = lim
N8
N8
n N
PROBLEMA:
postula che lim f (E) sia numero definito non def. operativa
f (E)
.5
0 0 1 1 2 2 3 3 4 5 3 5 N 3 6 3 7 4 8 4 9 5 6 10 11 AS-4
A P(A) E' un numero associato univocamente ad tale che: Unione P(A) = 0 per ogni A Intersezione Contenuto P(S) = 1 P(A+B) = P(A) + P(B) se A B = 0 A B
PROBLEMA:
AS-5
Dato evento casuale E a cui associata P(E), n se f(E) = (su N prove), scelti due numeri positivi a piacere N ', " possibile definire un N tale che, per ogni M > N:
P (|f(E) - (E)|>)< (In analisi: |f(E) - P(E)|<) Si dimostra a partire dalla diseguaglianza di BIENAYME' - CEBICEV
v v
AS-6
1) Evento complementare di E : E
f (E) =
N-n = 1 N
n N
= 1 - f(E)
P(E) = 1 - P(E) P(E) + P(E) = 1 Se E1... E m : insieme di tutti gli eventi possibili in S, mutuamente esclusivi:
i 1
P(Ei) = 1
F E Su N prove E
4 possibili casi: EF EF EF EF
AS-7
f (EF) =
n 11 ; N
f (E) = n11 + n12 = f (EF) + f (EF) N f (F) = n11 + n21 = f (EF) + f (EF) N P(E) = P(EF) + P(EF) P(F) = P(EF) + P(EF)
PROBABILITA` CONDIZIONATA: Probabilit che si verifichi E se si verificato F (o viceversa) P(E|F) f (E|F) = n11 = n11 + n 21 n11 N P(F|E) f (EF) N . = f (F) n11 + n 21
f (EF) f (E)
P(E|F) =
P(F|E) =
AS-8
i 1
P(E i )
La probabilit che avvengano contemporaneamente E ed F (prodotto logico) uguale al prodotto delle probabilit dell'evento E e dell'evento F se E ed F sono statisticamente indipendenti Es. 2 dadi - Probabilit che escano due 4 P(4,4) = P(4) . P(4) = 1 . 1 = 1 6 6 36 Se E ed F sono mutuamente esclusivi:
P(E|F) = P(F|E) = 0
P(EF) = 0
AS-9
f (E + F) : evento f (E + F) =
o evento
o ambedue
n 11 + n12 + n 21 N
P(E + F) = P(E) + P(F) - P(EF) Se E ed F sono mutuamente esclusivi P(EF) = 0 P(E + F) = P(E) + P(F) P(E1 ... E m ) =
i P(E i ) 1
Da III assioma: (P(A + B) = P (A) + (P(B)) se A,B disgiunti; P(A) = P(A - C) + P(C) P(B) = P(B - C) + P(C) P(A - C) = P(A) - P(C) P(B - C) = P(B) - P(C)
Se ora consideriamo insieme somma A+B : A + B = (A - C) + (B - C) + C P(A + B) = P(A - C) + P(B - C) + P(C) P(A + B) = P(A) - P(C) + P(B) - P(C) + P(C) P(A + B) = P(A) + P(B) - P(C) P(A . B) P(A + B) = P(A) + P(B) - P(A .B)
Se considero 3 eventi casuali : P(A1 + A2 + A 3) = P(A 1) + P(A 2) + P(A 3) - P(A 1A 2) - P(A 1A 3) - P(A2.A3 ) + ( P(A1. A 2 . A 3)
A1
1-2 1-3 1-2-3 2-3
A2
A3
AS-11
STATISTICAMENTE DIPENDENTI MAZZO CON 42 CARTE (solo KQJ fiori) E estrazione FIORI F estrazione RE P(E) = 3 42 P(E|F) = 1 4 P(F) = 4 42 P(F|E) = 1 3
P(E . F) =
3 . 1 42 3
1 42
P(E) P(F|E)
AS-12
SO M M AR IO
s t is t at icam ent e indipendent i s t is t at icam ent e dipendent i
P(A) . P(B| A) P(B) . P(A| B)
s t is t at icam ent e e s cl s iv u i
P(A . B)
P(A) . P(B)
=0
P(A+ B) P(A) + P(B) - P(A . B) P(A) + P(B) -P(A.B) P(A) + P(B) -P(A.B)
AS-13
N : N. di eventi rari presenti nel campione (incognito) N12 + N1 : N. di eventi trovati nella 1 a ricerca N + N : N. di eventi trovati nella 2 a ricerca
12 2
N12 : N. di eventi trovati in ambedue P(1) = N12 + N1 N N12 + N2 N N12 N = P(1) . P(2) N12 N12 + N2 N= (N12 + N1 ). (N12 + N2 ) N12 N12 (N12 + N1 ) (1) e (2) statisticamente indipendenti
P(2) = P(1, 2) =
P(1) =
P(2) =
Probabilit di trovare un evento nelle due ricerche: P(1 +2) = P(1) + P(2) - P(1) . P(2) = (N12 + N1 ) (N12 + N2 ) N12 = + N N N
xi
i = 1, ... n (xi ) N
i Pi (xi ) = 1
S
L'insieme di Pi costituisce la distribuzione di probabilit della variabile casuale 2) Variabile casuale continuax x 2 x f (x - x , x + x ) : frequenza in x x 2 2 2 n(x x 2) N x 2
AS-15
dP(x, x + dx) = dx dP =
f(x) dx b
f(x)
P(a, b) =
b f(x) dx
s
Es. P(x)
1 6
f(x) dx =
-"
+"
f(x) dx = 1 11 12 21 2 3
un dado
P(x)
6 36
2 dadi (somma)
1 1 2 3 4 5 6
36 2 7 12
13 22 31 . . .
Es.
f(x) 1 b-a f(x)
C . dx = C . (b - a) = 1
1 C= b-a
AS-16
Funzione cumulativa: PROPRIETA': F(x) = P (-" < x' < x) P(a < x < b) =
a b
F(x) =
-"
f(x') dx'
f(x) dx = -"
f(x) dx -
f(x)dx = F(x + dx) - F(x) = dF(x) dF(x) dx F(x) monotona crescente dato che f(x) " 0 sempre
= f(x)
F(b) = 1
(F(-" ) = 0; F(+" ) = 1)
F(x)
1
1 F(x) = b-a
0 a b
dx' =
x-a b-a
AS-17
1) La "posizione" della distribuzione I II La moda: x per cui la distribuzione ha il massimo (unimodali, multimodali ) La mediana: xM che divide a met la distribuzione
-"
III
xM
f(x) dx =
xM f(x) dx =
+"
1 2
-" x . f(x) dx i x i .P i (x i )
1 n
+"
continuo discreto
In generale si definisce il valore aspettato di una funzione di x, g(x) (se x variabile casuale g(x) anche variabile casuale): E[g(x)] =
-"
+"
g(x) . f(x) dx
AS-18
10
15
20 x
f(x)
xo
x
Moda Mediana Media (valore aspettato)
AS-19
Propriet del valore aspettato: E[k ak. gk (x)] = k ak .E[gk (x)] Casi notevoli:
2)
2 =
-"
n
+"
= E[x2] - (E[x])2
AS-19A
= 2 = deviazione standard
SKEWNESS
SK =
-"
+"
(x- )3 f(x) dx
3 = 0 per distribuzioni
E [(x - )4 ] -3 4 > 0 pi piccata = 0 per gaussiana < 0 meno piccata In generale la funzione di distribuzione completamente definita dall'insieme dei suoi momenti: +" Momento k-esimo di f(x) rispetto a xo = -" (x - xo)k . f(x) dx = k(xo) = E[(x - xo)k] CURTOSIS o(0) = 1 o() = 1
k
i (xi - xo)k
Pi(xi)
() = 2 = momento secondo rispetto a xo = 2 3(/3) = momento terzo rispetto a 3 momento quarto rispetto a 4
AS-20
-8
+8
x f(x) dx =
-8
+8
x' = x - xo =
-8
+8
-8
+8
VARIANZA
a
+8
a = b x
b
0 f(x) = 1
b-a
c= 1
b2 - a2
b-a
a,b
b+a
x f(x) dx =
1
b-a b
x dx =
2=
(x - ) f(x) dx = (b + a)2 4
x2 f(x) dx - 2 =
b3 - a3 3(b-a)
(b - a) 2 12
(b - a) 12
(b - a) 2
1 3
D 3 AS-21
Funzione della variabile casuale x : Gx (t) = E [ext] Sviluppano in serie ext : Gx (t) = E [1 + xt + x2 t2
2
+...
xk tk
k!
+ . . .] =
k!
+...
I coefficienti dello sviluppo della Gx (t) in serie di potenze di t sono i momenti intorno all'origine. dk Gx(t) dtk dk ext =E = E xk . ext k dt
dk Gx(0) = E xk = k (0) k dt
AS-22
PROPRIETA` NOTEVOLI :
. I Gcx (t) = E [e c.x. t] = E [e x ct]
= Gx (ct)
III Gx (0) = 1 La II ci permette di calcolare i momenti centrali: Es. 2 : momento secondo di (x - ) Gx- (t) = e-t Gx (t)
d dt d2 dt2
d dt
Gx (t)
. d Gx (t) + dt
dt
d dt
d dt
Gx (0) = 0 =
d dt
Gx (0) =
= 2 2=
d2 dt2
Gx (0) - 2
AS-23
f(x)
f(y) ?
f(y) =
. f(x(y))
AS-24
NOTARE :
E[g(x)] =
E[y] =
y . f(x) . dx = y . f(y) . dy
= y(x) f(x) . dx
AS-25
Es.
z y
Isotropa: flusso di particelle emesso (per unit di tempo ) proporzionale ad angolo solido e costante dS dSsfera= r2 sindd d = sfera = d(cos ) . d r2 Quindi la funzione di distribuzione di cos sar costante fra -1, +1; f(cos) = 1 2 Funzione di distribuzione di ? -1 < x < 1 = arcos (cos ) p>y>0 y x 1 sin dx 1 dcos f(y) = f(x) . = = dy 2 2 d
p 0
1 sin d = - 1 cos 2 2
=1
0
Es.
CUMULATIVA
x
dy = f(x) dx -8 f(x) dx Funzione di distribuzione di y : f(y) = f(x) =1 = f(x) dy uniforme fra 0 e 1 1 AS-26 f(x) y = F(x) =
Dato che F(x) distribuita uniforme (0, 1) posso ottenere variabili casuali con funzione di distribuzione qualsiasi a partire da variabile casuale con distribuzione uniforme fra 0 e 1 (utile nei calcolatori). Es.
DISTRIBUZIONE ESPONENZIALE
x 1 e-x f(x) = o xo
0
f(x) dx = 1
y = F(x) =
0
x x' 1 e - x dx' = 1 - e- x o o xo
lge (1 - y) = -
x xo
x = - xo lge (1 - y)
Per generare gaussiana( = 0, = 1) : x = sin (2py1) . - 2 lgey2 y1, y2 : 2 numeri casuali con distribuzione uniforme
AS-27
y = g(x)
Siano x e 2 valore aspettato e varianza di x. x Sviluppo y(x) in serie di Taylor intorno a x: y(x) = y(x) + dy . dx (x - x) + x A y = E[y] = y(x) + dy . E dx [(x - x)] + x =0 1 2 d2y . E (x - x)2 + . . . dx2 x 1 2 d2y 2 2 (x - x) + . . . dx x
E y - y(x) (y)
y - y(x)
dy 2 . 2 x dx x
AS-28
approssimata
Se y funzione lineare di x : y = ax + b y = ax + b
2 y = a2 2 x
y = g (x)
ESATTA
AS-29
DISTRIBUZIONE BINOMIALE
Processo casuale generico "successo" : una certa modalit E di presentarsi nel processo casuale con probabilit p (evento complementare E, probabilit (1 - p)) Se facciamo n prove, quale la probabilit che il successo si presenti k volte? Pn,p (k) Da teorema delle probabilit composte (le prove sono statisticamente indipendenti) : k successi, n-k insuccessi pk ( 1 - p )n-k p (1 - p)n-k pk-1 . . . Sommare su tutte le possibili combinazioni: n! n = n. di combinazioni n oggetti k a k = k k! (n - k)!
AS-30
k volte (SI), (n-k) volte (NO) SI, (n-k) volte NO, (k-1) SI
PERMUTAZIONI
nPr = n . (n - 1) . . . (n - r + 1) nPn = n . (n - 1) . . . (n - n + 1) = n!
RICORDARE:
nPr =
n! (n - r)!
0! = 1
COMBINAZIONI
n! (n - r)! r!
AS-31
DISTRIBUZIONE BINOMIALE
Distribuzione di probabilit nella variabile casuale k (n. finito di valori: 0 . . . n) n n n n . k. n-k = p + (1 - p) = 1 P (k) = p (1 - p) k n, p k k 0 0
k 0
n k n-k a b k
n = 10 . 1- 1 6
9
numero prove
= 0.32
10
= 0.16
5 6
= 1.7 .10-8
AS-32
10
n'
AS-33
E[k2] =
k2
n 1
n! pk (1 - p)n-k k! (n - k)! k
n' 0
(k' + 1) P
n',p
(k') =
= np (1 - p)
q = (1 - p)
N . ( p)k . qN-k = k
= (et . p + q)N d G (t) = N .(et . p + q)N-1 . p .et k dt d2 G (t) = N. (et . p + q)N-1 . p .et + k dt 2 + N . (N - 1) . (et . p + q)N-2 p2 . e2t d 1 (0) = dt Gk (0) 2 2 () = 2 = d 2 Ge (0) - 2 dt
AS-35
= N . p .q
AS-36
se np >> 1
k = Np - q
AS-37
. 1- 1 2
n-k
n-k
pn,1/2 (n - k) = p(k) = p (n - k)
n! (n - k)! k!
1 2
. 1- 1 2
0.5
n=2 p=0.2
n=5 p=0.2
n=10 p=0.2
n=20 p=0.2
0 1 2
0 1 2 3 4
0 1 2 3 4 5
0 1 2 3 4 5 6 7 8 9
Poisson (m = 1) Binomiale n=2 p=0.5 np=1.0 n=5 p=0.2 np=1.0 n=10 p=0.1 np=1.0
P1 (k)
0.1
0.2
0 0 1 2 3 4 0 1 2 3 4 0 1 2 3 4 0 1 2 3 4
AS-39
Es.
Frequenza su n prove
E[k] = k -p n
2
np =p n = vedi
AS-34
=E
k n
- p2 = 12 n(n - 1) p2 + np - p2 n
Date N molecole in V, sia p la probabilit per generica molecola di essere in A e (1 - p) la probabilit di essere in B. (Nessuna interazione fra molecole, a parte urti posizione molecola indipendente da posizione altre molecole).
AS-40
Probabilit ad un certo istante di avere nA molecole in A? Ogni molecola una prova indipendente e "evento favorevole" = essere in A. PN,p (nA) =
A
N . pnA . (1 - p )N-n A A nA A
se p = (1 - pA) =
A
N! . nA! (N -nA)!
1 2
1 (nA) = 2 . N
N 2
N 2
2 . e-(N-1) . x2 P(x) = p .N
N . x2 Dato che nell'esponente compare con N molto grande, 2 appena x si scosta da 0, P 0 (x = 10-8, P ~ 0). UN GAS HA SEMPRE DENSITA` UNIFORME
AS-41
DISTRIBUZIONI SPERIMENTALI
P4 . . . P12
... P2 P3 P12
AS-42
Consideriamo un particolare valore della variabile casuale (Es. 2): N8 N finito: n2 NP2 F2 ? P2 n2 ? NP2
(binomiale)
Se P2 probabilit della variabile 2, la probabilit di k(=n2) successi su N prove si ottiene dalla distribuzione binomiale Ripetendo M volte la serie di N lanci (N cost) i valori di n2 che si ottengono saranno distribuiti secondo la P N, P (n2)
2
(0 < n2 < N). [Se N grande e P2 piccolo la distribuzione tender alla poissoniana con m = NP2. Vedi dopo. V alore aspettato e varianza d in 2 : (n 2)= NP 2 2(n2) = N . P2 . (1 - P2)
AS-43
N prove : x1 . . . . . xN n1 n2 n3 1 x ni N N8 Pi = 2 3 . 4 . 5 . . . . . . . . ni i x
ni valori di x in intervallo i
xi+x xi
f(x) dx ~ f(xi) .x
Per N finito ni ? NP. Ripetendo M volte la serie di N misure il contenuto ni del generico x avr distribuzione binomiale P N,f(x ) x (ni) [tender alla poissoniana .
i
con (ni) = N .f(xi) . x per N grande e P piccolo]. Valore aspettato di ni : (ni) = N f(xi) . x 2(ni) = N . f(xi) . x . (1 - f(xi) . x)
AS-44
* * * * * * *
2 4 6 8
10 5
caso continuo N eventi 15 10 5 xi x Area = i ni x = x i ni = x .N Valore aspettato in intervallo i: i = N f(xi) . x Area = i i x = N . x i f(xi) x = x. N f(x) dx = 1
AS-45
QUINCONCE DI GALTON
N
x 0 1 2 3
xi
Ad ogni urto la pallina subir spostamento x 2 Coordinata xi finale della pallina : xi = nD Infatti: nD : n. urti con deviazione a destra nS = (N - nD): n. urti con deviazione a sinistra x = nD . x - (N - nD) x = 2 2 = (2nD - N) x = (nD - N ) x 2 2 nD = 0, . . . , N x=- N ,..., N 2 2 Vogliamo valutare la probabilit che la pallina abbia alla fine xi N + 1 valori (x = 1) P (xi) = P (nD)
AS-46
N x 2
Evento favorevole : deviazione a destra Un singolo urto : una prova ogni fila di perni Dopo N prove (= N di file di perni), la probabilit che evento favorevole si sia presentato nD volte (essendo p la probabilit di deviazione a destra) : PN,p (nD) = N . p nD . (1 - p)N-n D nD
x = (nD - N ) x 2
N nD = x + 2 x
N . p nD .(1 - p)N-nD nD
) . x
2(x) = N . p . (1 - p) . x2 La probabilit che la pallina abbia coord. finale x una n. prove = n. file chiodi BINOMIALE con p = prob. urto a destra
AS-47
LANCI RIPETUTI
Numeriamo caselle di arrivo della pallina da 0 a N (k (numero della casella) = nD) xk = (coordinata centro cella) = P(k) = P(nD) = P(xk) kN 2
avendo posto: x = 1
Se faccio N lanci di palline, quale la probabilit di trovare mk palline in cella k? Se eseguiamo N lanci (N prove) e se P(k) la probabilit che la pallina vada nella cella k (evento favorevole), la distribuzione di probabilit per la variabile casuale mk (= numero di successi su N prove, cio numero di palline in cella k) una binomiale:
P N ,p(k) (mk) =
N
mk
. P(k)
mk
. Q(k)
N-mk
Q=1-P 0 = mk = con P(k) = PN,p(k) = N pk . (1 - p)N-k k N: numero di file di chiodi p: probabilit di deviazione a destra
AS-48
La variabile casuale mk avr valore aspettato e varianza: (mk) = N . P(k) 2 (mk) = N . P(k) .(1 - P (k)) Dove (mk) rappresenta il numero aspettato di palline nella cella k se si eseguono N lanci e (= varianza = deviazione standard) la larghezza della distribuzione intorno al valore aspettato. Notare che: (mk) (mk) N . P(k) . 1 - P(k) N . P(k)
1 . 1 -1 P(k) N
Larghezza relativa distribuzione = intervallo fluttuazione valori osservati intorno a valore aspettato/valore aspettato Quindi decresce come NOTARE: se P(k) << 1, 1 - P(k) & 1 2 (mk) ~ (mk) = 1
AS-49
1 N
Verifica valore aspettato e varianza variabile x N determinazioni di x con N lanci Miglior stima di e : x= i xi N i xi2 - x2 N
i (xi - x)2 ~ s= ~ ( N - 1)
( N - 1) ~ N
i x i = k x k . mk 0 1 1
N i
x2 = i
(xk . mk ) 2
AS-50
valori aspettati
Confronto distribuzione aspettata e distribuzione osservata variabile mk Valore aspettato di mk in cella k avendo effettuato N lanci: k = (mk) = N . P(k)
Confrontare, per ogni cella k, k con valore osservato mk. Verificare, utilizzando il test del 2 (vedi dopo),l'accordo fra distribuzione aspettata e distribuzione osservata.
1 N
AS-51
Con stesso valore di N fare due serie con N piccolo e N grande N 1 = 100 N 2 = 10000
= 30
j(j = 1, M)
con
P (mi ) = k
N . mi . k i P(k) Q(k) mk
N -mik
n nii(mk)
i mk
mk
AS-52
DISTRIBUZIONE DI POISSON
Evento casuale E cui associata variabile casuale t con le seguenti caratteristiche : 1) Densit di probabilit uniforme f(t) = dP = dt 2) Eventi statisticamente indipendenti 3) Probabilit trascurabile di avere pi di un evento in dt Distribuzione di probabilit che in un intervallo (0, t) si verifichino k eventi: P (k, t) dP (1, dt) = dt dP(0, dt) = 1 - dt
P(k, t + dt) = P(k -1, t) . dP(1, dt) + P(k,t) dP (0, dt) = P(k -1, t) . dt + P(k, t) . (1 - dt) P(k, t + dt) - P(k, t) = . P(k - 1, t) - . P(k, t) dt
AS-53
k=0
Valore aspettato : 0 = k = 8
8
= E[k] = k k
0
k' = k - 1 = m . e-m
k' 0
mk' = m .e-m .em k'! Notare: m Pm (k) = Pm (k -1) . k crescente fino a k=m Pm (m) = Pm (m - 1)
em =m
Varianza :
2 = E (k - m)2 = E k2 - m2 E k2 k' = k - 1 =m =
k 0
k2
1
8
mk e-m = m k!
k k
1
2 = m(m + 1) - m2 2 = m = m
AS-55
La distribuzione di Poisson si pu anche ottenere da distribuzione binomiale per n molto grande, p molto piccolo (n . p limitato). Infatti (esempio decadimento radioattivo): per ogni intervallo di tempo t: p : probabilit di decadere 1) Si fanno n prove (n nuclei che possono decadere) 2) Si ottengono k "successi" (= k decadimenti) p : molto piccolo Pn,p(k) = lim
n8 np=cost.
n : molto grande n k
np : limitato
pk(1 - p)n-k =
1-p~1 se p piccolo
(k) = n .p m
. 2(k) ~ n p
in Poisson
p= m n n . (n - 1) . . . (n - k +1) m = lim n k! n8
1 -m n 1 -m n
n-k
n k
=
n k k = m e-m k!
mk
1 -m n 1 -m n
c.v.d. = ea lim 1 - m n n8
n
= e-m
AS-56
p= m n
FORMULA DI STIRLING :
n-k
= lim 1 n8 k!
n-k
=1 = lim 1 n8 k! 1 1-k n
n-k
ek
mk 1 - m n
n-k e-m
e-k
Ricordare: lim 1 + a x x8
= ea
= 1 mk . e-m k!
AS-57
Es.
Se m numero medio di decadimenti per unit di tempo (m = media), la probabilit di osservare k dec. nell'unit di tempo data dalla :
k Pm (k) = m e-m k!
10 dec./U.T. ;
Probabilit di 0 dec.? 100 -10 P10 (0) = e = 4.5 10-5 0! 1010 -10 P10 (10) = e = 0.13 10!
=m
= m P(m - m = k = m + m )
P10 (7 = k = 13) = F10 (13) - F10 (7) = 0.865 - 0.220 = 0.645 Se m = 4: P4 (2 = k = 6) = F4 (6) - F4 (2) = 0.889 - 0.238 = 0.651
AS-58
Es.
conteggio numero di particelle con angolo di "scattering" 2608 conteggi da 7.5 s; 10. 094 particelle in totale. . 10 094 = in media 3.87 particelle/conteggio = m 2608 Verifica della distribuzione Poisson del numero di particelle osservate in un conteggio: Prove fatte: 2608 = N Probabilit di osservare k particelle in un conteggio : mk e-m Pm (k) = k! Numero aspettato di conteggi in cui osservo k particelle, avendo fatto N prove (da binomiale) : nk = N .Pm(k) k
(osservato) (aspettato)
0 57 54 7
8 45 68 8
9 27 29 5
=10
nk
11 17 4
AS-59
nk
n k
Es.
numero medio per unit di tempo di particelle nel rivelatore : (con distribuzione di Poisson) r: numero di particelle osservate nell'unit di tempo quale : P (r) ? Per avere r conteggi, = r particelle nel rivelatore con p = probabilit del rivelatore di osservare particella P(r) = n P(n) .Bn,p(r) = r 1 = n n! r
8 . 8
n . e-
. 8
n r. n-r r p (1 - p) = 1 (n - r)!
.
1 = r! .(p)r .e-
n r
. (1 - p)
n-r
sviluppo in serie di ek con k = (1 - p) 1 = r! .(p)r . e- . e(1-p) = = 1 .(p)r . e-p = Pp (r) r! Poisson con m = p
AS-60
DISTRIBUZIONE UNIFORME
F(x) = b - x b-a x2 b 2 a=
x 1 dx = 1 b-a b-a
2 2 = 1 bb - a = 1 (b + a) 2 2 -a
2 = E (x - )2 = E x2 - 2 E x2 =?
a 2= b
x2
1 dx = 1 b-a b-a
b3 - a3 3
(b - a) = 2 .x
1 x 3
P( - = x = + ) =
2 x
= 0.58
AS-61
DISTRIBUZIONE ESPONENZIALE
f(x) = 1 e-x/
f(x) dx = 1
8
=1
1 (x) =
x . e
0
-x/
dx = - x . e-x/ +
0
e
8 0
-x/
dx =
= 1 2 =
x2 e-x/ dx - 2 = 1 .2 3 - 2 = 2
2 eax
dx =
ax 2 2x = ea x2 - a + a2
f(x) = 1 e-x/
(x) = 2 (x) = 2
AS-62
F(x) =
AS-63
Esempio Distribuzione del t fra due particelle consecutive in un fascio con distribuzione temporale uniforme. Ntot particelle t
t1 f(t) 1 t2 - t1 t1
t0 t2 f(t) = cost
t2
Fissato arbitrariamente t0 : 0 particella in t 1 " dt " dP(t ) = e-t . dt dP(1, dt) P(0, t) (vedi pag. AS-54) f(t ) = = Ntot t2 - t1 dP(t ) = . e-t dt (t ) = 1 = t2 - t1 Ntot
AS-64
DISTRIBUZIONE DI GAUSS (NORMALE) (x - xo)2 1 . e- 2a2 f(x) = ; 2.a 1 Simmetria intorno a: x = xo 2 d2f xo - a, xo + a sono i punti di flesso =0 dx2 a misura la larghezza della distribuzione massimo: f(x = xo) = 1 2.a df dx = 0
+8
f(x)dx = 1
-8
xe+8 -8
(x - xo)2
2a2
dx =
dt =
+8
-8
. t + x ) e- t2 (a o 2 -8
+8
+8
Gauss con xo = 0 a =1
=1
1 . = a t e 2 dt + 2 -8 2 =0
t2
xo
+8
-8
2 - t dt e 2
= xo
AS-65
0.5 t
-2
-1
AS-66
Varianza
2 = E (x - )2 = t= x- a 1 2 a
= xo
(x - )2 (x - )2 e 2a2 dx = -8
+8
dt = 1 dx a
2
+8
u=t t v = e- 2
2
du = dt dv = t . et2
2
dt
+8
u . dv = u . v -
+8 +8 -8 -8 +8 t2
-8
vdu =
a2t . e=2 -8 2 =0 = a2
a2
2
+8
=1 t e- 2
2
dt
-8
Gauss x = 0 a=1
(x - )2 1 . ef(x)= 22 2
Distribuzione di Gauss
AS-67
F(x) =
-8
(x' - )2 1 e 22 dx' . 2
Cumulativa
Variabile ridotta
t=
x-
dx dt =
Gaussiana
=0 =1
-8
g(t') dt'
AS-68
~0.4
0.3
g(t)
0.2
0.1
-3
-2
-1
1.0
G(t)
0.5
-3
-2
-1
AS-69
Il contenuto probabilistico di un intervallo x per la funzione di Gauss si ottiene usando G(t): P, (-, +) = P(-to, to) = to = xo - 2
-t
to
o
g(t) dt = 2
to
g(t) dt =
to
g(t) dt -
-8
g(t) dt =
0 -8
G(0) = 0.5 G(1) = 0.841345 G(2) = 0.977250 G(3) = 0.998650 G(4) = 0.999968
-2 -1
to
P(a = x = b) = G
b-
-G
a-
Po + 1 2 G b- = 0.95 b - = 1.645 .
Es:
Po = 0.9 b-
= 1.645
AS-71
Dato un fenomeno causale che dipende da pi variabili casuali x = (x1, x2, ... xn) Si pu definire una densit di probabilit congiunta f(x) = f(x1, ... xn)
cn
f(x) dx = 1
E G(x) = E xi =
cn
G(x) f(x) dx
x n i c
f(x) dx = i
E (xi - i)2 =
cn
E (xi - i) . (xj - j) =
cn
AS-72
= E xixj + ij - 2ij = E xixj -E xi .E xj = Vij Vij : matrice di covarianza I II III una matrice simmetrica Vij = Vji elementi diagonali Vii = 2 (xi) i ? j Vij : covarianza (xi, xj) >0 <0
Coefficiente di correlazione (xi, xj) : (xi, xj) = Vij cov(xi, xj) = .V i . j Vii
jj
-1 = (xi, xj) = 1
Dato che 2(x1 +ax2) per definizione = 0 : 2(x1) + a22(x2) + 2a cov(x1x2) = 0 Dividendo per 2(x1) : 1+ a2 2(x2) (x2) . cov(x1x2) + 2a =0 (x1) (x1) . (x2) 2(x1) 2 (x1x2) per ogni -1 = = 1
1 + 2 + 2 = 0 2 = 1
Se le xi sono mutuamente indipendenti: . f(x1 ... xn) = f(x1) f(x2) ... f(xn) E{xi xj} = = = xi xj f(xi) ... f(x n) dx1 ... dxn = xi xj f(xi) . f(x j) dxi dxj = xi f(xi) dxi . xj f(xj) dxj = E{xi} .E{x j}
cov(xixj) = 0 per j ? i
AS-74
Es.
x1 e x2 indipendenti 0 < x1 < 1 x2 1 C2 0 1 x1 0 < x2 < 1 F. di distribuzione uniforme entro C2 f(x1, x2) = 1 Infatti:
1 1 0 0
x1 = x2 =
2 x1
= 2 0
1
2 x2
1 2
= 2 0
1 0
2 = V11 = x
1
1 2
(x1- x1
2 x1
)2 . f(x
=E V12 =
- 2
3 x1 1 1 2 - x1 = 1 - 1 = 12 x1 = 3 4 3 0
x2 1 0
x1 = 4 p 2 4 x1 = V11 = p
1 0 1 0
x1 dx1.
2 1-x1
0 2.
dx2 = 4 p
2 1-x1
4 (x1 - x )2 dx2 = p 1 . 0
2 1-x1
2 1-x1
dx1 = 0.07
V12 = 4 p
12 =
AS-76
k=
(x) . dx = 1
B11 . . . . . B1n (x1 - 1, . . . xn - n) . . . . . . . . . . x1 - 1 . . . . xn - n
AS-77
Bn1 . . . . . Bnn
C=
= B-1
B=
0
2 1/ 2 2 1/ 1
B=
0 .
2 1/ 2
(x1 - 1, x2 - 2)
x1 - 1 x2 - 2
0 x1 - 1 = (x1, 1, x2 - 2) 1 x2 - 2 2
2 2
(x1 - 1 )2
2 1
(x2 - 2 )2 2
2
1 . e(x1, x2) = . 12 2p
2 1 (x1 - 1 ) 2 2
. e-
1 2
(x2 - 2 )2
Prodotto di 2 gaussiane
AS-78
C = 12
1 2
2 1
B pu essere scritta: 1 B= 1 - 2
1 -
12 1
12 1 2 2 . e -1/2 G
f(x1 x2) =
2 12
1 - 2
G=
1
1 - 2
(x2 - 2 )2 (x1 - 1 )2 + -2 2 2 1 2
x1 - 1
x2 - 2 2
i ai xi
Varianza: E[(y - y)2] = = E i ai xi - i ai i = E i ai (xi - i) 2 = = E i a2 (xi - i) 2 + i?j aiaj (xi - i) (xj - j) = i = i a2 i2 + i?j a iaj . cov (xi , xj) i
2
AS-80
? y = i=1 ai . xi
y = ? ai . x i
i=1
2 y
2 ? ai . 2 i = x
i=1
AS-81
Date n variabili casuali xi con funzione di distribuzione gaussiana ("normale") f(i, i) la funzione : y = ? i ai . xi 1
n
avr ancora una funzione di distribuzione "normale" f(y, y) (si pu dimostrare) con :
y = ? i ai . i 2 = ? i a2 . 2 y i i
xi
i
di un campione di
dimensione N di una variabile "normale" (x, x) ancora x una variabile "normale" con: x = x e x = N [Ogni xi pu essere considerata una variabile casuale con f. di distribuzione normale]
AS-82
Date n variabili casuali indipendenti xi con funzioni di distribuzione qualsiasi (i, i finita), la funzione: y = ? i ai . xi
1 n
nel limite n 8
y = ? i ai i
2 2 2 = ? ai i y
Condizioni di validit molto ampie, ma : importante che le 2 siano tutte finite e i paragonabili, cio nessuna domina le altre.
N.B.
Se le i sono concentrate attorno al valore aspettato (i piccole), il teorema valido gi per valori piccoli di N.
AS-83
Es.:
1 T
y = x1 = 2 T
T T2
y = x1 + x2 =T 2 = 12
2T2
y = x1 + x2 + x3
3 = 2 T
2 = 12 T
2 = 4
3 T 2
T2
1 T
3 p
e-3(x-T) /T
1 T
2 p
e-2(x-1.5 T) /T
Generatore di numeri a caso con distribuzione Gauss G (0, ): ottenuto con la somma di n numeri a caso con distribuzione uniforme in (0, 1).
1 - n =0 2 2 1 2 = n . 12 =n.
y = ? xi
i=1
- n 2
Buon accordo con gaussiana per n > 510. Per n = 12 si ottiene G (0, 1) N.B. Il teorema del L.C. ha validit pi generale.
AS-84
Modello di Laplace : errore di misura = insieme estremamente grande ( 8 ) di disturbi contemporanei molto piccoli ( infinitesimi) Ogni disturbo = (50% + , 50% - ) Ogni disturbo statisticamente indipendente Se N sono i disturbi e k i disturbi + : x = x* + k -(N -k) = x* + (2k - N) PN,p(k) = con : N! pk . qN-k k! (N - k)!
1 2
p = probabilit di disturbo + =
AS-85
(k) = N . p
2 (k) = Npq
PN,p() =
2() = E[( - E())2] = =0 = E[(k - Np)2] = Npq Al crescere di N si pu utilizzare per N! la formula di Stirling : ~ N! = 2p .NN+1/2 . -N e I (Np + )! = 2p (Np + )Np++1/2 . e-Np- =
= 2p (1 + Np )Np++1/2 . e-Np- .(Np)Np++1/2
AS-86
II
(Nq - ) =
2p
1-
1 Nq - + 2 Nq
e-Nq + (Nq)Nq - + - Np Nq
1 2
1 + Nq pNp + pNp + +
Np++1/2
. qNq -
1 2
. qNq - + .
1 2
=
1 1
1 2p
-Np-- 2
1+
Npq
Nq
1-
Nq
-Np+- 2
NOTE:
I
PN,p(0) =
1 2p
Npq
P(0) 0 come N ; quindi il numero di valori di per cui P() non trascurabile rispetto a P(0) deve divergere come N , anche se il numero totale di valori di diverge come N+1. II La formula approssimata per P() non valida per ~ -Np e ~ Nq; ma in questi intorni P() trascurabile rispetto a P(0).
AS-87
Consideriamo ora:
Np - - 2 Np
1
lg =
1+
1-
Nq
Np + - 1 2
= Np + + 1 2
lg 1 + Np
1 lg 1 - Nq + 2
Nq
Np
Nq
lg (1 + x) = x -
....
= Np + + 1 2
2 - 2 2 + ... Np 2N p
Np - + 1 2
2 - - + ... = Nq 2N2q2
2 =- 2Npq 2N
1 1 p q
3 6N2
p2 q2
+ ...
Per ~ N (unici valori non trascurabili) solo I termine 1 1 finito (secondo 0 , terzo 0 1 , altri come N ).
N N
AS-88
lg k ~ -
2 2Npq 1 2p Npq
2 - k = e 2Npq
1 2 e 2 Npq
P() ~
P( )
1 2p
.e -
1 2
2 2
x = * + (2k - N) . =
= x* + 2
(x - x*) = 2
AS-89
P(x) =
? ?x
. P() = (x) 1 2
1 P(x) = 2 x = x* + 2 x = 2
1 . e2p
1 2
2 2
1 eP(x) = 2p x
1 2
(x - x*)2 2
c.v.d
In questo caso P(x) rappresenta una densit di probabilit La misura di una grandezza fisica una variabile casuale con f. di distribuzione gaussiana (normale). Il valore aspettato di tale variabile casuale proprio il valore vero della grandezza.
AS-90
1) Ammettiamo che esista un valore "vero" x* della grandezza. 2) Ammettiamo che esistano molte sorgenti (N) di disturbo della misura. Queste sorgenti generano degli errori casuali i che hanno le seguenti propriet: (i) = i f(i) d i = 0
2 2(i) = i f(i) d i
finito
(Nessuna ipotesi sul tipo delle f( i)) Potremo quindi scrivere per la generica misura di x, xM : xM = x* + ? i i
1 N
xM = x* + = ? i i
1 N
Per il teorema del limite centrale la variabile casuale , somma di N variabili casuali a varianza finita, per N 8 avr distribuzione normale con valore aspettato e varianza: () = ? i ( i) = 0
1 N
= ? i 2(i)
2
N 1
f() =
1 2p
e-
2 2 2
AS-91
Per il teorema della addizione di variabili normali, xM sar ancora una variabile normale con : x M= x* + = x* x M=
2 2
y = ax + b y = ax + b
2 y = a2 2 x
f(xM) =
1 2p x M
. e-
(xM - x*)2 2 2
xM
Dimostreremo (vedi prossime lezioni) anche che: h se si eseguono N misure xi della grandezza, cio se si estrae un campione di dimensione N dalla popolazione (infinita) della variabile xM (che ha funzione di distribuzione normale), la miglior stima di x M (cio del valore x* della grandezza fisica) sar dato da:
N
x=
? i xi
1
AS-92
s2
1 N-1
?i
1
(xi - x )2
La media x , essendo combinazione di variabili casuali normali, avr a sua volta distribuzione normale con : (x) = x* (x) =
2
2 x
Indicheremo il risultato di N misure ripetute (con stesso metodo nelle stesse condizioni) di una grandezza fisica con la notazione: x = x sx = x
sx N
x=
sx =
1 ? i N 1
xi
Con questa notazione si intende : P( x - x* = sx) = 68% Cio la probabilit che l'intervallo: x - sx = x* = x + sx contenga x* il 68% Risultato di una singola misura x i (assumendo noto sx) :
x = xi sx
AS-93
f(x) 0,399
-8 f(x) dx = 1 GAUSS = 1
+8
WP WP uniforme
=1
2 = 12 1,73
-3
-2
-1
1,73 2
3 GAUSS
uniforme
AS-93 bis
Misura indiretta di una grandezza fisica: y = f(x1, . . . xn) Dove xi sono grandezze fisiche misurate direttamente (xi si); dato che le xi sono variabili casuali, anche la y sar variabile casuale. Se sviluppiamo y in serie di Taylor in un intorno di (1, . . . n) [valori aspettati delle xi]:
?y y = y(1, . . . n) + ? i ?x n
i 1
(xi - i) + . . .
Se trascuriamo i termini di ordine superiore (cio assumiamo che le xi siano in un intorno dei loro valori veri i) y combi nazione lineare di variabili casuali con distribuzione normale (quindi) y ha funzione di distribuzione normale con : y = y(1, . . . n) (dato che (xi - i) ha valore aspettato = 0)
AS-94
Per la varianza:
2 y =
E[(y - y
)2]
=E ?i
?y (x ?xi i i
i)
n n ?y ?y ? i ? j ?x . ?x . (xi - i) . (xj - j) = =E 1 1 j j i i
?y 2 y = ? i ? j ?x
i 2 y = n
LEGGE.DI PROPAGAZIONE ?y
?i
1
?y ?xi
2 xi + ? i ? j ?y
?xi
?y ?xj
. Vij
i?j
i ? j)
?i
1
?y ?xi
Questa legge di propagazione degli errori esatta solo se y funzione lineare della xi .
AS-95
xi correlate:
y 2 y =
? i 2 . i i x
n 1 i
j + ? i ? j i . j . ij . x i . x i j
i=j
xi scorrelate:
y 2 y =
? i 2 . i i x
n 1 i
AS-96
Numero infinito di prove per determinarla Esperimento con N. finito di prove : "campione" di dimensione n della popolazione Analisi statistica dei dati (risultato delle prove) permette una stima delle propriet (delle grandezze caratteristiche) della distribuzione e permette di valutare bont della stima.
Stime con campioni di egual n hanno bont equivalenti. Stime con n maggiore hanno intervalli di confidenza pi stretti.
AS-97
CAMPIONAMENTO
di dimensione n ....... x1
(1)
. . . . . . . . . . xn
(1)
x1
(m)
Se considero : x (j) = (x1 . . . xn ) _ x sar ancora una variabile casuale con _ f(x) = f(x1 . . . xn) Il campione sar casuale se : I xi indipendenti f(x1 . . . xn) = f(x 1) . . . f(xn) II xi tutte con la stessa formula di distribuzione: f(x1) = . . . = f(xn) = f(x) Una generica funzione di un campione: "statistica"
AS-98 (j) (j)
Una "statistica" si usa per stimare i parametri di una funzione di distribuzione S(x1 . . . xn) Estimatore S una variabile casuale Un estimatore gode delle seguenti propriet: 1) ASSENZA DI DISTORSIONE Per un campione finito, un estimatore non distorto se: ^ E[S(x1, ... xn)] = E[a] = a* (per ogni n) Se la distorsione tende solo asintoticamente a 0 lo estimatore si dice asintoticamente non distorto. 2) CONSISTENZA Al crescere delle dimensioni del campione l'estimatore converge al valore vero del parametro : per n 3) 8 ^ a
2
^stima a=
=S
EFFICIENZA La stima ottenuta da un estimatore avr una certa varianza; pi efficiente un estimatore con varianza minore. (A parit di dimensioni n del campione).
4) INVARIANZA SOTTO TRASFORMAZIONE DEI PARAMETRI ^ Se a la stima del parametro a, allora la stima per una ^ generica f(a), proprio f(a).
AS-99
E[x] + . . . E[xn] =
1 n
. n = (x)
non distorto
1 n
2 (x)
n
consistente
2 0 n8
Si pu dimostrare che la media aritmetica la stima del valore aspettato che ha la minima varianza, cio la pi efficiente
AS-100
_ _ _ - nx = nx - nx = 0
II
_ Somma dei quadrati degli scarti da x minima Infatti, scelto un generico x: ? i (xi 1 n
x)2
_ _ 2 = ? i (xi - x) + (x - x) =
n 1
=0
s2
1 n -1
_ ? i(xi - x)2
AS-101
E[s' 2] = = = = =
_ ? i E (xi - )2 - E (x - ) 2 = n2 - n
1 n
2 =
1 n
2(x)
n -1 n
2 = (1 -
) . 2
s2
1 n -1
AS-102
Data una popolazione di varianza finita 2, e dati 2 numeri positivi ' e " , esister sempre un numero N tale che, per ogni campione della popolazione di dimensione M = N, si avr: P( x- x = ') = "
v v
DISEGUAGLIANZA DI BIENAYME' - CEBICEV Data una variabile casuale x con funzione di distribuzione f(x) e varianza finita 2 : P( x - = ) = per positivo qualunque. Infatti: P( x - = ) = f(x) dx
C*
1 2
x-
= 1.
AS-103
Graficamente: 2 1 f(x) =2
= f(x) dx = 1 = C* 2
1 4
f(x)
C*
AS-104
(x - )2 2 2 f(x) dx
1 E[(x - )2] = 2 2
varianza di x = 2
1 2
, potremo riscrivere N
" = 2 = '2 N
1
2
AS-105
Fissato ' ed " (quindi ), si sceglie N tale che : 2 N= ' 2 . " Per ogni M = N la diseguaglianza iniziale sar soddisfatta. Valore di N per cui la probabilit che la media x disti Es.: da pi di 1 = 20%. ' = 1 . =1 ; N 1 2 = 1 N
" = 0.2
2 N= 0.2 * 2
In generale, fissato N, la P(|x - | > 1) = N= 1 2 5 10 100 P( x - > 1) = 1 1/2 1/5 1/10 1/100 f(x) qualsiasi
f(x) gaussiana x =
N
AS-106
Significato dell'argomento :
Data una variabile casuale con distribuzione qualsiasi, fissato un livello di confidenza richiesto (cio una probabilit), possibile determinare la grandezza minima del campione (cio il valore di N) per cui la media (con probabilit assegnata) prossima al valore "vero" pi di un dato valore (in unit di )
popolazione
campione
AS-107
TEOREMA DI BERNOULLI
PN,p() = PN,p(k = N)
1 E[] = N E[k] = Np = p N
2[] =
1 N
2
E[k2] = Npq = 2
N
v
pq N
1
2
2 2
p. q N 2
tende a 0.
AS-108
In altre parole, per N 8 la probabilit che la frequenza relativa differisca dalla probabilit per pi di una quantit assegnata, tende a 0.
Il teorema di Bernoulli una giustificazione della definizione di probabilit in termini della frequenza relativa.
AS-109
Stima dei parametri di distribuzioni : data una funzione di distribuzione di una variabile casuale, con forma funzionale nota, dipendente da un certo numero di parametri incogniti, si vuole stimare il valore dei parametri a partire da un campione limitato della popolazione.
f(x, a)
AS-110
=?
i i
f(xi , a)
?2
=0
?a2 i
<0
Un estimatore di massima verosimiglianza gode delle seguenti propriet: 1) ASSENZA DI DISTORSIONE. E[Estimatore] = valore vero (per ogni N) Gli estimatori di massima verosimiglianza sono solo asintoticamente non distorti. 2) CONSISTENZA. ^ (a a* per N 8) ^ a
2
0
8
Gli estimatori di massima verosimiglianza sono consistenti 3) EFFICIENZA. Gli estimatori di massima verosimiglianza sono quelli con efficienza migliore. 4) INVARIANZA SOTTO TRASFORMAZIONE DEI PARAMETRI. Gli estimatori di massima verosimiglianza sono invarianti sotto trasformazione dei parametri.
AS-111
= 0;
?2 w ? 2a
<0
Es.
Stima di .
(dati: x1 . . . xN)
1 N 2p
N
L=
(xi - )2 e- 22
w = lnL = - N ln
?w ?
N N
2p N
ln(
N 2)1/2
?i
(xi - )2 22
= ?i
1
(xi - ) 2
=0
N
?i
1
xi - N . = 0
^ =
? i xi
1
? 2w ?2
N = - 2 < 0 AS-112
II
Stima di 2.
?w ? 2
=-
N 2
N
1 2
(xi - ) + ?i 2 4 =0
1
^2 =
? i (xi - )2
1
N ? i xi N
Ma da I , : ^ =
? i (xi - x)2 N
=x
^2 =
^ 2 = 2 . N - 1 = non
dist.
1 = 2non . (1 - N )
dist.
Es.
Combinazione di misure con diversa precisione (Media pesata di misure con diversa stesso ) x1 x2 . . . xN 1 2 . . . N
N
L=
1
i
2p i
(xi - )2 e- 22 i
N
w = - N ln
?w ?
2p - ? i
1 N i = ? i 2 1 i
ln i =0
(xi - )2 ?i 2 2 i 1
N
x -
AS-113
?i
1
xi 2 i
= . ? i 12
1
^ =
?i
1 N
1 2 i 1
xi
?i
1
2 i
Ponendo : pi =
1 2 i
N
MEDIA PESATA
^ =
? i pi xi
1
? i pi
1
Varianza della stima di massima verosimiglianza Si pu dimostrare che per N 8 la funzione di verosimiglianza L (che la funzione di distribuzione per a) tende ad una distribuzione gaussiana:
L (a) =
1 2p a
(a - a*)2 e- 22 a
+ cost
AS-114
?w ?a
=-
(a - a*) 2 a
?2w = ?a2
1 - 2
a
a = -
1 ?2w ?a2
a
^ a
a a + const. ~ const.
^ se a ~ a*
wmax = ^ Se: a ~ a* :
^ (a - a*)2 22 a
^ In corrispondenza ad: (a - a) = a
w(a) = wmax -
1 2 1 2
: a
AS-115
stima di
= ?i
1
xi
N
=x
2 x
1 ?2w ?2
?2w ?2
=-
2 ^
^2 N
^2
stima di
? i(xi - x)2 N
AS-116
?w ? 2
=-
N 2
2
N 2 N 2 N 2
+?i
1
(xi - )2 2 4
N
(2)2
= =
^ 2
?2w ?(2)2
=+ =
4
1
-2
1
? i (x - )2 1 i 2 . 6
N
4
1
- 6 N
? i (x - )2 i 1
N N 2 1
=
2
4
^ 2 4 N
1 - N 4 = -
4
d d
2 2
2 = ^ x = 2
? x ?x
2
= ^
2
2 = ^
2 4 4 2 N 1
2
2N
1 2
1 x
^ = ^ 2N
= ^
2
^
2N
?i
=
?2w = ?2
2 ^
2i
1
xi
?i
1
2i
N ?i 1 1 2i
?i
1
2i
AS-117
Es. Stima di m in una distribuzione di Poisson Fatte N prove, sono stati osservati i valori: n1 . . . nN
=?
N i 1
e-m mn i ni !
-m n i w = ? i lge e nm! = i 1
= - Nm + ? i ni lge m + ? ilge n1 ! i 1 1
?w ?m 1 = - N + ? i ni m = 0 1
N
N ^ = ? i ni m N 1
?2w ?m2
? i ni
=-
m2
2 m ^
m2
N
? i ni
1
^ m2 ^ Nm
^ m N
AS-118
Es. Stima di p in una distribuzione binomiale Fatte n serie di N prove: k1 , k2 . . . kn n, casi favorevoli in ogni serie
N! ki ! (N - ki ) !
n 1
L=?i
1 n
. p ki . (1 - p)N- ki
?w ?p
= p ? i ki - 1-p ? i (N - ki) = 0 1 1
n 1 n 1
(1 - p) ? i ki = p ? i (N - ki)
n 1 n 1 n 1
? i ki - p ? i ki = Npn - p ? i ki
n
p=
? i ki 1 N
k N
^= k p N
AS-119
L =?
1 2p i
i i e- 2 2 i
(y - y*)2
y* = i
a*xi + b*
w = - ? i 2 2 i max (w)
?w ?a ?w ?b
(yi - yi*)2
+ cost
(yi - y*)2 i
min ? i 2 2 i
(yi - axi - b) 2 i (yi - axi - b) 2 i
= +? i = +? i
xi
2
. xi = 0 =0
xi yi
a ?i a?i
2 i 2 i
xi
+b?i +b?i
2 i
1
xi
= ?i = ?i
2 i
yi
^ e ^ a b
2 i
2 i
AS-120
e-
f(t,) dt = 1
0
L =?i
1
e-
ti
w = - ? i lge + ? i - ti
1 1
?w ?
=-?i
1
+ ?i
1
N
ti
2
=0
^ =
?2w ? 2
N
? i ti
1
N
N
= +? i
1
1
2
-2 ? i
1 ^
ti
3
N
2
2N
3
i ? i tN = 1
N
^2
^ =
2
^2
N AS-121
Date due grandezze x, y legate dalla relazione funzionale: y = f(x, a) a : a1, . . . , an Fatte N misure : y1 1 . . . yN N x1 . . . xN [Errore su x trascurabile; |f(xi + x) - f(xi)| << yi ] Voglio stimare i valori dei parametri a1, . . . , an. Se le yi hanno formula di distribuzione gaussiana, posso applicare il metodo della massima verosimiglianza. n parametri
L =?i
1 N
1 2p i
e- 2 2 i
(yi - i )2
w=-?i
1
(yi - i )2
2 2 i
+ cost
AS-122
w=-?i
1
(yi - f(xi , a) )2
2 2 i
+ cost
Max (w)
min ? i
1
(yi - f(xi , a) )2 2 i
Il principio dei minimi quadrati afferma che la miglior stima dei parametri a quella che minimizza la somma:
N
X2
=?i
1
(yi - f(xi , a) )2
2 i
+ cost
Notare che il metodo richiede la conoscenza a priori di tutte le i; nel caso per in cui le i siano tutte uguali il metodo ancora applicabile anche non conoscendo . (Altro parametro incognito)
AS-123
Supponiamo che la dipendenza della y dai parametri sia lineare: y = f(x, a) = ? k ak . fk(x)
1 n
y1 1 ... yN N x1 ... xN
X2 = ? i
1
yi - ? k ak fk (xi) 1
i
2
j = 1, ... , n
n N fj (xi) ? X2 . ? i yi - ? k ak fk (xi) . =0 =2 1 2 1 i ? aj
? i ? k ak . fk (xi) fj(xi)
1 1
2 i
= ? i fj(xi) 1
yi
i
2
AS-124
n 1
? k ak ? i fk (xi) fj(xi)
1
2 i
= ? i fj(xi) 1
yi
i
2
n equazioni lineari al variare j = 1, n. Sistema di n equazioni lineari nelle incognite ak. k A11 a1 A12 a1 ...... A1n a1 + A11 . . . . A1n . An1 . . . . Ann
N 1
+ +
bj = ? i yi . fj(xi) A.a= b
....
2 i
....
2
....
SOLUZIONE:
matrice inversa
A-1
(A-1 A = U)
(-1)k+j
Akj A
= ?
. ? i yifj(xi)
2 i
Stima ak con minimi quadrati A-1 : matrice delle covarianze Infatti si pu dimostrare che : E (ak a *) k .(aj - a * = cov (ak, aj) = ) j
-1 Akj
AS-126
2 k = Akk
-1
Nota la matrice delle covarianze, possibile calcolare la varianza su una qualsiasi funzione delle ak. In particolare: ^ = ? k ^k fk(x) a y
1 n n
2 ^ = ? k,j y
^ ?y ^ ?ak
Per verificare se il risultato delle stime degli ak con i minimi quadrati compatibile con i dati:
n 2 N-n = ? i 1
^ (yi - y(xi))2 2 i
Distribuzione normale
^ i y,
AS-127
ES.
y = ax
N
X2 =
?X2 ?a
N
? i (yi - axi)2
1
i
N
=-2?i
1
(yi - axi)2
i
N 2
xi = 0
?i
1
xi - yi
i
2
=a?i
1
2 i
x2 i
?i a=
1 N 1
xi . yi
2 i 2 i
?i
x2 i
Essendo a una combinazione lineare di variabili casuali yi con varianza nota (trascuro varianza su xi), la sua varianza:
N
2 a
= ?i
1
?a 2 . ?yi
2 i
?i =
1 N
x2 i
2 i
i
2
?i
1
x2 i 2 i
1
N
?i
1
x2 i
i
2
AS-128
ES.
y = a1 + a2x
n
f2(x) = x
A11 = ? i f1(xi).f1(xi) 1
N
= ?i 1
N
=s
A12 = ? if1(xi).f2(xi) 1
N
2 i
= ?i
1 N
xi
= sx
A22 = ? if2(xi).f2(xi)
1
= ?i
1
xi
2 2
= sxx
s A= sx
sx sxx
2 A = det A = s . sxx - sx = N N .
= ?i 1
1
2 i
?i
1
x2 i
2 i
?i
1
xi
AS-129
b:
N 1 i N 1
b1 = ? i yi . f1(xi) 2 = ? i
N 1 i N 1
yi
= sy
b2 = ? i yi .f2(xi) 2 = ? i
yi xi
= sxy
sxx - sx
- sx s
SOLUZIONE :
A =D a = A-1 . b a1 a2
-1 A11 A-1 12 . b1 = -1 = -1 b2 A21 A22
1 D
sxx -sx
-sx s
sy sxy
AS-130
a1 =
1 D
(Sxx . Sy - Sx .Sxy) =
1 D 1 D
?i
1
xi2
i2
.? i
1
yi
i
2
- ?i
1
xi
i
2
. ?i
1
x i yi
i
2
a2 =
(- Sx . Sy + S .Sxy) =
1 D
-? i
1
xi
i2
.? i
1
yi
i2
+?i
1
1
i2
. ? i x i yi 2
1
2 a1 =
-1 A11 =
1 D
. Sxx =
1 D
?i
1
xi2
i2
2 a2 =
-1 A22
1 D
.S
1 D
. ? i 12
1
cov = (a1a2) = -
1 D
. Sx = -
1 D
.?i
1
xi
2 i
D = S . Sxx - Sx2
AS-131
2 ^ = y
= ? j ? k fj(x) .fk(x) . cov (aj, ak) = 1 1 = f1(x) .f1(x) . cov (a1, a1) + f2(x) .f2(x) . cov (a2, a2) + y + 2f1(x) .f2(x) . cov (a1, a2) = = a1 + x2 a 2 + 2x cov(a1, a2) = x
1 = D Sxx + x2 .S - 2x . x S
2 2
1 D
2
?i
1
x2 i
i2
+ x . ?i
2
N 1
1 2 i
2x ? i
1
xi
i2
Minimo di
2 y : ^
? ^ y ?x
=0
xmin = 2
? i xi
N
=x
AS-132
Per vedere che A-1 la matrice delle covarianze: ^k : funzione delle yi (i = 1, N) con varianza a Dalla legge di propagazione degli errori: ?aj ^k, aj) = ? k ?ak . ^ . cov (a ?yi 1 ?yi
N
i . (indipendenti )
?a1 2. ?yi
-1
-1
1
i
2
+ A12 .
-1
-1
xi
b1 = ? i 1
N
yi
b2 = ? i 1
xi yi
+ A22 .
-1
xi
AS-133
Vij(x)
se y un vettore: y(x) = y1(x), y2(x) . . . Si pu dimostrare che: cov(yl , ym) = Vl, m ~ ? i ? j ?yl
?ym ?x j
?x i
Vij(x)
AS-134
N ?a1 2 2 i = ? i ?yi 1
-1
-1
= ?i
1
1
2 i
= =
-1
(A11)2 . A22
-1
-1
-1
-1 . D + (A-1 )2 A11 . D + 12
A11
-1
DET (A-1) =
1 D
AS-135
xi2
2
N
.
x
2
2 i
?i
1
xi
2
N
?i
1
N2
?i
1
xi
N
N2
. (x2 - x2)
2 a 2 =
1 D
?i
1
4
N
2
(x2 - x2)
1 N
(x2 - x2)
2 a 1 =
1 D
?i
1
xi2
2
4
N
2
(x2 - x2)
. x2 =
1 N
2 2 x
(x2 - x2)
Gli errori sulla stima dei parametri diminuiscono all'aumentare del N. dei punti misurati (a parit di 1 . intervallo in x) come
N
AS-136
yo =
i yi N ix' = 0 i
(ATT: b' ? b)
S=
Sx = 0 y i
1 Sxx = 2 ix' i
Sy =
D = S . Sxx a= 1 .S.S = xy S . Sxx 1 .S .S = xx y S . Sxx S = 1 Sxx Sxy Sxx Sy S = ix' yi i = ix' 2 i iyi N 1 = 2 Sxx = S N
b=
1 2 a = . S Sxx
2 1 b = . S Sxx
cov (a, b) = -
1 .S =0 x S . Sxx
AS-137
TEST DI IPOTESI
Confronto di dati sperimentali con predizioni di un modello (o pi modelli) e accettazione del modello (o scelta fra pi modelli). DATI SPERIMENTALI ( estrazione di un campione) STIMA DEI PARAMETRI DEL MODELLO TEST DEL MODELLO / SCELTA FRA MODELLI 1 Date due ipotesi H0 e H1 stabilire quale delle due sia statisticamente pi accettabile sulla base dei dati. Data una ipotesi H0 stabilire se accettabile o no sulla base dei dati sperimentali.
ESEMPIO: Campione di monete buone + monete false buone : peso x1 false: peso x2 Bilancia con errore gauss. () Una moneta x
H0
H1
x1
xL
x2
8 xL xL
-8
2 1 e22 2p
dx
: significativit del test (100 . = livello di significativit in %). (confidence level) 1 - : potenza del test (probabilit di rigettare ipotesi sbagliata).
AS-139
o + no
o - no
1 2p
(x - o)2 e- 22 dx o
Statistica di controllo: grandezza, funzione dei dati sperimentali, sulla base della quale si effettua la selezione di ipotesi. Ipotesi accettate se: a = stat. controllo = b La regione di accettanza (a, b) dovr avere la massima potenza di reiezione una volta fissata la significativit del test.
AS-140
DISTRIBUZIONE DEL 2 E TEST DEL 2 Date n variabili gaussiane indipendenti xi(i, i), la variabile: n (xi - i)2 2 = i 2
1
e- 2 . (
n -1 2) 2
Funzione :
n 2
( 1 ) = p 2 (1) = 1 ( n ) = ( n - 1)! 2 2
3 2
1 2
.p
n (N. di gradi di libert) N. di variabili indipendenti (2) = n 2(2) = 2n Per n = 1 Per n = 2 f1 f2 diverge per 2 0 0.5 per 2 = 0
0,5 f(2)
n = 1, 2, 3, 4, 8
3 4 1 2
0 0 10
f(2) 0,05
n = 16,30
16 30
0 0 2 50
AS-142
TEST DI IPOTESI (statistica di controllo 2) Supponiamo di aver estratto un campione di dimensione N dalla popolazione di una variabile casuale (continua) (cio aver fatto N misure di una grandezza fisica) e di voler verificare se questa variabile segue una certa funzione di distribuzione f(x) (ipotesi Ho).
.
Neventi
Generico intervallo i:
pi = f(xi)x ni : N di eventi in i
ni = N 1
Dato che per N la binomiale tende a gaussiana, potremo dire che la variabile: r r i (ni - i)2 i (ni - N pi)2 1 1 = 2 = N pi . (1 - pi) 2 i r : N. di intervalli considerati ha come funzione di distribuzione ~ fr-1 ( 2)
AS-143
Segue la funzione di distribuzione del 2 con r - 1 gradi di libert r (r -1 dato che: i n i = N; uno degli ni non indipendente).
1
La variabile casuale: 2 sar la "statistica di controllo" i = Npi sar il valore aspettato per l'iesimo intervallo. (pi : probabilit, per la variabile casuale xi , di trovarsi nell'intervallo i, calcolata sulla base dell'ipotesi teorica f(x)) Detto i il N. di eventi aspettati nell'intervallo i, la varianza
2 potr essere ottenuta anche dalla distribuzione di Poisson; i 2 = i . i
2 =
i 1
(ni - i)2 i
Si fissa a priori il livello di significativit del test, . Fissato , dato che f. di distribuzione della statistica di controllo nota, si ottiene 2 . LIM
28
fr-1 (2) d2 =
LIM
2 LIM 2 LIM
Ho accettata Ho rigettata
NOTA Per r = nD >> 1 , f(2) gaussiana. Quindi la variabile y: 2 - nD y= 2nD sar gaussiana con valore aspettato = 0 e varianza 1. Migliore approssimazione (Fisher): y = 2 2 2nD - 1
NOTARE: ~ 1) Test valido se variabile casuale ni gaussiana ( i = 10). 2) Arbitrariet del test: scelta x istogramma. 3) Dato che la statistica di controllo opera sui quadrati, non pu evidenziare discrepanze sistematiche di segno.
AS-145
1.0 0.6 0.4 0.3 0.2 0.1 Confidence Level CL 0.06 0.04 0.03 0.02 0.01 0.006 0.004 0.003 0.002 0.001 0.0006 0.0004 0.0003 0.0002 0.0001
4 5 6
8 10
20
30 40 50 60 80 100 nD = 1
dx
2nD - 1 8 10 20 ) 30 40 50 60 80 100
4 5 6
AS-146
4) Il test del 2 potr essere utilizzato per verificare fit con minimi quadrati: y = ax + b x1 y1 1 x2 y2 2 . . .... . .... .
axi + b = i :
a, b: stima con il metodo dei minimi quadrati Il test di compatibilit di N istogrammi sperimentali della stessa variabile casuale (grandezza fisica) di cui si ignora funzione di distribuzione
N
2 = j i 1 1
^ (nij - pi Nj)2 ^ N p
i j
^ = pi
j 1
N
j 1
(banale)
AS-148
s2 =
i (xi - x )2 1 N-1
2 (N - 1 in quanto la x introduce una correlazione fra le xi). u = 2 (N - 1) = N - 1 . s2 2 E[u] (u) = N - 1 E[(u - )2] = 2 (u) = 2(N - 1)
2 . 2 (N - 1) s2 = N-1
s2 = f( 2 (N - 1) 2 2 = s ?f ? 2
2
. 22
2 2 N-1
2 . (N -1)
2 s2
4 2 . = = (N - 1)2
2 . 4 (N - 1)
2 . s4 N-1
s =
ds ds2
2 s2
1 4 s2
2 s4 s2 = N-1 2(N - 1)
1 2s
AS-149
s =
s 2 (N - 1)
s x =
s 2 (N - 1)
AS-150