Você está na página 1de 314
G. Andreatta Ww. Runggalidier Statistica matematica Prebliemi ed esereizi risolti Serie dimatematieae fisica T 5 Liguori Editore== Giovanni Andreatta Wolfgang Runggaldier Statistica matematica Problemi ed esereizi risolti Liguori Editore Prefazione Il presente volume intende fornire essenzialmente una collezione di esercizi e problemi, tutti risolti, di Statistica Matematica. Per cercare di rendere questo librio il pid possibile autosufficiente, abbiamo premes- so'ad ogni capitolo di esercizi una parte teorica di richiami ed esempi a cui fare riferimento. Tuttavia questa parte non deve essere intesa come un manuale o come un testo teorico, bensi come uno strumento didattico per chiarire, attraverso esempi ed osservazioni, alcuni concetti fondamentali della Statistica Matematica. Nella risoluzione degli esercizi l’accento é stato generalmente posto pit sulla illustrazione delle partico- lari tecniche che non sul fatto di arrivare al risultato nel modo pid rapido. Da parte del lettore si richiedono note solo le nozioni e le tecniche pit comuni del Calcolo delle Probabilita. Non si é fatto uso della Teo- ria della Misura 2d anzi si é generalmente preferito semplificare, per quanto possibile, la trattazione dei vari argomenti. . Poiché preparare un libro di esercizi su tutti gli argomenti della Stati- stica Matematica sarebbe un’impresa pressoché impossibile, ci siamo im- Pposti alcune limitazioni. Una prima limitazione deriva dal fatto di non aver trattato alcuni temi (come per esempio i modelli lineari) e di esser- ci strettamente limitati alla Statistica parametrica. Particolare enfasi, invece, é stata riservata all’approccio decisionale Bayesiano (capitolo V). Una seconda limitazione é dovuta all’aver considerato solo variabili scalari, discrete o assolutamente continue, dipendenti da parametri essi pure scalari. : Intendiamo ringraziare in modo particolare il Prof. Arrigo Cellina che fin dal 1978 ha suggerito e stimolato la realizzazione di questo libro. Infine desideriamo ringraziare tutti coloro che direttamente o indirettamente vi hanno contribuito, specialmente Daniela De Rossi, Giusy Filippino, Anna Pieretti e Vincenzo Porfido che hanno paziente- mente dattiloscritto il manoscritto originale. G.A - W.R. Capitolo Capitolo Capitolo Capitolo Capitolo Appendice Bibliografia 1 4 Indice — Statistiche sufficienti Richiami ed esempi......... Berti — Stima parametrica Richiami ed esempi ees . — Stima intervallare Richiami ed esempi...... 000.0002 e00ee eee Ra rere creer cera ca ca cecmte acmtamrarcatemiars -- Test parametrici Richiami ed esempi Esercizi... 1 ee ee eee eee — Approccio decisionale Bayesiano Richamiedesmpi Problemi decisionali.. . Strategie Bayesiane e Stima parametrica. Strategie Bayesiane ¢ Test parametrici.. . Esti Problemidecisionali..................05 Strategie Bayesiane e Stima parametrica....... . Strategie Bayesiane e Test parametrici......... Indice analitico 13 ae 30 56 96 110 131 161 199 199 225 233 245 265 290 315 321 323 Definizione 1.1: Esempio 1.1: TT Statistiche sufficienti Parte A: Richiami ed esempi Una statistica Y, si dice sufficiente (per il parame- tro 6) se per ogni statistica Y,, la distribuzione di Y, condizionata a Y, non dipende dal parametro incognito @. : Sia X ~b (1, 6): dimostrare che Y = £, X, @ una 1 statistica sufficiente per 0. Basta verificare che la distribuzione de] campione casuale stesso, condi- zionata a Y, non dipende da 6. Da: Py Xr d) Pie... X,[Y=— * 9 1. ox, |Y) P,0) tenuto conto che y=x, +x, +... +x, e quindi: Py Oty. Kg V=Py ers. =O" — OY? n P0)=(") oa —ar-? 7 si ricava: el - oy"? n Py... +4 b= = (") (‘aor 14 Cap. 1 - Statistiche sufficienti da cui si vede che la distribuzione del campione casuale, condizionata alla statistica Y, non dipende da @ e quindi Y risulta, in base alla defini- zione, una statistica sufficiente. Esempio 1.2: (Un esempio di statistica non sufficiente). Si supponga di eseguire 3 prove indipendenti, basate su una v.c, X ~ b(1, 6). Si dimostri che la statistica Y=X, +2X, +35 non é sufficiente per 0 . Per dimostrare cid, basta osservare che: P,{X, =1, Xp =1, Xs =O/X, +2X, +3X3=3} = P,{X, =1, X_=1, X;=0, X, + 2X, +3X3 =3} P,{X, +2X, +3X; =3) P,{X, =1,X, =X; =0} - ~ P(X =1, Xz = 1, Xy =0) +P, (X, =0,X, =0, Xy=1) 671 —0) 6 o(1—-e+(1-0) 0 6+(1-8) ¢ quindi, poiché la distribuzione del campione, condizionata alla stati- stica Y, dipende dal parametro 0, ne consegue che la statistica Y non é sufficiente per 0. Per verificare se una statistica ¢ sufficiente oppure no, é spesso utile ticorrere, anziché alla definizione, ad alcuni criteri. Citiamo il seguente: Criterio di Fisher-Neyman La statistica Y= Y(X,,..., X,) ¢ sufficiente per 6 se e solo se la di- stribuzione congiunta del campione pud scriversi nél modo seguente: © F(e,|0) +... FO, =s (Oy... x, 10} ° HG... x,) Parte A: Richiami ed esempi 15 dove g(yv1@) é la distribuazione della statistica Y e la funzione H dipen- de solo dal campione e non dal parametro @. Esempio 1.3: Sia X una v.c. di Poisson di parametro i, cioé con distribuzione: ~~ fRIN= ek (x intero > 0) . Dimostrare, in base al criterio di Fisher-Neyman che la seguente statistica Y = =, X, @ una statistica sufficiente per \. Se X,, X2,...,X, sono ».c. di Poisson indipendenti, identicamente distribuite, ciascuna di parametro A, Ja statistica Y = z, X, ha, come € noto, distribuzione di Poisson di parametro nA, cioé: (ad) go|[)=PiY= vy = ~ cone Ora basta osservare che: Mo ee FOA1N FOr)... -FG,IN=T e a Xytx tata, Ex; : . aoe ee em 2X0! 1 x1 1x3!. (2, x)! a =gQ]A) + HO. x2,.-..%,) ” per poter concludere, in base al criterio di Fisher-Neyman che la stati- stica Y=, X, é sufficiente. Esiste poi un secondo criterio, noto come “‘Criterio di Fattorizzazione”, che consente di evitare la conoscenza della distribuzione della statistica Criterio di fattorizzazione La statistica Y= Y(Xy,..., X,,) é sufficiente se e solo se esistono due. funzioni non negative k, e k, tali che la distribuzione congiunta del 16 Cap. 1 - Statistiche sufficienti campione puo essere espressa tramite la seguente relazione: FOO). Fg) = ky 0G, oO) halen) dove k, dipende dal solo campione e non dal parametro 0. Osservazione 1.1: Il criterio di fattorizzazione é un criterio “costrut- tivo”, perché consente di trovare una statistica suf- ficiente e non solo di verificare se una certa statisti- ca é sufficiente oppure no. Esempio 1.4: Sia X una variabile casuale assolutamente continua con densita: Fix|O= 0+ x9? (@>0, 0 0 se e solo se x € {0,1,...,}, siha, per ogni funzione u(x): £,wa}= J ueo("\e a —ar-s = x=0 “£0 (ewes ue) § a tk gt = u(0) + {u(I)n—u(O)n}-@+.:.+ +|y w(," 9) caret} sor 2 Quindi: E, (u(X)} risulta un polinomio di grado n in 0. 20 Gap. I ~ Statistiche sufficienti L’potesi che £, {u(x)} =0 V0 € (0, 1], implica Pannullarsi di tutti i coefficienti di tale polinomio e quindi: u(0)=0=u(1)=u(2)=...=u(n) Definizione 1.4: La statistica Y si dice completa se lo é la famiglia Ol) },c0- n Esempio 1.8: Se X ~ b(1, 6),la statistica ¥Y = = X; una stati- stica completa. Immediata conseguenza del fatto che risulta Y ~ b(n, 8) e dell’esempio precedente. Osservazione 1.4: Ricordiamo infine la seguente proposizione estre- mamente utile per riconoscere la completezza di molte statistiche: Se {f(xl@)},.. ¢ una famiglia di distribuzioni di classe esponenziale e © contiene almeno un punto interno, la statistica Y = 2,k(X,) oltre ad essere sufficiente é anche completa. a Statistiche sufficienti Parte B: Esercizi Esercizio 1.1. Sia data la distribuzione discreta: F160) ="! (1 —0)2- "I con x € {-1, 0, 2} 0 0, 6 > 0: si trovi una statistica sufficiente e completa per 6. Si osservi che £(%|0) =S(x) exp {p(8) » k(x) + 4(8)} Parte B: Esercizi 23 dove x20 Sx)= x<0 p(a)y= —1/6 k(@x)=x q(8) = log(1/0) per cui f(x/@) risulta una distribuzione di classe esponenziale. Da cid consegue che la statistica Y=E,K(X)=2,X, risulta una statistica sufficiente e completa Esercizio 1.3. Sia data la distribuzione discreta (1 — 6/2 per x=0 F109) = i con 0<@<1 a. +6)/2 per x=2 Si chiede: a) Questa distribuzione é di classe esponenziale? b)Esiste una statistica sufficiente e completa? Si osservi che la distribuzione f(x|@) pud essere riscritta in questo mo- do: aes FOl8)= (4-2 er x =Oox=2 : per x x da cui (sempre perx =0 0x =2): 1-6 x 1+0 3 1¢x10)= exp {(- +) toe 7 tyes = 24 Cap. I — Statistiche sufficienti ke Loe Ly 1- = ex] pa iG P 2 4 2 2 sg Ne consegue che: a) f(xl@) & una distribuzione appartenente alla classe esponenziale. b) Y= ,X, risulta una statistica sufficiente e completa per 8. Esercizio 1.4. Si dica se la seguente distribuzione: ~(@+1) x F(x|@)=0 + con x1; @>0 a) appartiene alla classe esponenziale; b) é dotata di una statistica sufficiente e completa. a) Si osservi che F¢|8) = S(x) exp {p(8) + k(x) + (6)} dove 1 x2l SQ)= 0 xl p(0)= —(6 +1) k(x) = logx q(8) = log @ Per cui f&|9) risulta una distribuzione di classe esponenziale. b) Ne consegue che la statistica Y=Z,M(X,)= , log X, = log Il, X, risulta una statistica sufficiente e completa. Esercizio 1.5. Parte B: Eserciti 25 Data la variabile casuale discreta X.con x € {-2,-1,1,2} 1 rT Oye ele 2 e Felay= 1 z 6 lel= 1 si trovi una statistica sufficiente per @. Si consideri la seguente v.c. Z trasformata della v.c. X: Z=2-1Xl Z-risulta una v.c. bemoulliana di parametro 8. Di conseguenza la sta- tistica T= 2,Z,=2n — E 1X, lrisulta una statistica sufficiente e comple- ta per 6. Anche la statistica Y = 2n — T=, 1x)! risulta sufficiente in quanto funzione invertibile di una statistica sufficiente. Esercizio 1.6. Sia X una v.c. assolutamente continua con densita f(x|@) che appartiene alla classe esponenziale. Si consideri una v.c. Y = h(X), dove h si suppone invertibile, derivabile con continuitd ¢ non dipen- dente dal parametro @. Dimostrare che anche la densita g('|@) della v.c. Y appartiene alla classe esponenziale. (Nel caso che X sia una v.c. discreta, si perviene allo stesso risultato sulla Y nella sola ipotesi che la funzione A sia invertibile). Dal calcolo delle probabilita é noto che: e quindi F(x|0)=2 {hx)|O} + Ih'(x)I fA10)|0} £01) Tao 26 Cap. I~ Statistiche sufficienti Dal fatto che la distribuzione di X appartiene alla classe esponenziale si ricava: SAO) 8010 = Te aot exp (p(8) + k[h™()] + q(6)} e quindi si riconosce che anche la distribuzione di Y appartiene alla classe esponenziale. Esercizio 1.7. Sia X ~ f(x |0) dove 1/6 00, x>0 0 x>0 a) in base al criterio di fattorizzazione trovare una statistica sufficiente per 0; b)verificare che si tratta di una statistica sufficien- te, utilizzando il criterio di Fisher-Neyman; c) verificare se si tratta di una statistica completa. a) Si osservi che f(x|@)=/, (x)/@ 1 Oo e quindi: F(%1 (9) + fa]) >... + FOe,]0)= 1/8") +1, +. = = (1/8") + 1, MAX {x1,X2,.-.4%, }) ne consegue che la statistica Y= MAX {X,, X2,...,X,,}. in base al criterio di fattorizzazione, é sufficiente. Parte B: Esercizi 27 b) Premessd che la densita di Y= MAX {X,,...,X,}é c) _ neytt C0) se 0) (dimostrare!) si ha: 1 F110) *F6210)*... £1) = G1, 00= _ nent 1 : =e 0) Spar 8019)» ae La statistica Y= MAX {X,, Xz, ..., X,} @ inoltre completa, per- ché, da E,(u(Y)}=0 Weee si ricava u(y) = 0, qualunque sia la funzione continua u(y). Infatti: n ay" ldy= 8 @ o=z,ui=f uoreolnay=[ uo? lo ‘0 o = i u@)y""* dy ° 0” quindi: e o= | uQy)y"~'dy Weee lo ¢, derivando rispetto a @: u(@ye"-'=0 WeEe dal che consegue che u(@) = 0 e quindi la completezza della stati- stica Y. 28 Cap. I - Statistiche sufficienti Esercizio 1.8. Sia X una v.c. di densita 1/6 0) 0 x26 a) Tale distribuzione appartiene alla classe esponen- ziale? b) Trovare una statistica sufficiente per 6. a) Tale distribuzione non appartiene alla classe esponenziale in quanto il supporto della v.c. X dipende dal parametro @. b) Indichiamo con [,(x) la funzione caratteristica dell’intervallo [8 26] cioé: 1 O026 si ha evidentemente: 1 fel=— + 1,0) e quindi: F618) P18) + + FEQ1V= Fe" Myla) “Ly Oa) Lgl) Osservando che T,(0,)* 61, 0, ) = MIN by, xa, + 1, (MAX x1, %2.....%,}) n si ricava, in base al criterio di fattorizzazione, che una statistica suffi- ciente per 6 é la seguente statistica bidimensionale (Y,, Y,) dove Y, =MIN {X,, Xq,...,X,} Parte B: Esercizi 29 e Y¥, =MAX {X,, Xz,...,X,} Esercizio 1.9. Dimostrazione che la seguente famiglia di distribu- buzioni f|0) = 1/0 O0 é completa, mentre non lo é la famiglia: f(x la)=1/(26) -@0 Nel secondo caso basta infatti considerare la funzione continua u(x) =x evidentemente non nuila ma tale che per ogni @, risulta E, {u(X)} =0. Nel primo caso invece si ha: @ 1 e O=E, moore | ue) -soleax=— | u(x) dx ° dacui f u(e) dx =0 per ogni 6 e, ‘0 derivando (rispetto a @) si ottiene u(@)=0 il che prova che la famiglia é completa. Definizione 2.1: Esempio 2.1: 2. Stima parametrica Parte A: Richiami ed esempi Uno stimatore Y (di 6) dicesi corretto (0 non di- storto) se gode della seguente proprieta: E,{Y}=0 (V6Ee). Sia X ~ b (1, @), 8€ O=[0, l]e X,, X2,.. un relativo campione casuale. Lo stimatore Y = risulta_corretto. Infatti, ricordando che E, {X} =6, siha: Osservazione 2.1: Esempio 2.2: Si badi bene che non sempre esiste uno stimatore corretto, come prova il seguente esempio: Sia X una v.c. csponenziale: X~f(x|0)=6e-°* — (con 6>0, x >0). Provare che non esiste uno stimatore corretto basa- to su un campione di taglia 1. Parte A: Richiami ed esempi 31 Supponiamo per assurdo che esista un tale stimatore Y = h(X,). Per definizione stessa di stimatore si ha h(x,) > 0 Vx, > 0; inoltre, per la supposta correttezza di Y si avrebbe: +. o=z,071=[ h(x) 6 e- °* dx vaco lo e cioé: +e 1=f h(x) +e 8 dx Veco ° In particolare, supponendo di prendere due valori @,, 82 con 0, >4, si avrebbe: os O,x ie Ox | AG) ee es ax=f AG) eos dx lo ° e cioé: +0 Wi) (et eke 9 ds 0 ° mentre, poiché da 6, > 6, risultae "" —e '” <0 Wx >0, per ben note proprietd degli integrali dovrebbe risultare h(x) = 0 quasi ovunque e quindi oe E,(Y=[ kG -0e-t dx=o , contro l’ipotesi che £, {Y} =6 Va>0 Definizione 2.2: Uno stimatore Y dicesi oftimale se, fissato n (il nu- mero delle prove), Y risulta: 1) corretto 2) avere varianza minore o uguale a quella di ogni altro stimatore corretto, per ogni valore di 6 €@ (cioé uniformemente in 6). Osservazione 2.2: Il problema di trovare degli stimatori ottimali in 32 Cap. II ~ Stima parametrica base alla definizione appena data non é facile. A Priori non siamo nemmeno certi dell’esistenza di stimatori a varianza uniformemente pid piccola. (L’esempio 2.2 di questo stesso paragrafo dimostra anche che non sempre esiste uno stimatore ottima- le). Ricordiamo i seguenti teoremi, utili ai fini della determinazione di stimatori ottimali. Teorema 2.1. (Rao-Blackwell): Date due variabili casuali unidimensio- nali X e Y, con Y dotata di media e varianza: E{¥} =m; VAR {Y¥} =02 sia w(x) =E {¥|x}. Si ha: E (W(X)}=m e VAR {¥(X)} So}. Inoltre VAR {p(X)} =o}, se e solo se ¥Y = y(X) quasi ovunque (Y non ha una aleatorieta sua ma solo quella derivante dall’essere funzione della X), Teorema 2.2 (Corollario del teorema di Rao-Blackwell): A partire da Osservazione 2.3: Teorema 2.3: “Asservazione 2.4: una», c. X ~ f(x|@) (@€O © R)edaun relativo campiéne casuale X,, X),-.., X,, sia Yy = =Y,(%).. , X,)una statistica sufficiente per 0 esia Y, =Y,(X,,..., X,,) uno stimatore corretto di @. Allora lo stimatore Y; = Y3(¥;) definito come segue: Y3(v,) = E, {¥2|3,} € uno stimatore corretto con varianza minore o uguale a quella di Ye Quest’ultimo teorema implica che la ricerca di sti- matori ottimali puo essere limitata alla sola classe degli stimatori corretti che siano funzioni di una statistica sufficiente. Rimane ancora aperto il pro- blema di sapere se, dentro a tale classe esista uno stimatore ottimale. Una risposta a tale quesito si ottiene dal seguente: Data una famiglia di distribuzioni {f(x |@) : 6 € 0}, se esiste una statistica Y sufficiente e completa per 6, & se esiste uno stimatore corretto di 0, funzione del campione solo attraverso la statistica Y, allora questo stimatore é ottimale. La completezza della statistica Y garantisce che Parte A: Richiami ed esempi 33 lo stimatore ottimale (se esiste) é essenzialmente unico nel senso che se esistono due stimatori ottimali, questi possono differire al pid su di un insieme di probabilita zero. Esempio 2.3: (Stimatore ottimale per la media di una normale con varianza nota): sia X ~ N(8, 07). FE’ noto che tale distribuzione appartiene alla classe esponenziale e che lastatistica Y=) X, é sufficiente e completa per 0. i Inoltre: nE, {X}=n6@ £,(=£,{5 x]=nE, i=1 E’ quindi immediato concludere che, in base al teorema 2.3 precedente, n X, lo stimatore T = Y/n = = —+ @ (Punico) stimatore ottimale per 6, n i essendo corretto 1 £,(T}=—E, (Y}=0 e funzione della statistica Y sufficiente e completa per 0 . Esempio 2.4: (Stimatore ottimale per la varianza di una normale con media nota). Sia ¥ ~ N (m, 6). La distribuzione f (ea() della X appartiene alla classe esponenziale, in- fatti: 1 ome SO1O = Tee 200 = - Flee (278), = 34 Cap, I - Stima parametrica Se Sm i exp{ 26 (x? —2xm) 26 7 108 (278) © quindi la statistica . y=)" (4? -2mx,) ii risulta, come é noto, sufficiente e completa per @. Poiché inoltre: E,{Y}= ) £,{x?}-2m ) 8, (%} Fi i n Y WAR, (%,} +m?) —2m + nm fa n@ +nm? — 2nm? n(0--m?) ne consegue che lo stimatore v T=—+m? n @ lo stimatore ottimale per @, essendo corretto e funzione della statisti- ca Y, sufficiente e completa per 6. Osservazione 2.5. Il metodo seguito per trovare uno stimatore otti- male é piuttosto standard: si parte con la ricerca di una statistica Y sufficiente e completa per 0, si calcola E, {Y} e infine, apportando le eventuali modifiche, si ricava uno stimatore corretto che, per come é costruito, é anche stimatore ottimale. Asservazione 2.6: E’ chiaro che, nella classe degli stimatori corretti, il miglior stimatore @ quello ottimale: se pero Teorema 2.4: Definizione 2.3: Esempio 2.5: Parte A: Richiami ed esempi 35 lo stimatore ottimale non esiste, acquista impor- tanza il poter misurare in qualche modo, il “‘grado di bonta” di uno stimatore corretto: a questo sco- po si é introdotto il concetto di “efficienza”. Il gra- do di efficienza di uno stimatore corretto deriva da un confronto fra la varianza dello specifico stima- tore ed un numero che rappresenta un corifine inferiore (noto come confine inferiore di Rao- Cramer) per la varianza di uno stimatore corretto. Si ha infatti il seguente teorema: (Rao-Cramer) Sia X una ».c. unidimensionale (il cui supporto non dipende da 6) con distribuzione appartenente alla famiglia {f(x|0) : 0 € [c, d]}. Sotto leggere ipotesi di regolarita sulla f(x|@) (che essenzialmente riguardano la possibilita di derivare sotto il segno di integrale), la varianza VAR, {Y} di un qualsiasi stimatore corretto Y di @ (basato su un campione casuale di taglia m) soddisfa a: 1 VAR, YI? a 2 dove si é posto 1(8) = E, | 5p toe rex | Uno stimatore Y dicesi efficiente se gode delle seguenti proprieta: a) Yécorretto b) VAR, {¥}= (V6E@) ou ni(9) (Stimatore efficiente per la media di una bernoul- liana). Sia X ~ b(1, 8). Al fine di determinare il confine inferiore per la varianza di un qualun- que stimatore corretto per 6, calcoliamo la quantita : ; 1(6)=E, {Poa eere19] i Si ha: 36 Cap. II — Stima parametrica F(x|0)= 6 (1 — 8) ~* log f (x|0) =x log 6 + (1 — x) log (1 — 4) a x Fp leet @la=—- a 2 x? (=x _2x(1-x) [ap erela] “9 td ey 00-8 Inoltre poiché: E,{X}= 6 E, {X*}) = VAR, {X} + [E, (X}]? =6(1 — 6) + 0? =6 E, {1 — X)}8, (1+X? —2X}=1+0-20=1-0 si ha: a-x~ . X¥—x? = —+ -2———_} = FQ) = Eq |p: a-0 ~ 6(1—8) 11 2020) @ 126 d—a)e — a 61 —6) a Consideriamo ora lo stimatore Y = E X,/n. Evidentemente si ha: 1 VAR, {Y} = uw ~9a-6)_ 1 = CA) ee ree) e quindi tale stimatore é efficiente. Osservazione 2.7: Osservazione 2.8: Osservazione 2.9: Teorema 2.5: Parte A: Richiami ed esempi 37 La quantita /(@) si suole chiamare “Quantita di informazione” di Fisher, in quanto misura in un certo senso linformazione su @ contenuta in una prova sulla X. Si pud dimostrare che la “informa- zione” su @ contenuta in un campione di taglia én volte l’informazione contenuta in una singola prova. Infine ricordiamo che, nelle solite ipotesi di rego- larita, la quantita /(@) pud essere calcolata anche nel modo seguente: az 1(6)= | tog /¢e|0| 36? formula che permette spesso semplificazioni nei calcoli. La quantita /(@) permette di dare una definizione alternativa di statistica sufficiente: infatti se Y una statistica basata su un campione di taglia n si ha: Ty (0) 0 2>0.ana} @>0 Questa distribuzione appartiene alla classe esponenziale; infatti: 1 F(x|8) == x f(x|0)=x2-! exp |-4-toe [F(@) + 0° da cui segue che la statistica é sufficiente e completa per @. Inoltre Y, essendo somma di v.c. indipendenti ed identicamente distri- buite di tipo Gamma, é ancora una v.c. di tipo Gamma (con parametri naeé). Dal Calcolo delle Probabilita ¢ noto che il valor medio della v.c. Y é: =nod. 8 EAE) % Se ora consideriamo lo stimatore T = Y/(n a), possiamo affermare che: Parte A: Richiami ed esempi—-39 a) tale stimatore risulta evidentemente corretto; b)la distribuzione della v.c. T soddisfa alle ipotesi del teorema 2.5 (con (0) =nal(6*)); c) tale stimatore é@ ottimale (perché corretto e funzione della statistica sufficiente e completa Y) e quindi, per il Teorema 2.5 precedente, anche efficiente. Esempio 2.7: (Esempio di stimatore ottimale ma non efficiente). Sia X ~ f(|@) con e Tc) F@la)= Stee eee) 0c 07020 dove il parametro c é supposto noto. Si tratta an- cora di una distribuzione Gamma ma espressa in forma differente (qui il parametro incognito é il reciproco del parametro che compariva nell’esem- pio 2.6, e il parametro c coincide con il parametro a). E’ immediato verificare che tale distribuzione appartiene alla classe esponenziale e che la statistica n Y=) X, ésufficiente e completa per 0. Cerchiamo uno stimatore corretto ¢ funzione della statistica sufficiente e completa Y cosicché tale stimatore risultera ottimale. Poiché E, {Y} = proviamo a considerare lo stimatore ne ne = u% Fi Dal Calcolo delle Probabilita é noto che la somma di n v.c. indipendenti di tipo Gamma (con parametri c e @) é ancora una v.c. Gamma di para- metrinc e 0, per cui: 40 Cap. Il — Stima parametrica a 1 = E, {Z}= ne+E, |= al Oke Seo eae me—k 9 8Y gy = nef Poo 2 nc-@__¢*” gne-} ne-1 J, T(ne-1) yhen2 9 OF dy= ne ne—1 Lo stimatore Z non é quindi corretto, tuttavia a questo punto é imme- diato riconoscere che lo stimatore 1 T=(ne-1) Y & uno stimatore corretto ¢ quindi ottimale (essendo funzione della stati- stica sufficiente e completa Y). Per quanto riguarda la efficienza di 7 non utilizziamo il teorema 2.5 perché non é immediato vedere se la distribuzione della v.c. T soddisfa alle ipotesi di tale teorema. Calcoliamo quindi il confine inferiore di Rao-Cramer. Si ha: |~ : ae — 9x +(e ~ 1) log + te ( u ) a 50 BF e1O = 35 Te) + ger} | fo: 6°T(c) —x+c/6 Parte A: Richiami ed esempi 41 #,| Flos rein} -{--< a rE i 6g? Ricordiamo che: 1 8 alt elyl ne-1 eche: +0 1 1 gre E | [ ee ol yy J, yt Tinc) ha e dy @? - gne-2 oe a 7. yne-3 gov gy = (ie—D@e-2) J}, Tae-2)"” “ y 2 ~ ae — 1) (me — 2) Calcoliamo la varianza dello stimatore ottimale T. Si ha: VAR, {T} VAR, | (ne - 1 t}=(ne -1p- var,{+| - vee.) we [pe | (mc -1)(ne— 2) (ne - 1) 2 nce—2 42° Cap. I - Stima parametrica 6 Quindi la varianza n 2 2 dello stimatore ottimale é superiore al con- 2 @ fine inferiore di Rao-Cramer | lo stimatore T non ¢ efficiente. N.B.: Nei calcoli svolti si é implicitamente supposto che ne > 2. Osservazione 2.10: Osservazione 2,11: Esempio 2.8: Si badi bene che la varianza di uno stimatore otti- male rappresenta sempre e comunque un confine inferiore per la varianza di uno stimatore corretto (ed anzi rappresenta il miglior confine inferiore essendo !’estremo inferiore ed anzi il minimo delle varianze di stimatori corretti). In altre parole, uno stimatore ottimale non é “meno buono” per il fatto di non essere “efficiente”: in questo caso infatti é il confine inferiore che pud essere “miglio- rato”, e non lo stimatore. 1 Si ricordi che la quantita ———— rappresenta un nI(@) confine inferiore per la varianza di uno stimatore corretto, a condizione che il supporto della distri- buzione non dipenda da @. Si veda a questo propo- sito il seguente esempio: (Esempio di distribuzione per cui la varianza di uno a stimatore ottimale é inferiore alla quantita 1) ) Sia X una vc. distribuita in modo uniforme fra zero e @. 1 fO|== per 00 Abbiamo gia visto (nell’esercizio 1.7) che la statistica Y= MAX {X,, xy X,,} € una statistica sufficiente e completa per 0; inoltre: ° B,v3= [ yg |0)dy= @ n = ye ‘0 6" tay= Parte A: Richiami ed esempi 43 n fy"+2]? no oe . pe ge eal n+l Y é corretto e ottimale perché funzione della statistica sufficiente e completa Y. Calcoliamo ora la varianza dello stimatore T. ae . ak Quindi lo stimatore T= VAR, {T} = E, {77} —(E, {T}? = in + 1)? -{[ GEM yt go]yay—0? = 0 n+i\ CRY Le dertane = ° nt+1\ C2) gf meee | Gea es] -# = n 9g” n+2]o Cn n(n +2) n(n +2) D’altra parte: : = a. = 1 = o? ni(0) a n.E, Fa lof ela) Peo ee oe vl 1 Quindi la varianza dello stimatore 7, (# . cain) risulta inferiore n(n +2) 44 Cap. I - Stima parametrica alla qu; ae hee nI(0) on 1 Si noti che se in questo esercizio si fosse calcolato TI) con la seconda n. formula fornita qui (cosa peraltro non lecita.in questo esercizio) si sa- rebbe trovato 1 6g? nI(8) n Osservazione 2.12: Spesso (come nei successivi esempi 2.9 e 2.10) si ha interesse a stimare non il parametro originario 0 ma una funzione dello stesso g(6). In tal caso uno stimatore Y si dice corretto per (6) se E, (Y)=g(6). (V0 €6) Le definizioni di ottimale ed efficiente rimangono formalmente le stesse ma il confine inferiore di Rao-Cramer diventa: {s'(6)? nI(6) dove si suppone g(@) derivabile. Allo scopo di determinare stimatori efficienti o ottimali per g(@), sono spesso utili i seguenti teoremi: Teorema 2.6: Sia X una v.c. con distribuzione di classe esponen- Ziale, cioé: F&|6) =S(x) exp (k(x) p(@) + q(8)} Allora (t) lo stimatore + Implicitamente si assume che p'(#) # 0 ¢ che siano soddisfatte le usuali ipotesi di regolarit’a Fichicste dal teorema di Rao-Cramer. Teorema 2.7: Parte A: Richiami ed esempi 45 é efficiente per la funzione _ (8) p'(8) 8(0)= Sia X una y.c. con distribuzione di classe esponen- ziale. Allora (t) tutte e sole le funzioni g(@) che possono essere stimate in modo efficiente sono le seguenti (a #0) ead) p'(@) e lo stimatore efficiente ¢ dato da: g@)= +b yo kX) Fi Ysa ———— +b n (cfr. Esercizio 2.18). Inoltre, il teorema 2.3 pud essere esteso pid in generale come segue: Teorema 2.8: Esempio 2.9: Data una famiglia di distribuzioni {f(x |@):4 € @}, se esiste una statistica T sufficiente e completa per 6, e se esiste uno stimatore Y che é corretto per la funzione g(@) ed é funzione del campione solo attraverso la statistica T, allora lo stimatore Y é ottimale. (Stima di g(@) = 0(1 — 6)). Sia X ~ b(, O) e si voglia stimare la varianza della v.c. X, cioé la fun- zione 8(6)=6(1 —6). La distribuzione della v.c. X é di classe esponenziale, con: ke) =x P(8) = log (@/(1 — 4)) q(8) = log(l — 6) + Implicitamente si assume che p"(0) # 0 ¢ che siano soddisfatte le usuali ipotesi di regolarita richieste dal teorema di Rao-Cramer. 46 © Cap. II — Stima parametrica Applicando il teorema 2.7 é facile vedere che esistono stimatori effi- cienti solo per le funzioni lineari di @ e quindi non esiste uno stimatore efficiente per la varianza (g(@) = 0(1 — @) non é funzione lineare di 0). Poiché non esiste uno stimatore efficiente cerchiamo uno stimatore ottimale. Allo scopo iniziamo col costruire uno stimatore corrctto per g(@) utilizzando la seguente procedura (applicabile in generale): consideriamo un evento la cui probabilita sia g(@); una volta trovato tale evento, la sua funzione indicatrice risulterd uno stimatore corretto per g(@). Supponiamo in quanto segue che n > 2 e consideriamo il seguente evento A, A= {X,=1,X, =0) E’ owio che: P(A) =8 (6) quindi: 1 seX,=1e X= EO x) 0 altrimenti é uno stimatore corretto per g(0) . Ricordiamo inoltre che To m1 2 una statistica sufficiente e completa per @ . Ne consegue che lo stimatore Y=E(,(X%....,X,)I7) é corretto per g(8) ¢ funzione della sola statistica T sufficiente e com- pleta per @ e quindi Y é ottimale per g(@) in virtd del teorema 2.8. Volendo l’espressione esplicita di Y si noti che y=0 per T=0 oper T=n Parte A: Richiami ed esempi 47 eche per1k}= (Probabilita di “soprav - vivenza” oltre I’“eta” k). Ancora una volta, per il teorema 2.7, sappiamo che non esiste uno sti- matore efficiente per g(@). Cerchiamo quindi di costruire uno stimatore ottimale. Consideriamo l’evento A = {X, > k}. E’ evidente che P(A) = g(@) e che quindi J, (X,,..., X,,) € uno stima- tore corretto per g(8). D’altra parte sappiamo che la statistica fn 7 x, at é sufficiente e completa per 6 e quindi, per il teorema 2.8 il seguente stimatore 48 Cap. I — Stima parametrica Y=E(,(%y,...,X,)I7) 2 ottimale per (8). Semplici calcoli (che lasciamo al lettore) provano che lo stimatore Y pud essere espresso come segue: 0 T... £019) dove k(x,,..., x, ) non dipende da 8. Tale funzione verrd nel seguito indicata con Ly... %,50)- Uno stimatore 6 che, in corrispondenza ad ogni campione osservato, stima @ come uno dei valori (se ne esistono) che massimizzano la funzione ve- tosimiglianza si chiama “‘stimatore di massima vero- simiglianza” (stimatore di m.v.) per 6. La definizione di stimatore di massima verosimi- glianza fornisce un criterio costruttivo per ottenere degli stimatori (si veda il successivo esempio 2.13). Tuttavia in qualche caso lo stimatore di massima verosimiglianza pud non esistere (vedi esempio 2.14) oppure pud esistere ma non essere univoca- mente definito (come nel successivo esempio 2.16). (Riprendiamo la distribuzione dell’esempio 2.7). Sia X ~ f(x] 6) con f(x|@)= Te + xe- 1p Ox K (x > 0,0 0). Si cerchi uno stimatore di massima verosimiglianza per 6. Consideriamo la distribuzione congiunta del campione: fer)... Fe,|0=(so oxgr} see a -( ul sxeot ven P(e) Ic) Parte A: Richiami ed esempi 51 gre n | a ete - Fy rer Qt... 7 x,) ox { 6 » x; . . —1 [Se oe {r(e)]” Come funzione verosimiglianza possiamo allora considerare la seguente: 1 E(t... ,%,30)= 0" exp fey | Dobbiamo ora massimizzare questa funzione (di @). Tenuto conto della monotonia della funzione logaritmo, gli eventuali punti di massimo della funzione verosimiglianza coincidono con quelli del suo logaritmo. Spesso massimizzare il logaritmo della verosimiglianza comporta una semplificazione nei calcoli. In questo caso: log L (xy,...,%,:0)=ne + log@ —0 “yx, iF Si osservi ora che si tratta di una funzione (di @) continua che tende a meno infinito per 0 che tende a zero 0 a pid infinito; che l'unico punto in cui si annulla la derivata prima é il punto: ne na ¢-— —__ a. e che questo é l’unico punto di massimo per tale funzione. Ne consegue che lo stimatore ne L% O%,,...,X,)= & stimatore di massima verosimiglianza per @ (in questo caso é risultato unico). Abbiamo gid visto (cfr. esempio 2.12) come questo stimatore sia consistente ma non corretto né ottimale né efficiente. $2. Cap. If - Stima parametrica Esempio 2.14: (Non esistenza di uno stimatore di massima vero- simiglianza) Sia X una v.c. uniformemente distribuita nell’intervallo da 0 a @ (con 6 parametro positivo incognito). Se consideriamo come funzione densita la seguente: 1/6 se 0O a +). dove il parametro 6, che qui é un cosiddetto parametro posizionale, non é noto. La funzione densita di probabilita della X é: 1 se@ —1/2

Você também pode gostar