Você está na página 1de 4

Lista 4 gabarito

Profa . Márcia Barbian


Disciplina: Inferência A

1. Prove os seguintes teoremas e corolários:

a)
Teorema. Sejam X1 , X2 , . . . variáveis aleatórias iid com E(Xi ) = µ e V ar(Xi ) = σ 2 < ∞. Então para todo  > 0

temos que
lim P (|X n − µ|< ) = 1.
n→∞

Isto é, X n converge em probabilidade para µ.

Relembrando a desigualdade de Chebyshev afirma que:

σY2
P (|Y − µY |≥ ) ≤
2
2
2 σX
Note que para X n temos µX n = µX e σX = n disso segue, pela desigualdade de Chebyshev, que para  fixado,
n

2
σX
P (|X n − µX |≥ ) ≤
n2
2
σX
Note que P (|X n − µX |≥ ) ≥ 0 pela definição de probabilidade e n2 → 0 quando n → ∞ da onde segue pela
desigualdade de Chebyshev que:

lim P (|X n − µX |≥ ) → 0
n→∞

Da onde segue que:

P (|X n − µX |< ) = 1 − P (|X n − µX |≥ ) → 1

b)
Teorema. Seja f (·) uma densidade com média µ e variância finita σ 2 . Considere X n a média amostral de uma
amostra aleatória com tamanho n obtida a partir de f (·). Seja Zn a seguinte variável aleatória

X n − E(X n )
Zn = q
V ar(X n )
A distribuição de Zn se aproxima da N (0, 1) conforme n tende ao infinito.
Demonstração no final dos slides da aula 3.
c)
Teorema. Seja X1 , X2 , . . . , Xn uma amostra aleatória de uma população com densidade f (·) com média µ e variância
σ 2 então

1 2
E(X) = µ e V ar(X) = σ
n
Exercício lista 2
d)

1
Teorema. Se X1 , X2 , . . . , Xk são variáveis aleatórias Normais independentes com médias µi e variâncias σi2 . Então
k  2
X Xi − µi
U=
i=1
σi

possui distribuição χ2k .


Primeiro mostraremos que vale para k = 1, ou seja, se X ∼ N ormal(µ, σ 2 ) então:

(Xi − µ)2
∼ χ21
σ2
Para isto, note que X ∼ N ormal(µ, σ 2 ) ⇒ Z = (X−µ)σ ∼ N (0, 1) pelas propriedades básicas da distribuição normal.
Basta portanto mostrar que Z 2 ∼ χ21 . Para isto usamos o método do jacobiano:

1 −z2
fZ (z) = √ e 2


Queremos a densidade de Y = g(Z) = Z 2 . Note que, esta função possui duas inversas à direita, g1−1 (y) = y e
√ 0 0
g2−1 (y) = − y, y ≥ 0 que tem respectivas derivadas: (g1−1 ) (y) = 2√
1 −1 1
y e (g2 ) (y) = − 2 y . Pelo método do jacobiano

temos que:

0 0 √ 1 √ 1
fY (y) = fZ (g1−1 (y))|(g1−1 ) (y)|+fZ (g2−1 (y))|(g2−1 ) (y)|= fZ ( y) √ + fZ (− y) √ =
2 y 2 y

1 |y| 1 1 |y| 1 1 |y|


=√ e2 √ +√ e2 √ =√ √ √ e2 =
2π 2 y 2π 2 y 2 y π
1 y
√ √ √ e 2 , y ≥ 0.
2 y π

Note que para y < 0 fY (y) = 0 pois Y = Z 2 ≥ 0. Se compararmos a densidade calculada para Y veremos que ela é
idêntica à densidade de uma χ21 .
Pk  2
Para provar que vale o caso para a soma, i=1 Xiσ−µ
i
i
, de variáveis independentes, note que cada termo segue uma
distribuição χ21 como mostrado acima. Resta mostrar a seguinte propriedade que vale para a família de distribuições χ2 :

Se U1 ∼ χk 21 e U2 ∼ χk 22 são independentes, então U = U1 + U2 ∼ χ2k1 +k2 .


Ou seja, a soma de variáveis χ2 independentes possuem uma distribuição χ2 com graus de liberdade iguais à soma dos
graus de liberdade dos termos da soma.
Isto pode ser facilmente demonstrado usando a função geradora de momentos da χ2 (que é um caso particular da função
geradora de momentos da Gamma calculada em listas anteriores):

(i) k1 k2 k1 +k2
MU (t) = MU1 +U2 (t) = MU1 (t)MU2 (t) = (1 − 2t)− 2 (1 − 2t)− 2 = (1 − 2t)− 2

Em que (i) segue da propriedade para a função geradora de momentos para somas de variáveis independentes. Note que
o último termo é a função geradora de momentos de uma χ2k1 +k2 e portanto segue que U ∼ χ2k1 +k2 . Esta propriedade
da soma pode ser facilmente generalizada para somas de 3 ou mais variáveis. Com isto concluímos que:
k  2 k
X Xi − µi X
U= = Ui ∼ χ2k
i=1
σi i=1

Já que os Ui são independentes e seguem uma distribuição χ21 de forma que se somarmos os graus de liberdade obtemos
uma χ21+1+...+1 = χ2k pois a soma tem k termos.

e)
Corolário. Se X1 , X2 , . . . , Xn é uma amostra aleatória simples da distribuição Normal com média µ e variância σ 2
2
então U = i=1 (Xiσ−µ)
Pn
2 tem distribuição χ2n .
Caso particular do item anterior tomando µi = µ e σi2 = σ 2 , ∀i e k = n.

2
f)
Teorema. Se Z1 , Z2 , . . . , Zn é uma amostra aleatória simples da distribuição N (0, 1), então:
i) Z ∼ N (0, 1/n)
A soma de variáveis normais independentes possui a seguinte propriedade bem conhecida:
2
X ∼ N ormal(µX , σX ) e Y ∼ N ormal(µY , σY2 ) independentes ⇒ X + Y ∼ N ormal(µX + µY , σX
2
+ σY2 )
Além disso,
2
X ∼ N ormal(µX , σX ) ⇒ cX ∼ N ormal(cµX , c2 σX
2
)
É facil ver a partir disto que:
n n n
!  
1X X Zi X 1 1
Z= Zi = ∼ N ormal 0, = N ormal 0,
n i=0 i=0
n i=0
n2 n
Em que usamos as duas propriedades relembradas acima:
Zi 1
Zi ∼ N ormal(0, 1) ⇒ ∼ N ormal(0, 2 )
n n
Pn
e a soma de normais independentes i=0 Zni segue uma normal cuja média é a soma das médias (neste caso 0) e
a variância é a soma das variâncias (neste caso n12 ).
Pn
ii) Z e i=1 (Zi − Z)2 são independentes
Pn
Temos, Z ∼ N (0, n1 ) pelo item anterior. Além disso, (Zi − Z) = ((1 − n1 )Zi − n1 j6=1 Zj ) ∼ N (0, (n−1)
n ) o que
segue usando as mesmas propriedades do item (i). Para demonstrar a independência mostraremos que a função
geradora de momentos conjunta de Y1 = Z e Y2 = (Zi − Z) se fatora nas funções geradoras de momentos marginais
de ambas.
h i h i
MY1 ,Y2 (s1 , s2 ) = E es1 Z+s2 (Zi −Z) = E es2 Zi +(s1 −s2 )Z) =

(s1 −s2 ) (s1 −s2 ) Pn


h i
= E eZi (s2 + n )+ n j6=i Zj =
h (s1 −s2 )
i h (s1 −s2 ) Pn i
= E eZi (s2 + n ) E e n j6=i Zj

Os fatores do produto acima podem ser calculados


Pn usando a expressão para a função geradora de momentos de
variáveis normais, pois Zi ∼ N (0, 1) e Z
j6=i j ∼ N (0, (n − 1)) portanto basta calcular as funções geradores
(s1 −s2 ) (s1 −s2 )
de momentos de variáveis normais com estes parâmetros em t = (s2 + n ) e t = n . Lembrando que:
2 2
µt+ σ 2t 2
MZ (t) = e para Z ∼ N (µ, σ ). Disto obtemos então,
(s −s ) 2 1 (s1 −s2 ) 2
i h (s1 −s2 ) Pn    
(s1 −s2 ) 1
h i
s + 1n 2 (n−1)
E eZi (s2 + n ) E e n j6=i Zj = e2 2 e2 n
=

s2 (s −s )2 (s1 −s2 ) 2 s2
 
2 +s2
(s1 −s2 )
+ 12 1 n2 2 + 12 (n−1) (s1 −s2 ) (s −s )2
2 +s2 + 12 1 n 2
=e 2 n n
=e 2 n =

s2 s2 (s2 2
1 +s2 ) s2 (n−1)s2 s2 (n−1)s2
2 − 2 + 21 1 2 1 2
=e 2 n n = e 2n + 2n = e 2n e 2n = MZ (s1 )M(Zi −Z) (s2 )

Portanto a função geradora de momentos conjunta se fatora no produto das marginais da onde segue que Z e
Pni − Z) são independentes.
(Z
2
Como i é qualquer
Pn concluímos 2
que a independência vale para todos os termos da soma
i=1 (Zi − Z) e portanto segue que Z e i=1 (Zi − Z) são independentes.

Pn
iii) i=1 (Zi − Z)2 ∼ χ2n−1
Note que:
n
X n
X
(Zi − µZ )2 = (Zi − Z)2 + n(Z − µZ )2
i=1 i=1

3
E, em particular para Zi ∼ N (0, 1),
n n
X X 2
Zi2 = (Zi − Z)2 + nZ
i=1 i=1
Pn
Vamos tentar descobrir a funçãoP geradora de momentos do termo i=1 (Zi − Z)2 para ver se ela possui uma forma
n 2 2 2 2
conhecida. É fácil verificar que: i=1 Zi ∼ χn pois Zi ∼ N (0, 1) ⇒ Zi ∼ χ1 e como as Zi são independentes
√ a soma
seguira uma χ com os graus de liberdade somados. Por outro lado note que Z ∼ N (0, n1 ) e portanto nZ ∼ N (0, 1)
2
2 Pn 2
da onde segue que para o último termo da expressão temos nZ ∼ χ21 . Como i=1 (Zi − Z)2 e nZ são independentes
pelo item (ii) temos que:

MPni=1 Zi2 (t) = MPn 2 +nZ 2 (t) = MPn 2 (t)MnZ 2 (t)


i=1 (Zi −Z) i=1 (Zi −Z)

Pela discussão acima, conhecemos MPni=1 Zi2 (t) = (1 − 2t)−n/2 e MnZ 2 (t) = (1 − 2t)−1 pois estes termos possuem
distribuiçao conhecida. Podemos usar isto para isolar a função geradora de momentos de (Zi − Z)2 para obter a
distribuição desta variável aleatória:

(1 − 2t)−n/2
MPni=1 Zi2 (t)
MPn 2 (t) = = = (1 − 2t)−(n−1)/2 , ∀t < 1/2.
i=1 (Zi −Z) MnZ 2 (t) (1 − 2t)−1
Pn
Mas esta é a função geradora de momentos de uma χ2(n−1) , portanto segue que i=1 (Zi − Z)2 ∼ χ2(n−1) .

g)
Teorema. Se Z ∼ N (0, 1) e U ∼ χ2k são variáveis aleatórias independentes, então

Z
p ∼ tk
U/k

Slides aula 4 - Teorema 4.

Você também pode gostar