Você está na página 1de 6

Universidade Estadual de Campinas

Instituto de Matemática, Estatística e Computação Cientíca


Disciplina Inferência - ME 322
Exercícios Resolvidos sobre EQM, Completitude, ENVUMV, Informação de Fisher e LICR

Questão sobre Erro Quadrático Médio

1a ) Sendo X1 , . . . , Xn é uma amostra aleatória de uma U (0, θ).


a) Encontre o estimador pelo método dos momentos de θ e o seu EQM.
Resposta
Dado que E(X) = 2θ e o primeiro momento amostral é m1 = X̄ , temos que pelo
método dos momentos,
θ̂mm
E(X) = m1 ⇒ = X̄ ⇒ θ̂mm = 2X̄.
2

Sabendo que o EQM de um estimador θ̂ de um parâmetro θ é denido como


EQM (θ̂) = V ar(θ̂) + (E(θ̂) − θ)2 ,

e dado que V ar(X) = θ2


12
, temos que para θ̂mm = 2X̄ o EQM é dado por,
Pn
2 E(Xi )
i=1
2n 2θ
E(2X̄) = = = θ,
n n
Viés(2X̄) = E(2X̄) − θ = θ − θ = 0,
θ2
4 ni=1 V ar(Xi ) θ2
P
4n 12
V ar(2X̄) = = = ,
n2 n2 3n
θ2
EQM (2X̄) = V ar(2X̄) + (Viés(2X̄))2 = V ar(2X̄) = .
3n
b) Encontre o estimador pelo método de máxima verossimilhança de θ e o seu EQM.
Resposta

A distribuição conjunta da amostra é dada por


n n
Y 1 1 Y
fX (x) = I(0,θ) (xi ) = I(0,x(n) ) (x(1) )I(0,θ) (x(n) ),
i=1
θ (θ)n i=1

pois 0 < xi < θ ∀i = 1, . . . , n ⇔ 0 < x(1) < x(n) < θ, com X(1) = min{X1 , . . . , Xn }
e X(n) = max{X1 , . . . , Xn }. A verossimilhança ca dada então por
1
L(θ) ∝ I(x ,∞) (θ),
θn (n)
pois 0 < x(1) < x(n) < θ < ∞, então x(n) < θ < ∞. L(θ) é máxima quando
θ = x(n) , pois L(θ) é um função decrescente de θ, então quanto menor for o valor que
θ assumir, maior será o valor da verossimilhança, L(x(n) ) > L(θ), ∀θ ∈ (x(n) , ∞).
Então, como X(n) maximiza a verossimilhança, ele é o estimador de verossimilhança
de θ, θ̂mv = X(n) .

1
Calculando a distribuição de X(n) , temos que
n
Y
FX(n) (y) = P (X(n) < y) = P (X1 < y, . . . , Xn < y) = P (Xi < y),
i=1

como Xi , i = 1, . . . , n são i.i.d., temos que


y n
yn ny n−1
Z
n 1
FX(n) (y) = [P (X < y)] = dx = I(0,θ) (y) ⇒ f X (y) = I(0,θ) (y),
0 θ θn (n)
θn
então calculando a esperança e a variância de X(n) , temos que
θ
ny n−1
Z
n
E(X(n) ) = y dy = θ,
0 θn n+1
Z θ
2 ny n−1 n 2
E(X(n) ) = y 2 n dy = θ ,
0 θ n+2
2
nθ2

n 2 n
V ar(X(n) ) = θ − θ = .
n+2 n+1 (n + 1)2 (n + 2)
Calculando agora o EQM de X(n) , temos que
n θ
Viés(X(n) ) = E(X(n) ) − θ = θ−θ =− ,
n+1 (n + 1)
2
nθ2

θ
EQM (X(n) ) = V ar(X(n) ) + (Viés(X(n) )) = 2
+ −
(n + 1)2 (n + 2) (n + 1)
2

= .
(n + 1)(n + 2)

c) Compare os EQM's de ambos os estimadores.


Resposta
Fazendo uma razão dos estimadores e avaliando quando a razão é maior que 1, ou
seja, o EQM do numerador é maior que o do denominador, observa-se que
EQM (θ̂mm ) (n + 1)(n + 2) n2 + 3n + 3
= = > 1 ↔ n2 + 3n + 3 > 6n
EQM (θ̂mv ) 6n 6n
↔ n2 − 3n + 3 > 0,

resolvendo a equação do segundo grau n2 − 3n + 3 = 0, achamos que as raízes são


n1 = 1 e n2 = 2 e como o coeciente de n2 é positivo, a parabóla tem concavidade
para cima e, portanto, a equação do segundo grau é maior que zero quando n < 1 e
n > 2. Como o tamanho amostral (n) é maior que dois, em uma grande maioria dos
estudos, o θ̂mm , mesmo que não viesado, apresenta EQM maior que o θ̂mv , o qual é
viesado. Então com base no EQM, θ̂mv é preferível.
Questão sobre ENVUMV,Informação de Fisher e LICR

1a ) (Questão 5, item (2.4) Propriedades, lista B)


Considere uma a.a de tamanho n proveniente Pn da distribuição Ber(p). Demonstre que
E(X1 |S = s) é ENVUMV para p, onde S = i=1 Xi .

2
Resposta
O teorema de Lehmann-Schee diz que a esperança de um estimador não-viesado para o
parâmetro de interesse condicionada a uma estatística suciente e completa é o ENVUMV
para tal parâmetro. Assim, se provarmos que X1 é um estimador não-viesado (ENV) e S
é uma estatística suciente e completa, provamos o que a questão pede.
Sabendo que X1 ∼ Ber(p), temos que E(X1 ) = p, ou seja, ele é um ENV para p. Provando
a suciência através do Teorema da Fatoração, temos que
n
!
Pn X
n n− i=1 xi
P (X = x) = p (1 − p) I{0,1}n (x) = g xi ; p h(x),
i=1

então S = ni=1 Xi é uma estatística suciente para p. Provando agora a completude de


P
S , o que é provado se E(g(S)) = 0 ⇔ g(S) = 0, com g(.) sendo uma função. Dado que
S ∼ Binom(n, p), segue que
n  
X n s
E(g(S)) = g(s) p (1 − p)n−s = 0
s=0
s
n    s
X n n p
→ g(s) (1 − p) =0
s=0
s 1−p
n   s
X n p
→ g(s) = 0,
s=0
s 1 − p
 s
como n
>0e > 0, a única forma de zerar a esperança acima apresentada, é se
p

s 1−p
g(s) = 0, então E(g(S)) = 0 ⇔ g(S) = 0, ∀s ∈ {0, . . . , n}. Assim S é completa. Então
pelo teorema de Lehmann-Schee, E(X1 |S) é o ENVUMV para p.
Como curiosidade,P
vamos calcular essa esperança:
Sabendo que S = ni=1 Xi ∼ Binom(n, p), segue que
P (X1 = 1, ni=1 Xi = s)
P
P (X1 = 1, S = s)
E(X1 |S = s) = P (X1 |S = s) = = n s

P (S = s) s
p (1 − p)n−s
Pn
P (X1 = 1, i=2 Xi = s − 1)
= n s

n−s
,
s
p (1 − p)

pois i=1 Xi = X1 + i=2 Xi P = s, como X1 = 1, 1 + ni=2 Xi =Ps ⇒


Pn Pn P Pn
i=2 Xi =
s − 1. Além disso, P (X1 = 1, i=2 Xi = s − 1) = P (X
n
P1 = 1)P ( i=2 Xi = s − 1),
n

por independência entre os Xi 's, com X1 ∼ Ber(p) e ni=2 Xi ∼ Binom(n − 1, p) .


Continuando,
n−1
 s−1
p (1 − p)n−1−s+1
Pn
p s−1 s xi
E(X1 |S = s) = n s

n−s
= = i=1 = x̄.
s
p (1 − p) n n

2a ) Seja X1 , . . . , Xn uma aa de X ∼ exp(θ), com densidade dada por


1 x
fX (x) = e− θ I(0,∞) (x).
θ

3
a) Encontre o EMV para θ
Resposta
Calculando a verossimilhança, segue que
n Pn
Y 1 −
xi 1 i=1 xi
L(θ) = e θ = n e− θ ,
i=1
θ θ
aplicando o log, derivando em relação à θ e igualando à zero, resulta em
Pn
xi
l(θ) = −n log(θ) − i=1 ;
Pn θ
∂l(θ) n x i
= − + i=1 ;
∂θ θ θ2P
n Pn
∂l(θ) n i=1 xi n xi
=0⇒− + = 0 ⇒ − = − i=1
∂θ θ̂ θ̂2 θ̂ θ̂2
⇒ θ̂ = x̄,
fazendo a P
segunda derivara em relação à θ para conrmar ser ponto de máximo,
dado que ni=1 xi = nx̄, temos que
∂ 2 l(θ) n 2nx̄
2
= 2− 3 ,
∂θ θ θ
como não é possível dizer se a quantidade achada é menor que zero para todo θ, vamos
mostrar que pelo menos em θ̂, a segunda derivada é menor que zero e provamos que
esse é um ponto de máximo. Assim,
∂ 2 l(θ)
 
n 2nx̄ n 2nx̄ n 2n n
2
= 2
− 3 = 2 − 3 = 2 − 2 = − 2 < 0,
∂θ θ=θ̂ θ θ θ=θ̂ x̄ x̄ x̄ x̄ x̄
pois, n > 0, x̄2 > 0. Assim, X̄ é o EMV para θ.
b) Encontre a Informação de Fisher e o Limite Inferior de Cramér-Rao (LICR) para θ.
Resposta

Sabendo que
∂2
 
I(θ) = Eθ − 2 log fX (x; θ) ;
∂θ

2
∂θ
τ (θ)
LICR(θ) = ,
I(θ)
como calculado no item anterior,
∂2 ∂ 2 l(θ) n 2nx̄
2
log f X (x; θ) = 2
= 2− 3 ,
∂θ ∂θ θ θ
então, dado que E(X̄) = θ, a Informação de Fisher ca dada por
 
n 2nx̄ n 2nθ n 2n n
I(θ) = E − 2 + 3 = − 2 + 3 = − 2 + 2 = 2 .
θ θ θ θ θ θ θ
Como estamos calculando o LICR para θ, ∂θ∂ τ (θ) = 12 = 1, então,
 2

1 θ2
LICR(θ) = n = .
θ2
n

4
c) Verique se o estimador de verossimilhança, θ̂, é o ENVUMV para θ.
Resposta
Se calcularmos a variância de um estimador não vieasado e esta coincidir com
LICR(θ), então o estimador é o ENVUMV para o parâmetro de interesse. Como
E(θ̂) = E(X̄) = θ, ou seja, ele é não-viesado, a primeira condição está satisfeita.
Calculando agora a variância, temos que
Pn
i=1 V ar(Xi ) nθ2 θ2
V ar(θ̂) = V ar(X̄) = = = .
n2 n2 n

Como V ar(X̄) = LICR(θ), então θ̂ = X̄ é o ENVUMV para θ, pois assume variância


mínima na classe dos estimadores não viesado para tal modelo.
3a ) (Questão 9)b), item (2.4) Propriedades, lista B)
Seja X1 , . . . , Xn uma a.a desde θxθ−1 I(0,1) (x), sendo θ > 0. Calcule a estatística suciente
e verique a completitude.
Resposta
Para vericar suciência, vamos aplicar na Família Exponencial e vericar se X pertence
a FE de posto completo, então
n
Y n
Y
fX (x) = θxθ−1
i I(0,1) (xi ) =θ n
xiθ−1 I(0,1)n (x)
i=1 i=1
n
!
X
= exp n log(θ) + (θ − 1) log(xi ) I(0,1)n (x)
i=1
= exp (ηT (x) − B(θ)) IA (x),

com η = θ − 1, T (x) = ni=1 log(xi ), B(θ) = −n log(θ), h(x) = 1 e A = (0, 1)n . Como
P
θ > 0 → θ − 1 > −1 → η > −1, portanto o espaço natural contém
Pn intervalos e abertos e,
por isso, pertence à FE de posto completo, segue que T (x) = i=1 log(xi ) é suciente e
completa para θ.
4a ) (Questão 6)b),c) e d) item (2.4) Propriedades, lista B)
Considere uma a.a de tamanho n proviniente da P oisson(λ).
a) Demonstre que S = ni=1 Xi é estatística suciente, minimal e completa para λ.
P
Demonstre que e−S/n é o EMV para e−λ e que e−S/n não é o ENVUMV para e−λ .
Resposta
Colocando na Família Exponencial a distribuição conjunta, temos que
Pn n
!
−nλ xi
e λ i=1 X 1
P (X = x) = Qn I{0,1,2,... }n (x) = exp −nλ + xi log(λ) Qn I{0,1,2,... }n (x)
i=1 xi ! i=1 i=1 xi !
= exp (ηT (x) − B(θ)) h(x)IA (x),

com η = log(λ), T (x) = ni=1 xi , B(θ) = nλ, h(x) = Qni=11 xi ! e A = {0, 1, 2, . . . }n .


P

Como θ > 0 → log(θ) ∈ R → η ∈ R, portanto o espaço natural contém intervalos e


abertos e, por isso, pertence à FE de posto completo, segue que T (X) = ni=1 Xi é
P
suciente e completa para λ. Como Sn é o EMV para λ, segue que pelo princípio da

5
invariância dos estimadores de MV,o EMV para e−λ é e−S/n . Como S = Xi ,
Pn
i=1
então S ∼ P oisson(nθ). Calculando a esperança de e−S/n , temos que
∞ ∞ ∞
X e−nλ (nλ)s X e−s/n (nλ)s X (e−1/n nλ)s
E(e−S/n ) = e−s/n = e−nλ = e−nλ
s=0
s! s=0
s! s=0
s!
−1/n nλ −1/n −n)
= e−nλ ee = eλ(ne ,

assim como a E(e−S/n ) é diferente de e−λ , então e−S/n é um estimador viesado para
e−λ e, portanto, não pode ser o ENVUMV.
b) Demonstre que E[I{X1 =0} (X1 )| ni=1 Xi = s] é o ENVUMV para e−λ ,onde I{X1 =0} (X1 ) =
P
1 se X1 = 0 e 0 em qualquer outro caso.
Resposta
Como mostrado no item anterior, ni=1 Xi é uma estatística suciente e completa, en-
P
tão precisamos apenas provar que I{X1 =0} (X1 ) é uma estimador não viesado para
Pn e ,
−λ

que através do Teorema de Lehmann-Schee ca provado que E[I{X1 =0} (X1 )| i=1 Xi =
s] é o ENVUMV de e−λ . Assim,

e−λ λ0
E[I{X1 =0} (X1 )] = P (X1 = 0) = = e−λ ,
0!
então ca provado que I{X1 =0} (X1 ) é não viesado e, portanto, E[I{X1 =0} (X1 )|
Pn
i=1 Xi =
s] é o ENVUMV de e−λ .
Como curiosidade o ENVUMV P ca calculado como:
Calculando E[I{X1 =0} (X1 )| ni=1 Xi = s], temos que
n
P (X1 = 0, ni=1 Xi = s) P (X1 = 0, ni=2 Xi = s)
X P P
E[I{X1 =0} (X1 )| Xi = s] = =
P ( ni=1 Xi = s) P ( ni=1 Xi = s)
P P
i=1
−(n−1)λ (n−1)s λs
e−λ λ e s! s!e−λ λe−(n−1)λ (n − 1)s λs
= e−nλ (nλ)s
=
s!e−nλ (nλ)s
 s!s  s
n−1 1
= = 1− .
n n

Você também pode gostar