Escolar Documentos
Profissional Documentos
Cultura Documentos
pois 0 < xi < θ ∀i = 1, . . . , n ⇔ 0 < x(1) < x(n) < θ, com X(1) = min{X1 , . . . , Xn }
e X(n) = max{X1 , . . . , Xn }. A verossimilhança ca dada então por
1
L(θ) ∝ I(x ,∞) (θ),
θn (n)
pois 0 < x(1) < x(n) < θ < ∞, então x(n) < θ < ∞. L(θ) é máxima quando
θ = x(n) , pois L(θ) é um função decrescente de θ, então quanto menor for o valor que
θ assumir, maior será o valor da verossimilhança, L(x(n) ) > L(θ), ∀θ ∈ (x(n) , ∞).
Então, como X(n) maximiza a verossimilhança, ele é o estimador de verossimilhança
de θ, θ̂mv = X(n) .
1
Calculando a distribuição de X(n) , temos que
n
Y
FX(n) (y) = P (X(n) < y) = P (X1 < y, . . . , Xn < y) = P (Xi < y),
i=1
2
Resposta
O teorema de Lehmann-Schee diz que a esperança de um estimador não-viesado para o
parâmetro de interesse condicionada a uma estatística suciente e completa é o ENVUMV
para tal parâmetro. Assim, se provarmos que X1 é um estimador não-viesado (ENV) e S
é uma estatística suciente e completa, provamos o que a questão pede.
Sabendo que X1 ∼ Ber(p), temos que E(X1 ) = p, ou seja, ele é um ENV para p. Provando
a suciência através do Teorema da Fatoração, temos que
n
!
Pn X
n n− i=1 xi
P (X = x) = p (1 − p) I{0,1}n (x) = g xi ; p h(x),
i=1
3
a) Encontre o EMV para θ
Resposta
Calculando a verossimilhança, segue que
n Pn
Y 1 −
xi 1 i=1 xi
L(θ) = e θ = n e− θ ,
i=1
θ θ
aplicando o log, derivando em relação à θ e igualando à zero, resulta em
Pn
xi
l(θ) = −n log(θ) − i=1 ;
Pn θ
∂l(θ) n x i
= − + i=1 ;
∂θ θ θ2P
n Pn
∂l(θ) n i=1 xi n xi
=0⇒− + = 0 ⇒ − = − i=1
∂θ θ̂ θ̂2 θ̂ θ̂2
⇒ θ̂ = x̄,
fazendo a P
segunda derivara em relação à θ para conrmar ser ponto de máximo,
dado que ni=1 xi = nx̄, temos que
∂ 2 l(θ) n 2nx̄
2
= 2− 3 ,
∂θ θ θ
como não é possível dizer se a quantidade achada é menor que zero para todo θ, vamos
mostrar que pelo menos em θ̂, a segunda derivada é menor que zero e provamos que
esse é um ponto de máximo. Assim,
∂ 2 l(θ)
n 2nx̄ n 2nx̄ n 2n n
2
= 2
− 3 = 2 − 3 = 2 − 2 = − 2 < 0,
∂θ θ=θ̂ θ θ θ=θ̂ x̄ x̄ x̄ x̄ x̄
pois, n > 0, x̄2 > 0. Assim, X̄ é o EMV para θ.
b) Encontre a Informação de Fisher e o Limite Inferior de Cramér-Rao (LICR) para θ.
Resposta
Sabendo que
∂2
I(θ) = Eθ − 2 log fX (x; θ) ;
∂θ
∂
2
∂θ
τ (θ)
LICR(θ) = ,
I(θ)
como calculado no item anterior,
∂2 ∂ 2 l(θ) n 2nx̄
2
log f X (x; θ) = 2
= 2− 3 ,
∂θ ∂θ θ θ
então, dado que E(X̄) = θ, a Informação de Fisher ca dada por
n 2nx̄ n 2nθ n 2n n
I(θ) = E − 2 + 3 = − 2 + 3 = − 2 + 2 = 2 .
θ θ θ θ θ θ θ
Como estamos calculando o LICR para θ, ∂θ∂ τ (θ) = 12 = 1, então,
2
1 θ2
LICR(θ) = n = .
θ2
n
4
c) Verique se o estimador de verossimilhança, θ̂, é o ENVUMV para θ.
Resposta
Se calcularmos a variância de um estimador não vieasado e esta coincidir com
LICR(θ), então o estimador é o ENVUMV para o parâmetro de interesse. Como
E(θ̂) = E(X̄) = θ, ou seja, ele é não-viesado, a primeira condição está satisfeita.
Calculando agora a variância, temos que
Pn
i=1 V ar(Xi ) nθ2 θ2
V ar(θ̂) = V ar(X̄) = = = .
n2 n2 n
com η = θ − 1, T (x) = ni=1 log(xi ), B(θ) = −n log(θ), h(x) = 1 e A = (0, 1)n . Como
P
θ > 0 → θ − 1 > −1 → η > −1, portanto o espaço natural contém
Pn intervalos e abertos e,
por isso, pertence à FE de posto completo, segue que T (x) = i=1 log(xi ) é suciente e
completa para θ.
4a ) (Questão 6)b),c) e d) item (2.4) Propriedades, lista B)
Considere uma a.a de tamanho n proviniente da P oisson(λ).
a) Demonstre que S = ni=1 Xi é estatística suciente, minimal e completa para λ.
P
Demonstre que e−S/n é o EMV para e−λ e que e−S/n não é o ENVUMV para e−λ .
Resposta
Colocando na Família Exponencial a distribuição conjunta, temos que
Pn n
!
−nλ xi
e λ i=1 X 1
P (X = x) = Qn I{0,1,2,... }n (x) = exp −nλ + xi log(λ) Qn I{0,1,2,... }n (x)
i=1 xi ! i=1 i=1 xi !
= exp (ηT (x) − B(θ)) h(x)IA (x),
5
invariância dos estimadores de MV,o EMV para e−λ é e−S/n . Como S = Xi ,
Pn
i=1
então S ∼ P oisson(nθ). Calculando a esperança de e−S/n , temos que
∞ ∞ ∞
X e−nλ (nλ)s X e−s/n (nλ)s X (e−1/n nλ)s
E(e−S/n ) = e−s/n = e−nλ = e−nλ
s=0
s! s=0
s! s=0
s!
−1/n nλ −1/n −n)
= e−nλ ee = eλ(ne ,
assim como a E(e−S/n ) é diferente de e−λ , então e−S/n é um estimador viesado para
e−λ e, portanto, não pode ser o ENVUMV.
b) Demonstre que E[I{X1 =0} (X1 )| ni=1 Xi = s] é o ENVUMV para e−λ ,onde I{X1 =0} (X1 ) =
P
1 se X1 = 0 e 0 em qualquer outro caso.
Resposta
Como mostrado no item anterior, ni=1 Xi é uma estatística suciente e completa, en-
P
tão precisamos apenas provar que I{X1 =0} (X1 ) é uma estimador não viesado para
Pn e ,
−λ
que através do Teorema de Lehmann-Schee ca provado que E[I{X1 =0} (X1 )| i=1 Xi =
s] é o ENVUMV de e−λ . Assim,
e−λ λ0
E[I{X1 =0} (X1 )] = P (X1 = 0) = = e−λ ,
0!
então ca provado que I{X1 =0} (X1 ) é não viesado e, portanto, E[I{X1 =0} (X1 )|
Pn
i=1 Xi =
s] é o ENVUMV de e−λ .
Como curiosidade o ENVUMV P ca calculado como:
Calculando E[I{X1 =0} (X1 )| ni=1 Xi = s], temos que
n
P (X1 = 0, ni=1 Xi = s) P (X1 = 0, ni=2 Xi = s)
X P P
E[I{X1 =0} (X1 )| Xi = s] = =
P ( ni=1 Xi = s) P ( ni=1 Xi = s)
P P
i=1
−(n−1)λ (n−1)s λs
e−λ λ e s! s!e−λ λe−(n−1)λ (n − 1)s λs
= e−nλ (nλ)s
=
s!e−nλ (nλ)s
s!s s
n−1 1
= = 1− .
n n