Escolar Documentos
Profissional Documentos
Cultura Documentos
Florianópolis, SC
2014
Mônica C. Sandoval, Silvia L. P. Ferrari e Heleno Bolfarine
Florianópolis, SC
2014
Prefácio
Os autores
Sumário
Introdução . . . . . . . . . . . . . . . . . . . 7
1 Conceitos Básicos . . . . . . . . . . . . . . . 9
1.1 Preliminares . . . . . . . . . . . . . . . . . . . 9
1.2 Modelos estatísticos . . . . . . . . . . . . . . . 18
1.3 Problemas estatísticos . . . . . . . . . . . . . 21
1.4 Amostras, estatísticas e estimadores . . . . . . 23
2 Estimação Pontual . . . . . . . . . . . . . . . 27
2.1 Estatísticas Suficientes . . . . . . . . . . . . . 27
2.2 Propriedades de estimadores . . . . . . . . . . 33
2.2.1 Estimador não viciado e erro quadrático médio 34
2.2.2 Estimadores eficientes . . . . . . . . . . . . . . 37
2.2.3 Estimadores Baseados em Estatísticas Suficientes 40
2.2.4 Estimadores consistentes . . . . . . . . . . . . 42
2.3 Estimadores de máxima verossimilhança . . . 42
2.3.1 Propriedades dos Estimadores de Máxima Ve-
rossimilhança . . . . . . . . . . . . . . . . . . 45
2.3.2 O Caso Multiparamétrico . . . . . . . . . . . . 48
3 Estimação Intervalar . . . . . . . . . . . . . . 51
3.1 Método da quantidade pivotal . . . . . . . . . 51
3.2 Intervalos para Populações Normais . . . . . . 54
3.2.1 O caso de uma única amostra . . . . . . . . . 54
3.2.2 Duas amostras independentes . . . . . . . . . 55
3.3 Intervalos de Confiança Aproximados . . . . . 57
Considerações Finais e Notas Bibliográficas . 59
Referências . . . . . . . . . . . . . . . . . . . 61
7
Introdução
1 Conceitos Básicos
1.1 Preliminares
f (xi ) = P[X = xi ], i = 1, 2, 3, . . . .
R∞
(b) −∞
f (x)dx = 1.
f (x) = P[X1 = x1 , X2 = x2 , . . . , Xn = xn ]
no caso discreto e
Z ∞
E[g(X)] = g(x)f (x)dx
−∞
E[X] = µ e Var[X] = σ 2 .
E[X] = Var[X] = θ.
1
f (y|ν) = y ν/2−1 e−y/2 , y > 0,
2ν/2 Γ(ν/2)
em que c(·) e d(·) são funções reais de θ, T (·) e S(·) são funções
reais de x e o conjunto A não depende de θ.
ou seja,
Z
exp{c(θ)T (x) + S(x)}dx = exp{−d(θ)},
A
20 Capítulo 1. Conceitos Básicos
1 n (x − µ)2 o n µ2 x2 √ o
f (x|µ)= √ exp − = exp µx− − −log 2π .
2π 2 2 2
Portanto, a distribuição da variável aleatória X pertence à fa-
mília exponencial unidimensional com
µ2
c(µ) = µ, d(µ) = − ,
2
x2 √
T (x) = x, S(x) = − − log 2π, A = <.
2
Definição 1.2.3. Dizemos que a distribuição da variável aleató-
ria (ou do vetor aleatório) X pertence à família exponencial de
dimensão k se a f.d.p. ou a f.p. de X é dada por
k
nX o
f (x|θ) = exp cj (θ)Tj (x) + d(θ) + S(x) , x ∈ A, (1.2)
j=1
1 Neste texto, log denota logaritmo na base e.
1.3. Problemas estatísticos 21
construído.
n n
e = med(X1 , . . . , Xn ), X = 1 1X
X
X b2 =
Xi , σ (Xi − X)2 ,
n i=1 n i=1
2 Estimação Pontual
P[X1 = x1 , . . . , Xn = xn |T = t] =
( Pn
0, se i=1 xi 6= t,
P[X1 =x1 ,...,Xn =xn ] , se Pn x = t. (2.1)
P[T =t] i=1 i
28 Capítulo 2. Estimação Pontual
Pn
Se i=1 xi = t, temos
P[X1 = x1 ] . . . P[Xn = xn ]
P[X1 = x1 , . . . , Xn = xn |T = t] = n t
n−t
t θ (1 − θ)
P[X1 = x1 ] . . . P[Xn = xn ]
P[X1 = x1 , . . . , Xn = xn |T = t] =
P[T = t]
t! 1
= ,
x1 !, . . . , xn ! nt
Pn
que é independente de θ. Portanto, i=1 Xi é uma estatística
suficiente para θ.
n
Y
L(θ; x) = f (xi |θ), θ ∈ Θ. (2.2)
i=1
Pθ [X = x] = h(x)gθ (T (x)).
30 Capítulo 2. Estimação Pontual
Como
(
0, se T (x) 6= t
P[X = x|T (X) = t] = Pθ [X=x,T (X)=t] , se T (x) = t,
Pθ [T (X)=t]
temos que, quando T (x) 6= t, Pθ [X = x|T (x) = t] = 0, que
é independente de θ e, portanto, (2.3) está verificada. Quando
T (x) = t,
Pθ [X = x, T (X) = t] Pθ [X = x]
Pθ [X = x|T (X) = t] = =
Pθ [T = t] Pθ [T = t]
h(x)gθ (t) h(x)
=P =P ,
{x;T (x)=t} h(x)gθ (t) {x;T (x)=t} h(x)
Pθ [X = x] = Pθ [X = x, T (x) = t]
= Pθ [X = x|T (x) = t]Pθ [T (X) = t] = h(x)gθ (t),
Pn
em que T ∗ (x) = ∗ ∗
i=1 T (xi ), c (θ) = c(θ), d (θ) = nd(θ) e
n
S ∗ (x) = i=1 S(xi ), que é da família exponencial unidimensio-
P
limn→∞ B[θ]
b = 0, para todo θ ∈ Θ.
e
n
1 X σ2
Var[X] = Var[Xi ] = .
n2 i=1 n
Note-se que
b = E[{(θb − E[(θ])
EQM[θ] b − θ)}2 ]
b + (E[θ]
b 2 ] + 2E[(θb − E[(θ])](E[
= E[(θb − E[(θ]) b b − θ)
θ]
b − θ)2
+ (E[θ]
b 2 ] + (E[θ]
= E[(θb − E[(θ]) b − θ)2
= Var[θ] b 2.
b + B[θ]
b = LI(θ) ,
E [θ]
Var[θ]
b
Assim,
" 2 #
(X − µ)2
∂ log f (X|µ) 1 1
E =E = 4 Var[X] = 2 .
∂µ σ4 σ σ
θb = E[S|T ] (2.9)
b ≤ Var[S],
Var[θ] para todo θ ∈ Θ.
Portanto, o estimador θ,
b que é baseado na estatística suficiente
T , é não viciado e apresenta variância menor (ou igual) que a
variância do estimador não viciado S. Desse modo, qualquer es-
timador S que não seja função de uma estatística suficiente pode
ser melhorado pelo procedimento (2.9).
Pn
a estatística T = i=1 Xi é suficiente para θ (Exemplo 2.1.2).
Consideremos
1, se X1 = 0,
S=
0, caso contrário.
Temos que E[S] = P[X1 = 0] = τ , ou seja, S é um estimador
não viciado de τ . Notemos que, para t = 0, 1, 2, ...,
Pn
P[ i=2 Xi = t]P[X1 = 0]
E[S|T = t] = P[X1 = 0|T = t] = Pn
P[ i=1 Xi = t]
t
e−(n−1)θ ((n − 1)θ)t −θ
t! n−1
= e = .
t! e−nθ (nθ)t n
Portanto,
Pni=1 Xi
n−1
τb =
n
é um estimador não viciado de τ e é melhor que o estimador S,
pois apresenta EQM menor.
Assim,
n n
!
X X
l(θ; x) = xi log θ + n− xi log(1 − θ).
i=1 i=1
b = X(1 − X).
g(θ)
b − g(θ) = 1
E[g(θ)] θ(1 − θ),
n
que decresce à medida que n aumenta.
g(µ) = Pµ [X ≤ 0] = Φ(−µ).
g(b
µ) = Φ(−X)
e
√ (g 0 (θ))2
a
b − g(θ)) ∼ N
n(g(θ) 0, , (2.13)
IF (θ)
a
em que ∼ indica distribuição assintótica. Em outras palavras, em
amostras grandes, os estimadores de máxima verossimilhança
de θ e de g(θ) têm distribuição aproximadamente normal, são
aproximadamente não viciados, e têm variâncias próximas dos
correspondentes limites inferiores das variâncias dos estimadores
não viciados. Portanto, em grandes amostras, os estimadores de
máxima verossimilhança são aproximadamente eficientes.
b = e−X .
g(θ)
Assim, a equação
n
∂l(µ, σ 2 ; x ) X (xi − µb)
=2 2
=0
∂µ i=1
2σ
50 Capítulo 2. Estimação Pontual
leva ao estimador µ
b = X. Logo, o logaritmo da função de veros-
similhança perfilada de σ 2 é dado por
n
n 1 X
g(σ 2 ; x) = − log(2πσ 2 ) − 2 (xi − x)2 .
2 2σ i=1
3 Estimação Intervalar
ny n−1
fY (y) = , y ∈ [0, θ].
θn
que
Z λ2
fQ (q)dq = γ = 1 − α.
λ1
o que leva a
α 1/n α 1/n
λ1 = e λ2 = 1 − .
2 2
Como
X(n) X(n) X(n)
P λ1 ≤ ≤ λ2 = P ≤θ≤ = 1 − α,
θ λ2 λ1
X −µ
Q(X, µ) = √ ∼ tn−1
S/ n
3.2. Intervalos para Populações Normais 55
(n − 1)S 2
Q(X, σ 2 ) = ∼ χ2n−1
σ2
e é, então, uma quantidade pivotal. Portanto, podemos determi-
nar λ1 e λ2 de modo que
(n − 1)S 2
P λ1 ≤ ≤ λ2 = γ.
σ2
em que
(n − 1)Sx2 + (m − 1)Sy2
Sp2 = ,
n+m−2
com
n m
1 X 1 X
Sx2 = (Xi − X)2 e Sy2 = (Yi − Y )2 .
n − 1 i=1 m − 1 i=1
De fato, como
(n − 1)Sx2 (m − 1)Sy2
∼ χ2n−1 e ∼ χ2m−1 ,
σ2 σ2
3.3. Intervalos de Confiança Aproximados 57
tória
b − g(θ) a
g(θ)
Q(X, g(θ)) = r ∼ N (0, 1), (3.5)
(g 0 (θ))
b 2
nIF (θ)b
X −θ a
Q(X, θ) = q ∼ N (0, 1).
X(1−X)
n
Referências