Escolar Documentos
Profissional Documentos
Cultura Documentos
1. Distribuição Amostral
1
Agora, calcula-se a variância:
𝑛
1 1
𝑉𝑎𝑟(𝑋̅) = ∑(𝑋𝑖 − 𝑋̅)2 = (𝑋1 − 𝑋̅)2 + (𝑋1 − 𝑋̅)2 + ⋯ + (𝑋𝑛 − 𝑋̅)2
𝑛 𝑛
𝑖=1
1
𝑉𝑎𝑟(𝑋̅) = [(2,0 − 3,5)2 + (2,5 − 3,5)2 + ⋯ + (5,0 − 3,5)2 ]
𝑛
𝑉𝑎𝑟(𝑋̅) = 0,625
𝑉𝑎𝑟(𝑋)
Sendo assim, 𝑉𝑎𝑟(𝑋̅) = 𝑛 , em que 𝑛 é o tamanho das amostras retiradas
𝑉𝑎𝑟(𝑋) 1,25
𝑉𝑎𝑟(𝑋̅) = = = 0,625
𝑛 2
𝑋𝑖 ~𝑁𝑜𝑟𝑚𝑎𝑙(𝜇, 𝜎 2 ), 𝑖 = 1, ⋯ , 𝑛;
μ𝑋̅ = 𝐸[𝑋̅] = μ;
1 2
σ𝑋2̅ = 𝑉𝑎𝑟[𝑋̅] = σ .
𝑛
2
média 𝜇 e variância 𝜎 2 , a média amostral 𝑋̅ também terá distribuição Normal,
𝜎2
com média 𝜇 e variância . Ou seja:
𝑛
𝜎2 𝑋̅ − 𝜇
𝑋̅~𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, ) ⟹ 𝑍 = 𝜎 ~𝑁𝑜𝑟𝑚𝑎𝑙(0, 1).
𝑛
√𝑛
𝜎 𝑁−𝑛
σ𝑋2̅ = √ .
√𝑛 𝑁 − 1
𝑁−𝑛
Onde √𝑁−1 é o fator de correção para população finita.
3
não é especificado), então a média amostral 𝑋̅ também terá distribuição
σ2
Normal, com média 𝜇 e variância , ou seja:
𝑛
𝜎2 𝑋̅ − 𝜇
𝑋̅~𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, ) ⟹ 𝑍 = 𝜎 ~𝑁𝑜𝑟𝑚𝑎𝑙(0, 1).
𝑛
√𝑛
Vídeo 1:
4
Vídeo 2:
Exercício 2 (Lista 1): Supõe-se que o consumo mensal de água por residência
em um certo bairro mineiro tem distribuição normal com média 10 e desvio
padrão 2 (em 𝑚3 ). Para uma amostra de 25 dessas residências, qual é a
probabilidade de a média amostral não se afastar da verdadeira média por
mais de 1 𝑚3 ?
5
1.3. Distribuição Amostral da Proporção
𝑌1 + 𝑌2 + ⋯ + 𝑌𝑛 ∑𝑛𝑖=1 𝑌𝑖
𝑝̂ = = = 𝑌̅.
𝑛 𝑛
μ𝑝̂ = 𝐸[𝑝̂ ] = 𝑝;
𝑝(1 − 𝑝)
σ2𝑝̂ = 𝑉𝑎𝑟[𝑝̂ ] = ;
𝑛
𝑝(1 − 𝑝) 𝑝̂ − 𝑝
𝑝̂ ~𝑁𝑜𝑟𝑚𝑎𝑙 (𝑝, )⟹𝑍= ~𝑁𝑜𝑟𝑚𝑎𝑙(0, 1).
𝑛 𝑝(1−𝑝)
√
𝑛
6
Exemplo: Em uma população, a proporção de pessoas favoráveis a uma
determinada lei é de 40%. Retira-se uma amostra de 300 pessoas dessa
𝑝(1−𝑝) 0,40(1−0,40)
Dado que 𝑛 = 300 e 𝑝 = 0,40, então σ𝑝̂ = √ =√ = 0,0283. Tem-
𝑛 300
se que Z2,5% = 1,96, então:
𝑥 8 𝑝̂(1−𝑝̂) 0,02(1−0,02)
Dado que 𝑛 = 400 e 𝑝̂ = 𝑛 = 400 = 0,02, então σ𝑝̂ ≈ √ =√ =
𝑛 400
0,007. Tem-se que Z0,5% = 2,57, então:
7
1.4. Distribuição t-Student
𝑋̅ − 𝜇
𝑠 ~𝑡𝑛−1
√𝑛
𝑋̅ − 𝜇
⟹ 𝑠 ~𝑡𝑛−1 .
√𝑛
𝑝+1
𝛤( 1) 1
2
𝑓𝑇 (𝑡) = 𝑝 1⁄2 2 (𝑝+1)⁄2
, −∞ ≤ 𝑡 < ∞.
𝛤 (2) (𝑝𝜋) (1 + 𝑡 ⁄𝑝)
8
Observação: A distribuição de Cauchy é um caso particular da distribuição 𝑡 −
𝑆𝑡𝑢𝑑𝑒𝑛𝑡.
9
Exemplo: Seja 𝑋1 , 𝑋2 , ⋯ , 𝑋25 uma amostra aleatória de uma variável aleatória 𝑋
tal que 𝑋~𝑁𝑜𝑟𝑚𝑎𝑙(80, σ2 ). Dada a variância amostral 𝑆 2 = 26 e por meio da
distribuição 𝑡 − 𝑆𝑡𝑢𝑑𝑒𝑛𝑡 pode-se calcular:
83−80
a. 𝑃(𝑋̅ > 83) = 𝑃 (𝑡24 > 26 ) = 𝑃(𝑡24 > 2,94) = 0,003577 (𝐸𝑥𝑐𝑒𝑙);
√
25
82−80
b. 𝑃(𝑋̅ < 82) = 𝑃 (𝑡24 < 26 ) = 𝑃(𝑡24 < 1,96) = 0,969147 (𝐸𝑥𝑐𝑒𝑙);
√
25
26 26
c. 𝑃(μ𝑋̅ − 2 σ̂𝑋̅ < 𝑋̅ < μ𝑋̅ + 2 σ̂) ̅
𝑋̅ = 𝑃 (80 − 2√25 < 𝑋 < 80 + 2 √25)
77,96 − 80 82,04 − 80
⟹ 𝑃(77,96 < 𝑋̅ < 82,04) = 𝑃 < 𝑡24 <
26 26
√ √
( 25 25 )
10
2. Métodos de Estimação
Métodos de estimação são métodos constituídos para se obter estimadores
para os parâmetros. Desta forma, define-se como estimadores e parâmetros:
𝜇𝑟 = 𝐸[𝑋𝑖𝑟 ];
𝜇𝑟 = 𝑚𝑟 .
Exemplo: Seja {𝑋𝑖 }𝑛𝑖=1 ~𝑁(𝜃; 𝜎 2 ), quer dizer, seja 𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 uma amostra
aleatória de uma população Normal com média 𝜃 e variância 𝜎 2 . Tem-se ainda
que 𝐸[𝑋] = 𝜃 e 𝑉𝑎𝑟[𝑋] = 𝜎 2 . Pelos métodos dos momentos, os estimadores de
1
𝜃 e 𝜎 2 são, respectivamente, 𝑋̅ e 𝑛 ∑𝑛𝑖=1(𝑋𝑖 − 𝑋̅)2 .
1 −𝑥⁄𝛽
f(𝑥|𝛽) = 𝑒 ; 0 ≤ 𝑥 < ∞; 𝛽 > 0.
𝛽
Exercício: Seja {𝑋𝑖 }𝑛𝑖=1 ~𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆), quer dizer, seja 𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 uma amostra
aleatória de uma população Poisson com parâmetro 𝜆 e função de
probabilidade:
𝑒 −𝜆 𝜆𝑥
P(𝑋 = 𝑥|𝜆) = ; 𝑥 = 0, 1, ⋯ ; 0 ≤ 𝜆 < ∞.
𝑥!
𝜇 = 𝑚 ⇒ 𝜆̂ = 𝑋̅;
Exercícios 6 (Lista 1): Seja {𝑋𝑖 }𝑛𝑖=1 ~𝐺𝑎𝑚𝑎(𝛼; 𝛽), quer dizer, seja 𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛
uma amostra aleatória de uma população Gama com parâmetro de forma 𝛼 e
parâmetro de escala 𝛽 e função de densidade de probabilidade:
12
1
f(𝑥|𝛼, 𝛽) = 𝑥 α−1 𝑒 −𝑥⁄𝛽 ; 0 ≤ 𝑥 < ∞; α, 𝛽 > 0.
Γ(α)𝛽α
Exercício 7 (Lista 1): Seja {𝑋𝑖 }𝑛𝑖=1 ~𝐵𝑖𝑛𝑜𝑚𝑖𝑎𝑙(𝑛; 𝑝), quer dizer, seja 𝑋1 ,
𝑋2 , ⋯ , 𝑋𝑛 uma amostra aleatória de uma população Binomial com parâmetros 𝑛
e 𝑛 e função de probabilidade:
𝑛
P(𝑋 = 𝑥|𝑛, 𝑝) = ( ) 𝑝 𝑥 (1 − 𝑝)𝑛−𝑥 ; 𝑥 = 0, 1, ⋯ , 𝑛; 0 < 𝑝 < 1.
𝑥
13
Definição: O EMV de 𝜃 é o valor 𝜃̂ ∈ Θ que maximiza a função de
verossimilhança 𝐿(𝜃; 𝒙). O logarítmo natural da função de verossimilhança de 𝜃
é denotado por:
É fácil ver que o valor de 𝜃 que maximiza a função de verossimilhança 𝐿(𝜃; 𝒙),
também maximiza 𝑙(𝜃; 𝒙).
𝜕𝑙(𝜃; 𝒙)
𝑙 ′ (𝜃; 𝒙) = = 0.
𝜕𝜃
Denota-se por função escore a 𝑙 ′ (𝜃; 𝒙). Para se concluir que a solução dessa
equação é ponto de máximo, é necessário verificar se:
̂ ;𝒙)
′ ′(𝜃
𝜕 2 𝑙(𝜃; 𝒙)
𝑙 = | < 0.
𝜕𝜃 2 𝜃=𝜃̂
Observações:
14
𝑛
1
𝑙(𝜃; 𝒙) = 𝑙𝑛𝐿(𝜃; 𝒙) = −𝑛𝑙𝑛√2𝜋 − ∑(𝑥𝑖 − 𝜃)2 ,
2
𝑖=1
𝑛 𝑛
𝜕𝑙(𝜃; 𝒙)
𝑙 ′ (𝜃; 𝒙) = = 0 ⟹ ∑(𝑥𝑖 − 𝜃̂) = 0 ⟹ ∑ 𝑥𝑖 = 𝑛𝜃̂ ⟹ 𝜃̂ = 𝑋̅.
𝜕𝜃
𝑖=1 𝑖=1
2
𝜕 𝑙(𝜃;𝒙)
Dado que 𝑙′′(𝜃̂; 𝒙) = 𝜕𝜃2 | = −𝑛 < 0, pode-se concluir que 𝜃̂ = 𝑋̅ é o EMV
̂
𝜃=𝜃
de 𝜃.
2
𝜕 𝑙(𝜃;𝒙)
Dado que 𝑙′′(𝜃̂; 𝒙) = 𝜕𝜃2 | < 0, pode-se concluir que 𝜃̂ = 𝑋̅ é o EMV de 𝜃.
̂
𝜃=𝜃
15
Sejam 𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 uma amostra aleatória da variável aleatória 𝑋 com função
de densidade (ou de probabilidade) 𝑓(𝑥|𝜃),com 𝜃 ∈ Θ. Seja 𝑇 = 𝑇(𝑋1 ,
𝑋2 , ⋯ , 𝑋𝑛 ) uma estatística suficiente para 𝜃. Então o EMV 𝜃̂ (se existir) é função
de 𝑇.
1
√𝑛(𝜃̂ − 𝜃)~𝑁𝑜𝑟𝑚𝑎𝑙 (0, ),
𝐼𝐹 (𝜃)
2
(𝑔′(𝜃))
√𝑛 (𝑔(𝜃̂) − 𝑔(𝜃)) ~𝑁𝑜𝑟𝑚𝑎𝑙 (0, ) (𝑀é𝑡𝑜𝑑𝑜 𝐷𝑒𝑙𝑡𝑎),
𝐼𝐹 (𝜃)
𝜕𝑙(𝜃;𝒙) 2 𝜕2 𝑙(𝜃;𝒙)
onde 𝐼𝐹 (𝜃) = 𝐸 [( ) ] = 𝐸 [− ].
𝜕𝜃 𝜕𝜃2
16
𝜕𝑓(𝑥 |𝜃 ) 𝜕2 𝑓(𝑥 |𝜃 )
As condições de regularidade são: As funções e existem em
𝜕𝜃 𝜕𝜃2
𝜕𝑓(𝑥 |𝜃 ) 𝜕2 𝑓(𝑥 |𝜃 )
a. | | ≤ 𝐻1 (𝑥) e | | ≤ 𝐻2 (𝑥), onde ∫ℝ 𝐻𝑗 (𝑥)𝑑𝑥 < ∞ , 𝑗 = 1,2;
𝜕𝜃 𝜕𝜃2
2
𝜕𝑙𝑛𝑓(𝑥 |𝜃 ) 𝜕2 𝑙𝑛𝑓(𝑥 |𝜃 )
b. 0 < 𝐼𝐹 (𝜃) = 𝐸 [( ) ] = 𝐸 [− ] < ∞;
𝜕𝜃 𝜕𝜃2
𝜕2 𝑙𝑛𝑓(𝑥 |𝜃 + ℎ) 𝜕2 𝑙𝑛𝑓(𝑥 |𝜃 )
c. 𝐸 {𝑠𝑢𝑝{ℎ:|ℎ|≤𝛿} | − |} = 𝜓𝛿 → 0.
𝜕𝜃2 𝜕𝜃2 𝛿⟶0
𝜕 2 𝑙(𝜃; 𝒙) 𝜕2 𝑒 −𝜃 𝜃 𝑥 𝜕 𝑥 𝑥
𝐼𝐹 (𝜃) = 𝐸 [− 2
] = 𝐸 [− 2
𝑙𝑛 ( )] = 𝐸 [− (−1 + )] = 𝐸 [ 2 ]
𝜕𝜃 𝜕𝜃 𝑥! 𝜕𝜃 𝜃 𝜃
1
= .
𝜃
𝑌𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 ; 𝜀𝑖 ~𝑁𝑜𝑟𝑚𝑎𝑙(0; 𝜎 2 ).
𝑛
𝜕 2
∑(𝑌𝑖 − (𝛽0 + 𝛽1 𝑥𝑖 )) = 0
𝜕𝛽1
𝑖=1
𝑛 𝑛
𝜕 2
̂0 + 𝛽
∑(𝑌𝑖 − (𝛽0 + 𝛽1 𝑥𝑖 )) = 0 ⟹ 2 ∑ (𝑌𝑖 − (𝛽 ̂1 𝑥𝑖 )) (−𝑥𝑖 ) = 0
𝜕𝛽1
𝑖=1 𝑖=1
Portanto:
∑𝑛𝑖=1 𝑌𝑖 (𝑥𝑖 − 𝑥̅ )
̂1 =
𝛽 ̂0 = 𝑌̅ − 𝛽
;𝛽 ̂1 𝑋̅.
∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2
18
Ressalta-se que a estimativa do parâmetro 𝜎 2 não pode ser obtida por este
método e o estimador utilizado é:
𝑛
̂2 = 1 2
𝜎 ̂0 + 𝛽
∑ (𝑌𝑖 − (𝛽 ̂1 𝑥𝑖 )) .
𝑛−2
𝑖=1
𝑌𝑖 = 10𝛽𝑥𝑖 + 𝜀𝑖 ; 𝜀𝑖 ~𝑁𝑜𝑟𝑚𝑎𝑙(0; 𝜎 2 ).
19
𝐿𝑖𝑚𝑛→∞ 𝐸[θ̂] = θ.
1 1
𝑓(𝑥|𝜇, 𝜎 2 ) = 𝑒𝑥𝑝 {− 2
(𝑥 − 𝜇)2 } ; −∞ ≤ 𝑥 < +∞; −∞ < 𝜇 < +∞; 𝜎 2
√2𝜋𝜎 2 2𝜎
> 0; 𝐸[𝑋] = 𝜇; 𝑉𝑎𝑟[𝑋] = 𝜎 2 .
respeito a 𝜎 2 .
20
𝑛 𝑛
1 𝑛 1
𝐸[𝑆 2]
= 𝐸[ ∑(𝑋𝑖 − 𝑋̅)2 ] = 𝐸 [ ∑(𝑋𝑖 − 𝑋̅)2 ]
𝑛−1 𝑛𝑛 −1
𝑖=1 𝑖=1
𝑛 𝑛
𝑛 1 𝑛 1
= 𝐸[ ∑(𝑋𝑖 − 𝑋̅)2 ] = 𝐸 [ ∑(𝑋𝑖 − 𝑋̅)2 ]
𝑛 − 1𝑛 𝑛−1 𝑛
𝑖=1 𝑖=1
𝑛 𝑛−1 2
= 𝜎 = 𝜎2;
𝑛−1 𝑛
Portanto, conclui-se que 𝑆 2 é um estimador não viciado com respeito a 𝜎 2 .
21
𝑛 𝑛 𝑛 𝑛
1 1 1 1 1
𝑉𝑎𝑟[𝑋̅] = 𝑉𝑎𝑟 [ ∑ 𝑋𝑖 ] = 2 𝑉𝑎𝑟 [∑ 𝑋𝑖 ] = 2 ∑ 𝑉𝑎𝑟[𝑋𝑖 ] = 2 ∑ σ2 = 2 𝑛σ2
𝑛 𝑛 𝑛 𝑛 𝑛
𝑖=1 𝑖=1 𝑖=1 𝑖=1
1 2
= σ ⟹ 𝐿𝑖𝑚𝑛→∞ 𝑉𝑎𝑟[𝑋̅] = 0;
𝑛
Portanto, conclui-se que 𝑋̅ é um estimador consistente.
Pode-se demonstrar, por meio da Desigualdade de Chebyshev, que 𝑋̅ é um
estimador consistente:
σ2⁄ σ2 σ2
𝑛
𝑃[|𝑋̅ − μ| > 𝜀] ≤ 2 = 2 ⟹ 𝐿𝑖𝑚𝑛→∞ 2 = 0 ⟹ 𝐿𝑖𝑚𝑛→∞ 𝑃[|𝑋̅ − μ| > 𝜀] = 0.
𝜀 𝑛𝜀 𝑛𝜀
Portanto, conclui-se, mais uma vez, que 𝑋̅ é um estimador consistente.
𝑋(1) + 𝑋(𝑛) 1 1 1
𝑉𝑎𝑟[PM] = 𝑉𝑎𝑟 [ ] = 2 𝑉𝑎𝑟[𝑋(1) + 𝑋(𝑛) ] = 𝑉𝑎𝑟[𝑋(1) ] + 𝑉𝑎𝑟[𝑋(𝑛) ]
2 2 4 4
1 1 1
= 𝜎 2 + 𝜎 2 = 𝜎 2 ⟹ 𝐿𝑖𝑚𝑛→∞ 𝑉𝑎𝑟[PM] ≠ 0;
4 4 2
Portanto, conclui-se que PM não é um estimador consistente.
22
Teorema (Desigualdade de Cramér Rao)1. Quando as condições de
regularidade estão satisfeitas, a variância de qualquer estimador não viciado θ̂
do parâmetro θ satisfaz a desigualdade:
1
𝑉𝑎𝑟[θ̂] ≥ ;
𝑛𝐼𝐹 (θ)
𝜕𝑙(𝜃;𝒙) 2 𝜕2 𝑙(𝜃;𝒙)
Onde 𝐼𝐹 (𝜃) = 𝐸 [( ) ] = 𝐸 [− ].
𝜕𝜃 𝜕𝜃2
𝐵𝑒𝑟𝑛𝑜𝑢𝑙𝑙𝑖(𝜃) θ̂ = 𝑋̅
𝑛
1
𝑁𝑜𝑟𝑚𝑎𝑙(𝜇; 𝜎 2 ) 𝜇̂ = 𝑋̅; 𝑆 2 = ∑(𝑋𝑖 − 𝑋̅)2
𝑛−1
𝑖=1
𝑛+1
𝑈𝑛𝑖𝑓𝑜𝑟𝑚𝑒(𝜃) θ̂ = 𝑚𝑎𝑥(𝑋𝑖 )
𝑛
𝑃𝑜𝑖𝑠𝑠𝑜𝑛(𝜆) 𝜆̂ = 𝑋̅
𝐸𝑥𝑝𝑜𝑛𝑒𝑛𝑐𝑖𝑎𝑙(𝛽) 𝛽̂ = 𝑋̅
1
Não é necessário.
2
Não é necessário.
3
Não é necessário.
23
Um estimador θ̂ é denotado Best Linear Unbiased Estimator – BLUE se for um
estimador linear e ENVVMU.
Exercício 11 (Lista 1): Suponha que você vai realizar um levantamento para
estimar a proporção de crianças matriculadas em um programa de saúde
infantil em uma determinada comunidade.
Criança Matriculada Y
1 Não 0
2 Sim 1
3 Sim 1
4 Não 0
5 Não 0
6 Sim 1
4. Estimação intervalar
24
parâmetros pode ser realizada por meio de estimação pontual ou estimação
por intervalo.
Estimação Intervalar
É intervalar quando se estabelece um intervalo que contém, com uma
determinada probabilidade pré-estabelecida, o verdadeiro valor do parâmetro
desconhecido.
25
✓ O intervalo [a, b] é chamado intervalo de confiança para θ.
✓ a e b são chamados “limite inferior” e “limite superior” do intervalo de
confiança para θ.
✓ A probabilidade (1 − α) = 100(1 − α)% é chamada coeficiente de
confiança.
✓ A probabilidade α é chamada nível de significância.
𝑝(1−𝑝) 0,40(1−0,40)
Dado que 𝑛 = 300 e 𝑝 = 0,40, então σ𝑝̂ = √ =√ = 0,0283. Tem-
𝑛 300
se que Z2,5% = 1,96, então:
26
𝑥 8 𝑝̂(1−𝑝̂) 0,02(1−0,02)
Dado que 𝑛 = 400 e 𝑝̂ = 𝑛 = 400 = 0,02, então σ𝑝̂ ≈ √ =√ =
𝑛 400
0,007. Tem-se que Z0,5% = 2,57, então:
𝜎 2 𝑋̅ −𝜇
Pelo TCL tem-se que 𝑋̅~𝑁𝑜𝑟𝑚𝑎𝑙 (𝜇, 𝑛 ) ⟹ 𝑍 = 𝜎 ~𝑁𝑜𝑟𝑚𝑎𝑙(0, 1), então:
√𝑛
𝑃(−𝑧𝛼⁄2 ≤ 𝑍 ≤ +𝑧𝛼⁄2 ) = 1 − 𝛼
𝑋̅ − 𝜇
𝑃 (−𝑧𝛼⁄2 ≤ ≤ +𝑧𝛼⁄2 ) = 1 − 𝛼
𝜎 ⁄ √𝑛
𝜎
𝑃 (−𝑧𝛼⁄2 − 𝑋̅ ≤ −𝜇
√𝑛
𝜎
≤ +𝑧𝛼⁄2 − 𝑋̅)
√𝑛
=1−𝛼
𝜎 𝜎
𝑃 (𝑋̅ − 𝑧𝛼⁄2 ≤ 𝜇 ≤ 𝑋̅+𝑧𝛼⁄2 )
√𝑛 √𝑛
= 1−𝛼
27
Observação:
𝜎
1. Denota-se 𝐸 = 𝑋̅ − 𝜇 = 𝑧𝛼⁄2 por erro padrão ou erro de estimação;
√𝑛
28
𝜎 𝑁 − 𝑛 √400 1000 − 25
σ𝑋̅ = √ = √ = 3,95
√𝑛 𝑁 − 1 √25 1000 − 1
𝑧2,5% = ±1,96
𝜎 𝑁−𝑛 𝜎 𝑁−𝑛
𝑃 (𝑋̅ − 𝑧𝛼⁄2 √ ≤ 𝜇 ≤ 𝑋̅+𝑧𝛼⁄2 √ )= 1−𝛼
√𝑛 𝑁 − 1 √𝑛 𝑁 − 1
𝜎 𝑁−𝑛
𝑀𝑎𝑟𝑔𝑒𝑚 𝑑𝑒 𝐸𝑟𝑟𝑜 = 𝑧𝛼⁄2 √ = 1,96 × 3,95 = 7,742.
√𝑛 𝑁 − 1
OBS.: Mais exercícios podem ser encontrados nos livros de Triola (1999) e
Bussab e Morettin (2010).
BIBLIOGRAFIA
CASELLA, G., & BERGER, R. L. (2002). Statistical inference (Vol. 2). Pacific
Grove, CA: Duxbury.
29
BUSSAB, W. e MORETTIN, P. (2010) Estatística Básica. Editora Saraiva.
30