Você está na página 1de 50

Estatística 2022-2023

Licenciatura em Economia

Estimação pontual e intervalar

Patrícia Filipe e Jorge Sinval


Estimação Pontual

2 / 50
Estimação Pontual

Um Estimador Pontual é uma qualquer função que depende da


informação amostral (v.a.) cujas realizações pretendem fornecer um
valor aproximado para um determinado parâmetro populacional
desconhecido.
Denota-se usualmente por T (X1 , X2 , · · · , Xn ) = Tn = θ̂n o
estimador pontual do parâmetro θ.

Qualquer Estimador Pontual é uma Estatística, mas nem todas as


Estatísticas são Estimadores Pontuais.

3 / 50
Estimador versus Estimativa

Estimador
Um estimador é uma função da amostra aleatória (X1 , X2 , ..., Xn ).
Esta função não envolve parâmetros desconhecidos. Um estimador
é uma variável aleatória. Um parâmetro pode ter vários
estimadores.
Estimativa
Uma estimativa é o valor concreto assumido pelo estimador para
uma amostra em particular (x1 , x2 , ..., xn ). Para cada estimador
podemos obter várias estimativas, uma por cada amostra observada.

4 / 50
Por exemplo:

X ∼ N(µ, σ)
Θ = (θ1 , θ2 ) = (µ, σ), θ̂1 ≡ µ̂=? e/ou θ̂2 ≡ σ̂ =?

X ∼ B(1, p)
θ = p , θ̂ ≡ p̂ =?

X ∼ P(λ)
θ = λ, θ̂ ≡ λ̂=?

5 / 50
Alguns Estimadores Pontuais

Considerando uma amostra aleatória (X1 , X2 , · · · , Xn ).


I Estimador da média µ
n
1 X
µ̂ = X = Xi
n
i=1

I Estimador da variância σ 2
n
2 2 1
(Xi − X )2
X
σ̂ = S =
n−1
i=1

ou?

n
1
σ̃ 2 = (Xi − X )2
X
n
i=1

6 / 50
SejaX ∼ B(1, p) e (X1 , X2 , · · · , Xn ) uma amostra aleatória.
Pn
Y = Xi ∼ B(n, p)
i=1
I Estimador da proporção p
Y
P̂ = X̄ = n

é o estimador pontual do parâmetro p, quando a dimensão da


amostra (n) é conhecida.

7 / 50
Propriedades dos Estimadores

Quando podemos dizer que um estimador é um Bom estimador para


um dado parâmetro?

Existindo mais do que um estimador para um dado parâmetro, como


escolher o mais indicado?

O mais indicado é aquele que possui as melhores propriedades V


Vejamos as Propriedades dos Estimadores

8 / 50
Propriedades dos Estimadores

Propriedades exatas (qualquer que seja a dimensão da amostra):

1. Não enviesamento: o valor esperado do estimador coincide com o


parâmetro a estimar;

2. Eciência: sendo não enviesado, um estimador é tanto mais


eciente quanto menor a sua variância;

3. Suciência: o estimador retira da amostra toda a informação


relevante para a estimação do parâmetro.

Propriedades assintóticas (válidas para amostras sucientemente


grandes):

1. Não enviesamento assintótico: o valor esperado do estimador, à


medida que n aumenta, tende para o parâmetro a estimar;

2. Consistência: à medida que n aumenta, aproxima-se do valor do


parâmetro a estimar;

3. Eciência assintótica: sendo consistente, é tanto mais eciente


quanto menor for a variância;

9 / 50
Propriedades dos Estimadores - Não enviesamento

Seja X uma população caracterizada por um parâmetro θ,


(X1 , X2 , ..., Xn ) uma amostra aleatória dessa população e
θ̂ = θ̂ (X1 , X2 , ..., Xn ) um estimador de θ
h i
I θ̂ diz-se não enviesado ou centrado se E θ̂ = θ.
(Unbiased)
Se θ̂ não satisfaz a propriedade anterior diz-se enviesado (Biased)
ou nãoh icentrado
h i , e chama-se viés (Bias) do estimador θ̂ a
Vi és θ̂ = E θ̂ − θ.

Exemplos:
Seja X ∼ N (µ, σ) e (X1 , X2 , ..., Xn ) uma amostra aleatória dessa
população.
µ̂ = X̄ um estimador não enviesado para µ?
n
1
σ̂ 2 (Xi − X )2 é um estimador não enviesado para σ2 ?
P
= n−1
i=1
n
1
σ̃ 2 = (Xi − X )2 é σ2 ?
P
E um estimador não enviesado para
n
i=1

10 / 50
Propriedades dos Estimadores - Eciência

I Se θ̂ e θ̃ são dois estimadores centrados de θ. h i h i


O estimador θ̂ diz-se mais eciente do que θ̃ se Var θ̂ < Var θ̃
h i
Var θ̂
ou seja, se eciência relativa h i <1
Var θ̃

Exemplo:
Seja X ∼ N (µ, σ) e (X1 , X2 , ..., Xn ) uma amostra aleatória dessa
população.
n n
1 1
σ̂ 2 = (Xi − X )2 σ̃ 2 = (Xi − µ)2
P P
Sejam e dois estimadores
n−1 n
i=1 i=1
2
para σ . Qual o melhor?

11 / 50
Propriedades dos Estimadores - Suciência

I um estimador θ̂ diz-se suciente se retira da amostra toda a


informação, relevante para a estimação do parâmetro θ.
Esta propriedade diz respeito à capacidade do estimador condensar toda
a informação que a amostra contém sobre o parâmetro a estimar. Este
conceito aparentemente simples é na realidade tecnicamente complicado
de vericar, envolvendo a distribuição conjunta da amostra, condicionada
ao valor observado do estimador já não depender do parâmetro a estimar.
(não iremos aprofundar esta vericação)
No entanto, quando se observa que o estimador utiliza todos os
elementos da amostra aleatória, podemos dizer que este é suciente.
Como acontece, por exemplo, com

n n
1 1
σ̂ 2 = S 2 = (Xi − X )2
X X
µ̂ = X = Xi e
n n−1
i=1 i=1

X e S2 são estimadores sucientes para µ e σ2 , respetivamente.

12 / 50
Propriedades dos Estimadores - Não enviesamento assintótico

i não
I Um estimador θ̂n hdiz-se enviesado assintoticamente
quando, lim E θ̂n = θ
n→+∞
Exemplo:
Seja X ∼ N (µ, σ) e (X1 , X2 , ..., Xn ) uma amostra aleatória dessa
população.
n
1
σ̂ 2 = (Xi − X )2 é um estimador enviesado, mas é não
P
n
i=1
enviesado assintoticamente.

13 / 50
Propriedades dos Estimadores - Consistência

I Um estimador θ̂n diz-se consistente


h quando, para qualquer número
i
real ε > 0, se verica: lim P θ̂n − θ < ε = 1.
n→∞

Por outro lado, um estimador θ̂n diz-se consistente em média


quadrática se
 2  
Var θ̂n + Vi és 2 θ̂n = 0
h i h i
lim EQM = lim E θ̂n − θ = lim
n→∞ n→∞ n→∞

Se θ̂n é consistente em média quadrática então θ̂n é consistente.


As condições h i
i) lim E θ̂n = θ;
n→∞ h i
ii) lim Var θ̂n = 0.
n→∞

são sucientes para que θ̂n seja estimador consistente.

14 / 50
Propriedades dos Estimadores - Consistência

Exemplo:
Seja X ∼ B(1, p) e (X1 , X2 , ..., Xn ) uma amostra aleatória dessa
população. Considere o estimador

n−1
1 X
T = Xi
n
i=1

Este estimador é um estimador não enviesado e consistente para p?

15 / 50
Propriedades dos Estimadores - Eciência assintótica

I Um estimador θ̂n diz-se assintoticamente mais eciente se, de


entre estimadores consistentes em média quadrática, tiver variância
mínima.

Exemplo:
Seja X ∼ B(1, p) e (X1 , X2 , ..., Xn ) uma amostra aleatória dessa
população. Considere os estimadores para p
n−1 n
1 X 1 X
p̂ = Xi e p̃ = Xi
n n
i=1 i=1

Como os classica quanto à sua eciência?

16 / 50
Propriedades dos Estimadores - Exercício

Seja X uma variável aleatória que representa o número de avarias de um


dispositivo durante um período de tempo, que obedece a uma lei de
Poisson de parâmetro λ desconhecido. Para este parâmetro foram
sugeridos dois estimadores:

n
P
Xi
i=1 X1 + Xn
λ̂ = e λ̃ =
n 2

a) O que pode dizer para cada estimador, quanto à propriedade de não


enviesamento?

b) Deduza a variância para cada um deles.

c) Qual dos dois estimadores é mais eciente? Justique a sua escolha.

d) Os estimadores são consistentes?

17 / 50
Métodos de Estimação

Conhecidas algumas das propriedades mais desejadas para os estimadores


pontuais, como encontrar estimadores pontuais que sabemos à partida
vericarem algumas das propriedades que conduzem a um bom estimador
para determinado parâmetro?
Não existe um método único que permita especicar os melhores
estimadores para todas as situações. Existem vários métodos de
estimação.
Alguns dos métodos de estimação pontual mais conhecidos são:

I Método dos Momentos;


I Método da Máxima Verosimilhança;
I Método dos Mínimos Quadrados (usado, por exemplo, na Regressão
Linear)

18 / 50
Métodos de Estimação: Método dos momentos (Karl Pearson, 1902)

A ideia base do Método dos momentos é utilizar os momentos da


amostra para estimar os correspondentes momentos populacionais, e, a
partir daí, estimar os parâmetros.

Seja θ = (θ1 , θ2 , · · · , θk ) vetor de parâmetros populacionais a estimar.


O procedimento para aplicação do Método dos Momentos é o seguinte:

I Considerar todos os momentos populacionais (supondo que existem)


0
até à k-ésima ordem (µr = E [X r ] , 1 ≤ r ≤ k ).
I Escrever os seus correspondentes momentos amostrais
= n−1
0 Pn
(Mr i=1 Xir , 1 ≤ r ≤ k)
I Obter um sistema de k equações em ordem aos k parâmetros do
modelo.

I Resolver este sistema de equações, de onde se obtêm os k


estimadores dos parâmetros do modelo.

19 / 50
Um Exemplo

Seja (X1 , X2 , · · · , Xn ) uma a.a. de uma população N (µ, σ).

θ = (µ, σ 2 ); θ1 = µ e θ2 = σ 2

E [X ] = µ e E [X 2 ] = µ2 + σ 2

µ = n1 i=1 XP
 Pn 
i µ̂ = X

µ2 + σ 2 = n1 i=1 Xi2 b2 = n1 i=1 (Xi − X )2
n Pn
σ

n−1 2
µ̂ = X σ̂ 2 = n S

20 / 50
Método de Máxima Verosimilhança

O Método de Máxima Verosimilhança permite determinar, entre


todos os valores possíveis do(s) parâmetro(s) populacional(is), aqueles
que tornam mais provável (mais verosímil) a ocorrência de daquela
amostra em concreto.

Os estimadores de máxima verosimilhança gozam das propriedades


desejáveis num bom estimador, o que os coloca entre os mais
estimadores mais adequados:

I Nem sempre são não enviesados e ecientes, mas tendem a vericar


estas propriedades assintoticamente;

I São consistentes;

I Usualmente, seguem distribições assintoticamente normais;

I Possuem a propriedade de invariância, ou seja, se θ̂ é uma


estimativa de máxima verosimilhança de θ, então h(θ̂) é a
estimativa de maxima verosimilhança de h(θ), para uma função h
monótona contínua.

21 / 50
Método de Máxima Verosimilhança

Seja (X1 , X2 , ..., Xn ) uma amostra aleatória de uma população com


função (densidade) de probabilidade f (x; θ) , com θ a representar o vetor
dos k parâmetros que caracteriza a distribuição da população, ou seja,
θ = (θ1 , θ2 , ..., θk ). A função (densidade) de probabilidade conjunta das
variáveis aleatórias que constituem a amostra é dada por

n
Y
f (x1 , x2 , ..., xn ; θ) = f (xi ; θ) .
i=1

Observada uma amostra em concreto, x = (x1 , x2 , ..., xn ), a mesma


expressão interpretada como função do parâmetro θ e representada por

Qn
L (θ; x) = L (θ; x1 , x2 , ..., xn ) = i=1 f (xi ; θ)

é designada por função de verosimilhança.


O princípio de estimação de máxima verosimilhança consiste em escolher
para estimador de θ θ̂ = θ̂ (X1 , X2 , ..., Xn ) que maximiza
uma função a
função de verosimilhança L (θ; x). A θ̂ obtido através deste método
chamamos estimador de máxima verosimilhança de θ.
22 / 50
Método de Máxima Verosimilhança

Frequentemente torna-se mais conveniente trabalhar com o logaritmo da


função de verosimilhança - função de Log-verosimilhança
LL (θ; x) = ln L (θ; x) .

Como a função logaritmo é crescente, o maximizante da função de


verosimilhança coincide com o maximizante do logaritmo da função de
verosimilhança.

23 / 50
Método de Máxima Verosimilhança

Procedimento a seguir para obter o estimador de máxima verosimilhança:

1º Determinar a função de verosimilhança L (θ; x) ;


2º Aplicar a transformação logarítmica, se tal for necessário;

3º Determinar os pontos onde a primeira derivada de L (θ; x) ou de


ln L (θ; x), em ordem aos parâmetros a estimar, se anulam, ou seja,
procurar por soluções do sistema de equações

∂L(θ;x) ∂ ln L(θ;x)
 

 ∂θ1 =0 
 ∂θ1 =0

 

 
∂L(θ;x) ∂ ln L(θ;x)
 
∂θ2 =0 ou
∂θ2 =0
 

 ... 
 ...
 ∂L(θ;x)  ∂ ln L(θ;x)

 

∂θk =0 ∂θk =0

4º Vericar se a segunda derivada de L (θ; x) ou de ln L (θ; x), em


ordem aos parâmetros a estimar é negativa, para o ponto encontrado

∂ 2 L(θ̂;x) ∂ 2 ln L(θ̂;x)
∂θi2
<0 ou
∂θi2
< 0, para i = 1, 2, ..., k.

24 / 50
Método de Máxima Verosimilhança - Exercícios

1. Seja(X1 , X2 , ..., Xn ) uma amostra aleatória de uma população


Bernoulli (X ∼ B (1, p) , 0 < p < 1). Obtenha o estimador de
máxima verosimilhança do parâmetro p .

2. Dada(X1 , X2 , ..., Xn ) amostra aleatória de uma população Normal


2
com média
2
 µ e variância σ , determine um estimador para
θ = µ, σ , pelo método de máxima verosimilhança.

25 / 50
Método de Máxima Verosimilhança - Resolução dos Exercícios
1º A função de verosimilhança é dada por

n n
n
P P
x n− x
L (p; x1 , x2 , ..., xn ) =
Y
p i (1 − p)
x 1−xi = p i=1 i (1 − p) i=1 i ;
i=1

2º Aplicando a transformação logarítmica, obtemos


 n n   
n n
P P
 xi n− xi 
p i=1 (1 − p) i=1
 
xi  ln (1 − p) ;
X X
ln L (p; x1 , x2 , ..., xn ) = ln = xi ln (p) + n −
i=1 i=1

 

3º Calculamos a derivada da equação de log-verosimilhança em ordem a p ,


 
d ln L (p; x) 1 n n
1
0⇔ = 0.
X X
= xi − n − xi 
dp p i=1 i=1
1−p
Resolvendo esta equação obtemos
1 n
X
p̂ = xi
n i=1

4º Para vericar que se trata de um maximizante da função de verosimilhança calculamos a segunda


derivada de ln L em ordem a p:

d 2 ln L (p; x)
 
1 n n
1
< 0, ∀ p.
X X
=− xi − n − xi 
dp 2 p 2 i=1 i=1
(1 − p)2

Assim o estimador de máxima verosimilhança é dado por


1 n
X
p̂ = Xi = X .
n i=1
26 / 50
Método de Máxima Verosimilhança - Resolução dos Exercícios
1º Neste caso, tem-se
n
1 (xi − µ)2
( )
2
L µ, σ ; x
  Y
= √ exp − =
i=1 2πσ2 2σ 2
(xi − µ)2 
 
n/2

1  n
X
= exp − ,
2πσ2 
i=1
2σ2 

(xi − µ)2 
  
n/2
2
 1  n
ln L µ, σ ; x
  X
= ln exp − =
 2πσ2 
i=1
2σ2 
n 2
n
(xi − µ)2
n
− ln 2π − ln σ −
X
= .
2 2 i=1
2σ2

∂ ln L µ, σ 2 ; x
 
1 P

 n
0 (xi − µ) = 0


=
σ 2 i=1

 

 
∂µ
∂ ln L µ, σ 2 ; x
⇔ n 1 n
(xi − µ)2 =

0
P
 − +
 
0 2σ2 2 (σ2 )2 i=1

 
=

∂σ 2

 1
n
P
 µ̂ = xi = x̄


n i=1
⇔ 1 P n
 σ̂ 2 = (xi − x̄)2


n i=1

27 / 50
Método de Máxima Verosimilhança - Resolução dos Exercícios

4º Determinamos, agora, as segundas derivadas de ln L em ordem a cada um dos parâmetros

∂ 2 ln L µ, σ 2 ; x
 

= − n2 < 0, ∀ θ.
∂µ 2 σ
∂ 2 ln L µ, σ 2 ; x
 
n − 16
Pn 2 n 0
=
2σ 4 i=1 (xi − µ) θ=θ̂ = − 2σ̂ 4 <
∂ (σ 2 )2 σ
θ=θ̂

Logo,

1 n
X
µ̂ = Xi = X̄ .
n i=1

2 1 n
X 2 2
σ̂ = Xi − X̄ =S
n i=1

são os estimadores de máxima verosimilhança da média, µ, e da variância, σ2 , parâmetros da


distribuição Normal.

28 / 50
Estimação Intervalar

29 / 50
Estimação Intervalar

Na estimação pontual, pretende-se obter um valor que, com base


na informação amostral, seja o melhor valor para estimar um
determinado parâmetro populacional.

Na estimação intervalar constrói-se um intervalo de valores que,


com um certo grau de certeza, previamente estipulado, contenha o
verdadeiro valor do parâmetro.

30 / 50
Estimação Intervalar

Seja (X1 , X2 , ..., Xn ) uma amostra aleatória de uma determinada


população, e θ um parâmetro desconhecido. Podemos encontrar duas
estatísticas (v.a.) T1 = T1 (X1 , X2 , ..., Xn ) e T2 = T2 (X1 , X2 , ..., Xn ),
sendo T1 < T2 , tais que:

P [T1 < θ < T2 ] = 1 − α, com 0 <α<1

Seja t1 e t2 realizações amostrais especícas de T1 e T2 .


I ]t1 , t2 [ é chamado um intervalo de conança a 100(1 - α)% para
θ;
I 1 - α é o grau ou nível de conança do intervalo ]t1 , t2 [;
I para um elevado número de amostras da população, o parâmetro θ
deve estar contido em 100(1 - α)% dos intervalos calculados da
forma atrás descrita.

Os níveis de conança usuais são 90%, 95% e 99%

31 / 50
Método de construção do Intervalo de Conança

Construção através da Variável Fulcral


Construção do intervalo de conança para o parâmetro θ: consiste em
encontrar uma v.a. V (X1 , X2 , · · · , Xn , θ) cuja distribuição seja
independente de θ, e na obtenção de pontos a e b (independentes de θ)
tal que

P(a < V (X1 , X2 , · · · , Xn , θ) < b) = 1 − α, com 0 <α<1

e, posteriormente, rearranjar a expressão de forma a obter

P [T1 < θ < T2 ] = 1 − α, com 0 <α<1

Obtendo assim as expressões dos limites T1 e T2 do Intervalo de


Conança Aleatório a 100(1 - α)% para θ.

32 / 50
Intervalo de Conança para a Média

Seja(X1 , X2 , · · · , Xn ) uma a.a. de uma população N(µ, σ 2 ), com σ 2


conhecida. Dado α ∈ (0, 1), pretende-se construir um intervalo de
conança a (1 − α) × 100% para µ.
2
X ∼ N(µ, σn )

√ X −µ
Z= n ∼ N(0, 1) Z é uma variável fulcral para µ
σ

P(a < Z < b) = 1 − α ⇒ a = −z1− α2 e b = z1− α2

σ σ
P(X − z1− α2 √ < µ < X + z1− α2 √ ) = 1 − α
n n

33 / 50
Intervalo de Conança para a Média

 
σ σ
X − z1− α2 √ , X + z1− α2 √
n n

é o intervalo de conança a (1 − α) × 100% para µ.

O intervalo de conança para a média populacional µ é da forma:

 
X̄ − E , X̄ + E

onde E representa o erro da estimativa, margem de erro ou


semi-amplitude do intervalo. A amplitude do intervalo de conança é 2E .

34 / 50
Intervalo de Conança para a Média

Exemplo 1: Uma convicção generalizada entre as pessoas é que a


o
temperatura média do corpo humano é de 37 C. Através de estudos
anteriores podemos admitir que a temperatura do corpo humano segue
uma distribuição normal com variância 0.85
o
C 2. Foram observados 75
adultos sem problemas de saúde registando-se a temperatura do seu
o
corpo e vericando-se uma temperatura média de 36.8 C. Com base nos
valores observados e admitindo uma conança de 90%, acha que aquela
convicção é correta? Responda à questão admitindo agora 95% e 98% de
conança.

35 / 50
o

X - temperatura do corpo humano ( C ), X ∼ N (µ, 0.85)
n = 75, x̄ = 36.8o C
Para 90% de conança:
(1 − α = 0.9 ⇒ α = 0.1 ⇒ α
2 = 0.05 ⇒ 1− α
2 = 0.95)

 
σ σ
IC90% (µ) = x̄ − z0.95 √ ; x̄ + z0.95 √
n n
# √ √ "
0.85 0.85
= 36.8 − 1.645 √ ; 36.8 + 1.645 √
75 75

= ]36.8 − 0.1751; 36.8 + 0.1751[ = ]36.6249; 36.9751[

µ ∈ ]36.6249; 36.9751[ com 90% de conança. Logo, com 90% de


o
conança, podemos dizer que a convicção não está correta porque 37 C
não se encontra no intervalo.

IC95% (µ) = ]36.5913; 37.0087[

IC98% (µ) = ]36.5524; 37.0476[

o
Como 37 C está nos intervalos a 95% e 98% de conança, podemos
admitir que a convicção está correta para estes níveis de conança.
36 / 50
Um intervalo de conança deverá ser estimado de modo a possuir uma
amplitude pequena.
Como diminuir a amplitude do intervalo?

1. Ao diminuir a conança, diminui-se a amplitude do intervalo.


Pouco recomendável

2. Ao aumentar a dimensão da amostra, para uma conança xa,


diminui-se a amplitude do intervalo.

37 / 50
Intervalo de Conança para a Média

Seja (X1 , X2 , · · · , Xn ) uma a.a. de uma população N(µ, σ 2 ), com σ2


desconhecida.Dado α ∈ (0, 1), pretende-se construir um intervalo de
(1 − α) × 100% para µ.
conança a

I T = n X −µ
S ∼ t(n − 1)

S S
P(X − tn−1,1− α2 √ < µ < X + tn−1,1− α2 √ ) = 1 − α
n n

 
S S
X − tn−1,1− α2 √ , X + tn−1,1− α2 √
n n

é o intervalo de conança a (1 − α) × 100% para µ.



I Se n ≥ 30, Z = n X −µ
S ∼N(
˙ 0, 1)
 
S S
X − z1 − 2 √ , X + z1 − 2 √
α α
n n

é o intervalo de conança a (1 − α) × 100% para µ.


38 / 50
Intervalo de Conança para a Média

Exemplo 2: A procura diária de um determinado produto segue uma


distribuição Normal. A procura observada em 16 dias, seleccionados
aleatoriamente, foi em média 300 com desvio padrão de 20. Construa um
intervalo a 95% de conança para a média da procura diária.

X - procura diária do produto, X ∼ N (µ, σ)


n = 16, x̄ = 300, s = 20
Para 95% de conança:
(1 − α = 0.95 ⇒ α = 0.05 ⇒ α
2 = 0.025 ⇒ 1− α
2 = 0.975)

 
s s
IC95% (µ) = x̄ − t(15,0.975) √ ; x̄ + t(15,0.975) √
n n
 
20 20
= 300 − 2.131 √ ; 300 + 2.131 √
16 16
= ]300 − 10.655; 300 + 10.655[ = ]289.345; 310.655[

µ ∈ ]289.345; 310.655[ com 95% de conança.

39 / 50
Intervalo de Conança para a Variância

Seja (X1 , X2 , · · · , Xn ) uma a.a. proveniente de uma população Normal.

(n−1)S 2
χ2 = σ2 ∼ χ(n−1)

(n − 1)S 2
P(a < < b) = 1 − α
σ2
Resolvendo as desigualdades em ordem ao parâmetro de interesse resulta,

(n − 1)S 2 (n − 1)S 2
 
;
χ2n−1;1− α χ2n−1; α
2 2

é o intervalo de conança a (1 − α) × 100% para σ2 .

40 / 50
Intervalo de conança para a variância σ2

X ∼ N (µ, σ)

(n − 1) S 2 (n − 1) S 2
# "
2
IC100×(1−α)% (σ ) = ;
χ2n−1,1− α χ2n−1, α
2 2

Exemplo 2 (continuação): Construa um intervalo a 99% de conança


para a variância da procura diária.

41 / 50
X - procura diária do produto, X ∼ N (µ, σ)
n = 16, x̄ = 300, s = 20
Para 99% de conança:
(1 − α = 0.99 ⇒ α = 0.01 ⇒ α
2 = 0.005 ⇒ 1− α
2 = 0.995)

(n − 1) s 2 (n − 1) s 2
# "
2
IC99% (σ ) = ;
χ2(15,0.995) χ2(15,0.005)

15 × 20
2 15 × 202 
= ;
32.801 4.601

= ]182, 92; 1304, 06[

σ 2 ∈ ]182, 92; 1304, 06[ com 99% de conança.

42 / 50
Intervalo de Conança para a Proporção

Seja (X1 , X2 , · · · , Xn ) uma a.a. de uma população B(1, p), com p


parâmetro desconhecido. Dado α ∈ (0, 1), pretende-se construir um
intervalo de conança a (1 − α) × 100% para p .

Z= qP̂−p ∼N(
˙ 0, 1), n ≥ 30
p(1−p)
n

s s
 
P̂(1 − P̂) P̂(1 − P̂)
P P̂ − z1− α2 < p < P̂ + z1− α2 =1−α
n n

s s
 
P̂(1 − P̂) P̂(1 − P̂)
P̂ − z1− α2 , P̂ + z1− α2
n n

é o intervalo de conança a (1 − α) × 100% para p .


O intervalo anterior resulta apropriado para np̂ ≥ 10 e n(1 − p̂) ≥ 10.

43 / 50
Margem de Erro dos Intervalo de Conança

Margem de Erro do IC para µ


I σ2 σ
conhecida: m.e.=z1− α √
2 n

I σ2 S
desconhecida: m.e.=tn−1,1− α √
2 n

I σ2 desconhecida e n ≥ 30: S
m.e.=z1− α √
2 n

Margem de Erro do IC para p


q
p̂(1−p̂)
I m.e.= z1− α2 n

44 / 50
Margem de Erro dos Intervalo de Conança

Questões:
1. Qual a dimensão da amostra a considerar de modo a que a margem de
erro associada ao IC para µ (considerando σ2 conhecida e desconhecida)
seja inferior a k?

2. A mesma questão mas agora para o IC para p (considerando p̂


conhecido e desconhecido)?

45 / 50
Intervalo de Conança para a Diferença de Médias

Considere-se duas amostras de dimensões n1 e n2 de duas populações


independentes X1 e X2 com valores médiosµ1 e µ2 e variâncias σ12 e σ22 .
Admitamos que as duas populações são
2 2
normais e que σ1 e σ2 são
conhecidas.

s s
σ12 σ22 σ12 σ2
 
X1 − X2 − z1− α2 + ; X1 − X2 + z1− α2 + 2
n1 n2 n1 n2

é o intervalo de conança a (1 − α) × 100% para µ1 − µ2 com σ12 e σ22


são conhecidas.

46 / 50
Intervalo de Conança para a Diferença de Médias

Considere-se duas amostras de dimensões n1 e n2 de duas populações


independentes X1 e X2 com valores médiosµ1 e µ2 e variâncias σ12 e σ22 .
Admitamos que as duas populações são
2 2
normais e que σ1 e σ2 são
desconhecidas, mas σ12 = σ22 .
 
X1 − X2 − tn1 +n2 −2;1− α2 S ∗ ; X1 − X2 + tn1 +n2 −2;1− α2 S ∗

com
s
(n1 − 1)S12 + (n2 − 1)S22
r
∗ 1 1
S = +
n1 + n2 − 2 n1 n2

é o intervalo de conança a (1 − α) × 100% para µ1 − µ2 com σ12 e σ22


são desconhecidas.

47 / 50
Intervalo de Conança para a Diferença de Médias

Considere-se duas amostras de dimensões n1 e n2 de duas populações


independentes X1 e X2 com valores médiosµ1 e µ2 e variâncias σ12 e σ22 .
que σ12 e σ22 são desconhecidas, mas σ1 = σ22 e n1 ≥ 30 e n2 ≥ 30
2

s s
S12 S22 S12 S22
 
X1 − X2 − z1− 2
α + ; X1 − X2 + z1− 2
α +
n1 n2 n1 n2

é o intervalo de conança a (1 − α) × 100% para µ1 − µ2 com σ12 e σ22


são desconhecidas.

48 / 50
Intervalo de Conança para a Diferença de Proporções

Considere-se duas amostras de dimensões n1 e n2 de duas populações


Bernoulli independentes X1 e X2 , com p1 e p2 as probabilidades de
sucesso associadas às populações X1 e X2 , respetivamente.
Admitamos que n1 ≥ 30 e n2 ≥ 30.

 
Pˆ1 − Pˆ2 − z1− α2 P ∗ ; Pˆ1 − Pˆ2 + z1− α2 P ∗

com
s
Pˆ1 (1 − Pˆ1 ) Pˆ2 (1 − Pˆ2 )
P∗ = +
n1 n2

é o intervalo de conança a (1 − α) × 100% para p1 − p2 .

49 / 50
Intervalo de Conança para a Comparação de Variâncias

Considere-se duas amostras de dimensões n1 e n2 de duas


populações normais independentes X1 e X2 , com σ12 e σ22 as
variâncias populacionais (desconhecidas).

1 S12 1 S12
 
;
Fn1 −1,n2 −1;1− α2 S22 Fn1 −1,n2 −1; α2 S22

σ12
é o intervalo de conança a (1 − α) × 100% para σ22
.

50 / 50

Você também pode gostar