Você está na página 1de 63

Estatística Aplicada (lic.

CA)
1

INFERÊNCIA ESTATÍSTICA
ESTIMAÇÃO PARAMÉTRICA

PARTE 1
Estatística Aplicada (lic. CA)
2

POPULAÇÃO
obtenção de uma AMOSTRA (recolha de parte dos elementos da população)
conjunto de elementos com uma característica
comum, cujo comportamento é desconhecido.

ESTATÍSTICA DESCRITIVA:
organização do conjunto de dados concretos observados e a
sua redução a parâmetros descritivos, evidenciando os
aspetos mais importantes do seu comportamento.

INFERÊNCIA ESTATÍSTICA:
Estender à população (utilizando técnicas estatísticas convenientes), as conclusões tiradas sobre o comportamento
dos elementos da amostra, formulando proposições gerais que levem à escolha de uma família de modelos
probabilísticos que descreva o fenómeno aleatório em estudo e à estimação de valores plausíveis para os
parâmetros que os caracterizam. O modelo resultante deve ser validado, minimizando, assim, o risco
associado à generalização, para a população, do comportamento da amostra.
(aplicação da Teoria da Probabilidade)
Estatística Aplicada (lic. CA)
3

Exemplo.
Um dado restaurante está aberto todos os dias e, no seu plano semanal, há um item referente ao
número de copos partidos diariamente.
Quantos copos é mais provável partirem-se num dia?
(Admita que o número de copos partidos num dia segue uma distribuição de Poisson.)

População:
v.a. X – “número de copos partidos no restaurante, em 1 dia”, x = 0, 1, 2, …
X ~ Po( ),  =  ,  =  ; P(X = x) = e 
2 − λ  x
, x = 0, 1, 2, …
x!
Para responder à pergunta “Quantos copos é mais provável partirem-se num dia?”, ou seja,
x = ? tal que P(X = x) é máxima,
é necessário saber o valor do parâmetro  .
Como , na distribuição de Poisson, é coincidente com o valor médio da v.a., , recolhendo informação sobre a
quantidade de copos partidos diariamente, poder-se-á, através do número médio de copos partidos observado num
dia, estimar o valor de .
(continua)
Estatística Aplicada (lic. CA)
4

v.a. X – “número de copos partidos no restaurante, em 1 dia”, x = 0, 1, 2, … ; X ~ Po( ),  =  ,  2 = 


−λ x
x = ? tal que P(X = x) é máxima P(X = x) = e  , x = 0, 1, 2, …
x!
No último registo sobre o número de copos partidos está:
n.º de copos partidos
domingo 2.ª feira 3.ª feira 4.ª feira 5.ª feira 6.ª feira sábado
10 8 8 10 9 10 11

amostra observada de tamanho: n = 7


1 7 66
n.º médio de copos partidos observado por dia: xത = 7  xi = 7 = 9.4 copos
i =1

Tomando para , o valor  * = 9.4, estima-se que, num dia, é mais provável partirem-se

x 0 1 … 7 8 9 10 11 …
P(X = x) 0.0001 0.0008 … 0.1064 0.1251 0.1306 0.1228 0.1049 …

9 .4 x 
nota. P(X = x) = e
−9.4
 máximo absoluto da f.p. Po(9.4)  9 copos.▄
x!
Estatística Aplicada (lic. CA)
5

Sobre o verdadeiro valor desconhecido de um parâmetro que caracteriza uma distribuição de


probabilidades associada a uma população pode-se:

(1) estimar, a partir de uma amostra da população, o valor do parâmetro: Estimação pontual.
Exemplo. A partir de uma amostra concreta, obter um valor real que represente , o verdadeiro valor do parâmetro
que caracteriza a distribuição de Poisson associada à v.a. “número de copos partidos no restaurante, em 1 dia”.▄

(2) construir, a partir da amostra observada, um intervalo de números reais que, com uma elevada
confiança, contenha o verdadeiro valor do parâmetro: Estimação Intervalar.
Exemplo. A partir de uma amostra concreta, obter um intervalo real que, com um elevado grau de confiança, contém
o verdadeiro valor de , parâmetro que caracteriza a distribuição de Poisson associada à v.a. “número de copos
partidos no restaurante, em 1 dia”.▄

(3) colocar uma suposição sobre o verdadeiro valor do parâmetro e verificar se a amostra observada a
sustenta: Teste de Hipóteses Paramétricas.
Exemplo. Supor que o verdadeiro valor de , parâmetro que caracteriza a distribuição de Poisson associada à v.a.
“número de copos partidos no restaurante, em 1 dia”, é, no máximo, 9 (  9 versus   9).▄
Estatística Aplicada (lic. CA)
6

Inferir sobre o comportamento de uma população, implica a obtenção de uma amostra de observações
que a represente. No entanto, a amostra observada é, apenas, um dos muitos conjuntos, com o mesmo
número de elementos, possíveis de recolher quando se observa, em condições semelhantes, o
fenómeno aleatório.

Sejam k amostras de dimensão n, recolhidas da população X :

POPULAÇÃO
v.a. X

1.ª amostra 2.ª amostra ... k-ésima amostra


x1 1 x1 2 x1 3 .... x1 n x2 1 x2 2 x2 3 .... x2 n xk 1 xk 2 xk 3 .... xk n
Estatística Aplicada (lic. CA)
7

As amostras observadas,
(x1 1, x1 2, x1 3, ..., x1 n) , (x2 1, x2 2, x2 3, ..., x2 n) , ... , (xk 1, xk 2, xk 3, ..., xk n),
são concretizações da variável aleatória (X1, X2, X3, ..., Xn ),
designada Amostra Aleatória de dimensão n, em que cada uma das v.sa.s representa o valor que é possível
observar na respetiva posição das amostras recolhidas:

v.a. observada X1 – “valor observado do 1.º elemento recolhido em cada uma das amostras de n elementos”

v.a. observada X2 – “valor observado do 2.º elemento recolhido em cada uma das amostras de n elementos”
...

Genericamente,
v.a. observada Xi – “valor observado do i-ésimo elemento recolhido em cada uma das amostras de n
elementos”, i = 1, 2, 3, ..., n,

nota. Cada uma das v.sa.s observadas assume os mesmos valores que a população, representada pela v.a. X.
Estatística Aplicada (lic. CA)
8

Exemplo.
Um dado restaurante está aberto todos os dias e, no seu plano semanal, há um item referente ao número de
copos partidos diariamente.
Os 3 últimos registos semanais sobre o número de copos partidos no restaurante são:

3 amostras de dimensão n = 7, cada, (xk 1, xk 2, ...., xk 7), com k = 1, 2, 3, da


POPULAÇÃO
v.a. X – “n.º de copos partidos no restaurante, em 1 dia”, x = 0, 1, 2, ...

(continua)
1.ª amostra (semana 1) 2.ª amostra (semana 2) 3.ª amostra (semana 3)
(11, 7, 10, 7, 10, 11, 12) (10, 6, 9, 11, 8, 14, 12) (10, 8, 8, 10, 9, 10, 11)
Estatística Aplicada (lic. CA)
9

Todas as amostras concretas de tamanho 7 possíveis de recolher da população,


v.a. X – “n.º de copos partidos no restaurante, em 1 dia”, x = 0, 1, 2, ...,

ou seja, o n.º observado de copos partidos no restaurante em cada um dos 7 dias de uma semana:

(11, 7, 10, 7, 10, 11, 12),


(10, 6, 9, 11, 8, 14, 12),
(10, 8, 8, 10, 9, 10, 11),
…,

são os valores assumidos pela v.a. (X1, X2, X3, X4, X5, X6, X7), em que

v.a. observada Xi – “n.º observado de copos partidos no restaurante, no dia i de cada uma das
semanas”, xi = 0, 1, 2, ...,
i = 1, 2, 3, 4, 5, 6, 7 ▄
Estatística Aplicada (lic. CA)
10

Amostragem: métodos de seleção de amostras aleatórias de uma população, sem provocar qualquer
alteração nesta.
O método escolhido para selecionar uma amostra da população, define quais os procedimentos a utilizar para inferir
o comportamento da população a partir da informação contida na amostra.

Definição. Amostragem Casual


Amostragem casual (ou amostragem aleatória simples sem reposição) verifica-se quando é equiprovável a
seleção, da população, de qualquer uma das amostras de dimensão n possíveis de recolher.
A amostra é representada pela v.a. (X1, X2, ..., Xn), de dimensão n, designada por amostra casual, sendo
as n variáveis aleatórias observadas, Xi (i = 1, 2, …, n), independentes e identicamente distribuídas
(i.i.d.).

notas.
(1) v.sa.s Xi (i = 1, 2, ..., n) independentes → os valores que cada v.a. observada assume não estão dependentes dos
valores assumidos por qualquer outra v.a. observada;
(2) v.sa.s Xi (i = 1, 2, ..., n) identicamente distribuídas → as v.sa.s observadas são réplicas da v.a. X que representa a
população.
Estatística Aplicada (lic. CA)
11

Estimação paramétrica
Seja a população X com distribuição de probabilidades f (x | 1, 2, ..., m), em que são desconhecidos os
verdadeiros valores dos parâmetros, 1, 2, ..., m, que a caracterizam.
O problema de inferência estatística que se coloca é o de, a partir da informação contida na amostra
aleatória (X1, X2, ..., Xn) selecionada da população, determinar valores reais que representem os verdadeiros
valores dos parâmetros. Este procedimento é denominado estimação paramétrica.

Definição. Estatística
Uma Estatística é uma variável aleatória T = T(X1, X2, ..., Xn), função da amostra aleatória (X1, X2, ..., Xn),
que não envolve parâmetros desconhecidos.

notas.
(1) Uma estatística T = T(X1, X2, ..., Xn) é construída, apenas, com as v.sa.s observadas ou com as v.sa.s observadas e parâmetros
conhecidos e o seu propósito é reduzir a informação contida nas observações, X1, X2, ..., Xn, calculando, a partir destas,
medidas amostrais que descrevam o seu comportamento, tais como, a média, a mediana, a variância, entre outras.

(2) Uma estatística reduz a v.a. multidimensional, (X1, X2, ..., Xn), a uma v.a. unidimensional,
T = T(X1, X2, ..., Xn), cujo tratamento estatístico é mais simples.
Estatística Aplicada (lic. CA)
12

Exemplos.
1. Considere a produção diária de copos, numa dada fábrica, e a população de Bernoulli representada
pela
v.a. X – “n.º de copos com defeito, em 1 copo”, x = 0, 1

X ~ B(1, ) , 0    1, com  =  e  2 =  (1 −  ),
em que o parâmetro  é desconhecido. ( = P(X = 1) é a verdadeira proporção de copos com defeito na produção diária)

Recolha, de X, da amostra casual (X1, X2, ..., Xn), em que
v.a. observada Xi – “n.º observado de copos com defeito no i-ésimo copo da amostra casual de n copos”,
xi = 0, 1 ; i = 1, 2, …, n
Estatísticas:
n
v.a. T1 = Xi – “n.º total observado de copos com defeito nos n copos que formam a amostra casual”,
i =1 t1 = 0, 1, 2, ..., n
1 n
v.a. T2 = X – “proporção observada de copos com defeito nos n copos que formam a amostra
n i =1 i
casual”, 0  t2  1 (continua)
Estatística Aplicada (lic. CA)
13
v.a. X – “n.º de copos com defeito, em 1 copo”, x = 0, 1 ; X ~ B(1, )

Seja (1, 1, 1, 0, 1, 1, 0, 1, 1, 1) o resultado da observação de 10 copos da produção diária.


(x1, x2, x3, x4, x5, x6, x7, x8, x9, x10) → amostra concreta, da população X, de tamanho n = 10.

n 10
T1 =  Xi : t1 =  xi = 8 copos com defeito, nos 10 observados
i =1 i =1

1 n 1 10 8 8
T2 = n  Xi : t2 = 10  xi = 10 = 0.8 = 10 = 0.8 → 80% de copos com defeito, nos 10 copos observados
i =1 i =1

nota. A estatística construída com as v.sa.s observadas deve produzir informação pertinente sobre o
comportamento da amostra aleatória e, consequentemente, da população.
Considere-se, por exemplo, a estatística:
n 10
T3 =  Xi → t3 =  xi = 0 : com esta informação, apenas, se fica a saber que, pelo menos, um dos 10 copos não
i =1 i =1 tem defeito, informação contida na estatística T1.▄
produto dos n
valores observados
Estatística Aplicada (lic. CA)
14

2. Considere um grande lote de bengalas artesanais de altura 95 cm e a população Normal


representada pela
v.a. X – “erro, em milímetros (mm), cometido no corte de uma bengala”, x  IR
X ~ N( , ), com   IR,   IR+,
em que os parâmetros  e  são desconhecidos.

Recolha, de X, da amostra casual (X1, X2, ..., Xn), em que
v.a. observada Xi – “erro observado, em mm, cometido no corte da i-ésima bengala da amostra casual de n
bengalas”, xi  IR ; i = 1, 2, ..., n
Estatísticas:
n
v.a. T1 = Xi – “erro total observado, em mm, cometido no corte das n bengalas que formam a
i =1 amostra casual”, t1  IR
Média amostral: (média aritmética das observações)
n
1
v.a. Xഥ =
n i =1 i – “erro médio observado, em mm, cometido no corte de cada uma das n bengalas que
X
formam a amostra casual”, xത  IR (continua)
Estatística Aplicada (lic. CA)
15
v.a. X – “erro, em milímetros (mm), cometido no corte da bengala”, x  IR ; X ~ N( , )
v.a. observada Xi – “erro observado, em mm, cometido no corte da i-ésima bengala de uma amostra de n bengalas”, xi  IR
i = 1, 2, ..., n
Variância amostral: (desvio quadrático médio das observações em torno da média amostral)
n
1
v.a. S 2 = (Xi − Xഥ )2 – “desvio quadrático médio observado, em mm2, em torno do erro médio
n i =1
observado, dos erros cometidos no corte de cada uma das n bengalas que
formam a amostra casual”, s2  0
12 12
Considere, da medição de 12 bengalas, os resultados seguintes:  xi = − 33.6 mm e  xi2 = 103.08 mm2
 i =1 i =1
(x1, x2, x3, x4, x5, x6, x7, x8, x9, x10, x11, x12)
amostra concreta, da população X, de tamanho n = 12

1 12 − 33.6
Média amostral: xത = 12  xi = 12 = − 2.8 mm → em média, cada uma das 12 bengalas observadas, relativamente
i =1 à altura padrão de 95 cm, tem menos 2.8 mm, com uma variabilidade,
em torno deste valor, dos erros cometidos observados de
1 12 2 103.08
Variância amostral: s2 =  xi − xത 2 = − (− 2.8)2 = 0.75 mm2 ▄
12 12
i =1
Estatística Aplicada (lic. CA)
16

Seja a população X com distribuição de probabilidades f (x |1, 2, ..., m), em que os verdadeiros valores dos parâmetros,
1, 2, ..., m, são desconhecidos.

A Estimação Paramétrica desenvolve-se em torno das noções de Precisão e Confiança.

Na Estimação Pontual está em destaque a precisão dos valores propostos para os verdadeiros valores
desconhecidos dos parâmetros.
A partir de uma amostra recolhida da população são obtidos números reais isolados para representar os
verdadeiros valores dos parâmetros que, quanto maior a sua precisão, menor a confiança que se tem neles.
(Para i = 1, 2, …, m, o valor real obtido é tanto mais preciso quanto mais próximo se encontrar do verdadeiro valor do parâmetro i
e a precisão é total quando coincidir com i , sendo praticamente nula a confiança de que tal ocorra.)

Na Estimação Intervalar, a maior importância é atribuída à confiança dos valores propostos para os
verdadeiros valores desconhecidos dos parâmetros.
A partir de uma amostra recolhida da população, são associados aos valores reais isolados, intervalos de números
reais que conterão, muito possivelmente (quantificado por um grau de confiança), os verdadeiros valores dos
parâmetros, diminuindo a precisão dos resultados mas aumentando a confiança que se tem neles.
(Para i = 1, 2, …, m, com elevada confiança, i  (linf ,lsup), reduzindo a precisão do valor proposto para representar o verdadeiro
valor do parâmetro.)
Estatística Aplicada (lic. CA)
17

Estimação Pontual
Seja a amostra casual (X1, X2, ..., Xn) de uma população X com distribuição de probabilidades f (x |1, 2,
..., m), em que 1, 2, ..., m são parâmetros reais desconhecidos.

Um Estimador para o parâmetro i (i = 1, 2 , …, m) é a


v.a T = T (X1, X2, ..., Xn) – “estatística que gera um valor real representativo do verdadeiro valor desco-
nhecido do parâmetro i ”.
Recolhidas da população amostras concretas de tamanho n,
(x1 1, x1 2, ..., x1 n), (x2 1, x2 2, ..., x2 n), (x3 1, x3 2, ..., x3 n), ...,
o estimador gera valores reais concretos que se supõem representativos do verdadeiro valor do
parâmetro i, respetivamente,
t1 = T(x1 1, x1 2, ..., x1 n), t2 = T(x2 1, x2 2, ..., x2 n), t3 = T(x3 1, x3 2, ..., x3 n), ...,
denominados Estimativas para o parâmetro i.
Um estimador gera tantas estimativas para um parâmetro, quantas as amostras concretas da mesma dimensão
possíveis de recolher da população e, cada parâmetro tem, geralmente, muitos estimadores.
Estatística Aplicada (lic. CA)
18

Seja a população X com distribuição de probabilidades f (x |1, 2, ..., m), em que os verdadeiros valores dos parâmetros,
1, 2, ... , m, são desconhecidos.

Métodos de estimação pontual


Para um qualquer parâmetro podem ser definidos infinitos estimadores e um estimador é obtido aplicando um qualquer
método de estimação pontual, sendo os mais usuais:

Método dos Momentos (M.M.) (Karl Pearson – séc. XIX / XX)


Tendo os parâmetros expressos em função dos momentos de ordem k da v.a. X, E(X k ), k = 1, 2, …, os seus estimadores
1 n
são obtidos substituindo os momentos populacionais pelos correspondentes momentos amostrais,
n  Xik, k = 1, 2, ….
i =1

Método da Máxima Verosimilhança (M.M.V.) (R. A. Fisher – séc. XIX / XX)


Dentro dos respetivos conjuntos dos valores reais que os parâmetros podem assumir, escolhe-se para estimativas dos
parâmetros, aqueles valores que sejam mais credíveis, i.e., aqueles que fazem com que, entre todas as amostras de
dimensão n possíveis de recolher da população, a amostra observada (x1, x2, ..., xn) seja a mais provável.
Escolhendo outros quaisquer valores reais para estimativas dos parâmetros, a probabilidade de extrair a amostra
observada, relativamente a outras amostras da mesma dimensão, é menor, tornando menos plausível (verosímil) a sua
recolha da população.
Estatística Aplicada (lic. CA)
19

Estimador
População X, Parâmetro
M.M. M.M.V.
da qual foi recolhida a amostra casual de dimensão n, (X1, X2, ..., Xn) desconhecido
Bernoulli: X ~ B(1, ),  =  ,  2 =  (1− )  θ෩ = X
ഥ θ෡ = X

X X
Binomial: X ~ B(m, ),  = m ,  2 = m (1− )  θ෩ = θ෡ =
m m
1 1− 1 1
Geométrica: X ~ G( ),  = 2 =  θ෩ = θ෡ =
 , 2 X X
r r 1− r r
Binomial Negativa: X ~ BN(r ; ),  = , 2 =  θ෩ = θ෡ =
 2 X X
Poisson: X ~ Po( ),  =  ,  2 =   ෩ = Xഥ ෡ = Xഥ

 ෥ = Xഥ ෝ = Xഥ
Normal: X ~ N(, )
2 ෥ 2 = S 2 ෝ 2 = S 2
Estatística Aplicada (lic. CA)
20

Estimador
População X, Parâmetro
da qual foi recolhida a amostra casual de dimensão n, M.M. M.M.V.
desconhecido
(X1, X2, ..., Xn)
1 2 1 1 1
Exponencial: X ~ Ex( ),  =  ෩ = ෡ =
 ,  = 2 X X
  
෩ = ෡ =
( conhecido) X X
 
Gama: X ~ Ga(, ),  =
 , 2=
2 X2 

 ෥ = S2 − Xഥ = 0


(1)

X   
෢ n
 ෩ = S2 n ln ෡ − n ෢ +  ln(Xi) = 0
 i=1

________________________________________________________________________________________________________
(1)
Não originando os dois métodos os mesmos estimadores para um parâmetro, o M.M.V. fornece, em geral, estimadores de melhor
qualidade. No caso dos parâmetros da distribuição Gama, as equações que resultam da aplicação do M.M.V. não têm resolução analítica;
as estimativas para os parâmetros são obtidas aplicando um método numérico apropriado. No entanto, os respetivos estimadores obtidos
pelo M.M. dão estimativas próximas dos verdadeiros valores dos parâmetros.
Estatística Aplicada (lic. CA)
21

Propriedade da Invariância (apenas aplicável a estimadores da M.V.)


Se h( ) é uma função do parâmetro  e θ෡ é estimador da M.V. para , então h(θ෡ ) é estimador da M.V.
para h( ).
Exercício.
Defina os estimadores da máxima verosimilhança das médias e variâncias das populações seguintes, das
quais foram recolhidas amostras casuais de dimensão n, (X1, X2, ..., Xn).
Estimador da M.V. de
População Parâmetro desconhecido: estimador da M.V.  2
Binomial: X ~ B(m, ) X (2)
 : θ෡ = m ෝ = Xഥ
(1)
ഥ 1−X
ෝ 2 = X
 = m ;  2 = m (1− ) m
X (2) X X X
(1)
ෝ = mθ෡ = m m = Xഥ ; ෝ 2 = mθ෡ 1 − θ෡ = m m 1 − m = X
ഥ 1−
m

Exponencial: X ~ Ex()
1
1 1  : ෡ = X ෝ = Xഥ ෝ 2 = Xഥ 2
 = ; 2= 2
  ▄
Estatística Aplicada (lic. CA)
22

Exercício.
a) Num dado restaurante, o ______________________________
tempo de espera por uma mesa, não reservada previamente, é
exponencialmente distribuído.
_______________________ (1)
Os ________________________________________________________________________________
últimos dez pedidos de mesa foram satisfeitos em (5.6, 7, 1.5, 5, 6.8, 10, 8.1, 3.5, 12.5, 4.7) minutos.(3)
Estime a percentagem de pedidos de mesa satisfeitos em menos de 5 minutos.(2)
_______________________________________________________________
(1)
v.a. X – “tempo de espera, em minutos, por uma mesa”, x  0
X ~ Ex( ) (f.d.: F(x) = P(X  x) = 1 − e− x, x  0)

verdadeiro valor do parâmetro desconhecido

1
estimador da M.V. para  : ෡ =
X
(3)
amostra concreta de X: n = 10
1 1
10
64.7 1
estimativa da M.V para  : ෡ = ഥ e xഥ =  xi = = 6.47  ෡ = 6.47 = 0.1546
x 10 i=1 10

(continua)
(2)
෡( X  5 ) = 1 − e− 0.1546  5 = 0.5384 → 53.84% dos pedidos de mesa satisfeitos em menos de 5 minutos.
P
Estatística Aplicada (lic. CA)
23

b) No restaurante, as mesas localizadas na varanda são poucas e são as mais solicitadas.


b1) Observou-se que, em 52 pedidos de mesa, 39 foram para uma mesa na varanda. Estime
____________________________________________________ _ _ _ _ _a
(3)
percentagem
_ _ _ _ _ _ _ _de pedidos
_ _ _ _de
_ _mesa
_ _ _para
_ _ _a _varanda
_ __________________________
_ _ _ _ _(1)no
_ restaurante.
(2)

(1)
v.a. Y – “n.º de pedidos de mesa para a varanda, em 1 pedido de mesa”, y = 0, 1
(2)
Y ~ B(1,Y), Y = P(Y = 1)  ෡Y =?
(verdadeira proporção, desconhecida, de pedidos de mesa para a varanda no restaurante)

estimador da M.V para Y : ෡Y = Yഥ


(3)
amostra concreta de Y : n = 52
39
estimativa da M.V para Y : ෡Y = yഥ = = 0.75, ou seja,
52

(continua)
estima-se que, no restaurante, 75% dos pedidos de mesa são para a varanda.
Estatística Aplicada (lic. CA)
24

v.a. Y – “n.º de pedidos de mesa para a varanda, em 1 pedido de mesa”, y = 0, 1 ; Y ~ B(1,Y), Y = P(Y = 1): ෡Y = 0.75

b2) Verifique a _
veracidade
_ _ _ _ _ _da_ afirmação:
_ _ _ _ _ _(2)
________________________________________
Desde o último pedido de mesa para a varanda, estima-se
_ _ _ _ _ _que
_ _ _é _quase
_ _ _ _certo
_ _(2)que o _____________
próximo pedido
para a varanda é feito, no máximo, após 6 pedidos de mesa para a sala. (1)
__________________________________________________________

(1)
v.a. W – “n.º de pedidos de mesa até um pedido de uma mesa para a varanda”, w = 1, 2, ...
W ~ G(W ) (f.d.: P(W  w) = 1 − (1 − W)w, w = 1, 2, ...)

verdadeira probabilidade, desconhecida, de um pedido de mesa ser para a varanda: W = Y

estimativa para W : ෡ W = ෡Y = 0.75


(2)
෡(W  7 )  1 verdadeira?
Afirmação: P

6 pedidos para a sala + 1 pedido para a varanda

(continua)
෡(W  7) = 1 − (1 − 0.75)7 = 0.99994  1  a afirmação é verdadeira.
P
Estatística Aplicada (lic. CA)
25

v.a. W – “n.º de pedidos de mesa até um pedido de uma mesa para a varanda”, w = 1, 2, ... ; W ~ G(W ), ෡ W = 0.75

(2) (3)
b3) Estime, _
em_ _média
_ _ _ e com que variabilidade
_ _ _ _ _ _ _ _em
_ _seu
_ _torno,
_ _ _ quantos pedidos de mesa são feitos até
________________________________
serem recebidos 10 pedidos de mesa para a varanda.(1)
___________________________________________

(1)
v.a. T – “n.º de pedidos de mesa até 10 pedidos de uma mesa para a varanda”, t = 10, 11, ...
r
T ~ BN(10; 0.75 )
෡T = ෡ W
(T = verdadeira probabilidade, desconhecida, de um pedido de mesa ser para a varanda = W)

(2) r 10
T =
ෝ ෢= = 13.3333 pedidos de mesa
T 0.75

(3)
r 1−෢T 10 × 1− 0.75

(continua)
ෝ T = = = 2.1082 pedidos de mesa
෢T 0.75
Estatística Aplicada (lic. CA)
26

v.a. Y – “n.º de pedidos de mesa para a varanda, em 1 pedido de mesa”, y = 0, 1 ; Y ~ B(1,Y), Y = P(Y = 1): ෡Y = 0.75

b4) _____________________
Em 40 pedidos de mesa, _estime,
_ _ _ _com
_ _ _uma
_ _ _garantia
_ _ _ _ _de
_ _95%,
_ _ _quantos,
_ _ _ _ _ no
______ _ _máximo,
_ _ _ _(2) são ______
para a
varanda.(1)
_______
(1)
v.a. V – “n.º de pedidos de mesa para a varanda, em 40 pedidos de mesa”, v = 0, 1, 2, ..., 40
m n.º máximo de pedidos de mesa para
V ~ B( 40 , 0.75 ) ෡ V = ෡Y (2)
v = ? tal que P
෡ (V  v ) = 0.95 a varanda
(V = verdadeira probabilidade,
desconhecida, de um pedido de mesa ser para a varanda = Y)


ෝV = m෡ V = 40  0.75 = 30 pedidos de mesa para a varanda
m = 40  30 e 0.10  ෡ V  0.90  T.L.C., V ~ሶ N( 30 , 2.7386 ) ෝ = m෡ 1 − ෡ = 40 × 0.75 × 0.25 = 2.7386 pedidos de
V V V
mesa para a varanda

෡ (V  v ) = 0.95  P Z  v −30 = 0.95  v −30 = 1.645 


P
2.7386 2.7386 N(0,1) – tabela dos valores
associados à cauda direita:

 v = 30 + 1.645  2.7386 = 34.505  35 pedidos de mesa para a varanda ▄


Estatística Aplicada (lic. CA)
27

Propriedades dos Estimadores pontuais


Seja uma população X com distribuição de probabilidades f (x| ), em que o verdadeiro valor do
parâmetro  é desconhecido.

Um estimador para o parâmetro  não deve ser avaliado através de uma única estimativa originada a
partir da recolha de uma amostra concreta da população, uma vez que o valor obtido poderá situar-se
muito próximo ou muito afastado do verdadeiro valor do parâmetro.
(A estimativa obtida é tanto mais precisa quanto mais próxima se encontrar do verdadeiro valor de  e a precisão
é total quando coincidir com  .)

A avaliação da qualidade de um estimador, independentemente do método de estimação pontual


usado para a sua obtenção, deve ser feita a partir da respetiva distribuição por amostragem (distribuição
de probabilidades que descreve o comportamento probabilístico do conjunto de estimativas para  geradas pelo
estimador, a partir da recolha de amostras concretas do mesmo tamanho da população). Existem diferentes
critérios que podem ser utilizados na apreciação do desempenho de um estimador, conduzindo à
escolha, se não do estimador ótimo para o parâmetro, pelo menos, de um estimador “recomendável”.
Estatística Aplicada (lic. CA)
28

Definição. Estimador Centrado


Um estimador T = T(X1, X2, ..., Xn) para o parâmetro , existindo E(T), é centrado (ou não enviesado)
quando E(T ) =  ,   ,
ou seja, qualquer que seja a dimensão da amostra casual, o estimador gera, em média, uma estimativa
coincidente com o verdadeiro valor do parâmetro.


Interpretação da propriedade enunciada: pela teoria frequencista de probabilidade, ao fim da recolha de um grande n.º de
amostras concretas da mesma dimensão, a média aritmética das estimativas obtidas estará, certamente, muito próxima
do verdadeiro valor do parâmetro (valor esperado do estimador), existindo um equilíbrio entre os casos de sobrestimação
(estimativas, obtidas a partir do estimador definido, de valor superior ao verdadeiro valor do parâmetro) e os casos de
subestimação (estimativas, obtidas a partir do estimador definido, de valor inferior ao verdadeiro valor do parâmetro).

Um estimador diz-se enviesado se E(T )   , sendo o enviesamento dado por Env(T ) = E(T ) −  .

Se lim E(T ) =  ,   , o estimador T = T(X1, X2, ..., Xn) diz-se assintoticamente centrado.
n→+
Estatística Aplicada (lic. CA)
29

Limitação do conceito de Estimador Centrado:


Para um dado parâmetro , é possível definir uma infinidade de estimadores centrados e, a partir da
definição de estimador centrado, não é possível diferenciá-los quanto à dispersão das estimativas que
geram em torno do verdadeiro valor de , valor médio do estimador centrado.

Exemplo.
Sejam T1 = T1(X1, X2, ..., Xn) e T2 = T2(X1, X2, ..., Xn) dois estimadores centrados para o parâmetro , com
distribuições por amostragem, respetivamente, f1(t | ) e f2(t | ), tais que:
f1

f2
T1 terá melhor desempenho que T2, porque Var(T1)  Var(T2). ▄

t

E(T1) = E(T2)

O “melhor” estimador centrado é aquele que produz estimativas mais concentradas à volta do verdadeiro
valor de , ou seja, aquele que tem variância mínima.
Estatística Aplicada (lic. CA)
30

Definição. Eficiência
Sejam T1 = T1(X1, X2, ..., Xn) e T2 = T2(X1, X2, ..., Xn) dois estimadores centrados para o parâmetro  :
E(T1) = E(T2) =  .
O estimador T1 é mais eficiente (eficiência relativa) do que o estimador T2 quando
Var(T1)  Var(T2) ,   .

O estimador T1 é o mais eficiente (eficiência absoluta) quando a relação Var(T1)  Var(T),   , se


verifica, qualquer que seja outro estimador, T = T(X1, X2, ..., Xn), centrado para .


nota. Na maior parte das situações, é possível determinar a eficiência relativa entre dois estimadores centrados. No
entanto, determinar o estimador mais eficiente (eficiência absoluta) pela definição dada, implica a aplicação do conceito
de eficiência relativa a cada par de estimadores, o que não é viável, por existirem inúmeros estimadores centrados para
um dado parâmetro, sendo impossível listá-los.
Existem vários resultados que podem ser aplicados para determinar o estimador centrado mais eficiente para um dado
parâmetro.
Estatística Aplicada (lic. CA)
31

Exercício.
Considere, a população X ~ U(1, ), em que   1 é um parâmetro de valor desconhecido, da qual foi
recolhida a amostra casual ordenada (X(1), X(2), ..., X(15)). Os estimadores para  obtidos pelo método
dos momentos e pelo método da máxima verosimilhança são, respetivamente,
෩ ෩ ෩ (  − 1)2
θ = 2Xഥ − 1, com E(θ ) =  e Var(θ ) = 45 ,
e
−1 15
θ෡ = X(15), com E(θ෡ ) =  − 16 e Var(θ෡ ) = 4352 ( − 1)2.

a) Diga, justificando, se considera verdadeira a afirmação:


“Ambos os estimadores para  são centrados, sendo θ෡ mais eficiente.”

A frase é falsa porque, embora θ෩ seja centrado (E(θ෩ ) =  ), θ෡ não é centrado: E(θ෡ )  , não podendo os
estimadores ser comparados quanto à eficiência relativa.

(continua)
−1
nota. Env(θ෡ ) = E(θ෡ ) −  = − 16  0: em média, θ෡ gera uma estimativa para  inferior ao verdadeiro valor.
Estatística Aplicada (lic. CA)
32

X ~ U(1, ),   1
amostra casual ordenada (X(1), X(2), ..., X(15)) → estimador da M.V para  :
−1 15
θ෡ = X(15), com E(θ෡ ) =  − 16 e Var(θ෡ ) = 4352 ( − 1)2

centrado para , com origem no respetivo estimador da M.V.(1) obtido a partir da


_________________________________________________________
b) Defina um estimador
amostra casual ordenada (X(1), X(2), ..., X(15)).

(1)
θ෡ = X(15) →   = ? tal que E(  ) = 

−1 1
E(θ෡ ) =  −  16 E(θ෡ ) = 15 + 1  E(16 θ෡ ) − 1 = 15  E(16 θ෡ − 1) =  
16 15
෢− 1
16 θ 16 X(15)− 1
E =   Estimador centrado para  :   = , com E(   ) = .
15 15

(continua)
novo estimador
para 
Estatística Aplicada (lic. CA)
33

X ~ U(1, ),   1

c) A partir da amostra casual ordenada (X(1), X(2), ..., X(15)), considere, para , o estimador obtido pelo
método dos momentos e o estimador com origem no estimador da máxima verosimilhança,
respetivamente,
෩ ෩ ෩ ( − 1)2
θ = 2X − 1, com E(θ ) =  e Var(θ ) = 45 ,

e
16 X(15)− 1 15
 = 15
, com E(  ) =  e Var(X(15) ) =
4352
( − 1)2.

Avalie a veracidade da afirmação:


“Sendo ambos os estimadores para  centrados,   é mais eficiente.”

A frase será verdadeira se Var( )  Var(θ෩ ).

16X(15)− 1 1 162
Var( ) = Var = 2 Var(16X(15) − 1) = 2 Var(X(15) ) =
15 15
15
162 15 ( − 1)2
= 2 ( − 1) =
2  Var(θ෩ )  A frase é verdadeira. ▄
15 4352 255
Estatística Aplicada (lic. CA)
34

Limitação do conceito Eficiência: é apenas aplicável a estimadores centrados, existindo critérios de âmbito mais
geral que permitem a avaliação de estimadores enviesados.
Definição. Erro Quadrático Médio (aplicável a estimadores enviesados)
Considere-se o estimador T = T(X1, X2, ..., Xn) para o parâmetro  . O erro quadrático médio do estimador T é
dado por EQM(T ) = E[(T −  )2].
Se T estimador centrado para , E(T ) =  , então E[(T −  )2] = Var(T ).


Sejam T1 = T1(X1, ..., Xn) e T2 = T2(X1, ..., Xn) dois estimadores para o parâmetro .
T1 tem melhor desempenho que T2, se EQM(T1)  EQM(T2),   , gerando T1 estimativas mais concentradas em torno do
verdadeiro valor de  do que T2.

Definição. Estimador consistente em média quadrática (c.m.q.)


Um estimador Tn = T(X1, X2, ..., Xn) para o parâmetro  diz-se consistente em média quadrática se e só se
lim E Tn −  2
= 0,     lim E(Tn) =  e limVar(Tn) = 0,   .


n→+ n→+ n→+

Interpretação da propriedade enunciada: Com o aumento da dimensão da amostra, a dispersão das estimativas geradas
por Tn em torno de  tenderá a diminuir, tal que, no limite, o estimador assumirá valores coincidentes com , o verdadeiro
valor do parâmetro.
Estatística Aplicada (lic. CA)
35
Não sendo possível a determinação de estimadores consistentes em média quadrática, considera-se um conceito
de consistência menos exigente.
Definição. Estimador Consistente (ou simplesmente consistente: s.c.)
Um estimador Tn = T(X1, X2, ..., Xn) para o parâmetro  diz-se (simplesmente) consistente se e só se,
qualquer que seja o número real   0, P( −   Tn   +  ) = 1,   .


Interpretação da propriedade enunciada: Sendo a amostra de grande dimensão (n → +) e o valor de  muito pequeno, é quase
certo que o estimador Tn assumirá valores (estimativas) dentro do intervalo ] − , + [. Tendo este uma amplitude, 2, muito
pequena, esses valores estarão muito próximos de , o verdadeiro valor do parâmetro.
Estimador consistente é um estimador cuja precisão aumenta com o crescimento da dimensão da amostra, tal que, no limite, a
precisão é total, i.e., o estimador Tn assumirá valores coincidentes com , o verdadeiro valor do parâmetro.

Devido a, em geral, existirem muitos estimadores consistentes para um dado parâmetro, o conceito de consistência é
utilizado na negativa: para um parâmetro não deve ser utilizado um estimador que não é consistente.

Teorema. Considere-se o estimador Tn = T(X1, X2, ..., Xn) para o parâmetro . As condições
lim E(Tn) =  (ou E(Tn) =  ) e lim Var(Tn) = 0,   ,
n→+ n→+
são suficientes para que Tn seja estimador (simplesmente) consistente.


nota. O teorema enunciado indica que a consistência em média quadrática implica a consistência simples.
Estatística Aplicada (lic. CA)
36

Teorema.
Seja a amostra casual (X1, X2, ..., Xn) da população X, para a qual existem média,  , e variância,  2. Então,
 2
(1) a v.a. Xഥ (média amostral) tem E(Xഥ ) =  e Var(Xഥ ) = n , sendo um estimador consistente em média quadrática (é

centrado e Var(Xഥ ) = 0), logo simplesmente consistente, para  ;

2 k+2 2 k+1 k E (X − )4


(2) a v.a. S2 (variância amostral) tem E(S2) =  2 − e Var(S2) =  4 − + , em que k =
4 − 3, sendo
n n n2 n3
um estimador consistente em média quadrática (é assintoticamente centrado, E(S2) =  2, e Var(S2) = 0), logo

simplesmente consistente, para  2;


2
(S2 é um estimador enviesado, com enviesamento Env(S2) = E(S2) − 2 =−
n
,e E(S2) =  2)

2 k E (X − )4
(3) a v.a. S 2 (variância amostral corrigida) tem E(S 2) =  2 e Var(S 2) =  4 n−1 + n , em que k = 4 − 3, sendo um

estimador consistente em média quadrática (é centrado e Var(S 2) = 0), logo simplesmente consistente, para  2.


Estatística Aplicada (lic. CA)
37

Exemplo.
população: X ~ N(,), com  desconhecido

amostra casual: (X1, X2, ..., Xn), v.s a.s observadas i.i.d. Xi ~ N(,), i = 1, ..., n
n
1
estimador consistente para  : Xഥ =  Xi
n i =1
 2
E(Xഥ ) =  e Var(Xഥ ) = n →0 ഥ
Quanto maior a dimensão da amostra, maior a concentração das estimativas, geradas por X,
n→+ à volta de .
 x)
f (ഥ
Xഥ estimador centrado para .

N , , n = 200
200


 N , , n = 100
distribuição por amostragem de Xഥ : Xഥ  N  , 100
n 
N , , n = 50
50

N , , n = 10
10
0  xഥ
ഥ na estimação de  . ▄
Consistência da média amostral, X,
Estatística Aplicada (lic. CA)
38

Exercício.
Num dado restaurante, a duração de uma refeição, em minutos, num dia útil é uma variável aleatória, X, em
1
que X ~ Ga 3, , sendo   IR+ desconhecido. Recolhida uma amostra casual de X, (X1, X2, …, Xn), considere
β
o estimador consistente, obtido pelo M.M.V., para ,
Xഥ 2
β = 3 , com E(β ) =  e Var(β ) = 3n .
෡ ෡ ෡

Admite-se que, num dia de fim de semana, uma refeição dure 2 vezes mais do que num dia útil.(1)
a) ________________________________________________________________________________
Determine o _
estimador
_ _ _ _ _da
__M.V. _ _ _a _____________________________________________
_ _para _duração
_ _ _ _média
____ de_uma
_ _ _refeição
_ _ _ _num
_ _ _dia
_ de
_ _fim
_ _de
__semana
_ _ _ (2)e estude a
sua consistência. (3)


obs.: X ~ Ga(,):  =

1 3
v.a. X – “duração, em minutos, de uma refeição num dia útil”, x  0 ; X ~ Ga 3, , em que  = 1 = 3
β ൘
β
(1)
v.a. Y – “duração, em minutos, de uma refeição num dia de fim de semana” , y  0

(continua)
Y = 2X, com (2)Y = E(2X) = 2E(X) = 23 = 6 → (3) estimador da M.V. para Y, ෝ
Y = ?
Estatística Aplicada (lic. CA)
39

1
v.a. Y – “duração, em minutos, de uma refeição num dia de fim de semana”, Y ~ Ga 3, 2β ; Y = 6

Xഥ 2
estimador da M.M.V. para  : β = 3 , com E(β ) =  e Var(β ) = 3n
෡ ෡ ෡

Determine o estimador da M.V. para a duração média de uma refeição num dia de fim de semana e estude a
____________________________________________________________________
(1)
sua consistência.(2)
_____________

Xഥ
Y = 6 e β = estimador da M.V. para   pela propriedade da invariância, estimador da M.V. para Y :
(1) ෡
3
Xഥ
Y = 6 β෡ = 6 = 2X
ෝ ഥ
3
(2)
Y) = E(6 β෡ ) = 6 E(β෡ ) = 6 = Y  ෝ
E(ෝ Y é estimador centrado para Y
ෝY estimador consistente para Y

2 12 2

Y) = Var(6 β෡ ) = 62 Var(β෡ ) = 36
Var(ෝ =
3n n n→+

(continua)
0
Y) = Y e Var(ෝ
nota. E(ෝ Y ) → 0  
ෝY c.m.q. para Y  
ෝY s.c. para Y
n→+
Estatística Aplicada (lic. CA)
40
1 Xഥ
v.a. X – “duração, em minutos, de uma refeição num dia útil”, X ~ Ga 3, ; estimador da M.M.V. para  : β =

β 3  −1
x k
nota. X ~ Ga(,) e   IN : f.d. F(x) = P(X  x) = 1 − e− x  ,x0
k =0
k!
v.a. Y – “duração, em minutos, de uma refeição num dia de fim de semana”, Y = 2X

b) _
20_refeições,
_ _ _ _ _ _servidas
_____ em
__dias
_ _úteis,
_ _ _ duraram
_ _ _ _ _um
_ _total
_ _ _de_ 960 _ _ _ _(2)
_ _ _minutos.
Estime a percentagem de refeições, num dia de fim de semana, com duração superior a 2 horas.(1)
_____________________________________________________________________________
(2 horas = 120 minutos)
(1) 1 1 ෡ (Y  120 ) = ?
Y = 2X e X ~ Ga 3, β  Y ~ Ga 3, 2β ; P
20
1 20 960
amostra concreta de X: n = 20 ;  xi = 960  xത = 20  xi = 20 = 48 minutos → estimativa para  :
(2)

i =1 i =1
xഥ 48
β෡ = 3 = 3 = 16
1 1
Y ~ Ga(3,0.03125), em que ෢ = 2×16 = 0.03125

0.03125 × 120 k
2
෡ (Y  120) = 1 − P
P ෡ (Y  120) = 1 − 1 − e− 0.03125  120 
k =0 k!
= e− 3.75
3.75 2
1 + 3.75 + 2 = 0.2771

Estima-se que 27.71% das refeições num dia de fim de semana duram mais de 2 horas. ▄
Estatística Aplicada (lic. CA)
41

DISTRIBUIÇÕES DE PROBABILIDADE CONTÍNUAS


(modelos utilizados na descrição do comportamento probabilístico de fenómenos aleatórios contínuos)

1. Distribuição do Qui-Quadrado …………...………………..……..…………………………………..... diap. 42

2. Distribuição t-Student .................................................................................................................... diap. 57

3. Distribuição F-Snedecor …………................................................................................................. diap. 59


Estatística Aplicada (lic. CA)
42

1. Distribuição do Qui-Quadrado
Definição.
Diz-se que uma variável aleatória contínua, X, tem distribuição Qui-Quadrado, com n graus de liberdade (n 
IN), quando a função densidade de probabilidade é da forma
x n
− −1
e 2 ∙ x2
f (x) = n , x  0, n  IN.
n
22  
2
nota. Função Gama (função real de uma variável real):
Simbolicamente: X ~ 2(n) +

(k) =  e− x xk − 1dx (k  0)
Representação gráfica de f.d.p. Qui-Quadrado: 0

f ( x) f ( x)
2 (1) , 2 (2) Características principais:
2 ,n3
Valor Esperado →  = n
(n)

Variância →  2 = 2n
0 x 0 x
Estatística Aplicada (lic. CA)
43

A distribuição Qui-Quadrado está tabelada, permitindo determinar, para alguns valores de n [n = 1 (1) 30 (10)
100] e de  (0    1), o valor q tal que P(X  q) =  :

GL 0,995 0,99 0,975 0,95 0,9 …
2 (n) 1 0,000 0,000 0,001 0,004 0,016
2 0,010 0,020 0,051 0,103 0,211
P(X  q) =  3 0,072 0,115 0,216 0,352 0,584
 4 0,207 0,297 0,484 0,711 1,064
0 q=? 5 0,412 0,554 0,831 1,145 1,610
6 0,676 0,872 1,237 1,635 2,204
7 0,989 1,239 1,690 2,167 2,833
Exemplo. 8 1,344 1,646 2,180 2,733 3,490
X ~ 2(7): P(X  q) = 0.975  q = 1.69 ▄ …
9 1,735

2,088

2,700

3,325

4,168

k k
Teorema: Xi ~ 2(ni), i = 1, 2, ..., k, v.sa.s independentes   Xi ~ 2(n), em que n =  ni


i=1 i=1

Teorema: X ~ N(0,1)  X 2 ~ 2 (1)


n
Xi − i 2
Teorema: Xi ~ N(i ,i ), i = 1, 2, ..., n, v.sa.s independentes   ~ 2(n)
i


i =1
nota. A designação de “graus de liberdade” refere-se ao n.º de quadrados de v.sa.s normais reduzidas independentes
que se consideram na v.a. soma.
Estatística Aplicada (lic. CA)
44

2. Distribuição t-Student
Definição.
Sejam duas variáveis aleatórias independentes X e Y, tais que X ~ N(0,1) e Y ~ 2(n). Então,
X
T= ~ t (n),
Y
n
ou seja, a variável aleatória T tem distribuição de t-Student com n graus de liberdade (n  IN).


Representação gráfica de f.d.p. t-Student :
f (t )
t (n) , n→+

0.4
N (0,1)

Características principais:
t (4) Valor Esperado →  = 0, n  1
t n
0 Variância →  2 = n −2 , n  2
lim f (t) =  (t), i.e., se n → +, então T ~ሶ N(0,1)
n→+ 
Estatística Aplicada (lic. CA)
45

A distribuição t-Student está tabelada, permitindo determinar, para alguns valores de n [n = 1 (1) 30 (10) 100
120 ] e de  (0    1), o valor t tal que P(T  t ) =  :
t(n) 
GL 0,4 0,25 0,2 0,15 0,1 …
1 0,325 1,000 1,376 1,963 3,078
P(T  t ) =  2 0,289 0,816 1,061 1,386 1,886
 3 0,277 0,765 0,978 1,250 1,638
4 0,271 0,741 0,941 1,190 1,533
0 t=? 5 0,267 0,727 0,920 1,156 1,476
6 0,265 0,718 0,906 1,134 1,440
A simetria da distribuição t-Student permite o uso da tabela 7 0,263 0,711 0,896 1,119 1,415
para o cálculo de probabilidades na aba esquerda. 8 0,262 0,706 0,889 1,108 1,397
9 0,261 0,703 0,883 1,100 1,383
Exemplo. … … … … … …
 0,253 0,674 0,842 1,036 1,282
X ~ t(5): P(X  t ) = 0.1  t = 1.476
P(X  k) = 0.1  k = − 1.476 ▄ valores associados à cauda direita da f.d.p. N(0,1)
t(5) ( é o valor da área à direita das abcissas indicadas
limitada pela f.d.p. N(0,1))
P(T  k) = 0.1 P(T  t ) = 0.1

k=? 0 t=?
Estatística Aplicada (lic. CA)
46

3. Distribuição F-Snedecor
Definição.
Sejam duas variáveis aleatórias independentes, X e Y, tais que X ~ 2(m) e Y ~ 2(n) (m, n  IN). Então,
Xൗ
F = Y m ~ F (m,n),
ൗn

ou seja, a v.a. F tem distribuição F-Snedecor com m e n graus de liberdade.


Representação gráfica de f.d.p. F-Snedecor :
g(f )
F(m,n3)
Características principais:
n1  n2  n3 n
Valor Esperado →  = ,n2
F(m,n2) n −2

F(m,n1) 2n2∙ m + n −2
Variância → 2 = m∙(n − 2)2∙(n − 4) , n  4
0 f
Estatística Aplicada (lic. CA)
47

A distribuição F-Snedecor está tabelada, GL1


permitindo determinar, para alguns pares de GL2  1 2 3 4 … 120 ∞
valores (m, n) [m, n = 1 (1) 10, 12, 15, 20, 24, 30, 40, 1 0,990 0,0002 0,0102 0,0293 0,0472 0,1460 0,1507

60, 120, ] e alguns valores de  (0    1), o 0,975 0,0015 0,0260 0,0573 0,0818 0,1941 0,1990
0,950 0,0062 0,0540 0,0987 0,1297 0,2551 0,2603
valor f tal que P(F  f ) =  : 0,900 0,0251 0,1173 0,1806 0,2200 0,3639 0,3696
0,100 39,86 49,50 53,59 55,83 63,06 63,33
F(m, n) 0,050 161,45 199,50 215,71 224,58 253,25 254,31
0,025 647,79 799,50 864,16 899,58 1014,02 1018,26
0,010 4052,18 4999,50 5403,35 5624,58 6339,39 6365,68
2 0,990 0,0002 0,0101 0,0325 0,0556 0,2089 0,2171
P(F  f ) = 
 0,975 0,0013 0,0256 0,0623 0,0939 0,2628 0,2711

0 f=? 0,950 0,0050 0,0526 0,1047 0,1440 0,3255 0,3338


0,900 0,0202 0,1111 0,1831 0,2312 0,4260 0,4343
0,100 8,53 9,00 9,16 9,24 9,48 9,49
0,050 18,51 19,00 19,16 19,25 19,49 19,50
0,025 38,51 39,00 39,17 39,25 39,49 39,50
Exemplo. 0,010 98,50 99,00 99,17 99,25 99,49 99,50
… … … … … … … …
X~ F(150,2): P(X  f ) = 0.05  f = 19.50 ▄
Estatística Aplicada (lic. CA)
48

Distribuições por Amostragem

Populações Normais ................................................................................................................................. diap. 49

Uma População Normal N( , ) …………...…………………………………………….………........ diap. 49

ഥ (variância  2 conhecida) ………………………………...……. diap. 49


Distribuição da Média amostral X

Distribuição da Variância amostral corrigida S 2 ……………………………………………........... diap. 49

ഥ (variância  2 desconhecida) ………………………………….. diap. 50


Distribuição da Média amostral X
Estatística Aplicada (lic. CA)
49

Populações Normais
Uma população Normal: X ~ N(, )
amostra casual da população X : (X1, X2, ..., Xn), v.sa.s observadas i.i.d. Xi ~ N( , ), i = 1, 2, …, n

ഥ estimador de  ( 2 conhecida)
Distribuição da Média amostral X,
ഥ −
X
Z=   N(0,1) (v.a. utilizada para estimar  e inferir sobre )
n
n n
1 1 n 
Obs. Xi ~ N(, ), i = 1, 2, …, n i.i.d.   Xi ~ N(n, n ) ;  Xi ~ N(n, n ) e  IR  X =  Xi ~ N μ,

i =1 i =1
n n i =1 n

Distribuição da Variância amostral corrigida S 2, estimador de  2

n − 1 S 2
Q=  2(n − 1) (v.a. utilizada para estimar  2 e inferir sobre  2)
2
n

 (Xi −  )2
Obs. i=1
 2(n) e μො = Xഥ , sendo a média amostral, X
ഥ , e a variância amostral, S 2, v.sa.s independentes
2
(propriedade específica das populações normais)
Estatística Aplicada (lic. CA)
50

ഥ estimador de  ( 2 desconhecida)
Distribuição da Média amostral X,

Xഥ −
T = S  t (n − 1) (v.a. utilizada para estimar  e inferir sobre )
n
rácio de Student
ഥ−  n − 1 S 2 ഥ−
Obs. X  N(0,1),  2(n − 1) e Xഥ e S 2 são v.sa.s independentes  X  t (n − 1)
2 S
n n

Para pequenas amostras, os valores de S 2 obtidos de amostra para amostra, apresentam uma grande variabilidade,
não tendo o rácio de Student distribuição N(0,1);

para grandes amostras, os valores de S 2, obtidos de amostra para amostra, mantêm-se estáveis, não afetando,
substancialmente, a normalidade do comportamento probabilístico dos valores assumidos pelo rácio de Student :
ഥ − ഥ−
T = X S  t (n − 1), n → +
.  T = X
S ~ሶ N(0,1).
n n
Estatística Aplicada (lic. CA)
51

Duas populações Normais independentes: X1 ~ N( 1, 1) e X2 ~ N( 2, 2) …………….…...….… diap. 52

S 2
Distribuição da relação entre as variâncias amostrais corrigidas, 2 …………….…………..... diap. 52
S1 2

Distribuição da diferença entre as médias amostrais, X1 − X2 , com

 12 e  22 conhecidas …………………………………….…………………………………..…..… diap. 53


 12 =  22 desconhecidas …………………………………..……………………………..…..….… diap. 53
 12   22 desconhecidas
pequenas amostras ……………………………….………………………………..…… diap. 54
grandes amostras ……………………………………...………………………..…....… diap. 54
Estatística Aplicada (lic. CA)
52

Duas populações Normais independentes: X1 ~ N( 1, 1) e X2 ~ N( 2, 2)

amostra casual da população X1: (X1 1, X1 2, …, X1 n1 ), v.sa.s observadas i.i.d. X1 i ~ N( 1, 1), i = 1, 2, …, n1

amostra casual da população X2: (X2 1, X2 2, …, X2 n2 ), v.sa.s observadas i.i.d. X2 i ~ N( 2, 2), i = 1, 2, …, n2

S 2 2 22
Distribuição da relação entre as variâncias amostrais 2 , estimador de  2
S1 1

S1 2 22  22  12
F = 2   2  F(n1 − 1,n2 − 1) (v.a. utilizada para estimar  2 e inferir sobre  2)
S 2 1 1 2

X൘
n1−1 S1 2 n2−1 S2 2 n −1
Obs. X =  2(n1 − 1) e Y =  2(n2 − 1) independentes  F = Y 1 ~ F (n1 − 1,n2 − 1)
 12 22 ൗ
n2− 1
Estatística Aplicada (lic. CA)
53

Distribuição da diferença entre as médias amostrais X1 − X2 , estimador de  1 −  2


com  12 e  22 conhecidas
X1 − X2 − 1 − 2
Z=  N(0,1) (v.a. utilizada para estimar  1 −  2 e inferir sobre  1 −  2)
 2
 2
1
+ 2
n1 n2
1 2   12  22 
Obs. X1  N  1, e X2  N  2, independentes  X1 − X2  N   1 −  2, + 
n1 n2  n1 n2 

com  12 =  22 desconhecidas ( 12 =  22 =  2)
X1 − X2 − 1 − 2
T=  t (n1 + n2 − 2)
 1 1  (n1 − 1) S1 2 + (n2 − 1) S 2 2 (v.a. utilizada para estimar  1 −  2 e inferir sobre  1 −  2)
 + 
 n1 n2  n1 + n2 − 2

X1 − X2 − 1 − 2 n1−1 S1 2 + n2−1 S2 2 Z


Obs. Z =  N(0,1) e V =
2  2(n1 + n2 − 2)  T =  t (n1 + n2 − 2)
 12  22 V൘
+ n1 + n2 − 2
n1 n2 n1−1 S1 2 n2−1 S2 2
 2(n1 − 1) e  2(n2 − 1) independentes
12 22
Estatística Aplicada (lic. CA)
54

Distribuição da diferença entre as médias amostrais X1 − X2 , estimador de  1 −  2

com 12  22 desconhecidas 2


 s1 2 s2 2 
 
n +n 
pequenas amostras: t (r ), em que n.º g.l. = r = parte inteira de  1 2 
2 2
X1 − X2 1 − 2 (aproximação de Welch) 1  s1 2  1  s2 2 
− +
T= ~ሶ n1 − 1  n1  n2 − 1  n2 
S12
S 2
+ 2
n1 n2 grandes amostras (n1 → + e n2 → + ): N(0,1)

(v.a. utilizada para estimar  1 −  2 e inferir sobre  1 −  2)


Estatística Aplicada (lic. CA)
55

Grandes amostras (populações não normais)………….……………………………..…………..….…. diap. 56


ഥ ……………………….………….……………. diap. 56
Distribuição por amostragem da Média amostral, X
População X com média  e variância  2 desconhecidas …………………………………....….…... diap. 57
População de Bernoulli: X ~ B(1; ), com  =  desconhecida ….............................................…..… diap. 58
População de Poisson: X ~ Po( ), com  =  desconhecida ……………………………………......… diap. 58
1
População Exponencial: X ~ Ex( ), com  = desconhecida …..……………………………….....…. diap. 59


População Gama: X ~ Ga(,  ), com  =
 desconhecida ( conhecido) ..………………………...... diap. 59
Distribuição por amostragem da Diferença entre Médias amostrais, X1 − X2 ………………….. diap. 60
Populações X1, com média 1 e variância 12 desconhecidas, e X2, com média 2 e
variância 22 desconhecidas, independentes .................................................................................... diap. 61
Populações de Bernoulli: X1 ~ B(1, 1), com  1 =  1 desconhecida, e X2 ~ B(1, 2),
com  2 =  2 desconhecida, independentes ....................................................................................... diap. 62
Estatística Aplicada (lic. CA)
56

Grandes amostras
População não normal X, com média  e variância  2 desconhecidas
amostra casual da população X : (X1, X2, ..., Xn): v.sa.s observadas i.i.d. Xi de média  e variância  2 , i = 1, 2, …, n

ഥ estimador de 
Distribuição por amostragem da Média amostral X,
Não sendo a população em estudo normal e não tendo acesso à distribuição de probabilidades exata da média
amostral, um processo para obter uma distribuição de probabilidades aproximada para Xഥ é a aplicação do
Teorema do Limite Central, o que implica ter amostras de grande dimensão de X.

Teorema do Limite Central (T.L.C.)


n
v.sa.s Xi i.i.d. de média  e variância  2, i = 1, 2, ..., n → +   Xi ~ሶ N(n, n)


i=1

Corolário do Teorema do Limite Central (C.T.L.C.)


ഥ− 
ഥ =  Xi ~ሶ N ,   Z = X 
1 n

v.sa.s Xi i.i.d. de média  e variância  2, i = 1, 2, ..., n → +  X ~ሶ N(0,1)


n i=1 n


n
Regra geral, para n  30, obtêm-se boas aproximações ao tomar a distribuição normal como distribuição aproximada da
média amostral.
Estatística Aplicada (lic. CA)
57

população não normal X, com média  e variância  2 desconhecidas


amostra casual de X : (X1, X2, ..., Xn)

ഥ− 
ഥ estimador de  : Z = X
Distribuição por amostragem da Média amostral X,  ~ሶ N(0,1)
n

Sendo a variância de X,  2, desconhecida, para efetuar inferências sobre , substitui-se, na v.a. Z,
n por
෢ ഥ− 
X
n
, em que 
ෝ 2 é um estimador consistente de  2:
Z= ~ሶ N(0,1)
ෝ
n

População X com  e  2 desconhecidas → amostra casual (X1, X2, ..., Xn), n → + : X,


ഥ estimador de 

Pelo C.T.L.C.,  2 desconhecida (S 2 estimador de  2)

ഥ− 
X Xഥ− 
Z=  ~ሶ N(0,1) Z = S ~ሶ N(0,1) (v.a. utilizada para estimar  e inferir sobre )
n n
Estatística Aplicada (lic. CA)
58
ഥ− 
X ഥ− 
X
Z=  ~ሶ N(0,1) → Z = ~ሶ N(0,1)
População de Bernoulli, X ~ B(1, ), com  desconhecido (0    1),  =  n
ෝ
n
e  =  (1− → amostra casual (X1, X2, ..., Xn), n → + : Xഥ , estimador de  = 

Pelo C.T.L.C.,  desconhecido


ഥ−
X ഥ− 
X
Z= ~ሶ N(0,1) Z= ~ሶ N(0,1)
θ(1 − θ) (v.a. utilizada para inferir sobre  =  ) X (1 − X ) (v.a. utilizada para estimar  =  )
n n

População de Poisson, X ~ Po( ), com  desconhecido (  0),  =  e  =  →


amostra casual (X1, X2, ..., Xn), n → + : Xഥ , estimador de  = 

Pelo C.T.L.C.,  desconhecido


ഥ−
X ഥ− 
X
Z= ~ሶ N(0,1) Z= ~ሶ N(0,1)
 X
n (v.a. utilizada para inferir sobre  =  ) (v.a. utilizada para estimar  =  )
n
Estatística Aplicada (lic. CA)
59
ഥ− 
X ഥ− 
X
Z=  ~ሶ N(0,1) → Z = ~ሶ N(0,1)
1 ෝ
População Exponencial, X ~ Ex(), com  desconhecido (  0),  = e n
 n
1 1
 = → amostra casual (X1, X2, ..., Xn), n → + : , estimador de   Xഥ , estimador de 
 X
Pelo C.T.L.C.,  desconhecido
ഥ−  X
X ഥ−  ഥ− 
Z= 1 =  ~ሶ N(0,1) Z= X ~ሶ N(0,1)
X


n (v.a. utilizada para inferir sobre  ) n (v.a. utilizada para estimar  )
n

 
População Gama, X ~ Ga(,), com  desconhecido (  0;   0 conhecido),  =
 e =  →

amostra casual (X1, X2, ..., Xn), n → + : , estimador de   Xഥ , estimador de 
X
Pelo C.T.L.C.,  desconhecido
ഥ− 
X ഥ−  ഥ− 
Z=  = X ~ሶ N(0,1) Z= X ~ሶ N(0,1)
X൘

 ൘
 (v.a. utilizada para inferir sobre  )  (v.a. utilizada para estimar  )
n n n
Estatística Aplicada (lic. CA)
60

Populações independentes
X1, com  1 e  12 desconhecidas → amostra casual (X1 1, X1 2, …, X1 n1 ), n1 → + : X1, estimador de  1
e X2, com  2 e  22 desconhecidas → amostra casual (X2 1, X2 2, …, X2 n2 ), n2 → + : X2, estimador de  2

Distribuição por amostragem da diferença entre as duas médias amostrais, X1 − X2, estimador de  1 −  2 :
 
Pelo C.T.L.C., X1 ~ሶ N  1, n1 e X2 ~ሶ N  2, n2 independentes 
1 2

 2  2 X1 − X2 − 1 − 2
 X1 − X2 ~ሶ N  1 −  2, 1 2 Z= ~ሶ N(0,1)
n1 + n2
 12  22
+
n1 n2
Sendo as variâncias de X1 e X2, 12 e 22, desconhecidas, para efetuar inferências sobre  1 −  2, substitui-se,
na v.a. Z, 12 e 22 por estimadores consistentes, respetivamente, 
ෝ 12 e 
ෝ22:
X1 − X2 −  1 −  2
Z= ~ሶ N(0,1)

ෝ12 ෝ22
+
n1 n2
Estatística Aplicada (lic. CA)
61
X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) → Z = ~ሶ N(0,1)
 12  22 
ෝ 12 
ෝ22
+ +
n1 n2 n1 n2

Populações independentes
X1, com  1 e  12 desconhecidas → amostra casual (X1 1, X1 2, …, X1 n1 ), n1 → + : X1, estimador de  1
e
X2, com  2 e  22 desconhecidas → amostra casual (X2 1, X2 2, …, X2 n2 ), n2 → + : X2, estimador de  2

Pelo C.T.L.C.,  12 e  22 desconhecidas (S1 2 estimador de 1 2 e S2 2 estimador de 2 2)

X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) Z= ~ሶ N(0,1)
 12  22 S1 2 S2 2 (v.a. utilizada para estimar  1 −  2 e inferir sobre  1 −  2)
+ +
n1 n2 n1 n2
Estatística Aplicada (lic. CA)
62
X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) → Z = ~ሶ N(0,1)
 12  22 
ෝ 12 
ෝ22
+ +
n1 n2 n1 n2
Populações de Bernoulli independentes,
X1 ~ B(1, 1), com  1 desconhecido, 1 =  1 e  12 =  1(1−  1) →
amostra casual (X1 1, X1 2, …, X1n1), n1 → + : X1, estimador de  1 =  1
e
X2 ~ B(1, 2), com  2 desconhecido,  2 =  2 e  2 2 =  2(1−  2) →
amostra casual (X2 1, X2 2, …, X2 n2), n2 → + : X2, estimador de  2 =  2

Pelo C.T.L.C.,  1 e  2 desconhecidos

X1 − X2 − 1− 2 X1 − X2 − 1− 2
Z= ~ሶ N(0,1) Z= ~ሶ N(0,1)
 1(1 −  1)  2(1 −  2) X1(1 − X1) X2(1 − X2)
+ +
n1 n2 n1 n2

(continua)
(v.a. utilizada para estimar  1 −  2 e inferir sobre  1 −  2)
Estatística Aplicada (lic. CA)
63
X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) → Z = ~ሶ N(0,1)
 12  22 
ෝ 12 
ෝ22
Populações de Bernoulli independentes, n1
+
n2
+
n1 n2
X1 ~ B(1, 1), com  1 desconhecido, 1 =  1 e  1 =  1(1−  1) → 2

amostra casual (X1 1, X1 2, …, X1n1), n1 → + : X1, estimador de  1 =  1


e X2 ~ B(1, 2), com  2 desconhecido,  2 =  2 e  2 2 =  2(1−  2) →
amostra casual (X2 1, X2 2, …, X2 n2), n2 → + : X2, estimador de  2 =  2

Pelo C.T.L.C.,  1 e  2 desconhecidos


X1 − X2 − 1− 2
Z= ~ሶ N(0,1)
 1(1 −  1)  2(1 −  2) X1 − X2
n1
+
n2 Z= ~ሶ N(0,1)
1 1 (v.a. utilizada para inferir sobre  1 =  2)
Para inferir se  1 =  2 ( 1 −  2 = 0) e tomando ෡ − 𝜽)
𝜽(1 ෡ +
n1 n2
1 = 2 =  :
X1 − X2
Z= ~ሶ N(0,1) n1 X 1 + n 2 X 2
෡=
em que 𝜽 ෡
1 1 n1 + n2 , sendo 𝜽 a proporção total de sucessos observada
 (1 − ) +
n1 n2 de sucessos observada nas n1 + n2 observações disponíveis.

Você também pode gostar