Escolar Documentos
Profissional Documentos
Cultura Documentos
CA)
1
INFERÊNCIA ESTATÍSTICA
ESTIMAÇÃO PARAMÉTRICA
PARTE 1
Estatística Aplicada (lic. CA)
2
POPULAÇÃO
obtenção de uma AMOSTRA (recolha de parte dos elementos da população)
conjunto de elementos com uma característica
comum, cujo comportamento é desconhecido.
ESTATÍSTICA DESCRITIVA:
organização do conjunto de dados concretos observados e a
sua redução a parâmetros descritivos, evidenciando os
aspetos mais importantes do seu comportamento.
INFERÊNCIA ESTATÍSTICA:
Estender à população (utilizando técnicas estatísticas convenientes), as conclusões tiradas sobre o comportamento
dos elementos da amostra, formulando proposições gerais que levem à escolha de uma família de modelos
probabilísticos que descreva o fenómeno aleatório em estudo e à estimação de valores plausíveis para os
parâmetros que os caracterizam. O modelo resultante deve ser validado, minimizando, assim, o risco
associado à generalização, para a população, do comportamento da amostra.
(aplicação da Teoria da Probabilidade)
Estatística Aplicada (lic. CA)
3
Exemplo.
Um dado restaurante está aberto todos os dias e, no seu plano semanal, há um item referente ao
número de copos partidos diariamente.
Quantos copos é mais provável partirem-se num dia?
(Admita que o número de copos partidos num dia segue uma distribuição de Poisson.)
População:
v.a. X – “número de copos partidos no restaurante, em 1 dia”, x = 0, 1, 2, …
X ~ Po( ), = , = ; P(X = x) = e
2 − λ x
, x = 0, 1, 2, …
x!
Para responder à pergunta “Quantos copos é mais provável partirem-se num dia?”, ou seja,
x = ? tal que P(X = x) é máxima,
é necessário saber o valor do parâmetro .
Como , na distribuição de Poisson, é coincidente com o valor médio da v.a., , recolhendo informação sobre a
quantidade de copos partidos diariamente, poder-se-á, através do número médio de copos partidos observado num
dia, estimar o valor de .
(continua)
Estatística Aplicada (lic. CA)
4
Tomando para , o valor * = 9.4, estima-se que, num dia, é mais provável partirem-se
x 0 1 … 7 8 9 10 11 …
P(X = x) 0.0001 0.0008 … 0.1064 0.1251 0.1306 0.1228 0.1049 …
9 .4 x
nota. P(X = x) = e
−9.4
máximo absoluto da f.p. Po(9.4) 9 copos.▄
x!
Estatística Aplicada (lic. CA)
5
(1) estimar, a partir de uma amostra da população, o valor do parâmetro: Estimação pontual.
Exemplo. A partir de uma amostra concreta, obter um valor real que represente , o verdadeiro valor do parâmetro
que caracteriza a distribuição de Poisson associada à v.a. “número de copos partidos no restaurante, em 1 dia”.▄
(2) construir, a partir da amostra observada, um intervalo de números reais que, com uma elevada
confiança, contenha o verdadeiro valor do parâmetro: Estimação Intervalar.
Exemplo. A partir de uma amostra concreta, obter um intervalo real que, com um elevado grau de confiança, contém
o verdadeiro valor de , parâmetro que caracteriza a distribuição de Poisson associada à v.a. “número de copos
partidos no restaurante, em 1 dia”.▄
(3) colocar uma suposição sobre o verdadeiro valor do parâmetro e verificar se a amostra observada a
sustenta: Teste de Hipóteses Paramétricas.
Exemplo. Supor que o verdadeiro valor de , parâmetro que caracteriza a distribuição de Poisson associada à v.a.
“número de copos partidos no restaurante, em 1 dia”, é, no máximo, 9 ( 9 versus 9).▄
Estatística Aplicada (lic. CA)
6
Inferir sobre o comportamento de uma população, implica a obtenção de uma amostra de observações
que a represente. No entanto, a amostra observada é, apenas, um dos muitos conjuntos, com o mesmo
número de elementos, possíveis de recolher quando se observa, em condições semelhantes, o
fenómeno aleatório.
POPULAÇÃO
v.a. X
As amostras observadas,
(x1 1, x1 2, x1 3, ..., x1 n) , (x2 1, x2 2, x2 3, ..., x2 n) , ... , (xk 1, xk 2, xk 3, ..., xk n),
são concretizações da variável aleatória (X1, X2, X3, ..., Xn ),
designada Amostra Aleatória de dimensão n, em que cada uma das v.sa.s representa o valor que é possível
observar na respetiva posição das amostras recolhidas:
v.a. observada X1 – “valor observado do 1.º elemento recolhido em cada uma das amostras de n elementos”
v.a. observada X2 – “valor observado do 2.º elemento recolhido em cada uma das amostras de n elementos”
...
Genericamente,
v.a. observada Xi – “valor observado do i-ésimo elemento recolhido em cada uma das amostras de n
elementos”, i = 1, 2, 3, ..., n,
nota. Cada uma das v.sa.s observadas assume os mesmos valores que a população, representada pela v.a. X.
Estatística Aplicada (lic. CA)
8
Exemplo.
Um dado restaurante está aberto todos os dias e, no seu plano semanal, há um item referente ao número de
copos partidos diariamente.
Os 3 últimos registos semanais sobre o número de copos partidos no restaurante são:
(continua)
1.ª amostra (semana 1) 2.ª amostra (semana 2) 3.ª amostra (semana 3)
(11, 7, 10, 7, 10, 11, 12) (10, 6, 9, 11, 8, 14, 12) (10, 8, 8, 10, 9, 10, 11)
Estatística Aplicada (lic. CA)
9
ou seja, o n.º observado de copos partidos no restaurante em cada um dos 7 dias de uma semana:
são os valores assumidos pela v.a. (X1, X2, X3, X4, X5, X6, X7), em que
v.a. observada Xi – “n.º observado de copos partidos no restaurante, no dia i de cada uma das
semanas”, xi = 0, 1, 2, ...,
i = 1, 2, 3, 4, 5, 6, 7 ▄
Estatística Aplicada (lic. CA)
10
Amostragem: métodos de seleção de amostras aleatórias de uma população, sem provocar qualquer
alteração nesta.
O método escolhido para selecionar uma amostra da população, define quais os procedimentos a utilizar para inferir
o comportamento da população a partir da informação contida na amostra.
notas.
(1) v.sa.s Xi (i = 1, 2, ..., n) independentes → os valores que cada v.a. observada assume não estão dependentes dos
valores assumidos por qualquer outra v.a. observada;
(2) v.sa.s Xi (i = 1, 2, ..., n) identicamente distribuídas → as v.sa.s observadas são réplicas da v.a. X que representa a
população.
Estatística Aplicada (lic. CA)
11
Estimação paramétrica
Seja a população X com distribuição de probabilidades f (x | 1, 2, ..., m), em que são desconhecidos os
verdadeiros valores dos parâmetros, 1, 2, ..., m, que a caracterizam.
O problema de inferência estatística que se coloca é o de, a partir da informação contida na amostra
aleatória (X1, X2, ..., Xn) selecionada da população, determinar valores reais que representem os verdadeiros
valores dos parâmetros. Este procedimento é denominado estimação paramétrica.
Definição. Estatística
Uma Estatística é uma variável aleatória T = T(X1, X2, ..., Xn), função da amostra aleatória (X1, X2, ..., Xn),
que não envolve parâmetros desconhecidos.
notas.
(1) Uma estatística T = T(X1, X2, ..., Xn) é construída, apenas, com as v.sa.s observadas ou com as v.sa.s observadas e parâmetros
conhecidos e o seu propósito é reduzir a informação contida nas observações, X1, X2, ..., Xn, calculando, a partir destas,
medidas amostrais que descrevam o seu comportamento, tais como, a média, a mediana, a variância, entre outras.
(2) Uma estatística reduz a v.a. multidimensional, (X1, X2, ..., Xn), a uma v.a. unidimensional,
T = T(X1, X2, ..., Xn), cujo tratamento estatístico é mais simples.
Estatística Aplicada (lic. CA)
12
Exemplos.
1. Considere a produção diária de copos, numa dada fábrica, e a população de Bernoulli representada
pela
v.a. X – “n.º de copos com defeito, em 1 copo”, x = 0, 1
X ~ B(1, ) , 0 1, com = e 2 = (1 − ),
em que o parâmetro é desconhecido. ( = P(X = 1) é a verdadeira proporção de copos com defeito na produção diária)
Recolha, de X, da amostra casual (X1, X2, ..., Xn), em que
v.a. observada Xi – “n.º observado de copos com defeito no i-ésimo copo da amostra casual de n copos”,
xi = 0, 1 ; i = 1, 2, …, n
Estatísticas:
n
v.a. T1 = Xi – “n.º total observado de copos com defeito nos n copos que formam a amostra casual”,
i =1 t1 = 0, 1, 2, ..., n
1 n
v.a. T2 = X – “proporção observada de copos com defeito nos n copos que formam a amostra
n i =1 i
casual”, 0 t2 1 (continua)
Estatística Aplicada (lic. CA)
13
v.a. X – “n.º de copos com defeito, em 1 copo”, x = 0, 1 ; X ~ B(1, )
n 10
T1 = Xi : t1 = xi = 8 copos com defeito, nos 10 observados
i =1 i =1
1 n 1 10 8 8
T2 = n Xi : t2 = 10 xi = 10 = 0.8 = 10 = 0.8 → 80% de copos com defeito, nos 10 copos observados
i =1 i =1
nota. A estatística construída com as v.sa.s observadas deve produzir informação pertinente sobre o
comportamento da amostra aleatória e, consequentemente, da população.
Considere-se, por exemplo, a estatística:
n 10
T3 = Xi → t3 = xi = 0 : com esta informação, apenas, se fica a saber que, pelo menos, um dos 10 copos não
i =1 i =1 tem defeito, informação contida na estatística T1.▄
produto dos n
valores observados
Estatística Aplicada (lic. CA)
14
1 12 − 33.6
Média amostral: xത = 12 xi = 12 = − 2.8 mm → em média, cada uma das 12 bengalas observadas, relativamente
i =1 à altura padrão de 95 cm, tem menos 2.8 mm, com uma variabilidade,
em torno deste valor, dos erros cometidos observados de
1 12 2 103.08
Variância amostral: s2 = xi − xത 2 = − (− 2.8)2 = 0.75 mm2 ▄
12 12
i =1
Estatística Aplicada (lic. CA)
16
Seja a população X com distribuição de probabilidades f (x |1, 2, ..., m), em que os verdadeiros valores dos parâmetros,
1, 2, ..., m, são desconhecidos.
Na Estimação Pontual está em destaque a precisão dos valores propostos para os verdadeiros valores
desconhecidos dos parâmetros.
A partir de uma amostra recolhida da população são obtidos números reais isolados para representar os
verdadeiros valores dos parâmetros que, quanto maior a sua precisão, menor a confiança que se tem neles.
(Para i = 1, 2, …, m, o valor real obtido é tanto mais preciso quanto mais próximo se encontrar do verdadeiro valor do parâmetro i
e a precisão é total quando coincidir com i , sendo praticamente nula a confiança de que tal ocorra.)
Na Estimação Intervalar, a maior importância é atribuída à confiança dos valores propostos para os
verdadeiros valores desconhecidos dos parâmetros.
A partir de uma amostra recolhida da população, são associados aos valores reais isolados, intervalos de números
reais que conterão, muito possivelmente (quantificado por um grau de confiança), os verdadeiros valores dos
parâmetros, diminuindo a precisão dos resultados mas aumentando a confiança que se tem neles.
(Para i = 1, 2, …, m, com elevada confiança, i (linf ,lsup), reduzindo a precisão do valor proposto para representar o verdadeiro
valor do parâmetro.)
Estatística Aplicada (lic. CA)
17
Estimação Pontual
Seja a amostra casual (X1, X2, ..., Xn) de uma população X com distribuição de probabilidades f (x |1, 2,
..., m), em que 1, 2, ..., m são parâmetros reais desconhecidos.
Seja a população X com distribuição de probabilidades f (x |1, 2, ..., m), em que os verdadeiros valores dos parâmetros,
1, 2, ... , m, são desconhecidos.
Estimador
População X, Parâmetro
M.M. M.M.V.
da qual foi recolhida a amostra casual de dimensão n, (X1, X2, ..., Xn) desconhecido
Bernoulli: X ~ B(1, ), = , 2 = (1− ) θ෩ = X
ഥ θ = X
ഥ
X X
Binomial: X ~ B(m, ), = m , 2 = m (1− ) θ෩ = θ =
m m
1 1− 1 1
Geométrica: X ~ G( ), = 2 = θ෩ = θ =
, 2 X X
r r 1− r r
Binomial Negativa: X ~ BN(r ; ), = , 2 = θ෩ = θ =
2 X X
Poisson: X ~ Po( ), = , 2 = ෩ = Xഥ = Xഥ
= Xഥ ෝ = Xഥ
Normal: X ~ N(, )
2 2 = S 2 ෝ 2 = S 2
Estatística Aplicada (lic. CA)
20
Estimador
População X, Parâmetro
da qual foi recolhida a amostra casual de dimensão n, M.M. M.M.V.
desconhecido
(X1, X2, ..., Xn)
1 2 1 1 1
Exponencial: X ~ Ex( ), = ෩ = =
, = 2 X X
෩ = =
( conhecido) X X
Gama: X ~ Ga(, ), =
, 2=
2 X2
= S2 − Xഥ = 0
(1)
X
n
෩ = S2 n ln − n + ln(Xi) = 0
i=1
________________________________________________________________________________________________________
(1)
Não originando os dois métodos os mesmos estimadores para um parâmetro, o M.M.V. fornece, em geral, estimadores de melhor
qualidade. No caso dos parâmetros da distribuição Gama, as equações que resultam da aplicação do M.M.V. não têm resolução analítica;
as estimativas para os parâmetros são obtidas aplicando um método numérico apropriado. No entanto, os respetivos estimadores obtidos
pelo M.M. dão estimativas próximas dos verdadeiros valores dos parâmetros.
Estatística Aplicada (lic. CA)
21
Exponencial: X ~ Ex()
1
1 1 : = X ෝ = Xഥ ෝ 2 = Xഥ 2
= ; 2= 2
▄
Estatística Aplicada (lic. CA)
22
Exercício.
a) Num dado restaurante, o ______________________________
tempo de espera por uma mesa, não reservada previamente, é
exponencialmente distribuído.
_______________________ (1)
Os ________________________________________________________________________________
últimos dez pedidos de mesa foram satisfeitos em (5.6, 7, 1.5, 5, 6.8, 10, 8.1, 3.5, 12.5, 4.7) minutos.(3)
Estime a percentagem de pedidos de mesa satisfeitos em menos de 5 minutos.(2)
_______________________________________________________________
(1)
v.a. X – “tempo de espera, em minutos, por uma mesa”, x 0
X ~ Ex( ) (f.d.: F(x) = P(X x) = 1 − e− x, x 0)
verdadeiro valor do parâmetro desconhecido
1
estimador da M.V. para : =
X
(3)
amostra concreta de X: n = 10
1 1
10
64.7 1
estimativa da M.V para : = ഥ e xഥ = xi = = 6.47 = 6.47 = 0.1546
x 10 i=1 10
(continua)
(2)
( X 5 ) = 1 − e− 0.1546 5 = 0.5384 → 53.84% dos pedidos de mesa satisfeitos em menos de 5 minutos.
P
Estatística Aplicada (lic. CA)
23
(1)
v.a. Y – “n.º de pedidos de mesa para a varanda, em 1 pedido de mesa”, y = 0, 1
(2)
Y ~ B(1,Y), Y = P(Y = 1) Y =?
(verdadeira proporção, desconhecida, de pedidos de mesa para a varanda no restaurante)
(continua)
estima-se que, no restaurante, 75% dos pedidos de mesa são para a varanda.
Estatística Aplicada (lic. CA)
24
v.a. Y – “n.º de pedidos de mesa para a varanda, em 1 pedido de mesa”, y = 0, 1 ; Y ~ B(1,Y), Y = P(Y = 1): Y = 0.75
b2) Verifique a _
veracidade
_ _ _ _ _ _da_ afirmação:
_ _ _ _ _ _(2)
________________________________________
Desde o último pedido de mesa para a varanda, estima-se
_ _ _ _ _ _que
_ _ _é _quase
_ _ _ _certo
_ _(2)que o _____________
próximo pedido
para a varanda é feito, no máximo, após 6 pedidos de mesa para a sala. (1)
__________________________________________________________
(1)
v.a. W – “n.º de pedidos de mesa até um pedido de uma mesa para a varanda”, w = 1, 2, ...
W ~ G(W ) (f.d.: P(W w) = 1 − (1 − W)w, w = 1, 2, ...)
verdadeira probabilidade, desconhecida, de um pedido de mesa ser para a varanda: W = Y
(continua)
(W 7) = 1 − (1 − 0.75)7 = 0.99994 1 a afirmação é verdadeira.
P
Estatística Aplicada (lic. CA)
25
v.a. W – “n.º de pedidos de mesa até um pedido de uma mesa para a varanda”, w = 1, 2, ... ; W ~ G(W ), W = 0.75
(2) (3)
b3) Estime, _
em_ _média
_ _ _ e com que variabilidade
_ _ _ _ _ _ _ _em
_ _seu
_ _torno,
_ _ _ quantos pedidos de mesa são feitos até
________________________________
serem recebidos 10 pedidos de mesa para a varanda.(1)
___________________________________________
(1)
v.a. T – “n.º de pedidos de mesa até 10 pedidos de uma mesa para a varanda”, t = 10, 11, ...
r
T ~ BN(10; 0.75 )
T = W
(T = verdadeira probabilidade, desconhecida, de um pedido de mesa ser para a varanda = W)
(2) r 10
T =
ෝ = = 13.3333 pedidos de mesa
T 0.75
(3)
r 1−T 10 × 1− 0.75
(continua)
ෝ T = = = 2.1082 pedidos de mesa
T 0.75
Estatística Aplicada (lic. CA)
26
v.a. Y – “n.º de pedidos de mesa para a varanda, em 1 pedido de mesa”, y = 0, 1 ; Y ~ B(1,Y), Y = P(Y = 1): Y = 0.75
b4) _____________________
Em 40 pedidos de mesa, _estime,
_ _ _ _com
_ _ _uma
_ _ _garantia
_ _ _ _ _de
_ _95%,
_ _ _quantos,
_ _ _ _ _ no
______ _ _máximo,
_ _ _ _(2) são ______
para a
varanda.(1)
_______
(1)
v.a. V – “n.º de pedidos de mesa para a varanda, em 40 pedidos de mesa”, v = 0, 1, 2, ..., 40
m n.º máximo de pedidos de mesa para
V ~ B( 40 , 0.75 ) V = Y (2)
v = ? tal que P
(V v ) = 0.95 a varanda
(V = verdadeira probabilidade,
desconhecida, de um pedido de mesa ser para a varanda = Y)
ෝV = m V = 40 0.75 = 30 pedidos de mesa para a varanda
m = 40 30 e 0.10 V 0.90 T.L.C., V ~ሶ N( 30 , 2.7386 ) ෝ = m 1 − = 40 × 0.75 × 0.25 = 2.7386 pedidos de
V V V
mesa para a varanda
Um estimador para o parâmetro não deve ser avaliado através de uma única estimativa originada a
partir da recolha de uma amostra concreta da população, uma vez que o valor obtido poderá situar-se
muito próximo ou muito afastado do verdadeiro valor do parâmetro.
(A estimativa obtida é tanto mais precisa quanto mais próxima se encontrar do verdadeiro valor de e a precisão
é total quando coincidir com .)
Interpretação da propriedade enunciada: pela teoria frequencista de probabilidade, ao fim da recolha de um grande n.º de
amostras concretas da mesma dimensão, a média aritmética das estimativas obtidas estará, certamente, muito próxima
do verdadeiro valor do parâmetro (valor esperado do estimador), existindo um equilíbrio entre os casos de sobrestimação
(estimativas, obtidas a partir do estimador definido, de valor superior ao verdadeiro valor do parâmetro) e os casos de
subestimação (estimativas, obtidas a partir do estimador definido, de valor inferior ao verdadeiro valor do parâmetro).
Um estimador diz-se enviesado se E(T ) , sendo o enviesamento dado por Env(T ) = E(T ) − .
Se lim E(T ) = , , o estimador T = T(X1, X2, ..., Xn) diz-se assintoticamente centrado.
n→+
Estatística Aplicada (lic. CA)
29
Exemplo.
Sejam T1 = T1(X1, X2, ..., Xn) e T2 = T2(X1, X2, ..., Xn) dois estimadores centrados para o parâmetro , com
distribuições por amostragem, respetivamente, f1(t | ) e f2(t | ), tais que:
f1
f2
T1 terá melhor desempenho que T2, porque Var(T1) Var(T2). ▄
t
E(T1) = E(T2)
O “melhor” estimador centrado é aquele que produz estimativas mais concentradas à volta do verdadeiro
valor de , ou seja, aquele que tem variância mínima.
Estatística Aplicada (lic. CA)
30
Definição. Eficiência
Sejam T1 = T1(X1, X2, ..., Xn) e T2 = T2(X1, X2, ..., Xn) dois estimadores centrados para o parâmetro :
E(T1) = E(T2) = .
O estimador T1 é mais eficiente (eficiência relativa) do que o estimador T2 quando
Var(T1) Var(T2) , .
nota. Na maior parte das situações, é possível determinar a eficiência relativa entre dois estimadores centrados. No
entanto, determinar o estimador mais eficiente (eficiência absoluta) pela definição dada, implica a aplicação do conceito
de eficiência relativa a cada par de estimadores, o que não é viável, por existirem inúmeros estimadores centrados para
um dado parâmetro, sendo impossível listá-los.
Existem vários resultados que podem ser aplicados para determinar o estimador centrado mais eficiente para um dado
parâmetro.
Estatística Aplicada (lic. CA)
31
Exercício.
Considere, a população X ~ U(1, ), em que 1 é um parâmetro de valor desconhecido, da qual foi
recolhida a amostra casual ordenada (X(1), X(2), ..., X(15)). Os estimadores para obtidos pelo método
dos momentos e pelo método da máxima verosimilhança são, respetivamente,
෩ ෩ ෩ ( − 1)2
θ = 2Xഥ − 1, com E(θ ) = e Var(θ ) = 45 ,
e
−1 15
θ = X(15), com E(θ ) = − 16 e Var(θ ) = 4352 ( − 1)2.
A frase é falsa porque, embora θ෩ seja centrado (E(θ෩ ) = ), θ não é centrado: E(θ ) , não podendo os
estimadores ser comparados quanto à eficiência relativa.
(continua)
−1
nota. Env(θ ) = E(θ ) − = − 16 0: em média, θ gera uma estimativa para inferior ao verdadeiro valor.
Estatística Aplicada (lic. CA)
32
X ~ U(1, ), 1
amostra casual ordenada (X(1), X(2), ..., X(15)) → estimador da M.V para :
−1 15
θ = X(15), com E(θ ) = − 16 e Var(θ ) = 4352 ( − 1)2
(1)
θ = X(15) → = ? tal que E( ) =
−1 1
E(θ ) = − 16 E(θ ) = 15 + 1 E(16 θ ) − 1 = 15 E(16 θ − 1) =
16 15
− 1
16 θ 16 X(15)− 1
E = Estimador centrado para : = , com E( ) = .
15 15
(continua)
novo estimador
para
Estatística Aplicada (lic. CA)
33
X ~ U(1, ), 1
c) A partir da amostra casual ordenada (X(1), X(2), ..., X(15)), considere, para , o estimador obtido pelo
método dos momentos e o estimador com origem no estimador da máxima verosimilhança,
respetivamente,
෩ ෩ ෩ ( − 1)2
θ = 2X − 1, com E(θ ) = e Var(θ ) = 45 ,
ഥ
e
16 X(15)− 1 15
= 15
, com E( ) = e Var(X(15) ) =
4352
( − 1)2.
16X(15)− 1 1 162
Var( ) = Var = 2 Var(16X(15) − 1) = 2 Var(X(15) ) =
15 15
15
162 15 ( − 1)2
= 2 ( − 1) =
2 Var(θ෩ ) A frase é verdadeira. ▄
15 4352 255
Estatística Aplicada (lic. CA)
34
Limitação do conceito Eficiência: é apenas aplicável a estimadores centrados, existindo critérios de âmbito mais
geral que permitem a avaliação de estimadores enviesados.
Definição. Erro Quadrático Médio (aplicável a estimadores enviesados)
Considere-se o estimador T = T(X1, X2, ..., Xn) para o parâmetro . O erro quadrático médio do estimador T é
dado por EQM(T ) = E[(T − )2].
Se T estimador centrado para , E(T ) = , então E[(T − )2] = Var(T ).
Sejam T1 = T1(X1, ..., Xn) e T2 = T2(X1, ..., Xn) dois estimadores para o parâmetro .
T1 tem melhor desempenho que T2, se EQM(T1) EQM(T2), , gerando T1 estimativas mais concentradas em torno do
verdadeiro valor de do que T2.
n→+ n→+ n→+
Interpretação da propriedade enunciada: Com o aumento da dimensão da amostra, a dispersão das estimativas geradas
por Tn em torno de tenderá a diminuir, tal que, no limite, o estimador assumirá valores coincidentes com , o verdadeiro
valor do parâmetro.
Estatística Aplicada (lic. CA)
35
Não sendo possível a determinação de estimadores consistentes em média quadrática, considera-se um conceito
de consistência menos exigente.
Definição. Estimador Consistente (ou simplesmente consistente: s.c.)
Um estimador Tn = T(X1, X2, ..., Xn) para o parâmetro diz-se (simplesmente) consistente se e só se,
qualquer que seja o número real 0, P( − Tn + ) = 1, .
Interpretação da propriedade enunciada: Sendo a amostra de grande dimensão (n → +) e o valor de muito pequeno, é quase
certo que o estimador Tn assumirá valores (estimativas) dentro do intervalo ] − , + [. Tendo este uma amplitude, 2, muito
pequena, esses valores estarão muito próximos de , o verdadeiro valor do parâmetro.
Estimador consistente é um estimador cuja precisão aumenta com o crescimento da dimensão da amostra, tal que, no limite, a
precisão é total, i.e., o estimador Tn assumirá valores coincidentes com , o verdadeiro valor do parâmetro.
Devido a, em geral, existirem muitos estimadores consistentes para um dado parâmetro, o conceito de consistência é
utilizado na negativa: para um parâmetro não deve ser utilizado um estimador que não é consistente.
Teorema. Considere-se o estimador Tn = T(X1, X2, ..., Xn) para o parâmetro . As condições
lim E(Tn) = (ou E(Tn) = ) e lim Var(Tn) = 0, ,
n→+ n→+
são suficientes para que Tn seja estimador (simplesmente) consistente.
nota. O teorema enunciado indica que a consistência em média quadrática implica a consistência simples.
Estatística Aplicada (lic. CA)
36
Teorema.
Seja a amostra casual (X1, X2, ..., Xn) da população X, para a qual existem média, , e variância, 2. Então,
2
(1) a v.a. Xഥ (média amostral) tem E(Xഥ ) = e Var(Xഥ ) = n , sendo um estimador consistente em média quadrática (é
2 k E (X − )4
(3) a v.a. S 2 (variância amostral corrigida) tem E(S 2) = 2 e Var(S 2) = 4 n−1 + n , em que k = 4 − 3, sendo um
estimador consistente em média quadrática (é centrado e Var(S 2) = 0), logo simplesmente consistente, para 2.
Estatística Aplicada (lic. CA)
37
Exemplo.
população: X ~ N(,), com desconhecido
amostra casual: (X1, X2, ..., Xn), v.s a.s observadas i.i.d. Xi ~ N(,), i = 1, ..., n
n
1
estimador consistente para : Xഥ = Xi
n i =1
2
E(Xഥ ) = e Var(Xഥ ) = n →0 ഥ
Quanto maior a dimensão da amostra, maior a concentração das estimativas, geradas por X,
n→+ à volta de .
x)
f (ഥ
Xഥ estimador centrado para .
N , , n = 200
200
N , , n = 100
distribuição por amostragem de Xഥ : Xഥ N , 100
n
N , , n = 50
50
N , , n = 10
10
0 xഥ
ഥ na estimação de . ▄
Consistência da média amostral, X,
Estatística Aplicada (lic. CA)
38
Exercício.
Num dado restaurante, a duração de uma refeição, em minutos, num dia útil é uma variável aleatória, X, em
1
que X ~ Ga 3, , sendo IR+ desconhecido. Recolhida uma amostra casual de X, (X1, X2, …, Xn), considere
β
o estimador consistente, obtido pelo M.M.V., para ,
Xഥ 2
β = 3 , com E(β ) = e Var(β ) = 3n .
Admite-se que, num dia de fim de semana, uma refeição dure 2 vezes mais do que num dia útil.(1)
a) ________________________________________________________________________________
Determine o _
estimador
_ _ _ _ _da
__M.V. _ _ _a _____________________________________________
_ _para _duração
_ _ _ _média
____ de_uma
_ _ _refeição
_ _ _ _num
_ _ _dia
_ de
_ _fim
_ _de
__semana
_ _ _ (2)e estude a
sua consistência. (3)
obs.: X ~ Ga(,): =
1 3
v.a. X – “duração, em minutos, de uma refeição num dia útil”, x 0 ; X ~ Ga 3, , em que = 1 = 3
β ൘
β
(1)
v.a. Y – “duração, em minutos, de uma refeição num dia de fim de semana” , y 0
(continua)
Y = 2X, com (2)Y = E(2X) = 2E(X) = 23 = 6 → (3) estimador da M.V. para Y, ෝ
Y = ?
Estatística Aplicada (lic. CA)
39
1
v.a. Y – “duração, em minutos, de uma refeição num dia de fim de semana”, Y ~ Ga 3, 2β ; Y = 6
Xഥ 2
estimador da M.M.V. para : β = 3 , com E(β ) = e Var(β ) = 3n
Determine o estimador da M.V. para a duração média de uma refeição num dia de fim de semana e estude a
____________________________________________________________________
(1)
sua consistência.(2)
_____________
Xഥ
Y = 6 e β = estimador da M.V. para pela propriedade da invariância, estimador da M.V. para Y :
(1)
3
Xഥ
Y = 6 β = 6 = 2X
ෝ ഥ
3
(2)
Y) = E(6 β ) = 6 E(β ) = 6 = Y ෝ
E(ෝ Y é estimador centrado para Y
ෝY estimador consistente para Y
2 12 2
→
Y) = Var(6 β ) = 62 Var(β ) = 36
Var(ෝ =
3n n n→+
(continua)
0
Y) = Y e Var(ෝ
nota. E(ෝ Y ) → 0
ෝY c.m.q. para Y
ෝY s.c. para Y
n→+
Estatística Aplicada (lic. CA)
40
1 Xഥ
v.a. X – “duração, em minutos, de uma refeição num dia útil”, X ~ Ga 3, ; estimador da M.M.V. para : β =
β 3 −1
x k
nota. X ~ Ga(,) e IN : f.d. F(x) = P(X x) = 1 − e− x ,x0
k =0
k!
v.a. Y – “duração, em minutos, de uma refeição num dia de fim de semana”, Y = 2X
b) _
20_refeições,
_ _ _ _ _ _servidas
_____ em
__dias
_ _úteis,
_ _ _ duraram
_ _ _ _ _um
_ _total
_ _ _de_ 960 _ _ _ _(2)
_ _ _minutos.
Estime a percentagem de refeições, num dia de fim de semana, com duração superior a 2 horas.(1)
_____________________________________________________________________________
(2 horas = 120 minutos)
(1) 1 1 (Y 120 ) = ?
Y = 2X e X ~ Ga 3, β Y ~ Ga 3, 2β ; P
20
1 20 960
amostra concreta de X: n = 20 ; xi = 960 xത = 20 xi = 20 = 48 minutos → estimativa para :
(2)
i =1 i =1
xഥ 48
β = 3 = 3 = 16
1 1
Y ~ Ga(3,0.03125), em que = 2×16 = 0.03125
2β
0.03125 × 120 k
2
(Y 120) = 1 − P
P (Y 120) = 1 − 1 − e− 0.03125 120
k =0 k!
= e− 3.75
3.75 2
1 + 3.75 + 2 = 0.2771
Estima-se que 27.71% das refeições num dia de fim de semana duram mais de 2 horas. ▄
Estatística Aplicada (lic. CA)
41
1. Distribuição do Qui-Quadrado
Definição.
Diz-se que uma variável aleatória contínua, X, tem distribuição Qui-Quadrado, com n graus de liberdade (n
IN), quando a função densidade de probabilidade é da forma
x n
− −1
e 2 ∙ x2
f (x) = n , x 0, n IN.
n
22
2
nota. Função Gama (função real de uma variável real):
Simbolicamente: X ~ 2(n) +
(k) = e− x xk − 1dx (k 0)
Representação gráfica de f.d.p. Qui-Quadrado: 0
f ( x) f ( x)
2 (1) , 2 (2) Características principais:
2 ,n3
Valor Esperado → = n
(n)
Variância → 2 = 2n
0 x 0 x
Estatística Aplicada (lic. CA)
43
A distribuição Qui-Quadrado está tabelada, permitindo determinar, para alguns valores de n [n = 1 (1) 30 (10)
100] e de (0 1), o valor q tal que P(X q) = :
GL 0,995 0,99 0,975 0,95 0,9 …
2 (n) 1 0,000 0,000 0,001 0,004 0,016
2 0,010 0,020 0,051 0,103 0,211
P(X q) = 3 0,072 0,115 0,216 0,352 0,584
4 0,207 0,297 0,484 0,711 1,064
0 q=? 5 0,412 0,554 0,831 1,145 1,610
6 0,676 0,872 1,237 1,635 2,204
7 0,989 1,239 1,690 2,167 2,833
Exemplo. 8 1,344 1,646 2,180 2,733 3,490
X ~ 2(7): P(X q) = 0.975 q = 1.69 ▄ …
9 1,735
…
2,088
…
2,700
…
3,325
…
4,168
…
k k
Teorema: Xi ~ 2(ni), i = 1, 2, ..., k, v.sa.s independentes Xi ~ 2(n), em que n = ni
i=1 i=1
n
Xi − i 2
Teorema: Xi ~ N(i ,i ), i = 1, 2, ..., n, v.sa.s independentes ~ 2(n)
i
i =1
nota. A designação de “graus de liberdade” refere-se ao n.º de quadrados de v.sa.s normais reduzidas independentes
que se consideram na v.a. soma.
Estatística Aplicada (lic. CA)
44
2. Distribuição t-Student
Definição.
Sejam duas variáveis aleatórias independentes X e Y, tais que X ~ N(0,1) e Y ~ 2(n). Então,
X
T= ~ t (n),
Y
n
ou seja, a variável aleatória T tem distribuição de t-Student com n graus de liberdade (n IN).
Representação gráfica de f.d.p. t-Student :
f (t )
t (n) , n→+
0.4
N (0,1)
Características principais:
t (4) Valor Esperado → = 0, n 1
t n
0 Variância → 2 = n −2 , n 2
lim f (t) = (t), i.e., se n → +, então T ~ሶ N(0,1)
n→+
Estatística Aplicada (lic. CA)
45
A distribuição t-Student está tabelada, permitindo determinar, para alguns valores de n [n = 1 (1) 30 (10) 100
120 ] e de (0 1), o valor t tal que P(T t ) = :
t(n)
GL 0,4 0,25 0,2 0,15 0,1 …
1 0,325 1,000 1,376 1,963 3,078
P(T t ) = 2 0,289 0,816 1,061 1,386 1,886
3 0,277 0,765 0,978 1,250 1,638
4 0,271 0,741 0,941 1,190 1,533
0 t=? 5 0,267 0,727 0,920 1,156 1,476
6 0,265 0,718 0,906 1,134 1,440
A simetria da distribuição t-Student permite o uso da tabela 7 0,263 0,711 0,896 1,119 1,415
para o cálculo de probabilidades na aba esquerda. 8 0,262 0,706 0,889 1,108 1,397
9 0,261 0,703 0,883 1,100 1,383
Exemplo. … … … … … …
0,253 0,674 0,842 1,036 1,282
X ~ t(5): P(X t ) = 0.1 t = 1.476
P(X k) = 0.1 k = − 1.476 ▄ valores associados à cauda direita da f.d.p. N(0,1)
t(5) ( é o valor da área à direita das abcissas indicadas
limitada pela f.d.p. N(0,1))
P(T k) = 0.1 P(T t ) = 0.1
k=? 0 t=?
Estatística Aplicada (lic. CA)
46
3. Distribuição F-Snedecor
Definição.
Sejam duas variáveis aleatórias independentes, X e Y, tais que X ~ 2(m) e Y ~ 2(n) (m, n IN). Então,
Xൗ
F = Y m ~ F (m,n),
ൗn
Representação gráfica de f.d.p. F-Snedecor :
g(f )
F(m,n3)
Características principais:
n1 n2 n3 n
Valor Esperado → = ,n2
F(m,n2) n −2
F(m,n1) 2n2∙ m + n −2
Variância → 2 = m∙(n − 2)2∙(n − 4) , n 4
0 f
Estatística Aplicada (lic. CA)
47
60, 120, ] e alguns valores de (0 1), o 0,975 0,0015 0,0260 0,0573 0,0818 0,1941 0,1990
0,950 0,0062 0,0540 0,0987 0,1297 0,2551 0,2603
valor f tal que P(F f ) = : 0,900 0,0251 0,1173 0,1806 0,2200 0,3639 0,3696
0,100 39,86 49,50 53,59 55,83 63,06 63,33
F(m, n) 0,050 161,45 199,50 215,71 224,58 253,25 254,31
0,025 647,79 799,50 864,16 899,58 1014,02 1018,26
0,010 4052,18 4999,50 5403,35 5624,58 6339,39 6365,68
2 0,990 0,0002 0,0101 0,0325 0,0556 0,2089 0,2171
P(F f ) =
0,975 0,0013 0,0256 0,0623 0,0939 0,2628 0,2711
Populações Normais
Uma população Normal: X ~ N(, )
amostra casual da população X : (X1, X2, ..., Xn), v.sa.s observadas i.i.d. Xi ~ N( , ), i = 1, 2, …, n
ഥ estimador de ( 2 conhecida)
Distribuição da Média amostral X,
ഥ −
X
Z= N(0,1) (v.a. utilizada para estimar e inferir sobre )
n
n n
1 1 n
Obs. Xi ~ N(, ), i = 1, 2, …, n i.i.d. Xi ~ N(n, n ) ; Xi ~ N(n, n ) e IR X = Xi ~ N μ,
ഥ
i =1 i =1
n n i =1 n
n − 1 S 2
Q= 2(n − 1) (v.a. utilizada para estimar 2 e inferir sobre 2)
2
n
(Xi − )2
Obs. i=1
2(n) e μො = Xഥ , sendo a média amostral, X
ഥ , e a variância amostral, S 2, v.sa.s independentes
2
(propriedade específica das populações normais)
Estatística Aplicada (lic. CA)
50
ഥ estimador de ( 2 desconhecida)
Distribuição da Média amostral X,
Xഥ −
T = S t (n − 1) (v.a. utilizada para estimar e inferir sobre )
n
rácio de Student
ഥ− n − 1 S 2 ഥ−
Obs. X N(0,1), 2(n − 1) e Xഥ e S 2 são v.sa.s independentes X t (n − 1)
2 S
n n
Para pequenas amostras, os valores de S 2 obtidos de amostra para amostra, apresentam uma grande variabilidade,
não tendo o rácio de Student distribuição N(0,1);
para grandes amostras, os valores de S 2, obtidos de amostra para amostra, mantêm-se estáveis, não afetando,
substancialmente, a normalidade do comportamento probabilístico dos valores assumidos pelo rácio de Student :
ഥ − ഥ−
T = X S t (n − 1), n → +
. T = X
S ~ሶ N(0,1).
n n
Estatística Aplicada (lic. CA)
51
Duas populações Normais independentes: X1 ~ N( 1, 1) e X2 ~ N( 2, 2) …………….…...….… diap. 52
S 2
Distribuição da relação entre as variâncias amostrais corrigidas, 2 …………….…………..... diap. 52
S1 2
amostra casual da população X1: (X1 1, X1 2, …, X1 n1 ), v.sa.s observadas i.i.d. X1 i ~ N( 1, 1), i = 1, 2, …, n1
amostra casual da população X2: (X2 1, X2 2, …, X2 n2 ), v.sa.s observadas i.i.d. X2 i ~ N( 2, 2), i = 1, 2, …, n2
S 2 2 22
Distribuição da relação entre as variâncias amostrais 2 , estimador de 2
S1 1
S1 2 22 22 12
F = 2 2 F(n1 − 1,n2 − 1) (v.a. utilizada para estimar 2 e inferir sobre 2)
S 2 1 1 2
X൘
n1−1 S1 2 n2−1 S2 2 n −1
Obs. X = 2(n1 − 1) e Y = 2(n2 − 1) independentes F = Y 1 ~ F (n1 − 1,n2 − 1)
12 22 ൗ
n2− 1
Estatística Aplicada (lic. CA)
53
com 12 = 22 desconhecidas ( 12 = 22 = 2)
X1 − X2 − 1 − 2
T= t (n1 + n2 − 2)
1 1 (n1 − 1) S1 2 + (n2 − 1) S 2 2 (v.a. utilizada para estimar 1 − 2 e inferir sobre 1 − 2)
+
n1 n2 n1 + n2 − 2
Grandes amostras
População não normal X, com média e variância 2 desconhecidas
amostra casual da população X : (X1, X2, ..., Xn): v.sa.s observadas i.i.d. Xi de média e variância 2 , i = 1, 2, …, n
ഥ estimador de
Distribuição por amostragem da Média amostral X,
Não sendo a população em estudo normal e não tendo acesso à distribuição de probabilidades exata da média
amostral, um processo para obter uma distribuição de probabilidades aproximada para Xഥ é a aplicação do
Teorema do Limite Central, o que implica ter amostras de grande dimensão de X.
i=1
n
Regra geral, para n 30, obtêm-se boas aproximações ao tomar a distribuição normal como distribuição aproximada da
média amostral.
Estatística Aplicada (lic. CA)
57
ഥ−
ഥ estimador de : Z = X
Distribuição por amostragem da Média amostral X, ~ሶ N(0,1)
n
Sendo a variância de X, 2, desconhecida, para efetuar inferências sobre , substitui-se, na v.a. Z,
n por
ഥ−
X
n
, em que
ෝ 2 é um estimador consistente de 2:
Z= ~ሶ N(0,1)
ෝ
n
ഥ−
X Xഥ−
Z= ~ሶ N(0,1) Z = S ~ሶ N(0,1) (v.a. utilizada para estimar e inferir sobre )
n n
Estatística Aplicada (lic. CA)
58
ഥ−
X ഥ−
X
Z= ~ሶ N(0,1) → Z = ~ሶ N(0,1)
População de Bernoulli, X ~ B(1, ), com desconhecido (0 1), = n
ෝ
n
e = (1− → amostra casual (X1, X2, ..., Xn), n → + : Xഥ , estimador de =
População Gama, X ~ Ga(,), com desconhecido ( 0; 0 conhecido), =
e = →
amostra casual (X1, X2, ..., Xn), n → + : , estimador de Xഥ , estimador de
X
Pelo C.T.L.C., desconhecido
ഥ−
X ഥ− ഥ−
Z= = X ~ሶ N(0,1) Z= X ~ሶ N(0,1)
X൘
൘
൘
(v.a. utilizada para inferir sobre ) (v.a. utilizada para estimar )
n n n
Estatística Aplicada (lic. CA)
60
Populações independentes
X1, com 1 e 12 desconhecidas → amostra casual (X1 1, X1 2, …, X1 n1 ), n1 → + : X1, estimador de 1
e X2, com 2 e 22 desconhecidas → amostra casual (X2 1, X2 2, …, X2 n2 ), n2 → + : X2, estimador de 2
Distribuição por amostragem da diferença entre as duas médias amostrais, X1 − X2, estimador de 1 − 2 :
Pelo C.T.L.C., X1 ~ሶ N 1, n1 e X2 ~ሶ N 2, n2 independentes
1 2
2 2 X1 − X2 − 1 − 2
X1 − X2 ~ሶ N 1 − 2, 1 2 Z= ~ሶ N(0,1)
n1 + n2
12 22
+
n1 n2
Sendo as variâncias de X1 e X2, 12 e 22, desconhecidas, para efetuar inferências sobre 1 − 2, substitui-se,
na v.a. Z, 12 e 22 por estimadores consistentes, respetivamente,
ෝ 12 e
ෝ22:
X1 − X2 − 1 − 2
Z= ~ሶ N(0,1)
ෝ12 ෝ22
+
n1 n2
Estatística Aplicada (lic. CA)
61
X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) → Z = ~ሶ N(0,1)
12 22
ෝ 12
ෝ22
+ +
n1 n2 n1 n2
Populações independentes
X1, com 1 e 12 desconhecidas → amostra casual (X1 1, X1 2, …, X1 n1 ), n1 → + : X1, estimador de 1
e
X2, com 2 e 22 desconhecidas → amostra casual (X2 1, X2 2, …, X2 n2 ), n2 → + : X2, estimador de 2
X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) Z= ~ሶ N(0,1)
12 22 S1 2 S2 2 (v.a. utilizada para estimar 1 − 2 e inferir sobre 1 − 2)
+ +
n1 n2 n1 n2
Estatística Aplicada (lic. CA)
62
X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) → Z = ~ሶ N(0,1)
12 22
ෝ 12
ෝ22
+ +
n1 n2 n1 n2
Populações de Bernoulli independentes,
X1 ~ B(1, 1), com 1 desconhecido, 1 = 1 e 12 = 1(1− 1) →
amostra casual (X1 1, X1 2, …, X1n1), n1 → + : X1, estimador de 1 = 1
e
X2 ~ B(1, 2), com 2 desconhecido, 2 = 2 e 2 2 = 2(1− 2) →
amostra casual (X2 1, X2 2, …, X2 n2), n2 → + : X2, estimador de 2 = 2
X1 − X2 − 1− 2 X1 − X2 − 1− 2
Z= ~ሶ N(0,1) Z= ~ሶ N(0,1)
1(1 − 1) 2(1 − 2) X1(1 − X1) X2(1 − X2)
+ +
n1 n2 n1 n2
(continua)
(v.a. utilizada para estimar 1 − 2 e inferir sobre 1 − 2)
Estatística Aplicada (lic. CA)
63
X1 − X2 − 1 − 2 X1 − X2 − 1 − 2
Z= ~ሶ N(0,1) → Z = ~ሶ N(0,1)
12 22
ෝ 12
ෝ22
Populações de Bernoulli independentes, n1
+
n2
+
n1 n2
X1 ~ B(1, 1), com 1 desconhecido, 1 = 1 e 1 = 1(1− 1) → 2