Você está na página 1de 21

Inferencia Estatstica

EST 611
Prof. Dr. Gerson Rodrigues dos Santos
Prof. Dr. Carlos Henrique Os orio Silva
DET-UFV
2012
2
Sumario
1 Fundamentos 5
1.1 Fundamentos da Inferencia Estatstica . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Tipos de Inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Populac oes e Amostras . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Estatstica e Momentos Amostrais . . . . . . . . . . . . . . . . . . . . 8
1.1.5 Media Amostral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.5.1 Media e Vari ancia . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.5.2 Lei dos Grandes N umeros . . . . . . . . . . . . . . . . . . . 10
1.1.5.3 Teorema do Limite Central . . . . . . . . . . . . . . . . . . 12
1.1.6 a.a. de uma Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.6.1 Media Amostral . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.6.2 A Distribuicao
2
. . . . . . . . . . . . . . . . . . . . . . . . 14
2 Estimacao Pontual 17
2.1 Metodos de Estimac ao Pontual . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.1 Introducao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.2 Metodos para encontrar estimadores pontuais . . . . . . . . . . . . . 17
2.1.2.1 Metodo dos Momentos . . . . . . . . . . . . . . . . . . . . . 18
2.1.2.2 Metodo da Maxima Verossimilhanca - MMV . . . . . . . . . 19
3
4 SUM

ARIO
Captulo 1
Fundamentos
1.1 Fundamentos da Inferencia Estatstica
1.1.1 Introducao
A proposta desse captulo e introduzir o conceito de amostragem e apresentar algumas
distribuic oes teoricas que resultam da mesma.
Perceberemos que ser a necess aria a teoria vista em Probabilidade, principalmente no
que se refere `a Distribuic oes visando uma fundamentac ao te orica da teoria da Inferencia
Estatstica.
Comecaremos com uma curta discuss ao entre populacao e amostra e terminaremos com
alguns conceitos importantes, como por exemplo, amostra aleat oria, momentos amostrais,
etc.
Aproveitaremos para apresentar a Lei dos Grandes N umeros, o Teorema do Limite Central
e algumas distribui coes amostrais exatas.
Ser a importante tambem mostrar o que acontece com a amostragem de uma popula cao
de uma normal, onde poderemos conceituar a
2
, F e t Student.
1.1.2 Tipos de Inferencia
Geralmente, utilizamos dois tipos de Inferencia, a Indutiva e a Dedutiva.
Denicao 1 (Inferencia Indutiva). Quando partimos do particular para o geral em termos
de probabilidade, temos a Inferencia Indutiva.
A Inferencia Indutiva e tambem chamada de Processo Perigoso, justamente pela incerteza
envolvida no processo. O maior desao da Inferencia e mensurar tal incerteza com base nos
princpios da certeza adotada na pesquisa. A nossa busca se resume em encontrar tecnicas
que facam isso.
5
6 CAP

ITULO 1. FUNDAMENTOS
Denicao 2 (Inferencia Dedutiva). Quando partimos de armacoes gerais e conclumos para
casos especcos, temos a Inferencia Dedutiva.
Um exemplo razo avel da Inferencia Dedutiva e utilizar as duas proximas armac oes para
gerarem a conclusao:
Um dos angulos internos do tri angulo retangulo e 90
o
;
O triangulo A e ret angulo;
Logo, um dos angulos do tri angulo A e 90
o
.
Por mais que a Inferencia Dedutiva seja mais objetiva, a Ciencia sempre precisa lancar
m ao da Indutiva.
1.1.3 Populac oes e Amostras
Nosso problema central aqui e descobrir novos conhecimentos a respeito da populac ao,
observando uns poucos elementos da mesma. Assim, deveremos distinguir dois tipos de
populac ao.
Denicao 3 (Popula cao-alvo).

E a totalidade dos elementos que estao sob investigacao e
cuja generalizacao e desejada.
Mood, Graybill e Boes (1974) armam que frequentemente temos diculdades em amostrar
aleatoriamente uma popula cao-alvo, mas podemos amostrar uma parte dessa popula cao, que
a chamaremos de Populacao-amostral.
Denicao 4 (Popula cao-amostral).

E a populacao cuja amostragem seja possvel.
Obs.: Para ns inferenciais uma populac ao-amostral deveria coincidir com a popula cao-alvo,
caso contr ario, a inferencia deve car restrita `a populac ao sob estudo.
Poderamos nos concentrar no estudo das relacoes entre as popula coes-amostrais e as
populac oes-alvo, mas nosso foco ser a a amostragem numa populacao-amostral com densidade
f(.), e com base nessas observacoes fazer armac oes sobre f(.). Entao, por simplicidade de
notac ao, adotaremos o termo populacao em substituic ao ` a popula cao-amostral.
Apenas para exemplicar a diferenca entre as duas popula coes, suponhamos que um
socialista deseja estudar os h abitos religiosos de homens de 20 anos de idade de um pas.
Contudo, ele planeja uma amostragem em apenas uma das maiores cidades do pas. Assim,
a populacao-alvo seria o pas inteiro e a populac ao-amostral, a grande cidade.
1.1. FUNDAMENTOS DA INFER

ENCIA ESTAT

ISTICA 7
Quanto ` a amostra, uma pergunta que surge inevitavelmente e: Como amostrar?. Essa
pergunta e tao fundamental que nossos objetivos poderao ser alcancados ou n ao, caso a
amostragem nao siga alguns padr oes. Como nao e o foco desse texto trabalharmos os tipos
de amostragens mais comuns da Estatstica, sugerimos a consulta de um material mais espe-
cializado nesse tema.
Um dos tipos de amostragens mais comuns, e a AAS - Amostragem Aleat oria Simples,
nosso particular interesse, que ser a daqui pr a frente denominada a.a. - amostra aleat oria.
Denicao 5 (Amostra Aleatoria). Sejam as variaveis aleatorias X
1
, X
2
, ..., X
n
com densi-
dade conjunta f
X
1
,...,Xn
(, ..., ), em que
f
X
1
,...,Xn
(x
1
, ..., x
n
) = f(x
1
)f(x
2
)...f(x
n
),
em que f(.) e a mesma densidade para cada X
i
. Entao, X
1
, X
2
, ..., X
n
e uma a.a. de tamanho
n de uma populacao de densidade f(.).
Como o nosso desejo e fazer armac oes sobre a densidade f(.) da populacao, devemos
denir Distribuicao Amostral.
Denicao 6 (Distribuic ao Amostral). Seja X
1
, X
2
, ..., X
n
uma a.a. de tamanho n. A dis-
tribuicao amostral de X
1
, X
2
, ..., X
n
e a distribuicao conjunta de X
1
, X
2
, ..., X
n
, dada por
f
X
1
,...,Xn
(x
1
, ..., x
n
) = f(x
1
)f(x
2
)...f(x
n
).
Dois exemplos que podem ajudar na compreensao sao:
Ex.1: Suponha que uma variavel aleatoria X tenha uma densidade f(.) numa popula cao
de interesse. Suponha tambem que 2 valores de X, x
1
, x
2
, sao observados (lembrando que
x
1
e a primeira observac ao e n ao o menor valor). O par (x
1
, x
2
) determina um ponto no
plano e o conjunto de todos os pares possveis forma uma populac ao bivariada. Dessa forma,
n os estamos interessados na distribuic ao bivariada dessa populac ao bivariada em termos da
densidade original f(.) da populac ao (lembrando que o par (x
1
, x
2
) e um valor da vari avel
aleat oria conjunta (X
1
, X
2
) e X
1
, X
2
e uma a.a. de tamanho 2 de f(.)).
Ex.2: Seja X uma v.a. discreta com distribuic ao de Bernoulli
f(x) = p
x
q
1x
.
Como a Bernoulli tem apenas 2 valores possveis, 0 e 1, ent ao uma a.a. tem a densidade
conjunta
f
X
1
,X
2
(x
1
, x
2
) = f(x
1
)f(x
2
) = p
x
1
+x
2
q
2x
1
x
2
.
8 CAP

ITULO 1. FUNDAMENTOS
1.1.4 Estatstica e Momentos Amostrais
Um dos problemas centrais da Estatstica e estudar uma populac ao que tenha densidade
f(, ), sendo a densidade conhecida, mas o par ametro n ao.
Perceba que se e conhecido a funcao densidade ca completamente estabelecida.
Portanto, o procedimento e pegar uma a.a. X
1
, ..., X
n
de tamanho n dessa densidade e
estimar o parametro atraves de uma func ao da a.a., dita t(x
1
, ..., x
n
). Mas, surge um novo
problema, qual a melhor func ao para estimar ? (Mais adiante, formularemos esse problema
com mais detalhes).
Nosso objetivo agora e examinar algumas func oes de uma a.a., denominadas momentos
amostrais. Antes, porem, denamos Estatstica formalmente.
Denicao 7 (Estatstica). Uma estatstica e uma funcao de variaveis aleatorias observaveis,
sendo ela mesma uma variavel aleatoria observavel, nao contendo quaisquer parametros de-
sconhecidos.
O termo observ avel imposto na Deni cao 7 e necess ario devido a forma como se pretende
usar a estatstica, ou seja, queremos uma estatstica para fazer inferencias sobre a densidade
das variaveis aleat orias. Assim, se as v.a.s n ao forem observaveis nao seriam de nenhuma
utilidade inferencial.
Ex.: X
,
2(x), em que e
2
s ao desconhecidos. Ent ao X n ao e uma estatstica, nem
X

(j a que esses termos n ao sao funcoes apenas da v.a. observ avel X, pois contem parametros
desconhecidos), mas X, X + 3 e X
2
+ logX
2
s ao estatsticas. Obs.: O problema e encontrar
uma estatstica adequada para estimar .
Vamos agora denir algumas estatsticas importantes, os momentos amostrais.
Denicao 8 (Momentos Amostrais). Seja X
1
, ..., X
n
uma a.a. de densidade f(.). Entao o
r-esimo momento amostral centrado em 0, denotado por M

r
e denido por
M

r
=
1
n
n

i=1
X
r
i
.
Em particular, se r = 1, obtem-se a media amostral, ou seja,
M

=

X =
1
n
n

i=1
X
i
.
E, ainda, o r-esimo momento amostral centrado na media, denotado por M
r
, e denido por
M
r
=
1
n
n

i=1
(X
i


X)
r
.
Obs.:
1.1. FUNDAMENTOS DA INFER

ENCIA ESTAT

ISTICA 9
1. Podemos perceber que momentos amostrais s ao estatsticas de a.a.s;
2. J a que momentos amostrais s ao denidos em func ao de uma a.a., n os poderamos
calcular a media amostral para uma serie temporal? Qual seria a consequencia desse
c alculo?
3. Idem, sendo a quest ao: Antes de um c alculo da media amostral, deveramos fazer um
teste de aderencia? Qual seria a consequencia desse c alculo?
4. Os momentos amostrais centrados em zero sao tambem chamados de momentos nao-
centrais e os momentos centrados na media s ao chamados de momentos centrais.
Em probabilidade vimos a denic ao de momentos populacionais, em que E[X
r
] era o
r-esimo momento populacional da populacao com densidade f(.).

E importante mostrar ent ao que os momentos amostrais reetem os populacionais no


sentido de que a esperanca de um momento amostral nao-central e igual ao momento pop-
ulacional correspondente. Quanto ` a variancia de um momento amostral, pode ser mostrado
que e igual a
1
n
vezes alguma func ao dos momentos populacionais. A implicac ao desses e que
para uma dada populac ao, os valores dos momentos amostrais tendem a ser mais concentra-
dos em torno do momento populacional correspondente para amostras grandes.
Teorema 1. Seja X
1
, ..., X
n
uma a.a. de uma populacao com densidade f(.). A esperanca
do r-esimo momento amostral nao-central e igual ao r-esimo momento populacional, isto e,
E[M

r
] =

r
(se

r
existir) e V ar[M

r
] =
1
n
{E[X
2r
] (E[X
r
])
2
} =
1
n
{[

2r
] [(

r
)
2
]} (se

2r
existir).
Exerccio: Demonstrar.
Caso r = 1, temos o seguinte corol ario:
Corolario 1. Seja X
1
, ..., X
n
uma a.a. de uma densidade f(.) e seja

X =
1
n

2
i=1
X
i
a
media amostral, entao E[

X] = e V ar[

X] =
1
n

2
, em que e
2
sao, respectivamente, a
media e a variancia de f(.).
O que temos mostrado e a relac ao entre os momentos amostrais nao-centrais e seus respec-
tivos momentos populacionais, mas poderamos fazer o mesmo para os momentos amostrais.
Analisando apenas um caso particular destes, quando r = 2, temos M
2
=
1
n

i
(X
i


X)
2
.
Mesmo muitas vezes com M
2
sendo chamado de variancia amostral, caremos com o seguinte
conceito:
Denicao 9 (Variancia Amostral). Seja X
1
, ..., X
n
uma a.a. de uma densidade f(.), entao
a variancia amostral e dada por
S
2
=
1
n 1

i
(X
i


X)
2
, n > 1.
10 CAP

ITULO 1. FUNDAMENTOS
A razao para preferir S
2
do que M
2
e devido a esperanca de S
2
ser igual `a vari ancia
populacional.
Teorema 2. Seja X
1
, ..., X
n
uma a.a. de uma densidade f(.) e S
2
=
1
n 1

i
(X
i

X)
2
, n > 1. Entao E[S
2
] =
2
e V ar[S
2
] =
1
n
_

n 3
n 1

4
_
, n > 1.
Exerccio: Demonstrar.
Momentos amostrais s ao exemplos de estatsticas que podem ser usadas para estimar
seus respectivos momentos populacionais. Em cada caso, pegamos uma func ao da amostra
(observ avel) e usamos o valor dessa fun cao para estimar o par ametro desconhecido.
1.1.5 Media Amostral
Vimos que momentos amostrais sao exemplos de estatstica, logo podem ser utilizados
para estimar seus respectivos parametros. Vimos tambem que o primeiro momento amostral
n ao-central e a media amostral, denida como

X =
1
n

n
i=1
X
i
, em que X
1
, ..., X
n
e uma a.a.
de densidade original f().
Como

X e uma func ao de v.a.s X
1
, ..., X
n
, teoricamente a distribuic ao de

X pode ser
encontrada. Em geral, podemos suspeitar que a distribuic ao de

X depende da densidade
original f() (o que na verdade e fato).
Continuando a nossa fundamentac ao, veremos agora algumas propriedades interessantes
da media amostral.
1.1.5.1 Media e Variancia
Teorema 3. Seja X
1
, ..., X
n
uma a.a. de densidade original f(.), que tem media e
variancia
2
< , e

X =
1
n

n
i=1
X
i
. Entao, E[

X] = e V ar[

X] =
1
n

2
.
Esse Teorema 3 pode ser interpretado assim: a distribui cao de

X e centrado em . Quanto
` a vari ancia podemos dizer: a dispersao dos valores de

X em relac ao `a e menor para amostras
grandes do que para amostras pequenas (pois depende de n).
Essa nocao pode ser melhor exemplicada atraves da Lei dos Grande N umeros.
1.1.5.2 Lei dos Grandes N umeros
Como j a mostramos, nosso desejo e estimar para uma distribuic ao conhecida f(, ).
Discutamos um caso particular.
Seja E[X] = para uma densidade f(.). O problema entao e estimar . Num sentido
amplo podemos dizer que E[X] e a media de um n umero innito de valores da v.a. X. Mas,
1.1. FUNDAMENTOS DA INFER

ENCIA ESTAT

ISTICA 11
no mundo real (pratica) so podemos observar um n umero nito de valores da v.a. X. Entao,
uma questao crucial e: usando apenas uma amostra nita da v.a. X podemos inferir com
conanca sobre E[X]?
A resposta para essa quest ao e SIM! Inferencias con aveis sobre E[X] podem ser feitas
com uma amostra nita, o que pode ser mostrado atraves da Lei Fraca dos Grandes N umeros.
Teorema 4 (Lei Fraca dos Grandes N umeros). Seja f(.) uma densidade com media e
variancia
2
< , e seja

X a media amostral de uma a.a. de tamanho n, com densidade
original f(.). Sejam tambem e quaisquer dois n umeros arbitrarios (especicados como se
queira) que satisfacam > 0 e 0 < < 1. Se n e qualquer n umero inteiro maior que

2

,
entao
P[ <

X < ] 1 .
Em outras palavras, o Teorema 4 est a dizendo que:
(i) Um n umero inteiro n pode ser determinado tal que se for obtida uma a.a. de tamanho n
(ou maior) de uma populac ao com densidade f(.) (com E[X] = ), a probabilidade da
media amostral

X estar em torno de , numa dist ancia menor que um valor arbitrario
especicado seja o mais proximo de 1, como se queira;
(ii) Mais precisamente, se determinarmos um valor |0 < < 1 (pequeno como se queira)
existe um n que ser a o tamanho de uma a.a. com densidade original f(.) e que e possvel
obter a

X, que permitira obter probabilidade maior que 1 de

X se desviar de em
menos de ( > 0), mas pequeno como se queira.
Para a demonstracao do Teorema 4 precisaremos resgatar o Teorema e Corol ario da
Desigualdade de Chebyshev.
Teorema 5. Seja X uma v.a. e g(.) uma funcao nao-negativa com domnio na reta real.
Entao
P[g(X) k]
E[g(X)]
k
, k > 0.
Corolario 2 (Desigualdade de Chebyshev). Se X e uma v.a. com variancia nita
P[|X
X
| r
X
] = P[(X
X
)
2
r
2

2
X
]
1
r
2
, r > 0.
Demonstracao:
Pela Desigualdade de Chebyshev, sob condic oes de regularidade,
P[g(X) k]
E[g(X)]
k
, k > 0.
12 CAP

ITULO 1. FUNDAMENTOS
Equivalentemente,
P[g(X) < k] 1
E[g(X)]
k
, k > 0.
Seja g(X) = (

X )
2
e k =
2
, entao
P
_
<

X <

= P
_

X

<

= P
_

2
<
2
_
1
E
_
_

X
_
2
_

2
= 1
(
1
/
n
)
2

2
1
para >

2
n
2
ou n >

2

.
Ex.1:
Vamos supor que uma certa distribuic ao tenha uma media desconhecida, mas sua variancia
seja igual a 1. Qual o tamanho da a.a. de modo que a probabilidade, da media amostral

X
divirja em 0.5 de , seja no mnimo 0.95?
Solucao:

2
= 1, = 0.5, = 0.05
n >

2

=
1
(0.5)
2
0.05
= 80
Ex.2:
Qual o tamanho da amostra para 99% de certeza que

X divirja em 0.5 de ?
Solucao:
= 0.5, = 0.01
n >

2

=

2
(0.5
2

2
)0.01
= 400
Exerccio:
Barbetta (2010) arma que podemos obter um tamanho mnimo de uma amostra por
n
0
=
1
E
2
, n =
N n
0
N + n
0
.
Considerando apenas o n
0
, quais as condicoes necess arias para que Barbetta (2010) tenha
gerado essa f ormula da Lei Fraca dos Grandes N umeros?
1.1.5.3 Teorema do Limite Central
Embora na teoria das distribui coes o Teorema do Limite Central (TLC) ja tenha sido
apresentado, n os veremos mais uma abordagem do mesmo. Nessa abordagem do TLC e
apresentado uma distribuic ao assintotica de

X.
1.1. FUNDAMENTOS DA INFER

ENCIA ESTAT

ISTICA 13
Lembrando que o nosso foco e a distribuic ao de

X, o TLC, que e um dos mais importantes
teoremas da Teoria de Probabilidade e Estatstica, mostra-nos a distribui cao aproximada de

X.
Teorema 6 (TLC). Seja f(.) uma densidade com media e variancia
2
< . Seja tambem

X a media amostral da a.a. de tamanho n de f(.). Seja ainda a v.a. Z


n
denida por
Z
n
=

X
n
E[

X
n
]
_
var[

X
n
]
=

X
n

n
.
Entao, a distribuicao de Z
n
se aproxima da distribuicao normal padrao com n se aproximando
do innito (sucientemente grande).
O Teorema 6 nos mostra que a distribuic ao limite de Z
n
(que pode ser visto tambem
como a

X
n
padronizada) e a distribui cao normal padrao ou ainda,

X
n
e aproximadamente
(assintoticamente) uma distribuic ao normal com media e vari ancia

2
n
.
O que e surpreendente no Teorema 6 e que nada foi dito sobre a forma da densidade
original f(.). Qualquer que seja a densidade, desde que a variancia seja nita, a media
amostral sera aproximadamente normal para amostras grandes.
A restricao
2
< n ao e um problema, pois na pratica dicilmente temos algo diferente
disso.
Mood, Graybill e Boes (1974) justicam a n ao demonstracao do teorema (nvel matem atico
avancado), mas apresenta as distribuic oes exatas de

X
n
quando as densidades originais f(.)
s ao:
1. Bernoulli: Se X
1
, ..., X
n
e uma a.a. de uma distribuic ao Bernoulli f(x) = p
x
(1p)
1x
,
ent ao, a distribui cao de

X
n
e
P
_

X
n
=
k
n
_
=
_
n
k
_
p
k
q
nk
, k = 0, 1, ..., n.
2. Poisson: Se X
1
, ..., X
n
e uma a.a. de uma distribui cao Poisson com = , ent ao

n
i
X
i
tambem tem uma distribuic ao Poisson com par ametro (n), ou seja,
P
_

X
n
=
k
n
_
= P
_

i
X
i
= k
_
=
e
n
(n)
k
k!
, k = 0, 1, ....
3. Exponencial: Se X
1
, ..., X
n
e uma a.a. de uma distribuicao Exponencial f(x) = e
x
,
ent ao

n
i
X
i
tem distribuic ao Gama com parametros n e , ou seja,
P
_

i
X
i
y
_
=
y
_
0
1
(n)
z
n1

n
e
z
dz,y > 0
14 CAP

ITULO 1. FUNDAMENTOS
ou
P
_

X
n

y
n
_
=
y
_
0
1
(n)
z
n1

n
e
z
dz,y > 0
1.1.6 a.a. de uma Normal
Na Inferencia Estatstica veremos que a distribuic ao normal e de extrema importancia.
S o pelo Teorema 6, sozinho, h a uma garantia dessa importancia, mas existem ainda outras
raz oes.
1.1.6.1 Media Amostral
Uma quest ao intrigante sobre a distribuicao de

X
n
e: Qual e a distribuicao da

X
n
de uma
a.a. de uma densidade original normal?
Teorema 7. Seja

X
n
a media amostral de uma a.a. de tamanho n de uma distribuicao
normal com media e variancia
2
. Entao,

X
n
tem distribuicao normal exata com media
e variancia

2
n
.
Exerccio: Demonstrar.
Pelo Teorema 7 temos a distribuic ao exata de

X
n
e dessa forma podemos calcular, por
exemplo, a probabilidade exata do estimador estar a uma certa dist ancia do parametro (muito
util em Inferencia).
Assim, ca claro que j a encontramos a distribuic ao de

X
n
tanto para qualquer densidade
f(.), desde que
2
< , quanto f(.) e uma normal com e
2
.
1.1.6.2 A Distribuicao
2
Como vimos, a distribuic ao N(,
2
) lanca m ao de uma a.a. e

X
n
para estimar . Mas,
o que dizer sobre a distribui cao de S
2
=
1
n 1

i
(X
i


X
n
)
2
que estima
2
?
A densidade que desempenha um papel central na distribuicao de S
2
e a
2
.
Denicao 10 (Distribuic ao de
2
). Se X e uma v.a. com densidade
f(x) =
1
(
k
/
2
)
_
1
2
_k
/
2
x
k
/
2
1
e

x
/
2
entao X tem distribuicao
2
com k graus de liberdade, em que k e um inteiro positivo.
1.1. FUNDAMENTOS DA INFER

ENCIA ESTAT

ISTICA 15
Obs.: Mood, Graybill e Boes (1974) armam e mostram que a
2
e um caso particular da
Gama.
Teorema 8. Se as v.a.s X
i
, i = 1, 2, ..., k sao normalmente e independentemente distribudas
com media
i
e variancia
2
i
, entao
U =

i
_
X
i

i
_
2
tem distribuicao
2
com k graus de liberdade.
Exerccios:
1. O que o Teorema 8 est a dizendo?
2. O que dizer da distribuic ao de U quando as v.a.s forem normalmente e independente-
mente distribudas com media e vari ancia
2
?
3. Mood, Graybill e Boes (1974) apresentam na P ag. 243 o Teorema 8 sobre v.a.s Z.
Formule e explique (n ao precisa demonstrar).
4. Sobre o teorema citado acima h a um importante Corolario, o que ele diz e qual a sua
utilidade?
5. Qual a denic ao da Distribuic ao F? (Cite os teoremas pertinentes).
6. Qual a denic ao da Distribuic ao t-Student? (Cite os teoremas pertinentes).
16 CAP

ITULO 1. FUNDAMENTOS
Captulo 2
Estimacao Pontual
2.1 Metodos de Estimacao Pontual
2.1.1 Introducao
Casella e Berger (2011) armam que a logica por tras da estimacao pontual e bastante
simples, ou seja, quando a amostragem e feita a partir de uma populac ao de densidade f(.), o
conhecimento de gera o conhecimento da populac ao inteira. Assim, a l ogica e procurar um
metodo que possibilite encontrar um bom estimador de , ou seja, um bom estimador
pontual.
Aproveitando a citac ao, vamos denir estimador e estimativa.
Denicao 11 (Estimador). Um estimador do parametro de interesse , denotado por

=
t(X
1
, X
2
, ..., X
n
), e qualquer estatstica que possa ser utilizada para estimar .
Denicao 12 (Estimativa). Uma estimativa, denotada por

= t(x
1
, x
2
, ..., x
n
), e o valor
assumido pelo estimador

= t(X
1
, X
2
, ..., X
n
), a partir da a.a. de X, em que X
1
= x
1
, X
2
=
x
2
, ..., X
n
= x
n
.
2.1.2 Metodos para encontrar estimadores pontuais
Em alguns casos, e uma tarefa facil decidir como encontrar um estimador para 1 par ametro
(pode ser usada inclusive a intuic ao, tal como a media populacional pode ser estimada pela
media amostral).
De forma mais analtica veremos alguns metodos. Sao eles: Metodo dos Momentos,
Metodo de Maxima Verossimilhanca e Metodo dos Mnimos Quadrados. Alem desses, existem
17
18 CAP

ITULO 2. ESTIMAC

AO PONTUAL
outros dois muito importantes e uteis: Metodo Bayesiano e Metodo Delta (vide Casella e
Berger, 2011).
2.1.2.1 Metodo dos Momentos
Provavelmente, criado por Karl Pearson, e um dos metodos mais antigos. Tendo como
vantagem a simplicidade, tem a desvantagem de gerar estimadores, algumas vezes, que pre-
cisam ser aperfeicoados.
Estimadores, por esse metodo, sao encontrados ao igualarmos os k primeiros momentos
amostrais aos k momentos populacionais correspondentes. Ao resolvermos o sistema resul-
tante de equacoes simultaneas, teremos os estimadores. Facamos, ent ao, algumas deni coes
importantes.
Denicao 13 (Momento Populacional). Seja X uma v.a. com densidade f(x, ), com =
(
1
, ...,
k
). O j-esimo momento populacional, centrado no zero, e dado por

j
= E[X
j
], j N

Denicao 14 (Momento Amostral). Seja X


1
, ..., X
n
uma a.a., com densidade de X dada por
f(x, ) e = (
1
, ...,
k
). O j-esimo momento amostral, centrado no zero, e dado por
M

j
=
1
n

i
X
j
i
, j N

Denicao 15 (Estimadores do MM). O vetor de estimadores



= (

1
, ...,

k
) e denominado
Estimador de Momentos do vetor parametrico = (
1
, ...,
k
) se cada

j
for solucao das k
equacoes
_

1
= M

2
= M

2
...

k
= M

k
Exemplo:
1. Seja X = (X
1
, ..., X
n
) uma a.a. da v.a. X Exp(). Obtenha o estimador de mo-
mentos para .
Resolucao: f(x) = exp(x), x 0. Qual o par ametro a ser estimado? .
Ent ao:

1
= E [X
1
] = E [X] =
1

1
=
1
n
n

i=1
X
1
i
=
1
n
n

i=1
X
i
=

X

1
= M

1

1

=

X

=
1

X
2.1. M

ETODOS DE ESTIMAC

AO PONTUAL 19
Ent ao o estimador de momentos do parametro da Exponencial e o inverso da media
amostral.
2. Com base no resultado acima, responda: Uma f abrica de tubos de TV determinou que
a vida media de uma grande amostra dos tubos de TV de sua fabrica cao e de 800 horas
de uso contnuo e segue uma distribuicao exponencial. Qual a probabilidade de que
a f abrica tenha de substituir um tubo gratuitamente, se oferece uma garantia de 300
horas de uso?
Resolucao:

X = 800 e

=
1

X
=
1
800
Assim, f(x) =
1
800
exp(
x
800
), x 0.
P [X < 300] =
300
_
0
1
800
exp
_
x
800
_
dx = exp
_
x
800
_

300
0
= 0, 3127
Exerccios:
1. Seja X = (X
1
, ..., X
n
) uma a.a. da v.a. X Po(). Obtenha o estimador de momentos
para .
2. Seja X = (X
1
, ..., X
n
) uma a.a. da v.a. X N(,
2
). Obtenha o estimador de
momentos para = (,
2
).
3. Encontre exemplos de aplicac ao para os 2 exerccios acima e resolva.
2.1.2.2 Metodo da Maxima Verossimilhanca - MMV
O MMV e a tecnica mais popular para gerar estimadores. Segundo o Professor Lucien
Le Cam, University of California, opinioes diferem sobre quem foi o primeiro a propor este
metodo, mas Fisher e comumente apontado como o criador do termo Maximum Likelihood
e autor de um grande esforco em disseminar o uso do metodo. A ele tambem e atribuda a
obtenc ao das propriedades de otimalidade dos estimadores.
Intuitivamente, baseia-se na ideia de que dada uma amostra, o que se pretende e vericar
no espaco parametrico os valores mais provaveis (verossmeis) para os par ametros.
Em outras palavras: sabendo que diferentes par ametros podem gerar diferentes amostras,
ent ao quais os valores mais provaveis (verossmeis) para os par ametros que justicam a
amostra aleatoria observada?
O MMV tem como fundamento uma a.a. X
1
, ..., X
n
de uma f(x; ), cuja func ao conjunta
e dada por
f(x; ) =

i
f(x
i
; ).
20 CAP

ITULO 2. ESTIMAC

AO PONTUAL
Essa func ao e chamada de Funcao de Verossimilhanca (note que N

AO e Func ao de
M axima Verossimilhanca como erroneamente se ouve por a) e e denotada por
L(; x) =

i
f(x
i
; ).
Obs.: Alguns autores cl assicos escrevem L(; x) e n ao L(x; ), pois a amostra j a foi recolhida,
ou seja, trata-se de uma fun cao de dado que X ja foi observada. Outrossim, a L(; x) e
a fun cao conjunta das v.a.s de uma a.a. X
1
, ..., X
n
. Contudo, L(; x) n ao e uma fun cao
densidade conjunta, pois L(; x) n ao e uma funcao da amostra, mas sim uma fun cao dos
par ametros, dado que a a.a. foi recolhida.
Exemplo - Parte I: Seja X = (X
1
, X
2
, X
3
) uma a.a. de n = 3 de uma v.a. X Ber().
Considerando que o espa co parametrico seja = {
1
3
,
2
3
} e se for observada uma amostra
(1, 0, 0), qual o valor mais verossmel para ?
Solucao:
f(x
i
, ) =
x
i
(1 )
1x
i
Se =
1
3
L(; x) =

i
f(x
i
; )
P[X
1
= 1, X
2
= 0, X
3
= 0] = P[X
1
= 1] P[X
2
= 0] P[X
3
= 0]

_
1
3
_
1
_
2
3
_
0

_
1
3
_
0
_
2
3
_
1

_
1
3
_
0
_
2
3
_
1
=
1
3

2
3

2
3
=
4
27
.
Para esse valor de a func ao de verossimilhan ca resultou em
4
27
. Isso e o m aximo dessa
func ao?
Se =
2
3
L(; x) =

i
f(x
i
; )
P[X
1
= 1, X
2
= 0, X
3
= 0] = P[X
1
= 1] P[X
2
= 0] P[X
3
= 0]

_
2
3
_
1
_
1
3
_
0

_
2
3
_
0
_
1
3
_
1

_
2
3
_
0
_
1
3
_
1
=
2
3

1
3

1
3
=
2
27
.
Para esse valor de a funcao de verossimilhanca resultou em
2
27
. Logo, o m aximo dessa
func ao de verossimilhanca teve m aximo quando =
1
3
.
Particularmente, gosto da denic ao de Mood, Graybill e Boes (1974), pois armam que
n ao e necessario que uma amostra seja aleatoria.
Denicao 16 (Funcao de Verossimilhanca). A funcao de verossimilhanca de n variaveis
aleatorias X
1
, ..., X
n
e denida como a densidade conjunta de n variaveis aleatorias, f(x, ),
que se trata de uma funcao de . Em particular, se X
1
, ..., X
n
e uma a.a. de densidade
f(x, ), entao a funcao de verossimilhanca e dada por
L(; x) = f(x, ) =

i
f(x
i
; ).
2.1. M

ETODOS DE ESTIMAC

AO PONTUAL 21
Geralmente, toda a abordagem do MMV e feita considerando uma a.a., por simplicidade,
uma vez que a obtenc ao da fun cao de verossimilhan ca para a outra amostragem e de difcil
trato.
Denicao 17 (Estimador de M axima Verossimilhanca - EMV). Seja L(; x) a funcao de
verossimilhanca das variaveis aleatorias X
1
, ..., X
n
. Se

e uma funcao das observacoes
x
1
, ..., x
n
, logo e um valor de em (espaco parametrico) que maximiza L(; x), entao

= g(X
1
, ..., X
n
) e o EMV de . Ja

= h(x
1
, ..., x
n
) e a estimativa de maxima verossimil-
hanca de para a amostra x
1
, ..., x
n
.
Nem sempre L(; x) tem maximo, o que compromete a obtencao de EMV. Uma vez que
a func ao satisfaz a condicoes de regularidade, o EMV e a soluc ao da equac ao
dL(; x)
d
= 0.
Como L(; x) e logL(; x) tem o m aximo no mesmo valor de (devido a fun cao log ser
mon otona), entao torna-se mais f acil obter o m aximo do log do que da pr opria fun cao.
O log neperiano da func ao de verossimilhanca e chamado tecnicamente de Funcao Suporte
e e dada por
l() = l(; x) = ln[L(; x)].
Sob condic oes de regularidade, o ponto onde a l(; x) e m axima e dada por uma solu cao
das k equa coes
l(; x)

1
= 0
...
l(; x)

k
= 0
Exemplo - Parte II:
Sabemos que f(x, ) = f(x, p) = p
x
q
1x
, 0 p 1 e q = 1 p
e x
1
, ..., x
n
ser a uma sequencia de 0 e 1
Assim, L(p; x) =

i
p
x
i
q
1x
i
= p

i
x
i
q
n

i
x
i
Se considerarmos y =

i
x
i
, ent ao
L(p; x) =

i
p
y
q
ny
e l(p; x) = log(p
y
.q
ny
) =
log(p
y
) + log(q
ny
) = ylog(p) + (n y)log(q)
Assim,
dl(p; x)
dp
= y.
1
p
(n y).
1
q
Igualando essa ultima expressao a zero, temos que p =
y
n
=

i
x
i
n
= x.
De fato foi o que aconteceu na Parte I do exemplo, ou seja, x = (1, 0, 0) e p =
1 + 0 + 0
3
=
1
3
, a estimativa do par ametro que maximiza a func ao, dado x.

Você também pode gostar