Escolar Documentos
Profissional Documentos
Cultura Documentos
p,...}, outros x {0, 1, 2, ...}, 0, , casos. , (x) {0, 1 2, 0, f x = =1, 2, ...}, x = xx! x f (x) = = x! x! , p,1,(x) = 0, = 1,x {0, 1, 2, ...}. f (x) (x) x x p,n )0,1, ...}. p)nx , q = 1 p, x 0,f0, = {0, 1,p2,(1 outros 1, x {0, 1, 2, ..., n}, x x 2, x = casos. {0, ...}. ( f (x) =0, outros X N ( = 0, 2 q1). 1 p, x = 0, casos. x {0, 1, 2, ..., = f (x) = p, x X X n x0, 2Znx n}. n}, = Z = =(x) = ( x ( ( 0, p)== , 1). = 11, 2, ...,x = =qp, 1 p, xx= 0, Z f n N ) p = = 0, 2 1). xq {0, p, f (x) 0, = N (1 = = 1, 0, outros ) px (1 p)nx ,e x {0, 1, 2, ..., n}, ( x 0, x x {0, 2, x = 1, (f (x) 2= p, ...}, x = 1, x f (x) = Probabilidade
f (x) = p,1 {0,1, 2,..., n}. 1, 0, x! , x 2 x = 1 1 1f (x) )2 (x) 1, 2, ..., 1 ) , x IR outros casos. x x x = {0, 2 ( 1 0, n}. casos. ( n ) px (1 p)nx , x 2 x f (x) = =
e e 2( e) , f,, IR{0,0, 2, 2 e 2, ...}. x 0, nx outros n x 0, IR {0, 1, f (x) x x 1, ...}, outros casos. f (x) = x 2 , {0, 1, ..., n}, 2 2 = x x! 2 2 e ede
a
verosimilhana
( om
que
um
evento
x corre
e
2,
base
da
Inferncia
c x ) p (1 p) f (x) 0, x A
probabilidade
x {0,x1, 2, 1, 2, = n x mn a f (x) nx 0,, X ) (1 ...}, X 2 0, {0, 1, p)nx o x ..., n}. x fEstatstica.
x!pesar
de
tp {0, ((x)...}.(x) p foi
Kolmogorov
no
{0, 1, 2,X...,qn},definiu
as
suas
(x) =XfXZ xx ( x x er
uN fp)= 0,,xonga,
(1 2, ..., n},, xx s{0, 1, 2,X
ue
A= = = = l = 1). ma
histria
culo
(x) Z e Z = = 0, x {0, 1, 2, ...}. x /x {0, 2, ..., n}. x {0, 1, 2, ..., n}. Z 1, x X x! , x {0, 1 axiomas:
/ x / 0, x n n N ( = 0, 2 = 1).0,n f (x) = e Z= , x {0, 1, 2, ...}, 1 xx 2 1 0, x {0, X
f (x)IR x! 1. 2 1 e2 x = = 0, e 0 ( 1). ) ,{0, 1, = e x 1.Z = f (x) N (
2 2 x!=xP (A)2, ...},x! , xx {0, 1, 2, ...}, 0 0 1 {0, 1, 2, ...}. 1. P (A) 1 (x) =1 x 2 , f (x) = 0, P (A) f 1 X 2( ) Z= N ( = 0 f P == , P = 1, X IR 0, 2. 2.(x)(S)
1 1 ex 20, 2. xx(S){0, 1 2, ...}. x {0, 1, 2,2...}. P (S) =1 1 2 = Se i A ...) ,Z = ,X P 1 = f3. P (AAA j =( PX ))x+ (Ax )AZ ... ...) (A1 ) + P (A2 += 1). (x) 1 2A 22 =(A(A P (A(A+ + ... = P N ( = 0, ) ...
= e ...) entao ) + P 2 2 X IR A = = entao P Sei Ai AjAj ,, entao (A 1 2 2 Z = P 1 1 / N ( = 0, 2 = 1). 2 2) 1 x 1 N ( = 0, 2 = 1).
X xx n Z = e 2 ( roblemas
de
)2statstica
a
sua
definio
f (x) = da
probabilidade
para
p1 Z
a= 1 x e Essencial
para
aXplicao
n x 2 2 e 2 ( , x IR 0/ (A) 1 f (x) Z que
1.x a
P robabilidade
d = 1 frequencista
= fdeclara
p1 e 1 ( x )2e
x m
e2 2
1a(
p )2 u IR vento
2 x roporo
de
ocorrncias
deste
2 (x) n x / = f(x) ,= e , x IR X x evento
se
a
experincia
fP (S) 12 1 at
chegar
a2 2 limite.
o
seu
1. 0 P2. or
2 (A) repetida
= Z= X x x / n
3. Se Ai Aj 1. 0 2. (A) (A1 1 A2 ...) = P (A1 ) + P (A2 ) + ... = , entao (S) 1 PP P = Z= X X x / x n Existem
vrias
inovaes
dentro
da
p x Z = nos
2. P (A A Z = / robabilidade
que
... tm
permitido
perceber
a
natureza
de
1. 0 P (A) 3. Se Ai Aj = , entaoP (S)1= 1 2 ...) =xP (A1 ) + P (A2 ) + /n n fenmenos.
Vamos
agora
examinar
o
Teorema
de
Bayes
para
entender
um
destas
evolues.
x B1 ,...) ,= PBr 1 ) + P (A2 ) + ... P (A) 1 B2 ..., (A 1. 0 3. Se Ai Aj =
, entao P (A1 A2 2. P (S) = 1 1. 0 1 02. PP (A) 1 (S) d 1 B1 , B2 , ..., Br
P (A) ma
1.articipao
=o
espao
amostral
SeeAi Aara
, entao P (A1 A2 3. ,
nto,
p j = Se
os
eventos
constituem
) P (Bk )P (A|B u p 2. P 1 = B1(Bk , ...,3. r Ai P (S) = 1k P , B2
B ,
2. A qualquer
evento
|A)d= rSetemos:
j = , entao P (A(S) A2 1 ...) = P (A1 ) + P (A2 ) + ... e
3. Se Ai Aj = , entao Ai(A1 A)P (B ) = P (A11 A2(A2 ) += P (A1 ) + P (A2 ) + ...
3. Se P P (A|Bi 2, ...) Aj = entao P (A ) + P ...) ... B1 , B2 , ..., Br i P (Bk )P (A|Bk ) B1 , B2 , ..., Br i=1 P (Bk |A) = r B1 , B2 , ..., Br B1 , B2 , ..., Br P (A|Bi )P (Bi ) i=1
P (Bk )P (A|Bk ) P (Bk )P (A|Bk ) P A
probabilidade
de
(Bk |A) =ausa
do
evento
|A) = r
por
c 1 P (Bk .
r 1 1
P (A|Bi )P (Bi ) P (A|Bi )P (Bi ) 0, 0,
x e x
i=1 i=1 Bernoulli e as distribuies discretas Na base da estatstica o estudo da incerteza e a probabilidade de eventos. Apesar de ter sido 1 estudado desde oARTICLE alileu, o primeiro grande passo para o estabelecimento da s tempos de G BRIEF 1 estatstica como cincia foi dado pelo J. Bernoulli. A sua lei fraca dos grandes nmeros diz que a 1 probabilidade P tende para a certeza quando o nmero de observaes N cresce indefinidamente. THE AUTHOR Isso pode ser observado num processo de Bernoulli - por exemplo no lanamento de uma moeda - 1 BRIEF ARTICLE no qual a funo de probabilidade : 1 1 Foi notado depois que a distribuio do processo de Bernoulli, a Distribuio de Bernoulli, um THE AUTHOR 1 p, x = 0, q = caso da Distribuio B inomial. A Distribuio Bernoulli permite o clculo da probabilidade para o f (x) = p, x = 1, caso de n tentativas independentes e tem, portanto, x como uma varivel aleatria na seguinte funo de probabilidade: 0, outros casos.
q = 1 p, x = 0, n x ( ) p (1 p)nx , x {0, 1, 2, ..., n}, f (x) = x x = 1, f (x) = p, 0, 0, outros casos. x {0, 1, 2, ..., n}.
( x ) px distribuio
x {0, 1, 2, ..., n}, Uma
n utra
(1 p)nx ,discreta
importante
a
Distribuio
de
Poisson.
Usa-se
para
calcular
a
o f (x) =probabilidade
de
um
nmero
definido
de
eventos
que
ocorrem
num
dado
intervalo
de
tempo
ou
0, x {0, 1, 2, ..., n}. espao.
x e x! , x {0, 1, 2, ...}, f (x) = 0, x {0, 1, 2, ...}.
q = 1 = p, As distribuies contnuas 0, outros casos. comearam com De Moivre 0, x = 1, casos. outros f (x) = p,
x (1
f (x) = n x contnua.
Porm,
a
importncia
da
distribuio
normal
foi
estabelecida
mais
tarde
distribuio
( x ) p (1 p)nx , d {0, 1, 2, ..., n}, por
Gauss
e
Laplace
atravs
xa
distribuio
de
erros
e
do
Teorema
do
Limite
Central
0, x f (x) = respectivamente.
{0, 2, {0, n}. {0, 1, 2, ..., n}. BRIEF ARTICLE 0, x 1, x ...,1, 2, ..., n}. e
mx mportante
x
A
distribuio
normal
x
a{0,ix 2, ...},distribuio
porque
representa
muitos
fenmenos
no
ais
e ,
m {0, 1, ...}, 2, mundo
real
= x! consequente,
1, uito
usada
na
inferncia
estatstica.
Tambm,
como
De
Moivre
e,
por
, x! e f = f (x) 1, 2, istribuies
podem
ser
aproximada
pela
distribuio
normal.
AUTHOR (x){0, outras
d ...}, q = 1 p, xTHE 0, = 0, x 1, {0, 2, x! , x demonstrou,
0, {0, x 2, ...}. 1, ...}.
1 x = 1, 0, x f {0, 1, 2,e ( f x ( IR)2 p, ...}. ) ,(x) = 1 x (x) = 1 2 2 f (x) = e 2
IR ,x 2 0, outros q = 1 p, x = 0, casos. BRIEF ARTICLE 1 2 2 Ao
ariar
a alteramos
localizao
e
forma
curva
d 1v( x,
)
mdia,
ou
,
o
desvio
padro,
um
desvio
a
adro
de
f
(x) ireita
a
ma
mdia
de
1.
2
grfico
esquerda
p 2 e
d = up, x = 1, e respectivamente.
,Ox IR mostra
2 BRIEF ARTICLE THE AUTHOR 2 ( n ) px (1 BRIEF ARTICLE 0, 1, 2, ..., n}, p)nx , x {0, outros casos. x f (x) = THE AUTHOR ( n ) px (1 p)nx , x {0, 1, 2, ..., n} x 0, THE f (x) =AUTHORx {0, 1, 2, ..., n}. q = 1 p, x = 0, 0, x {0, 1, 2, ..., n} x x = 1, f (x) = p, e e , xf {0, 1, 2,, ...}, 1, 2, ...}, x {0, q = 1 0, x = 0, p, outros casos. q = 1 p, = = 0, x! x x! f (x) = f (x) = p, (x) x = 1, f (x) = p, x = 1, 0, x {0, 1, 2, ...}. ( ) p (1 p) , x {0, 1, 2, ..., n}, 0, x {0, 1, 2, ...}. f (x) = 0, outros casos. 0, outros casos.
1 x 2 2
0.4 0.3 f(x) 0.2
f(x) 0.2 0.3 0.4
outros casos. n 0, binomial p ) ux nmero infinito d m primeira vez que a x x (1 1, 2, ..., n}, {0, p)nx , ( xara p{0, p)nxe ,tentativas, foi a 1, 2, ..., n},lgum notou numa
0, BRIEF ARTICLE outros casos. ( n ) px (1 p)nx , x {0, 1, 2, ..., n}, f (x) = x THE p, x =AUTHOR 0, 0, x {0, 1, 2, ..., n}. q = p, BRIEF ARTICLE 1 x x = 0, O nmero e o nmero de Napier e ,ox mero mdio de eventos que ocorrem num dado x = p, e x! n {0, 1, 2, ...}, intervalo de = f (x) = tempo. 1, f (x) x = 1, 0, q = p, x = 0, x {0, 1, 2, ...}. 1
THE AUTHOR
0.1
n x -4
nx
0 x
0.0
-2
0.0
0.1
1 x 2 0, x {0, 1, 2, ..., n}. 1 f , x = 2 e ( ) , x n x (1
p)nx , x {0, 1, 2, ..., n}, x n x (1 p)nx(x) {0, 1, 2, ..., n}, 2 (x)p (x)p f (x) = A
variao
e x! c,onhecida
1,a2, istribuio
normal
estandardizada
que
tx=0
e
2=1.
mais
x {0,
d ...}, f (x) = 1 (xem
{0, 1,2 n}. ) 2, ..., f (x) = a
fx {0, 1, 2, ..., n}. 0, 0, 2 Utilizando
rmula:
0, x {0, 1, 2, ...}. x
x e2 e x x! , x {0, 1, 2, ...}, x! , X {0, 1, 2, ...}, f (x) = 2 f (x) = Z = x {0, N ( = 0, = 1). 0, x {0, 1, 2, ...}. 0, 1, 2, ...}.
x
-4
-2
f (x) =
, x IR
IR
nmero ntre mdia. X podemos calcular o 1 ( x )2de desvios padres eZ = X e a N ( = 0, 2 = 1). 1 f (x) N ( = 0, 2 2 1). , x IR 1 = e = Relacionada com esta frmula o Teorema do Limite Central de Laplace que diz que para uma 2 2 1 x 2 1 amostra s1 x 2 uficientemente grande, a distribuio da varivel aleatria (ser aproximadamente f (x) = e 2 ) , x IR 1 2( ) f (x) = normal: e , x IR 2 2 2 2
Z=
Z=
Amostragem 1 O Laplace tambm conhecido por ter utilizado a amostragem na estimao da populao da Frana, embora as tcnicas no sejam as mesmas que so utilizadas hoje; foi mbito das cincias naturais que as tcnicas modernas foram desenvolvidas. De forma a poder fazer inferncias sobre a mdia de uma populao a partir de uma amostra, e quando no se sabe a varincia, a distribuio t-Student foi elaborada. A distribuio de t-Student ajuda porque as suas caudas so mais pesadas que as da normal que significa que quantos mais graus de liberdade uma amostra tem, mais aproxima-se a distribuio normal. Desta forma, consegue calcular um valor, a mdia por exemplo, mas com menos confiana.
X x x / n
f (x) =
n X (BRIEF 2 = 1). x ) x 0, p)nx , Z = f (x) = Nx(p=(1 ARTICLE {0, 1, 2, ..., n}, 0, x {0, 1, 2, ..., n}. )2 1 x x 1 e , x ambm Os mtodos de s f (x) = eleccionar 2 (aTHE AUTHOR{0,vanaram na altura de Student. A amostragem e a mostra tx a 1, 2, ...}, , IR 2 2(x) = que qualquer elemento da populao tenha a mesma f permite x! aleatria simplesmente 0, x {0, 1, 2, ...}. probabilidade de ser selecionado e pode ser feito com ou sem reposio. Foi Kiaer que props X x Z= amostrar com base na estratificao. Este mtodo pede a diviso da populao em grupos X Z=/q termos p,as x= 0, 2 = 1).que no queremos investigar) e x (em = 1 N (caractersticas d = 0, relativamente homogneos n selecionar amostras P= p,imples e independentes de cada estrato. Assim podemos fazer aleatrias s 1 x = 1, 1. 0f (x) (A) 1 x 2 1 inferncias acerca de subgrupos da populao. Se conhecermos a distribuio de probabilidade f(S) 0, (x) = 1 = outros( casos.x IR e 2 ) , 2. P da populao, podemos basear o processo de amostragem nela. Se a distribuio for normal, 2 2 podemos gerar c P (A ) (1 d p)nx ,Px 1 ) + 1, 2, ..., n}, lemento ...) = (A e a P (A com ... 3. Se Ai Aj = , entaoada en 1 pxA2a populao d{0,cordo 2 ) + a mdia e a varincia desejada. (x X x f (x) = Z= 0, x {0, x / n 1, 2, ..., n}. B1 , B2 , r x ..., B Estimao e 1. , {0, 1, 1 x! 0 x P (A) 2, ...}, f (x) = (B )P (A|B ) Paleatria, axPk(S) =mtodos de estimao, podemos fazer inferncias k {0, 1, 2, 2.o utilizar 1 ...}. Com base (Bk |A)mostra 0, P numa a = r acerca dos Ai Aj = , entao P (A1 A2 ...) = P (A1 ) + P (A2 ) + ... parmetros pX opulao. 3. Se Z = P (A|Bi )P( = 0, 2 = 1). N (Bi ) i=1 O mtodo da mxima verosimilhana, dada uma amostra de valores j observados x1, x2,...,xn, B1 , B2 , ..., 2 d B escolhe o valor do parmetro 1da distribuio r e probabilidade que maximiza o valor da funo x1 , x2 ..., x , e 1 ( x ) , x IR 2 f (x) = a nuno de probabilidade conjunta com uma varivel discreta ou a de verosimilhana. Utiliza-se 2 2 f P (Bk )P (A|Bk ) funo densidade de probabilidade conjunta com uma varivel contnua para na maximizao da P k |A) =X r (B x funo de verosimilhana: P Z= x / n (A|Bi )P (Bi ) n i=1 L() = f (xi |) = f (x1 |)f (x2 |)...f (xn |) 1. 0 P (A) 1 x1 , x2 ..., xn i=1 2. P (S) = 1 1 3. Se Ai Aj = , entao P (A1 A ...) = P (A1 ) + P (A2 ) + ... 2
0,
A
estimativa
de
mxima
verosimilhana ,
a
estimativa
que
melhor
explica
os
valores
observados
da
amostra.
B1 , B2 , ..., Br
Se,
por
exemplo,
quisermos
calcular
o
valor
de
que
maximiza
a
verosimilhana
da
mdia
de
P (B
)P (A|Bk a uma
varivel
com
distribuio
normal,
okvalor
ser
)
mdia
da
amostra,
visto
que
a
mdia
ser
o
r 1 vrtice
na
parbola
Pa
funo
= d (Bk |A) quadrtica
derivada.
P (A|Bi )P (Bi ) A
melhor
escolha
para
estimar
parmetros,
quando
a
amostra
grande
e
no
tem
casos
i=1 2 THE AUTHOR 2 THE AUTHOR anormais,
optar
por
mtodo
de
mxima
verosimilhana.
x1 , x2 ..., xn
Os
estimadores,
como
as
variveis
aleatrias,
tm
as
suas
propriedades.
estimador
,
que
O 2 THE
como
estimativa
do
pAUTHOR utilizado
para
gerar
um
nico
valor
armetro,
tambm
uma
varivel
THE AUTHOR aleatria
e
tem
o
seu
desvio
padro
que
definido
como
o
erro
padro
.
A
estimao
do
erro
AUTHOR padro
THE THE AUTHORvaliada
a
qualidade
do
estimador
.
Por
outro
lado,
o
enviesamento
a
permite
que
seja
a diferena
entre
a
mdia
de
e
o
parmetro
.
Tambm
temos
de
considerar
a
eficincia
de
um
estimador,
o
que
a
varincia
da
sua
distribuio
amostral.
De
vez
em
quando,
pode
ser
necessrio
comparar
dois
estimadores,
um
que
sofre
de
uma
varincia
significante
e
outro
que
1 2 THE AUTHOR 2 THE a
varivel?
De
forma
a
combinar
a
varincia
e
o
enviesado.
Qual
ser
o
melhor
estimador
dAUTHOR enviesamento
de
cada
estimador
criar
um
nico
parmetro
que
indica
a
melhor
aproximao
2 THE AUTHOR da
varivel,
calculamos
o
erro
quadrtico
m dio
(EQM)
de
cada
estimador
.
2 EQM ) = aconselhvel, quando se estima (de var() + [bias()] . u populao, conhecer o erro de amostragem que ma definido como a diferena entre a estimativa [bias()]d.a amostra e a estimativa que seria obtida de obtida 2 EQM () = var() + um censo nas mesmas condies da amostra. Um caminho para chegar a esta informao 1 determinar um intervalo no qual se possa e 1 sperar encontrar o valor do parmetro - um intervalo de confiana. O intervalo de confiana de (1 - )x 100% para o parmetro demarcado p2 limites de confiana 1 e 2 para que elos
P (1 2 ) = 1
THE AUTHOR
2 2
q = 1 p, x = 0, f (x) = p, x = 1, THE AUTHOR = + [bias(AUTHOR THE )]2 EQM () var() THE AUTHOR. 0, outros casos. 2 THE AUTHOR = var() + [bias()]2 . EQM () ( n - x (1 p)nx , x {0, 1, 2, =
0.05)
Tipicamente,
os
v do
coeficiente
de
confiana
x
)
p
so
0.99
(
=
0.01),
0.95
(
..., n}, e
alores
1 f (x) = 0, x {0, ue
d ..., n}. 0.90
=
1 .1).
Este
coeficiente
deve
ser
interpretado
como
uma
probabilidade
q1, 2,epender
da
( 0 x istribuio,
do
mtodo
de
amostragem,
do
tamanho
da
amostra
e
da
definio
populao
e
a
sua
d e e 2 .
x! , x {0, 1, 2, ...}, de
1
f (x) = 2 AUTHOR 2 2 THE AUTHOR var( EQM (
EQM ()= THE ) + [bias()] . )]2 . 0, x {0, 1, 2, ...}.) = var() + [bias()] . EQM () = var() + [bias( 2 2 2 THE AUTHOR onfiana
c Os
intervalos
[bias( THE AUTHOR EQM () = var() + de
c )]2 . podem
ser
usados
para
calcular
a onfiana
na
mdia,
na
diferena
X 2 entre
mdias,
em
propores
de
uma
populao
que
tm
uma
caracterstica
redefinida
(e
ue
q Z= N ( 0, p = 1). AUTHOR = 2 THE seguir
a
distribuio
Bernoulli)
e
na
varincia.
1 1 THE
AUTHOR 1 x 2 1 f (x) = e 2 ( ) , x IR Teste
de
Hipteses
1 2 2 2 2
1 2 () = var() + [bias()]2 . EQM EQM () = var() + [bias()] . = X e
De
forma
1possibilitar
concluses
definitivas
com
uma
pergunta
a
qual
sx pode
rP (1 2 = 1 2 esponder
) sim
P ( a
2 ) 2 1 EQM (AUTHOR ) + [bias()]2 . ) = var( EQM () var() Z este
de
Hiptese.
Antes
d= estudar
+ [bias()] . = THE ou
no,
Fisher,
seguido
por
Neyman
e
Pearson
definiram
o
T e
x / n : = H 2 ) AUTHOR 2P (1 =THE = 1 u H 0 0 0 um
fenmeno
e
:tentar
chegar
a
ma
concluso
acerca
de
um
parmetro,
definem-se
a
hiptese
0 verosmil
e
contm,
em
geral,
uP (A) 1 2= alternativa
( H1
. 0 : H EQM () = var() + [bias()] ue
se
considera
)q 1. 0 ma
desigualdade
(>,
<
1o:u
=).
0A
1 = 0 1 : 2 eral,
uma
i 1 () = var() + hiptese
2 ula
H0)
EQM P (1 n) =( 1
considerada
inverosmil
e
contm,
em
g2. P (S) =gualdade.
Encontra-se
[bias()] . 1 1 H1 : abaixo
um
exemplo.
= 0 3. Se Ai Aj = , entao P (A1 A2 ...) = P (A1 ) + P (A2 ) + ... 2 2
1 = 2 2 H0 : 0 2 . 2 P (1 , 1 , AUTHOR1 B B2THE Br ) = ..., 2 H1 2EQM1( = var() 12 THE AUTHOR : = ) 2 ) = + [bias()] 2 P (0
EQM () = 1 ) 2 ) = )] . THE AUTHOR (var( + [bias(1 P P (1 2 ) = 1
1 : 0 = Se
2 ) = 1 H i =0 P (B ao
contrrio
P (1 aceitarmos
0,
: mplica
que
a
evidncia
no
basta
para
rejeitar
H0
-
k )P (A|Bk ) do
que
era
THE AUTHOR P (Bk |A) = r H1
0 : 0 = 0 = esperada.
Ao
ejeitarmos
H0,
:sabemos
que
a
probabilidade
de
obter
a:amostra
quando
H0
= 0 r H1 : = THE AUTHOR H 1 H1 esultado,
portanto,
que
o
teste
conclusivo
e
(B ) 21 ceitar
0 H0 : = 0 verdadeiro
muito
reduzido.
:O
r= 0 podemos
a : = P (A|Bi )P i 1 H1
como
0 oi
p : = f ostulado.
utilizada
a
estatstica
de
teste
para
atingir
esta
concluso;
se
o
teste
for
i=1
estatstica
de
tTHE AUTHOR estimador
deste
parmetro.
2um
de
um
parmetro,
2 a este
ser
um
2 THE AUTHOR P 2 EQM ( x1 x = var( ( ) = 1 , THE AUTHOR= var() + [bias()] . EQM () 2 ..., xn) +1[bias()] . 2 22 )
= var() + [bias()] . EQMim
de
finalizar
t )de
deciso,
essencial
que
haja
uma
regra
de
tomada
de
deciso.
Por
2 P (1 a omada
= 1 A
f () )= 1 H0 : alor
2 exemplo,
om
o este
bilateral
EQM () =cvar(Pt(1 [bias()]2 .apresentado
acima,
se
a
estimativa
for
bem
longe
do
v = 0,
) + H0.
:P = p0 odermos
fazer
isso,
temos
de
estabelecer,
antes
da
experincia,
a
podemos
rejeitar
ara
H1 : = 0 1 1 d 1 H = = regio
de
rejeio
He
: 0.
: 0 ) + [bias()]2 . EQM ) = var( 0 ( 1 2 THE AUTHOR H1 : = 0
= EQM () 2var() + [bias()]2 . 2 Um
outro
factor
p levar
em
considerao
durante
um
teste
paramtrico
a
possibilidade
de
ara
1 () = var() [bias()]2 . 2 EQM + rro
de
) + [bias(irar
2 .concluso
errada
num
teste
1 statstico
a
partir
da
EQM () = cometer
um
e var(i nferncia:
t )] a
e = P (1 2 ) 1 P (1 p 2 ) = rros.
informao
c ontida
na
amostra.
Encontra-se
abaixo
um
sumrio
dos
ossveis
e1 2 1 2 ) = 1
P ( 1 H0
verdadeira
: = 01 H0
f:alsa
0 = Tipo
e
erro
de
inferncia
d P (1 2 ) = 1 1 Deciso
= 0 Erro
tipo
II
0 H1 : correcta
H1 : = Aceitar
H0
: = 0 2 Risco
-
EQM () =1var( 2 + [bias()]2 . ) Risco
H1 : = 0 1 Erro
tipo
I
Deciso
correcta
Rejeitar
H0
: = 0 2 Risco
1
-
Risco
H1 : = 1 2 ) =
2 ) = 1 1 1 0 P Nvel
de
significncia
( P2 ( Potncia
de
teste
P (1 2 ) = 1
: Quando
s comete
um
erro
tipo
=uma H0erdadeira
rejeitada
e
comete-se
um
erro
tipo
II
e
v1 = 0 =0 : I,
P (1 2 ) H 1 0 0 = H1 : = 0 quando
aceite
uma
H0
f:alsa.
A
probabilidade
de
um
erro
tipo
I
tem
a
probabilidade
(ou
nvel
de
H1 : = 0 2 H1 : = 0 significncia):
H0 : = 0
P (1 H 0 = 1 = P (erroH1 : I) =0P (rejeitar |H20) verdadeira)
tipo =
1 = P (rejeitar H0 |H0 f alsa) = a
mas
a
probabilidade
de
rejeitar
uma
H0
f:alsa
(0 potncia
do
teste)
:
= P (erro tipo I) = P (rejeitar H0 |H0 verdadeira) H1 : = 0
1 = P (rejeitar H0 |H0 f alsa)
Temos
de
definir
o
valor
crtico
para
ser
capaz
de
fixar
o
valor
de
,
e
por
conseguinte
.
A
relao
interdependente
entre
e
faz
com
que,
ao
diminuir
,
aumente.