Você está na página 1de 5

x {0, 2, 2, n}. THE AUTHOR x= 1, n}. f (x) {0, 1, ...,..., = x0,x = 1, 1 x q = p, p, THEAUTHOR e THE AUTHOR e q {0, f p,...

p,...}, outros x {0, 1, 2, ...}, 0, , casos. , (x) {0, 1 2, 0, f x = =1, 2, ...}, x = xx! x f (x) = = x! x! , p,1,(x) = 0, = 1,x {0, 1, 2, ...}. f (x) (x) x x p,n )0,1, ...}. p)nx , q = 1 p, x 0,f0, = {0, 1,p2,(1 outros 1, x {0, 1, 2, ..., n}, x x 2, x = casos. {0, ...}. ( f (x) =0, outros X N ( = 0, 2 q1). 1 p, x = 0, casos. x {0, 1, 2, ..., = f (x) = p, x X X n x0, 2Znx n}. n}, = Z = =(x) = ( x ( ( 0, p)== , 1). = 11, 2, ...,x = =qp, 1 p, xx= 0, Z f n N ) p = = 0, 2 1). xq {0, p, f (x) 0, = N (1 = = 1, 0, outros ) px (1 p)nx ,e x {0, 1, 2, ..., n}, ( x 0, x x {0, 2, x = 1, (f (x) 2= p, ...}, x = 1, x f (x) = Probabilidade f (x) = p,1 {0,1, 2,..., n}. 1, 0, x! , x 2 x = 1 1 1f (x) )2 (x) 1, 2, ..., 1 ) , x IR outros casos. x x x = {0, 2 ( 1 0, n}. casos. ( n ) px (1 p)nx , x 2 x f (x) = = e e 2( e) , f,, IR{0,0, 2, 2 e 2, ...}. x 0, nx outros n x 0, IR {0, 1, f (x) x x 1, ...}, outros casos. f (x) = x 2 , {0, 1, ..., n}, 2 2 = x x! 2 2 e ede a verosimilhana ( om que um evento x corre e 2, base da Inferncia c x ) p (1 p) f (x) 0, x A probabilidade x {0,x1, 2, 1, 2, = n x mn a f (x) nx 0,, X ) (1 ...}, X 2 0, {0, 1, p)nx o x ..., n}. x fEstatstica. x!pesar de tp {0, ((x)...}.(x) p foi Kolmogorov no {0, 1, 2,X...,qn},definiu as suas (x) =XfXZ xx ( x x er uN fp)= 0,,xonga, (1 2, ..., n},, xx s{0, 1, 2,X ue A= = = = l = 1). ma histria culo (x) Z e Z = = 0, x {0, 1, 2, ...}. x /x {0, 2, ..., n}. x {0, 1, 2, ..., n}. Z 1, x X x! , x {0, 1 axiomas: / x / 0, x n n N ( = 0, 2 = 1).0,n f (x) = e Z= , x {0, 1, 2, ...}, 1 xx 2 1 0, x {0, X f (x)IR x! 1. 2 1 e2 x = = 0, e 0 ( 1). ) ,{0, 1, = e x 1.Z = f (x) N ( 2 2 x!=xP (A)2, ...},x! , xx {0, 1, 2, ...}, 0 0 1 {0, 1, 2, ...}. 1. P (A) 1 (x) =1 x 2 , f (x) = 0, P (A) f 1 X 2( ) Z= N ( = 0 f P == , P = 1, X IR 0, 2. 2.(x)(S) 1 1 ex 20, 2. xx(S){0, 1 2, ...}. x {0, 1, 2,2...}. P (S) =1 1 2 = Se i A ...) ,Z = ,X P 1 = f3. P (AAA j =( PX ))x+ (Ax )AZ ... ...) (A1 ) + P (A2 += 1). (x) 1 2A 22 =(A(A P (A(A+ + ... = P N ( = 0, ) ... = e ...) entao ) + P 2 2 X IR A = = entao P Sei Ai AjAj ,, entao (A 1 2 2 Z = P 1 1 / N ( = 0, 2 = 1). 2 2) 1 x 1 N ( = 0, 2 = 1). X xx n Z = e 2 ( roblemas de )2statstica a sua definio f (x) = da probabilidade para p1 Z a= 1 x e Essencial para aXplicao n x 2 2 e 2 ( , x IR 0/ (A) 1 f (x) Z que 1.x a P robabilidade d = 1 frequencista = fdeclara p1 e 1 ( x )2e x m e2 2 1a( p )2 u IR vento 2 x roporo de ocorrncias deste 2 (x) n x / = f(x) ,= e , x IR X x evento se a experincia fP (S) 12 1 at chegar a2 2 limite. o seu 1. 0 P2. or 2 (A) repetida = Z= X x x / n 3. Se Ai Aj 1. 0 2. (A) (A1 1 A2 ...) = P (A1 ) + P (A2 ) + ... = , entao (S) 1 PP P = Z= X X x / x n Existem vrias inovaes dentro da p x Z = nos 2. P (A A Z = / robabilidade que ... tm permitido perceber a natureza de 1. 0 P (A) 3. Se Ai Aj = , entaoP (S)1= 1 2 ...) =xP (A1 ) + P (A2 ) + /n n fenmenos. Vamos agora examinar o Teorema de Bayes para entender um destas evolues. x B1 ,...) ,= PBr 1 ) + P (A2 ) + ... P (A) 1 B2 ..., (A 1. 0 3. Se Ai Aj = , entao P (A1 A2 2. P (S) = 1 1. 0 1 02. PP (A) 1 (S) d 1 B1 , B2 , ..., Br P (A) ma 1.articipao =o espao amostral SeeAi Aara , entao P (A1 A2 3. , nto, p j = Se os eventos constituem ) P (Bk )P (A|B u p 2. P 1 = B1(Bk , ...,3. r Ai P (S) = 1k P , B2 B , 2. A qualquer evento |A)d= rSetemos: j = , entao P (A(S) A2 1 ...) = P (A1 ) + P (A2 ) + ... e 3. Se Ai Aj = , entao Ai(A1 A)P (B ) = P (A11 A2(A2 ) += P (A1 ) + P (A2 ) + ... 3. Se P P (A|Bi 2, ...) Aj = entao P (A ) + P ...) ... B1 , B2 , ..., Br i P (Bk )P (A|Bk ) B1 , B2 , ..., Br i=1 P (Bk |A) = r B1 , B2 , ..., Br B1 , B2 , ..., Br P (A|Bi )P (Bi ) i=1 P (Bk )P (A|Bk ) P (Bk )P (A|Bk ) P A probabilidade de (Bk |A) =ausa do evento |A) = r por c 1 P (Bk . r 1 1 P (A|Bi )P (Bi ) P (A|Bi )P (Bi ) 0, 0,
x e x

i=1 i=1 Bernoulli e as distribuies discretas Na base da estatstica o estudo da incerteza e a probabilidade de eventos. Apesar de ter sido 1 estudado desde oARTICLE alileu, o primeiro grande passo para o estabelecimento da s tempos de G BRIEF 1 estatstica como cincia foi dado pelo J. Bernoulli. A sua lei fraca dos grandes nmeros diz que a 1 probabilidade P tende para a certeza quando o nmero de observaes N cresce indefinidamente. THE AUTHOR Isso pode ser observado num processo de Bernoulli - por exemplo no lanamento de uma moeda - 1 BRIEF ARTICLE no qual a funo de probabilidade : 1 1 Foi notado depois que a distribuio do processo de Bernoulli, a Distribuio de Bernoulli, um THE AUTHOR 1 p, x = 0, q = caso da Distribuio B inomial. A Distribuio Bernoulli permite o clculo da probabilidade para o f (x) = p, x = 1, caso de n tentativas independentes e tem, portanto, x como uma varivel aleatria na seguinte funo de probabilidade: 0, outros casos.

q = 1 p, x = 0, THE AUTHOR f (x) = p, x = 1, BRIEFoutros casos. ARTICLE 0,

q = 1 p, x = 0, n x ( ) p (1 p)nx , x {0, 1, 2, ..., n}, f (x) = x x = 1, f (x) = p, 0, 0, outros casos. x {0, 1, 2, ..., n}. ( x ) px distribuio x {0, 1, 2, ..., n}, Uma n utra (1 p)nx ,discreta importante a Distribuio de Poisson. Usa-se para calcular a o f (x) =probabilidade de um nmero definido de eventos que ocorrem num dado intervalo de tempo ou 0, x {0, 1, 2, ..., n}. espao. x e x! , x {0, 1, 2, ...}, f (x) = 0, x {0, 1, 2, ...}.

q = 1 = p, As distribuies contnuas 0, outros casos. comearam com De Moivre 0, x = 1, casos. outros f (x) = p,

x (1

f (x) = n x contnua. Porm, a importncia da distribuio normal foi estabelecida mais tarde distribuio ( x ) p (1 p)nx , d {0, 1, 2, ..., n}, por Gauss e Laplace atravs xa distribuio de erros e do Teorema do Limite Central 0, x f (x) = respectivamente. {0, 2, {0, n}. {0, 1, 2, ..., n}. BRIEF ARTICLE 0, x 1, x ...,1, 2, ..., n}. e mx mportante x A distribuio normal x a{0,ix 2, ...},distribuio porque representa muitos fenmenos no ais e , m {0, 1, ...}, 2, mundo real = x! consequente, 1, uito usada na inferncia estatstica. Tambm, como De Moivre e, por , x! e f = f (x) 1, 2, istribuies podem ser aproximada pela distribuio normal. AUTHOR (x){0, outras d ...}, q = 1 p, xTHE 0, = 0, x 1, {0, 2, x! , x demonstrou, 0, {0, x 2, ...}. 1, ...}. 1 x = 1, 0, x f {0, 1, 2,e ( f x ( IR)2 p, ...}. ) ,(x) = 1 x (x) = 1 2 2 f (x) = e 2 IR ,x 2 0, outros q = 1 p, x = 0, casos. BRIEF ARTICLE 1 2 2 Ao ariar a alteramos localizao e forma curva d 1v( x, ) mdia, ou , o desvio padro, um desvio a adro de f (x) ireita a ma mdia de 1. 2 grfico esquerda p 2 e d = up, x = 1, e respectivamente. ,Ox IR mostra 2 BRIEF ARTICLE THE AUTHOR 2 ( n ) px (1 BRIEF ARTICLE 0, 1, 2, ..., n}, p)nx , x {0, outros casos. x f (x) = THE AUTHOR ( n ) px (1 p)nx , x {0, 1, 2, ..., n} x 0, THE f (x) =AUTHORx {0, 1, 2, ..., n}. q = 1 p, x = 0, 0, x {0, 1, 2, ..., n} x x = 1, f (x) = p, e e , xf {0, 1, 2,, ...}, 1, 2, ...}, x {0, q = 1 0, x = 0, p, outros casos. q = 1 p, = = 0, x! x x! f (x) = f (x) = p, (x) x = 1, f (x) = p, x = 1, 0, x {0, 1, 2, ...}. ( ) p (1 p) , x {0, 1, 2, ..., n}, 0, x {0, 1, 2, ...}. f (x) = 0, outros casos. 0, outros casos.
1 x 2 2
0.4 0.3 f(x) 0.2
f(x) 0.2 0.3 0.4

outros casos. n 0, binomial p ) ux nmero infinito d m primeira vez que a x x (1 1, 2, ..., n}, {0, p)nx , ( xara p{0, p)nxe ,tentativas, foi a 1, 2, ..., n},lgum notou numa

0, BRIEF ARTICLE outros casos. ( n ) px (1 p)nx , x {0, 1, 2, ..., n}, f (x) = x THE p, x =AUTHOR 0, 0, x {0, 1, 2, ..., n}. q = p, BRIEF ARTICLE 1 x x = 0, O nmero e o nmero de Napier e ,ox mero mdio de eventos que ocorrem num dado x = p, e x! n {0, 1, 2, ...}, intervalo de = f (x) = tempo. 1, f (x) x = 1, 0, q = p, x = 0, x {0, 1, 2, ...}. 1

A descoberta da funo de densidade contnua, que calculou o limite da funo de probabilidade

THE AUTHOR

0.1

n x -4

nx
0 x

0.0

-2

0.0

0.1

1 x 2 0, x {0, 1, 2, ..., n}. 1 f , x = 2 e ( ) , x n x (1 p)nx , x {0, 1, 2, ..., n}, x n x (1 p)nx(x) {0, 1, 2, ..., n}, 2 (x)p (x)p f (x) = A variao e x! c,onhecida 1,a2, istribuio normal estandardizada que tx=0 e 2=1. mais x {0, d ...}, f (x) = 1 (xem {0, 1,2 n}. ) 2, ..., f (x) = a fx {0, 1, 2, ..., n}. 0, 0, 2 Utilizando rmula: 0, x {0, 1, 2, ...}. x x e2 e x x! , x {0, 1, 2, ...}, x! , X {0, 1, 2, ...}, f (x) = 2 f (x) = Z = x {0, N ( = 0, = 1). 0, x {0, 1, 2, ...}. 0, 1, 2, ...}.
x

-4

-2

f (x) =

, x IR

IR

nmero ntre mdia. X podemos calcular o 1 ( x )2de desvios padres eZ = X e a N ( = 0, 2 = 1). 1 f (x) N ( = 0, 2 2 1). , x IR 1 = e = Relacionada com esta frmula o Teorema do Limite Central de Laplace que diz que para uma 2 2 1 x 2 1 amostra s1 x 2 uficientemente grande, a distribuio da varivel aleatria (ser aproximadamente f (x) = e 2 ) , x IR 1 2( ) f (x) = normal: e , x IR 2 2 2 2

Z=

Z=

Amostragem 1 O Laplace tambm conhecido por ter utilizado a amostragem na estimao da populao da Frana, embora as tcnicas no sejam as mesmas que so utilizadas hoje; foi mbito das cincias naturais que as tcnicas modernas foram desenvolvidas. De forma a poder fazer inferncias sobre a mdia de uma populao a partir de uma amostra, e quando no se sabe a varincia, a distribuio t-Student foi elaborada. A distribuio de t-Student ajuda porque as suas caudas so mais pesadas que as da normal que significa que quantos mais graus de liberdade uma amostra tem, mais aproxima-se a distribuio normal. Desta forma, consegue calcular um valor, a mdia por exemplo, mas com menos confiana.

X x x / n

f (x) =

n X (BRIEF 2 = 1). x ) x 0, p)nx , Z = f (x) = Nx(p=(1 ARTICLE {0, 1, 2, ..., n}, 0, x {0, 1, 2, ..., n}. )2 1 x x 1 e , x ambm Os mtodos de s f (x) = eleccionar 2 (aTHE AUTHOR{0,vanaram na altura de Student. A amostragem e a mostra tx a 1, 2, ...}, , IR 2 2(x) = que qualquer elemento da populao tenha a mesma f permite x! aleatria simplesmente 0, x {0, 1, 2, ...}. probabilidade de ser selecionado e pode ser feito com ou sem reposio. Foi Kiaer que props X x Z= amostrar com base na estratificao. Este mtodo pede a diviso da populao em grupos X Z=/q termos p,as x= 0, 2 = 1).que no queremos investigar) e x (em = 1 N (caractersticas d = 0, relativamente homogneos n selecionar amostras P= p,imples e independentes de cada estrato. Assim podemos fazer aleatrias s 1 x = 1, 1. 0f (x) (A) 1 x 2 1 inferncias acerca de subgrupos da populao. Se conhecermos a distribuio de probabilidade f(S) 0, (x) = 1 = outros( casos.x IR e 2 ) , 2. P da populao, podemos basear o processo de amostragem nela. Se a distribuio for normal, 2 2 podemos gerar c P (A ) (1 d p)nx ,Px 1 ) + 1, 2, ..., n}, lemento ...) = (A e a P (A com ... 3. Se Ai Aj = , entaoada en 1 pxA2a populao d{0,cordo 2 ) + a mdia e a varincia desejada. (x X x f (x) = Z= 0, x {0, x / n 1, 2, ..., n}. B1 , B2 , r x ..., B Estimao e 1. , {0, 1, 1 x! 0 x P (A) 2, ...}, f (x) = (B )P (A|B ) Paleatria, axPk(S) =mtodos de estimao, podemos fazer inferncias k {0, 1, 2, 2.o utilizar 1 ...}. Com base (Bk |A)mostra 0, P numa a = r acerca dos Ai Aj = , entao P (A1 A2 ...) = P (A1 ) + P (A2 ) + ... parmetros pX opulao. 3. Se Z = P (A|Bi )P( = 0, 2 = 1). N (Bi ) i=1 O mtodo da mxima verosimilhana, dada uma amostra de valores j observados x1, x2,...,xn, B1 , B2 , ..., 2 d B escolhe o valor do parmetro 1da distribuio r e probabilidade que maximiza o valor da funo x1 , x2 ..., x , e 1 ( x ) , x IR 2 f (x) = a nuno de probabilidade conjunta com uma varivel discreta ou a de verosimilhana. Utiliza-se 2 2 f P (Bk )P (A|Bk ) funo densidade de probabilidade conjunta com uma varivel contnua para na maximizao da P k |A) =X r (B x funo de verosimilhana: P Z= x / n (A|Bi )P (Bi ) n i=1 L() = f (xi |) = f (x1 |)f (x2 |)...f (xn |) 1. 0 P (A) 1 x1 , x2 ..., xn i=1 2. P (S) = 1 1 3. Se Ai Aj = , entao P (A1 A ...) = P (A1 ) + P (A2 ) + ... 2

0,

e x f (x) = 1, 2, x! , x {0,p, ...},

x = 1, x {0, 1,0, ...}. 2, outros casos.

2 EQM () = var(var() + [bias()]2 . EQM () = ) +[bias()] .

A estimativa de mxima verosimilhana , a estimativa que melhor explica os valores observados da amostra. B1 , B2 , ..., Br Se, por exemplo, quisermos calcular o valor de que maximiza a verosimilhana da mdia de P (B )P (A|Bk a uma varivel com distribuio normal, okvalor ser ) mdia da amostra, visto que a mdia ser o r 1 vrtice na parbola Pa funo = d (Bk |A) quadrtica derivada. P (A|Bi )P (Bi ) A melhor escolha para estimar parmetros, quando a amostra grande e no tem casos i=1 2 THE AUTHOR 2 THE AUTHOR anormais, optar por mtodo de mxima verosimilhana. x1 , x2 ..., xn Os estimadores, como as variveis aleatrias, tm as suas propriedades. estimador , que O 2 THE como estimativa do pAUTHOR utilizado para gerar um nico valor armetro, tambm uma varivel THE AUTHOR aleatria e tem o seu desvio padro que definido como o erro padro . A estimao do erro AUTHOR padro THE THE AUTHORvaliada a qualidade do estimador . Por outro lado, o enviesamento a permite que seja a diferena entre a mdia de e o parmetro . Tambm temos de considerar a eficincia de um estimador, o que a varincia da sua distribuio amostral. De vez em quando, pode ser necessrio comparar dois estimadores, um que sofre de uma varincia significante e outro que 1 2 THE AUTHOR 2 THE a varivel? De forma a combinar a varincia e o enviesado. Qual ser o melhor estimador dAUTHOR enviesamento de cada estimador criar um nico parmetro que indica a melhor aproximao 2 THE AUTHOR da varivel, calculamos o erro quadrtico m dio (EQM) de cada estimador .

2 EQM ) = aconselhvel, quando se estima (de var() + [bias()] . u populao, conhecer o erro de amostragem que ma definido como a diferena entre a estimativa [bias()]d.a amostra e a estimativa que seria obtida de obtida 2 EQM () = var() + um censo nas mesmas condies da amostra. Um caminho para chegar a esta informao 1 determinar um intervalo no qual se possa e 1 sperar encontrar o valor do parmetro - um intervalo de confiana. O intervalo de confiana de (1 - )x 100% para o parmetro demarcado p2 limites de confiana 1 e 2 para que elos

P (1 2 ) = 1

THE AUTHOR

2 2

q = 1 p, x = 0, f (x) = p, x = 1, THE AUTHOR = + [bias(AUTHOR THE )]2 EQM () var() THE AUTHOR. 0, outros casos. 2 THE AUTHOR = var() + [bias()]2 . EQM () ( n - x (1 p)nx , x {0, 1, 2, = 0.05) Tipicamente, os v do coeficiente de confiana x ) p so 0.99 ( = 0.01), 0.95 ( ..., n}, e alores 1 f (x) = 0, x {0, ue d ..., n}. 0.90 = 1 .1). Este coeficiente deve ser interpretado como uma probabilidade q1, 2,epender da ( 0 x istribuio, do mtodo de amostragem, do tamanho da amostra e da definio populao e a sua d e e 2 . x! , x {0, 1, 2, ...}, de 1 f (x) = 2 AUTHOR 2 2 THE AUTHOR var( EQM ( EQM ()= THE ) + [bias()] . )]2 . 0, x {0, 1, 2, ...}.) = var() + [bias()] . EQM () = var() + [bias( 2 2 2 THE AUTHOR onfiana c Os intervalos [bias( THE AUTHOR EQM () = var() + de c )]2 . podem ser usados para calcular a onfiana na mdia, na diferena X 2 entre mdias, em propores de uma populao que tm uma caracterstica redefinida (e ue q Z= N ( 0, p = 1). AUTHOR = 2 THE seguir a distribuio Bernoulli) e na varincia. 1 1 THE AUTHOR 1 x 2 1 f (x) = e 2 ( ) , x IR Teste de Hipteses 1 2 2 2 2 1 2 () = var() + [bias()]2 . EQM EQM () = var() + [bias()] . = X e De forma 1possibilitar concluses definitivas com uma pergunta a qual sx pode rP (1 2 = 1 2 esponder ) sim P ( a 2 ) 2 1 EQM (AUTHOR ) + [bias()]2 . ) = var( EQM () var() Z este de Hiptese. Antes d= estudar + [bias()] . = THE ou no, Fisher, seguido por Neyman e Pearson definiram o T e x / n : = H 2 ) AUTHOR 2P (1 =THE = 1 u H 0 0 0 um fenmeno e :tentar chegar a ma concluso acerca de um parmetro, definem-se a hiptese 0 verosmil e contm, em geral, uP (A) 1 2= alternativa ( H1 . 0 : H EQM () = var() + [bias()] ue se considera )q 1. 0 ma desigualdade (>, < 1o:u =). 0A 1 = 0 1 : 2 eral, uma i 1 () = var() + hiptese 2 ula H0) EQM P (1 n) =( 1 considerada inverosmil e contm, em g2. P (S) =gualdade. Encontra-se [bias()] . 1 1 H1 : abaixo um exemplo. = 0 3. Se Ai Aj = , entao P (A1 A2 ...) = P (A1 ) + P (A2 ) + ... 2 2 1 = 2 2 H0 : 0 2 . 2 P (1 , 1 , AUTHOR1 B B2THE Br ) = ..., 2 H1 2EQM1( = var() 12 THE AUTHOR : = ) 2 ) = + [bias()] 2 P (0
EQM () = 1 ) 2 ) = )] . THE AUTHOR (var( + [bias(1 P P (1 2 ) = 1 1 : 0 = Se 2 ) = 1 H i =0 P (B ao contrrio P (1 aceitarmos 0, : mplica que a evidncia no basta para rejeitar H0 - k )P (A|Bk ) do que era THE AUTHOR P (Bk |A) = r H1 0 : 0 = 0 = esperada. Ao ejeitarmos H0, :sabemos que a probabilidade de obter a:amostra quando H0 = 0 r H1 : = THE AUTHOR H 1 H1 esultado, portanto, que o teste conclusivo e (B ) 21 ceitar 0 H0 : = 0 verdadeiro muito reduzido. :O r= 0 podemos a : = P (A|Bi )P i 1 H1 como 0 oi p : = f ostulado. utilizada a estatstica de teste para atingir esta concluso; se o teste for i=1 estatstica de tTHE AUTHOR estimador deste parmetro. 2um de um parmetro, 2 a este ser um 2 THE AUTHOR P 2 EQM ( x1 x = var( ( ) = 1 , THE AUTHOR= var() + [bias()] . EQM () 2 ..., xn) +1[bias()] . 2 22 ) = var() + [bias()] . EQMim de finalizar t )de deciso, essencial que haja uma regra de tomada de deciso. Por 2 P (1 a omada = 1 A f () )= 1 H0 : alor 2 exemplo, om o este bilateral EQM () =cvar(Pt(1 [bias()]2 .apresentado acima, se a estimativa for bem longe do v = 0, ) + H0. :P = p0 odermos fazer isso, temos de estabelecer, antes da experincia, a podemos rejeitar ara H1 : = 0 1 1 d 1 H = = regio de rejeio He : 0. : 0 ) + [bias()]2 . EQM ) = var( 0 ( 1 2 THE AUTHOR H1 : = 0 = EQM () 2var() + [bias()]2 . 2 Um outro factor p levar em considerao durante um teste paramtrico a possibilidade de ara 1 () = var() [bias()]2 . 2 EQM + rro de ) + [bias(irar 2 .concluso errada num teste 1 statstico a partir da EQM () = cometer um e var(i nferncia: t )] a e = P (1 2 ) 1 P (1 p 2 ) = rros. informao c ontida na amostra. Encontra-se abaixo um sumrio dos ossveis e1 2 1 2 ) = 1 P ( 1 H0 verdadeira : = 01 H0 f:alsa 0 = Tipo e erro de inferncia d P (1 2 ) = 1 1 Deciso = 0 Erro tipo II 0 H1 : correcta H1 : = Aceitar H0 : = 0 2 Risco - EQM () =1var( 2 + [bias()]2 . ) Risco H1 : = 0 1 Erro tipo I Deciso correcta Rejeitar H0 : = 0 2 Risco 1 - Risco H1 : = 1 2 ) = 2 ) = 1 1 1 0 P Nvel de significncia ( P2 ( Potncia de teste P (1 2 ) = 1 : Quando s comete um erro tipo =uma H0erdadeira rejeitada e comete-se um erro tipo II e v1 = 0 =0 : I, P (1 2 ) H 1 0 0 = H1 : = 0 quando aceite uma H0 f:alsa. A probabilidade de um erro tipo I tem a probabilidade (ou nvel de H1 : = 0 2 H1 : = 0 significncia): H0 : = 0 P (1 H 0 = 1 = P (erroH1 : I) =0P (rejeitar |H20) verdadeira) tipo = 1 = P (rejeitar H0 |H0 f alsa) = a mas a probabilidade de rejeitar uma H0 f:alsa (0 potncia do teste) : = P (erro tipo I) = P (rejeitar H0 |H0 verdadeira) H1 : = 0 1 = P (rejeitar H0 |H0 f alsa) Temos de definir o valor crtico para ser capaz de fixar o valor de , e por conseguinte . A relao interdependente entre e faz com que, ao diminuir , aumente.

Você também pode gostar