Você está na página 1de 7

7.

DISTRIBUIÇÕES ESPECIAIS E AJUSTAMENTOS

DISTRIBUIÇÃO DE POISSON
A utilização da distribuição de Poisson baseia-se nas seguintes hipóteses:
a) A probabilidade de uma ocorrência é a mesma em todo o campo ou intervalo de
observação (tempo ou espaço);
b) A probabilidade de mais de uma ocorrência num único ponto é aproximadamente zero;
c) O número de ocorrências em qualquer intervalo é independente do número de
ocorrências em outros intervalos.

Exemplos: defeitos por cm2, erros de digitação em uma página de um livro; acidentes por
dia em determinada via, clientes que entram em uma loja por hora, chamadas telefônicas
que chegam a uma central por minuto, etc.
Não é possível contar os acidentes que não ocorreram, nem tampouco o número de
chamadas que não foram feitas, nem o número de defeitos por cm2, etc.

Definição: Seja X uma variável aleatória discreta, tomando os seguintes valores: 0, 1, 2, . .


e  k
. Se: P( X  k )  , k  0, 1, 2,... onde > 0 é uma constante.
k!
Diremos que X tem distribuição de Poisson com parâmetro .

Teorema: Se X tem distribuição de Poisson com parâmetro : E(X) =  e Var(X) = 


Ex: Suponhamos que navios chegam a um porto à razão de  = 2 navios por hora. Então:
P(X = 0) = (e - 22 0) / 0 = e - 2
P(X = 3) = (e - 22 3) / 3 = (8/6).e - 2 = (4/3) e - 2
Agora, observando o processo durante um período de meia hora, temos:  = 1. Nesse caso:
P(X = 0) = (e - 11 0) / 0 = e – 1 P(X = 3) = (e - 113) / 3 = (1/6) e - 1

A distribuição de Poisson como aproximação da distribuição Binomial

A aproximação é mais adequada quando o número n de observações é muito grande e a


probabilidade p de sucesso (fracasso), está próxima de zero. A vantagem da aproximação
é o fato de que a precisão sofre muito pouco e que o trabalho é consideravelmente menor.
Basta determinar a média ou o valor esperado da distribuição binomial. Ou seja, a média
do processo de Poisson é igual à média binomial ( = n p).

Ex: Determine a probabilidade de haver 4 peças defeituosas em uma amostra de 300,


retirada de um grande lote onde 2% são defeituosas.
300
Pela Binomial: 𝑃(𝑋 = 4) = ( ) × 0,024 × 0,98296 ≅ 0,133
4
℮−6 ×64
Pelo processo de Poisson: 𝜆 = 𝑛 × 𝑝 = 300 × 0,02 = 6. Então: 𝑃(𝑋 = 4) = 4! ≅ 0,135

DISTRIBUIÇÃO GEOMÉTRICA
Suponhamos um experimento  e que o interesse é apenas a ocorrência ou não de algum
evento A. Repete-se o , até que A ocorra pela 1a vez, sendo que as repetições sejam
independentes e em cada repetição P(A) = p e P(A C ) = 1 - p = q permaneçam constantes.
Define-se a variável aleatória X como o número de repetições necessárias para obter a 1a
ocorrência de A, incluindo-se a última. Assim, X = 1, 2, 3, . . . Como X = k se e somente se
nas primeiras (k - 1) repetições ocorreram AC, na k-ésima ocorre A, teremos:
𝑃(𝑋 = 𝐾) = 𝑞 𝑘−1 𝑝 para k = 1, 2, 3, ...
Nessas condições dizemos que X é uma variável aleatória com distribuição Geométrica.

Teorema: Se X tem distribuição Geométrica, então: E ( X ) = 1/p e Var( X ) = q /p2

Ex: Se a probabilidade de que um certo ensaio dê reação ‘positiva’ for igual a 0,4, qual será
a probabilidade de que menos de 5 reações ‘negativas’ ocorram antes da primeira positiva?
Solução: Seja Y = número de reações negativas antes da primeira positiva. Então:
P (Y = k) = (0,6)k(0,4) k = 1, 2, 3, . . .
Logo: 𝑃 (𝑌 < 5) = 𝑃 (𝑌 = 0) + ⋯ + 𝑃 (𝑌 = 4) = ∑4𝑘=0(0,6)𝑘 (0,4) = 0,92

A distribuição Geométrica possui uma propriedade interessante, que será resumida no


seguinte teorema:

Teorema: Suponha-se que X tenha distribuição Geométrica. Então, para quaisquer inteiros
positivos s e t, temos: P(X  s + t / X > s) = P(X > t)

Obs: o teorema afirma que a distribuição Geométrica “não possui memória”. Suponha que
o evento A não tenha ocorrido durante as primeiras s repetições de . Então a probabilidade
de que ele não ocorra durante as próximas t repetições será a mesma probabilidade de que
não tivesse ocorrido durante as primeiras s repetições (a informação de nenhum sucesso
é ‘esquecida’, no que interessa aos cálculos subsequentes).

DISTRIBUIÇÃO DE PASCAL (BINOMIAL NEGATIVA)

É uma generalização da distribuição geométrica. Suponha que o experimento  seja


continuado até que o evento A ocorra na r-ésima vez. Se P(A) = p, P(AC) = 1 - p = q em
cada repetição, definimos a variável aleatória Y como sendo o número de repetições
necessárias a fim de que A possa ocorrer r vezes. Se Y = 1, Y terá distribuição geométrica.
Então Y = k se e somente se A ocorrer na k-ésima repetição e tiver ocorrido (r - 1) vezes
nas (k - 1) repetições. A probabilidade desse evento é:
 k  1 r k r
P(Y  k )    p q k = r, r + 1, r + 2, . . .
 r 1
Teorema: Se Y tem distribuição de Pascal então: E(Y) = r/p e Var(Y) = rq/p2
Relação entre as distribuições Binomial e Pascal
X  Binomial (n, p) a) P(Y  n) = P(X  r)
Y  Pascal (r, p) b) P(Y > n) = P(X < r)
DISTRIBUIÇÃO HIPERGEOMÉTRICA

Suponha N peças, das quais r são defeituosas (N - r perfeitas). Retira-se ao acaso n peças
sem reposição. Seja X o número de peças defeituosas encontradas. Desde que X = k se e
somente se obtém-se exatamente k defeituosas (dentre as r) e exatamente (n - k) não
defeituosas (dentre as N - r não defeituosas), teremos:
𝑟 𝑁−𝑟
( )( )
𝑘 𝑛−𝑘
𝑃(𝑋 = 𝑘) = , 𝑘 = 0, 1, 2, …
𝑁
( )
𝑛
Neste caso, a variável aleatória X tem distribuição hipergeométrica.

Teorema: Admita-se que X tem distribuição hipergeométrica. Seja p = r/N e q = 1 - p. Neste


caso: a) E(X) = n p b) V(X) = n p q (N - n)/(N - 1) para N grande.

DISTRIBUIÇÃO MULTINOMIAL

Uma generalização da Binomial resulta a distribuição Multinomial. Assim considere a


possibilidade de K alternativas, isto é, repartimos o Espaço Amostral em K eventos A 1, A2,
..., Ak, mutuamente exclusivos com probabilidades p1, p2, ..., pk, tais que p1 + p2 + ...+ pk =
1. Então, a probabilidade de que A1 ocorra X1 vezes, A2 ocorra X2 vezes, ..., Ak ocorra Xk
n! x x x
vezes é igual a: P( X1, X 2 ,..., X k )  p1 1  p2 2  ...  pk k
x1! x2!...xk !
Esperança:   E ( X i )  npi e Var ( X i )  npi (1  pi )

Exemplo: Um dado é lançado 10 vezes. Qual é a probabilidade de aparecer duas vezes o


no 2, duas vezes o no 5, três vezes o no 1 e uma vez os demais resultados?
Então: n = 10 p1 = p2 = p3 = p4 = p5 = p6 = 1/6.
A1 = {sair o no i}, i = 1, 2, 3, 4, 5, 6.
X1 = 3; X2 = 2; X3 = 1; X4 = 1; X5 = 2; X6 = 1 onde: 6i=1 Xi = 10.
n! x x x
Assim: P( X 1  3, X 2  2, X 3  1, X 4  1, X 5  2,. X 6  1)  p1 1 p2 2 ... pk k
X 1! X 2 !...X k !
3 2 1 1 2 1 10
10! 1 1 1 1 1 1 3628800  1 
                0,0025
3! x2! x1! x1! x2! x1!  6   6   6  6 6 6 24  6 

DISTRIBUIÇÃO EXPONENCIAL

A distribuição exponencial é a distribuição de probabilidade do intervalo t entre dois


sucessos consecutivos de uma lei de Poisson. Como qualquer distribuição contínua, não
tem sentido perguntarmos “qual a probabilidade de que a primeira chamada de serviço
ocorra exatamente daqui a um minuto”? Em lugar disso, devemos especificar um intervalo
dentro do qual o evento deverá ocorrer, perguntando, por exemplo, “qual a probabilidade
de que a primeira chamada de serviço ocorra dentro de um minuto”?
x
1 
Sua função de densidade é dada por: f ( x; )  e  , x  0;   0

E(X) = θ e V ar(X) = θ2
0, se x  0;
 x
x  
F ( x)  P( X  x)   f ( s)ds  1  e  , se 0  x  s;
0 1, se x  s



Figura 2.9 - Gráfico da função densidade de probabilidade de uma variável aleatória com
distribuição exponencial de parâmetro θ = 1.

Figura 2.10 - Gráfico da função de distribuição acumulada de uma variável aleatória com distribuição
exponencial de parâmetro θ = 1.

Exemplo: O tempo de vida (em horas) de um fusível pode ser pode ser considerado uma
variável aleatória com distribuição exponencial de parâmetro θ = 500. Sabe-se que a vida
média de um fusível é 500 horas, ou E(T) = 500 horas e consequentemente a probabilidade
de que este fusível dure mais do que a média é:
  t t  500
1  500 1 

 
P(T  500)   f ( t )dt   e dt  [( 500)  e 500 ] 500  e 500  e 500  e 1  0,3678
500 500
500 500

Consequentemente, para t = 500 e θ = 500, ou seja, para os dados deste exemplo tem-se
que: F( t )  P(T  500)  1  e 11  0,3678  0,6322

A DISTRIBUIÇÃO NORMAL
É a mais importante distribuição de probabilidade, sendo aplicada em inúmeros fenômenos
e utilizada para o desenvolvimento teórico da estatística. É também conhecida como
distribuição de Gauss, ou Laplace - Gauss.
As distribuições normais ocupam posição proeminente tanto na estatística teórica como na
aplicada, por várias razões. Uma delas é que, com bastante frequência, elas representam,
com boa aproximação, as distribuições de frequências observadas de muitos fenômenos
naturais e físicos. Outra razão é que as normais servem como aproximação de
probabilidades binomiais, quando ‘n’ é grande. O motivo mais importante da proeminência
da distribuição normal é que as distribuições tanto das médias como das proporções em
grandes amostras tendem a serem distribuídas normalmente.
1 2 /2𝜎2
A função de densidade é dada por: 𝑓 (𝑥 ) = 𝑒 −(𝑥−𝜇) -x<
𝜎 √2𝜋
onde E( X ) =  e V( X ) =  2 ,  > 0
A área total sob qualquer curva normal representa 100% da probabilidade associada à
variável. Além disso, como a curva é simétrica em relação à sua média, a probabilidade de
observar um valor inferior à média é 50%, como o é também a probabilidade de observar
um valor acima da média.
A probabilidade de uma variável aleatória distribuída normalmente tomar um valor entre
dois pontos quaisquer é igual à área sob a curva normal compreendida entre aqueles dois
pontos.

DISTRIBUIÇÃO NORMAL PADRONIZADA

Para o cálculo das probabilidades, surgem dois grandes problemas: primeiro para a
integração de f(x), pois para o cálculo é necessário o desenvolvimento em séries; segundo
seria a elaboração de uma tabela de probabilidades, pois f(x) depende de dois parâmetros,
fato esta que acarretaria um grande trabalho para tabelar essas probabilidades
considerando-se as várias combinações de  e 2 .
Esses problemas podem ser solucionados por meio de uma mudança de variável, obtendo-
se, assim, a distribuição normal padronizada ou reduzida.
Podemos resumir este processo da seguinte maneira: converta-se a diferença efetiva entre
a média e algum outro valor da distribuição para uma diferença relativa exprimindo-a em
𝑿−𝝁
termos do número de desvios padrões a contar da média. Algebricamente temos: 𝒁 =
𝝈
onde : Z = número de desvios padrões a contar da média;
X = valor arbitrário;
 = média da distribuição normal;
 = desvio padrão.
Neste caso dizemos que a variável Z tem distribuição Normal Padronizada com média zero
e variância um.
As probabilidades associadas à distribuição normal padronizada são encontradas em
tabelas, não havendo necessidade de serem calculadas. A função de densidade é dada
1 −𝑧 2⁄
por: 𝑓(𝑧) = ℮ 2 -<z<
√2𝜋
A tabela normal pode ser usada para determinar a área sob a curva além de um dado valor
Z.

Exemplos:
1) Determine P(-1,25 < Z < 0) [𝑃(−1,25 < 𝑍 < 0) = 𝑃(0 < 𝑍 < 1,25)]
o
1 Passo: procurar na tabela da distribuição normal padronizada na coluna Z (1,25);
2o Passo: o valor encontrado é a área entre 0 e -1,25. P(-1,25 < Z < 0) = 0,3944
2) Determine P(-0,5 < Z < 1,48)
1o Passo: procurar na tabela P(-0,5 < Z < 0) = 0,1915;
2o Passo: procurar na tabela P(0 < Z < 1,48) = 0,4306;
3o Passo: soma-se as duas probabilidades:
𝑃(−0,5 < 𝑍 < 1,48) = 𝑃(−0,5 < 𝑍 < 0) + 𝑃(0 < 𝑍 < 1,48) = 0,1915 + 0,4306 = 0,6221

3) Determine P(0,8 < Z < 1,23)


1o Passo: procurar na tabela P(0 < Z < 0,8) = 0,2881;
2o Passo: procurar na tabela P(0 < Z < 1,23) = 0,3907;
3o Passo: subtrai-se as duas probabilidades:
𝑃(0,8 < 𝑍 < 1,23) = 𝑃(0 < 𝑍 < 1,23) − 𝑃(0 < 𝑍 < 0,8) = 0,3907 + 0,2881 = 0,1026

4) As alturas dos alunos de determinada escola são normalmente distribuídas com média
1,60 m e desvio padrão 0,30 m. Encontre a probabilidade de um aluno medir entre 1,50 e
1,80 m.
𝑋−𝜇
Resolução: Sabe-se que:  = 1,60 e  = 0,30. De posse da fórmula: 𝑍 =
𝜎
a) 𝑃(1,50 ≤ 𝑍 ≤ 1,80) = 𝑃(𝑧1 ≤ 𝑍 ≤ 𝑧2 )
𝑋−𝜇 1,50−1,60 𝑋−𝜇 1,80−1,60
𝑧1 = = = −0,33 𝑧2 = = = 0,67
𝜎 0,03 𝜎 0,03
Então: P (z1  Z  z2) = P (- 0,33  Z  0,67)
Procurando na tabela teremos: P (- 0,33  Z  0,67) = 0,1293 + 0,2486 = 0,3779.

A DISTRIBUIÇÃO NORMAL COMO APROXIMAÇÃO DA DISTRIBUIÇÃO BINOMIAL

Se um experimento tem as características de uma distribuição Binomial, mas n (o número


de realizações do experimento) for muito grande (𝑛 → ∞), e p for muito pequeno, de modo
que 𝜇 = 𝑛 × 𝑝 > 5, 𝜎 2 = 𝑛 × 𝑝 × (1 − 𝑝) > 3 usamos a distribuição Normal.

Se ‘n’ é grande e nem p e nem q são demasiadamente próximos de zero, a distribuição


Binomial pode ser aproximada por uma distribuição normal padronizada, dada por:
𝑋−𝑛×𝑝 𝑋 − 𝑛𝑝
𝑍= =
√𝑛 × 𝑝 × (1 − 𝑝) √𝑛𝑝𝑞
onde X é a variável aleatória que dá o número de sucessos e p é a probabilidade de sucesso
(𝑛 × 𝑝 é a média e 𝑛 × 𝑝 × 𝑞 a variância da distribuição binomial, com parâmetros 𝑛 e 𝑝).
Na prática, a aproximação é muito boa se 𝑛 × 𝑝 > 5.

Distribuição Normal como aproximação pela distribuição de Poisson quando 𝜆 = 𝑛 × 𝑝 > 5


TABELA - Distribuição Normal Padrão: Z ~ N(0,1)

P(0  Z  zc)
zc 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,0000 0,0040 0,0080 0,0120 0,0160 0,0199 0,0239 0,0279 0,0319 0,0359
0,1 0,0398 0,0438 0,0478 0,0517 0,0557 0,0596 0,0636 0,0675 0,0714 0,0753
0,2 0,0793 0,0832 0,0871 0,0910 0,0948 0,0987 0,1026 0,1064 0,1103 0,1141
0,3 0,1179 0,1217 0,1255 0,1293 0,1331 0,1368 0,1406 0,1443 0,1480 0,1517
0,4 0,1554 0,1591 0,1628 0,1664 0,1700 0,1736 0,1772 0,1808 0,1844 0,1879
0,5 0,1915 0,1950 0,1985 0,2019 0,2054 0,2088 0,2123 0,2157 0,2190 0,2224
0,6 0,2257 0,2291 0,2324 0,2357 0,2389 0,2422 0,2454 0,2486 0,2517 0,2549
0,7 0,2580 0,2611 0,2642 0,2673 0,2704 0,2734 0,2764 0,2794 0,2823 0,2852
0,8 0,2881 0,2910 0,2939 0,2967 0,2995 0,3023 0,3051 0,3078 0,3106 0,3133
0,9 0,3159 0,3186 0,3212 0,3238 0,3264 0,3289 0,3315 0,3340 0,3365 0,3389
1,0 0,3413 0,3438 0,3461 0,3485 0,3508 0,3531 0,3554 0,3577 0,3599 0,3621
1,1 0,3643 0,3665 0,3686 0,3708 0,3729 0,3749 0,3770 0,3790 0,3810 0,3830
1,2 0,3849 0,3869 0,3888 0,3907 0,3925 0,3944 0,3962 0,3980 0,3997 0,4015
1,3 0,4032 0,4049 0,4066 0,4082 0,4099 0,4115 0,4131 0,4147 0,4162 0,4177
1,4 0,4192 0,4207 0,4222 0,4236 0,4251 0,4265 0,4279 0,4292 0,4306 0,4319
1,5 0,4332 0,4345 0,4357 0,4370 0,4382 0,4394 0,4406 0,4418 0,4429 0,4441
1,6 0,4452 0,4463 0,4474 0,4484 0,4495 0,4505 0,4515 0,4525 0,4535 0,4545
1,7 0,4554 0,4564 0,4573 0,4582 0,4591 0,4599 0,4608 0,4616 0,4625 0,4633
1,8 0,4641 0,4649 0,4656 0,4664 0,4671 0,4678 0,4686 0,4693 0,4699 0,4706
1,9 0,4713 0,4719 0,4726 0,4732 0,4738 0,4744 0,4750 0,4756 0,4761 0,4767
2,0 0,4772 0,4778 0,4783 0,4788 0,4793 0,4798 0,4803 0,4808 0,4812 0,4817
2,1 0,4821 0,4826 0,4830 0,4834 0,4838 0,4842 0,4846 0,4850 0,4854 0,4857
2,2 0,4861 0,4864 0,4868 0,4871 0,4875 0,4878 0,4881 0,4884 0,4887 0,4890
2,3 0,4893 0,4896 0,4898 0,4901 0,4904 0,4906 0,4909 0,4911 0,4913 0,4916
2,4 0,4918 0,4920 0,4922 0,4925 0,4927 0,4929 0,4931 0,4932 0,4934 0,4936
2,5 0,4938 0,4940 0,4941 0,4943 0,4945 0,4946 0,4948 0,4949 *0,4951 0,4952
2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974
2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990

3,10 ou + 0,4999

NOTA: Para valores de Z acima de 3,09, use 0,4999


como área.
* Use esses valores comuns resultantes de interpolação:
Escore z Área
1,645 0,4500
2,575 0,4950

Você também pode gostar