Escolar Documentos
Profissional Documentos
Cultura Documentos
Distribuição de Poisson
Campina Grande
Dezembro de 2014
Janeide Alves Barbosa
Distribuição de Poisson
Campina Grande
Dezembro de 2014
Dedicatória
Dedico este trabalho a todos que acreditaram que eu seria capaz de chegar
até aqui e seguir a diante.
Agradecimento
This study aims to discuss the Poisson Probability Distribution, Siméon De-
nis Poisson introduced in 1837 the book entitled:Recherches sur la probabilité de
jugements en matière criminelle at en matière civile. The Poisson distribution
can be applied in many areas and can also be used as an approximation to the
binomial random variable. Finally, a software data set R will be used to verify
whether such data fits model through the test χ2 (pronounced chi-square). For
simulation of the data set, we also use the program R. In the first application
noted that the data did not fit the proposed model for the second application
with the simulated data confirm the theory that the Poisson distribution ap-
proaches the binomial distribution. After application of the simulated data was
found that the binomial distribution approaches the theoretically Poisson seen.
From the results obtained on the R data set, it can be observed that they did
not fit the proposed model.
Sumário . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . 9
2 FUNDAMENTAÇÃO TEÓRICA . . . . . . . . . . . . . . 11
2.1 Distribuição de Poisson . . . . . . . . . . . . . . . . . . . . 11
2.2 Estimador de Máxima Verossimilhança de λ para o Mo-
delo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.1 Aproximação da Binomial à Poisson . . . . . . . . . . . . . . . 16
2.3 Processo de Poisson . . . . . . . . . . . . . . . . . . . . . . 17
2.4 Simulando uma variável aleatória de Poisson . . . . . . . . 19
2.4.1 Gerando dados no software R . . . . . . . . . . . . . . . . . . . 21
2.5 Teste de aderência de Qui-quadrado . . . . . . . . . . . . . 21
3 APLICAÇÕES . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1 Aplicação 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Aplicação 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4 CONCLUSÃO . . . . . . . . . . . . . . . . . . . . . . . . 30
1 Introdução
10
2 Fundamentação Teórica
x=0 x=0 x!
∞
Xxe−λ λx
E[X] =
x=0 x!
∞
λ
= e−λ
X
.
x=1 (x − 1)
= λe−λ eλ = λ.
já que
∞
λj
= eλ .
X
j=0 j!
E(X 2 ) = x2 P (X = x).
X
x∈S
logo, se X ∼ P oisson(λ)
∞ 2 −λ x
xe λ
E[X 2 ] =
X
x=0 x!
∞
X xe−λ λ(x−1)
=λ .
x=1 (x − 1)!
12
Fazendo a transformação j = x − 1, tem-se
∞
(j + 1)e−λ λj
E[X 2 ] = λ
X
j=0 j!
∞ ∞ −λ j
X je−λ λj X e λ
= λ +
j=0 j! j=0 j!
= λ(λ + 1).
M (t) = E[etX ]
etx p(x).
X
=
x
M 0 (0) = E[X].
13
Similarmente vamos a segunda derivada
d 0
M 00 (t) = M (t)
dt
d
= E[XetX ]
dt" #
d tX
=E (Xe )
dt
= E[X 2 etX ].
Assim,
M 00 (0) = E[X 2 ].
implicando-se que
M n (0) = E[X n ]n ≥ 1.
M (t) = E[etX ]
∞
X etn e−λ λn
=
n=0 n!
∞
(λet )n
= eλ
X
n=0 n!
et
= e−λ eλ
= exp{λ(et − 1)}.
e a segunda derivada é
assim,
E[X] = M 0 (0) = λ.
14
e
E[X 2 ] = M ”(0)
= λ2 + λ.
De onde segue
λx e−λ
f (x, λ) = . (2.3)
x!
Assim, a função de verossimilhança para uma amostra X1 ,...,Xn é dada por
Pn
n
λxi e−λ e−nλ λ xi
!
Y i=1
L(λ; x1 , ..., xn ) = = Q .
i=1 xi ! xi !
15
Aplicando-se o logaritmo natural da função verossimilhança, desta forma tem-se
que
Pn
e−nλ λ i=1
xi
lnL(λ; x) = ln Qn
i=1 xi !
Pn n
= lne−nλ + lnλ xi
Y
i=1 − ln xi !
i=1
n
X n
Y
= −nλ + xi lnλ − ln xi !.
i=1 i=1
n
∂lnL(λ, x) 1X
= xi − n = 0
∂λ λ̂ i=1
Pn
xi
λ̂ = i=1
n
λ̂ = X̄.
Para garantir que este é o EMV, deve-se ter a segunda derivada em relação a λ
negativa o que de fato acontece, pois
n
∂ 2 lnL(λ, x) 1X
= xi − n = 0
∂λ2 λ i=1
Pn 0 Pn
xi λ − x1 λ 0
= i=1 i=1
− n0
λ2
n
1 X
=− xi < 0.
λ2 i=1
16
binomial com parâmetros (n, p) no caso particular de n grande e p pequeno
para que np tenha tamanho moderado.
Defini-se a função de densidade binomial com parâmetros n e p , como
!
n k
P (X = k) = p (1 − p)n−k ,
k
para k = 0, 1, ..., n.
E o parâmetro n aproxima-se para infinito e p aproxima-se para 0 de modo
que np = λ, isto é,
! !k !n−k
n k n! λ λ
p (1 − p)n−k = 1−
k (n − k)!k! n n
!n !−k
λk n! λ λ
= 1− 1−
k! (n − k)! n n
e−λ λk
→ ,
k!
uma vez que
!−k
λ
1− →1
n
e !n
λ
1− → e−λ
n
com n → ∞. Assim, para n grande e p pequeno a probabilidade binomial
e−np (np)k
n k n−k
k
p (1 − p) pode ser aproximada pela probabilidade Poisson k!
.
17
(iii) A distribuição do número de eventos ocorridos em certo intervalo de
tempo depende somente da extensão do intervalo e não de sua localiza-
ção. A hipótese de incrementos estacionários, diz que a distribuição de
probabilidade de N (t + s) − N (t) é a mesma para todos os valores de t.
f (h)
lim = 0.
h→0 h
Lema1.1
Para uma variável aleatória de Poisson com taxa λ,
P {N (t) = 0} = e−λt .
P0 (t + h) = P {N (t + h) = 0}
= P {N (t) = 0, N (t + h) − N (t) = 0}
= P {N (t) = 0}P {N (t + h) − N (t) = 0}
= P0 (t)[1 − λh + o(h)],
18
P00 (t) = −λP0 (t).
Ou, equivalentemente,
P00 (t)
P0 (t)
= −λ.
P (X = xj ) = Pj ,
19
em que
X
j = 0, 1, ... Pj = 1.
j
x0 se U ≤ P0
x1 se P0 < U ≤ P0 + P1
....
X=
....
....
Pj−1 Pj
xj se i=0 Pi < U ≤ i = Pi .
Como
j−1
X j
X
P {X = xj } = P Pi < U ≤ Pi = Pj
i=0 i=0
,
tem-se que X é a distribuição desejada.
Para simular uma variável aleatória de Poisson com média λ, gera-se variáveis
aleatórias U1 , U2 , ... independentes e uniformes no intervalo (0,1) e pare quando
n
( )
−λ
Y
N = m in n : Ui < e
i=1
é aquivalente a
n
( )
−λ
Y
X = m ax n : Ui ≥ e ,
i=1
onde n
Y
Ui=1
i=1
usando-se logaritmos
20
n
( )
X
X = m ax n : logUi ≥ −λ
i=1
ou ( n
)
X
X = m ax n : −logUi ≤ λ
i=1
No entanto, −logUi é exponencial com taxa 1, e com isso X pode ser visto
como o número máximo de exponecial com taxa 1 que podem ser somadas e
ainda assim o resultado ser menor que λ.
Por exemplo para gerar 20 números aleatórios com média 0,2, usa-se
21
em caselas especificadas, com o número esperado de casos nelas, quando a
hipótese H0 for verdadeira. Considera-se classes onde as quais a váriável X,
característica da população, pode ser classificada, qualitativa ou quantitativa.
A estatística usada será
k
(oi − ei )2
χ2 =
X
,
i=0 ei
Em que:
k-categoria de provas ou classes;
oi -frequência observada da i-ésima categoria;
ei -frequência esperada da i-ésima categoria.
O problema pode ser caracterizado como uma amostra X1 , ..., Xn da variável
aleatória X que caracteriza a população P e testa-se a hipótese
H0 : P = P0 ,
22
3 Aplicações
3.1 Aplicação 1
Através do banco de dados do software R, foram observados o número
de reclamações sobre 44 médicos de um determinado serviço de emergência.
Observe a Tabela 1.
24
Agora calcula-se as frequências esperadas. Isto é, ei = npi .
Tabela 2: Frequências esperadas do número de reclamações para cada médico.
X oi pi ei = npi
0 1 0,0354 1,5592
1 12 0,1184 5,2078
2 12 0,1977 8,6971
3 5 0,2201 9,6827
4 1 0,1838 8,0851
5 4 0,1227 5,4008
6 2 0,0683 3,0065
7 2 0,0326 1,4345
8 2 0,0136 0,5989
9 2 0,0051 0,2223
10 1 0,0017 0,0742
11 1 0,0005 0,0225
> 12 0 0,0001 0,0044
k
(oi − ei )2
χ2 =
X
i=0 ei
(1 − 1, 5592)2 (12 − 5, 2078)2 (0 − 0, 0044)2
= + + ... + = 48, 7508,
1, 5592 5, 2078 0, 0044
e a variável de interesse é a forma da distribuição do número de reclamações
sobre os médicos.
25
Com os cálculos já realizados, segue-se que χ2calc = 48, 75 > χ2tab = 19, 675, daí
rejeita-se H0 , ou seja, existem evidências que o conjunto de dados não segue
uma distribuição de Poisson(3,34).
3.2 Aplicação 2
Agora, utiliza-se dados simulados para ilustrar a aproximação da Binomial
pela Poisson. Utilizando-se o R para gerar os números aleatórios, adota-se a
codificação “r” gerador de números aleatórios, seguida da função de distribuição,
ou seja, “rbinom” . Gera-se três amostras com probabilidades distintas, ou seja,
X oi pi ei = npi
0 11 0, 3678 11, 034
1 10 0, 3678 11, 034
2 07 0, 1839 5, 517
3 01 0, 0613 1, 839
4 01 0, 0153 0, 459
>5 00 0, 0039 0, 117
A estatística de teste é
k
(oi − ei )2
χ2 =
X
i=0 ei
(11 − 11, 034)2 (0 − 0, 117)2
= + ... + = 2, 682
11, 034 0, 117
26
H0 : os números simulados de uma distribuição Binomial (n, p) é aproxima-
damente uma distribuição de Poisson (λ).
H1 : os números simulados de uma distribuição Binomial (n, p) não é aproxi-
madamente uma distribuição de Poisson(λ).
Usa-se α = 0.05 e rejeita-se H0 se χ2calc > χ2tab .
Com os cálculos feito a mão, basta usar a tabela de distribuição qui-quadrado
com 4 graus de liberdades, com α = 0.05, segue que χ2calc = 2, 682 < χ2tab =
9, 488, daí aceita-se H0 , ou seja, o conjunto de dados simulados segue uma
distribuição de Poisson(1).
Verificando-se a segunda amostra, segui-se o mesmo raciocinio da primeira.
> rbinom(30, 50, 0.05)
421113110422322365234022034313
λ = n × p = 50 × 0, 05 = 2, 5
X oi pi ei = npi
0 03 0, 082 2, 46
1 06 0, 205 6, 15
2 08 0, 257 7, 71
3 07 0, 214 6, 42
4 04 0, 134 4, 02
5 01 0, 067 2, 01
6 01 0, 028 0, 84
>7 00 0, 011 0, 33
A estatística de teste é
k
(oi − ei )2
χ2 =
X
i=0 ei
(3 − 1, 2, 46)2 (0 − 0, 33)2
= + ... + = 1, 87
2, 46 0, 33
χ2calc = 1, 087 < χ2tab = 12, 592
27
H0 : os números simulados de uma distribuição Binomial (n, p) é aproxima-
damente uma distribuição de Poisson (λ).
H1 : os números simulados de uma distribuição Binomial (n, p) não é apro-
ximadamente uma distribuição de Poisson(λ).
Usa-se α = 0, 05 e rejeita-se H0 se χ2calc > χ2tab .
Com os calculos feito a mão, basta usar a tabela de distribuição qui-quadrado
com 6 graus de liberdades, com α = 0, 05, segue que χ2calc = 1, 087 < χ2tab =
12, 592, daí aceita-se H0 , ou seja, o conjunto de dados simulados segue uma
distribuição de Poisson(2,5).
Idem
> rbinom(30, 50, 0.005)
000211010100011001000101110000
λ = n × p = 50 × 0, 005 = 0, 25
X oi pi ei = npi
0 18 0, 779 23, 34
1 11 0, 195 5, 85
2 01 0, 024 0, 72
>3 00 0, 002 0, 06
A estatística de teste é
k
(oi − ei )2
χ2 =
X
i=0 ei
28
Usa-se α = 0.05 e rejeita-se H0 se χ2calc > χ2tab .
Com os cálculos feito a mão, basta usar a tabela de distribuição qui-quadrado
com 2 graus de liberdades, com α = 0, 05, segue que χ2calc = 5, 92 < χ2tab = 5, 991,
daí aceita-se H0 , ou seja, o conjunto de dados simulados segue uma distribuição
de Poisson(0,25).
29
4 Conclusão