Escolar Documentos
Profissional Documentos
Cultura Documentos
i=1
X
i
2
+
n
i=1
n
j=i
X
i
X
j
E(N
2
n
) =
n
i=1
E(X
i
2
) +
n
i=1
n
j=i
E(X
i
X
j
)
sendo E(X
i
2
) = p e E(X
i
X
j
) = p
2
temos que:
E(N
2
n
) = np+n(n1)p
2
= np+n
2
p
2
np
2
= np(1p) +n
2
p
2
= npq+n
2
p
2
Estes c alculos indicam um caminho para se calcular os momentos de ordem
mais elevada para N
n
. Note que calculamos E(N
n
), Var(N
n
) sem conhecermos a
5
func ao distribuic ao de N
n
. No entanto se quisermos calcular E(g(N
n
)) onde g()
e uma func ao limitada e necess ario conhecermos a func ao distribuic ao de N
n
. O
uso da probabilidade condicional nas provas que se seguem e uma das principais
t ecnicas usadas em estudos de processos estoc asticos.
1.2.2 Distribuic ao de N
Um ponto fundamental para a an alise de um processo consiste em estabelecer as
distribuic oes e distribuic oes condicionadas. No caso emquest ao (processo {N
n
, n
N}), iniciamos observando que a vari avel aleat oria N
n
e binomial com par ametro
p, o que permite escrever o seguinte resultado, de imediato; a prova e omitida.
Lema 1. Para qualquer n N,
P(N
n
= k) =
_
n
k
_
p
k
(1p)
nk
.
Recordando da Observac ao 1 que N
n+m
N
n
=X
n+1
+. . . +X
n+m
e a soma de n
vari aveis aleat orias independentes, e simples compreender que N
n+m
N
n
tamb em
tem distribuic ao binomial, como formalizado adiante.
Corol ario 1. Para qualquer n, m N,
P(N
m+n
N
m
= k) =
_
n
k
_
p
k
(1p)
nk
.
Teorema 1. Para qualquer n, m N
P(N
m+n
N
m
= k|N
0
, . . . , N
m
) = P(N
m+n
N
m
= k) =
_
n
k
_
p
k
(1p)
nk
Demonstrac ao. As vari aveis aleat orias N
0
, N
1
, . . . , N
m
s ao determinadas por X
1
, X
2
, . . . , X
m
e vice-versa, da seguinte forma:
X
1
= N
1
, X
2
= N
2
N
1
, . . . , X
m
= N
m
N
m+1
,
de maneira que
P(N
m+n
N
m
= k|N
0
, . . . , N
m
) = P(N
n+1
N
m
= k|X
1
, X
2
, . . . , X
m
).
Como {X
m+1
, . . . , X
m+n
} e independente de {X
1
, . . . , X
m
} temos que N
m+n
N
m
=
X
m+1
, . . . , X
m+n
e independente de {X
1
, X
2
, . . . , X
m
}, logo podemos escrever
P(N
m+n
N
m
= k|X
1
, . . . , X
m
) = P(N
m+n
N
m
= k)
e o Corol ario 1 completa a prova.
6
Observac ao 2. O Teorema 1 arma que as distribuic oes do processo N relativas
` as tentativas m+1, . . . , m+n s ao independentes da hist oria passada at e m (i.e.,
a hist oria passada e irrelevante). Este e um caso particular de quando a hist oria
passada at e m1 e irrelevante mas a hist oria em m e relevante; os processos
que satisfazem esta propriedade s ao denominados Markovianos. Em conson ancia,
lembre que o processo N e um caso particular de cadeia de Markov, como j a
comentamos.
Corol ario 2. Seja n
0
=0 <n
1
<n
2
< <n inteiros. Ent ao as vari aveis aleat orias
N
n
1
N
n
0
, N
n
2
N
n
1
, . . . , N
n
j
Nn
j1
, s ao independentes.
Demonstrac ao. Seja j = 3, sem perda de generalidade. Usando o Teorema 1, ava-
liamos:
P(N
n
3
N
n
2
,N
n
2
N
n
1
, N
n
1
)
= P(N
n
3
N
n
2
|N
n
2
N
n
1
, N
n
1
)P(N
n
2
N
n
1
, N
n
1
)
= P(N
n
3
N
n
2
)P(N
n
2
N
n
1
, N
n
1
)
= P(N
n
3
N
n
2
)P(N
n
2
N
n
1
|N
n
1
)P(N
n
1
)
= P(N
n
3
N
n
2
)P(N
n
2
N
n
1
)P(N
n
1
)
Observac ao 3 (Incrementos Independentes). Vari aveis aleat orias da forma N
m+n
N
m
associada ao processo N podem ser encaradas como o incremento do pro-
cesso no intervalo entre t =me t =m+n, no sentido que representama quantidade
da qual o processo aumentou neste intervalo, ou seja,
N
n+m
= N
m
+(N
m+n
N
m
).
O Corol ario 2 nos diz que os incrementos no processo N s ao independen-
tes ao longo de certos intervalos (note que os intervalos s ao disjuntos, isto e, a
intersec ao entre eles e nula). Quando um processo apresenta esta caracterstica,
dizemos que tem incrementos independentes.
Note que a independ encia de N
m+n
N
m
com relac ao a N
0
, . . . , N
m
foi provada
sem lancar m ao da distribuic ao de X
n
. Portanto o Corol ario 2 e verdadeiro para
qualquer processo {Z
n
, n N}, denido por:
Z
n
=
_
0 se n = 0
Y
1
+Y
2
+ +Y
n
se n 1
sendo Y
1
+Y
2
+ +Y
n
vari aveis aleat orias independentes. Se os Y
i
s tamb em
s ao identicamente distribudos, ent ao a distribuic ao do incremento Z
m+n
Z
m
n ao
7
depende de m e, neste caso, diz-se que o processo {Z
n
; n N} possui incrementos
independentes e estacion arios.
Exemplo 4. Considere novamente o processo de Bernoulli do Exemplo 1. Calcule
a probabilidade conjunta P(N
5
= 4, N
7
= 5, N
13
= 8), bem como E(N
5
N
8
).
Soluc ao: o evento (N
5
= 4, N
7
= 5, N
13
= 8) e equivalente ao evento (N
5
= 4, N
7
N
5
= 1, N
13
N
7
= 3) e empregando o Teorema 1 e o Corol ario 2, escrevemos:
P(N
5
= 4, N
7
= 5, N
13
= 8) = P(N
5
= 4, N
7
N
5
= 1, N
13
N
7
= 3)
= P(N
5
= 4)P(N
7
N
5
= 1)P(N
13
N
7
= 3)
=
_
5
4
_
p
4
(1p)
7
_
2
1
_
p
1
(1p)
1
_
6
3
_
p
3
(1p)
3
.
Portanto,
P(N
5
= 4, N
7
= 5, N
13
= 8) = 200p
8
(1p)
11
= .
Para calcular E(N
5
N
8
), escrevemos
N
8
= N
5
+N
8
N
5
e, portanto,
E(N
5
N
8
) = E[N
5
(N
5
+N
8
N
5
)] = E[N
5
2
+N
5
(N
8
N
5
)]
= E(N
5
2
) +E(N
5
)E(N
8
N
5
) = 5p
2
+5pq+5p3p
= 23p
2
+5pq+15p
2
= 40p
2
+5pq
Finalizamos esta sec ao com um resultado util para c alculo de valores espera-
dos.
Teorema 2. Considere umprocesso de Bernoulli e os n umeros de sucessos N
m
, N
m+1
, . . ..
Ent ao,
E(g(N
m
, . . . , N
m+n
)|N
0
, . . . , N
m
) = E(g(N
m
, . . . , N
m+n
)|N
m
)
Observac ao 4. Note que o Teorema 2 diz que a hist oria passada (N
0
, . . . , N
m1
) e
irrelevante para o c alculo de valores esperados associados ` as tentativas futuras.
Repare na conex ao disto com os coment arios da Observac ao 2.
Exerccio 1. Calcule: (i)E(N
5
|N
3
); (ii)E(N
5
N
11
|N
2
, N
3
).
Exerccio 2 (Para entregar). Seja p =0, 1. Calcule E(N
2
N
4
). Simule 5 realizac oes
para o processo N e calcule a m edia para N
2
N
4
; compare com o valor te orico.
8
1.3 Tempo de Sucesso, T
Um outro importante processo associado a um processo de Bernoulli {X
n
, n =
1, 2, . . .} e o denominado tempo de sucesso, denotado por {T
k
, n N}, que con-
siste basicamente nos intantes de ocorr encia do k- esimo sucesso. O conceito e mais
facilmente entendido atrav es da ilustrac ao na Figura 1.3, que associa o processo T
aos processos X e N.
Figura 1.3: Figura ainda n ao disponvel...
Denic ao 3. Sejam {X
n
; n 1} um processo de Bernoulli com probabilidade p de
sucessos e {N
n
, n N} os n umeros de sucesso associados. Os tempos de sucesso
{T
k
, k N} s ao denidos por
T
k
(w) =
_
0 k = 0
min
n
{n : N
n
(w) k} k = 1, 2, . . .
(1.1)
Observac ao 5. Similarmente ao que ocorria comos n umeros de sucesso, as vari aveis
aleat orias T
k
s ao determinadas por X
n
bem como por N
n
e vice-versa. De fato, as
seguintes armac oes podem ser facilmente deduzidas:
i) T
k
= n N
n1
= k 1 e N
n
= k.
ii) T
k
n N
n
k (o k- esimo sucesso ocorre at e n se, e somente se, o n umero
de sucessos nas primeiras n tentativas e pelo menos k).
iii) T
k
= kI
{X
j
=1}
, k = 1, 2, . . ..
iv)
_
X
n
= 1, k : n = T
k
X
n
= 0, c.c..
Note que T
k
T
kj
e o intervalo entre o (k j)- esimo sucesso e o k- esimo su-
cesso. Como veremos a seguir, vari aveis aleat orias desta forma s ao independentes
sempre que os intervalos aos quais elas se referem n ao se intercalam.
Lema 2. T
1
, T
2
T
1
, T
3
T
2
, . . . s ao v.a. independentes e identicamente distribui-
das (i.i.d.) com distribuic ao
P(T
k
T
k1
= j) = p(1p)
j1
. (1.2)
9
Demonstrac ao. Parte a) Empregando a relac ao da Observac ao 5 (iv), avaliamos
P(T
1
= j
1
, T
2
T
1
= j
2
) = P(T
1
= j
1
|T
2
T
1
= j
2
)P(T
2
T
1
= j
2
)
= P(X
0
= 0, X
1
= 0. . . , X
j
1
1
= 0, X
j
1
= 1|
X
j
1
+1
= 0, . . . , X
j
1
+j
2
1
= 0, X
j
1
+j
2
= 1)P(T
2
T
1
= j
2
)
= P(X
0
= 0, X
1
= 0. . . , X
j
1
1
= 0, X
j
1
= 1)P(T
2
T
1
= j
2
)
= P(T
1
= j
1
)P(T
2
T
1
= j
2
)
sendo que na p en ultima passagem usamos o fato de que X
n
e X
m
s ao independentes
para n = m. A prova pode ser concluida usando o mesmo argumento, indutiva-
mente. Por exemplo,
P(T
1
= j
1
,T
2
T
1
= j
2
, T
3
T
2
= j
3
)
= P(T
1
= j
1
, T
2
T
1
= j
2
|T
3
T
2
= j
3
)P(T
3
T
2
= j
3
)
= P(T
1
= j
1
, T
2
T
1
= j
2
)P(T
3
T
2
= j
3
)
= P(T
1
= j
1
)P(T
2
T
1
= j
2
)P(T
3
T
2
= j
3
)
Parte b) Dada a independ encia demonstrada na parte (a), temos que
P(T
k
T
k1
= j) = P(T
k
T
k1
= j|T
k1
)
= P(X
T
k1
+1
= 0, . . . , X
T
k1
+j1
= 0, X
T
k1
+j
= 1|T
k1
)
= (1p)
j1
p
1.3.1 Valor Esperado e Vari ancia de T
j=1
j pq
j1
=
1
p
.
Similarmente,
Var(T
k+1
T
k
) =
(1p)
p
2
.
Como T
k
= T
1
+(T
2
T
1
) + +(T
k
T
k1
), segue que T
k
e a soma de k vari aveis
aleat orias i.i.d., e podemos escrever:
E(T
k
) = E(T
1
) + +E(T
k
T
k1
) =
k
p
,
assim como
Var(T
k
) =
k(1p)
p
2
.
10
1.3.2 Distribuic ao de T
Teorema 3. Para qualquer k {1, 2, . . . }, tem-se:
i)
P(T
k
= n) =
_
n1
k 1
_
p
k
q
nk
, n = k, k +1, . . . ;
ii)
P(T
k
n) =
n
j=k
_
n
j
_
p
j
q
nj
, n = k, k +1, . . . .
Demonstrac ao. Inicialmente, note que T
k
(w) k para qualquer w , pois o k-
esimo sucesso n ao pode ocorrer em menos do que k tentativas. Desta forma, para
n < k teremos P(T
k
= n) = 0, bem como P(T
k
n) P(T
k
k) = P() = 1. Na
sequ encia, consideraremos n k.
i) Conforme foi comentado na Observac ao 5,
T
k
= n N
n1
= k 1 e N
n
= k
e, portanto,
P(T
k
= n) = P(N
n1
= k 1, N
n
= k)
= P(N
n1
= k 1, N
n
N
n1
= 1)
Em seguida, empregando o Corol ario 2 e o Teorema 1, avaliamos:
P(T
k
= n) = P(N
n1
= k 1, N
n
N
n1
= 1)
= P(N
n1
= k 1)P(N
n
N
n1
= 1)
=
_
n1
k 1
_
p
k1
(1p)
n1k+1
p =
_
n1
k 1
_
p
k
(1p)
nk
.
ii) Conforme a Observac ao 5 (ii),
T
k
n N
n
k,
Assim, para n k, de acordo com o Lema 1, temos:
P(T
k
n) = P(N
n
k) =
n
j=k
P(N
n
= j) =
n
j=k
_
n
j
_
p
j
q
nj
11
Exemplo 5. Calcule i) P(T
3
= 5); ii) P(T
3
= 5|T
1
); iii) P(T
3
= 5) =
j=0
P(T
3
=
5|T
1
= j)P(T
1
= j) e compare com (i).
Soluc ao: i) P(T
3
= 5) =
_
4
2
_
p
3
(1p)
2
;
ii) P(T
3
= 5|T
1
) = P(T
3
T
1
= 5T
1
|T
1
= j
1
)
= P(T
2
= 5 j
1
) =
_
4T
1
1
_
p
2
(1p)
3T
1
;
iii) P(T
3
= 5) =
j=0
P(T
3
= 5|T
1
= j)P(T
1
= j)
=
3
j=1
_
4 j
1
_
p
2
(1p)
3j
_
j 1
0
_
p
1
(1p)
j1
=
3
j=1
_
4 j
1
_
p
3
(1p)
2
=
_
4
2
_
p
3
(1p)
2
Exemplo 6. Para um evento A qualquer, sabe-se que
E(I
A
) = P(A).
Este fato pode ser usado, em conjunto com a lei dos grandes n umeros, para inferir
probabilidades. Por exemplo, com p = 0, 3, simulando 100.000 realizac oes para
T
3
, obtendo os valores de I
{T
3
=5}
, e calculando a m edia obtemos:
m edia de I
{T
3
=5}
= 0, 0793.
Conrmando o resultado,
E(I
{T
3
=5}
) = P(T
3
= 5) =
_
4
2
_
p
3
(1p)
2
= 0, 0794.
Exemplo 7. Calcule P()
1.4 Exerccios
Exerccio 3. Considere uma possvel realizac ao = (S, F, F, S. . .) de uma seq u encia
de lancamentos independentes com dois possveis resultados S e F. Determine o
valor da vari avel aleat oria.
12
Exerccio 4. Seja {X
n
; n = 1, 2, . . .} um processo de Bernoulli.
Se p = P(X
n
= 1) = 0.05
a) Qual a probabilidade de X
1
= 1, X
2
= 1 e X
3
= 1 ?
b) P(N
3
= 1) ?
Exerccio 5. Seja {X
n
; n = 1, 2, . . .} um processo de Bernoulli. Calcule:
a)P(N
1
= 0, N
2
= 0, N
3
= 1, N
4
= 1)
b)P(N
1
= 0, N
3
= 2, N
3
= 1, N
4
= 2)
c)P(N
8
= 6, N
15
= 12)
Exerccio 6. No problema mostrado no exemplo 4, qual a probabilidade de um
mancal estar dentro da especicac ao ? Qual a probabilidade de um rebite sair da
especicac ao ? Qual e o valor esperado de pecas fora da especicac ao depois de
400 fabricadas ?
Exerccio 7. Para p = 0.8, calcule:
a)E(N
3
)
b)E(N
7
)
c)E(N
3
+4N
7
)
d)Var(N
3
)
e)Var(N
7
N
3
)
f)E(6N
4
+N
7
|N
2
)
Exerccio 8. Considere o processo de Bernoulli com probabilidade p = 0.8 . As
cinco primeiras tiragens resultam em {SFFSS} . Determinar o valor esperado de
N
3
+2N
7
dado o hist orico.
Exerccio 9. Mostrar que E(N
n+m
|N
n
) = N
n
+mp .
Exerccio 10. Sejam N
n
o n umero de veculos que passam por um certo ponto no
intervalo (0, n], e T
k
marca o tempo (em segundo) do k- esimo veculo ter passado
por tal ponto. Suponha a taxa de passagem de 4 veculos/minuto. Calcule:
a) p = P(X
n
= 1)
b) P(T
4
T
3
= 12)
c)E(T
4
T
3
) , E(T
13
T
3
)
d) Var(T
2
+5T
3
)
Exerccio 11. Prove que P(T
8
= 17|T
0
, . . . , T
7
) = pq
16T
7
, {T
7
16} .
Exerccio 12. Mostre que
E(T
m+n
|T
n
) = T
n
+
m
p
.
13
Exerccio 13. Calcule:
a)P(T
1
= k, T
2
= m, T
3
= n), k < m < n .
b)P(T
3
= n|T
1
= k, T
2
= m)
c)E(T
3
|T
1
= k, T
2
= m)
d)E[g(T
3
)|T
1
, T
2
] para g(b) =
b
, [0, 1] .
Exerccio 14. Se uma vari avela aleat oria T tem distribuic ao geom etrica, ent ao
P(T > n+m|T > n) = q
m
= P(T > m)
para todo n e m. Mostre que a recproca e tamb em verdadeira: se uma
vari avela aleat oria T e tal que
P(T > n+m|T > n) = P(T > m)
para todo m, n N ent ao T tem distribuic ao geom etrica.
Exerccio 15. A probabilidade de um motorista parar para um caroneiro e p =
0.04; e claro que motoristas diferentes fazem sua decis ao de parar ou n ao inde-
pendente de cada um. Dado que nosso caroneiro contou que 30 carros passaram
sem lhe dar carona, qual a probabilidade de ser pego pelo 37
o
motorista ou antes?
Exerccio 16. Seja a chegada de carros descrita no exerccio anterior. Imagine
que dois carros passam a cada minuto (determinsticamente). Seja S o tempo em
segundos em que ele nalmente consegue a carona.
a) Ache a distribuic ao de S; calcule E(S), Var(S).
b) Dado que depois de 5 minutos, durante os quais 10 carros passaram, o
caroneiro ainda continua no seu lugar, calcule o valor esperado de T.
Exerccio 17. Um duelo entre dois homens e feito em rounds, da seguinte forma:
em cada round, ambos atiram simultaneamente e a probabilidade de o 1
o
matar
o 2
o
e p
1
, e do 2
o
matar o 1
o
e p
2
(n ao necessariamente p
1
+ p
2
= 1). Ache a
probabilidade de que:
a) o duelo termine no 13
o
round.
b) o 1
o
termine vivo.
c) o duelo termine no 13
o
round com o 1
o
vivo.
DICA: crie um processo de Bernoulli identiando
sucesso um ou ambos homens morrem no n- esimo round.
14
Captulo 2
Processo de Poisson
No captulo anterior estudamos processos estoc asticos discretos bastante simples.
A partir de agora estudaremos o processo de Poisson, um processo estoc astico si-
milar ao processo de n umero de sucessos de um processo de Poisson. Este processo
e simples do ponto de vista conceitual e intuitivo, mas e contnuo no tempo, o que
traz uma certa compexidade analtica.
Diferentemente do processo de Bernoulli e dos processo de n umero de sucessos
e de tempo de sucessos associados, cujo apelo era mais did atico do que aplicativo,
o processo de Poisson encontra diversas aplicac oes, como em telefonia, no estudo
de chegada de clientes em uma loja, ou de sadas de pecas de um estoque.
2.1 Hip oteses do Processo de Poisson
H a um certo processo estoc astico, denominado de processo de contagem de che-
gadas, que e util para descrever o processo de Poisson. No processo de contagem
de chegada {N
t
, t 0}, em cada instante de tempo t 0, a vari avel aleat oria N
t
registra o total do n umero de chegadas.
Em termos formais, N ={N
t
; t 0} e tal que para cada w o mapeamento
t N
t
(w) e n ao decrescente, aumenta somente por saltos, e contnuo a direita e
N
0
(w) = 0, onde N
t
(w) e o n umero de chegadas no intervalo [0, t] para a realizac ao
w . Note que N e um processo estoc astico a par ametro (de tempo) contnuo e
com espaco de estado discreto N = {0, 1, 2, . . .}. Veja um exemplo de realizac ao
do processo na Figura 2.1.
Quando o processo de contagem satisfaz certas hip oteses (simplicadoras),
ent ao diz-se que ele e um processo de Poisson. Desta forma, o processo de Poisson
consiste em um caso particular do processo de contagem de chegadas, para o qual
certas hip oteses valem.
15
Figura 2.1: Figura ainda n ao disponvel... Realizac ao do processo de contagem
{N
n
, n N}.
Se por umlado e verdade que e relativamente difcil que as hip oteses de Poisson
sejam perfeitamente vericadas na pr atica, por outro lado em um grande n umero de
aplicac oes elas representam boas aproximac oes, e por isto o processo de Poisson e
considerado um bom modelo para diversos processos de contagem. Estudaremos
as hip oteses de Poisson a seguir.
Notac ao 1. Chama-se N
t+s
N
t
o n umero de chegadas no intervalo (t, t+s].
Recorde, da Observac ao 3, que o n umero de sucessos do processo de Ber-
noulli tem incrementos independentes, pois os incrementos em intervalos dis-
juntos eram independentes.
A priemira hip otese considerada e uma transposicao direta: o n umero de che-
gadas em um certo intervalo e independente do n umero de chegadas em um outro
intervalo. N os formalizamos a noc ao de incrementos independentes, para referen-
cia posterior, da seguinte forma.
Denic ao 4 (Incrementos Independentes). Considere um processo estoc astico
{Z
k
, k T}, sendo T o conjunto de par ametros. Se as vari aveis aleat orias Z
k
1
+k
2
Z
k
1
e Z
k
3
+k
4
Z
k
3
forem independentes para quaisquer k
1
, k
2
, k
3
, k
4
tais que os in-
tervalos (k
1
, k
1
+k
2
] (k
3
, k
3
+k
4
] forem disjuntos, ent ao dizemos que o processo
tem incrementos independentes.
A segunda hip otese consiste no fato que os incrementos dependem do compri-
mento do intervalo, mas n ao de sua localizac ao; ou seja, o n umero de chegadas
N
t+s
N
t
, t, s 0, depende de s mas n ao de t. Dada esta independ encia do tempo,
dizemos que o processo e estacion ario. Novamente, h a semelhanca com o n umero
de sucessos em um processo de Poisson, pois quando tratamos dos incrementos
podamos fazer um shift no tempo. Formalizamos o conceito como segue.
Denic ao 5 (Incrementos Estacion arios). Considere um processo estoc astico
{Z
k
, k T}, sendo T o conjunto de par ametros. Se a distribuic ao da vari avel
aleat oria Z
t+s
Z
t
for independente de t, ent ao dizemos que o processo tem incre-
mentos estacion arios.
A terceira e ultima hip otese consiste no fato que n ao ocorrem chegadas si-
mult aneas. Se considerarmos, por exemplo, a chegada de pessoas a um est adio,
teremos que considerar que todas as pessoas chegam sozinhas.
Formalmente, temos:
16
Denic ao 6 (Chegadas n ao Simult aneas). Considere um processo de contagem
de chegadas {N
t
, t 0}. Dizemos que o processo tem chegadas n ao simult aneas
se os saltos em N
t
(w) forem de amplitude unit aria, para quase todo w.
Denic ao 7. Um processo de chegada N ={N
t
, t 0} e chamado um processo de
Poisson se:
i) tiver incrementos independentes. Ou seja, para qualquer s, t 0, N
t+s
N
t
e independente de {N
u
, u t};
ii) tiver incrementos estacion arios. Ou seja, para qualquer s, t 0, a distribuic ao
de N
s+t
N
t
e independente de t (estacionaridade);
iii) apresentar chegadas n ao simult aneas.
Observac ao 6. Note que a hip otese (i) da Denic ao 6 n ao parece (ao menos em
princpio) id entica ` a hip otese de incrementos independentes.
Contudo, elas s ao equivalentes. A seguir mostramos que a hip otese (i) da
denic ao leva ` a hip otese de independ encia incremental; a demonstrac ao reversa e
deixada ao leitor.
Note que o conhecimento de N
t
1
, N
t
2
, . . . , N
t
n
e equivalente ao conhecimento de
N
t
1
, N
t
2
N
t
1
, . . . , N
t
n
N
t
n1
, ou seja,
N
t
1
= N
t
1
N
t
2
= N
t
1
+(N
t
2
N
t
1
)
.
.
.
N
t
n
= N
t
n1
+(N
t
n
N
t
n1
)
portanto
P(N
s+t
N
t
|N
t
1
, N
t
2
, . . . , N
t
n
) = P(N
s+t
N
t
|N
t
1
, N
t
2
N
t
1
, . . . , N
t
n
N
t
n1
)
Da hip otese (i) da Denic ao 6, temos que N
s+t
N
t
e independente do hist orico
passado N
t
1
, N
t
2
, . . . , N
t
n
, quando t
1
< t
2
< . . . < t
n
t. Ent ao, podemos escrever
que
P(N
s+t
N
t
|N
t
1
, N
t
2
, . . . , N
t
n
) = P(N
s+t
N
t
)
e, substituindo na equac ao anterior, obtemos
P(N
s+t
N
t
|N
t
1
, N
t
2
N
t
1
, . . . , N
t
n
N
t
n1
) = P(N
s+t
N
t
).
Ou seja, N
t+s
N
t
e independente de N
t
1
, N
t
2
N
t
1
, . . . , N
t
n
N
t
n1
, e da obtemos
P(N
t
2
N
t
1
|N
t
1
) = P(N
t
2
N
t
1
) (N
t
2
N
t
1
) e N
t
1
s ao independentes;
P(N
t
3
N
t
2
|N
t
1
, N
t
2
N
t
1
) =P(N
t
3
N
t
2
) (N
t
3
N
t
2
) e independente de N
t
1
, N
t
2
N
t
1
.
Logo N
t
1
, N
t
2
N
t
1
e N
t
3
N
t
2
s ao independentes. O resultado segue por induc ao.
17
2.1.1 Distribuic ao de N
t
E possvel partir das hip oteses que denem o processo de Poisson e encontrar as
distribuic oes associadas de N. Contudo, e mais simples (e igualmente did atico)
partirmos propondo a distribuic ao de um incremento N
t+s
N
t
e em seguida veri-
car que de fato esta distribuic ao corresonde ` as hip oteses do processo, como segue.
Teorema 4. Se {N
t
, t 0} e um processo de Poisson, ent ao, para qualquer t, s 0
e k 0,
P(N
t+s
N
t
= k|N
u
, u t) = P(N
t+s
N
t
= k) =
e
t
(t)
k
k!
. (2.1)
Demonstrac ao. H a dois fatos a serem vericados. Primeiro, se (2.1) e, de fato,
uma distribuic ao. Deixamos isto ao encargo do leitor.
Segundo, devemos vericar se os tens (i) a (iii) da Denic ao 7 s ao satisfeitos,
assumindo que a distribuic ao e como em (2.1). Os tens (i) e (ii) s ao triviais, pois
de (2.1) vem que P(N
t+s
N
t
= k|N
u
, u t) e igual a
e
t
(t)
k
k!
, valor este que s o
depende do intervalos; n ao depende de t e nem dos valores passados do processo.
Com respeito ao item (iii), temos:
vide notas de aula
n=0
nP(N
t
= n)
=
n=0
n
e
t
(t)
n
n!
19
=
n=1
n
e
t
(t)
n1
(n1)!
(t)
=te
t
n=1
(t)
n1
(n1)!
Fazendo a mudanca de vari avel j = n1, onde n = 1 j = 0 e n j
.
E(N
t
) = (t)e
t
j=0
(t)
j
j!
. .
=t
e
t
Note que o resultado acima sugere que o signicado de e o do valor esperado
de chegadas em um certo intervalo de durac ao t, dividido por t,
=
E(N
t
)
t
.
Ou seja, e a taxa m edia de chegadas. Esta id eia e reforcada pelo resultado que
segue, que estabelece que tem o signicado da raz ao entre a probabilidade de
uma chegada em um pequeno intervalo. A prova vem de imediato da distribuic ao
dos incrementos e e omitida.
Lema 3.
lim
t0
P(N
t
= 1)
t
=
Exemplo 9. Suponha que em um terminal telef onico chegam 20 chamadas por dia.
Qaul a probabilidade de 10 ou mais chamadas ocorrerem entre 10h e 18h de um
dia? Qual a probabilidade de mais de uma chamada nas primeira 8 horas do dia?
Soluc ao:
= 20 chamadas por dia = 20/24 chamadas por hora .
P(N
t
= n) =
e
t
(t)
n
n!
, n = 0, 1, 2, . . .
(i)Sabemos que P(N
t+s
N
t
= n) = P(N
s
) =
e
s
(s)
n
n!
. Assim, fazendo t = 10,
s = 8 e n = 10 temos
P(N
8
10) =
n=10
P(N
8
= n) =
n=10
e
20
24
8
(
20
24
8)
n
n!
=
n=10
e
20
3
(
20
3
)
n
n!
20
Devemos usar que
P(N
8
10) = 1P(N
8
10) = 1
9
n=0
e
20
3
(
20
3
)
n
n!
(ii)P(N
t
2), t = 8h
P(N
8
2) = 1P(N
8
1) = 1P(N
8
= 0) P(N
8
= 1)
= 1
e
20
24
8
(
20
24
8)
0
0!
e
20
24
8
(
20
24
8)
1
1!
= 1e
20
3
20
3
e
20
3
= 1e
20
3
_
1+
20
3
_
j=0
P(X
1
= j)P(X
1
+X
2
= n|X
1
= j)
=
j=0
P(X
1
= j)P(X
2
= n j)
usamos na ultima passagem o fato de X
2
ser independente de X
1
. Logo
P(X
1
+X
2
= n) =
j=0
e
s
1
(s
1
)
j
j!
e
s
2
(s
2
)
nj
(n j)!
= e
(s
1
+s
2
)
j=0
(s
1
)
j
(s
2
)
nj
j!(n j)!
=
e
(s
1
+s
2
)
n!
j=0
n!
j!(n j)!
(s
1
)
j
(s
2
)
nj
Mas
j=0
n!
j!(n j)!
(s
1
)
j
(s
2
)
nj
= (s
1
+s
2
)
n
portanto
P(X
1
+X
2
= n) =
e
(s
1
+s
2
)
(s
1
+s
2
)
n
n!
(ii) A recproca n ao ser a provada.
22
Proposic ao 1. SejamA
1
, A
2
, . . . , A
n
intervalos disjuntos comuni ao B, sejama
1
, a
2
, . . . , a
n
os respectivos comprimentos de A
1
, A
2
, . . . , A
n
e b = a
1
+a
2
+ +. . . +a
n
. Ent ao,
para k
1
+k
2
+. . . +k
n
= k N, temos
P(N
A
1
= k
1
, N
A
2
= k
2
, . . . , N
A
n
= k
n
|N
B
= k)
=
k!
k
1
!k
2
! . . . k
n
!
_
a
1
b
_
k
1
. . .
_
a
n
b
_
k
n
.
(2.2)
Demonstrac ao. Se N
A
1
= k
1
, N
A
2
= k
2
, . . . , N
A
n
= k
n
e N
B
= k temos
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
|N
B
= k) =
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
)
P(N
B
= k)
Se A
1
, A
2
, . . . , A
n
s ao disjuntos, ent ao N
A
1
, . . . N
A
n
s ao independentes, logo
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
) = P(N
A
1
= k
1
). . . P(N
A
n
= k
n
)
Sendo P(N
A
i
= k
i
) =
e
a
i
(a
i
)
k
i
k
i
!
, P(N
B
= k) =
e
b
(b)
k
k
temos
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
|N
B
= k) =
k!
k
1
!k
2
! . . . k
n
!
_
a
1
b
_
k
1
. . .
_
a
n
b
_
k
n
2.1.3 Tempo de Chegada
Seja N = {N
t
, t 0} um processo de Poisson com taxa , para quase todo w. A
func ao t N
t
(w) e n ao decrescente, contnua ` a direita e aumenta somente por
saltos unit arios. Esta func ao e completamente determinada pelos instantes de salto
T
1
(w), T
2
(w), . . . , T
n
(w), . . .. Denotamos T
1
, T
2
, . . . , T
n
os sucessivos instantes (ou
tempo) de chegada.
Seja X
n
=T
n
T
n1
, (T
0
=0, por conveni encia), X
n
e o intervalo de tempo entre
as chegadas n 1 e n. Para determinar a distribuic ao de X
n
, vamos usar o fato de
que {X
n
> t} signica o mesmo que ter ocorrido zero chegadas no intervalo [0, t],
ou seja
P(X
n
>t) = P(zero chegadas entre [0, t]) = e
t
Devemos observar ainda algumas propriedades da vari avel aleat oria X
n
:
P(X
n
>t|X
n1
= s) = P(zero chegadas entre (s, t +s] | X
n1
= s)
= P(zero chegadas entre (s, t +s])
23
P(X
n
>t|X
n1
= s) = P(X
n
>t) = independ encia.
Por outro lado P(X
n
>t) = e
t
, logo
P(X
n
>t|X
n1
= s) = e
t
= estacionariedade.
Conclus ao:
Os tempos entre chegadas X
n
s ao vari aveis aleat orias independentes e identica-
mente distribudas com distribuic ao exponencial e
t
.
Lembrando que se uma vari avel aleat oria tem distribuic ao exponencial, ent ao
P(X >t +s|X >t) = P(X > s)
para quaisquer t, s 0.
Alternativamente se X tem essa propriedade, ent ao X tem distribuic ao expo-
nencial, pois
P(X >t +s|X >t) =
P(X >t +s)
P(X >t)
= P(X > s)
e da
P(X >t +s) = P(X >t)P(X > s),
o que implica que X tem distribuic ao exponencial.
Teorema 7. Sejam T
1
, T
2
, . . . tempos sucessivos de chegadas de um processo de
chegada N = {N
t
, t 0}. Ent ao N e um processo de Poisson com taxa se, e so-
mente se, os tempos de chegadas T
1
, T
2
T
1
, T
3
T
1
, . . . s ao i.i.d, com distribuic ao
exponencial de par ametro .
Demonstrac ao. Notemos que uma parte do teorema j a foi provada, e deixamos a
recproca como exerccio.
Valor esperado e vari ancia de T
n
T
n1
Sendo T
n
T
n1
uma vari avel aleat oria com distribuic ao exponencial de par ametro
, temos
E(T
n
T
n1
) =
1
e Var(T
n
T
n1
) =
1
2
sendo T
n
= T
1
+(T
2
T
1
) +(T
3
T
2
) +. . . +(T
n
T
n1
) temos
E(T
n
) =
n
e Var(T
n
) =
n
2
24
Exemplo 11. Um item tem um tempo de vida aleat orio cuja distribuic ao e expo-
nencial com par ametro . Quando este falha, e imediatamente substitudo por
um item id entico e assim sucessivamente. Isto signica que os tempos de vidas
X
1
, X
2
, . . . dos sucessivos itens em uso sao i.i.d. com distribuc ao exponencial dada
por
P(X
n
t) = 1e
t
; t 0.
Se T
1
, T
2
, . . . s ao os tempos das falhas sucessivas, temos que T
1
= X
1
, T
2
=
X
1
+X
2
, . . .. Ent ao as condic oes do teorema 44 est ao satisfeitas pela seq u encia
T
1
, T
2
, . . . Assim se N
t
e o n umero de falhas em [0, t], conclumos que o processo de
falhas N ={N
t
, t 0} e um processo de Poisson com taxa .
Exemplo 12. Supondo que no exemplo ?? = 2.10
4
temos que o tempo de vida
esperado de um item e
E(X
n
) =
1
= 5000(horas)
A vari ancia e
Var(X
n
) =
1
2
= 25.10
6
(horas)
2
Supondo que numa m aquina funcionem tr es desses itens, onde o segundo entra
em funcionamento imediatamente ap os o primeiro falhar e o terceiro logo ap os o
segundo falhar, ent ao o tempo de vida esperado da m aquina e
E(T
3
) = E(X
1
+X
2
+X
3
) =
3
= 15000(horas)
Var(T
3
) =Var(X
1
+X
2
+X
3
) =
3
2
= 75 10
6
(horas)
2
.
Exemplo 13. Supondo que os itens do exemplo anterior s ao recolocados por outro
id entico t ao logo eles falhem, e supondo que o custo de reposic ao e $ e que a
taxa de desconto e > 0, ent ao $1 gasto no instante t tem um valor presente de
e
t
( e a taxa de juros). Logo, para uma realizac ao w , o tempo da n- esima
falha e T
n
(w), e o valor presente do custo de reposic ao e e
(T
n
(w))
. Assumindo
esse custo para todo n, temos que o valor presente do custo de todas reposic oes
futuras e
C(w) =
n=1
e
(T
n
(w))
, w
Estamos interessados no valor espreado do custo C(w), ou seja
E(C(w)) =
n=1
E(e
(T
n
(w))
)
25
Para n xo, podemos escrever T
n
= T
1
+ (T
2
T
1
) +. . . + (T
n
T
n1
), onde
T
1
, T
2
T
1
, . . . , T
n
T
n1
s ao vari aveis aleat orias i.i.d., logo
E(e
T
n
) = E(e
T
1
e
(T
2
T
1
)
. . . e
(T
n
T
n1
)
)
= E(e
T
1
)E(e
(T
2
T
1
)
). . . E(e
(T
n
T
n1
)
)
= [E(e
T
1
)]
n
Desde que a distribuic ao de T
1
e exponencial com par ametro , temos
E(e
T
1
) =
0
e
t
e
t
dt =
+
temos
E(C) =
n=1
_
+
_
n
=
+
_
1
+
_
1
=
k=0
P(L
B
= k, M
B
= nk)
=
n
k=0
e
b
(b)
k
k!
e
b
(b)
nk
(nk)!
=
e
(+)b
(+)
n
n!
b
n
n
k=0
n!
k!(nk)!
nk
(+)
n
=
e
(+)b
(+)
n
n!
b
n
n
k=0
n!
k!(nk)!
_
+
_
k
_
+
_
nk
logo
P(N
B
= n) =
e
(+)b
[(+)b]
n
n!
n
k=0
n!
k!(nk)!
p
k
q
nk
onde p =
+
e q =
+
, ou seja p+q = 1. Sendo
n
k=0
n!
k!(nk)!
p
k
q
nk
= (p+q)
n
= 1
temos
P(N
B
= n) =
e
(+)b
[(+)b]
n
n!
Chamando + = temos
P(N
B
= n) =
e
b
(b)
n
n!
27
2.4 Decomposic ao de um Processo de Poisson
Sejam N ={N
t
, t 0} um processo de Poisson com taxa e {K
n
, n = 1, 2, . . .} um
processo de Bernoulli independente de N com probabilidade p de sucesso. Seja S
n
o n umero de sucessos nas primeiras n-tentativas. Suponha que a n- esima tentativa
e realizada no instante da n- esima chegada T
n
.
Para uma realizac ao w, o n umero de tentativas realizadas em [0, t] e N
t
(w),
e o n umero de sucessos obtidos em [0, t] e denotado por
M
t
(w) = S
N
t
(w)
e o n umero de falhas e
L
t
(w) = N
t
(w) M
t
(w).
Teorema 10. Os processos M = {M
t
, t 0} s ao processos de Poisson com taxas
p e q (q = 1p), respectivamete. Al em disso, L e M s ao independentes.
Demonstrac ao. Mostraremos que
P(M
t+s
M
t
= m, L
t+s
L
t
= k|M
u
, L
u
, u t) =
e
ps
(ps)
m
m!
e
qs
(qs)
k
k!
com k, m = 0, 1, 2, . . . e qualquer s, t 0. Notando a igualdade entre os eventos
seguintes
A ={M
t+s
M
t
= m, L
t+s
L
t
= k} ={N
t+s
N
t
= m+k, M
t+s
M
t
= m},
escrevemos
A ={N
t+s
N
t
= m+k, S
N
t+s
S
N
t
= m}
Al em disso o conhecimento do hist orico {M
u
, L
u
, u t} e equivalente ao con-
hecimento de
K
={N
u
, u t, X
1
, X
2
, . . . , X
N
t
}
Como N e um processo de Poisson, e como os processos N e S s ao indepen-
dentes, a vari avel aleat oria N
t+s
N
t
e independente de K
. Al em disso o n umero
de sucessos nas tentativas N
t+1
, N
t+2
, . . . , N
t+s
e independente da hist oria passada
X
1
, X
2
, . . . , X
N
t
, e como S e N s ao independentes, S
N
t+1
S
N
t
e independente de K
.
Ent ao temos
P(A) =
n=0
P(N
t
= n, N
t+s
N
t
= m+k, S
N
t+s
S
N
t
= m)
=
n=0
P(N
t
= n, N
t+s
= m+k +n, S
m+k+n
S
n
= m)
28
=
n=0
P(N
t
= n, N
t+s
= m+k +n)P(S
m+k+n
S
n
= m)
=
n=0
P(N
t
= n, N
t+s
N
t
= m+k)P(S
m+k+n
S
n
= m)
= P(N
t+s
N
t
= m+k)P(S
m+k
= m)
=
e
s
(s)
m+k
(m+k)!
(m+k)!
m!k!
p
m
q
k
=
e
(p+q)s
(sp)
m
(sq)
k
m!k!
=
e
ps
(ps)
m
m!
e
qs
(qs)
k
k!
2.5 Exerccios
Exerccio 18. Seja N um processo de Poisson com taxa = 2, calcule
a) E(N
t
) e Var(N
t
)
b)E(N
t+s
|N
t
)
Exerccio 19. Uma loja promete dar um pr emio a todo 13
o