Você está na página 1de 17

Seo 6.

4 Algumas Propriedades do Valor Mdio

Pensei que o autor tinha cometido um erro nesta seo, mas depois pude averiguar que ele est correto. Ao apresentar a esperana matemtica da funo h (xi ) na equao 6.3, o autor registrou a seguinte expresso: (0.1)

E [h (X )] =

h (xi ) p (xi ) .

Eu havia pensado que a Equao 0.1 s seria verdadeira nos casos em que p (h (xi )) = p (xi ), e desconei justamente por causa do exemplo usado pelo prprio autor ao tratar a distribuio da transformao W = X 2 !!!! evidente que p (h (xi )) = p (xi ) neste caso, pois como ele prprio ressaltou, ao evento W = 25 correspondem dois eventos da varivel aleatria X : X = 5 e X = 5. Estive pensando em reformular a equao 0.1 assim: (0.2)

E [h (X )] =

h (xi ) p (h (xi )) ,

e deixar apenas para os casos em que a transformao for linear, ou seja, do tipo Y = aX + b, a forma p (h (xi )) = p (xi ), uma vez que tal funo injetora, ou seja,
xi = xj axi + b = axj + b yi = yj .

A cada elemento xi corresponderia a a um nico yi , e a contagem das frequncias permanece inalterada frente a transformao. O que eu no havia pensado era na expanso da equao utilizada pelo autor!! muito simples!! Como todos os valores xi sero considerados, eles sero corretamente contabilizados, e a distribuio correspondente ir multiplic-lo!! No h problema nenhum!! Veja o caso W = X 2 :
E X2 =

h (xi ) p (xi )

= . . . + (5)2 p (5) + (5)2 p (5) + . . . = . . . + 25 (p (5) + p (5)) + . . . .

Em suma, no p (25) que ser contabilizado, mas p (5), e sendo assim, todos os valores sero contabilizados. No haver problema. Fui bem ingnuo. A equao 6.4 bem evidente e no vou prov-la. Basta um pouco de esforo, e a prova se revelar!
1

J a equao 6.5 mais interessante. No consegui deduzi-la de cabea, ento vamos l! Var (aX + b) =
i

[axi + b E (aX + b)]2 p (axi + b) [axi + b aE (X ) b]2 p (xi )


i

= =
i

[a (xi E (X ))]2 p (xi ) a2 [xi E (X )]2 p (xi )


i 2 i

= =a

[xi E (X )]2 p (xi )

= a Var (X ) .
2

De fato, verdade e dou f.


Seo 6.5 Funo de Distribuio Acumulada

Seo breve, mas com um comentrio obscuro. Para obter a probabilidade de um dado ponto, basta calcular a diferena entre o valor da f.d.a no ponto e seu valor no limite lateral pela esquerda tendendo ao ponto:
P (X = xi ) = F (xi ) lim F (xi ) .
xxi

Foi por isto que ele registrou que o conhecimento da f.d.a de X implica no conhecimento da f.p de X .
Seo 6.6 Alguns Modelos Probabilsticos para Variveis Aleatrias Discretas

Achei interessante registrar qual foi a inteno do autor com o primeiro pargrafo ( bvio, isto apenas o meu entendimento...). O autor quis dizer que h problemas so casos aplicados de problemas mais gerais, para os quais foram desenvolvidos os modelos que ele ir tratar. Assim, resolv-los se torna uma tarefa muito mais simples caso estes modelos seja conhecidos pelo pesquisador. Apenas um breve comentrio. Creio que entendi o que o autor quis dizer, ao comentar as situaes (4') e (5') desta subseo. Quando os conjuntos so muito grandes, pequenas extraes podem ser consideradas como eventos independentes. Considere por exemplo a extrao de duas bolas sem reposio de uma urna com 100.000 delas. A probabilidade da extrao de uma determinada esfera ser de 1 na primeira extrao, e de 99.1 na segunda. A diferena absoluta dentre as 100.000 999 duas probabilidades de apenas 1.00001000009011e-10; ou seja; a menos que se estejam considerando instrumentos com tal preciso, o resultado de ambas idntico, podendo para ns prticos serem considerados como eventos independentes.
Subseo 6.6.3 Distribuio Binomial.

Foi somente ao reler este captulo pela ensima vez que consegui vislumbrar uma hiptese capaz de distinguir quando se aplica uma distribuio hipergeomtrica e quando se aplica uma binomial. A meu ver, ambas parecem ter variveis dicotmicas. No caso da distribuio binomial, mais simples, pois ou a varivel ocorre, ou no. No caso da hipergeomtrica, a populao est categorizada em apenas duas classes. Certo, concordo com aqueles que j consideram esta uma diferena entre ambas, mas do ponto de vista matemtico, as probabilidades so em ambos os casos p e 1 p. Ento, o que separa as duas? Na minha humilde opinio, a extrao de elementos sem reposio no caso da modelagem por uma distribuio hipergeomtrica. Isto no ocorre em uma distribuio binomial. Pelo menos eu acho que no obrigatoriamente. Por exemplo, no caso do decaimento de um ncleo de urnio com a emisso de uma partcula : podem ocorrer dois, trs ou mais (embora isto possa ser pouco provvel) simultaneamente. Em uma modelagem hipergeomtrica, isto no possvel, j que as extraes seriam sucessivas. Talvez seja isto. Em uma distribuio binomial, penso que os eventos no se sucedem, mas Alm disto, no havia entendido porque o autor usou max {0, n N + r} e min {r, n} como delimitadores do valor de k . Mas aps uma anlise mais detalhada, consegui conceber uma explicao. Para isto, tive que invocar diagramas de Venn-Euler, ilustrados nas Figuras tal e 0.1. Na Figura 0.1, est ilustrado o Diagrama de Venn-Euler representando o sistema. o espao amostral com N elementos, A o conjunto dos r elementos que possuem atributo A; B o conjunto dos N r elementos que possuem atributo B ; e G o conjunto considerado, com k elementos que possuem atributos A, o que foi denotado atravs de uma regio hachurada em G.
Subseo 6.6.4 Distribuio Hipergeomtrica.

Figura 0.1.

Representao diagramtica do sistema considerado.

As consideraes que permitem compreender as delimitaes impostas a k , registradas pelo autor nas desigualdades max {0, n N + r} k min {r, n} so as

seguintes: caso G A = , k = 0 o menor valor possvel para k . Em caso contrrio, tudo depende do tamanho de G. Para ilustrar esta considerao, registrei tal raciocnio na Figura 0.2.

As possveis conguraes envolvendo a interseco dentre os conjuntos G e A. Em (a), A G = . Em (b), o caso em que A G = , e em que o nmero de elementos de G B aumentou (o semicrculo correspondente foi desenhado em uma escala maior). Em (c), G B = .
Figura 0.2.

Considerando os casos registrados na Figura 0.2, pode-se compreender o que o autor quis dizer. Seja k o nmero de elementos de G A. Como G A e G B so disjuntos, k pode ser descrito em termos dos parmetros do sistema:
G = (G A) (G B ) #G = # (G A) + # (G B ) n = k + # (G B )

(0.3)

k = n # (G B ) .

A Equao 0.3 revela que k assume o menor valor possvel quando G A = . Caso G A = , k assumir o menor valor possvel quanto maior for o conjunto G B . No caso extremo, G B = B , e assim, k = n (N r) = n N + r. Por m, k assume o maior valor possvel quando G B = . Sendo assim, ou G A = A, que usa apenas k para representar este caso; ou G A = A, no qual k o maior valor dentre todos, o prprio r. Acho que foi isto que ele quis dizer. Minha crtica, costumeira, que o autor deveria ser mais explcito. No sendo ele, eu sou. Encontrei uma demonstrao acerca do valor esperado desta distribuio em Incialmente, quero destacar que:
n

http://www.portalaction.com.br/content/54-distribui%C3%A7%C3%A3o-hipergeom% C3%A9trica, mas h um erro l, que eu vou me apressar em corrigir.


n

E [X ] =
k=0

kP [X = k ] =
k=1

kP [X = k ]

; pois sendo k = 0 e 0 P (X = 0) 1, o resultado do primeiro termo nulo. Logo:


n n

E [X ] =
k=1 n

kP [X = k ] =
k=1

r k

N r nk N n

=
k=1 n

N r r! (N n)!n! n k (r k )!k ! N! (N n)!n (n 1)! N r r (r 1)! N (N 1)! n k (r k )! (k 1)!


n

=
k=1

r =n N r =n N r =n N =n r N

k=1 n

N r (r 1)! (N n)! (n 1)! n k (r k )! (k 1)! (N 1)! N r nk


n r 1 k 1 N 1 n1

k=1

1
N 1 n1

k=1 n1

N r nk N r nk+1 =n

r1 k1 r1 k2

1
N 1 n1

k=0

(0.4)

r =n N

1
N 1 n1

N 1 n1

r = np. N

Na Equao 0.4 foi utilizada a identidade de Vandermonde. Eu consegui acompanhar apenas com os olhos, e sem maiores problemas a demonstrao algbrica na pgina http://en.wikipedia.org/wiki/Vandermonde%27s_identity. Talvez devesse explicitar apenas uma identidade interessante que aparece nesta demonstrao.
Teorema.

m i=0

ai x i )

n j j =0 bj x

m+n r=0

r k=0

ak brk ) xr ; ai = 0i > m bj =

0j > n.

No conheo outra forma de provar este Teorema que no o Princpio da Induo Finita. Mas vejamos primeiro se tal igualdade minimamente razovel.
m n m n

ai x i
i=0 j =0

bj x j

=
i=0 j =0 m n

ai x i b j x j ai bj xi+j .
i=0 j =0

(0.5)

Certo. Agora, considere um termo simples da expanso da Equao 0.5, por exemplo a que tem expoente i + j = 3. Ora, evidente que apenas algumas combinaes de valores de i e j produziro tal resultado; a saber (0, 3), (1, 2), (2, 1) e (3, 0). Tal termo poderia ser expresso assim: (0.6)
a0 b3 x3 + a1 b2 x3 + a2 b2 x3 + a3 b0 x3 = (a0 b3 + a1 b2 + a2 b2 + a3 b0 ) x3 .

Ora, evidente que a Equao 0.6 pode ser resumida desta forma:
3

a0 b3 x + a1 b2 x + a2 b2 x + a3 b0 x =
k=0

ak b3k x3 .

Como o mesmo raciocnio pode ser aplicado a cada termo de 0.5, verica-se que realmente a identidade de Vandermonde faz sentido. Mas vejamos a prova. uma aplicao do Princpio da induo nita, que creio ser o mais adequado a estes casos. Inicialmente, demonstra-se o passo base:
Demonstrao.
1 1

ai x
i=0

i j =0

bj x j

= a0 b0 + a0 b1 x + a1 b0 x + a1 b1 x2 = a0 b0 x0 + (a0 b1 + a1 b0 ) x + a1 b1 x2
2 r

(0.7)

=
r=0 k=0

ak b r k

xr .

Acho que importante ressaltar; o termo a multiplicar x2 na Equao 0.7 simplesmente a1 b1 porque a0 b2 e a2 b0 so nulos, devido as condies de existncia ai = 0i > m bj = 0j > n. Na sequncia, preciso provar que: (0.8)
m n m+n r m+1 n m+n+1 r

ai x
i=0

i j =0

bj x

=
r=0 k=0

ak brk

x
i=0

ai x

i j =0

bj x

=
r=0 k=0

ak b r k

xr

Ou, analogamente:
m n m+n r m n+1 m+n+1 r

ai x
i=0

i j =0

bj x

=
r=0 k=0

ak b r k

x
i=0

ai x

i j =0

bj x

=
r=0 k=0

ak b r k

xr .

Vou escolher a Equao 0.8 como tese.

Por hiptese de induo, a premissa


m n m+n r

ai x
i=0

i j =0

bj x

=
r=0 k=0

ak b r k

xr

verdadeira. Ento:
m n n m+n r n

ai x
i=0 m

i j =0

bj x

+ am+1 x
n

m+1 j =0

bj x
m+n

=
r=0 r k=0

ak b r k
n

x + am+1 x am+1 bj xj

m+1 j =0

bj x j

i=0 m+1

ai xi + am+1 xm+1
j =0 n

bj x j
m+n+1

=
r=0 r k=0

ak brk xr .

xr +
j =0

xm+1

i=0

ai x i
j =0

bj x j

=
r=0 k=0

ak b r k

Sei que a prova carece de explicao. que eu no encontrei outra forma de complet-la seno discursivamente. n j xm+1 inMas, de fato, ela est correta. Isto porque a somatria j =0 am+1 bj x r +n r troduz exatamente os termos que tem que ser agregados a soma m k=0 ak brk ) x r=0 ( r m+n+1 para gerar a soma r=0 ( k=0 ak brk ) xr . Seno vejamos: ao se incrementar m n m+1 j i de uma unidade, os nicos termos novos resultantes do produto j =0 bj x i=0 ai x
n j i iro envolver am+1 ; todos os demais j esto inclusos no produto ( m j =0 bj x . i=0 ai x ) E dentre os novos termos, apenas os no nulos tem que ser considerados. Ora, so no nulos os termos que envolvem ndices i e j tais que 0 i m + 1 e 0 j n. Dentre os que envolvem m + 1, eles so o resultado do produto de am+1 com todos os possveis bj : assim, sero incorporados am+1 b0 , am+1 b1 , . . . e am+1 bn . Ora, tal soma no outra que no n

(0.9)
j =0

am+1 bj xj

xm+1 ,

presente na demonstrao anterior. Assim, agregando o termo expresso na Equao +n r r 0.9, a somatria m r=0 ( k=0 ak brk ) x conclui-se a prova. Sei que falta elegncia a esta demonstrao, mas por hora, foi o melhor que consegui fazer.
portalaction.com.br/content/54-distribui%C3%A7%C3%A3o-hipergeom%C3%A9trica,
E [X 2 ] =
M (M 1)n(n1) N (N 1)

Com relao ao clculo da varincia de E [X 2 ] apresentada no stio http://www.

tambm h um erro, mas que fcil de corrigir.


Teorema.

nM . N

Demonstrao.

de notao.

Basta seguir o raciocnio apresentado nesta pgina e corrigir os erros

Seno vejamos:
n n

E X
n

=
k=0

k P [X = k ] =
k=0 n

[k (k 1) + k ] P [X = k ] kP [X = k ]
k=0

=
k=0 n

[k (k 1)] P [X = k ] + [k (k 1)]
k=2 n r k N r nk N n

= =
k=2 n

+ E [X ]

[k (k 1)]

N r n (n 1) (n 2)! (N n)! r (r 1) (r 2)! + E [X ] k (k 1) (k 2)! (r k )! n k N (N 1) (N 2)!

=
k=2 n

r (r 1) n (n 1) (r 2)! N r (n 2)! (N n)! + E [X ] N (N 1) (k 2)! (r k )! n k (N 2)! r (r 1) n (n 1) r 2 N (N 1) k2 N r nk 1


N 2 n2

+ E [X ]

= =

k=2 r(r1)n(n1) n r2 N (N 1) N 2 k2 n2 k=2 r(r1)n(n1) n2 r2 N (N 1) N 2 k n2 k=0 r(r1)n(n1) N 2 N (N 1) + N 2 n2 n2

N r + E [X ] nk N r + E [X ] nk2 E [X ]

r (r 1) n (n 1) + E [X ] . N (N 1)

O restante da demonstrao sucientemente claro (pelo menos pra mim). Bom, agora vou registrar a demonstrao do comentrio do autor ao nal desta seo. Segundo ele, se N for grande quando comparado com n, extraes com ou sem reposies sero praticamente equivalentes, de modo que as probabilidades dadas pela equao 6.19 sero aproximadamente iguais as dadas pela equao 6.15 (pois a distribuio binomial que reina na modelagem de sistemas dicotmicos quando h reposio das extraes). Como estava sem inspirao para resolver este problema, z uma busca no google, e encontrei a soluo no stio http://www.math.uah.edu/stat/urn/Hypergeometric. html. A primeira etapa da soluo produzir um rearranjo na expresso da distribuio k hipergeomtrica usando a igualdade n = n , sendo o ndice sobrescrito k o que k k! o autor chamou de potncia fatorial decrescente, o que pode ser vericado no stio http://en.wikipedia.org/wiki/Binomial_coefficient. O que eu achei interessantssimo, ns costumamos chamar tal termo de arranjo ! uma diferena gritante na estratgia de ensino de anlise combinatria.

Ento vejamos:
pk =
r k N r nk N n

nk rk (N r) k! (nk)! Nn n!

n! (N r)nk rk = k ! (n k )! Nn

(0.10)

n (N r)nk rk k Nn

A intepretao da expresso registrada na equao 0.10 que me tomou muito tempo. Eu ainda no consegui formular uma que me seja satisfatria. Vou registrar aqui o que considero ser meu tmido progresso. A meu ver, qualquer problema pode ser resolvido atravs de um produto de uma combinao por um arranjo. Mesmo no caso em que o problema resolvida por uma combinao, pode-se considerar o resultado como o produto
n m0 , m
n m ou como costumamos usar no Brasil, Cm A0 . Sei que isto parece ser meio sem propsito, mas a razoabilidade desta considerao se revelar nas linhas abaixo. Um raciocnio mais aprazvel aparece justamente na Equao 0.10. Seno vejamos: ela pode ser interpretada como o produto de uma combinao, que conta o nmero de possveis escolhas de k elementos do tipo I dentre os n selecioandos do conjunto universo. Tal contagem uma combinao porque somente interessa saber de quantas formas se pode distribuir k elementos do tipo I dentre as n possveis coordenadas (elementos do conjunto universo) sem se preocupar com a distinguibilidade de ambos. uma mera distribuio de ndices em coordenadas. Aps esta contabilizao, a sim, pode ser considerada a natureza distinta de todos. Ento, os k elementos a serem distribuidos dentre os n so por sua vez um arranjo dentre os r do tipo I, e os demais tem que ser uma distribuio de n k dentre os N r do tipo II. O denominador de tal expresso apenas a contabilizao do total de formas de se arranjar k elementos distintos dentre N tambm distintos. Pronto, um problema resolvido por meio de uma combinao foi reformulado para ser tratado atravs de um produto de arranjo por uma combinao. Eu ainda no consegui uma prova geral, mas creio que todos os problemas podem ser resolvidos desta forma, o produto de uma combinao por um arranjo, lembrando que uma permutao n! tambm um arranjo, do tipo nn . Depois, com mais tempo, posso pensar com calma em uma prova genrica de tal fato. Mas eu acho que isto. Quanto a prova, at bem simples.

10

Seno vejamos: h de se considerar que r uma funo de N tal que r/N p conforme N . Da,
lim n (N r)nk rk n = lim N k k Nn = = = = = n k
k 1 i=0

ri
k1 i=0

nk1 i=0

N ri N i) i

N i (

n i=k

k 1 nk1 N r i=0 r i i=0 lim lim n k 1 N N i=k N i i=0 N i nk1 i r N 1 N n k i=0 p lim n i N k i=k 1 N nk1 r i N n k i=0 limN 1 N p n i k i=k limN 1 N nk1 1p n k i =0 p n k i= k 1

n k p (1 p)nk . k

Confesso que no conseguiria imaginar isto nem em anos. Decidi registrar a demonstrao da convergncia da distribuio binomial na distribuio de Poisson. Tal demonstrao se baseia em um exerccio do livro Fundamental of Statistical and Thermal Physics, de autoria do senhor Federik Reif. Inicialmente, considere a expanso em srie de Taylor da funo ln (1 p):
Subseo 6.6.5 Distribuio de Poisson.

1 1 ln (1 p) = p p2 p3 + . . . . 2 3

Sendo 0 p 1, razovel supor que cada termo da expanso maior que os demais, e que por isto, uma aproximao razovel supor que
ln (1 p) p.

Decorre disto que


1 p ep (1 p)nk e(nk)p .

Como n

k , ento n k n, e da, (1 p)nk enp .

A prxima etapa consiste em mostrar que n!/ (n k )! nk . Mas isto fcil: sendo n k , ento
n! n (n 1) . . . (n k + 1) (N k )! = (n k )! (n k )! = n (n 1) . . . (n k + 1) n n ... n
k

=n .

11

Desta feita, pode-se mostrar que a distribuio binomial converge para a distribuio de Poisson:
n! nk np k (np)k np k nk k p (1 p) e p = e = e , k ! (n k )! k! k! k! sendo = np o nmero mdio de eventos. Com relao ao exemplo 6.17, quei me perguntando se npk era de fato o nmero esperado de intervalos contendo k partculas.

Eu ainda no consegui formular uma resposta denitiva a esta pergunta, mas praxe registrar pelo menos uma hiptese capaz de fornecer alguma pista para a resposta. Ento vejamos o que pensei. Quando se dene a probabilidade usando um enfoque frequentista, admite-se que ela a razo dentre o nmero de elementos do evento i pelo nmero de elementos i do espao amostral; pi = n . n Neste caso, creio eu, a distribuio de Poisson tem a funo de simular esta razo, substituindo resultados experimentais por resultados de um modelo matemtico. A probabilidade assim calculada teria a mesma intepretao; ou seja; ao ser multiplicada pelo nmero de elementos do espao amostral, deve fornecer o nmero de elementos do evento. Logo, na minha opinio, npk deve ser o nmero esperado de ciclos dentro dos quais deve ter ocorrido a emisso de k partculas . No tenho certeza absoluta disto, mas considero ser esta uma boa hiptese. A tabela 6.13 corrobora esta minha intepretao ao ilustrar frequncias experimentais e esperadas de uma distribuio de Poisson.
Seo 6.7 O Processo de Poisson

i 5 de Poisson.

Tive muita diculdade em deduzir a equao 6.25 a partir das condies Si , 1

Por isto, fui atrs de ajuda na internet, e acabei encontrando um arquivo em pdf no stio https://www.google.com.br/url?sa=t&rct=j&q=&esrc=s&source=

Decidi registrar aqui a minha interpretao acerca do Processo de Poisson, conforme apresentado neste trabalho. Decidi registrar aqui a minha interpretao, conforme apresentado neste trabalho. O texto muito interessante, e trata, alm do Processo, sua motivao, na introduo. Eu decidi seguir direto at a seo especca, mas vou prosseguir com a leitura das demais sees do arquivo aos poucos. O autor introduz o texto com uma motivao do processo, expondo que ele bem famoso por aparecer frequentemente em uma variada gama de fenmenos fsicos e porque relativamente simples de se analisar. por isto que ele apresentado primeiro que os processos de Markov generalizados.
Deduo da Distribuio

web&cd=1&cad=rja&ved=0CC4QFjAA&url=http%3A%2F%2Fwww.nas.its.tudelft.nl% 2Fpeople%2FPiet%2FCUPbookChapters%2FPACUP_Poisson.pdf&ei=dIf4UdOiNJbe4AOJr4HgBw&usg AFQjCNE7bXBCgaVQ0D9xXHdQFCjSqaS-RQ&bvm=bv.49967636,d.dmg.

Um processo de Poisson com parmetro ou taxa > 0 um processo estocstico de tempo contnuo a valores inteiros {X (t) , t 0}satisfazendo (1) X (0) = 0 (2) para todo t0 = 0 < t1 < . . . < tn , os incrementos X (t1 ) X (t0 ), X (t2 ) X (t1 ), . . ., X (tn ) X (tn1 ) so variveis randmicas independentes

12

(3) para t 0, s > 0, e inteiros no negativos k , os incrementos tem a distribuio de Poisson (0.11) Pr [X (t + s) X (s) = k ] =
(t)k et . k!

Segundo o autor, o Processo de Poisson pode ser considerado como um processo de contagem especial, no qual o nmero de eventos em qualquer intervalo de tempo t especicado pela condio 3. A partir dela, vrias propriedades podem ser determinadas. A primeira delas que a equao 0.11implica no fato dos incrementos serem estacionrios porque o lado direito no depende de s. Em outras palavras, os incrementos dependem apenas do comprimento t do intervalo e no do instante de tempo s onde o intervalo comea. Alm disto, o valor mdio dado por E [X (t + s) X (s)] = t e como os incrementos so estacionrios, se mantem para qualquer valor de s. Em particular, para s = 0, e com a condio 1, o nmero esperado de eventos em um intervalo de tempo com comprimento t (0.12)
E [X (t)] = t.

Eu no quei contente com a exibio pura e simples do valor mdio, ento, decidi calcul-lo.

E [X (t + s) X (s)] =
k=0

k Pr [X (t + s) X (s) = k ] =
k=0

(t)k et k!

=
k=1

(t) e k!

= t
k=1

(t)k1 et (k 1)! (t)k et k!

= t
k=0 t

= te = te = t.

k=0 t t

(t)k k!

Esta demonstrao vale tambm para o caso em que se trata da distribuio de Poisson em um processo no estocstico tambm. Ok, mas deixe-me perseguir o meu objetivo. A equao 0.12 revela o signicado de : derivando esta funo em relao ao tempo, pode-se vericar que a taxa de variao do nmero esperado de eventos por unidade de tempo.

13

A segunda a probabilidade da ocorrncia de apenas um evento em um intervalo de tempo arbitrariamente pequeno:


(h)1 eh P r [X (h + s) X (s) = 1] = 1! = h (1 h + . . .)

(0.13) = h + O (h) ; enquanto a probabilidade de que no ocorra nenhum evento em um intervalo de tempo pequeno Pr [X (h + s) X (s) = 0] =
(h)0 eh 0! h =e (h)2 = 1 h + + ... 2 = 1 h + O (h) .

(0.14) De forma similar, a probabilidade de mais de um evento ocorrer em um intervalo de tempo arbitrariamente pequeno Pr [X (h + s) X (s) = k > 1] =
(t)k eh k! (h)k (h)2 = 1 h + + ... k! 2 = O (h) .

Decidi no averiguar os exemplos do autor, e passar para o que interessa, que so as propriedades do Processo de Poisson. Segundo o autor, o primeiro teorema a reverso das propriedades anteriores, j que nelas se partia da hiptese de que o processo de Poisson tivesse uma probabilidade dada pela distribuio de Poisson, e se concluiam as equaes 0.13 e 0.14. Agora, ser feito o contrrio: a partir de algumas condies, e das equaes 0.13 e 0.14, ser deduzida a distribuio de Poisson.
Um processo de contagem N (t) que satisfaa as condies (i) N (0) = 0, (ii) o processo N (t) tem incrementos estacionrios e independentes, (iii) Pr [N (h) = h + O (h) e (iv) Pr [N (h) > 1] = O (h) um processo de Poisson, com taxa > 0.
Teorema.

1] =

A estratgia do autor ser mostrar que as condies (iii) e (iv) so equivalentes condio 3, da denio do Processo de Poisson. Denote Pn (t) = P r [N (t) = n] e considere o primeiro caso n = 0. Ento P0 (t + h) = Pr [N (t + h) = 0] = Pr [N (t + h) N (t) = 0|N (t) = 0] . Pela independncia dos incrementos, P0 (t + h) = Pr [N (t + h) N (t) = 0] Pr [N (t) = 0] . Ok. A prxima etapa me trouxe algumas diculdades, mas consegui me desvencilhar delas. Seno vejamos. Por denio, P0 (t) = Pr [N (t) = 0], e de (iii) e (iv), segue da condio de normalizao k=0 Pr [N (h) = k ] = 1 que (0.15) Pr [N (h) = 0] = 1 h + O (h) .
Demonstrao.

14

Sendo assim,

P0 (t + h) = [1 h + O (h)] Pr [N (t) = 0] .

A estacionariedade foi aplicada na equao 0.15, mais especicamente ao se assumir que P r [N (t + h) N (t) = 0] = P r [N (h) = 0] (ou seja, a probabilidade no depende do instante de tempo considerado, apenas do tamanho do intervalo h). Aplicando a notao Pn (t), tem-se:
P0 (t + h) = [1 h + O (h)] P0 (t) = P0 (t) P0 (t) h + P0 (t) O (h) P0 (t + h) P0 (t) = P0 (t) h + P0 (t) O (h) O (h) P0 (t + h) P0 (t) = P0 (t) + P0 (t) . h h Tomando-se o limite desta igualdade para h 0, obtm-se

(0.16)

P0 (t) = P0 (t) ,

(h) j que P0 (t) independe de h, e limh0 Oh = 0 (dado que O (h) denota uma funo de ordem maior que h). A equao diferencial 0.16 tem soluo imediata:

dP0 (t) = P0 (t) dt dP0 (t) = dt P0 (t)


P0 (t)

P0 (0)

1 dP0 (t) = P0 (t)

dt
0

ln P0 (t) ln P0 (0) = t ln P0 (t) = t P0 (0)

P0 (t) = P0 (t) et = et .

Agora, a prova para n > 0. Esta mais complexa. O autor invoca a lei de probabilidade total para calcular a probabilidade Pn (t + h):
Pn (t + h) = Pr [N (t + h) = n]
n

=
j =0

Pr [N (t + h) N (t) = j |N (t) = n j ] Pr [N (t) = n j ] .

Pela independncia (propriedade ii do Teorema): Pr [N (t + h) N (t) = j |N (t) = n j ] = Pr [N (t + h) N (t) = j ] e pela denio, Pr [N (t) = n j ] = Pnj (t), tem-se
n

Pn (t + h) =
j =0

Pr [N (t + h) N (t) = j ] Pnj (t) .

Pela estacionariedade, Pr [N (t + h) N (t) = j ] = Pr [N (h) N (0) = j ] ,

15

que se determina usando a condio de contorno (i):


n

Pn (t + h) =
j =0

Pr [N (h) = j ] Pnj (t) .

As condies (iii) e 0.15 sugerem que esta soma seja reescrita destacando-se os dois primeiros termos de mais importancia, e deixando os demais na somatria:
n

Pn (t + h) = Pr [N (h) = 0] Pn (t)+Pr [N (h) = 1] Pn1 (t)+


j =2

Pr [N (h) = j ] Pnj (t) .

Agora, aplicam-se tais condies:


Pn (t + h) = (1 h + O (h)) Pn (t) + (h + O (h)) Pn1 (t) + O (h) = Pn (t) hPn (t) + O (h) Pn (t) + hPn1 (t) + Pn1 (t) O (h) + O (h) Pn (t + h) Pn (t) = hPn (t) + hPn1 (t) + O (h) Pn (t + h) Pn (t) O (h) = Pn (t) + Pn1 (t) + . h h

Tomando-se o limite desta igualdade para h 0, determina-se a equao diferencial que permite encontrar a distribuio:
lim Pn (t + h) Pn (t) O (h) = lim Pn (t) + Pn1 (t) + h 0 h h O (h) Pn (t) = Pn (t) + Pn1 (t) + lim h0 h = Pn (t) + Pn1 (t) + 0 Pn (t) = Pn (t) + Pn1 (t) .

h0

Esta equao pode ser reescrita na forma: (0.17)


d t e Pn (t) = et Pn1 (t) . dt

A comprovao imediata:
d t e Pn (t) = et Pn (t) + et Pn (t) = et Pn1 (t) dt Pn (t) + Pn (t) = Pn1 (t) Pn (t) = Pn (t) + Pn1 (t) .

E ento, o autor revela a tcnica que ir usar para determinar a soluo geral da equao. E ser o princpio da induo nita.

16

O passo base o caso n = 1, j que n = 0 j havia sido demonstrado atravs de uma tcnica mais bsica. Aplicando tal valor a equao 0.17, obtm-se o resultado:
d t e P1 (t) = et P11 (t) dt = et P0 (t) = et et = d t e P1 (t) dt = 0 dt et P1 (t) C = t P1 (t) = tet + C.
t t

dt
0

A constante C pode ser determinada a partir da condio inicial, P1 (0) = 0:


P1 (0) = (0) e(0) + C 0 = C.

Agora, assume-se que a soluo genrica Pn (t) = implica que Pn+1 (t) a soluo do caso n + 1:

(t)n et n!

, e prova-se que ela

d t e Pn+1 (t) = et P(n+1)1 (t) dt t t d t et Pn (t) dt e Pn+1 (t) dt = dt 0 0 t (t)n et et et Pn+1 (t) C = dt n! 0 t n+1 n t t dt + C e Pn+1 (t) = n! 0 Pn+1 (t) = =e
n+1 tn+1 (n+1)n! et

+C

n+1 t (t)

n + 1!

+ et C.

A aplicao da condio de contorno inicial, Pn+1 (0) = 0 determina o valor da constante C :


Pn+1 (0) = e 0 = 0 + C C = 0.
n+1 (0) [ (0)]

n + 1!

+ e(0) C

E isto. Somente aps ter registrado esta demonstrao, consegui entender o que o autor quis dizer. Para ele, Y a varivel que denota o nmero de subintervalos com um evento. Prero a abordagem do Luis Ernesto Salasar, que li em sua tese de dissertao O Processo de Poisson Estendido e suas Aplicaes. Este autor trata a varivel

17

aleatria de forma bem mais simples e por conseguinte, compreensvel: X (t) o nmero de ocorrncias de um evento at o instante t, t > 0. Mas, realmente, ambas as denies so equivalentes, pois considera-se que os subintervalos podem conter uma nica ocorrncia (ou nenhuma) do evento; logo, o nmero de subintervalos com uma ocorrncia ser o nmero de ocorrncias do evento at o instante t. Mas ca bem mais claro na abordagem do Luis Ernesto. Na sequncia, os autores aplicam a modelagem ao problema: sendo o nmero de intervalos muito grande, cada subintervalo com apenas dois resultados possveis (nenhuma ou uma ocorrncia do evento), cada evento independente dos demais; as probabilidades so sempre as mesmas; todos os resultados de uma distribuio de Poisson se aplicam, inclusive o nmero mdio de eventos . Da os autores aproveitam isto para determinar a probabilidade da ocorrncia de um intervalo, que o produto do nmero mdio de eventos pelo intervalo do t subintervalo: p = n . E a partir disto eles determinam o parmetro deste processo: t np = n n = t. Eu sinceramente detestei esta forma de apresentar o conceito. Era melhor no tentar explicar o processo de Poisson.

Você também pode gostar