Você está na página 1de 177

Introduo Probabilidade

Leonardo T. Rolla
Instituto de Matemtica Pura e Aplicada
Rio de Janeiro
6 de junho de 2013
c 20122013 Leonardo T. Rolla.
A qualquer pessoa que receba uma cpia deste trabalho,
concedida licena para:
Visualizar este trabalho em dispositivo eletrnico.
Imprimir ou fotocopiar este trabalho.
Distribuir a terceiros uma cpia deste trabalho, desde
que sem modicaes e em sua integralidade, com 177
pginas, incluindo a capa e esta nota.
Disponvel para download gratuito em http://www.impa.br/~leorolla.
Rio de Janeiro, 6 de junho de 2013.
Prefcio
Este livro foi produzido a partir de notas de aula das disciplinas Probabilidade, do
mestrado em Cincias Atuariais da PUC-Rio, ministrada em 2006, e Introduo
Probabilidade, ministrada em 2012 e 2013 no IMPA.
Para seguir este livro no necessrio qualquer conhecimento prvio em
Probabilidade. Os pr-requisitos so clculo de derivadas e integrais em R
d
, limites
de sequncias, convergncia de sries, e limites laterais de funes. Para seguir as
demonstraes o leitor deve estar familiarizado com as propriedades elementares
de limsup e liminf, polinmios de Taylor e supremo de conjuntos.
Descrio e Interdependncia dos Captulos
Este livro se divide em quatro partes.
A primeira parte consiste de 4 captulos que devem ser estudados em sequncia,
antes de passar para os captulos seguintes. No Captulo 1 introduzimos os
espaos de probabilidade, probabilidade condicional e independncia de eventos.
Os Captulos 2 e 3 estudam as variveis aleatrias e vetores aleatrios, com nfase
nos casos discreto e absolutamente contnuo. No Captulo 4 estudada a esperana
matemtica, suas propriedades, momentos, varincia e algumas desigualdades.
A segunda parte contm uma escolha de assuntos comumente abordados em um
curso introdutrio de Probabilidade. O Captulo 5 trata do lema de Borel-Cantelli
e da convergncia de variveis aleatrias. Os Captulos 6 e 7 apresentam a Lei
dos Grandes Nmeros e o Teorema Central do Limite. O Captulo 8 introduz a
funo geradora de momentos e a funo caracterstica, incluindo convergncia em
distribuio. No Captulo 9 estudamos a esperana condicional dada uma partio e
a esperana condicional regular. Um curso de 60 horas-aula em nvel de bacharelado
em matemtica pode no ser suciente para cobrir esses tpicos com todos os
5
6 PREFCIO
detalhes, mas os captulos desta segunda parte so basicamente independentes entre
si, exceto que o Captulo 6 depende do Captulo 5.
Na terceira parte (ainda no escrita), estudamos tpicos menos cannicos para
um curso introdutrio: o princpio dos grandes desvios, passeios aleatrios na rede
hipercbica, e modelos de percolao. Esses so tpicos mais avanados do ponto de
vista conceitual, mas a exposio ca restrita aos casos que no tm pr-requisitos
tcnicos para alm da teoria vista nos captulos anteriores.
Na quarta parte (ainda no escrita), fazemos uma exposio resumida de
resultados sobre mensurabilidade e convergncia da integral de Lebesgue, e apre-
sentamos algumas das demonstraes omitidas nos captulos anteriores.
Ao Professor
A escolha dos tpicos e o nvel de profundidade com que cada um ser visto sero
uma escolha pessoal do professor. Uma escolha simples ver os captulos em
sequncia, at onde o tempo permitir.
Outra opo ainda segura ver com detalhes a primeira parte, e escolher quais
tpicos da segunda parte sero vistos e em que ordem. A nica ressalva neste caso
que a lei dos grande nmeros depende das noes de convergncia de variveis
aleatrias.
O professor pode ir alm, e omitir alguns tpicos da primeira parte, como por
exemplo o mtodo do Jacobiano, ou ainda, omitir tudo o que envolva variveis
aleatrias contnuas. Neste caso um cuidado maior necessrio, e recomenda-se
ler atentamente as partes que se pretendem abordar para assegurar-se de que essas
no dependam de outras anteriormente omitidas.
Comentrios, crticas e correes so muito bem-vindos.
Rigor Matemtico
A primeira parte deste livro auto-contida e matematicamente rigorosa, inclusive
na construo da Esperana Matemtica como supremo sobre funes simples, sua
frmula para os casos discreto e contnuo, e suas propriedades fundamentais.
H uma omisso importante: a existncia de variveis aleatrias contnuas, ou
a existncia de uma sequncia innita de variveis aleatrias com determinada
distribuio conjunta. Formalmente, estamos estudando propriedades de objetos
que em princpio poderiam no existir. Sabe-se que esses objetos existem, mas a
prova deste fato est fora dos objetivos deste livro.
PREFCIO 7
Uma omisso secundria o signicado de integral. As variveis aleatrias
absolutamente contnuas so denidas e estudadas em termos de uma integral,
sem discutir o que signica a integral em si. Mas em todos os casos que vamos
considerar, a noo de integral que temos do Clculo suciente.
Na segunda parte, algumas demonstraes sero omitidas por depender da
Teoria da Medida, com um aviso correspondente. Aquelas que envolvam apenas os
teoremas de convergncia montona e dominada sero apresentadas no Captulo 15.
Tpicos Omitidos
De todo o trabalho inerente redao de um livro, sem dvida o mais delicado
o de decidir os tpicos que devem ser cobertos e com qual profundidade. Alguns
tpicos importantes so omitidos, dentre eles: quantil de uma varivel aleatria;
estatstica de ordem, mtodo do Jacobiano sem bijeo, distribuio normal multi-
variada, funo geradora e funo caracterstica para vetores aleatrios, distribuio
condicional de vetores aleatrios.
Rio de Janeiro, 6 de junho de 2013.
8 PREFCIO
Sumrio
Prefcio 5
I 13
1 Espao de Probabilidade 15
1.1 Espao de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2 Probabilidade Condicional e Independncia . . . . . . . . . . . . . . 21
1.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2 Variveis Aleatrias 29
2.1 Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Variveis Aleatrias Discretas . . . . . . . . . . . . . . . . . . . . . . 34
2.3 Variveis Aleatrias Contnuas . . . . . . . . . . . . . . . . . . . . . 37
2.4 Distribuies Mistas e Singulares . . . . . . . . . . . . . . . . . . . . 43
2.5 Distribuio Condicional dado um Evento . . . . . . . . . . . . . . . 44
2.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3 Vetores Aleatrios 47
3.1 Vetores Aleatrios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 Tipos de Vetores Aleatrios . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Independncia de Variveis Aleatrias . . . . . . . . . . . . . . . . . 54
3.4 Mtodo do Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
9
10 SUMRIO
4 Esperana Matemtica 65
4.1 Variveis Aleatrias Simples . . . . . . . . . . . . . . . . . . . . . . . 65
4.2 Esperana Matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.3 Momentos, Varincia e Covarincia . . . . . . . . . . . . . . . . . . . 79
4.4 Desigualdades Bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.5 Esperana Condicional dado um Evento . . . . . . . . . . . . . . . . 87
4.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
II 91
5 Convergncia de Variveis Aleatrias 93
5.1 Lema de Borel-Cantelli . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2 Convergncia de Variveis Aleatrias . . . . . . . . . . . . . . . . . . 96
5.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6 Lei dos Grandes Nmeros 105
6.1 Lei Fraca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.2 Lei Forte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7 Teorema Central do Limite 111
7.1 Teorema de De Moivre-Laplace . . . . . . . . . . . . . . . . . . . . . 112
7.2 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . 116
7.3 Frmula de Stirling . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8 Funes Geradoras 121
8.1 Funo Geradora de Momentos . . . . . . . . . . . . . . . . . . . . . 121
8.2 Funo Caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . 125
8.3 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
9 Esperana Condicional 133
9.1 Esperana Condicional dada uma Partio . . . . . . . . . . . . . . . 133
9.2 Distribuio Condicional Regular . . . . . . . . . . . . . . . . . . . . 139
9.3 Esperana Condicional Regular . . . . . . . . . . . . . . . . . . . . . 143
9.4 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
SUMRIO 11
III 149
10 Princpio dos Grandes Desvios 151
11 Percolao 153
12 Passeios Aleatrios 155
IV 157
13 Espao de Medida 159
14 Medida de Lebesgue 161
15 Integral e Convergncia 163
Lista de Figuras 165
Lista de Tabelas 167
Notao 170
ndice Remissivo 171
Referncias Bibliogrcas 177
12 SUMRIO
Parte I
13
Captulo 1
Espao de Probabilidade
O objetivo deste texto introduzir o estudo formal dos Espaos de Probabilidade,
as variveis aleatrias e suas propriedades. A Teoria da Probabilidade estuda
eventos aleatrios, i.e., eventos que no possuem regularidade determinstica, pois
observaes feitas nas mesmas condies no do o mesmo resultado, mas possuem
regularidade estatstica, indicada pela estabilidade estatstica de frequncias.
Por exemplo, no lanamento de um dado, apesar de a trajetria do dado ser
determinstica do ponto de vista da mecnica Newtoniana, impraticvel tentar
prever seu resultado: este experimento no possui regularidade determinstica. No
entanto, esse experimento possui regularidade estatstica e o tratamento probabi-
lstico o mais adequado.
Um Espao de Probabilidade, ou Modelo Probabilstico, ou ainda Modelo Esta-
tstico, uma abstrao matemtica, uma idealizao que busca representar os
fenmenos aleatrios.
1.1 Espao de Probabilidade
Um modelo probabilstico tem trs componentes bsicas:
1. Um conjunto formado por todos os resultados possveis do experimento,
chamado espao amostral.
2. Uma classe apropriada F de subconjuntos do espao amostral, chamada classe
de conjuntos mensurveis ou eventos aleatrios.
15
16 CAPTULO 1. ESPAO DE PROBABILIDADE
3. Uma funo P que associa a cada conjunto mensurvel um nmero real, que
representa a ideia de chance, verossimilhana, conana, credibilidade, ou
probabilidade. Esta funo chamada de probabilidade, medida, ou medida
de probabilidade.
Resultados equiprovveis Num modelo em que os resultados so equiprovveis,
o espao amostral um conjunto nito e a medida de probabilidade proporcional
quantidade de resultados que fazem parte de um dado evento:
P(B) =
#B
#
,
onde #B denota a cardinalidade do conjunto B , isto , a quantidade de
elementos que pertencem a B.
Exemplo 1.1.1. Imagine o sorteio de uma carta em um baralho francs com
52 cartas (numeradas A, 2, 3, . . . , 9, 10, J, Q, K e de naipes , , , ). Queremos
saber a probabilidade de um jogador tirar 4, 7, A ou 7, evento que ser
denotado por B. Temos ento:
P(B) =
#B
#
=
4
52
=
1
13
8%.
Exemplo 1.1.2. Imagine o lanamento de um dado em que um jogador precisa
obter 5 ou 6. Neste caso temos = {1, 2, 3, 4, 5, 6}, B = {5, 6} e
P(B) =
#B
#
=
2
6
=
1
3
33%.
Espao discreto Outro exemplo um pouco mais complicado quando o es-
pao amostral discreto, isto , pode ser escrito como uma sequncia =
{x
1
, x
2
, x
3
, . . . }. Neste caso no faz sentido que todos os elementos sejam igual-
mente provveis.
A cada possvel resultado x
n
associada uma probabilidade p(x
n
) de forma que

n=1
p(x
n
) = 1.
Para um subconjunto B denimos
P(B) =

xB
p(x).
1.1. ESPAO DE PROBABILIDADE 17
Exemplo 1.1.3. Imagine que lanamos um dado em sequncia at obter o
nmero 3, e contamos o nmero de lanamentos necessrios, ou seja, o resultado
desse experimento o nmero de lanamentos efetuados. Ento caso o espao
amostral dado pelo conjunto N dos nmeros naturais
N = {1, 2, 3, . . . }.
Neste caso, p(n) =
1
6
(
5
6
)
n1
. Seja A = obter um 3 em no mximo 5 tentativas e
B = no se obter o 3 nas primeiras 10 tentativas. Temos
P(A) =
1
6
+
1
6

5
6
+ +
1
6
(
5
6
)
4
=
1
6
(
5
6
)
5 1
6
1
5
6
= 1 (
1
6
)
5
=
4651
7776
60%.
e
P(B) =
1
6
(
5
6
)
10
+
1
6
(
5
6
)
11
+
1
6
(
5
6
)
12
+ =
1
6
(
5
6
)
10
1 (
5
6
)
= (
5
6
)
10
16%.
A seguir veremos uma formulao mais precisa desses conceitos.
Espao Amostral
Um conjunto no-vazio , cujos elementos representam todos os resultados
possveis de um determinado experimento, chamado de espao amostral. O
experimento dado pela escolha de algum dos possveis , e dizemos que
o escolhido representa a realizao do experimento.
Exemplo 1.1.4. Se o experimento consiste em lanar uma moeda, ento
= {0, 1},
onde 1 representa a face cara e 0 representa a face coroa.
Exemplo 1.1.5. Se o experimento consiste em lanar um dado e observar a face
superior, ento
= {1, 2, 3, 4, 5, 6},
onde cada nmero representa o possvel valor da face observada.
18 CAPTULO 1. ESPAO DE PROBABILIDADE
Exemplo 1.1.6. Se o experimento consiste em lanar duas moedas, ento
= {0, 1}
2
= {0, 1} {0, 1} = {(0, 0), (0, 1), (1, 0), (1, 1)},
onde a primeira coordenada representa o valor observado na primeira moeda, e a
segunda coordenada, o da segunda moeda.
Exemplo 1.1.7. Se o experimento consiste em lanar dois dados e observar as
faces superiores, ento
= {1, 2, 3, 4, 5, 6}
2
=
_
= (
1
,
2
) :
1
,
2
{1, 2, 3, 4, 5, 6}
_
.
Exemplo 1.1.8. Lanar uma moeda innitas vezes em sequncia.
= {0, 1}
N
= {0, 1} {0, 1} =
_
= (
n
)
nN
:
n
{0, 1} para todo n
_
.
Exemplo 1.1.9. Se o experimento consiste em medir a durao de uma lmpada,
ento um possvel espao amostral dado por = [0, ).
Eventos Aleatrios
Qualquer subconjunto A do espao amostral , isto , A , ao qual
atribumos uma probabilidade, dito um evento aleatrio.
Dizemos que o evento A ocorre se a realizao tal que A. Vamos traduzir
algumas operaes sobre conjuntos para a linguagem de eventos.
A unio A B o conjunto de todos os tais que pertence a A ou
pertence a B, ou seja, o conjunto das realizaes tais que algum dos eventos A
ou B ocorrem, portanto A B o evento A ou B.
Analogamente, a interseo A B, que dada por { : A e B},
o conjunto das realizaes tais que ambos os eventos A e B ocorrem, portanto
A B o evento A e B.
Denotamos por A
c
o complementar do conjunto A, dado por A
c
= { :
/ A}, ou seja, o conjunto das realizaes para as quais o evento A no ocorre,
portanto A
c
o evento no A.
Dois eventos A e B so ditos mutuamente exclusivos ou incompatveis se AB =
, isto , se o evento A e B impossvel. O conjunto vazio denominado evento
impossvel.
1.1. ESPAO DE PROBABILIDADE 19
Suponha que, para dois eventos A e B dados, pelo menos um dos dois
necessariamente ocorre. Isso quer dizer que A B = . O conjunto tambm
um evento, pois . Este evento denominado evento certo.
Se , o evento {} dito elementar. A relao A B signica que
todo A satisfaz B, ou seja, para qualquer realizao , se o evento A
ocorre ento necessariamente o evento B ocorre. Portanto, A B signica que a
ocorrncia do evento A implica a ocorrncia do evento B.
Quando o espao amostral um conjunto nito ou enumervel, natural
tomar a classe de eventos aleatrios F como F = P(), isto , o conjunto de todos
os subconjuntos de , dado por
P() = {A : A }
e chamado o conjunto das partes. Porm h casos em que no enumervel,
como no Exemplo 1.1.8, e no possvel construir um modelo probabilstico em
toda essa classe P(). Em todo caso, faremos algumas suposies naturais sobre a
classe F P() de eventos aleatrios. Mais precisamente, vamos assumir que F
satisfaz as seguintes propriedades:
(F1) F;
(F2) Para todo A F, tem-se que A
c
F;
(F3) Se A
1
, A
2
, A
3
, F, ento (

i=1
A
i
) F.
Chamaremos de -lgebra a uma classe de subconjuntos de satisfazendo as trs
propriedades acima.
Espao de Probabilidade
Seja um espao amostral e F uma -lgebra para um dado experimento.
Uma medida de probabilidade P uma aplicao P : F R satisfazendo as
seguintes propriedades:
(P1) P(A) 0 para todo A F.
(P2) P() = 1.
(P3) Se A
1
, A
2
, F e A
i
A
j
= i = j, ento P (

i=1
A
i
) =

i=1
P(A
i
).
20 CAPTULO 1. ESPAO DE PROBABILIDADE
Teorema 1.1.10. Toda medida de probabilidade P satisfaz as seguintes proprie-
dades:
1. P() = 0.
2. P(A
c
) = 1 P(A).
3. Se A, B F e A B ento P(A) P(B). (monotonicidade)
4. Se A, B F e A B ento P(B \ A) = P(B) P(A).
5. Para todo A F, temos 0 P(A) 1.
6. Se A
1
, A
2
, . . . , A
n
F, ento P
_

i=1
A
i
_

i=1
P(A
i
). (-subaditividade).
7. Sejam A e B F. Ento P(A B) = P(A) +P(B) P(A B).
Demonstrao. Feita em aula.
Uma medida de probabilidade P tambm tem a propriedade de ser contnua.
Dizemos que A
n
A se A
1
A
2
A
3
e

n=1
= A. Analogamente, A
n
A
se A
1
A
2
A
3
e

n=1
= A.
Teorema 1.1.11 (Continuidade). Se A
n
A ou A
n
A, ento P(A
n
) P(A).
Demonstrao. Feita em aula.
Um espao de probabilidade um trio (, F, P), onde
1. um conjunto no-vazio;
2. F uma -lgebra de subconjuntos de ;
3. P uma probabilidade denida em F.
Exemplo 1.1.12. Lanamento de uma moeda. Este espao pequeno o suciente
para que possamos constru-lo explicitamente. Como zemos anteriormente, as
duas faces da moeda sero representadas em = {0, 1}. A -lgebra F dada por
F = P() =
_
{}, {0}, {1}, {0, 1}
_
. A medida de probabilidade P : F R dada
por P({}) = 0, P({0}) = P({1}) =
1
2
, P({0, 1}) = 1.
Exemplo 1.1.13. Sortear 4 cartas de um baralho francs, com reposio. Neste
caso temos
=
_
{A, 2, 3, . . . , 9, 10, J, Q, K} {, , , }
_
4
1.2. PROBABILIDADE CONDICIONAL E INDEPENDNCIA 21
e
# = 52
4
.
Tomamos
F = P()
e
P(A) =
#A
52
4
, A F.
Qual a probabilidade do evento A = as quatro cartas so valetes? Temos
A = ({J} {qualquer naipe})
4
, logo #A = 4
4
e portanto
P(A) =
4
4
52
4
=
1
13
4
.
Qual a probabilidade do evento B = todas as cartas tm o mesmo naipe?
Temos 4 escolhas para o naipe, e 13 escolhas para cada uma das cartas retiradas,
logo #B = 4 13
4
e portanto
P(B) =
4.13
4
52
4
=
1
4
3
.
Qual a probabilidade do evento C = h um par de cartas de um naipe e um
par de cartas de um outro naipe. Temos
_
4
2
_
escolhas para os naipes, onde
_
52
4
_
1.2 Probabilidade Condicional e Independncia
A probabilidade condicional uma nova medida de probabilidade, de forma a
representar melhor as chances de eventos aleatrios a partir da informao de que
um dado evento aconteceu. denida da seguinte maneira:
Denio 1.2.1 (Probabilidade Condicional). Dados A, B F em um espao
(, F, P), denimos a probabilidade condicional de A dado que ocorreu B, ou
simplesmente probabilidade de A dado B, por
P(A| B) =
P(A B)
P(B)
.
Quando P(B) = 0, denimos P(A|B) = P(A).
22 CAPTULO 1. ESPAO DE PROBABILIDADE
Exerccio 1.2.2. Um casal tem dois lhos que no sejam gmeos. Calcule a
probabilidade condicional de esse casal ter dois lhos homens, sabendo-se que:
(a) O casal tem um lho homem.
(b) O lho mais velho do casal homem.
(c) O casal tem um lho homem que nasceu num sbado.
(d) O casal tem um lho homem que no nasceu num sbado.
Respostas aproximadas: 33%, 50%, 48%, 36%. Comente o porqu de o resultado
do item (d) ser prximo ao do item (a) e o do item (c) ser prximo ao do item (b).
Proposio 1.2.3. A probabilidade condicional uma medida de probabilidade,
isto , dado B F tal que P(B) > 0, a funo que leva A em P(A|B) satisfaz as
Propriedades (P1)(P3).
Demonstrao. Feita em aula.
Regra do produto A regra do produto permite expressar a probabilidade da
ocorrncia simultnea de diversos eventos a partir do valor de cada probabilidade
condicional dados os eventos anteriores.
Teorema 1.2.4 (Regra do Produto). Dados A
1
, A
2
, . . . , A
n
em (, F, P), vale
P(A
1
A
n
) = P(A
1
)P(A
2
|A
1
)P(A
3
|A
1
A
2
) P(A
n
|A
1
A
2
A
n1
).
Demonstrao. Vamos provar por induo em n. Para n = 1 vale trivialmente:
P(A
1
) = P(A
1
). Para n = 2, temos
P(A
2
|A
1
) =
P(A
2
A
1
)
P(A
1
)
= P(A
1
A
2
) = P(A
1
)P(A
2
|A
1
).
Para n = 3, temos
P(A
3
|A
1
A
2
) =
P(A
1
A
2
A
3
)
P(A
1
A
2
)
e portanto
P(A
1
A
2
A
3
) = P(A
1
A
2
)P(A
3
|A
1
A
2
)
= P(A
1
)P(A
2
|A
1
)P(A
3
|A
1
A
2
).
1.2. PROBABILIDADE CONDICIONAL E INDEPENDNCIA 23
Suponhamos a igualdade vlida para n = m, temos
P(A
m+1
|A
1
A
m
) =
P(A
1
A
m
A
m+1
)
P(A
1
A
m
)
e portanto
P(A
1
A
m+1
) = P(A
1
A
m
)
. .
usando a hiptese
P(A
m+1
|A
1
A
m
)
= P(A
1
)P(A
2
|A
1
)P(A
3
|A
1
A
2
) P(A
m+1
|A
1
A
m
),
completando a prova por induo.
Exemplo 1.2.5 ([Jam04]). Selecionar 3 cartas de um baralho francs de 52 cartas,
ao acaso e sem reposio. Qual a probabilidade de tirar 3 reis? Seja A
i
=tirar rei
na i-sima retirada e A =tirar 3 reis= A
1
A
2
A
3
. Temos
P(A) = P(A
1
)P(A
2
|A
1
)P(A
3
|A
1
A
2
) =
4
52
3
51
2
50
=
1
5525
.
Lei da probabilidade total Dizemos que B
1
, B
2
, B
3
, F formam uma
partio de se B
i
B
j
= i = j e

i=1
B
i
= .
Teorema 1.2.6 (Lei da Probabilidade Total). Sejam A, B
1
, B
2
, B
3
, . . . even-
tos aleatrios em (, F, P) tais que B
1
, B
2
, B
3
, . . . formam uma partio de
. Ento
P(A) =

i=1
P(B
i
)P(A|B
i
).
Demonstrao. Usando a regra do produto temos
P(A) = P
_

i=1
(A B
i
)

i=1
P(A B
i
) =

i=1
P(B
i
)P(A|B
i
).
A primeira igualdade vale pois A =

i=1
(A B
i
). Na segunda igualdade usamos
que esses eventos so disjuntos, i.e., (A B
i
) (A B
j
) B
i
B
j
= para
todo i = j. Na ltima igualdade usamos a regra do produto.
24 CAPTULO 1. ESPAO DE PROBABILIDADE
Exemplo 1.2.7. Um armrio tem duas gavetas, A e B. A gaveta A tem 2 meias
azuis e 3 meias pretas, e a gaveta B tem 3 meias azuis e 3 meias vermelhas. Abre-se
uma gaveta ao acaso e retira-se uma meia ao acaso da gaveta escolhida. Qual a
probabilidade de escolher-se uma meia azul? Comeamos pelos valores conhecidos:
P(A) = P(B) =
1
2
, P(azul|A) =
2
5
e P(azul|B) =
3
6
. Assim,
P(azul) = P(A)P(azul|A) +P(B)P(azul|B) =
1
2
2
5
+
1
2
3
6
=
9
20
.
Exerccio 1.2.8. So dadas duas urnas, A e B. A urna A contm 1 bola azul e 1
vermelha. A urna B contm 2 bolas vermelhas e 3 azuis. Uma bola extrada ao
acaso de A e colocada em B. Uma bola ento extrada ao acaso de B. Pergunta-
se:
(a) Qual a probabilidade de se retirar uma bola vermelha de B?
(b) Qual a probabilidade de ambas as bolas retiradas serem da mesma cor?
Frmula de Bayes A frmula de Bayes determina a probabilidade condicional de
eventos que precedem aquele efetivamente observado. Mais precisamente, quando
conhecemos as probabilidades de uma sequncia de eventos B
j
que particionam
e a probabilidade condicional de um evento posterior A em termos dessa partio,
podemos calcular as probabilidades condicionais de ocorrncia de cada B
j
sabendo-
se da ocorrncia ou no do evento A. Os valores originais so chamados de
probabilidades a priori dos eventos B
j
, e os valores das probabilidades condicionais
so chamados de probabilidades a posteriori desses eventos.
Teorema 1.2.9 (Frmula de Bayes). Dado um espao de probabilidade
(, F, P), uma partio B
1
, B
2
, B
3
, . . . , e um evento A, para todo j N vale
a frmula
P(B
j
|A) =
P(B
j
)P(A|B
j
)

i
P(B
i
)P(A|B
i
)
.
Demonstrao. Feita em aula.
Exemplo 1.2.10. No Exemplo 1.2.7, sabendo-se que uma meia azul foi retirada,
1.2. PROBABILIDADE CONDICIONAL E INDEPENDNCIA 25
qual a probabilidade de ter sido aberta a gaveta A? Pela Frmula de Bayes temos
P(A|azul) =
P(A)P(azul|A)
P(A)P(azul|A) +P(B)P(azul|B)
=
1
5
9
20
=
4
9
.
Exerccio 1.2.11. Num certo certo pas, todos os membros de comit legislativo
ou so comunistas ou so republicanos. H trs comits. O Comit 1 tem 5
comunistas, o Comit 2 tem 2 comunistas e 4 republicanos, e o Comit 3 consiste
de 3 comunistas e 4 republicanos. Um comit selecionado aleatoriamente e uma
pessoa selecionada aleatoriamente deste comit.
(a) Ache a probabilidade de que a pessoa selecionada seja comunista.
(b) Dado que a pessoa selecionada comunista, qual a probabilidade de ela ter
vindo do comit 1?
Independncia Dois eventos aleatrios so independentes quando a ocorrncia
de um deles no aumenta nem diminui a chance relativa de que ocorra o outro.
Denio 1.2.12 (Eventos Independentes). Os eventos aleatrios A e B so
ditos independentes se
P(A B) = P(A)P(B).
Proposio 1.2.13. So equivalentes:
(i) A e B so independentes,
(ii) A e B
c
so independentes,
(iii) A
c
e B so independentes,
(iv) A
c
e B
c
so independentes,
(v) P(A|B) = P(A),
(vi) P(B|A) = P(B).
Demonstrao. Feita em aula.
26 CAPTULO 1. ESPAO DE PROBABILIDADE
Denio 1.2.14 (Eventos Independentes Dois a Dois). Os eventos aleatrios
(A
i
)
iI
, onde I um conjunto qualquer de ndices, so ditos independentes dois
a dois se A
i
e A
j
so independentes para todos i, j I com i = j.
Exemplo 1.2.15. Dois dados so lanados. Consideramos os eventos A = o
primeiro dado par, B = o segundo dado par C = a soma dos valores dos
dados par. Ento
P(A) = P({2, 4, 6} {1, 2, 3, 4, 5, 6}) =
18
36
=
1
2
,
P(B) = P({1, 2, 3, 4, 5, 6} {2, 4, 6}) =
18
36
=
1
2
,
P(C) = P({2, 4, 6}
2
{1, 3, 5}
2
) =
18
36
=
1
2
,
P(A B) = P({2, 4, 6}
2
) =
9
36
=
1
4
= P(A)P(B),
P(A C) = P({2, 4, 6}
2
) =
9
36
=
1
4
= P(A)P(C),
P(B C) = P({2, 4, 6}
2
) =
9
36
=
1
4
= P(B)P(C).
Exemplo 1.2.16. Lanamento de um dado de 4 faces. Considere A =par,
B =menor que 3, C =1 ou 4, i.e., A = {2, 4}, B = {1, 2}, C = {1, 4}. Ento
A, B e C so independentes dois a dois. De fato,
P(A B) = P({2}) =
1
4
= P(A)P(B),
P(A C) = P({4}) =
1
4
= P(A)P(C),
P(B C) = P({1}) =
1
4
= P(B)P(C).
Denio 1.2.17 (Eventos Coletivamente Independentes). Os eventos ale-
atrios (A
i
)
iI
so ditos coletivamente independentes ou estocasticamente
independentes se, dado qualquer conjunto de ndices distintos i
1
, i
2
, . . . , i
n
I,
vale
P(A
i
1
A
i
2
A
i
n
) = P(A
i
1
)P(A
i
2
) P(A
i
n
).
1.3. EXERCCIOS 27
Exemplo 1.2.18. Lanamento de um dado de 12 faces. Seja A =mltiplo de 3,
B =menor ou igual a 6 e C =par, i.e., A = {3, 6, 9, 12}, B = {1, 2, 3, 4, 5, 6} e
C = {2, 4, 6, 8, 10, 12}. Ento A, B e C so coletivamente independentes, pois
P(A B) = P({3, 6}) =
1
6
= P(A)P(B),
P(B C) = P({2, 4, 6}) =
1
4
= P(B)P(C),
P(A C) = P({6, 12}) =
1
6
= P(A)P(C),
P(A B C) = P({6}) =
1
12
= P(A)P(B)P(C).
Contra-Exemplo 1.2.19. No Exemplo 1.2.16, os eventos A, B e C no so
coletivamente independentes. De fato,
P(A B C) = P() = 0 =
1
8
= P(A)P(B)P(C).
Contra-Exemplo 1.2.20. No Exemplo 1.2.15, os eventos A, B e C no so
coletivamente independentes. De fato,
P(A B C) = P({2, 4, 6}
2
) =
1
4
=
1
8
= P(A)P(B)P(C).
1.3 Exerccios
Exerccio 1.3.1. Considere o experimento resultante do lanamento de dois dados
onde se observa o mnimo entre suas faces. Construa um modelo probabilstico
associado.
Exerccio 1.3.2. Seja (, F, P) um espao de probabilidade. Considere uma
sequncia de eventos aleatrios (A
n
)
n=1,2,3,...
em F. Dena o evento B
m
: o
primeiro evento a ocorrer da sequncia (A
n
)
n=1,2,3,...
A
m
.
1. Expresse B
m
em termos dos eventos A
n
.
2. Os eventos B
1
, B
2
, . . . , B
m
, . . . so disjuntos?
3. Quem o evento

m=1
B
m
?
Exerccio 1.3.3. Considere uma populao de indivduos capazes de gerar proles
do mesmo tipo. O nmero de indivduos inicialmente presentes, denotado por
28 CAPTULO 1. ESPAO DE PROBABILIDADE
X
0
, o tamanho da gerao zero. Todos as proles da gerao zero constituem
a primeira gerao e o seu nmero denotado por X
1
. Em geral, X
n
denota o
tamanho da n-sima gerao. Mostre que lim
n
P(X
n
= 0) existe e interprete o
seu signicado.
Exerccio 1.3.4. Se P(A) = P(A|B) =
1
4
e P(B|A) =
1
2
:
1. A e B so independentes?
2. A e B so mutuamente exclusivos?
3. Calcule P(A
c
|B
c
).
Exerccio 1.3.5. Em uma gaveta existem 2 maos de baralho fechados. Um deles
um baralho comum de 52 cartas, {A, 2, 3, . . . , 9, 10, J, Q, K} {, , , }, e
outro um baralho de truco com 40 cartas (no possui as cartas de nmeros 8,
9 e 10).
Um dos maos retirado da gaveta ao acaso e depois uma carta sorteada ao
acaso do baralho retirado.
(a) Calcule a probabilidade de a carta sorteada ser uma das trs guras reais
(J, Q, K).
(b) Sabendo-se que foi sorteada uma gura real, calcule a probabilidade de o
baralho retirado ter sido o baralho comum.
(c) Calcule a probabilidade de a carta sorteada ser de espadas .
(d) Sabendo-se que foi sorteada uma carta de espadas, calcule a probabilidade
de o baralho retirado ter sido o baralho de truco.
(e) Sejam A =Foi retirado o baralho comum, B =Foi sorteada uma gura
real e C =Foi sorteada uma carta de espadas. A e B so independentes?
A e C so independentes? A, B e C so coletivamente independentes?
(f) Qual a probabilidade de se sortear uma carta de nmero 5 ?
(g) Sabendo-se que foi sorteado um nmero (i.e., no foi sorteado A, J, Q nem
K), qual a probabilidade de o baralho retirado ter sido o baralho de truco?
Exerccio 1.3.6. [Jam04, Captulo 1].
Recomendados: 1, 2, 3, 4, 5, 11, 16, 18, 22.
Sugeridos: 8, 9, 10, 12, 13, 14, 15, 17, 19, 20, 21.
Captulo 2
Variveis Aleatrias
Na realizao de um fenmeno aleatrio, muitas vezes estamos interessados em
uma ou mais quantidades, que so dadas em funo do resultado do fenmeno.
Por exemplo, sortear 11 cartas do baralho e contar quantas dessas cartas so de
espadas, ou sortear dois nmeros reais entre 0 e 1 e considerar o menor deles. A
essas quantidades damos o nome de variveis aleatrias. Uma varivel aleatria
um observvel numrico resultante de um experimento.
2.1 Variveis Aleatrias
Uma varivel aleatria uma funo que associa a cada resultado do espao
amostral um nmero real, ou seja, uma funo
X : R
X()
.
Exemplo 2.1.1. Joga-se um dado e observa-se a face superior. Nesse caso temos
= {1, 2, 3, 4, 5, 6} e X() = .
Vamos colocar uma restrio sobre a funo X com o intuito de poder associar
probabilidade a eventos como o valor observado de X menor que 7. Para isso,
introduzimos uma denio mais formal:
29
30 CAPTULO 2. VARIVEIS ALEATRIAS
Denio 2.1.2 (Varivel Aleatria). Uma varivel aleatria X em um espao
de probabilidade (, F, P) uma funo real denida no espao tal que o
conjunto { : X() x} evento aleatrio para todo x R, isto ,
X : R
uma varivel aleatria se { : X() x} F para todo x R.
Daqui para frente denotaremos por [X x] o evento { : X() x}.
Exemplo 2.1.3 (Varivel aleatria constante). Se X() = c para todo ,
ento
{ : X() a} =
_
, se a c,
, se a < c.
Portanto, X varivel aleatria.
Exemplo 2.1.4 (Funo indicadora). Dado A , denimos
1
A
() =
_
1, A,
0, A.
Se A F e X = 1
A
, ento
{ : X() a} =
_

_
, se a 1,
A
c
, se 0 a < 1,
, se a < 0.
Portanto, X varivel aleatria.
Contra-Exemplo 2.1.5. Sejam = {1, 2, 3, 4} e F = {, {1, 2}, {3, 4}, } e
considere os conjuntos A = {1, 2} e B = {1, 3}. Ento 1
A
varivel aleatria
em (, F), mas 1
B
no .
Espao de probabilidade induzido e lei de uma varivel aleatria A -
lgebra de Borel na reta R, denotada por B, a menor -lgebra que contm
2.1. VARIVEIS ALEATRIAS 31
todos os intervalos da reta.
1
Os conjuntos B R tais que B B so chamados
Borelianos. A -lgebra de Borel B muito menor que a -lgebra das partes
P(R), e daqui em diante, sempre que aparecer B R, deve-se entender B B.
Dado um espao de probabilidade (, F, P) e uma varivel aleatria X, deni-
mos o espao de probabilidade induzido por X como (R, B, P
X
), onde
P
X
(B) = P
_
{ : X() B}
_
, B B.
Ou seja, o espao amostral o conjunto dos nmeros reais, os eventos aleatrios
so os conjuntos Borelianos, e a medida de probabilidade aquela induzida por X.
Chamaremos de lei da varivel aleatria X a medida de probabilidade P
X
em R
induzida por X.
Funo de Distribuio
Denio 2.1.6 (Funo de Distribuio). A funo de distribuio, ou funo
de distribuio acumulada da varivel aleatria X, denotada por F
X
, denida
como
F
X
(x) = P(X x), x R.
A funo de distribuio determina o comportamento estatstico da varivel
aleatria, e vice-versa. Mais precisamente, dadas X e Y variveis aleatrias,
F
X
(t) = F
Y
(t) para todo t R se e somente se P
X
e P
Y
em (R, B) so iguais. Neste
caso escrevemos X Y . Por isso a funo de distribuio uma caracterstica
fundamental da varivel aleatria.
Exemplo 2.1.7. Duas moedas honestas so lanadas. Seja a varivel X que conta
1
Equivalentemente, B a menor -lgebra que contm todos os intervalos semi-innitos, ou
ainda, a menor -lgebra que contm todos os conjuntos abertos. O leitor mais curioso pode
ver [Jam04, Exerccio 1.6] a respeito da existncia e unicidade da menor -lgebra contendo uma
classe de conjuntos qualquer.
32 CAPTULO 2. VARIVEIS ALEATRIAS
o nmero de caras observadas. Temos que
F
X
(t) = P(X t) =
_

_
P() = 0, t < 0;
P({(0, 0)}) =
1
4
, 0 t < 1;
P({(0, 0), (0, 1), (1, 0)}) =
3
4
, 1 t < 2;
P() = 1, t 2.
Observe que o salto da funo de distribuio acumulada corresponde probabi-
t
F
X
(t)
1/4
3/4
1
1 2
Figura 2.1: Grco de uma funo de distribuio acumulada.
lidade de a varivel aleatria assumir aquele valor, como se v na Figura 2.1.
Exemplo 2.1.8. Seja um experimento que consiste em selecionar um ponto ao
acaso do intervalo [a, b] com a < b. Seja X a varivel aleatria que representa a
coordenada do ponto.
t
F
X
(t)
1
a b
Figura 2.2: Grco de uma funo de distribuio acumulada.
Primeiro observamos que, ao selecionar um ponto ao acaso em um intervalo,
estamos dizendo implicitamente que quaisquer subintervalos de mesmo tamanho
contm o ponto escolhido com a mesma probabilidade. Isso quer dizer que, dado
2.1. VARIVEIS ALEATRIAS 33
[c, d] [a, b], temos que P(X [c, d]) =
dc
ba
. Para t [a, b], tomando c = a temos
que P(X t) =
ta
ba
. Para t < a temos que P(X t) = 0, e para t > a temos que
P(X t) = 1. Portanto,
F
X
(t) = P(X t) =
_

_
0, t a;
t a
b a
, a t b;
1, t b;
cujo grco est ilustrado na Figura 2.2.
Proposio 2.1.9 (Propriedades da Funo de Distribuio). Se X uma varivel
aleatria, sua funo de distribuio F
X
satisfaz as seguintes propriedades:
1. F
X
no-decrescente, i.e., x y F
X
(x) F
X
(y).
2. F
X
contnua direita, i.e., x
n
x F
X
(x
n
) F
X
(x).
3. lim
x
F
X
(x) = 0 e lim
x+
F
X
(x) = 1.
Demonstrao. Feita em aula.
Observao 2.1.10. Uma funo F : R R satisfazendo as propriedades acima
chamada funo de distribuio.
Denotamos o limite lateral
Exerccio 2.1.11. Mostre que
1. P(X > a) = 1 F
X
(a).
2. P(a < X b) = F
X
(b) F
X
(a).
3. P(X = a) = F
X
(a) F
X
(a).
Ou seja, P(X = a) o tamanho do salto da funo de distribuio em x = a.
4. P(X = a) = 0 se e somente se F
X
contnua em a.
5. P(a < X < b) = F
X
(b) F
X
(a).
6. P(a X < b) = F
X
(b) F
X
(a).
7. P(a X b) = F
X
(b) F
X
(a).
34 CAPTULO 2. VARIVEIS ALEATRIAS
Exerccio 2.1.12. Seja F(x) a funo
F(x) =
_

_
0, x < 0,
x +
1
2
, 0 x
1
2
1, x >
1
2
.
Mostre que F de fato uma funo de distribuio e calcule:
(a) P(X >
1
8
)
(b) P(
1
8
< X <
2
5
)
(c) P(X <
2
5
| X >
1
8
)
2.2 Variveis Aleatrias Discretas
Denio 2.2.1 (Varivel Aleatria Discreta). Dizemos que uma varivel
aleatria X, sua funo de distribuio F
X
e sua lei P
X
so discretas se existe
um conjunto enumervel {x
1
, x
2
, x
3
, . . . } R tal que

n=1
P(X = x
n
) = 1.
Neste caso denimos a funo de probabilidade de uma varivel aleatria
contnua como
p
X
(x) = P(X = x).
Note que, se X discreta assumindo valores em {x
1
, x
2
, x
3
, . . . }, ento temos que
P(X {x
1
, x
2
, . . . }) = 1 e P(X {x
1
, x
2
, . . . }) = 0. No tratamento de variveis
aleatrias discretas, tudo pode ser feito em termos de somatrios. A lei de uma
varivel aleatria discreta dada por
P
X
(B) =

xB
p
X
(x) B B.
2.2. VARIVEIS ALEATRIAS DISCRETAS 35
Observao 2.2.2. Uma funo p() satisfazendo
p(x) 0 x R,

xR
p(x) = 1,
chamada funo de probabilidade.
Observao 2.2.3. Para especicar a distribuio ou a lei de uma varivel
aleatria discreta, suciente saber sua funo de probabilidade, e vice-versa. Com
efeito, F
X
(t) =

xt
p
X
(x) e
p
X
(x) = F(x) F(x).
Exerccio 2.2.4. A probabilidade de um indivduo acertar um alvo
2
3
. Ele
deve atirar at atingir o alvo pela primeira vez. Seja X a varivel aleatria que
representa o nmero de tentativas at que ele acerte o alvo.
(a) Encontre a funo de probabilidade de X.
(b) Mostre que p
X
funo de probabilidade.
(c) Calcule a probabilidade de serem necessrios exatamente cinco tiros para que
ele acerte o alvo.
Exerccio 2.2.5. Seja X uma varivel aleatria com funo de probabilidade
P(X = x) = cx
2
, onde c uma constante e k = 1, 2, 3, 4, 5.
(a) Encontre p
X
(x) e F
X
(x).
(b) Calcule P(X ser mpar).
Distribuio de Bernoulli Dizemos que X Bernoulli, X Bernoulli(p), se
p
X
(1) = p e p
X
(0) = 1 p. Indicadores de eventos so Bernoulli e vice-versa. s
vezes associamos o evento [X = 1] a sucesso e [X = 0] a fracasso.
Distribuio uniforme discreta Dado I = {x
1
, x
2
, . . . , x
k
}, dizemos que X
tem distribuio uniforme discreta em I, denotado por X U
d
[I], se
p
X
(x
i
) =
1
k
, i = 1, 2, . . . , k.
Exemplo 2.2.6. Lanamento de um dado. Temos I = {1, 2, 3, 4, 5, 6} e p(i) =
1
6
,
i = 1, 2, . . . , 6.
36 CAPTULO 2. VARIVEIS ALEATRIAS
Distribuio binomial Considere n ensaios de Bernoulli independentes e com
mesmo parmetro p, e seja X o nmero de sucessos obtidos. Dizemos que X segue
o modelo binomial com parmetros n e p, X b(n, p). A funo de probabilidade
dada por
p
X
(x) =
_
n
x
_
p
x
(1 p)
nx
, x = 0, 1, 2, . . . , n.
Exemplo 2.2.7. Lanar um dado 4 vezes e contar o nmero de vezes que se obtm
o nmero 3. Temos X b(4,
1
6
). A probabilidade de se obter 3 duas vezes dada
por
P(X = 2) = p
X
(2) =
_
4
2
_ _
1
6
_
2
_
5
6
_
42
=
4!
2!(4 2)!
5
2
6
4
=
25
216
.
Exerccio 2.2.8. Seja X o nmero de caras obtidas em 4 lanamentos de uma
moeda honesta. Construa a funo de probabilidade e a funo de distribuio
de X esboando os seus grcos.
Distribuio geomtrica Numa sequncia de ensaios independentes com proba-
bilidade de sucesso p, considere o nmero X de ensaios necessrios para a obteno
de um sucesso. Dizemos que X segue o modelo geomtrico de parmetro p,
X Geom(p), e sua funo de probabilidade dada por
p
X
(n) = p(1 p)
n1
, n = 1, 2, 3, 4, . . . .
Exemplo 2.2.9. Lanar um par de dados at obter nmeros iguais. Se X denota
o nmero de lanamentos necessrios, ento X Geom(
1
6
).
Distribuio hipergeomtrica Suponha que numa caixa existem m bolas azuis
e n bolas brancas, de onde retiramos r bolas ao acaso. Contamos o nmero X
de bolas azuis retiradas. Se aps cada retirada a bola fosse devolvida caixa,
teramos um experimento com reposio, e X b(r,
m
m+n
). No caso em que as
bolas retiradas so guardadas fora da caixa, temos um experimento sem reposio,
e nesse caso X segue o modelo hipergeomtrico com parmetros m, n e r, denotado
por X Hgeo(m, n, r). A funo de probabilidade de X dada por
p
X
(k) =
_
m
k
__
n
rk
_
_
m+n
r
_ , para [0 r n] k [r m].
Denotamos por a b e a b o mximo e o mnimo entre a e b, respectivamente.
2.3. VARIVEIS ALEATRIAS CONTNUAS 37
Exemplo 2.2.10. Num jogo de bingo com 50 pedras, conta-se o nmero X de pe-
dras pares sorteadas nas 10 primeiras retiradas. Neste caso, X Hgeo(25, 25, 10).
Exemplo 2.2.11. No jogo de buraco um jogador recebe 11 cartas de um baralho
francs de 52 cartas. Conta-se o nmero X de cartas de espadas . Neste caso,
X Hgeo(13, 39, 11).
Distribuio de Poisson Imagine uma grande quantidade de determinados ob-
jetos (estrelas, chamadas telefnicas, uvas-passas, etc.) uniformemente distribudas
em uma certa regio (o espao, a linha do tempo, uma massa de panetone, etc.)
tambm muito grande, sendo a proporo entre a quantidade de objetos e o
tamanho dessa regio. Se contamos o nmero X de objetos encontrados em uma
unidade de volume dessa regio, temos que X segue o modelo de Poisson com
parmetro , denotado por X Poisson(), com funo de probabilidade
p
X
(k) =
e

k
k!
, k = 0, 1, 2, 3, . . . .
De fato, se temos n grande e p
n
=

n
, ento para todo k xado temos
P(X = k) =
_
n
k
_ _

n
_
k
_
1

n
_
nk
=

k
k!
_
n
n
n1
n

nk+1
n
_ _
1

n
_
nk

k
k!
.
Exemplo 2.2.12. Se em 1.000 horas de servio uma operadora recebe 50.000 cha-
madas, essas chamadas acontecendo em instantes independentes e uniformemente
distribudas ao longo dessas 1.000 horas, ento a distribuio da quantidade X de
chamadas recebidas em 1 hora bem aproximada por X Poisson(50).
2.3 Variveis Aleatrias Contnuas
Denio 2.3.1. Uma varivel aleatria X dita contnua se P(X = a) = 0 para
todo a R, ou seja, se F
X
for contnua no sentido usual.
Denio 2.3.2. Dizemos que uma varivel aleatria X, sua funo de
distribuio F
X
e sua lei P
X
so absolutamente contnuas se existe f
X
() 0
tal que
P
X
(B) = P(X B) =
_
B
f
X
(x) dx B B.
38 CAPTULO 2. VARIVEIS ALEATRIAS
Neste caso, dizemos que f
X
a funo de densidade de probabilidade de X, ou
simplesmente densidade de X.
Observao 2.3.3. No tratamento de variveis aleatrias absolutamente cont-
nuas, tudo pode ser feito em termos de integrais. A funo de distribuio de uma
varivel aleatria absolutamente contnua dada por
F
X
(t) =
_
t

f
X
(s) ds.
Observao 2.3.4. Uma funo f() satisfazendo
f(x) 0 x R,
_
+

f(x) dx = 1,
chamada funo de densidade.
Observao 2.3.5. A densidade f
X
pode ser obtida por
f
X
(x) =
d
dx
F
X
(x),
para todo x R, exceto talvez para um conjunto pequeno.
2
Portanto, para
especicar a distribuio ou a lei de uma varivel aleatria absolutamente contnua,
suciente saber sua funo de densidade, e vice-versa.
2
Dizemos que um conjunto A B pequeno, isto , tem medida zero, se, para todo > 0,
existe uma sequncia de intervalos (a
n
, b
n
) cuja unio contenha A e cujo tamanho total seja
pequeno, isto ,

n=1
(b
n
a
n
) . Por exemplo, se A = {x
1
, x
2
, . . . } enumervel, ento
podemos tomar a sequncia de intervalos (x
n
2
n1
, x
n
+ 2
n1
), que contm A e cujo
tamanho total exatamente . Podemos modicar a densidade f
X
em um conjunto pequeno de
pontos e ainda teremos uma densidade para X, pois um conjunto pequeno no altera o valor da
integral.
2.3. VARIVEIS ALEATRIAS CONTNUAS 39
Exemplo 2.3.6. Sortear um nmero em [0, 1]. Denimos
f
X
(x) =
_
1, x [0, 1]
0, caso contrrio,
e neste caso temos
F
X
(t) =
_
t

f
X
(x) dx =
_

_
0, t 0,
t, 0 t 1,
1, t 1.
Exerccio 2.3.7. Seja X uma varivel aleatria absolutamente contnua tal que
sua funo de densidade par, isto , f
X
(x) = f
X
(x). Mostre que
(a) F
X
(x) = 1 F
X
(x);
(b) F
X
(0) =
1
2
;
(c) P(x < X < x) = 2F
X
(x) 1, x > 0;
(d) P(X > x) =
1
2

_
x
0
f
X
(t)dt, x > 0.
Exerccio 2.3.8. Seja Z uma varivel aleatria contnua com funo de densidade
de probabilidade
f
Z
(z) =
_
10 e
10z
, z > 0
0, z 0
Obtenha a funo de distribuio de Z e esboce o seu grco.
Distribuio uniforme Dizemos que a varivel aleatria X tem distribuio
uniforme no intervalo [a, b], denotado por X U[a, b], se todos os subintervalos
de [a, b] com mesmo comprimento tiverem a mesma probabilidade. Sua densidade

f
X
(x) =
1
b a
1
[a,b]
(x) =
_
1
ba
, x [a, b],
0, x [a, b].
A distribuio uniforme a distribuio contnua mais simples. Segundo esta
distribuio, a probabilidade de X estar em um dado subintervalo de [a, b] depende
apenas do comprimento desse subintervalo.
A distribuio uniforme pode ser pensada como o limite de uma distribuio
uniforme discreta em {a, a +
ba
n
, a + 2
ba
n
, . . . , a + (n 2)
ba
n
, a + (n 1)
ba
n
, b},
quando n muito grande.
40 CAPTULO 2. VARIVEIS ALEATRIAS
Exemplo 2.3.9. O ponto de ruptura X de algum cabo numa rede eltrica de 5 km
pode ser modelado por uma varivel aleatria com distribuio uniforme em [0, 5].
Neste caso temos que f
X
=
1
5
1
[0,5]
. A probabilidade de um determinado cabo se
romper nos primeiros 800 m da rede igual a
_
0,8
0
1
5
dx = 16%.
Distribuio exponencial Dizemos que X tem distribuio exponencial com
parmetro > 0, denotado por X exp(), se sua funo de distribuio for dada
por
F
X
(x) =
_
1 e
x
, x 0,
0, x 0.
A distribuio exponencial se caracteriza por ter uma funo de taxa de falha
constante, o que chamamos de perda de memria.
Exemplo 2.3.10. Quando se diz que uma lmpada incandescente de uma deter-
minada marca tem vida mdia de 1.000 horas, isso quer dizer que seu tempo de
vida T satisfaz T exp(
1
1000
).
A distribuio exponencial pode ser pensada como como o limite de distribuies
geomtricas com pequenos intervalos de tempo. Isto , se X
1
n
Geom(

n
) com n
muito grande, ento a distribuio de X se aproxima da distribuio exponencial
com parmetro . Essa a distribuio adequada para modelar a vida til de
uma lmpada, ou de inmeros outros materiais, como leos isolantes, porque estes
deixam de funcionar no por deteriorao ao longo do tempo mas sim porque um
determinado evento passvel de causar a falha pode ocorrer a qualquer instante
com uma probabilidade muito pequena.
Distribuio gama A distribuio gama tem dois parmetros, e , e inclui
como casos particulares a distribuio exponencial e as chamadas qui-quadrado e
Erlang. Dizemos que X tem distribuio gama com parmetros positivos e ,
denotado por X Gama(, ), se X tem densidade dada por
f
X
(x) =
_

x
1
e
x
()
, x 0,
0, x < 0,
onde
() =
_

0
x
1
e
x
dx.
2.3. VARIVEIS ALEATRIAS CONTNUAS 41
Distribuio normal Dizemos que a varivel aleatria X tem distribuio
normal com parmetros R e
2
> 0, denotado por X N(,
2
), se X
tem como densidade
f
X
(x) =
1

2
2
e
(x)
2
2
2
, x R.
A distribuio N = N(0, 1) chamada normal padro.
Denotamos por a funo de distribuio acumulada de uma normal padro N,
dada por
(t) = F
N
(t) = P(N t) =
_
t

e
x
2
/2

2
dx.
Em geral, a soluo de problemas numricos envolvendo a distribuio normal inclui
a consulta de uma tabela de valores de ((t); t 0) com os valores de t apropriados.
Na Tabela 2.1 exibimos os valores de (t) para t = 0, 00, 0, 01, 0, 02, . . . , 3, 49.
Para t < 0 usa-se a identidade
(t) = 1 (t).
Consequentemente,
P(+a < N < +b) = (b) (a)
P(a < N < b) = (b) (a) = (a) (b)
P(a < N < +b) = (b) (a) = (b) + (a) 1.
Em particular,
P(a < N < a) = 2(a) 1.
Exemplo 2.3.11. Calculemos as seguintes probabilidades:
(a) P(0 < N < 1) = (1) (0) 0, 8413 0, 5000 = 0, 3413.
(b) P(1.93 < N < 3) = (1.93) + (3) 1 0, 9732 + 0, 9988 1 = 0, 9720.
(c) P(1.8 < N < 1.8) = 2(1.8) 1 2 0, 9641 1 = 0, 9282.
(d) Para qual x tem-se P(x < N < x) = 0, 90?
2(x) 1 = 0, 90 (x) = 0, 95 x 1, 645.
(e) Para qual x tem-se P(x < N < x) = 0, 6826?
2(x) 1 = 0, 6826 (x) = 0, 8413 x 1, 000.
42 CAPTULO 2. VARIVEIS ALEATRIAS
Tabela 2.1: (x +y), onde x so os valores das linhas e y os das colunas.
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
2.4. DISTRIBUIES MISTAS E SINGULARES 43
Exerccio 2.3.12. Mostre que, se Y = aX +b com a > 0 e b R, ento f
Y
(y) =
1
a
f
X
(
yb
a
). Sugesto: determine F
Y
(y), y R, em termos de f
X
(x), x R,
sabendo que F
X
(t) =
_
t

f
X
(x) dx, e depois tome a derivada.
Exerccio 2.3.13. Mostre que se X N(,
2
) ento a varivel aleatria
X

tem distribuio normal padro.


2.4 Distribuies Mistas e Singulares
Uma varivel aleatria discreta X vive em um conjunto enumervel de pontos cuja
probabilidade de ocorrncia positiva, e nesse contexto tudo se expressa em termos
de somatrios ponderados pela funo p
X
. Uma varivel aleatria absolutamente
contnua X vive em R, sua distribuio em cada intervalo (n, n + 1] similar de
uma distribuio uniforme, apenas seu peso ponderado pela funo f
X
. Nesse
contexto tudo se expressa em termos de integrais com f
X
(x) dx.
Existem variveis aleatrias que so misturas dos tipos discreto e absolutamente
contnuo. Neste caso a varivel pode ser decomposta, separando-se as suas partes
discreta e absolutamente contnua, e suas propriedades sero determinadas por
combinaes de somatrios e integrais. Mais precisamente, dizemos que X uma
varivel aleatria mista com componentes discreta e absolutamente contnua se
existem p
X
e f
X
tais que
P(X B) =

xB
p
X
(x) +
_
B
f
X
(x) dx.
Distribuies singulares Alm desses casos, existem variveis aleatrias cuja
parte contnua no absolutamente contnua. Por um lado, nenhum ponto em
particular tem probabilidade positiva de ocorrer, o que afasta o tratamento por
somatrios do caso discreto. Por outro lado, sua distribuio no similar de
uma distribuio uniforme, e de fato a varivel aleatria vive em um conjunto
pequeno da reta, no sendo aplicvel tampouco o uso de integrais em f(x)dx para
nenhuma f. A tais variveis chamamos de singulares.
Toda varivel aleatria pode ser decomposta em suas partes discreta, absoluta-
mente contnua, e singular. Neste texto no daremos nfase a esse tpico. O leitor
pode ler mais a respeito em [Jam04, pp. 44-48], e nas referncias ali citadas.
44 CAPTULO 2. VARIVEIS ALEATRIAS
2.5 Distribuio Condicional dado um Evento
Dado um evento A com P(A) > 0, denimos a funo de distribuio condicional
de X dado A
F
X
(t|A) = F
X|A
(t) = P(X t|A), t R.
Exemplo 2.5.1. Considere dois lanamentos de uma moeda honesta e seja X o
nmero de caras obtidas. Temos
F
X
(t) =
_

_
0, t < 0,
1
4
, 0 t < 1,
3
4
, 1 t < 2,
1, t 2.
Seja A o evento pelo menos uma moeda deu cara. Temos
F
X
(t|A) =
_

_
0, t < 1,
2
3
, 1 t < 2,
1, t 2.
Se X discreta, denimos ainda a funo de probabilidade condicional de X
dado A, p
X
( |A) ou p
X|A
( ), como a funo de probabilidade associada funo
de distribuio F
X
( |A). No exemplo acima, temos
p
X
(x|A) =
_

_
2
3
, x = 1,
1
3
, x = 2,
0, caso contrrio.
Se X absolutamente contnua, denimos a funo de densidade condicional
de X dado A, f
X
( |A) ou f
X|A
( ), como a densidade associada funo de
distribuio F
X
( |A).
2.6 Exerccios
Exerccio 2.6.1. Mostre que, se duas variveis aleatrias X e Y so iguais quase
certamente, isto , P(X = Y ) = 1, ento F
X
= F
Y
.
2.6. EXERCCIOS 45
Exerccio 2.6.2. Encontre os valores das constantes reais e de modo que a
funo F abaixo seja funo de distribuio acumulada de alguma varivel aleatria
denida em algum espao de probabilidade:
F(x) =
_
0, x 0,
+e
x
2
/2
, x > 0.
Exerccio 2.6.3. Seja X o nmero de caras obtidas em 4 lanamentos de uma
moeda honesta. Determine a funo de probabilidade de X. Desenhe o grco da
funo de distribuio da varivel aleatria X.
Exerccio 2.6.4. Se
f(t) =
_
e
3t
+c e
t
, t > 0,
0, t 0,
funo de densidade, ache c.
Exerccio 2.6.5. Se f(t) = c 3t
2
e
t
1
[0,2]
(t) funo de densidade, ache c.
Exerccio 2.6.6. Mostre que a funo de probabilidade do modelo de Poisson
de fato uma funo de probabilidade.
Exerccio 2.6.7. Perda de memria do modelo geomtrico.
1. Mostre que P(X m+n|X > n) = P(X m) para inteiros no-negativos,
se X segue o modelo geomtrico.
2. Se X segue o modelo geomtrico, prove que a distribuio de X dado que
X > n igual distribuio de X +n.
Exerccio 2.6.8. Mostre que a densidade do modelo uniforme contnuo de fato
uma funo de densidade.
Exerccio 2.6.9. Mostre que a distribuio do modelo exponencial de fato uma
distribuio. Calcule a densidade associada.
Exerccio 2.6.10. Seja X uma varivel aleatria em (, F, P) com distribuio
exponencial de parmetro > 0. Considere N = X, o menor inteiro maior ou
igual a X. Encontre a distribuio de N.
Exerccio 2.6.11. Uma pesquisa eleitoral determinou que a inteno de voto do
Candidato A de 46%, com margem de erro de 3%, para mais ou para menos.
46 CAPTULO 2. VARIVEIS ALEATRIAS
Ou seja, a inteno de voto desse candidato tem distribuio normal com mdia
= 46% e desvio-padro = 3%. Calcule a probabilidade de o Candidato A ter
mais de 50% das intenes de voto.
Exerccio 2.6.12. Uma caixa contm 10 parafusos, cujos tamanhos so normais
independentes, com mdia 21, 4 mm e desvio-padro 0, 5 mm. Calcule a probabili-
dade de que nenhum dos parafusos tenha mais de 22 mm.
Exerccio 2.6.13. Perda de memria do modelo exponencial.
1. Mostre que P(X > t + s|X > s) = P(X > t) para t, s 0 se X tem
distribuio exponencial.
2. Mostre que a distribuio de X dado que X > s igual distribuio de
X +s.
Exerccio 2.6.14. Se X exp() e Y = 5X, ache a distribuio acumulada de Y .
Ache a funo de distribuio condicional e a densidade condicional de Y dado
que X > 3.
Exerccio 2.6.15. [Jam04, Captulo 2]. Recomendados: 1, 5, 6, 7, 9, 10, 13, 14.
Captulo 3
Vetores Aleatrios
Imagine que queremos produzir duas variveis aleatrias com distribuio
Bernoulli(
1
2
). A forma mais natural seria lanar uma moeda duas vezes e considerar
o par X = (Z, W). Uma outra forma de faz-lo seria, por exemplo, lanar a moeda
apenas uma vez e copiar o resultado: Y = (Z, Z).
Em ambos os casos, produziu-se um par de variveis aleatrias distribudas como
Bernoulli(
1
2
). Entretanto, o comportamento conjunto dessas variveis aleatrias
bem diferente nos dois casos.
Neste captulo vamos estudar as principais propriedades dos vetores aleatrios,
isto , a combinao de muitas variveis aleatrias em que se considera seu
comportamento estatstico conjunto.
3.1 Vetores Aleatrios
Comeamos com um pouco de notao vetorial. x R
d
representa uma d-upla de
nmeros reais, x = (x
1
, x
2
, . . . , x
d
). Uma funo X em associa a cada uma
d-upla, i.e., um vetor X() = (X
1
(), X
2
(), . . . , X
d
()).
Denotamos por x y o conjunto de desigualdades x
i
y
i
, i = 1, . . . , d,
isto , x y se, e somente se, vale a desigualdade para todas as coordenadas
simultaneamente. Analogamente denotamos por x < y o conjunto de desigualdades
x
i
< y
i
, i = 1, . . . , d. Dados a b, denotamos por [a, b] o conjunto {x R
d
: a
x b}. Analogamente para (a, b], etc.
47
48 CAPTULO 3. VETORES ALEATRIOS
Denio 3.1.1 (Vetor aleatrio). Um vetor aleatrio X = (X
1
, . . . , X
d
)
uma funo X : R
d
tal que cada coordenada X
i
uma varivel aleatria.
Espao de probabilidade induzido e lei de um vetor aleatrio Como na
reta, a -lgebra de Borel no espao Euclidiano R
d
, denotada por B
d
, a menor
-lgebra que contm todos os octantes {x R
d
: x t}, t R
d
. Dado um
espao de probabilidade (, F, P) e um vetor aleatrio X, denimos o espao de
probabilidade induzido por X como (R
d
, B
d
, P
X
), onde
P
X
(B) = P
_
{ : X() B}
_
, B B
d
.
Ou seja, o espao amostral o conjunto dos vetores d-dimensionais, os eventos ale-
atrios so os conjuntos Borelianos, e a medida de probabilidade aquela induzida
por X. Chamaremos de lei do vetor aleatrio X a medida de probabilidade P
X
em R
d
induzida por X.
Funo de Distribuio Conjunta
Denio 3.1.2 (Funo de Distribuio Conjunta). A funo de distribuio
conjunta de um vetor aleatrio X, denotada por F
X
, uma funo F
X
: R
d

R dada por
F
X
(t) = P
_
X t
_
.
Exemplo 3.1.3. Lanamos duas moedas honestas e consideramos X
1
= quan-
tidade de caras, X
2
= 1 se os resultados forem iguais, 0 se forem diferentes, e
3.1. VETORES ALEATRIOS 49
X = (X
1
, X
2
). Temos ento
P(X t) =
_

_
0, t
1
< 0 ou t
2
< 0, pois [X t] = ;
0, t
1
, t
2
[0, 1), pois [X t] = [X
1
= 0, X
2
= 0] = ;
1
2
, t
1
1, t
2
[0, 1), pois [X t] = [X
1
= 1, X
2
= 0];
1
4
, t
1
[0, 1), t
2
1, pois [X t] = [X
1
= 0, X
2
= 0];
3
4
, t
1
[1, 2), t
2
1, pois [X t] = [X
1
= 0 ou 1];
1, t
1
2, t
2
1, pois [X t] = .
Os valores de F
X
so ilustrados na Figura 3.1.
t
1
t
2
1/4
1/2
3/4
1
1
1
2
0
Figura 3.1: Valores assumidos por F
X
(t
1
, t
2
) para cada (t
1
, t
2
) R
2
.
Considere o operador
i
a,b
sobre funes de R
d
em R, dado por
_

i
a,b
F
_
(x) = F(x
1
, . . . , x
i1
, b, x
i+1
, . . . , x
d
) F(x
1
, . . . , x
i1
, a, x
i+1
, . . . , x
d
).
Note que a funo
i
a,b
F no depende da i-sima coordenada de x.
Proposio 3.1.4. Para a b R
d
,
1
a
1
,b
1

d
a
d
,b
d
F
X
= P(a < X b).
Demonstrao. Para quaisquer x, a b, temos

d
a
d
,b
d
F
X
(x) = P(X
1
x
1
, . . . , X
d1
x
d1
, X
d
b
d
)
P(X
1
x
1
, . . . , X
d1
x
d1
, X
d
a
d
) =
= P(X
1
x
1
, . . . , X
d1
x
d1
, a
d
< X
d
b
d
),
50 CAPTULO 3. VETORES ALEATRIOS
e sucessivamente obtemos

j
a
j
,b
j

d
a
d
,b
d
F
X
(x) =
_

j
a
j
,b
j
_

j+1
a
j+1
,b
j+1

d
a
d
,b
d
F
X
__
(x) =
= P(X
1
x
1
, . . . , X
j1
x
j1
, X
j
b
j
, a
j+1
< X
j+1
b
j+1
, . . . , a
d
< X
d
b
d
)
P(X
1
x
1
, . . . , X
j1
x
j1
, X
j
a
j
, a
j+1
< X
j+1
b
j+1
, . . . , a
d
< X
d
b
d
) =
= P(X
1
x
1
, . . . , X
j1
x
j1
, a
j
< X
j
b
j
, . . . , a
d
< X
d
b
d
).
Tomando j = 1 temos

1
a
1
,b
1

d
a
d
,b
d
F
X
(x) = P(a
1
< X
1
b
1
, . . . , a
d
< X
d
b
d
).
Proposio 3.1.5 (Propriedades da Funo de Distribuio Conjunta). Se X
um vetor aleatrio em (, F, P), ento sua funo de distribuio F
X
goza
das seguintes propriedades:
1. F
X
no-decrescente em cada uma de suas coordenadas.
2. F
X
contnua direita em cada uma de suas coordenadas.
3. Se (x
k
)
k
tal que, para algum j, x
k
j
, ento F
X
(x) 0.
4. Se (x
k
)
k
tal que, para todo j, x
k
j
+, ento F
X
(x) 1.
5. Para a b R
d
,
1
a
1
,b
1

d
a
d
,b
d
F
X
0.
Demonstrao. Feita em aula.
Contra-Exemplo 3.1.6. Considere a seguinte funo:
F(x, y) =
_
1, x 0, y 0, x +y 1,
0, caso contrrio.
Ento
1
0,1

2
0,1
F = F(1, 1) F(1, 0) F(0, 1) +F(0, 0) = 1 1 1 +0 = 1 < 0.
Portanto, F no pode ser funo de distribuio conjunta, ainda que satisfaa as
Propriedades 14.
Funo de distribuio marginal
A partir da funo de distribuio conjunta, pode-se obter o comportamento de
cada varivel isoladamente.
3.2. TIPOS DE VETORES ALEATRIOS 51
A funo de distribuio de uma das coordenadas do vetor X denominada
funo de distribuio marginal e obtida da seguinte forma:
F
X
j
(x
j
) = lim
x
i

i=j
F
X
(x
1
, . . . , x
d
),
em que o limite aplicado em todas as coordenadas, exceto j.
Demonstrao. Feita em aula.
Exemplo 3.1.7. No Exemplo 3.1.3, temos
F
X
1
(t) =
_

_
0, t < 0,
1
4
, 0 t < 1,
3
4
, 1 t < 2,
1, t 2,
F
X
2
(t) =
_

_
0, t < 0,
1
2
, 0 t < 1,
1, t 1.
3.2 Tipos de Vetores Aleatrios
Os principais tipos de vetores aleatrios so o discreto, o absolutamente contnuo,
e o misto com componentes discreta e absolutamente contnua. Porm, h muitos
exemplos de vetores aleatrios que no so de nenhum desses tipos, e esses exemplos
no so to articiais como as variveis aleatrias singulares.
Vetores Aleatrios Discretos
Denio 3.2.1. Dizemos que um vetor aleatrio X, sua funo de distri-
buio F
X
e sua lei P
X
so discretos se existem {x
1
, x
2
, x
3
, . . . } tais que
P
_
X {x
1
, x
2
, x
3
, . . . }
_
= 1. Neste caso, a funo de probabilidade de X
dada por
p
X
(x) = P
_
X = x
_
.
52 CAPTULO 3. VETORES ALEATRIOS
Um vetor aleatrio X discreto se e somente se suas coordenadas X
1
, . . . , X
d
so
discretas. Uma funo p() satisfazendo

x
p(x) = 1 e p(x) 0, x R
d
chamada funo de probabilidade conjunta.
Funo de probabilidade marginal A funo de probabilidade marginal
de uma varivel X
i
obtida somando-se nas demais variveis:
p
X
i
(x
i
) = P(X
i
= x
i
) =

x
1

x
i1

x
i+1

x
d
p(x
1
, . . . , x
i1
, x
i
, x
i+1
, . . . , x
d
).
Demonstrao. Feita em aula.
Exerccio 3.2.2. No Exemplo 3.1.3, obtenha a funo de probabilidade de X, e
as funes de probabilidade marginais de X
1
e X
2
.
Vetores Aleatrios Absolutamente Contnuos
Denio 3.2.3. Dizemos que um vetor aleatrio X, sua funo de distri-
buio F
X
e sua lei P
X
so absolutamente contnuos se existe f
X
() 0 tal
que
P(X B) =
_
B
f
X
(x) d
d
x B B
d
.
Neste caso, dizemos que f
X
a funo de densidade conjunta de X, ou
simplesmente densidade de X.
Uma funo f() satisfazendo
f(x) 0, x R
d
e
_
R
d
f(x) d
d
x = 1
3.2. TIPOS DE VETORES ALEATRIOS 53
chamada funo de densidade conjunta.
A funo de distribuio conjunta F
X
pode ser calculada integrando-se a funo
de densidade conjunta f
X
em cada coordenada, e esta sempre pode ser calculada
derivando-se aquela tambm em cada coordenada, isto ,
F
X
(t) =
_
t
1


_
t
d

f
X
(x) dx
d
dx
1
,
f
X
(x) =

d
x
1
x
d
F
X
(x
1
, . . . , x
d
).
Exemplo 3.2.4. Seja G R
d
uma regio tal que Vol G > 0, onde Vol G o volume
d-dimensional de G. Dizemos que X = (X
1
, X
2
, . . . , X
d
) com funo de densidade
f
X
(x
1
, . . . , x
d
) =
_
1
Vol G
, (x
1
, . . . , x
d
) G
0, (x
1
, . . . , x
d
) / G
uniformemente distribudo em G.
Observao 3.2.5. Se um vetor aleatrio X absolutamente contnuo, ento
suas coordenadas X
1
, . . . , X
d
so absolutamente contnuas, mas no vale a
recproca! De fato, muito fcil construir um vetor aleatrio contnuo que no
absolutamente contnuo.
Exerccio 3.2.6. Seja X U[0, 1], Y = 1 X e X = (X, Y ). Encontre
a funo de distribuio conjunta F
X
(x, y). Verique que

2
yx
F
X
(x, y) = 0
para todo par (x, y) no plano R
2
, exceto em algumas retas ou segmentos de
reta.
1
As coordenadas de X so absolutamente contnuas, mas o vetor X no
absolutamente contnuo!
1
Dizemos que um Boreliano A B
d
pequeno, isto , tem medida zero, se, para todo > 0,
existe uma sequncia de paraleleppedos (a
j
, b
j
) cuja unio contenha A e cujo tamanho total seja
pequeno, isto ,

j=1
(b
j
1
a
j
1
) (b
j
d
a
j
d
) . Por exemplo, se A = {(x, y) : x > 0, y = 0}
uma semi-reta no plano, ento podemos tomar a sequncia (j 1, j) (2
j1
, 2
j1
). Essa
sequncia contm a semi-reta A e seu tamanho total exatamente .
54 CAPTULO 3. VETORES ALEATRIOS
Densidade marginal A densidade de uma varivel X
i
chamada densidade
marginal, e pode ser calculada por
f
X
i
(x
i
) =
_
+


_
+

. .
d1 vezes
f(x
1
, . . . , x
i
, . . . , x
d
) dx
1
dx
d
. .
exceto x
i
.
Demonstrao. Feita em aula.
Exerccio 3.2.7. Sejam trs variveis aleatrias X, Y e Z com funo de densidade
conjunta dada por
f(x, y, z) =
_
kxy
2
z, se 0 < x 1, 0 < y 1 e 0 < z

2
0, caso contrrio
Encontre o valor de k e ache a funo de densidade marginal de X.
Vetores Aleatrios Mistos
Como no caso uni-dimensional, dizemos que um vetor aleatrio X do tipo misto
com componentes discreta e absolutamente contnua se existem p
X
e f
X
tais que
P(X B) =

xB
p
X
(x) +
_
B
f
X
(x) d
d
x B B
d
.
3.3 Independncia de Variveis Aleatrias
Denio 3.3.1 (Variveis Aleatrias Independentes). Dizemos que as vari-
veis aleatrias X
1
, X
2
, . . . , X
d
em (, F, P) so coletivamente independentes,
ou simplesmente independentes, se
P(X
1
B
1
, . . . , X
d
B
d
) = P(X
1
B
1
) P(X
d
B
d
)
3.3. INDEPENDNCIA DE VARIVEIS ALEATRIAS 55
para quaisquer B
1
, . . . , B
d
B. Se I uma famlia qualquer de ndices, dizemos
que (X
i
)
iI
so coletivamente independentes se X
i
1
, . . . , X
i
n
so independentes
para todo n N e i
1
, . . . , i
n
I.
Dada uma famlia de variveis aleatrias independentes, qualquer subfamlia
tambm formada por variveis aleatrias independentes.
Muitas vezes vamos considerar uma famlia de variveis aleatrias que, alm de
serem independentes, tm a mesma distribuio, o que chamamos de independentes
e identicamente distribudas, ou simplesmente i.i.d.
Proposio 3.3.2 (Critrio de Independncia). So equivalentes:
(i) X
1
, X
2
, . . . , X
d
so independentes.
(ii) F
X
(t) = F
X
1
(t
1
)F
X
2
(t
2
) F
X
d
(t
d
) para todo t R
d
.
(iii) F
X
(t) = F
1
(t
1
)F
2
(t
2
) F
d
(t
d
) para todo t R
d
, com F
1
, . . . , F
d
funes
reais.
Ideia da prova. (i) (ii) (iii) so triviais. Suponha (iii). Calculando a
marginal temos
F
X
i
(x
i
) = lim
x
j

j=i
F
X
(x) = F
i
(x
i
)

j=i
lim
x
j

F
j
(x
j
) = c
i
F
i
(x
i
),
onde c
i
= 0 pois F
X
i
no pode ser uma funo constante. Assim,
F
X
(x
1
, . . . , x
d
) =
1
c
1
c
d
F
X
1
(x
1
) F
X
d
(x
d
).
Fazendo x
i
i, temos que c
1
c
d
= 1, portanto (iii) (ii).
Assumindo (ii), vamos mostrar (iii) supondo que os B
i
so unies de intervalos
disjuntos. Observe que se B
i
= (a
i
, b
i
] para i = 1, . . . , d, temos
P(X
1
B
1
, . . . , X
d
B
d
) =
1
a
1
,b
1

d
a
d
,b
d
F
X
(x)
=
1
a
1
,b
1

d
a
d
,b
d
[F
X
1
(x
1
) F
X
d
(x
d
)]
= [
1
a
1
,b
1
F
X
1
(x
1
)] [
d
a
d
,b
d
F
X
d
(x
d
)]
= P(X
1
B
1
) P(X
d
B
d
).
56 CAPTULO 3. VETORES ALEATRIOS
A mesma identidade se estende para B
i
= [a
i
, b
i
] tomando-se o limite a a
i
,
analogamente para intervalos abertos ou semi-innitos, e por linearidade vale para
unies de intervalos disjuntos. A extenso a todo B
i
B envolve argumentos de
Teoria da Medida e ser omitida.
Proposio 3.3.3 (Critrio de Independncia. Caso Discreto). Seja X um
vetor aleatrio discreto. So equivalentes:
(i) X
1
, X
2
, . . . , X
d
so independentes.
(ii) p
X
(t) = p
X
1
(t
1
)p
X
2
(t
2
) p
X
d
(t
d
) para todo t R
d
.
(iii) p
X
(t) = p
1
(t
1
)p
2
(t
2
) p
d
(t
d
) para todo t R
d
, com p
1
, . . . , p
d
funes
reais.
Demonstrao. (i) (ii) (iii) so triviais. Suponha (iii). Para x
i
tal que
p
X
i
(x
i
) > 0, calculando a marginal temos
p
X
i
(x
i
) =

x
j

x
i1

x
i+1

x
d
p
X
(x) = p
i
(x
i
)

j=i

x
j
p
j
(x
j
) = c
i
p
i
(x
i
),
onde c
i
= 0. Assim,
p
X
(x
1
, . . . , x
d
) =
1
c
1
c
d
p
X
1
(x
1
) p
X
d
(x
d
).
Somando em x, temos que c
1
c
d
= 1, portanto (iii) (ii).
Suponha (ii). Temos que
P(X
1
B
1
, . . . , X
d
B
d
) =

x
1
B
1

x
d
B
d
p
X
(x) =
=
_

x
1
B
1
p
X
1
(x
1
)
_

_

x
d
B
d
p
X
d
(x
d
)
_
= P(X
1
B
1
) P(X
d
B
d
),
e portanto (ii) (i).
3.3. INDEPENDNCIA DE VARIVEIS ALEATRIAS 57
Proposio 3.3.4 (Critrio de Independncia. Caso Contnuo). Seja X um
vetor aleatrio absolutamente contnuo. So equivalentes:
(i) X
1
, X
2
, . . . , X
d
so independentes.
(ii) f
X
(t) = f
X
1
(t
1
)f
X
2
(t
2
) f
X
d
(t
d
) para todo t R
d
.
(iii) f
X
(t) = f
1
(t
1
)f
2
(t
2
) f
d
(t
d
) para todo t R
d
, com f
1
, . . . , f
d
funes
reais.
Demonstrao. (i) (ii) (iii) so triviais. Suponha (iii). Para B
i
B tal que
P(X
i
B
i
) > 0,
P
X
i
(B
i
) =
_
R
d
1
B
i
(x
i
)f
X
(x) d
d
x =
_
B
i
f
i
(x
i
)dx
i

j=i
_
R
f
j
(x
j
) dx
j
= c
i
_
B
i
f
i
(x
i
)dx
i
,
onde c
i
= 0. Logo, f
X
i
(x
i
) = c
i
f
i
(x
i
) para todo x
i
R. Assim,
f
X
(x
1
, . . . , x
d
) =
1
c
1
c
d
f
X
1
(x
1
) f
X
d
(x
d
).
Integrando em R
d
, temos que c
1
c
d
= 1, portanto (iii) (ii).
Suponha (ii). Temos que
P(X
1
B
1
, . . . , X
d
B
d
) =
_
B
1
B
d
f
X
(x) d
d
x =
=
__
B
1
f
X
1
(x
1
) dx
1
_

__
B
d
f
X
d
(x
d
) dx
d
_
= P(X
1
B
1
) P(X
d
B
d
),
e portanto (ii) (i).
Denio 3.3.5 (Variveis Aleatrias Independentes Duas a Duas). Se I
uma famlia qualquer de ndices, dizemos que (X
i
)
iI
so duas a duas
independentes se X
i
e X
j
so independentes para quaisquer i = j I.
Segue das denies que uma famlia de variveis aleatrias coletivamente
independentes tambm independente duas a duas. Entretanto no vale a
recproca.
58 CAPTULO 3. VETORES ALEATRIOS
Contra-Exemplo 3.3.6. Sejam X e Y independentes assumindo os valores 1
ou +1 com probabilidade
1
2
cada, e tome Z = XY . Ento temos
p
X,Y,Z
(x, y, z) =
_
1
4
, (x, y, z) = (1, 1, 1), (1, 1, 1), (1, 1, 1), (1, 1, 1),
0, caso contrrio.
Ento X, Y e Z no so coletivamente independentes, pois
p
X,Y,Z
(1, 1, 1) =
1
4
=
1
8
= p
X
(1)p
Y
(1)p
Z
(1).
Entretanto, X, Y e Z so duas a duas independentes.
3.4 Mtodo do Jacobiano
Suponha que o vetor aleatrio X absolutamente contnuo e assume valores em
um domnio G
0
R
d
, e que estamos interessados em estudar o vetor aleatrio Y
dado por uma transformao Y = g(X). Vamos considerar o caso em que
g : G
0
G, G R
d
, bijetiva e diferencivel, com inversa g
1
= h : G G
0
tambm diferencivel. Escrevemos a transformada inversa como X = h(Y ) e
denimos os Jacobianos:
J
h
(y) = det
_
x
y
_
= det
_

_
x
1
y
1

x
1
y
d
.
.
.
.
.
.
.
.
.
x
d
y
1

x
d
y
d
_

_
e
J
g
(x) = det
_
y
x
_
= det
_

_
y
1
x
1

y
1
x
d
.
.
.
.
.
.
.
.
.
y
d
x
1

y
d
x
d
_

_
.
O Jacobiano satisfaz a seguinte identidade:
J
h
(y) =
1
J
g
(x)
.
3.4. MTODO DO JACOBIANO 59
Proposio 3.4.1 (Mtodo do Jacobiano). Sejam G
0
, G R
d
, g : G
0
G
uma bijeo e h = g
1
, e suponha que g e h sejam diferenciveis. Se X um
vetor aleatrio absolutamente contnuo assumindo valores em G
0
, e Y = g(X),
ento a densidade f
Y
pode ser obtida a partir da densidade f
X
pela relao
f
Y
(y) =

J
h
(y)

f
X
_
h(y)
_
=
1
|J
g
(x)|
f
X
_
h(y)
_
.
Ideia da prova. Pelo clculo de vrias variveis, sabemos que se o jacobiano for
no-nulo para todo y G, ento
_
A
f(x) d
d
x =
_
g(A)
f(h(y)) |J
h
(y)| d
d
y
para qualquer f integrvel em A, onde A G
0
. Como P(Y g(A)) dada por
P(X A), e esta ltima dada pelo lado esquerdo da expresso acima comf = f
X
,
temos que o integrando do lado direito necessariamente dado por f
Y
(y).
Exemplo 3.4.2. Considere o vetor aleatrio X = (X
1
, X
2
) com densidade
f
X
(x
1
, x
2
) =
_
4x
1
x
2
, x
1
, x
2
[0, 1],
0, caso contrrio,
e o vetor Y dado por Y
1
= X
1
/X
2
, Y
2
= X
1
X
2
. Temos y = h(x) = (x
1
/x
2
, x
1
x
2
)
e
y
x
=
_
1/x
2
x
1
/x
2
2
x
2
x
1
_
e J
g
(x) = 2x
1
/x
2
. Obtendo x em funo de y:
y
1
= x
1
/x
2
y
1
y
2
= x
2
1
y
1
= x
1
=

y
1
y
2
y
2
= x
1
x
2
y
2
/y
1
= x
2
2
y
2
= x
2
=
_
y
2
/y
1
,
e os valores possveis de y so
G =
_
(y
1
, y
2
) : 0 < y
2
< y
1
, 0 < y
2
<
1
y
1
_
.
60 CAPTULO 3. VETORES ALEATRIOS
Agora,
J
g
(h(y)) =
2
_
y
1
y
2
_
y
2
/y
1
= 2y
1
e
f
X
(h(y)) = 4
_
y
1
y
2
_
y
2
/y
1
= 4y
2
.
Portanto,
f
Y
(y) =
1
|J
g
(x)|
f
X
_
h(y)
_
=
_
2y
2
/y
1
, 0 < y
2
< 1, y
2
< y
1
< 1/y
2
,
0, caso contrrio.
Exerccio 3.4.3. Sejam X e Y variveis aleatrias independentes, cada uma com
distribuio exponencial com parmetro 1, mostre que Z = X + Y e W =
X
Y
so
tambm independentes com densidades
f
Z
(z) =
_
ze
z
, z > 0
0, z 0
e
f
W
(w) =
_
1
(w+1)
2
, w > 0
0, w 0
.
Exemplo 3.4.4. Se X e Y so independentes e distribudas como N(0, 1), ento
X +Y e X Y so independentes e ambas distribudas como N(0, 2).
Ponha Z = (X, Y ) e W = (X + Y, X Y ). Temos que W = g(Z), onde
g(x, y) = (x +y, x y). Logo,
w
z
=
_
1 1
1 1
_
,
assim J
g
(z) = 2. Obtendo z como funo de w:
w
1
= x +y x =
w
1
+w
2
2
w
2
= x y y =
w
1
w
2
2
.
Ainda,
f
Z
(z) = f
X,Y
(x, y) = f
X
(x)f
Y
(y) =
1

2
e
x
2
2

2
e
y
2
2
,
3.5. EXERCCIOS 61
logo
f
Z
(h(w)) =
1
2
e

(
w
1
+w
2
2
)
2
2
e

(
w
1
w
2
2
)
2
2
=
e

w
2
1
+w
2
2
+2w
1
w
2
+w
2
1
+w
2
2
2w
1
w
2
8
2
=
1
2
e
w
2
1
4
e
w
2
2
4
e, substituindo,
f
W
(w) =
1
|J
g
(h(w))|
f
Z
(h(w)) =
1
4
e
w
2
1
4
e
w
2
2
4
= f
N(0,2)
(w
1
)f
N(0,2)
(w
2
).
Portanto, W
1
e W
2
so independentes e distribudas como N(0, 2).
Exerccio 3.4.5. Se X e Y so independentes e distribudas como N(0, 1), ento
4X + 3Y e 3X 4Y so independentes e ambas distribudas como N(0, 25).
3.5 Exerccios
Exerccio 3.5.1. Considere um vetor aleatrio (X, Y ) absolutamente contnuo
com distribuio uniforme em
A =
_
(x, y) R
2
: 0 < y < x e x +y < 1
_
.
Encontre F
X,Y
.
Exerccio 3.5.2. Considere um vetor aleatrio (Z, W) absolutamente contnuo
com densidade
f
Z,W
(z, w) =
_
c, 0 < z < 1, 0 < w < z,
0, caso contrrio.
Encontre F
Z,W
.
Exerccio 3.5.3. Sejam Y e U duas variveis aleatrias em um mesmo espao
de probabilidade, independentes e com leis Y N(0, 1) e P(U = 1) = P(U =
+1) =
1
2
. Ache a lei de Z = UY .
Dica: estudar diretamente a funo de distribuio acumulada.
Exerccio 3.5.4.
(a) A densidade conjunta de X e Y dada por
f(x, y) =
_
c e
y
x
3
, x > 1, y > 0
0, caso contrrio.
Encontre c. Diga se X e Y so independentes e por qu.
62 CAPTULO 3. VETORES ALEATRIOS
(b) Suponha que (X, Y ) um vetor aleatrio absolutamente contnuo com funo
de distribuio conjunta dada por
F
XY
(x, y) =
_
1 e
x
+e
xy
xe
x
e
y
+xe
xy
, x, y > 0
0, caso contrrio.
Encontre a densidade conjunta f
XY
e diga se X e Y so independentes.
(c) Com X e Y dadas no item anterior, encontre a distribuio marginal F
Y
.
Exerccio 3.5.5. Sejam X e Y variveis aleatrias discretas e independentes.
Mostre que
p
X+Y
(t) =

s
p
X
(s) p
Y
(t s).
Sugesto: particione segundo o valor de X.
Exerccio 3.5.6. Mostre por induo nita que, se X
1
, X
2
, . . . , X
n
so variveis
aleatrias independentes com X
i
b(m
i
, p), i = 1, 2, . . . , n, ento
n

i=1
X
i
b
_
n

i=1
m
i
, p
_
.
Dica:
_
a+b
n
_
=

n
k=0
_
a
k
__
b
nk
_
.
Exerccio 3.5.7. Se X e Y so independentes e distribudas respectivamente como
Poisson(
1
) e Poisson(
2
), mostre que
X +Y Poisson(
1
+
2
).
Dica: (a +b)
k
=

k
j=0
_
k
j
_
a
j
b
kj
.
Exerccio 3.5.8. Sejam X e Y variveis aleatrias denidas no mesmo espao
de probabilidade, independentes, discretas e com distribuies Poisson(
1
) e
Poisson(
2
), respectivamente. Mostre que, dada a ocorrncia do evento [X +Y =
n], a probabilidade condicional de X = k
P(X = k|X +Y = n) =
_
n
k
__

1

1
+
2
_
k
_

2

1
+
2
_
nk
.
Como voc interpreta essa identidade?
3.5. EXERCCIOS 63
Exerccio 3.5.9. O nmero X de uvas-passas encontradas em um panetone tem
distribuio Poisson(). O panetone, estando com a data de validade vencida
h alguns meses, pode ter uvas-passas estragadas. Cada uva-passa pode estar
estragada independente das demais, com probabilidade p. Encontre a distribuio
do nmero de uvas-passas estragadas e calcule a probabilidade de no haver
nenhuma estragada.
Exerccio 3.5.10. Sejam X e Y variveis aleatrias independentes, ambas com
distribuio exp(1). Use o mtodo do Jacobiano para determinar a distribuio
conjunta de X +Y e
X
X+Y
. Diga se X +Y e
X
X+Y
so independentes. Encontre a
distribuio de
X
X+Y
.
Exerccio 3.5.11. Sejam X e Y i.i.d. absolutamente contnuas com densidade f.
Mostre que
f
X+Y
(t) =
_
R
f(t s)f(s) ds t R.
Sugesto: faa Z = X +Y e W = Y , e calcule a densidade conjunta de Z e W.
Exerccio 3.5.12. [Jam04, Captulo 2].
Recomendados: 2, 17, 18, 21, 30, 33, 34, 41, 46.
64 CAPTULO 3. VETORES ALEATRIOS
Captulo 4
Esperana Matemtica
A esperana EX de uma varivel aleatria X a mdia dos valores assumidos
por X, ponderada pela probabilidade de X assumir esses valores. Podemos pensar
em EX como sendo o centro de massa de X. A esperana de X , em vrios
sentidos, a melhor aproximao determinstica para a varivel aleatria X. Uma
das justicativas mais importantes, que veremos mais adiante, a lei dos grandes
nmeros: se X
1
, . . . , X
n
so independentes e tm a mesma distribuio de X, ento
a mdia amostral
1
n

n
i=1
X
i
se aproxima de EX quando fazemos n grande.
4.1 Variveis Aleatrias Simples
Uma varivel aleatria X dita simples se assume apenas nitos valores.
Denio 4.1.1. Dada uma varivel aleatria simples X, denimos a espe-
rana de X, ou mdia de X, ou ainda o valor esperado de X, denotada por
EX, por
EX =

x
x P(X = x).
A esperana de X pode ser pensada como o centro de massa da varivel
aleatria X, como ilustrado na Figura 4.1.
65
66 CAPTULO 4. ESPERANA MATEMTICA
Exemplo 4.1.2. Lanar um dado e observar sua face superior. Temos
EX = 1.P(X = 1) + + 6.P(X = 6) =
1
6
+
2
6
+ +
6
6
=
21
6
=
7
2
.
Exemplo 4.1.3. Lanar uma moeda 4 vezes e contar quantas vezes saem cara.
Temos
EX = 0
1
16
+ 1
4
16
+ 2
6
16
+ 3
4
16
+ 4
1
16
=
32
16
= 2.
Exemplo 4.1.4. Seja X dada por X = 1
A
para algum A F. Nesse caso temos
EX = 0.P(A
c
) + 1.P(A) = P(A). Ou seja, se X Bernoulli(p) ento EX = p.
EX
x
p
X
(x)
Figura 4.1: A esperana de X como o centro de massa de p
X
.
Sejam a
1
, . . . , a
k
os valores assumidos por X. Observe que os eventos aleatrios
A
i
= [X = a
i
] F formam uma partio de , logo cada pertence a um, e
somente um, dos A
1
, . . . , A
k
, ou seja,

i
1
A
i
() = 1 . Portanto, a menos
de permutao dos ndices, existe uma nica forma de escrever
X =

i
a
i
1
A
i
com a
i
= a
j
i = j e A
1
, . . . , A
k
formando uma partio de . Ademais,
EX =

i
a
i
P(A
i
).
Outra interpretao de EX vem dos jogos em cassinos. Sejam X o resultado
que se ganha em um dado jogo, e a
1
, . . . , a
k
os possveis valores. Suponhamos
tambm que jogaremos esse jogo n vezes, e denotamos o resultado de cada jogada
por X
1
, . . . , X
n
, independentes e com a mesma distribuio de X. A noo intuitiva
de probabilidade como frequncia relativa diz que a proporo dentre essas n
repeties em que o resultado a
i
se aproxima de P(X = a
i
) para n grande,
ou seja,
1
n

n
j=1
1
[X
j
=a
i
]
P(X = a
i
). Dessa forma, para o ganho total dividido
pelo nmero de jogadas,
1
n

n
j=1
X
j
, temos
1
n
n

j=1
X
j
=
1
n
n

j=1
k

i=1
a
i
1
[X
j
=a
i
]
=
k

i=1
a
i
_
1
n
n

j=1
1
[X
j
=a
i
]
_

i=1
a
i
P(X = a
i
) = EX.
4.1. VARIVEIS ALEATRIAS SIMPLES 67
Proposio 4.1.5. Sejam X e Y variveis aleatrias simples.
(i) Se X 0 ento EX 0.
(ii) Se X = c ento EX = c.
(iii) E[aX +bY ] = aEX +bEY .
(iv) Se X Y ento EX EY .
Demonstrao. Os itens (i) e (ii) so triviais, e (iv) segue de (iii) e (i) se tomamos
Z = X Y . Resta provar (iii).
Primeiro vamos vericar que se X = a
1
1
A
1
+ + a
n
1
A
n
, onde A
1
, . . . , A
n
formam uma partio, ento EX =

i
a
i
P(A
i
), mesmo que alguns a
i
coincidam.
Com efeito, primeiro escrevemos X =

j
c
j
1
C
j
onde os c
j
so distintos e
C
1
, . . . , C
k
formam uma partio. Observe que para todo j = 1, . . . , k, C
j
= [X
j
=
c
j
] = {A
i
: a
i
= c
j
}. Usando a denio de esperana e agrupando corretamente
os termos dos somatrios, temos
EX =
k

j=1
c
j
P(C
j
) =
k

j=1
c
j

i:a
i
=c
j
P(A
i
) =
k

j=1

i:a
i
=a

j
a
i
P(A
i
) =
n

i=1
a
i
P(A
i
).
Agora sejam X e Y variveis aleatrias simples dadas por X =

i
a
i
1
A
i
e
Y =

j
b
j
1
B
j
, onde A
1
, . . . , A
k
particionam e B
1
, . . . , B
n
tambm. Temos
aX +bY = a

i
a
i
1
A
i

j
1
B
j
+b

j
b
i
1
B
j

i
1
A
i
=

i,j
(aa
i
+bb
j
)1
A
i
B
j
.
Mas {A
i
B
j
: i = 1, . . . , n; j = 1, . . . , m} forma uma partio de , e portanto
E[aX +bY ] =

i,j
(aa
i
+bb
j
)P(A
i
B
j
)
=

i,j
aa
i
P(A
i
B
j
) +

i,j
bb
j
P(A
i
B
j
)
=

i
aa
i

j
P(A
i
B
j
) +

j
bb
j

i
P(A
i
B
j
)
=

i
aa
i
P(A
i
) +

j
bb
j
P(B
j
)
= a

i
a
i
P(A
i
) +b

j
b
j
P(B
j
) = aEX +bEY.
68 CAPTULO 4. ESPERANA MATEMTICA
Exemplo 4.1.6. No Exemplo 4.1.3, temos X = X
1
+ X
2
+ X
3
+ X
4
, onde X
i
representa o lanamento da i-sima moeda. Logo EX = EX
1
+ EX
2
+ EX
3
+
EX
4
= 4.
1
2
= 2.
Exemplo 4.1.7. Lanar um dado duas vezes e somar os valores observados. Temos
EX = 2
1
36
+3
2
36
+4
3
36
+5
4
36
+6
5
36
+7
6
36
+8
5
36
+9
4
36
+10
3
36
+11
2
36
+12
1
36
=
252
36
= 7.
Alternativamente, observamos que X = Y +Z, onde Y e Z representam o primeiro
e segundo lanamento do dado. Logo
EX = EY +EZ =
7
2
+
7
2
= 7.
Exemplo 4.1.8. Retirar 3 cartas de um baralho francs e contar quantas so reis.
EX = 0
48.47.46
52.51.50
+ 1
3.48.47.4
52.51.50
+ 2
3.48.4.3
52.51.50
+ 3
4.3.2
52.51.50
=
30600
132600
=
3
13
.
Alternativamente, observamos que X = X
1
+ X
2
+ X
3
, onde X
i
o indicador de
que a i-sima carta retirada rei, e que, apesar da inuncia que cada X
i
possa
ter sobre as demais, cada uma individualmente satisfaz EX
i
=
1
13
. Logo
EX = EX
1
+EX
2
+EX
3
= 3
1
13
.
Exemplo 4.1.9. Em geral, se X b(n, p), ento
EX =
n

k=0
k
_
n
k
_
p
k
(1 p)
nk
=
n

k=1
k
n!
k!(n k)!
p
k
(1 p)
nk
= np
n

k=1
(n 1)!
(k 1)!(n k)!
p
k1
(1 p)
nk
= np
n1

j=0
(n 1)!
j!(n 1 j)!
p
j
(1 p)
n1j
= np[p + (1 p)]
n1
= np.
Alternativamente, X tem a mesma distribuio de X
1
+ + X
n
, com X
i
i.i.d.
Bernoulli(p), e portanto
EX = EX
1
+ +EX
n
= (p + +p) = np.
4.2. ESPERANA MATEMTICA 69
Proposio 4.1.10. Se X e Y so simples e independentes, ento
E[XY ] = EX EY.
Demonstrao. Fazendo A
i
= [X = a
i
] e B
j
= [Y = b
j
], temos
E[XY ] = E
__

i
a
i
1
A
i
__

j
b
j
1
B
j
__
= E
_

i,j
a
i
b
j
1
A
i
1
B
j
_
= E
_

i,j
a
i
b
j
1
A
i
B
j
_
=

i,j
a
i
b
j
E[1
A
i
B
j
] =

i,j
a
i
b
j
P(A
i
B
j
)
=

i,j
a
i
b
j
P(A
i
)P(B
j
) =
_

i
a
i
P(A
i
)
__

j
b
j
P(B
j
)
_
= EX EY.
Exemplo 4.1.11. Lanar um dado duas vezes e multiplicar os valores observados.
EX =
1
36
_
1.1 + 2.2 + 3.2 + 4.3 + 5.2 + 6.4 + 8.2 + 9.1 + 10.2 + 12.4+
+ 15.2 + 16.1 + 18.2 + 20.2 + 24.2 + 25.1 + 30.2 + 36.1
_
=
441
36
=
49
4
.
Alternativamente, observamos que X = Y Z, onde Y e Z representam o primeiro e
segundo lanamento do dado. Logo EX = EY EZ =
7
2

7
2
=
49
4
.
4.2 Esperana Matemtica
Nesta seo denimos a esperana de uma varivel aleatria qualquer. Comeamos
pelas variveis aleatrias no-negativas, que por sua vez so aproximadas por
variveis aleatrias simples.
Aproximao por Variveis Aleatrias Simples
Primeiro observamos que qualquer varivel aleatria no-negativa X pode ser
aproximada por variveis aleatrias simples. De fato, considere g
k
: R
+
R
+
dada por
g
k
(x) = 2
k
max
_
j {0, 1, . . . , 2
k
k}

2
k
j x
_
,
70 CAPTULO 4. ESPERANA MATEMTICA
ilustrada na Figura 4.2.
Observe que g
k
assume no mximo 2
k
k + 1 valores. Alm disso,
g
k
(x) g
k1
(x)
e
x 2
k
< g
k
(x) x para todo k x.
Portanto, para todo x 0,
g
k
(x) x quando k .
g
1
(x)
g
2
(x)
g
3
(x)
g
2
(y)
x
x
y
Figura 4.2: Grco de g
2
(y) e aproximao de g
k
(x) x para um x xado.
Tomando X
k
= g
k
(X), temos que X
k
uma varivel aleatria simples e X
k

X para todo . Veja a Figura 4.3.
Denio da Esperana
A esperana de uma varivel aleatria no-negativa denida aproximando-se por
variveis aleatrias simples.
Denio 4.2.1. Seja X uma varivel aleatria tal que X 0. Denimos a
esperana de X por
EX = sup {EZ : Z varivel aleatria simples com 0 Z X}.
4.2. ESPERANA MATEMTICA 71

X()
g
1
(X())
g
2
(X())
Figura 4.3: Aproximao de X por g
1
(X) e g
2
(X).
Para denir a esperana no caso geral, observe que uma varivel aleatria
sempre pode ser decomposta em suas partes positiva e negativa. De fato, temos
X = X
+
X

,
onde
X
+
=
_
X, X 0,
0, X 0,
X

=
_
X, X 0,
0, X 0,
satisfazem X
+
0 e X

0. Observe tambm que |X| = X


+
+X

.
Denio 4.2.2 (Esperana de uma Varivel Aleatria). Seja X uma varivel
aleatria. Denimos a esperana de X por
EX = EX
+
EX

sempre que EX
+
ou EX

for nita.
Denio 4.2.3. Dizemos que X integrvel se ambas EX
+
e EX

so nitas.
A denio de esperana parecida com a denio de integral. A rea sob a
curva do grco de uma funo g : R R
+
constante por partes dada pela soma
de reas de retngulos, e cada uma dessas reas dada pelo comprimento da base
do respectivo retngulo multiplicado por sua altura. Por outro lado, a esperana
de uma varivel aleatria simples X : R
+
dada pela soma da contribuio
72 CAPTULO 4. ESPERANA MATEMTICA
de cada um dos seus valores, e a contribuio de cada valor dada pelo prprio
valor multiplicado por sua respectiva probabilidade. Para uma funo g : R R
+
qualquer, a integral
_
x
g(x)dx equivale noo de rea sob a curva do seu grco,
e denida a partir de aproximaes em que o domnio dividido em pequenas
partes. Para a esperana de uma varivel aleatria X : R
+
qualquer, a ideia
tambm de usar aproximaes, mas como no h uma forma razovel de dividir o
domnio em pequenas partes, o que se faz dividir o contra-domnio, como ilustrado
na Figura 4.4.
x
g(x)

X()
Figura 4.4: Comparao entre a integral de Riemann na reta e a esperana
matemtica em um espao de probabilidade.
Variveis Discretas e Contnuas
A denio acima no muito til quando queremos efetivamente calcular a
esperana de uma varivel aleatria X dada. A seguir veremos como obter EX no
caso de X ser discreta, contnua, ou mista, bem como a esperana de funes de
variveis ou vetores aleatrios desses tipos.
Teorema 4.2.4 (Variveis Aleatrias Discretas). Seja X uma varivel alea-
tria discreta. Se EX est denida, ento
EX =

x
x p
X
(x).
Demonstrao. Segue direto do Teorema 4.2.12 com h(x) = x.
4.2. ESPERANA MATEMTICA 73
Exemplo 4.2.5 (Poisson). Se X Poisson(), ento
EX =

n=0
n

n
e

n!
=

n=1

n
e

(n 1)!
= e

n=1

n1
(n 1)!
= e

n=0

n
n!
= e

= .
Portanto, o valor esperado de uma varivel aleatria que segue o modelo de Poisson
com parmetro o prprio .
Proposio 4.2.6. Se X assume valores em {0, 1, 2, 3, . . . }, ento
EX =

n=1
P(X n).
Demonstrao. Introduzimos um indicador de n k para inverter as somas:
EX =

k=1
k P(X = k) =

k=1
k

n=1
P(X = k)
=

k=1

n=1
1
nk
P(X = k)
=

n=1

k=1
1
nk
P(X = k)
=

n=1

k=n
P(X = k) =

n=1
P(X n).
Exemplo 4.2.7 (Geomtrica). Se X Geom(p) ento
EX =

n=1
P(X n) =

n=1
(1 p)
n1
=

j=0
(1 p)
j
=
1
1 (1 p)
=
1
p
.
Exerccio 4.2.8. Sejam X
1
, X
2
, X
3
, . . . uma sequncia de variveis independentes
com distribuio U[0, 1] e tome a varivel aleatria N como sendo o menor n tal
que X
1
+X
2
+ +X
n
1. Mostre que EN = e.
Exerccio 4.2.9. Seja X uma varivel aleatria. Mostre que X integrvel se, e
somente se

n=0
P
_
|X| n
_
< .
74 CAPTULO 4. ESPERANA MATEMTICA
Teorema 4.2.10 (Variveis Aleatrias Absolutamente Contnuas). Seja X
uma varivel aleatria absolutamente contnua. Se EX est denida, ento
EX =
_
R
x f
X
(x) dx.
Demonstrao. Segue direto do Teorema 4.2.12 com h(x) = x.
Exemplo 4.2.11 (Exponencial). Se X exp(), vale
EX =
_
+

x f
X
(x) dx =
_
+
0
xe
x
dx =
_
xe
x

_

0
[e
x
] dx =
1

.
Portanto, o valor esperado de uma varivel aleatria que segue o modelo exponen-
cial com parmetro
1

.
Mudana de Varivel
Suponha que queremos calcular a esperana da varivel aleatria Y dada por
Y = h(X),
onde h uma funo real contnua, ou uma funo contnua por partes. Temos
pelo menos duas alternativas. Uma calcular F
Y
(t) para todo t, a partir
da distribuio acumulada F
X
de X, e depois calcular a esperana usando os
Teoremas 4.2.4 e 4.2.10. Entretanto, existe outra maneira, que pode ser mais
conveniente:
Teorema 4.2.12 (Mudana de Varivel). Seja X um vetor aleatrio misto
com componentes discreta e absolutamente contnua. Seja h : R
d
R uma
funo contnua por partes, e considere a varivel aleatria Y = h(X). Se EY
est denida, ento
EY =

x
h(x) p
X
(x) +
_
R
d
h(x) f
X
(x) d
d
x.
4.2. ESPERANA MATEMTICA 75
Em particular,
EY =
_

x
h(x) p
X
(x), X discreto,
_
R
d
h(x) f
X
(x) d
d
x, X contnuo.
Exemplo 4.2.13. Seja X exp(). Vamos calcular EX
2
. Temos
EX
2
=
_

0
x
2
e
x
dx =
2

_

0
xe
x
dx =
2

2
_

0
e
x
dx =
2

2
,
integrando por partes duas vezes.
Lema 4.2.14. Sejam X e Y variveis aleatrias no-negativas denidas em
(, F, P), e tome X
k
= g
k
(X), Y
k
= g
k
(Y ). Ento, quando k ,
EX
k
EX, E[X
k
+Y
k
] E[X +Y ] e E[X
k
Y
k
] E[XY ].
Demonstrao. Seja Z uma varivel aleatria simples com 0 Z X +Y . Tome
M = max

Z(),

X = [X M] e

Y = [Y M]. Note que Z

X +

Y . Ento
para k M temos X
k
+ Y
k
>

X +

Y 2
k+1
Z 2
k+1
. Da segue que
E[X
k
+Y
k
] E[Z] 2
k+1
, logo liminf
k
E[X
k
+Y
k
] EZ. Tomando o supremo
em Z, temos que liminf
k
E[X
k
+Y
k
] E[X+Y ] e portanto E[X
k
+Y
k
] E[X+Y ].
O primeiro limite segue como corolrio tomando-se Y = 0. A demonstrao do
ltimo limite um pouco mais complicada e ser omitida.
Demonstrao do Teorema 4.2.12. Se g : R
d
R
+
assume nitos valores, ento
E[g(X)] =

y
y P
_
g(X) = y

y
y
_
x:g(x)=y
p
X
(x) +
_
x:g(x)=y
f
X
(x) d
d
x
_
=

x
g(x) p
X
(x) +
_
R
d
g(x) f
X
(x) d
d
x.
Fazendo a decomposio h = h
+
h

, podemos supor que h uma funo no-


negativa. Tome Y
k
= g
k
(Y ) = g
k
(h(X)). Temos que
EY
k
=

x
g
k
(h(x)) p
X
(x) +
_
R
d
g
k
(h(x)) f
X
(x) d
d
x.
76 CAPTULO 4. ESPERANA MATEMTICA
Portanto,
EY
k

x
h(x) p
X
(x) +
_
R
d
h(x) f
X
(x) d
d
x.
Por outro lado,
EY
k
= E[Y
k
1
h(X)k
] +E[Y
k
1
h(X)>k
]
=

xA
k
g
k
(h(x)) p
X
(x) +
_
A
k
g
k
(h(x)) f
X
(x) d
d
x +E[Y
k
1
h(X)>k
]

xA
k
h(x) p
X
(x) +
_
A
k
h(x) f
X
(x) d
d
x 2
k
,
onde A
k
= {x R
d
: h(x) k} R
d
. Fazendo k , temos que
liminf
k
EY
k

x
h(x) p
X
(x) +
_
R
d
h(x) f
X
(x) d
d
x.
Portanto, pelo Lema 4.2.14 temos
EY = lim
k
EY
k
=

x
h(x) p
X
(x) +
_
R
d
h(x) f
X
(x) d
d
x.
Propriedades da Esperana Matemtica
Todas as propriedades da Esperana decorrem de trs propriedades fundamentais.
Teorema 4.2.15. Sejam X e Y variveis aleatrias em (, F, P). Ento
valem as seguintes propriedades:
(E1) Unitariedade. Se X = 1, ento EX = 1.
(E2) Monotonicidade. Se X Y , ento EX EY .
(E3) Linearidade. E[aX +bY ] = aEX +bEY para a, b R.
Em (E2) basta que EY < + ou EX > para que ambas as esperanas
estejam denidas e valha a desigualdade. A igualdade em (E3) vale se EX
e EY esto denidas e aEX + bEY est denido, isto , no resulta em
+.
4.2. ESPERANA MATEMTICA 77
Demonstrao. A unitariedade segue da Denio 4.1.1. Para a monotonicidade,
suponha que 0 X Y . Dada Z X simples, temos Z Y , e pela denio de
EY , temos EZ EY . Tomando o supremo em Z, pela denio de EX, temos
EX EY . Para o caso geral, observe que X Y implica X
+
Y
+
e X

.
Para a linearidade, primeiro observamos que da denio de esperana segue
que E[aX] = aEX. Resta ento mostrar que E[X + Y ] = EX + EY . Suponha
inicialmente que X e Y sejam no-negativas. Usando a Proposio 4.1.5 e o
Lema 4.2.14, temos que E[X + Y ] = lim
k
E[X
k
+ Y
k
] = lim
k
[EX
k
+ EY
k
] =
EX + EY . Finalmente, sejam X e Y duas variveis aleatrias quaisquer. Temos
que
(X +Y )
+
(X +Y )

= X +Y = X
+
X

+Y
+
Y

,
logo
(X +Y )
+
+X

+Y

= (X +Y )

+X
+
+Y
+
.
Como todas as variveis aleatrias acima so no-negativas, pelo caso anterior
temos
E[(X +Y )
+
] +EX

+EY

= E[(X +Y )

] +EX
+
+EY
+
.
Supondo que EX+EY est denido, necessariamente temos que EX

+EY

<
ou EX
+
+ EY
+
< . Consideramos sem perda de generalidade o primeiro caso.
Como (X+Y )

+Y

, temos E[(X+Y )

] EX

+EY

< , e portanto
podemos subtrair, obtendo
E[(X +Y )
+
] E[(X +Y )

] = (EX
+
EX

) + (EY
+
EY

).
Proposio 4.2.16 (Propriedades da Esperana).
1. Se X = c ento EX = c.
2. E(aX +b) = aE(X) +b.
3. Se X integrvel ento E[X E(X)] = 0.
4. Se a X b, ento a E(X) b.
5. |EX| E|X|.
6. Se 0 |X| Y e Y integrvel, ento X integrvel.
7. Se EX est denida e A F, ento E[X1
A
] est denida.
78 CAPTULO 4. ESPERANA MATEMTICA
8. Se EX nita, ento E[X1
A
] nita.
9. Se X 0 e EX = 0 ento P(X = 0) = 1.
Demonstrao. Todas so consequncias diretas das trs propriedades anteriores.
Vamos mostrar apenas a ltima. Para k N, temos 0 = EX E(X1
[X
1
k
]
)
E(
1
k
1
[X
1
k
]
) =
1
k
P(X
1
k
). Logo, P(X
1
k
) = 0 para todo k, portanto P(X >
0) = lim
k
P(X
1
k
) = 0.
Proposio 4.2.17 (Esperana de Variveis Aleatrias Independentes). Se
X e Y so independentes e integrveis, ento XY integrvel e E[XY ] =
EX EY .
Demonstrao. Se X e Y so variveis aleatrias no-negativas, ento, usando a
Proposio 4.1.10 e o Lema 4.2.14,
E[XY ] = lim
k
E[X
k
Y
k
] = lim
k
[EX
k
EY
k
] = EX EY.
No caso geral temos
E[XY ] = E[X
+
Y
+
X
+
Y

Y
+
+X

]
= EX
+
EY
+
EX
+
EY

EX

EY
+
+EX

EY

= EX EY.
Notao Existem outras formas de se denir a esperana, todas elas equivalentes.
Isso tambm se reete em distintas notaes, que o leitor poder encontrar em
diferentes bibliograas:
EX =
_

X dP, EX =
_
R
xdP
X
, EX =
_
R
xdF
X
(x).
A denio que usamos mais parecida primeira.
4.3. MOMENTOS, VARINCIA E COVARINCIA 79
4.3 Momentos, Varincia e Covarincia
Denio 4.3.1. Dado k = 1, 2, 3, . . . , denimos o momento de ordem k, ou
o k-simo momento da varivel aleatria X como EX
k
. Se X integrvel,
denimos o k-simo momento central por E(X EX)
k
. O momento absoluto
de ordem k denido como E|X|
k
.
Exemplo 4.3.2. Se X U[0, 1], temos
EX =
_
1
0
xdx =
1
2
, EX
2
=
_
1
0
x
2
dx =
1
3
, EX
k
=
_
1
0
x
k
dx =
1
k + 1
,
e o segundo momento central dado por
E
_
_
X
1
2
_
2
_
=
_
1
0
_
x
1
2
_
2
dx =
1
12
.
O segundo momento central recebe o nome de varincia.
Denio 4.3.3 (Varincia). Seja X uma varivel aleatria integrvel.
Dene-se a varincia da varivel aleatria X, denotada por V X ou
2
(X),
como
V X = E[(X EX)
2
].
Exemplo 4.3.4. Pelo exemplo anterior, se X U[0, 1], ento EX =
1
2
e V X =
1
12
.
Proposio 4.3.5 (Propriedades da Varincia). Seja X uma varivel aleatria
integrvel. Ento:
1. V X 0.
2. V X = EX
2
(EX)
2
.
3. V X = 0 se e somente se P(X = c) = 1 para algum c R, neste caso
X = EX.
4. V X EX
2
.
80 CAPTULO 4. ESPERANA MATEMTICA
5. V (X b) = V X.
6. V (aX) = a
2
V X.
Demonstrao. Feita em aula.
Exemplo 4.3.6. Se X Bernoulli(
1
2
), temos
EX =
1
2
, EX
2
=
1
2
, V X = EX
2
(EX)
2
=
1
4
.
Denio 4.3.7 (Desvio-Padro). O desvio-padro (X) dado pela raiz
quadrada da varincia
(X) =

V X,
e mede a disperso de X em torno de sua mdia. O desvio-padro tem a mesma
unidade de medida de X.
Exemplo 4.3.8. Se X Bernoulli(
1
2
), temos
(X) =

V X =
_
1/4 =
1
2
.
Ou seja, uma varivel Bernoulli(
1
2
) varia em mdia =
1
2
unidade em torno de seu
valor esperado =
1
2
.
As propriedades do desvio-padro so anlogas:
1. (X) 0.
2. (X) = 0 se e somente se P(X = c) = 1 para algum c R.
3. (X)

EX
2
.
4. (X b) = (X) para todo b R.
5. (aX) = |a| (X) para todo a R.
Denio 4.3.9 (Covarincia). Dadas duas variveis aleatrias X e Y com
segundo momento nito, uma forma de medir a dependncia linear da disperso
dessas variveis atravs da sua covarincia Cov(X, Y ), dada por
Cov(X, Y ) = E [(X EX)(Y EY )] .
4.3. MOMENTOS, VARINCIA E COVARINCIA 81
Proposio 4.3.10 (Propriedades da Covarincia). Dadas X e Y com segundo
momento nito:
1. Cov(X, Y ) = E[XY ] EX EY .
2. Cov(X, Y ) = 0 se e somente se E[XY ] = EX EY .
3. Cov(cX, Y ) = c Cov(X, Y ).
4. Cov(X, Y ) = Cov(Y, X).
5. Cov(X, X) = V X.
6. Cov(X, c) = 0 para todo c R.
7. Cov(X, Y +Z) = Cov(X, Y ) + Cov(X, Z).
8. Cov(

i
a
i
X
i
,

j
b
j
Y
j
) =

i

j
a
i
b
j
Cov(X
i
, Y
j
).
Demonstrao. Feita em aula.
Exemplo 4.3.11. Se f
XY
(x, y) = 1
[0,1]
(x)1
[0,1]
(y), Z = X Y , W = X Y ,
ento:
E[ZW] = E[XY ] =
_
1
0
_
1
0
xy dxdy =
1
4
EZ =
_
1
0
__
x
0
ydy +
_
1
x
xdy
_
dx =
_
1
0
(
x
2
2
+x x
2
)dx =
1
2

1
6
=
1
3
EW =
_
1
0
__
x
0
xdy +
_
1
x
ydy
_
dx =
_
1
0
(x
2
+
1
2

x
2
2
)dx =
1
3
+
1
2

1
6
=
2
3
Cov(Z, W) = E[ZW] EZ EW =
1
4

2
9
=
1
36
.
Observao 4.3.12. Se as variveis aleatrias X e Y so independentes e inte-
grveis ento X e Y so no-correlacionadas, i.e., Cov(X, Y ) = 0. Entretanto, nem
sempre vale a recproca, isto , E[XY ] = EXEY no implica X e Y independentes.
Contra-Exemplo 4.3.13. Sejam X e Y variveis aleatrias tomando valores
1, 0, 1 com distribuio conjunta dada por p(1, 1) = p(1, 1) = p(1, 1) =
p(1, 1) = p(0, 0) =
1
5
. Ento EXY = EX EY , mas X e Y no so independentes,
pois P(X = 0, Y = 0) = P(X = 0)P(Y = 0).
82 CAPTULO 4. ESPERANA MATEMTICA
Denio 4.3.14 (Coeciente de Correlao). Dadas X e Y com varincias
nitas e positivas, o coeciente de correlao (X, Y ) de X e Y uma medida
padronizada da dependncia linear entre X e Y :
(X, Y ) = Cov
_
X
(X)
,
Y
(Y )
_
.
O coeciente de correlao no tem unidade de medida.
Proposio 4.3.15 (Propriedades do Coeciente de Correlao). Dadas X e Y
com varincias nitas e positivas, valem:
1. (X, Y ) = (Y, X).
2. (X, Y ) =
Cov(X,Y )
(X)(Y )
.
3. (X, X) = 1.
4. (X, aY +b) = (X, Y ) se a > 0 e b R.
Demonstrao. Feita em aula.
Exemplo 4.3.16. No Exemplo 4.3.11, temos
EZ
2
=
_
1
0
__
x
0
y
2
dy +
_
1
x
x
2
dy
_
dx =
_
1
0
(
x
3
3
+x
2
x
3
)dx =
1
3

1
6
=
1
6
V Z = EZ
2
(EZ)
2
=
1
6

1
9
=
1
18
V W = exerccio =
1
18
(Z, W) =
Cov(Z, W)
(Z)(W)
=
1/36
_
1/18
_
1/18
=
1
2
.
Dada uma varivel aleatria X com EX
2
< , denimos a padronizao de X, ou
a normalizao de X, como
X EX
(X)
.
A padronizao de uma varivel aleatria no tem unidade de medida.
Exerccio 4.3.17. Mostre que:
4.4. DESIGUALDADES BSICAS 83
1. EZ = 0 e V Z = 1, onde Z a padronizao de X.
2. X e (aX +b) tm a mesma padronizao para a > 0 e b R.
3. Se Z a padronizao de X e W a padronizao de Y , ento
(Z, W) = Cov(Z, W) = E(ZW) = (X, Y ).
Proposio 4.3.18. Sejam X e Y variveis aleatrias com varincias nitas e
positivas. Ento:
1. (X, Y ) [1, +1].
2. | Cov(X, Y )| (X)(Y ).
3. (X, Y ) = 1 Cov(X, Y ) = (X)(Y ) P(Y = aX +b) = 1, a > 0.
Veremos a demonstrao na prxima seo, como corolrio da Desigualdade de
Cauchy-Schwarz.
4.4 Desigualdades Bsicas
Denio 4.4.1 (Funes cncavas e convexas). Seja B R um intervalo aberto.
Dizemos que g : B R convexa se satisfaz s seguintes condies equivalentes:
(i) Para todos a < x < b em B, g(x) g(a) +
xa
ba
[g(b) g(a)].
(ii) Para todo a B, existe c R tal que g(x) g(a)+c(xa) para todo x B.
(iii) g

no-decrescente em B (caso g seja diferencivel).


(iv) g

(x) 0 para todo x B (caso g tenha segunda derivada).


Dizemos que g cncava se g convexa.
Exemplo 4.4.2. So funes convexas: g(x) = x
2
, g(x) = e
x
, g(x) = |x|, g(x) =
x
1
. So funes cncavas: g(x) = log x em (0, ), g(x) = x.
Proposio 4.4.3 (Desigualdade de Jensen). Seja g : B R uma funo
convexa e X uma varivel aleatria integrvel assumindo valores em B. Ento
E[g(X)] g(EX).
84 CAPTULO 4. ESPERANA MATEMTICA
Demonstrao. Tomando a = EX e c tal que g(x) g(a)+c(xa) para todo x I,
temos E[g(X)] E[g(EX) +c(X EX)] = g(EX) +cEX cEX = g(EX).
Corolrio 4.4.4. Se g uma funo cncava, ento E[g(X)] g(EX).
Corolrio 4.4.5. Seja X uma varivel aleatria integrvel. Ento
(a) E|X| |EX|.
(b) EX
2
(EX)
2
.
(c) E
_
1
X
_

1
EX
se X 0.
(d) E |X|
p
(E |X|)
p
|EX|
p
para p 1.
(e) (E|X|
t
)
1
t
(E|X|
s
)
1
s
se 0 < s t.
Demonstrao. (a), (b) e (c) so imediatos. Para (d) usamos g(x) = x
p
em (0, )
e depois (a). Para (e), tomamos Y = |X| e g(y) = y
t/s
em (0, ). Temos que g
convexa pois g

(y) =
t
s
y
t
s
1
no-decrescente. Logo, E|X|
t
= E[(Y
s
)
t/s
]
[EY
s
]
t/s
. Elevando todos os temos a 1/t, temos a desigualdade desejada.
Proposio 4.4.6 (Desigualdade Bsica de Tchebyshev). Seja X uma varivel
aleatria no-negativa e seja > 0 uma constante. Ento
P(X )
E(X)

.
Demonstrao. Tome Y = 1
[X]
. Temos que Y X, logo
EX EY = P(X ),
donde segue a desigualdade.
Exemplo 4.4.7. Se uma empresa recebe em mdia 100 chamadas telefnicas por
dia, queremos estimar a probabilidade de, num certo dia, receber mais de 300
chamadas. Temos
P(X 300)
EX
300
=
1
3
.
Ou seja, esse evento ocorre com probabilidade igual a, no mximo,
1
3
.
4.4. DESIGUALDADES BSICAS 85
Exerccio 4.4.8. Suponha que X seja uma varivel aleatria tal que P(X 0) = 1
e P(X 10) =
1
5
. Mostre que E(X) 2.
Proposio 4.4.9 (Desigualdade de Markov). Seja X uma varivel aleatria
qualquer e seja > 0 uma constante. Ento para todo t > 0,
P(|X| )
E |X|
t

t
.
Demonstrao. Dena Y = |X|
t
e use a desigualdade bsica com Y e
t
:
P(|X| ) = P(Y
t
)
EY

t
=
E|X|
t

t
.
Proposio 4.4.10 (Desigualdade Clssica de Tchebyshev). Seja X uma
varivel aleatria integrvel e seja > 0 uma constante. Ento
P
_
|X E(X)|
_

V X

2
.
Demonstrao. Tomando Y = (X EX)
2
, temos EY = V X e, aplicando a
desigualdade bsica,
P
_
|X EX|
_
= P(Y
2
)
EY

2
=
V X

2
.
Exemplo 4.4.11. Estimar a probabilidade de uma varivel aleatria X no diferir
de sua mdia por mais que duas vezes o valor do seu desvio-padro . Temos
P( 2 < X < + 2) = 1 P
_
|X EX| 2) 1
V X
(2)
2
= 1

2
4
2
=
3
4
.
Exerccio 4.4.12. Suponha que X seja uma varivel aleatria tal que E(X) = 10,
P(X 7) = 0, 2 e P(X 13) = 0, 3. Prove que V X
9
2
.
86 CAPTULO 4. ESPERANA MATEMTICA
Teorema 4.4.13 (Desigualdade de Cauchy-Schwarz). Se EX
2
< e EY
2
<
, ento
E[XY ]

EX
2

EY
2
.
Ainda, se E[XY ] =

EX
2

EY
2
, ento existe c 0 tal que P(Y = cX) = 1,
ou ento P(X = 0) = 1.
Demonstrao. Sejam a =

EX
2
e b =

EY
2
. Se a = 0, temos que X = 0,
a desigualdade trivial e a recproca tambm. Se b = 0, temos que Y = 0,
a desigualdade trivial e a recproca vale com c = 0. Assumimos ento que
0 < a < e 0 < b < .
Observamos que
0
ab
2
E
_
X
a

Y
b
_
2
=
ab
2
E
_
X
2
a
2
2
XY
ab
+
Y
2
b
2
_
= ab E[XY ],
donde
E[XY ] ab =

EX
2

EY
2
.
Reciprocamente, suponha que E[XY ] = ab. Temos que E
_
X
a

Y
b
_
2
= 0, logo
P(
X
a

Y
b
= 0) = 1 e portanto P(Y = cX) = 1 com c =
a
b
.
Demonstrao da Proposio 4.3.18. Tomamos
Z =
X EX
(X)
e W =
Y EY
(Y )
Pela Desigualdade de Cauchy-Schwarz temos que
(X, Y ) = E[ZW]

EZ
2

EW
2
= +1,
donde
Cov(X, Y ) = (X)(Y )(X, Y ) +(X)(Y ).
Ainda, se (X, Y ) = +1, ento W = +cZ com c 0. Mas 1 = EW
2
= c
2
EZ
2
= c
2
,
logo c = +1 e portanto
Y = EY +(Y ) Z = EY +(Y )
X EX
(X)
.
4.5. ESPERANA CONDICIONAL DADO UM EVENTO 87
As propriedades anlogas com1 no lugar de +1 seguem do caso anterior tomando-
se X no lugar de X:
(X, Y ) = (X, Y ) 1,
Cov(X, Y ) = Cov(X, Y ) (X)(Y ),
Y = EY +(Y )
X E[X]
(X)
= EY (Y )
X EX
(X)
.
4.5 Esperana Condicional dado um Evento
A informao sobre a ocorrncia de um certo evento A F com P(A) > 0 leva
denio de uma nova medida P

em (, F), dada pela relao P

(B) = P(B|A),
B F. A distribuio de qualquer varivel aleatria X tambm afetada neste
caso. Como vimos no Captulo 2, X passa a ter uma nova funo de distribuio
F
X|A
(t), t R, uma nova lei P
X|A
(B), B B.
Nesta situao, X tambm ter um novo valor esperado E(X|A). No caso de
X ser mista com componentes discreta e absolutamente contnua, sua esperana
condicional dado A ser dada por
E(X|A) =

x
x p
X|A
(x) +
_
R
xf
X|A
(x) dx.
No caso discreto, escolhemos a forma mais conveniente entre calcular
F
X|A
(t) = P(X t | A) t
ou
p
X|A
(x) = P(X = x| A) x.
Exemplo 4.5.1. Seja X a varivel aleatria que representa o resultado do lana-
mento de um dado, isto , X U
d
{1, 2, 3, 4, 5, 6}. Vamos calcular E(X| X par).
Primeiro encontramos a funo de probabilidade condicional:
p
X|A
(x) = P(X = x|A) =
1
3
1
{2,4,6}
(x)
e em seguida a esperana
E(X|A) =

x
x p
X|A
(x) = 4.
88 CAPTULO 4. ESPERANA MATEMTICA
No caso contnuo, em geral calculamos
F
X|A
(t) = P(X t | A) t
e depois fazemos
f
X|A
(x) =
d
dx
F
X|A
(x) x.
Exemplo 4.5.2. Seja X uma varivel aleatria com distribuio X U[0, 1].
Vamos calcular E(X| X <
1
2
). Primeiro encontramos a funo de distribuio
condicional
F
X|A
(t) = P(X t|A) =
_

_
0, x 0,
2x, 0 x
1
2
,
1, x
1
2
,
logo a densidade condicional
f
X|A
(x) =
d
dx
F
X|A
(x) = 2 1
[0,
1
2
]
e nalmente a esperana condicional
E(X|A) =
_
R
xf
X|A
(x) dx =
1
4
.
4.6 Exerccios
Exerccio 4.6.1. Calcular EX, onde:
1. X Geom(p).
2. X N(,
2
).
Exerccio 4.6.2. Considere o seguinte jogo de azar. Uma urna contm 18 bolas,
sendo 9 azuis e 9 brancas. Retiram-se 3 bolas da urna ao acaso. As bolas retiradas
so descartadas e o jogador marca 1 ponto se pelo menos 2 dessas 3 bolas forem
azuis. Em seguida retiram-se outras 3 bolas da urna ao acaso, as bolas retiradas
so descartadas e o jogador marca 1 ponto se pelo menos 2 dessas 3 bolas forem
azuis. Repete-se o procedimento at que a urna esteja vazia. Ao nal, o jogador
recebe um prmio X igual ao total de pontos marcados. Calcule EX.
4.6. EXERCCIOS 89
Exerccio 4.6.3. Dada X varivel aleatria, dena
Y =
_
X, X a,
a, caso contrrio,
onde a uma constante positiva. Mostre que EY EX.
Exerccio 4.6.4. Mostre que X integrvel se, e somente se, E|X| < .
Exerccio 4.6.5. Seja X uma varivel aleatria simtrica em torno de , isto ,
P(X + x) = P(X x) para todo x R. Mostre que se X integrvel,
ento E(X) = .
Exerccio 4.6.6. Prove que E|X|

EX
2
.
Exerccio 4.6.7. SejamX
1
, . . . , X
n
variveis aleatrias satisfazendo EX
2
i
< i.
1. Se Cov(X
i
, X
j
) = 0 i = j, mostre que
V
_
n

i=1
X
i
_
=
n

i=1
V X
i
.
2. A frmula acima tambm vale se as variveis aleatrias forem independentes?
Exerccio 4.6.8. Calcular V X, onde:
1. X Geom().
2. X Poisson().
3. X b(n, p).
4. X exp().
5. X N(,
2
).
Exerccio 4.6.9. Considere uma sequncia de variveis aleatrias X
1
, X
2
, X
3
, . . .
i.i.d. com distribuio Bernoulli(p). Quantas realizaes so sucientes para que a
mdia amostral, dada por

X
n
() =
1
n
n

j=1
X
n
(),
no dira de seu valor esperado p por mais de 0,01, com probabilidade mnima de
0,95? (Sugesto: Desigualdade de Tchebyshev)
90 CAPTULO 4. ESPERANA MATEMTICA
Exerccio 4.6.10. Seja X U [1, 1] e sejam A
1
= [X 0] e A
2
= [X < 0].
Pede-se
1. A distribuio condicional de X dado A
1
.
2. A distribuio condicional de X dado A
2
.
3. E(X|A
1
).
4. E(X|A
2
).
Exerccio 4.6.11. Seja X uma varivel aleatria exponencial com parmetro .
Encontre E [X| X > 2].
Exerccio 4.6.12. Se X Geom(p), encontre E [X| X > 5].
Exerccio 4.6.13. Se X tem funo de probabilidade
p
X
(n) =
n
n
e

.n!
para n = 0, 1, 2, 3, . . . , calcule V X.
Dica: desenvolver (n 1)(n 2 + 1) + 2(n 1) + 1.
Exerccio 4.6.14. [Jam04, Captulo 3].
Recomendados: 5, 6, 19, 20ab, 21, 23, 26, 28, 30, 36.
Parte II
91
Captulo 5
Convergncia de Variveis
Aleatrias
Considere uma sequncia de variveis aleatrias X
1
, X
2
, X
3
, . . . . Em inmeras
situaes tericas e prticas, uma pergunta natural qual o comportamento de
longo prazo da sequncia (X
n
)
n
. Dito de outra forma: como se comporta X
n
quando n sucientemente grande?
Tratando-se de variveis aleatrias, o conceito de convergncia uma generali-
zao do conceito de convergncia para nmeros reais. Entretanto, existem vrias
formas de se fazer essa generalizao, e cada forma a mais natural em determinado
contexto. No caso de variveis aleatrias degeneradas, todas as denies so
equivalentes convergncia de nmeros reais.
5.1 Lema de Borel-Cantelli
Comeamos denindo o liminf e o limsup de uma sequncia de eventos.
Denio 5.1.1 (limsup e liminf de eventos). Dada uma sequncia de eventos
aleatrios A
n
, denimos o evento limsupA
n
, denotado por [A
n
innitas vezes]
ou [A
n
i.v.], por
limsup
n
A
n
=

n=1

_
k=n
A
k
.
93
94 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
Denimos o evento liminf A
n
, denotado por [A
n
eventualmente], por
liminf
n
A
n
=

_
n=1

k=n
A
k
.
importante entender as seguintes interpretaes:
limsup A
n
o conjunto dos s tais que pertence a innitos A
n
s.
O evento limsup A
n
signica A
n
acontece innitas vezes.
liminf A
n
o conjunto dos s tais que pertence a todos os A
n
s exceto
uma quantidade nita deles.
O evento liminf A
n
signica A
n
acontece para todo n grande.
Alm disso, vale que
liminf A
n
limsup A
n
e
liminf(A
c
n
) = (limsupA
n
)
c
.
Exemplo 5.1.2. Exemplo: = R, A
n
=
_
(1/n, 1], n mpar,
(1, 1/n], n par.
Temos
limsup A
n
=

n=1

_
k=n
A
k
=

n=1
(1, 1] = (1, 1]
e
liminf A
n
=

_
n=1

k=n
A
k
=

_
n=1
{0} = {0}.
Exerccio 5.1.3. Sejam um espao de probabilidade (, F, P) e uma sequncia
de eventos aleatrios (A
n
) em F. Mostre que, se (A
n
) crescente, ento
limsup A
n
= liminf A
n
=

n=1
A
n
.
Por outro lado, se (A
n
) decrescente, ento
limsup A
n
= liminf A
n
=

n=1
A
n
.
5.1. LEMA DE BOREL-CANTELLI 95
Exerccio 5.1.4. Considere o espao de probabilidade (R
2
, B
2
, P), no qual P
uma probabilidade arbitrria. Se A
n
= {(x, y) R
2
: 0 x n, 0 y
1
n
},
encontre limsup A
n
e liminf A
n
.
Exerccio 5.1.5. Considere a sequncia de intervalos
A
n
=
_
(0, 2 +
1
n
), n par
(0, 2
1
n
), n mpar.
Encontre o liminf A
n
e o limsup A
n
.
Teorema 5.1.6 (Lema de Borel-Cantelli). Seja (, F, P) um espao de pro-
babilidade e (A
n
) uma sequncia de eventos aleatrios. Ento:
1. Se

n=1
P(A
n
) < ento
P(A
n
innitas vezes) = 0.
2. Se

n=1
P(A
n
) = e os eventos A
n
so independentes, ento
P(A
n
innitas vezes) = 1.
Demonstrao. Feita em aula, seguindo [Jam04, p. 201].
Exemplo 5.1.7. Considere uma sequncia de innitos sorteios independentes e
uniformes de um nmero (X
n
)
nN
entre 0 e 1. Ento
1. P(X
n
[0, 1/n] para innitos ns) = 1.
2. P(X
n
[0, 1/n
2
] para innitos ns) = 0.
Podemos armar que vale a recproca do Lema de Borel-Cantelli, ou seja, que
P(A
n
i.v.) = 0 implica

n
P(A
n
) < , quando os (A
n
) so independentes. Caso
contrrio, podemos ter P(A
n
i.v.) = 0 sem que necessariamente

n
P(A
n
) < .
Neste caso podemos armar pelo menos que P(A
n
) 0.
Proposio 5.1.8. Se P(A
n
innitas vezes) = 0 ento P(A
n
) 0.
Demonstrao. Tomando B
k
=
nk
A
n
, temos que B
k
[A
n
i.v.] quando k
. Como B
k
A
k
, vale P(A
k
) P(B
k
) P(A
n
i.v.) = 0.
96 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
Observao 5.1.9 (Lei 0-1 para Innitos Eventos Independentes). Uma con-
sequncia imediata do Lema de Borel-Cantelli a seguinte. Se (A
n
)
nN
uma
sequncia de eventos independentes, ento P(A
n
innitas vezes) = 0 ou 1.
5.2 Convergncia de Variveis Aleatrias
Sejam X e (X
n
)
nN
variveis aleatrias denidas num mesmo espao de probabi-
lidade (, F, P).
Denio 5.2.1 (Convergncia em Probabilidade). Dizemos que X
n
converge
em probabilidade para X, denotado por X
n
P
X, se para todo > 0
P
_
|X
n
X|
_
0 quando n .
Exemplo 5.2.2. Sejam X
1
, X
2
, . . . variveis aleatrias independentes, tais que
X
n
Bernoulli(
1
n
). Temos para < 1 que
P
_
|X
n
0|
_
= P(X
n
= 1) =
1
n
0,
e portanto X
n
P
0.
Exemplo 5.2.3. Sejam X
1
, X
2
, . . . variveis aleatrias independentes, identica-
mente distribudas com distribuio exp(1) e tome
Y
n
=
X
n
log n
.
Ento
P
_

X
n
log n
0


_
= P(X
n
log n) = n

0,
e portanto
X
n
log n
P
0.
5.2. CONVERGNCIA DE VARIVEIS ALEATRIAS 97
Denio 5.2.4 (Convergncia Quase Certa). Dizemos que X
n
converge quase
certamente para X, denotado por X
n
q.c.
X, se
P
_
X
n
X quando n
_
= 1,
ou seja, o evento A
0
= { : X
n
() X()} de probabilidade 1.
Observao 5.2.5. A convergncia quase certa uma convergncia pontual num
conjunto de medida 1, ou seja, X
n
() X() para quase todo , exceto
aqueles dentro de um conjunto de medida nula. Por outro lado convergncia
em probabilidade no diz respeito convergncia pontual, ela apenas arma que
para valores grandes de n as variveis X
n
e X so aproximadamente iguais com
probabilidade muito alta.
Exemplo 5.2.6. Um ponto selecionado aleatoriamente do intervalo = [0, 1].
Seja (X
n
)
n
a sequncia de variveis aleatrias dada por
X
n
() = +
n
.
Ento X
n
q.c.
X com X U [0, 1]. De fato, tomando X() = , temos que
X
n
() X() para todo [0, 1). Como P
_
[0, 1)
_
= 1, segue que X
n
q.c.
X.
Proposio 5.2.7. X
n
q.c.
X se, e somente se,
P
_
|X
n
X| innitas vezes
_
= 0 > 0.
Demonstrao. A proposio segue da seguinte cadeia de equivalncias:
P(X
n
X) = 1
P( > 0, |X
n
X| < eventualmente) = 1
P( > 0 tal que |X
n
X| i.v.) = 1
P
_
k N tal que |X
n
X|
1
k
i.v.
_
= 1
P
_
k N tal que |X
n
X|
1
k
i.v.
_
= 0
k N, P
_
|X
n
X|
1
k
i.v.
_
= 0
> 0, P (|X
n
X| i.v.) = 0.
98 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
As equivalncias acima so: denio de convergncia; negao de um evento
ocorrer eventualmente; substituio de por
1
k
, que possvel porque a condio
montona em ; evento complementar; sub-aditividade da probabilidade; nova
substituio de
1
k
por .
Corolrio 5.2.8 (q.c. P). Se X
n
q.c.
X ento X
n
P
X.
Demonstrao. Para qualquer > 0, pela Proposio 5.2.7 temos que
P(|X
n
X| i.v.) = 0,
e pela Proposio 5.1.8 segue que P(|X
n
X| ) 0, ou seja, X
n
P
X.
Exerccio 5.2.9. Sejam (X
n
)
n
variveis aleatrias tais que

n=1
P
_
|X
n
| >
_
<
para qualquer > 0. Mostre que
X
n
q.c.
0.
Mostre que tambm vale a recproca no caso de as X
n
serem independentes.
Contra-Exemplo 5.2.10. No Exemplo 5.2.2, temos pelo Lema de Borel-Cantelli
que
P(X
n
= 1 innitas vezes) = 1,
portanto P(X
n
0) = 0 e no vale X
n
q.c.
0.
Contra-Exemplo 5.2.11. No Exemplo 5.2.3, temos que
P(
X
n
log n
innitas vezes) = 1
para 1 e 0 para > 1. Portanto no vale que
X
n
log n
q.c.
0.
Denio 5.2.12 (Convergncia em L
p
). Dizemos que X
n
converge para X
em L
p
, que denotamos por X
n
L
p
X, se
lim
n
E
_
|X
n
X|
p
_
= 0.
Quando p = 2, a convergncia dita em mdia quadrtica.
5.2. CONVERGNCIA DE VARIVEIS ALEATRIAS 99
Proposio 5.2.13 (L
p
P). Se X
n
L
p
X para algum p 1 ento X
n
P
X.
Demonstrao. Pela desigualdade de Markov temos
P(|X
n
X| )
E|X
n
X|
p

p
0.
Proposio 5.2.14 (L
p+s
L
p
). Sejam p 1 e s 0. Se X
n
L
p+s
X ento
X
n
L
p
X.
Demonstrao. Fazendo q = p +s, pela Desigualdade de Jensen temos
_
E

X
n
X

p
_
1
p

_
E

X
n
X

q
_
1
q
0.
Contra-Exemplo 5.2.15. Suponha que P(X
n
= n
3
) =
1
n
2
= 1 P(X
n
= 0).
Ento para < 1 temos P(X ) =
1
n
2
, portanto X
n
q.c.
0 e X
n
P
0. Entretanto,
EX
n
= n, logo no podemos ter X
n
L
1
0, e pela proposio acima no podemos
ter convergncia em L
p
para nenhum p 1.
Contra-Exemplo 5.2.16. No Exemplo 5.2.2, temos
E|X 0|
p
= EX
p
= P(X = 1) =
1
n
0,
portanto X
n
L
p
0 para todo p e X
n
P
0. No entanto, no vale X
n
q.c.
0.
Denio 5.2.17 (Convergncia em Distribuio). Dizemos que X
n
converge
em distribuio para X, que denotamos por X
n
d
X, se, para todo ponto t
em que F
X
contnua, vale
lim
n
F
X
n
(t) = F
X
(t).
Observao 5.2.18. Para convergncia em distribuio no necessrio que as
variveis aleatrias estejam denidas no mesmo espao de probabilidade, pois essa
noo de convergncia leva em conta apenas a sua distribuio.
Proposio 5.2.19 (Unicidade do Limite em Distribuio). O limite em distri-
buio nico, isto , se X
n
d
X e X
n
d
Y ento X Y .
100 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
Ideia da prova. Feita em aula.
Exemplo 5.2.20. Seja X
n
=
1
n
para n 1 e X = 0. Ento X
n
d
X, embora
lim
n
F
n
(0) = 0 = 1 = F(0). Mas como 0 no ponto de continuidade de F,
isto no problema.
Exerccio 5.2.21. Seja (X
n
)
n
uma sequncia de variveis aleatrias independentes
com distribuio uniforme em (0, b), b > 0. Dena Y
n
= max(X
1
, X
2
, . . . , X
n
) e
Y = b. Ento verique que Y
n
d
Y .
Proposio 5.2.22 (P d). Se X
n
P
X ento X
n
d
X.
Demonstrao. Feita em aula, seguindo [Jam04, p. 249].
Exerccio 5.2.23. Mostre que, se X
n
q.c.
Y e X
n
d
Z, ento Y Z.
A convergncia em probabilidade implica a convergncia em distribuio, mas
no faz sentido pensar na recproca: para a convergncia em distribuio no
necessrio sequer que as variveis aleatrias estejam denidas no mesmo espao
de probabilidade. Ademais, como vimos nos exemplos acima, no h relao de
implicao entre convergncia quase certa e convergncia em L
p
, e ambas implicam
convergncia em probabilidade. Entretanto, sob condies particulares, podemos
garantir mais implicaes entre as diferentes denies de convergncia.
Proposio 5.2.24. Se X
n
d
c para c R constante, ento X
n
P
c.
Demonstrao. Feita em aula, seguindo [Jam04, p. 249].
Proposio 5.2.25 (Convergncia por Subsequncias). Se X
n
P
X ento existe
uma subsequncia n
k
tal que X
n
k
q.c.
X.
Demonstrao. Como P(|X
n
X| ) 0 para todo > 0, podemos tomar
n
1
> 0 tal que P(|X
n
1
X| 1) <
1
2
. Novamente, podemos tomar n
2
> n
1
tal
que P(|X
n
2
X|
1
2
) <
1
4
. Sucessivamente, podemos tomar n
k
> n
k1
tal que
P(|X
n
k
X|
1
k
) <
1
2
k
.
Vamos ver que essa sequncia n
k
satisfaz X
n
k
q.c.
X. Seja > 0. Temos que
P(|X
n
k
X| ) P(|X
n
k
X|
1
k
) para todo k
1
. Por outro lado
temos que

k
P(|X
n
k
X|
1
k
) < , logo

k
P(|X
n
k
X| ) < . Pelo
Exerccio 5.2.9 temos que X
n
k
X
q.c.
0, ou seja, X
n
k
q.c.
X.
5.3. EXERCCIOS 101
Corolrio 5.2.26 (Unicidade do Limite em Probabilidade). Se X
n
P
X e X
n
P

Y ento P(X = Y ) = 1.
Demonstrao. Tome uma subsequncia n
k
tal que
X
n
k
q.c.

k
X
e uma subsequncia n
k
j
tal que
X
n
k
j
q.c.

j
Y.
Para todo na interseo de A = [X
n
k
X] e B = [X
n
k
j
Y ] temos que
[X = Y ]. Como P(A) = P(B) = 1, temos que P(A B) = 1, e portanto P(X =
Y ) P(A B) = 1.
Proposio 5.2.27 (Caso Dominado). Seja p 1. Se X
n
P
X e existe Y tal que
EY
p
< e |X
n
| Y para todo n, ento X
n
L
p
X.
Demonstrao. Omitida. Envolve Teoria da Medida.
Completamos assim o diagrama de implicaes da Figura 5.1.
q.c.

P
3
subsequncia
X
caso dominado
.y
d
constante
.~
L
p+s
3
L
p
J
Figura 5.1: Diagrama de implicaes entre os tipos de convergncia.
5.3 Exerccios
Exerccio 5.3.1. Sejam (X
n
)
nN
variveis aleatrias independentes, distribudas
respectivamente como exp(
n
), onde
n
= n
3
. Prove que P
_

n=1
X
n
<
_
= 1.
102 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
Exerccio 5.3.2. [Jam04, Captulo 5]. Recomendados: 5, 6, 7, 9, 10.
Exerccio 5.3.3. Seja (A
n
)
n
uma sequncia de eventos em (1
A
n
)
n
a sequncia
de variveis aleatrias indicadoras das ocorrncias dos eventos correspondentes.
Encontre uma condio sobre as probabilidades P(A
n
) para que 1
A
n
P
0.
Exerccio 5.3.4. Considere o espao de probabilidade ([0, 1], B, P) com P dado
pela medida de comprimento, e a sequncia de variveis aleatrias (X
n
)
n
dadas
por
X
n
() =
_
n, w <
1
n
,
0, w
1
n
.
Verique respectivamente se X
n
d
X, X
n
P
X, X
n
q.c.
X, X
n
L
2
X, X
n
L
1
X,
para alguma varivel aleatria X.
Exerccio 5.3.5. Seja (X
n
)
n
uma sequncia de variveis aleatrias independentes
com distribuio uniforme em [0, 1], e Y
n
= max{X
1
, . . . , X
n
}. Encontre a funo
de distribuio de Y
n
e o limite em distribuio desta sequncia.
Exerccio 5.3.6. Sejam X
n
, n N, variveis aleatrias independentes tais que
X
n
Bernoulli(p
n
). Estude as condies sobre (p
n
) para que:
1. X
n
P
0.
2. X
n
q.c.
0.
Exerccio 5.3.7. Seja (X
n
)
n
uma sequncia i.i.d. Mostre que
X
n
n
q.c.
0
se e somente se E|X
1
| < .
Exerccio 5.3.8. Seja (X
n
)
n
uma sequncia i.i.d. Mostre que
X
n

n
q.c.
0
se e somente se E|X
1
|
2
< .
Exerccio 5.3.9. Seja (X
n
)
n
uma sequncia i.i.d. com distribuio exp(1). Mostre
que
P (X
n
2 log n i.v.) = 0.
5.3. EXERCCIOS 103
Exerccio 5.3.10. Seja (X
n
)
n
uma sequncia i.i.d. com distribuio Poisson().
Mostre que
X
n
log n
q.c.
0.
Sugesto: mostre antes que Ee
X
1
/
< .
Exerccio 5.3.11. Seja (X
n
)
n
uma sequncia i.i.d. de variveis aleatrias no-
negativas com EX
2
1
< . Mostre que
P
_

n=1
X
n
n
2
<
_
= 1
Exerccio 5.3.12. [Jam04, Captulo 6]. Recomendados: 15, 19.
104 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
Captulo 6
Lei dos Grandes Nmeros
...
6.1 Lei Fraca
Sejam X
1
, X
2
, . . . variveis aleatrias integrveis em (, F, P) e S
1
, S
2
, . . . suas
somas parciais dadas por
S
n
= X
1
+X
2
+ +X
n
.
Denio 6.1.1 (Lei Fraca dos Grandes Nmeros). Dizemos que a sequncia
(X
1
, X
2
, . . . ) satisfaz a Lei Fraca dos Grandes Nmeros se, para todo > 0, vale
P
_

S
n
ES
n
n


_
0, quando n ,
ou seja, se
S
n
ES
n
n
P
0.
Teorema 6.1.2 (Lei dos Grandes Nmeros de Bernoulli, 1713). Considere
uma sequncia de ensaios binomiais independentes tendo a mesma probabi-
lidade p de sucesso em cada ensaio. Se S
n
o nmero de sucessos nos
primeiros n ensaios, ento
S
n
n
P
p.
105
106 CAPTULO 6. LEI DOS GRANDES NMEROS
Demonstrao. Omitimos a demonstrao original de Bernoulli. A Lei dos Grandes
Nmeros de Tchebyshev mais geral.
A Lei dos Grandes Nmeros de Bernoulli tem uma importncia histrica
inestimvel. De certa forma, esse teorema justica o conceito de probabilidade
como sendo a frequncia relativa de ocorrncia de um evento, isto ,
p
quantidade de experimentos em que o evento e observado
quantidade total de experimentos realizados
,
onde a ideia de aproximao passa a ter um signicado mais preciso, o da
convergncia em probabilidade. O ano de 2013 foi considerado o Ano Internacional
da Estatstica em comemorao dos 300 anos do teorema de Bernoulli.
Teorema 6.1.3 (Lei dos Grandes Nmeros de Tchebyshev, 1867). Sejam
X
1
, X
2
, . . . variveis aleatrias duas a duas no-correlacionadas e com va-
rincias nitas e uniformemente limitadas, isto , existe M nito, tal que
V X
n
< M para todo n. Ento (X
1
, X
2
, . . . ) satisfaz a Lei Fraca dos Grandes
Nmeros:
S
n
ES
n
n
P
0.
Demonstrao. Pela Desigualdade Clssica de Tchebyshev, temos
P
_

S
n
ES
n
n

V (
S
n
n
)

2
=
V S
n

2
n
2
=

n
i=1
V X
i

2
n
2

n M

2
n
2
0.
Teorema 6.1.4 (Lei dos Grandes Nmeros de Khintchine, 1929). Sejam
X
1
, X
2
, . . . variveis aleatrias independentes, identicamente distribudas e
integrveis, com mdia . Ento (X
1
, X
2
, . . . ) satisfaz a Lei Fraca dos Grandes
Nmeros:
S
n
n
P
.
6.2. LEI FORTE 107
A demonstrao original de Khintchine foi feita usando o mtodo de trun-
camento, aparentemente introduzido por Markov, e utilizado em seguida por
Kolmogorov na prova da Lei Forte dos Grandes Nmeros. Vamos omitir a prova
de Khintchine, uma prova usando funes caractersticas ser dada no Captulo 8.
6.2 Lei Forte
Denio 6.2.1 (Lei Forte dos Grandes Nmeros). Dizemos que (X
1
, X
2
, . . . )
satisfaz a Lei Forte dos Grandes Nmeros se
P
_
lim
n
S
n
ES
n
n
= 0
_
= 1,
ou seja, se
S
n
ES
n
n
q.c.
0.
Teorema 6.2.2 (Lei dos Grandes Nmeros de Borel, 1909). Considere uma
sequncia de ensaios binomiais independentes tendo a mesma probabilidade p
de sucesso em cada ensaio. Se S
n
o nmero de sucessos nos primeiros n
ensaios, ento
S
n
n
q.c.
p.
Demonstrao. Omitimos a demonstrao original de Borel. A Lei dos Grandes
Nmeros de Cantelli mais geral.
Seja x um nmero em [0, 1), e considere a expanso decimal
x = 0, x
1
x
2
x
3
x
4
=
x
1
10
+
x
2
100
+ +
x
n
10
n
+ , x
n
{0, 1, 2, . . . , 9}.
Essa expanso nica, exceto quando ela termina com uma cadeia innita de 0s
(por e.
Dizemos que x normal se ...
A diferena entre a Lei Forte e a Lei Fraca mais profunda do que pode parecer.
Um dos motivos que a interseo de eventos de probabilidade 1 tambm tem
probabilidade 1 Nmeros
normais,
diferena
entre
conver-
gncia
em
probabi-
lidade e
quase
108 CAPTULO 6. LEI DOS GRANDES NMEROS
Teorema 6.2.3 (Lei dos Grandes Nmeros de Cantelli, 1917). Sejam
X
1
, X
2
, . . . variveis aleatrias independentes e identicamente distribudas,
com quarto momento nito e mdia . Ento (X
1
, X
2
, . . . ) satisfaz a Lei Forte
dos Grandes Nmeros:
S
n
n
q.c.
.
Demonstrao. Podemos supor que = 0, ou tomar

X
n
= X
n
. Observe que
S
4
n
= (X
1
+ +X
n
)
4
=

i,j,k,l
X
i
X
j
X
k
X
l
=

i
X
4
i
+
4!
2!2!

i<j
X
2
i
X
2
j
+
+
4!
3!

i=k
X
3
i
X
k
+
4!
2!

j<k
i=j,k
X
2
i
X
j
X
k
+ 4!

i<j<k<l
X
i
X
j
X
k
X
l
.
Por independncia, temos que
ES
4
n
=

i
EX
4
i
+ 6

i<j
E[X
2
i
X
2
j
]+
+

k
E
_
4

X
3
i
+ 12

X
2
i
X
j
+ 24

X
i
X
j
X
l
_
EX
k
.
Como assumimos que EX
k
= 0, a segunda linha igual a zero. Alm disso, como
as X
i
tm a mesma distribuio, obtemos
ES
4
n
= nEX
4
1
+ 6
_
n
2
_
E(X
2
1
X
2
2
)
= nEX
4
1
+ 3(n
2
n)E(X
2
1
X
2
2
)
nEX
4
1
+ 3(n
2
n)
_
EX
4
1
_
EX
4
2
= (3n
2
2n)EX
4
1
3n
2
EX
4
1
.
Pela Desigualdade de Markov
P
_

S
n
n

ES
4
n

4
n
4

3EX
4
1

4
n
2
,
e pelo Lema de Borel-Cantelli segue que
S
n
n
q.c.
0.
6.3. EXERCCIOS 109
Teorema 6.2.4 (Lei dos Grandes Nmeros de Kolmogorov, 1933). Sejam
X
1
, X
2
, . . . variveis aleatrias independentes, identicamente distribudas e
integrveis, com EX
n
= . Ento (X
1
, X
2
, . . . ) satisfaz a Lei Forte dos
Grandes Nmeros:
S
n
n
q.c.
.
Demonstrao. O leitor interessado pode consultar [Jam04, pp. 204214].
6.3 Exerccios
Observao 6.3.1. As questes sobre a Lei Forte dos Grandes Nmeros, por
tratarem de eventos que devem acontecer com probabilidade 1, em geral envolvem
o uso do Lema de Borel-Cantelli.
Exerccio 6.3.2. Seja (X
n
)
n
uma sequncia de variveis aleatrias independentes
com funes de probabilidade p
n
dadas por p
n
(n
2
) =
1
n
3
= 1p
n
(0). Essa sequncia
satisfaz a Lei dos Grandes Nmeros?
Exerccio 6.3.3. Seja (X
n
)
n
uma sequncia de variveis aleatrias independentes
com funes de probabilidade p
n
dadas por p
n
(n
2
) =
1
n
2
= 1p
n
(0). Essa sequncia
satisfaz a Lei dos Grandes Nmeros?
Exerccio 6.3.4. [Jam04, Captulo 5]. Recomendados: 2, 3, 14.
110 CAPTULO 6. LEI DOS GRANDES NMEROS
Captulo 7
Teorema Central do Limite
Seja (X
n
)
n
uma sequncia i.i.d. de variveis aleatrias. Pela Lei dos Grandes
Nmeros sabemos que a mdia amostral
S
n
n
se aproxima do valor esperado para
valores grandes de n, isto ,
S
n
n
.
Porm, no razovel esperar que
S
n
n
seja exatamente igual a . Ento a primeira
pergunta que surge sobre a utuao
S
n
n
da mdia amostral em torno do seu
valor esperado. Tipicamente, essa diferena ocorre em qual escala? Nessa escala,
qual seu comportamento estatstico?
No difcil adivinhar a escala em que ocorre essa utuao. De fato, sabemos
que ES
n
= nEX
1
= n e V S
n
= nV X
1
= n
2
, ou seja, (S
n
) =

n. Assim
temos que a esperana da mdia amostral e seu desvio-padro

n
. Isso uma
indicao de que tipicamente as utuaes assumem valores da ordem

n
(de fato,
pela desigualdade de Tchebyshev, as utuaes no podem ser muito maiores do
que o desvio-padro, porm o valor numrico da varincia poderia ser resultado de
uma utuao atipicamente grande, enquanto os valores tpicos fossem na verdade
muito menores). Vamos supor que esse argumento est correto para tentar entender
qual poderia ser o comportamento estatstico das utuaes nessa escala.
Escrevemos
S
n
n
= +

n
Y
n
, onde Y
n
satisfaz EY
n
= 0 e V Y
n
= 1. Ser
que o comportamento estatstico de Y
n
se aproxima de alguma distribuio Y
que no depende de n? Suponhamos que sim, e busquemos um candidato para
essa distribuio. Observamos que S
2n
= S
n
+

S
n
, onde separamos os 2n termos
da soma em dois blocos independentes com tamanho n. Assim obtemos a relao
111
112 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
S
2n
n
= 2+

n
(Y
n
+

Y
n
), onde

Y
n
independente e com a mesma distribuio de Y
n
.
Por outro lado,
S
2n
2n
= +

2n
Y
2n
, donde chegamos nalmente a Y
n
+

Y
n
=

2Y
2n
,
ou seja, Y +

Y

2 Y . A nica distribuio que satisfaz essa relao a


distribuio normal.
Esses argumentos ad hoc so conrmados pelo Teorema Central do Limite:
S
n
ES
n

V S
n
d
N(0, 1).
Reescrevendo, temos
S
n
n
+

n
N(0, 1).
Ou seja, a escala em que a mdia amostral
S
n
n
utua em torno de seu valor
esperado de fato dada por

n
. Ademais, seu comportamento nessa escala possui
forte regularidade estatstica, e sua distribuio se aproxima de uma normal padro.
Dito de outra forma, a distribuio da soma parcial S
n
pode ser aproximada por
uma normal com mesma mdia e varincia de S
n
:
S
n
N(n, n
2
).
7.1 Teorema de De Moivre-Laplace
O exemplo mais simples da aproximao S
n
N(n, n
2
) quando lanamos
uma moeda honesta n vezes e contamos o nmero S
n
de caras. Neste caso S
n
tem
distribuio b(n,
1
2
). Na Figura 7.1 vemos como essa distribuio, devidamente
normalizada, se aproxima da distribuio normal padro.
Teorema 7.1.1 (Teorema de De Moivre-Laplace, 1730, 1812). Seja
(X
n
)
nN
uma sequncia de variveis aleatrias independentes, com distribui-
o Bernoulli(p), onde p = 1 q (0, 1), e tome S
n
= X
1
+ + X
n
. Ento
para todos a < b
P
_
a <
S
n
np

npq
b
_

2
_
b
a
e

x
2
2
dx.
Ou seja,
S
n
N(np, npq).
7.1. TEOREMA DE DE MOIVRE-LAPLACE 113
Figura 7.1: Funo de probabilidade de
S
n
n

n
para S
n
com distribuies b(4,
1
2
)
e b(16,
1
2
) para valores entre 3 e 3. A rea de cada retngulo dada pela funo de
probabilidade. O terceiro grco a funo de densidade de uma normal padro,
assim como as linhas pontilhadas. O quarto grco representa as frequncias
relativas de
S
n
n

n
para S
n
com distribuio b(16,
1
2
), em um experimento real
com 200 amostras.
O teorema foi provado por De Moivre supondo que p =
1
2
e por Laplace para
0 < p < 1. De fato, ele segue de uma aproximao muito mais na:
n!
k! (n k)!
p
k
q
nk

2npq
e

x
2
k
2
, ()
onde
x
k
= x
n,k
=
k np

npq
e signica que a razo entre ambos os termos tende a 1 quando n tende a innito.
O limite em () uniforme se restrito a |x
k
| < M com qualquer M < xo.
Essa aproximao muito mais na porque diz no apenas que a probabilidade
de a utuao estar dentro de um certo intervalo bem aproximada pela normal,
mas tambm que a funo de probabilidade de cada um dos possveis valores dentro
de um intervalo xo aproximado pela densidade da normal.
Para entender de onde vem essa aproximao, primeiro precisamos de uma
expresso mais palpvel para n!. Qual a probabilidade de obtermos exatamente 60
caras se lanamos uma moeda 120 vezes? A resposta fcil:
P(S
120
= 60) =
120!
60! 60!

1
2
120
.
114 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
Essa expresso simples e matematicamente perfeita. Porm, quanto vale essa
probabilidade? Mais de 15%? Menos de 5%? Entre 5% e 10%? Uma calculadora de
bolso trava ao calcular 120!. Num computador esse clculo resulta em 7, 2684979%.
Mas e se fossem 40.000 lanamentos da moeda? E se estivssemos interessados
em calcular P(S
40.000
19.750), faramos um clculo semelhante 250 vezes para
depois somar? As expresses com fatorial so perfeitas para a combinatria, mas
impraticveis para se fazer estimativas. Nosso socorro ser a frmula de Stirling:
n! n
n
e
n

2n.
A aproximao de n! pela frmula de Stirling muito boa mesmo sem tomar n
grande. Ela aproxima 1! por 0, 92, 2! por 1, 92, 4! por 23, 5, e a partir de 9! =
362.880, que aproximado por 359.537, o erro menor que 1%. primeira vista
n
n
e
n

2n no parece mais agradvel do que n!. Mas vejamos como isso ajuda
com o clculo anterior. Temos:
(2k)!
k! k!

1
2
2k

(2k)
2k
e
2k

4k
(k
k
e
k

2k)
2

1
2
2k
=
1

k
=
|
k=60
0, 0728 . . . ,
que pode ser feito at mesmo sem calculadora. Mais do que isso, acabamos de
obter a aproximao () no caso particular em que p = q =
1
2
e n = 2k.
Vamos que mostrar () para |x
k
| < M onde M est xo. Aplicando a frmula
de Stirling obtemos
n!
k! (n k)!
p
k
q
nk

n
n
e
n

2np
k
q
nk
k
k
e
k

2k(n k)
nk
e
kn
_
2(n k)
=
(
np
k
)
k
(
nq
nk
)
nk
_
2k(n k)/n
.
Observe que para |x
k
| < M vale
k = np +

npq x
k
np e n k = nq

npq x
k
nq,
donde obtemos
n!
k! (n k)!
p
k
q
nk

_
np
k
_
k
_
nq
n k
_
nk

2npq
=
f(n, k)

2npq
.
Vamos estudar log f(n, k). Reescrevendo cada termo temos
np
k
= 1

npq x
k
k
e
nq
n k
= 1 +

npq x
k
n k
.
7.1. TEOREMA DE DE MOIVRE-LAPLACE 115
Fazendo a expanso de Taylor de log(1 +x) temos
log(1 +x) = x
x
2
2
+r(x), onde
r(x)
x
2
0 quando x 0.
Assim,
log f(n, k) = k
_

npq x
k
k

npqx
2
k
2k
2
+r(

npq x
k
k
)
_
+
+ (n k)
_
npq x
k
n k

npqx
2
k
2(n k)
2
+r(

npq x
k
nk
)
_
.
Note que os primeiros termos se cancelam e, quando n ,
log f(n, k)
npqx
2
k
2k
2

npqx
2
k
2(n k)
2
=
n
2
pqx
2
k
2k(n k)

n
2
pqx
2
k
2npnq
=
x
2
k
2
,
donde segue que
f(n, k) e

x
2
k
2
uniformemente em |x
k
| < M, o que termina a prova de ().
Somando sobre os possveis valores de S
n
temos
P
_
a <
S
n
np

npq
b
_
=

a<x
k
b
P(S
n
= k) =

a<x
k
b
n!
k! (n k)!
p
k
q
nk
,
onde os somatrios so sobre k com a condio sobre x
k
, que dado por x
k
=
knp

npq
.
Observando que
x
k+1
x
k
=
1

npq
,
e substituindo (), obtemos
P
_
a <
S
n
np

npq
b
_

a<x
k
b
e

x
2
k
2

2npq
=
1

a<x
k
b
e

x
2
k
2
[x
k+1
x
k
].
Finalmente, observamos que o somatrio acima uma soma de Riemann que se
aproxima da integral
1

2
_
b
a
e

x
2
2
dx. Isso termina a prova do Teorema 7.1.1.
116 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
7.2 Teorema Central do Limite
Teorema 7.2.1 (Teorema Central do Limite para Variveis Aleatrias I.I.D.).
Seja (X
n
)
nN
uma sequncia de variveis aleatrias i.i.d., com mdia e
varincia
2
, onde 0 <
2
< , e tome S
n
= X
1
+X
2
+ +X
n
. Ento
S
n
ES
n

V S
n
d
N(0, 1),
isto ,
S
n
n

n
d
N(0, 1).
A demonstrao ser vista no Captulo 8, como aplicao do Teorema da Conti-
nuidade de Lvy para funes caractersticas.
7.3 Frmula de Stirling
Esta seo independente das anteriores, e tem como objetivo demonstrar
Teorema 7.3.1 (Frmula de Stirling). n! n
n
e
n

2n.
Para entender como surge essa a frmula, observe que
log n! = log 1 + log 2 + + log n =
n

k=1
log k
uma aproximao superior para
_
n
0
log xdx = nlog n n = log(n
n
e
n
).
Fazendo log(1 + x) = x
x
2
2
+ r(x), armamos que |r(x)| |x
3
| se |x|
1
4
.
Com efeito, r(0) = r

(0) = r

(0) = 0, 0 r

(x) = 2(1 +x)


3
5 e portanto
|r(x)| =

_
x
0
_
_
y
0
__
z
0
r

(w)dw
_
dz
_
dy

5
|x
3
|
6
|x
3
|.
7.3. FRMULA DE STIRLING 117
Agora, para R, seja
c
n
= log
_
n
n
e
n
n

n!
_
.
Temos que
c
n+1
c
n
= log(n + 1) +nlog(1 +
1
n
) +1 +log(1 +
1
n
) log(n + 1)
=
_
nlog(1 +
1
n
) 1

+log(1 +
1
n
)
=
_
n
_
1
n

1
2n
2
+r(
1
n
)
_
1

+
_
1
n

1
2n
2
+r(
1
n
)
_
=

n

1
2n
+nr(
1
n
)

2n
2
+r(
1
n
)
= nr(
1
n
)
1
4n
2
+
1
2
r(
1
n
)
se escolhemos =
1
2
.
Para concluir a prova da frmula de Stirling, observe que, para n > 4,
|c
n+1
c
n
| |nr(
1
n
)| +
1
4n
2
+|
1
2
r(
1
n
)|
2
n
2
,
logo c
n
c para algum c R. Portanto
n!
n
n
e
n

n
e
c
=

para algum > 0, ou seja


n! n
n
e
n

n.
Resta mostrar que a constante dada por = 2.
Clculo da Constante
A frmula de Stirling foi provada primeiro por De Moivre, e Stirling encontrou o
valor da constante. Vamos provar que = 2 de duas formas diferentes.
Usando a demonstrao do teorema de De Moivre A primeira prova supe
que o leitor viu a demonstrao do teorema de De Moivre-Laplace na Seo 7.1.
Pela desigualdade clssica de Tchebyshev,
1
1
m
2
P
_
m
S
n
np
npq
+m
_
1.
118 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
Agora observe que a demonstrao do teorema de De Moivre-Laplace funciona
com

2
no lugar de . Assim, fazendo n ,
1
1
m
2

_
m
m
e

x
2
2

dx 1.
Fazendo agora m obtemos
_
R
e

x
2
2

dx = 1,
e portanto = 2.
Usando o produto de Wallis O produto de Wallis dado por

2
=

n=1
_
2n
2n 1

2n
2n + 1
_
= lim
n
2
1

2
3

4
3

4
5

6
5

6
7

2n
2n 1

2n
2n + 1
,
o que ser demonstrado mais abaixo.
Tomando a raiz quadrada e usando que
2n
2n+1
1 obtemos
_

2
= lim
n
2 4 6 (2n 2)
3 5 7 (2n 1)

2n.
Multiplicando pelo numerador chegamos a
_

2
= lim
n
2 2 4 4 6 6 (2n 2) (2n 2)
2 3 4 5 6 7 (2n 2) (2n 1)

2n 2n
2n

2n
2n
= lim
n
2
2n
_
1
2
2
2
3
2
n
2
_
(2n)!

1

2n
= lim
n
2
2n
(n!)
2
(2n)!

2n
.
Finalmente, substituindo na frmula de Stirling chegamos a
_

2
= lim
n
2
2n
n
2n
e
2n
n
(2n)
2n
e
2n

2n

2n
=
_

4
,
e portanto = 2.
7.4. EXERCCIOS 119
Demonstrao do produto de Wallis Daremos a demonstrao em forma de
exerccio. Seja
I
n
=
_
/2
0
sen
n
xdx, n 0.
a) Mostre que para todo n 2 vale
I
n
=
n 1
n
I
n2
.
Sugesto: integrando sen
n
x = sen
n1
x sen x por partes, mostre que
_
sen
n
xdx = (n 1)
_
(sen
n2
x)(cos
2
x) dx = (n 1)[I
n2
I
n
].
b) Verique que para todo n 1 vale
I
2n2
I
2n1
=
2n
2n 1

2n
2n + 1

I
2n
I
2n+1
.
c) Verique que I
0
=

2
e I
1
= 1.
d) Mostre por induo que para todo n 0 vale

2
=
2
1

2
3

4
3

4
5

6
5

6
7

2n
2n 1

2n
2n + 1

I
2n
I
2n+1
.
e) Mostre que
2n
2n+1
=
I
2n+1
I
2n1

I
2n+1
I
2n
1, e portanto
I
2n
I
2n+1
1.
7.4 Exerccios
Exerccio 7.4.1. Um par de dados honestos lanado 180 vezes por hora.
1. Qual a probabilidade aproximada de que 25 ou mais lanamentos tenham
tido soma 7 na primeira hora?
2. Qual a probabilidade aproximada de que entre 700 e 750 lanamentos tenham
tido soma 7 durante 24 horas?
Exerccio 7.4.2. Imagine um modelo idealizado com M eleitores, dos quais M
A
pretendem votar no candidato A. Suponha que seja possvel sortear um desses
eleitores ao acaso, e de forma equiprovvel. Denimos
X =
_
1, caso o eleitor sorteado v votar no candidato A,
0, caso contrrio.
120 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
Deseja-se estimar a proporo p =
M
A
M
de eleitores do candidato A, que
desconhecida. Para isso, repete-se este processo N vezes, obtendo-se X
1
, . . . , X
N
.
Para estimar o valor de p considera-se
p
N
=
X
1
+ +X
N
N
.
Supomos a priori que p bem prximo de
1
2
, de forma que V X
1
4
. Se
entrevistamos N = 2500 eleitores, calcule aproximadamente a probabilidade de
essa pesquisa cometer um erro | p
N
p| maior que 0, 01.
Exerccio 7.4.3. A quantidade de uvas-passas encontradas em cada panetone
de uma determinada marca independente dos demais panetones e segue a
distribuio de Poisson com parmetro = 25 (ou seja, tm esperana igual
varincia, igual a ). Um grupo de estudantes de frias resolve estimar o valor
de , uma vez que o mesmo desconhecido para eles. Para isso, vo contar as
uvas-passas de uma amostra de N = 625 panetones e registrar o resultado de cada
contagem X
1
, . . . , X
N
. A estimativa

N
para o valor de que os estudantes vo
adotar ser dada por

N
=
X
1
+ +X
N
N
.
a) Qual o valor aproximado da probabilidade de que o valor

N
esteja entre
24, 8 e 25, 4?
b) Para que o erro

fosse menor que 0, 075 com probabilidade pelo menos


igual a 86, 64%, qual deveria ser o nmero N de panetones examinados?
(Sugesto: resolve-se esse item como o anterior, porm de trs para frente.)
Exerccio 7.4.4. Use o Teorema Central do Limite para vericar que
lim
n
2 e
n
n

k=0
n
k
k!
= 1.
Exerccio 7.4.5. Se lanamos 10.000 vezes uma moeda honesta, calcule aproxi-
madamente a probabilidade de que o nmero de vezes que se obtm coroa seja no
mnimo 4.893 e no mximo 4.967.
Exerccio 7.4.6. [Jam04, Captulo 7]. Recomendados: 2 e 9.
Captulo 8
Funes Geradoras
A funo geradora de momentos e a funo caracterstica esto entre os exemplos
mais importantes de transformadas. A ideia geral de transformada mapear certos
objetos em objetos de outro tipo e outras propriedades, onde determinadas anlises
so possivelmente mais fceis. Isso car claro nos exemplos e aplicaes. A
funo geradora de momentos a instncia da Transformada de Laplace de uma
distribuio em R, e a funo caracterstica a Transformada de Fourier.
8.1 Funo Geradora de Momentos
Denio 8.1.1. Seja X uma varivel aleatria. Dene-se a funo geradora
de momentos M
X
(t) de X, como
M
X
(t) = E[e
tX
],
desde que a esperana seja nita para todo t em algum intervalo [b, b]. Caso
contrrio dizemos que X no possui funo geradora de momentos.
121
122 CAPTULO 8. FUNES GERADORAS
Assim,
M
X
(t) =
_

x
e
tx
P(X = x), se X discreta,
_
R
e
tx
f
X
(x) dx, se X contnua.
Exemplo 8.1.2 (Bernoulli). Se X Bernoulli(p), ento
M
X
(t) = pe
t
+ 1 p = 1 +p(e
t
1).
Exemplo 8.1.3 (Binomial). Se X b(n, p), ento
M
X
(t) =
n

k=0
e
tk
_
n
k
_
p
k
(1 p)
nk
=
n

k=0
_
n
k
_
(e
t
p)
k
(1 p)
nk
= [e
t
p + (1 p)]
n
= [1 +p(e
t
1)]
n
Exemplo 8.1.4 (Geomtrica). Se X Geom(p), ento
M
X
(t) =

n=1
e
tn
p(1 p)
n1
= e
t
p

m=0
[(e
t
)(1 p)]
m
=
pe
t
1 (1 p)e
t
=
p
e
t
+p 1
, para t < log
1
1p
.
Proposio 8.1.5. Mostre que, se X tem funo geradora de momentos M
X
(t) e
Y = aX +b, ento M
Y
(t) = e
bt
M
X
(at).
Demonstrao. Feita em aula.
Exemplo 8.1.6 (Poisson). Se X Poisson(), ento
M
X
(t) =

n=0
e
tn
e

n
n!
= e

n=0
(e
t
)
n
n!
= e

e
e
t
= e
(e
t
1)
.
Proposio 8.1.7. Se X tem funo geradora de momentos M
X
(t), ento
d
k
dt
k
M
X
(t)

t=0
= EX
k
.
8.1. FUNO GERADORA DE MOMENTOS 123
Demonstrao. Para lembrar da frmula interessante entender a ideia da prova:
d
k
dt
k
M
X
(t)

t=0
=
d
k
dt
k
E[e
tX
]

t=0
= E
_
d
k
dt
k
e
tX

t=0
_
= EX
k
.
No caso de X ser uma varivel aleatria simples, essa a demonstrao, pois a
esperana uma soma nita e podemos derivar dentro da soma. No caso geral, h
que se justicar a derivada dentro da esperana. Este passo ser omitido porque
envolve Teoria da Medida.
Exemplo 8.1.8 (Bernoulli). Se X Bernoulli(p), ento
EX = M

X
(0) = p,
EX
2
= M

X
(0) = p,
V X = EX
2
(EX)
2
= p(1 p).
Exemplo 8.1.9 (Binomial). Se X b(n, p), ento
EX = M

X
(0) = np,
EX
2
= M

X
(0) = np(1 p) n
2
p
2
,
V X = EX
2
(EX)
2
= np(1 p).
Exemplo 8.1.10 (Geomtrica). Se X Geom(p), ento
EX = M

X
(0) =
1
p
,
EX
2
= M

X
(0) =
2
p
2

1
p
,
V X = EX
2
(EX)
2
=
1 p
p
2
.
Exemplo 8.1.11 (Poisson). Se X Poisson(), ento
EX = M

X
(0) = ,
EX
2
= M

X
(0) =
2
+,
V X = EX
2
(EX)
2
= .
124 CAPTULO 8. FUNES GERADORAS
Proposio 8.1.12 (Unicidade). A funo geradora de momentos dene de
forma unvoca a distribuio da varivel aleatria, ou seja, se M
X
= M
Y
em
algum intervalo [b, b] ento F
X
= F
Y
.
Demonstrao. Omitida. Envolve Teoria da Medida.
Exemplo 8.1.13. Se X uma varivel aleatria no-constante assumindo valores
em {0, 1, 2, 3, . . . } e EX < , chamamos de amostragem por tamanho de X
distribuio dada por p
Y
(n) =
1
EX
n p
X
(n). Vamos mostrar que Y X +1 se e
somente se X Poisson() para algum > 0.
Demonstrao. Com efeito, observe que
M
X+1
(t) = e
t
M
X
(t)
e, tomando = EX,
M

X
(t)

=
1

n
ne
tn
p
X
(n) =

n
e
tn
_
np
X
(n)

_
=

n
e
tn
p
Y
(n) = M
Y
(t).
Se M
X+1
= M
Y
vale
e
t
M(t) =
M

(t)

(t)
M(t)
= e
t
,
integrando em t obtemos
log M(t) = e
t
+c
e, como M(0) = 1, temos c = . Logo,
M(t) = e
(e
t
1)
e portanto X Poisson().
8.2. FUNO CARACTERSTICA 125
Proposio 8.1.14 (Variveis Aleatrias Independentes). Se X e Y so
independentes e possuem funo geradora de momentos, ento
M
X+Y
(t) = M
X
(t) M
Y
(t)
para todo t onde ambas M
X
e M
Y
estejam denidas.
Demonstrao. Feita em aula.
Exemplo 8.1.15 (Soma de Poissons Independentes). Se X Poisson() e Y
Poisson() so independentes, ento
M
X+Y
(t) = M
X
(t) M
Y
(t) = e
(e
t
1)
e
(e
t
1)
= e
(+)(e
t
1)
= M
Z
(t),
onde Z Poisson( +). Portanto, X +Y Poisson( +).
Exemplo 8.1.16 (Binomial). Se X b(n, p), ento X distribuda como a soma
de n variveis X
1
, . . . , X
n
independentes com distribuio Bernoulli(p). Portanto,
M
X
(t) = M
X
1
(t) M
X
n
(t) = [1 +p(e
t
1)]
n
.
8.2 Funo Caracterstica
Do ponto de vista terico, a funo caracterstica bem mais robusta e funcional
que a funo geradora de momentos: est denida para qualquer distribuio; sem-
pre determina a distribuio; determina tambm a convergncia em distribuio;
no bastasse, ainda gera momentos. Entretanto, a funo caracterstica envolve a
manipulao de nmeros complexos.
1
Denio 8.2.1 (Varivel Aleatria Complexa). Uma varivel aleatria complexa
Z uma funo Z : C tal que Z = X+i Y , onde X e Y so variveis aleatrias
reais. Se X e Y so integrveis, dizemos que Z integrvel e denimos
EZ = EX +iEY.
1
O uso de funes caractersticas no requer conhecimentos de clculo em uma varivel
complexa. Isso porque as integrais so calculadas em dx para x R e no em dz para
caminhos C. As nicas situaes em que teramos que sair de R e usar argumentos tpicos de
variveis complexas, em particular
_

f(z) dz = 0, seriam na obteno da funo caracterstica


da Normal e da distribuio de Cauchy.
126 CAPTULO 8. FUNES GERADORAS
A integrao de funes complexas em domnios reais pode ser feita, para todos
os ns prticos, como no caso real. Ou seja, se F : R C satisfaz
d
dx
F(x) = f(x)
para x [a, b], ento
_
b
a
f(x) dx = F(b) F(a).
Vamos utilizar a frmula de Euler
e
iy
= cos(y) +i sen(y), |e
iy
| = 1,
e usaremos sem demonstrao os seguintes fatos: Algo
mais?
e
z
=

n
z
n
n!
, e
z+w
= e
z
e
w
, (e
g
)

= g

e
g
,
_
1 +
z
n
n
_
n
e
z
se z
n
z.
Proposio 8.2.2. Se Z e W so variveis aleatrias complexas integrveis, ento
Z+W integrvel com E[Z+W] = EZ+EW, e para z C tem-se zW integrvel
com E[zW] = zEW. Se, alm disso, Z e W so independentes, ento ZW
integrvel com E[ZW] = EZ EW.
Demonstrao. Feita em aula.
Proposio 8.2.3. |EZ| E|Z|
Demonstrao. Fazendo EZ = re
i
, com r = |EZ|, temos E[e
i
Z] = e
i
E[Z] =
r R, logo r = E[(e
i
Z)] E|e
i
Z| = E|Z|.
Denio 8.2.4 (Funo Caracterstica). A funo caracterstica de uma
varivel aleatria X, denotada por
X
, a funo
X
: R C denida
como

X
(t) = E[e
itX
] = E cos(tX) +iE sen(tX), t R.
Observao 8.2.5. Como |e
itX
| = 1,
X
(t) sempre est denida para todo t R.
8.2. FUNO CARACTERSTICA 127
Exemplo 8.2.6 (Uniforme). Se X U[a, b], ento

X
(t) = E[e
itX
] = E[cos(tX)] +iE[sen(tX)]
=
_
b
a
cos(tx)
1
b a
dx +i
_
b
a
sen(tx)
1
b a
dx
=
1
t(b a)
sen(tx)

b
a

i
t(b a)
cos(tx)

b
a
=
1
t(b a)
[sen(tb) sen(ta) i cos(tb) +i cos(ta)]
=
ie
itb
+ie
ita
t(b a)
=
e
itb
e
ita
it(b a)
.
Ou, mais rpido:

X
(t) =
_
b
a
e
itx
1
b a
dx =
1
b a
1
it
_
e
itx

b
a
_
=
e
itb
e
ita
it(b a)
.
Exemplo 8.2.7 (Poisson). Se X Poisson(), ento:

X
(t) = E[e
itX
] =

n=0
e
itn
e

n
n!
= e

n=0
(e
it
)
n
n!
= e

e
e
it

= e
(e
it
1)
.
Exemplo 8.2.8 (Geomtrica). Se X Geom(p), ento

X
(t) =

n=1
e
itn
p(1 p)
n1
= e
it
p

m=0
[(e
it
)(1 p)]
m
=
p
e
it
+p 1
.
Proposio 8.2.9. Para todo t R vale |
X
(t)| 1. Alm disso, (0) = 1.
Ademais, para a, b R, vale
aX+b
(t) = e
itb

X
(at).
Demonstrao. Feita em aula.
Proposio 8.2.10 (Independncia). Se X e Y so independentes, ento

X+Y
(t) =
X
(t)
Y
(t)
para todo t R.
128 CAPTULO 8. FUNES GERADORAS
Demonstrao. Feita em aula.
Proposio 8.2.11 (Clculo de Momentos). Se E|X
k
| < ento
d
k
dt
k

X
(t)

t=0
= i
k
EX
k
.
Demonstrao. Idntico ao caso da funo geradora de momentos, com iX no lugar
de X.
Corolrio 8.2.12 (Expanso de Taylor). Se E|X
k
| < , ento

X
(t) =
X
(0) +

X
(0) t +

X
(0)
t
2
2
+

X
(0)
t
3
6
+ +
(k)
X
t
k
k!
+r
k
(t)
= 1 +iEX t
EX
2
2
t
2
i
EX
3
6
t
3
+ +i
k
EX
k
k!
t
k
+r
k
(t),
onde o resto r
k
(t) pequeno:
r
k
(t)
t
k

t0
0.
Demonstrao. Omitida. Toda funo com k-sima derivada admite essa expanso
com resto pequeno.
Exemplo 8.2.13 (Poisson). Calculando os momentos da Poisson:
EX = i

X
(0) = ,
EX
2
=

X
(0) =
2
+,
V X = EX
2
(EX)
2
= .
Proposio 8.2.14 (Unicidade). Se
X
(t) =
Y
(t) t R, ento X Y .
Demonstrao. O leitor interessado pode consultar [Jam04, pp. 226228].
8.2. FUNO CARACTERSTICA 129
Exemplo 8.2.15 (Soma de Poissons Independentes). Se X Poisson() e Y
Poisson() so independentes, ento

X+Y
(t) =
X
(t)
Y
(t) = e
(e
it
1)
e
(e
it
1)
= e
(+)(e
it
1)
=
Z
(t),
onde Z Poisson( +). Portanto, X +Y Poisson( +).
Convergncia em distribuio
O Teorema de Continuidade relaciona convergncia de funes caractersticas com
convergncia em distribuio, vista no Captulo 5.
Teorema 8.2.16 (Teorema da Continuidade de Lvy). Sejam X e (X
n
)
nN
variveis aleatrias. Ento
X
n
d
X
se, e somente se,

X
n
(t)
X
(t) t R.
Demonstrao. O leitor interessado pode consultar [Jam04, pp. 234239].
Exemplo 8.2.17 (Binomial Converge a Poisson). Seja > 0 e para n >
1
considere X
n
b(n,

n
). Ento
X
n
d
Poisson().
Demonstrao. Analisando a funo caracterstica das X
n
obtemos

X
n
(t) = [1 +

n
(e
it
1)]
n
e
(e
it
1)
=
X
(t) com X Poisson().
Demonstrao do Teorema 6.1.4. Como as X
n
so i.i.d., temos
S
n
n
(t) =
S
n
(
t
n
) =
X
1
(
t
n
)
X
n
(
t
n
) =
_

X
1
_
t
n
_
n
=
_
1 +i
t
n
+r
1
_
t
n
_
_
n
,
onde r
1
() tal que
r
1
(w)
w
0 quando w 0. Segue que S
n
n
(t) e
it
quando
n , para todo t R. Pelo Teorema 8.2.16,
S
n
n
d
. Como constante, isso
o mesmo que
S
n
n
P
.
130 CAPTULO 8. FUNES GERADORAS
Demonstrao do Teorema 7.2.1. Supomos sem perda de generalidade que = 0.
Como as X
n
so i.i.d., temos
S
n

n
(t) =
S
n
(
t

n
) =
_

X
1
_
t

n
__
n
=
_
1
t
2
2n
+r
2
_
t

n
_
_
n
,
onde r
2
() tal que
r
2
(w)
w
2
0 quando w 0. Segue que S
n

n
(t) e

t
2
2
quando
n , para todo t R. Pelo Teorema 8.2.16,
S
n

n
d
N.
8.3 Exerccios
Exerccio 8.3.1. Se X N(0, 1), mostre que M
X
(t) = e
t
2
2
. Mostre que EX = 0.
Mostre que V X = 1. (Sugesto: verique que (z
2
2tz) = t
2
(z t)
2
e faa
z t = u.)
Exerccio 8.3.2. Sejam X
1
, X
2
, X
2
, . . . independentes,
S
n
= X
1
+X
2
+ +X
n
e

S
n
=
X
1
+X
2
+ +X
n
n
.
Mostre as seguintes propriedades:
1. Se X N(,
2
), ento Z =
X

N(0, 1).
2. Assim, se X N(,
2
), ento
M
X
(t) = e
t+
1
2

2
t
2
EX =
V X =
2
.
3. Se X
i
N(
i
,
2
i
), ento S
n
N(

n
i=1

i
,

n
i=1

2
i
).
4. Se X
i
N(,
2
), ento S
n
N(n, n
2
).
5. Se X
i
N(,
2
), ento

S
n
N(,

2
n
).
Exerccio 8.3.3. A distribuio dos comprimentos dos elos da corrente de bicicleta
normal, com mdia 2 cm e varincia 0, 01 cm
2
. Para que uma corrente se ajuste
bicicleta, deve ter comprimento total entre 58 e 61 cm. Qual a probabilidade
de uma corrente com 30 elos no se ajustar bicicleta?
8.3. EXERCCIOS 131
Exerccio 8.3.4. As duraes de gravidez tm distribuio normal com mdia de
268 dias e desvio-padro de 15 dias.
(a) Selecionada aleatoriamente uma mulher grvida, determine a probabilidade
de que a durao de sua gravidez seja inferior a 260 dias.
(b) Se 25 mulheres escolhidas aleatoriamente so submetidas a uma dieta
especial a partir do dia em que engravidam, determine a probabilidade de os prazos
de durao de suas gravidezes terem mdia inferior a 260 dias (admitindo-se que a
dieta no produza efeito).
(c) Se as 25 mulheres tm realmente mdia inferior a 260 dias, h razo de
preocupao para os mdicos de pr-natal? Justique adequadamente.
Exerccio 8.3.5. O peso de uma determinada fruta uma varivel aleatria com
distribuio normal com mdia de 200 gramas e desvio-padro de 50 gramas.
Determine a probabilidade de um lote contendo 100 unidades dessa fruta pesar
mais que 21 kg.
Exerccio 8.3.6. Um elevador pode suportar uma carga de 10 pessoas ou um peso
total de 1750 libras. Assumindo que apenas homens tomam o elevador e que seus
pesos so normalmente distribudos com mdia 165 libras e desvio-padro de 10
libras, qual a probabilidade de que o peso limite seja excedido para um grupo de
10 homens escolhidos aleatoriamente?
Exerccio 8.3.7. Se X U[a, b], calcule M
X
(t). Use a funo geradora de
momentos para calcular EX e V X.
Exerccio 8.3.8. As cinco primeiras repeties de um experimento custam R$
10, 00 cada. Todas as repeties subsequentes custam R$ 5, 00 cada. Suponha que
o experimento seja repetido at que o primeiro sucesso ocorra. Se a probabilidade
de sucesso de uma repetio igual a 0, 9, e se as repeties so independentes,
qual custo esperado da operao?
Exerccio 8.3.9. Se X exp(), calcule M
X
(t). Use a funo geradora de
momentos para calcular EX e V X.
Exerccio 8.3.10. Seja Y uma varivel aleatria absolutamente contnua com
funo de densidade de probabilidade dada por
f
Y
(y) =
_
ye
y
, se y > 0
0, caso contrrio
Ache a funo geradora de momentos de Y e use-a para calcular EY e V Y .
132 CAPTULO 8. FUNES GERADORAS
Exerccio 8.3.11. Se X N(0, 1), mostre que
X
(t) = e

t
2
2
.
Voc pode usar o seguinte fato, da teoria do clculo em uma varivel complexa:
_
R
e
(w+ci)
2
dw =
_
R
e
w
2
dw
para qualquer c R.
Exerccio 8.3.12. Se X N(,
2
), calcule
X
(t).
Exerccio 8.3.13. [Jam04, Captulo 6].
Recomendados: 1, 2, 3, 4, 7, 9, 13a, 14, 17, 18, 21, 29.
Captulo 9
Esperana Condicional
Muitas vezes a estrutura do espao amostral complicada demais para estudar-
mos as grandezas de interesse diretamente a partir dos eventos elementares ,
at mesmo em situaes aparentemente simples.
Neste contexto, estudamos as propriedades de algumas grandezas observveis,
ou ainda, conseguimos dividir em classes que podem ser estudadas como um
todo. Estudar uma partio D de quer dizer que estamos trabalhando apenas
com a informao relacionada quela partio.
Da mesma forma, e inmeras situaes queremos estudar o comportamento de
uma dada varivel aleatria X em termos de outra varivel aleatria Y , o que em
estatstica signica dizer que buscamos um estimador para X sabendo-se o valor
da varivel Y .
9.1 Esperana Condicional dada uma Partio
Nesta
seo X
sempre
discreta
e no-
negativa
Denio 9.1.1. Dizemos que D = {D
1
, D
2
, D
3
, . . . } uma partio de (, F) se
D
i
F i, D
i
D
j
= i = j, e
i
D
i
= .
Exemplo 9.1.2. Sejam X
1
, X
2
, X
3
, . . . variveis aleatrias assumindo valores em
{1, 1}. O espao pode ser dividido em tomos onde X
1
e X
2
so constantes.
133
134 CAPTULO 9. ESPERANA CONDICIONAL
Denio 9.1.3 (Probabilidade Condicional Dada uma Partio). Dada uma
partio D = {D
i
}
i
e um evento A, denimos a varivel aleatria
P(A|D) = P(A|D)() =

i
P(A|D
i
) 1
D
i
(),
isto , em cada tomo D
i
da partio D, temos que P(A|D) assume o valor
constante P(A|D
i
).
Exemplo 9.1.4. Suponha que
P (chover amanh|chove hoje) = 0, 7,
P (chover amanh|no chove hoje) = 0, 1,
e seja D = {chove hoje, no chove hoje}. Ento
Z = P(chover amanh|D) =
_
0, 7, se no estado chove hoje,
0, 1, caso contrrio.
Exemplo
com dois
irmos,
nascido
no
sbado,
etc.
Teorema 9.1.5 (Lei da Probabilidade Total).
P(A) = E
_
P(A|D)

.
Demonstrao. E
_
P(A|D)

=

i
P(A|D
i
)E[1
D
i
] =

i
P(A|D
i
)P(D
i
) = P(A).

Exemplo 9.1.6. Se P(chover hoje) = 0, 6, ento


P(chover amanh) = EZ =

z
z P(Z = z) = 0, 7 0, 6 + 0, 1 0, 4 = 0, 46.
Denio 9.1.7. Seja X uma varivel aleatria discreta. Denimos a partio
induzida por X como D
X
= {D
1
, D
2
, D
3
, . . . }, onde D
j
= { : X() = x
j
}.
Denotamos a varivel aleatria P(A|D
X
)() por P(A|X)().
9.1. ESPERANA CONDICIONAL DADA UMA PARTIO 135
Exemplo 9.1.8. Se X e Y so i.i.d. Bernoulli(p), considere o evento A = [X+Y =
1]. Vamos calcular P(A|Y ):
P(A|Y ) = p 1
[Y =0]
+ (1 p) 1
[Y =1]
,
ou, escrevendo explicitamente como funo de Y :
P(A|Y ) = p (1 Y ) + (1 p) Y.
Denio 9.1.9 (Esperana Condicional Dada uma Partio). Seja X uma
varivel aleatria simples. Considere D uma partio de (, F). Denimos a
varivel aleatria
E(X|D)() =

i
E(X|D
i
) 1
D
i
().
Observe que, desenvolvendo a expresso acima, temos
E(X|D) =

i
_

x
x P(X = x|D
i
)
_
1
D
i
=

x
x
_

i
P(X = x|D
i
) 1
D
i
_
,
e portanto
E(X|D) =

x
x P(X = x| D).
A esperana condicional E(X|D) a uma aproximao para X que depende apenas
da informao relacionada partio D. Ela grosseira o suciente para atender
restrio de ser constante no tomos de D, mas na o suciente para ser a melhor
entre todas as aproximaes sujeitas a essa restrio. Veja a Figura 9.1.
Exemplo 9.1.10. Lanamento de um dado honesto. Seja D = {mpar, par}.
Temos
Z() = E(X|D)() =
_
E(X|X par), se X() par,
E(X|X mpar), se X() mpar.
136 CAPTULO 9. ESPERANA CONDICIONAL
D D

X() E(X|D)()
Figura 9.1: Ilustrao da denio de E(X|D).
Assim,
Z() =
_
4, se X() par,
3, se X() mpar.
Proposio 9.1.11 (Propriedades da esperana condicional).
1. E(c | D) = c
2. Se X Y ento E(X|D) E(Y |D)
3. E(aX +bY |D) = aE(X|D) +bE(Y |D)
4. E(X|{}) = EX .
Demonstrao. Se X = c, ento E(X|D) = c para qualquer D com P(D) > 0,
pois E(|D) nada mais que uma esperana calculada com respeito medida de
probabilidade P(|D). Portanto, temos que E(c | D) = c. Analogamente, E(aX + Refazer
bY |D) = aE(X|D) +bE(Y |D) e se X Y ento E(X|D) E(Y |D).
Teorema 9.1.12 (Generalizao da Lei da Probabilidade Total).
EX = E
_
E(X|D)

.
9.1. ESPERANA CONDICIONAL DADA UMA PARTIO 137
Demonstrao. Pelo Teorema 9.1.5,
E
_
E(X|D)

= E
_

x
x P(X = x|D)
_
=

x
x E
_
P(X = x|D)

x
x P(X = x) = EX.
Com o Teorema 9.1.12 completamos o diagrama da Figura 9.2.
P()
EX=

x
xP(X=x)
/
P(A|D)=
P(AD)
P(D)

E()
P(|D)
E(X|D)=

x
xP(X=x|D)
/
P(A|D)=

i
P(A|D
i
)1
D
i

E(|D)
E(X|D)=

i
E(X|D
i
)1
D
i

P(|D)
P(A)=E[P(A|D)]
E
E(X|D)=

x
xP(X=x|D)
/
E(|D)
EX=E[E(X|D)]
Y
Figura 9.2: Relao entre probabilidade, esperana, probabilidade condici-
onal dado um evento, esperana condicional dado um evento, probabilidade
condicional dada uma partio, e esperana condicional dada uma partio.
Exemplo 9.1.13. Lanamento do dado no Exemplo 9.1.10. Temos
EX = E
_
E(X|D)

= EZ =
7
2
.
Exemplo:
jogar um
dado e
depois
jogar a
quanti-
dade de
moedas
corres-
ponden-
tes ao
nmero
do dado
Se Y uma varivel aleatria discreta, denotamos
E(X|Y ) = E(X|D
Y
).
Exerccio 9.1.14. Se X e Y so independentes ento E(X|Y ) = EX constante.
138 CAPTULO 9. ESPERANA CONDICIONAL
Observao 9.1.15. Caso particular do teorema anterior: EX = E
_
E(X|Y )

.
Dizemos que D
2
mais na que D
1
, denotado por D
2
D
1
, se todo elemento de D
1
igual unio de elementos de D
2
, isto , se para todo D D
1
existe C D
2
tal
que D = C. Isso signica que D
2
tem mais informao do que D
1
.
Exemplo 9.1.16. Seja D
2
= {D
1
, D
2
, D
3
, D
4
} uma partio de , e sejam D
5
=
D
1
D
3
, D
6
= D
2
e D
7
= D
4
. Se denimos D
1
= {D
5
, D
6
, D
7
}, temos D
2
D
1
.
Exemplo 9.1.17. Para qualquer partio D vale D D {}.
Dizemos que X D-mensurvel se D D
X
, isto , se X constante nos tomos
de D, ou seja, se a informao sobre D determina o valor de X.
Observao 9.1.18. X sempre D
X
-mensurvel. Se Y = g(X) para alguma
g : R R, ento Y D
X
-mensurvel.
Denimos D
X
1
,X
2
,...,X
d
como sendo a partio gerada pelo vetor (X
1
, X
2
, . . . , X
d
),
ou seja, a partio cujos tomos so os maiores conjuntos onde todas as X
j
so
constantes. Mais formalmente, se {x
1
, . . . , x
k
} so os valores assumidos pelo vetor
aleatrio X, denimos D
i
= [X = x
i
] e D = {D
1
, . . . , D
k
}.
Exerccio 9.1.19. Mostre que D
X
1
,X
2
D
X
1
.
De forma anloga a E(X|Y ), denimos
E(X|Y
1
, . . . , Y
n
) = E
_
X

D
Y
1
,...,Y
n
_
.
Proposio 9.1.20. Se X D-mensurvel, ento
E(XY |D) = XE(Y |D).
Em particular, E(X|D) = X. Ademais, E(X|X) = X.
Demonstrao. Feita em aula, seguindo [Shi96, p. 80].
Observao 9.1.21. E(X|D) sempre D-mensurvel.
Proposio 9.1.22. Se D
1
D
2
, ento
E
_
E(X|D
2
)

D
1

= E
_
E(X|D
1
)

D
2

= E(X|D
1
).
Em particular,
E
_
E(X|Y
1
, Y
2
)

Y
1

= E(X|Y
1
).
9.2. DISTRIBUIO CONDICIONAL REGULAR 139
Demonstrao. Feita em aula, seguindo [Shi96, p. 81].
Exemplo 9.1.23. Dada uma funo g, vale
E [g(Y )E (X|Y )] = E [Xg(Y )] .
Com efeito, como Z = g(Y ) D
Y
-mensurvel, temos
E
_
Xg(Y )

= g(Y )E(X|Y ).
Tomando a esperana dos dois lados, obtemos a equao anterior.
Sumrio
da seo
9.2 Distribuio Condicional Regular
Quando Y uma varivel aleatria discreta assumindo valores y
1
, y
2
, . . . , essa
varivel aleatria induz uma partio D
Y
de (, F), e temos as seguintes relaes:
P(X B) =

y
P(X B|Y = y)P(Y = y) = E
_
P(X B|Y )

E(X) =

y
E(X|Y = y)P(Y = y) = E
_
E(X|Y )

.
No caso de variveis aleatrias Y que no sejam discretas, temos que dar sentido
a expresses como P(X B|Y = y) e E(X|Y = y), mesmo que P(Y = y) seja
zero, para poder dizer que relaes anlogas continuam valendo.
Denio 9.2.1 (Distribuio Condicional Regular). Sejam X e Y variveis
aleatrias denidas no mesmo espao de probabilidade (, F, P). A distribui-
o condicional regular de X dado que Y = y denida por
P
_
X [s, t]

Y = y
_
= lim
0
lim
0
P
_
X [s , t + ]

Y [y , y +]
_
para todo s < t e y A, onde A algum conjunto tal que P(Y A) = 1.
importante tomar o limite primeiro em e depois em . Quando s = ,
denimos a funo de distribuio condicional acumulada
F
X
(t|Y = y) = P(X t|Y = y).
140 CAPTULO 9. ESPERANA CONDICIONAL
Teorema 9.2.2. Para quase todo y R, isto , para todo y A onde A um
conjunto tal que P(Y A) = 1, o duplo limite acima existe para todo s < t e
determina uma probabilidade em R.
Demonstrao. Omitida. Envolve Teoria da Medida.
Na prtica, o que se faz encontrar um candidato ad hoc de quem deveria ser
a distribuio condicional regular de X dado Y , segundo princpios que se aplicam
em diferentes casos, e verica-se a posteriori que o candidato proposto satisfaz a
Denio 9.2.1. continuao veremos alguns desses princpios.
Caso de Y discreta
Se Y varivel aleatria discreta, a distribuio condicional de X dado Y = y
dada por
P(X B|Y = y) =
P(X B, Y = y)
P(Y = y)
para todo y tal que P(Y = y) > 0.
Caso de X e Y independentes
Se X e Y so independentes, o condicionamento em Y = y no afeta em nada
a varivel X. Neste caso temos
P(X B|Y = y) = P(X B).
Caso de X e Y possurem densidade conjunta
Se X e Y possuem funo de densidade conjunta f
X,Y
(x, y), a funo de
densidade condicional de X dado Y = y dada por
f
X
(x|Y = y) =
f
X,Y
(x, y)
f
Y
(y)
para todo y tal que f
Y
(y) > 0.
9.2. DISTRIBUIO CONDICIONAL REGULAR 141
Neste caso a funo de distribuio condicional de X dado que Y = y dada por
F
X
(t|Y = y) =
_
t

f
X
(x|Y = y) dx.
Exemplo 9.2.3. Sejam X e Y com densidade conjunta
f
X,Y
(x, y) =
_
6xy(2 x y), 0 < x < 1, 0 < y < 1,
0, caso contrrio.
Vamos determinar a distribuio condicional de X dado que Y = y. Temos
f
Y
(y) =
_
+

f
X,Y
(x, y)dx =
_
1
0
6xy(2 x y)dx = 4y 3y
2
se y (0, 1) e 0 caso contrrio. Assim, para y [0, 1] temos
f
X
(x | Y = y) =
f
X,Y
(x, y)
f
Y
(y)
=
_
6x(2xy)
43y
, 0 < x < 1
0, caso contrrio.
Para y fora desse intervalo f
X
(|Y = y) irrelevante, pois P(Y [0, 1]) = 0.
Exemplo 9.2.4. Sejam X e Y com densidade conjunta
f
X,Y
(x, y) =
_
1
2
ye
xy
, 0 < x < e 0 < y < 2
0, caso contrrio
Vamos determinar a distribuio condicional de X dado que Y = y. Temos
f
Y
(y) =
_
+

f
X,Y
(x, y)dx =
1
2
_

0
ye
xy
dx =
1
2
para 0 < y < 2. Logo Y U[0, 2].
Assim, para y (0, 2] temos
f
X
(x | Y = y) =
f
X,Y
(x, y)
f
Y
(y)
=
_
ye
xy
, x > 0,
0, x 0.
Caso de Y possuir densidade e X ser discreta
142 CAPTULO 9. ESPERANA CONDICIONAL
Se X discreta e Y tem funo de densidade f
Y
(y), a funo de probabi-
lidade condicional de X dado Y = y dada por
p
X
(x|Y = y) =
P(X = x)f
Y
(y|X = x)
f
Y
(y)
para todo y tal que f
Y
(y) > 0.
Neste caso a funo de distribuio condicional de X dado Y = y
F
X
(t|Y = y) =

xt
p
X
(x|Y = y).
Princpio da preservao das chances relativas
O princpio da preservao das chances relativas diz que, dada a ocorrncia
de um evento, os resultados possveis dentro desse evento mantm as mesmas
chances relativas que possuam antes.
Exemplo 9.2.5. X N(0, 1) e Y = X
2
. Qual a distribuio condicional de X
dado que Y = y?
Como P(Y > 0) = 1, basta considerar valores y > 0. Sabendo que Y = y
temos duas alternativas: X =

y ou X =

y. Como f
X
(y) = f
X
(y), esses
dois valores continuam tendo a mesma chance quando condicionamos a Y = y.
Temos ento P
_
X =

Y = y
_
= P
_
X =

Y = y
_
=
1
2
, y > 0.
Exemplo 9.2.6. Seja X U[0, 2] e Y U[1, 1] independentes. Vamos encontrar
F
X
(x|X +Y = z).
Seja Z = X + Y . A densidade conjunta de X e Y dada por f
XY
(x, y) =
1
4
1
[0,2][1,1]
(x, y), e a marginal de X dada por f
X
(x) =
1
2
1
[0,2]
(x). Con-
dicionando a Z = z, temos que o conjunto dos resultados possveis ca res-
trito a uma diagonal {(x, y) [0, 2] [1, 1] : x +y = z} que corta o quadrado
[0, 2][1, 1]. Pelo Princpio da Preservao das Chances Relativas, todos os pontos
desse conjunto eram equiprovveis antes do condicionamento e devem continuar
equiprovveis dentro do conjunto da restrio. Assim, para z > 1 devemos ter
9.3. ESPERANA CONDICIONAL REGULAR 143
X U[z 1, 2] e para z < 1 devemos ter X U[0, z + 1], ou seja
f
X
(X|Z = z) =
_
1
3z
1
[z1,2]
(x), 1 < z < 3,
1
z+1
1
[0,z+1]
(x), 1 < z < 1.
Princpio da substituio
O princpio da substituio permite substituir Y por y sempre que se
condiciona a Y = y. Se W = g(X, Y ), ento
P(W B|Y = y) = P(g(X, y) B|Y = y) = P
_
X {x : g(x, y) B}

Y = y

.
Exemplo:
com X e
Y como
no Exem-
plo 9.2.4,
e Z =
X/Y , de-
terminar
a distri-
buio de
Z dado
que
Y = y.
9.3 Esperana Condicional Regular
Dada X integrvel, denimos E(X|Y = y) como a esperana de X com respeito
sua distribuio condicional regular dado que Y = y.
Teorema 9.3.1. Sejam X e Y variveis aleatrias denidas em (, F, P) com X
integrvel. Ento existe algum A B tal que P(Y A) = 1 e E(X|Y = y) nita
para todo y A.
Demonstrao. Omitida. Envolve Teoria da Medida.
Tomando g : R R como sendo a funo tal que E(X|Y = y) =
g(y), denimos a varivel aleatria E(X|Y ) por E(X|Y ) = g(Y ), isto ,
E(X|Y )() = g(Y ()).
Exemplo 9.3.2. Se X U[0, 2] e Y = max{X, 1}. Temos que Y assume valores
em [1, 2]. Tomando y em (1, 2], temos que [Y = y] = [X = y] e, pelo Princpio da
Substituio, E[X|Y = y] = y. Tomando y = 1, temos que [Y = 1] = [X 1].
Assim,
F
X
(x|Y = 1) = F
X
(x|X 1) =
P(X x, X 1)
P(X 1)
=
_

_
x/2
1/2
= x, 0 x 1,
0, x < 0,
1, x > 1.
144 CAPTULO 9. ESPERANA CONDICIONAL
Logo, f
X
(x|Y = 1) =
d
dx
F
X
(x|Y = 1) = 1
[0,1]
(x) e
E(X|Y = 1) =
_
1
0
xf
X
(x|Y = 1)dx =
1
2
.
Portanto, E(X|Y = y) = y se y (1, 2] e E(X|Y = y) =
1
2
se y = 1. Substituindo,
E(X|Y ) =
_
1
2
, Y = 1,
Y, 1 < Y 2.
Teorema 9.3.3. Se X integrvel ento
EX = E
_
E(X|Y )

.
Demonstrao. Omitida. Envolve Teoria da Medida.
Exemplo 9.3.4. No Exemplo 9.3.2, temos que Y mista com funes de densidade
e probabilidade dadas por
p
Y
(y) =
1
2
1
{1}
(y), f
Y
(y) =
1
2
1
[1,2]
(y)
e portanto
EX = E
_
E(X|Y )

= E[g(y)] =
1
2

1
2
+
_
2
1
1
2
y dy = 1.
Teorema 9.3.5 (Propriedades da Esperana Condicional).
1. E(c|Y ) = c quase certamente.
2. X Z E(X|Y ) E(Z|Y ) quase certamente.
3. E(aX +bZ|Y ) = aE(X|Y ) +bE(Z|Y ) quase certamente.
4. Se X = g(Y ) ento E(X|Y ) = X quase certamente.
5. Se Z = g(Y ), ento
E
_
E (X|Z)

= E
_
E (X|Y )

= E
_
X

quase certamente.
9.3. ESPERANA CONDICIONAL REGULAR 145
6. Se Z = g(Y ), E|X| < e E|XZ| < , ento
E
_
XZ

Y
_
= Z.E
_
X

Y
_
quase certamente.
Demonstrao. Omitida. Envolve Teoria da Medida.
Exemplo 9.3.6. O Jogador I lana uma moeda honesta n vezes, obtendo k caras,
onde 0 K n. Depois o Jogador II lana a moeda k vezes, obtendo j coroas.
Seja X o nmero j de coroas obtidas pelo Jogador II. Queremos calcular EX.
(Poderamos fazer algum esforo neste caso nem sempre isso possvel para
mostrar que X b(n,
1
4
) e portanto EX =
n
4
, mas estamos interessados apenas em
saber EX.)
Seja Y o nmero de caras obtidas pelo Jogador I. claro que X|Y = k
b(k,
1
2
), logo E(X|Y = k) =
k
2
. Assim, E(X|Y ) =
Y
2
. Calculamos ento
EX = E [E(X|Y )] = E
_
Y
2
_
=
1
2
EY =
1
2
n
2
=
n
4
,
uma vez que Y b(n,
1
2
).
Exemplo 9.3.7. No Exemplo 9.2.3, vamos cacular E [X|Y ] e E [X].
Substituindo a densidade obtida temos
E[X|Y = y] =
_
+

xf
X
(x | Y = y)dx =
_
1
0
6x
2
(2 x y)
4 3y
dx =
5 4y
8 6y
.
Ento E[X|Y ] =
54Y
86Y
e
E[X] = E
_
E(X|Y )

=
_
1
0
5 4y
8 6y
(4y 3y
2
)dy =
15
12

8
12
=
7
12
.
Exemplo 9.3.8. No Exemplo 9.2.4, vamos calcular E
_
e
X/2

e E
_
e
X/2

Y = 1

.
Substituindo a densidade condicional obtida, temos
E
_
e
X
2

Y = y
_
=
_

0
e
x
2
ye
xy
dx = y
_

0
e
(
1
2
y)x
dx.
146 CAPTULO 9. ESPERANA CONDICIONAL
Se y
1
2
a integral vale +. Se y >
1
2
la integral vale
y
y
1
2
. Assim,
E
_
e
X/2

Y
_
=
_
+, Y
1
2
,
y
y
1
2
, y >
1
2
,
e E
_
e
X/2

Y = 1

=
1
2
.
Exemplo 9.3.9. Seja X U [0, 1]. Se X = x, ento uma moeda com proba-
bilidade x de sair cara lanada n vezes independentemente. Seja Y a varivel
aleatria que representa o nmero de caras obtidas.
Temos que Y |X = x b(n, x) e X U(0, 1) Se y 0, 1, . . . , n ento:
P(Y = y) =
_
1
0
P(Y = y | X = x)f
X
(x)dx =
_
1
0
_
n
y
_
x
y
(1 x)
ny
dx.
Portanto
E[Y ] =
n

y=0
yP(Y = y) =
n

y=0
_
1
0
y
_
n
y
_
x
y
(1 x)
ny
dx
=
_
1
0
xn
n

y=0
_
n1
y1
_
x
y1
(1 x)
ny
dx
=
_
1
0
xn(x + 1 x)
n1
dx = n
_
1
0
xdx =
n
2
.
Por outro lado, E[Y | X = x] = nx, ou seja, E[Y | X] = nX, logo
E
_
E(Y |X)

= E[nX] =
n
2
.
Exerccio 9.3.10. Sejam X e Y variveis aleatrias independentes tais que X
U [0, 2] e Y U [1, 1].
(a) Calcule E [X|X +Y 2].
(b) Calcule E [X|X +Y ].
(c) Calcule E [X|X +Y = 2].
Exerccio 9.3.11. Seja X
1
, X
2
, . . . .uma sequncia de variveis aleatrias inde-
pendentes e identicamente distribudas e seja N uma varivel aleatria inteira e
no-negativa independente da sequncia X
1
, X
2
, . . . . Seja Y =
N

i=1
X
i
. Mostre que
e V [Y ] =
EN.V X+
(EX)
2
V N
(?)
E [Y ] = E [N] E [X] .
9.4. EXERCCIOS 147
Exerccio 9.3.12. Sejam Y
1
, Y
2
, . . . , Y
n
variveis aleatrias no-negativas i.i.d.
Mostre que
E [Y
1
+Y
2
+ +Y
k
|Y
1
+Y
2
+ +Y
n
= y] =
k
n
y, k = 1, 2, . . . , n.
Exerccio 9.3.13. Um nmero no-negativo X escolhido com densidade f
X
(x) =
xe
x
para x > 0. Se X = x, um nmero Y escolhido no intervalo [0, x]. Ache
P(X +Y 2).
9.4 Exerccios
Exerccio 9.4.1. Considere X e Y i.i.d. Bernoulli(p). Calcule E(X + Y |Y ) e
escreva essa varivel aleatria como uma funo da varivel aleatria Y , de duas
formas diferentes:
(a) usando P(X + Y = k|Y ) e aplicando a denio de esperana condicional
dada uma partio.
(b) usando a linearidade da esperana condicional, a independncia entre X e Y
e o fato de que Y D
Y
-mensurvel.
Exerccio 9.4.2. Sejam X e Y variveis aleatrias simples e i.i.d. Mostre que
E(X|X +Y ) = E(Y |X +Y ) =
X +Y
2
.
Exerccio 9.4.3. Seja X uma varivel aleatria simples denida em (, F, P) e D
uma partio de (, F). A varincia condicionada a uma partio denida de
forma anloga varincia de uma varivel aleatria:
V (X|D) = E
_
[X E (X|D)]
2

D
_
.
Mostre que
V (X|D) = E
_
X
2

D
_
[E (X|D)]
2
e que
V X = E[V (X|D)] +V [E(X|D)].
Exerccio 9.4.4. Sejam X e Y variveis aleatrias simples denidas em (, F, P)
e D uma partio. Mostre que
E [ X E (Y |D) ] = E [ Y E (X|D) ] .
148 CAPTULO 9. ESPERANA CONDICIONAL
Exerccio 9.4.5. Sejam X e Y variveis aleatrias simples denidas em (, F, P)
e D uma partio. Se
E
_
Y
2

D
_
= X
2
e E(Y |D) = X,
mostre que P(X = Y ) = 1. Dica: desenvolva E
_
(X Y )
2

.
Exerccio 9.4.6. Joga-se um dado, depois uma moeda, depois o dado novamente
e segue-se alternando entre o dado e a moeda. Quando se obtm cara na moeda,
o jogo imediatamente interrompido e conta-se o total Z de pontos obtidos nos
lanamentos do dado. Calcule EZ.
Exerccio 9.4.7. Seja X exp() e Y = min{X, c}, onde c > 0 uma constante.
Encontre E(X|Y ).
Exerccio 9.4.8. [Jam04, Captulo 4]. Recomendados: 1, 9, 15, 16b, 32, 40.
Parte III
149
Captulo 10
Princpio dos Grandes
Desvios
151
152 CAPTULO 10. PRINCPIO DOS GRANDES DESVIOS
Captulo 11
Percolao
153
154 CAPTULO 11. PERCOLAO
Captulo 12
Passeios Aleatrios
155
156 CAPTULO 12. PASSEIOS ALEATRIOS
Parte IV
157
Captulo 13
Espao de Medida
159
160 CAPTULO 13. ESPAO DE MEDIDA
Captulo 14
Medida de Lebesgue
161
162 CAPTULO 14. MEDIDA DE LEBESGUE
Captulo 15
Integral e Convergncia
163
164 CAPTULO 15. INTEGRAL E CONVERGNCIA
Lista de Figuras
2.1 Grco de uma funo de distribuio acumulada. . . . . . . . . . . 32
2.2 Grco de uma funo de distribuio acumulada. . . . . . . . . . . 32
3.1 Valores assumidos por F
X
(t
1
, t
2
) para cada (t
1
, t
2
) R
2
. . . . . . . . 49
4.1 A esperana de X como o centro de massa de p
X
. . . . . . . . . . . 66
4.2 Grco de g
2
(y) e aproximao de g
k
(x) x para um x xado. . . . 70
4.3 Aproximao de X por g
1
(X) e g
2
(X). . . . . . . . . . . . . . . . . . 71
4.4 Esperana e integral. . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1 Diagrama de implicaes entre os tipos de convergncia. . . . . . . . 101
7.1 Aproximao de binomial a normal. . . . . . . . . . . . . . . . . . . 113
9.1 Ilustrao da denio de E(X|D). . . . . . . . . . . . . . . . . . . . 136
9.2 Diagrama de relaes para probabilidade e esperana condicionais. . 137
165
166 LISTA DE FIGURAS
Lista de Tabelas
2.1 (x +y), onde x so os valores das linhas e y os das colunas. . . . . 42
167
168 LISTA DE TABELAS
Notao
#A Cardinalidade de A, quantidade de elementos que pertencem a A . . . . . . 16
Assintoticamente equivalentes: a
n
b
n
se
a
n
b
n
1 quando n . . . . 113
Bernoulli(p) Distribuio de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
exp() Distribuio exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
Geom(p) Distribuio geomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1
A
Funo indicadora, 1
A
() = 1 se A ou 0 caso contrrio . . . . . . . . . . . . 30
N Nmeros naturais, N = {1, 2, 3, . . . }. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
N(,
2
) Distribuio normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
P() Conjunto das partes: P() = {A : A } . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
Poisson() Distribuio de Poisson. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
x y Desigualdade de vetores, x
1
y
1
, . . . , x
d
y
d
. . . . . . . . . . . . . . . . . . . . . . . . . . 47
X Vetor aleatrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
x Um vetor com d coordenadas, x R
d
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
a b Mximo entre a e b, a b = max{a, b} . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
a b Mnimo entre a e b, a b = min{a, b} . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
A
c
Complementar de A: A
c
= { : / A}. . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
b(n, p) Distribuio binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
169
170 NOTAO
F(x) Limite lateral pela esquerda, lim
yx
F(y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
U[a, b] Distribuio uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
U
d
[I] Distribuio uniforme discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
X, Y Variveis aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
X Y X e Y tm a mesma distribuio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
i.i.d. Independentes e identicamente distribudas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
ndice Remissivo
tomo, 133
Bayes, veja frmula de Bayes
Bernoulli, veja distribuio de Bernoulli,
veja lei dos grandes nmeros de
Bernoulli
Borel, veja -lgebra de Borel, veja lema
de Borel-Cantelli, veja lei dos
grandes nmeros de Borel
Borelianos, veja -lgebra de Borel
Cantelli, veja lema de Borel-Cantelli,
veja lei dos grandes nmeros de
Cantelli
Cauchy, veja ver desigualdade de Cauchy-
Schwarz
Cauchy-Schwarz, veja ver desigualdade
de Cauchy-Schwarz
centro de massa, 65
Chebyshev, veja Tchebyshev
coeciente de correlao, 82
propriedades, 82, 83
cncava, veja funo cncava
condicional, veja probabilidade condici-
onal, veja distribuio condici-
onal, veja esperana condicio-
nal
conjunto das partes, 19
conjunto pequeno, 38, 43, 53
contnua, veja varivel aleatria absolu-
tamente contnua
convergncia
de variveis aleatrias, 93
em L
p
, 98
em distribuio, 99, veja tambm
teorema da continuidade de
Lvy, 129
em probabilidade, 96
quase certa, 97
relaes de implicao, 101
unicidade do limite, 99, 101
convexa, veja funo convexa
covarincia, 80
propriedades, 81
De Moivre, veja teorema central do li-
mite
densidade, veja funo de densidade
desigualdade
bsica de Tchebyshev, 84
clssica de Tchebyshev, 85
de Cauchy-Schwarz, 86
de Jensen, 83
de Markov, 85
171
172 NDICE REMISSIVO
desvio-padro, 80
propriedades, 80
determinante, veja mtodo do Jacobiano
discreta, veja ver varivel aleatria dis-
creta
distribuio
binomial, 36, 112, 129
condicional
dado um evento, 44
regular, 139
conjunta, veja funo de distribui-
o conjunta
de Bernoulli, 35
de Poisson, 37, 62, 63, 73, 103, 122
125, 127129
exponencial, 40
funo de, veja funo de distribui-
o
gama, 40
geomtrica, 36
hipergeomtrica, 36
normal, 41, 111, 112, 116, 130, 132
padro, 41
soma de, 60, 130
tabela, 42
singular, veja varivel aleatria sin-
gular
uniforme, 39
contnua, 39
discreta, 35
equiprovvel, 16, 35
espao amostral, 17
espao de probabilidade, 15, 20
induzido, 31, 48
espao discreto, 16
esperana
caso contnuo, 74
caso discreto, 72
condicional
dada uma partio, 135
dado um evento, 87
iterada, 144
propriedades, 136, 144
regular, 143
de variveis independentes, 69, 78
de varivel aleatria simples, 65
propriedades, 67
denio, 70
linearidade, 76
momentos, veja momentos
monotonicidade, 76
mudana de varivel, 74
propriedades, 76, 77
unitariedade, 76
varincia, veja varincia
Euler, veja frmula de Euler
evento
aleatrio, 18
certo, 18
elementar, 19
impossvel, 18
incompatvel, 18
independente, veja independncia
de eventos
expanso de Taylor, 128
do logaritmo, 115
frmula
de Bayes, 24
de Euler, 126
de Stirling, 114, 116
Fourier, veja transformada
funo
NDICE REMISSIVO 173
caracterstica, 125, 126
cncava, 83
convexa, 83
de densidade, 37
condicional, 44
conjunta, 52
marginal, 52
de distribuio, 31
condicional, 44
conjunta, 48
marginal, 51
propriedades, 33, 50
de probabilidade, 34
condicional, 44
conjunta, 52
marginal, 52
geradora de momentos, 121
indicadora, 30
par, 39
grandes nmeros, veja lei dos grandes
nmeros
independncia
de eventos, 25
coletiva, 26
dois a dois, 26
de variveis aleatrias, 54
caso contnuo, 57
caso discreto, 56
critrio, 55
esperana, veja esperana de vari-
veis independentes
indicadora, veja funo indicadora
innitas vezes, 93
integrvel, veja varivel aleatria inte-
grvel
Jacobi, veja mtodo do Jacobiano
Jacobiano, veja mtodo do Jacobiano
Jensen, veja desigualdade de Jensen
Khintchine, veja lei dos grandes nmeros
de Khintchine
Kolmogorov, veja lei dos grandes nme-
ros de Kolmogorov
Laplace, veja teorema central do limite,
veja transformada
lei
da probabilidade total, 23, 134
de um vetor aleatrio, 48
de uma varivel aleatria, 31
lei dos grandes nmeros, 105
de Bernoulli, 105
de Borel, 107
de Cantelli, 108
de Khintchine, 106
de Kolmogorov, 109
de Tchebyshev, 106
forte, 107
fraca, 105
lema de Borel-Cantelli, 95
Lvy, veja teorema da continuidade de
Lvy
mdia, veja esperana
mdia amostral, 111
mtodo do Jacobiano, 58
marginal, veja funo de distribuio
marginal, veja funo de densi-
dade marginal, veja funo de
probabilidade marginal
Markov, veja ver desigualdade de Mar-
kov
174 NDICE REMISSIVO
matriz
Jacobiana, veja mtodo do Jacobi-
ano
medida
de probabilidade, veja probabili-
dade
modelo probabilstico, veja espao de
probabilidade
momentos, 79
mudana de varivel, veja mtodo do
Jacobiano, veja esperana
normal, veja distribuio normal
partes, veja conjunto das partes
partio, 23, 133, veja tambm proba-
bilidade condicional dada uma
partio
mais na, 138
mensurabilidade de varivel aleat-
ria, 138
pequeno, veja conjunto pequeno
Poisson, veja distribuio de Poisson
princpio
da substituio, 143
preservao das chances relativas,
142
probabilidade, 19
condicional, 21
dada uma partio, 133
medida de, veja probabilidade
total, veja lei da probabilidade total
produto de Wallis, 118
realizao do experimento, 17
regra do produto, 22
regularidade
determinstica, 15
estatstica, 15
resultados possveis, 17
Riemann, veja soma de Riemann
Schwarz, veja ver desigualdade de Cauchy-
Schwarz
-lgebra, 19
de Borel, 30, 48
singular, veja varivel aleatria singular,
veja vetor aleatrio singular
soma de Riemann, 115
Stirling, veja frmula de Stirling
tabela normal, veja distribuio normal
Taylor, veja expanso de Taylor
Tchebyshev, veja desigualdade bsica
de Tchebyshev, veja desigual-
dade clssica de Tchebyshev,
veja lei dos grandes nmeros de
Tchebyshev
teorema central do limite, 111
para variveis i.i.d., 116
teorema de De Moivre-Laplace, 112
teorema da continuidade de Lvy, 129
transformada, 121
de Fourier, veja funo caracters-
tica
de Laplace, veja funo geradora de
momentos
valor esperado, veja esperana
varivel aleatria, 30
absolutamente contnua, 37
esperana, veja esperana
complexa, 125
NDICE REMISSIVO 175
contnua, 37, veja tambm varivel
aleatria absolutamente cont-
nua
covarincia, veja covarincia
densidade, veja funo de densidade
desvio-padro, veja desvio-padro
discreta, 34
esperana, veja esperana
independente, veja independncia
de variveis aleatrias
integrvel, 71
mista, 43
esperana, veja esperana
momentos, veja momentos
simples, 65
singular, 43
varincia, veja varincia
varincia, 79
propriedades, 79
vetor aleatrio, 48
absolutamente contnuo, 52
contnuo, 53
discreto, 51
misto, 54
Wallis, veja produto de Wallis
176 NDICE REMISSIVO
Referncias Bibliogrcas
[CA03] K. L. Chung and F. AitSahlia, Elementary probability theory, Under-
graduate Texts in Mathematics, Springer-Verlag, New York, 4 ed., 2003.
[Jam04] B. R. James, Probabilidade: Um Curso em Nvel Intermedirio, IMPA,
Rio de Janeiro, 3 ed., 2004.
[Shi96] A. N. Shiryaev, Probability, vol. 95 of Graduate Texts in Mathematics,
Springer-Verlag, New York, 2 ed., 1996.
177

Você também pode gostar