Escolar Documentos
Profissional Documentos
Cultura Documentos
Apostila - Introdução A Probabilidade
Apostila - Introdução A Probabilidade
Notas de Aula
Leonardo T. Rolla
Instituto de Matemática Pura e Aplicada
Rio de Janeiro
14 de fevereiro de 2012
c 2012 Leonardo T. Rolla. Texto publicado sob a Licença “Creative Commons Atribuição
CompartilhaIgual 3.0 Brasil”. http://creativecommons.org/licenses/by-sa/3.0/br/deed.pt
Este material é parcialmente baseado no(s) seguinte(s) trabalho(s):
• Nei Rocha. Apostila “Teoria das Probabilidades II”, 2009.
http://www.lce.esalq.usp.br/arquivos/aulas/2011/LCE5806/apos_RJ_ProbabilidadeII.pdf
Trabalhos derivados devem ser distribuídos junto com o código-fonte, observando os termos desta
Licença. Devem fazer atribuição ao presente material, bem como ao(s) trabalho(s) acima citado(s).
Código fonte: bzr branch http://www.impa.br/~leorolla/apostila-intr-prob/ Versão: Date: Tue 2012-02-14 15:28:12 -0200
Sumário
Apresentação v
1 Definições Básicas 1
1.1 Espaços de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Definição de Probabilidade Condicional . . . . . . . . . . . . . 6
1.2.2 Regra do Produto . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Lei da Probabilidade Total . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Fórmula de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Independência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Eventos Independentes 2 a 2 . . . . . . . . . . . . . . . . . . . 8
1.3.2 Eventos Coletivamente Independentes . . . . . . . . . . . . . . 9
1.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2 Variáveis Aleatórias 13
2.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Função de Distribuição . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Tipos de Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3 Vetores Aleatórios 21
3.1 Independência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2 Função de Distribuição Marginal . . . . . . . . . . . . . . . . . . . . 23
3.3 Tipos de Vetores Aleatórios . . . . . . . . . . . . . . . . . . . . . . . 23
3.4 Método do Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4 Esperança Matemática 29
4.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1.1 Propriedades da Esperança Matemática . . . . . . . . . . . . . 30
4.2 Esperanças de Funções de Variáveis Aleatórias . . . . . . . . . . . . . 31
4.3 Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
iii
iv SUMÁRIO
Esta é uma apostila feita a partir de notas de aula das disciplinas Probabilidade do
mestrado em Ciências Atuariais da PUC-Rio ministrada em 2006 e Introdução à
Probabilidade ministrada no verão de 2012 no IMPA.
Este não é um livro-texto nem um livro para consulta. O texto aqui apresentado é
uma versão expandida do conteúdo que foi passado no quadro-negro, além de listas
de exercícios sugeridos. Durante os cursos ministrados, os principais livros-texto
adotados foram o Barry James1 no IMPA e Magalhães2 na PUC-Rio. Alguns dos
exercícios sugeridos são uma simples listagem de exercícios desses dois excelentes
livros.
O único pré-requisito formal é o Cálculo, e o curso não assume que os alunos
tenham qualquer tipo de conhecimento prévio em Probabilidade. Os alunos terão
que aceitar como verdadeiros certos resultados que só serão justificados rigorosa-
mente utilizando Análise ou Teoria da Medida, o que não impede a compreensão
dos objetos probabilísticos estudados.3 Não obstante, para um curso que tem entre
17 a 20 aulas de 2 horas cada e sem pré-requisito formal, trata-se de uma introdu-
ção bastante ampla à teoria da probabilidade, o que só foi possível porque ambos
os cursos foram dados para um conjunto de alunos extremamente motivados e com
excelente desenvoltura matemática.
Esta apostila está em construção. Para que este texto reflita melhor o conteúdo
e a abordagem dos cursos mencionados, são necessárias diversas mudanças, prin-
cipalmente nos primeiros quatro capítulos. Agradeço ao Prof. Nei Rocha, que me
permitiu desenvolver esta apostila a partir do material que ele já havia compilado.
Comentários, críticas e correções são muito bem-vindos.
1
James, B. R. (2004). Probabilidade: Um curso em nível intermediário. Projeto Euclides.
2
Magalhães, M. N. (2004). Probabilidade e variáveis aleatórias. IME-USP.
3
Da mesma forma, aprende-se Cálculo antes de se fazer a demonstração do seu teorema funda-
mental. Da mesma forma, é comum entre matemáticos usar resultados baseados no Lema de Zorn
sem ter entrado nos detalhes da sua demonstração.
v
Capítulo 1
Definições Básicas
1
2 CAPÍTULO 1. DEFINIÇÕES BÁSICAS
Exercício 1.3. Mostre que toda σ-álgebra é uma álgebra, mas a recíproca não é
verdadeira.
Exercício 1.5. Mostre que se A e B são σ-álgebras, A∩B é também uma σ-álgebra.
σ(B) = ∩ σλ (B)
λ∈Λ
Exemplo 1.16. Seja Ω = {1, 2, 3, 4, 5, 6}. (a) Construa a menor σ−álgebra de sub-
conjuntos de Ω; (b) Construa a menor σ−álgebra contendo a classe de subconjuntos
de Ω dada por {{1, 2} , {1, 3, 4} , {3, 5}}; (c) Construa a menor σ−álgebra contendo
todos os subconjuntos de Ω (esta σ−álgebra é chamada de conjunto das partes de
Ω, e é denotada por P(Ω)).
Ω = R, B pode ser gerada por quaisquer dos intervalos (a, b), (a, b], [a, b) ou [a, b],
isto é,
Exemplo 1.19. Seja Ω = {1, 2, 3, 4, 5, 6} e seja A = {∅, {2}, {1, 3, 4, 5, 6}, {4, 6}, {1, 2, 3, 5},
{1, 3}, {2, 4, 5, 6}, {5}, {1, 2, 3, 4, 6}, {1, 3, 5}, {4, 5, 6}, {1, 3, 4, 6}, {2, 5}, {1, 2, 3}, {2, 4, 6}, Ω}.
Então os átomos associados à A são {2}, {5}, {1, 3} e {4, 6}.
4. Sejam A e B ∈ A. Se A ⊂ B, então
(a) P (B − A) = P (B) − P (A);
(b) P (A) ≤ P (B).
5. Sejam A e B ∈ A. Então P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
∞
∞ P
6. Para qualquer seqüência de eventos A1 , A2 , . . . , An ∈ A, P ∪ Ai ≤ P (Ai)
i=1 i=1
(desigualdade de Boole).
7. Sejam A1 , A2 , . . . , An ∈ A. Então
n
X X X
n
P ∪ Ai = P (Ai) − P (Ai ∩ Aj ) + P (Ai ∩ Aj ∩ Ak )
i=1
i=1 i<j i<j<k
X
− P (Ai ∩ Aj ∩ Ak ∩ Al ) + · · · + (−1)n+1 P (A1 ∩ A2 ∩ · · · ∩ An )
i<j<k<l
P (A ∩ B)
P (A | B) = , A ∈ A. (1.1)
P (B)
P (A ∩ B) = P (B).P (A | B)
= P (A).P (B | A)
P (Ai )P (B | Ai )
P (Ai | B) = P . (1.3)
P (Aj ).P (B | Aj )
j
Exercício 1.7. Uma caixa contém 10 bolas das quais 6 são brancas e 4 vermelhas.
Removem-se três bolas sem observar suas cores. Determine:
(a) a probabilidade de que uma quarta bola removida da caixa seja vermelha;
(b) a probabilidade de que as três bolas removidas sejam brancas, sabendo-se
que pelo menos uma delas é branca.
Exercício 1.8. Uma moeda é lançada. Se ocorre cara, um dado é lançado e o seu
resultado é registrado. Se ocorre coroa, dois dados são lançados e a soma dos pontos
é registrada. Qual a probabilidade de ser registrado o número 2?
Exercício 1.9. Num certo certo país, todos os membros de comitê legislativo ou são
comunistas ou são republicanos. Há três comitês. O comitê 1 tem 5 comunistas, o
comitê 2 tem 2 comunistas e 4 republicanos, e o comitê 3 consiste de 3 comunistas e
8 CAPÍTULO 1. DEFINIÇÕES BÁSICAS
Exercício 1.10. São dadas duas urnas A e B. A urna A contém 1 bola azul e 1
vermelha. A urna B contém 2 bolas vermelhas e 3 azuis. Uma bola é extraída ao
acaso de A e colocada em B. Uma bola então é extraída ao acaso de B. Pergunta-se:
(a) Qual a probabilidade de se retirar uma bola vermelha de B?
(b) Qual a probabilidade de ambas as bolas retiradas serem da mesma cor?
Exercício 1.11. Suponha que temos 4 cofres, cada um com dois compartimentos.
Os cofres 1 e 2 têm um anel de brilhante num compartimento e um anel de esmeralda
no outro. O cofre 3 têm dois anéis de brilhante em seus compartimentos, e o cofre
4 têm dois anéis de esmeralda. Escolhe-se um cofre ao acaso, abre-se um dos com-
partimentos ao acaso e encontra-se um anel de brilhantes. Calcule a probabilidade
de que o outro compartimento contenha:
(a) um anel de esmeralda;
(b) um anel de brilhantes.
1.3 Independência
1.3.1 Eventos Independentes 2 a 2
P (A ∩ B) = P (A)P (B).
2. A e B c são independentes
3. Ac e B são independentes
4. Ac e B c são independentes
Demonstração. Exercício.
Observação 1.35. Dois eventos disjuntos não podem ser independentes, a menos
que um deles tenha probabilidade zero.
Definição 1.36. Dada uma família de eventos aleatórios (Ai )i∈I , dizemos que
os Ai são independentes dois a dois se
para todo i, j ∈ I, i 6= j.
1.4 Exercícios
Exercício 1.14. Considere o experimento resultante do lançamento de dois dados
onde se observa o mínimo entre suas faces. Construa um modelo probabilístico
associado.
∞
X
P (E) = an Pn (E), E ∈ F,
n=1
Exercício 1.19. Prove que a fórmula de Bayes é valida (use a regra do produto e
a lei da probabilidade total).
Exercício 1.20. Prove que cada um dos itens abaixo é equivalente à definição de
‘A e B independentes’:
1. A e B c são independentes;
2. Ac e B são independentes;
3. Ac e B c são independentes;
4. P (A|B) = P (A);
5. P (B|A) = P (B).
Variáveis Aleatórias
2.1 Definição
Na realização de um fenômeno aleatório, muitas vezes estamos interessados em uma
ou mais quantidades, que são dadas em função do resultado do fenômeno. A essas
quantidades damos o nome de variáveis aleatórias. Informalmente, uma variável
aleatória é um característico numérico do experimento.
Exemplo 2.1. Sortear 11 cartas do baralho e contar quantas dessas cartas são de
espadas.
Exemplo 2.2. Sortear dois números entre 0 e 1 e considerar o menor deles.
Exemplo 2.3. Joga-se um dado e observa-se a face superior. Nesse caso temos
Ω = {1, 2, 3, 4, 5, 6} e
X(ω) = ω.
X:Ω→R
13
14 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS
Exemplo 2.5. Sejam Ω = {1, 2, 3, 4} e A = {∅, {1, 2}, {3, 4}, Ω} e considere os
conjuntos A = {1, 2} e B = {1, 3}. Então 1A é variável aleatória em (Ω, A), mas 1B
não é.
Exercício 2.1. Duas moedas honestas são lançadas. Seja a variável X que conta o
número de caras observadas. Construa a função de distribuição da variável aleatória
X e represente-a graficamente.
6. P (a ≤ X ≤ b) = P (a < X ≤ b) + P (X = a)
= FX (b) − FX (a) + [FX (a) − FX (a− )] = FX (b) − FX (a− ).
Exercício 2.3. Um dado tendencioso é tal que a probabilidade de um ponto é
proporcional ao próprio ponto. Seja X a variável aleatória que representa o número
obtido no lançamento do dado. Pede-se:
(a) A função de distribuição da variável aleatória X, esboçando o seu gráfico.
(b) A probabilidade de ocorrer 5, dado que ocorreu um número ímpar?
(c) A probabilidade de ocorrer um número par, dado que ocorreu um número
menor do que 5?
Exercício 2.4. Seja F (x) a função
0, se x < 0
F (x) = x + 21 , se 0 ≤ x ≤ 1
2
1, se x > 1
2
Definição 2.8. Uma variável aleatória X (assim como sua função de distribuição
FX ) é dita discreta se existe um conjunto enumerável {x1 , x2 , x3 , . . . } ⊆ R tal
que
∞
X
P (X = xn ) = 1.
n=1
e X
p(x) = 1, (2.3)
x∈R
Definição 2.10. Uma variável aleatória X e sua função de distribuição FX são ditas
contínuas se P (X = a) = 0 para todo a ∈ R, ou seja, se FX for contínua no sentido
usual.
Definição 2.11. Uma variável aleatória X (assim como sua função de distri-
buição FX ) é dita absolutamente contínua se existe fX (·) ≥ 0 tal que
Z t
FX (t) = fX (s)ds.
−∞
dFX (x)
fX (x) = .
dx
Observação 2.13. Como FX (x) é contínua, observe que
2.3. TIPOS DE VARIÁVEIS ALEATÓRIAS 17
Definição 2.14. Uma variável aleatória X é dita mista se tem partes nas diferentes
classificações (parte discreta e parte contínua).
Obtenha:
(a) o gráfico de FX (x);
(b) P (X < 3);
(c) P (X = 1);
(d) P (X > 1/2);
(e) P (2 < X < 4).
18 CAPÍTULO 2. VARIÁVEIS ALEATÓRIAS
Exercício 2.12. Mostre que se X é uma variável aleatória do tipo contínuo com
função de densidade par, ou seja, simétrica em torno de x = 0, isto é, fX (x) =
fX (−x), então:
(a) FX (x) = 1 − FX (−x);
(b) FX (0) = 21 ;
(c) P (−x < X < x) = 2FX (x) − 1, x > 0;
Rx
(d) P (X > x) = 1
2
− 0 fX (t)dt, x > 0.
Exercício 2.13. Suponha que X seja uma variável aleatória com f.d.p. dada por
1
fX (x) = , −∞<x<∞
2(1 + |x|)2
(a) Obtenha a função de distribuição de X.
(b) Ache P (−1 < X < 2).
(c) Ache P (|X| > 1).
2.4 Exercícios
Exercício 2.15. Prove as propriedades de uma função de distribuição
Exercício 2.17. Prove que (R, B), juntamente com PX , formam um espaço de
probabilidade, i.e., prove que PX é uma medida de probabilidade.
Exercício 2.20. Mostre que, se duas variáveis aleatórias X e Y são iguais quase
certamente – isto é, P (X = Y ) = 1 – então FX = FY .
Vetores Aleatórios
21
22 CAPÍTULO 3. VETORES ALEATÓRIOS
Então F (x, y) satisfaz F1, F2 e F3, mas P {0 < X ≤ 1, 0 < Y ≤ 1} = −1 < 0! Logo
F (x, y) não satisfaz F4 e, portanto, não pode ser função de distribuição conjunta.
3.1 Independência
para todo Bi ∈ A, i = 1, 2, . . . , n.
P {X1 ∈ B1 , X2 ∈ B2 } = P {X1 ∈ B1 , X2 ∈ B2 , X3 ∈ R, . . . , Xn ∈ R}
= P {X1 ∈ B1 } P {X2 ∈ B2 } P {X3 ∈ R} . . . P {Xn ∈ R}
= P {X1 ∈ B1 } P {X2 ∈ B2 } .1 . . . 1
= P {X1 ∈ B1 } P {X2 ∈ B2 }
pX (x) = P (X = x) .
p(x) ≥ 0, ∀ x ∈ Rn
e X
p(x) = 1
x
24 CAPÍTULO 3. VETORES ALEATÓRIOS
Exemplo 3.14. Seja G ∈ Rn uma região tal que Vol G > 0, onde Vol G é o volume
n-dimensional de G. Dizemos que X = (X1 , X2 , . . . , Xn ) com função de densidade
1
, (x1 , . . . , xn ) ∈ G
fX (x1 , . . . , xn ) = Vol G
0, (x1 , . . . , xn ) ∈
/G
é uniformemente distribuído em G.
para funções reais p1 , . . . , pn . Neste caso, uma outra decomposição possível sempre
é
pX (x1 , . . . , xn ) = pX1 (x1 ) · · · pXn (xn ).
Se X é absolutamente contínua então X1 , . . . , Xn são independentes se, e somente
se,
fX (x1 , . . . , xn ) = f1 (x1 ) · · · fn (xn ) ∀ x1 , . . . , xn ∈ R
para funções reais f1 , . . . , fn . Neste caso, uma outra decomposição possível sempre
é
fX (x1 , . . . , xn ) = fX1 (x1 ) · · · fXn (xn ).
x1 = h1 (y1 , . . . , yn ), . . . , xn = hn (y1 , . . . , yn ).
26 CAPÍTULO 3. VETORES ALEATÓRIOS
Pelo cálculo de várias variáveis, sabemos que se o jacobiano for não-nulo para todo
y ∈ G, então
Z Z Z Z
. . . f (x1 . . . , xn )dx1 . . . dxn = . . . f (h1 (y1 , . . . , yn ) . . . , hn (y1 , . . . , yn )) |J(x, y)| dy1 . . . dyn
A g(A)
3.5 Exercícios
Exercício 3.2. Sejam X e Y variáveis aleatórias definidas no mesmo espaço de pro-
babilidade, independentes, discretas e com distribuições Poisson(λ1 ) e Poisson(λ2 ),
respectivamente. Mostre que, dada a ocorrência do evento X + Y = n, a probabili-
dade condicional de X = k é
! !k !n−k
n λ1 λ2
P (X = k|X + Y = n) = .
k λ1 + λ2 λ1 + λ2
Como você interpretaria isso com seus conhecimentos prévios do cálculo das proba-
bilidades?
28 CAPÍTULO 3. VETORES ALEATÓRIOS
Encontre FX,Y .
2. Considere um vetor aleatório (Z, W ) absolutamente contínuo com densidade
c, 0 < z < 1, 0 < w < z,
fZ,W (z, w) =
0, caso contrário.
Encontre FZ,W .
Exercício 3.4. Mostre por indução finita que, se X1 , X2 , . . . , Xn são variáveis ale-
atórias independentes com Xi ∼ b(mi , p), i = 1, 2, . . . , n, então
n n
!
X X
Xi ∼ b mi , p .
i=1 i=1
Pn
a b a+b
Dica: k=0 k n−k
= n
.
Exercício 3.5. Seja X uma variável aleatória em (Ω, F , P ) com distribuição expo-
nencial de parâmetro λ > 0. Considere a transformada N = ⌊X⌋ (o maior inteiro
menor ou igual a X). Mostre que N é uma variável aleatória em (Ω, F , P ) e ache
sua lei.
Exercício 3.6. Sejam Y e U duas variáveis aleatórias em um mesmo espaço de
probabilidade, independentes e com leis Y ∼ N (0, 1) e P (U = −1) = P (U = +1) =
1
2
. Ache a lei de Z = UY . (Dica: ataque a função de distribuição acumulada).
Exercício 3.7. Sejam X e Y i.i.d. contínuas com densidade f . Mostre que
Z
fX+Y (t) = f (t − s)f (s)ds ∀ t ∈ R.
R
Esperança Matemática
4.1 Definição
Definição 4.1. Seja X uma variável aleatória com função de distribuição FX . A
esperança de X, denotada E(X), é definida como
Z ∞
E(X) = xdFX (x) (4.1)
−∞
29
30 CAPÍTULO 4. ESPERANÇA MATEMÁTICA
Exercício 4.1. Um dado é lançado sucessivamente, até que a face 6 ocorra pela
primeira vez. Seja X a variável que conta o número de lançamentos até a ocorrência
do primeiro 6. Calcule a esperança de X.
Exercício 4.2. Suponha que X seja uma variável aleatória com f.d.p. dada por
(
C(9 − x2 ), − 3 ≤ x ≤ 3
f (x) =
0, caso contrário
(a) Obtenha o valor de C.
(b) Obtenha a esperança de X.
(c) Ache P (|X| ≤ 1).
E[ϕ(X)] ≥ ϕ[E(X)].
4.2. ESPERANÇAS DE FUNÇÕES DE VARIÁVEIS ALEATÓRIAS 31
A fórmula acima nem sempre é muito fácil de ser usada, pois devemos obter
a distribuição de Y a partir da distribuição da variável X e só então obter E(Y ).
No entanto é possível mostrar pela Teoria da Medida que a esperança da variável
aleatória Y = φ(X) é dada por
Z ∞ Z ∞
Eφ(X) = ydFφ(X) (y) = φ(x)dFX (x),
−∞ −∞
4.3 Momentos
Definição 4.7. Seja X uma variável aleatória. Define-se o k-ésimo momento ordi-
nário da variável aleatória X, mk , como
Z ∞
mk = E(X k ) = xk dFX (x).
−∞
32 CAPÍTULO 4. ESPERANÇA MATEMÁTICA
Assim,
∞
X
mk = xki P (X = xi ) se X é v.a.d.
i=1
Z ∞
mk = xk fX (x)dx se X é v.a.c.
−∞
Definição 4.8. Seja X uma variável aleatória. Define-se o k-ésimo momento central
da variável aleatória X, Mk , como
Mk = E[(X − E(X))k ].
Assim,
∞
X
Mk = [xi − E(X)]k P (X = xi ) se X é v.a.d.
i=1
Z ∞
Mk = [x − E(X)]k fX (x)dx se X é v.a.c.
−∞
V X = E[(X − E(X))2 ].
m1 = E(X)
M1 = 0
M2 = V X = m2 − m21 .
Demonstração. Em aula.
Proposição 4.14. (Desigualdade de Markov) Seja X uma variável aleatória qual-
quer e seja λ > 0 uma constante. Então para todo t > 0,
E |X|t
P (|X| ≥ λ) ≤ .
λt
Demonstração. Em aula.
Proposição 4.15. (Desigualdade Clássica de Chebyshev) Seja X uma variável ale-
atória integrável e seja λ > 0 uma constante. Então
VX
P (|X − E(X)| ≥ λ) ≤ .
λ2
Demonstração. Em aula.
Exercício 4.6. Suponha que X seja uma variável aleatória tal que P (X ≥ 0) = 1
e P (X ≥ 10) = 15 . Mostre que E(X) ≥ 2.
Exercício 4.7. Suponha que X seja uma variável aleatória tal que E(X) = 10,
P (X ≤ 7) = 0, 2 e P (X ≥ 13) = 0, 3. Prove que V X ≥ 29 .
Proposição 4.16. Se Z ≥ 0 e EZ = 0, então P {Z = 0} = 1, ou seja, Z = 0 quase
certamente.
Demonstração. Em aula.
Observação 4.17. A proposição acima implica que, quando V X = 0, então X é
constante quase certamente, pois P {X = EX} = 1.
A proposição seguinte nos informa que ρX,Y representa a dependência linear entre
X e Y.
P ([X ∈ B] ∩ A)
P (X ∈ B | A) =
P (A)
P ([X ≤ x] ∩ A)
FX (x | A) = P (X ≤ x | A) = , x ∈ R.
P (A)
36 CAPÍTULO 4. ESPERANÇA MATEMÁTICA
X
FX (x) = P (An )P (X ≤ x | An )
n
X
= P (An )FX (x | An ), para todo x ∈ R.
n
Z Z " #
∞ ∞ X
E [X] = xdFX (x) = xd P (An )FX (x | An )
−∞ −∞ n
X Z ∞ X
= P (An ) xdFX (x | An ) = P (An )E(X | An ).
n −∞ n
Exemplo 4.31. Seja X uma variável aleatória exponencial com parâmetro λ. En-
contre E [X | X > 2].
4.6 Exercícios
Exercício 4.9. Calcular EX, onde:
1. X ∼ b(n, p).
2. X ∼ exp(λ).
3. X ∼ Geom(p).
4.6. EXERCÍCIOS 37
Exercício 4.12. Mostre que X é integrável se, e somente se, E|X| < ∞.
2. Se X ≥ c e EX = c, então P (X = c) = 1.
Exercício 4.22. B. James. Capítulo 3. Recomendados: 5, 6, 19, 20ab, 21, 23, 26,
28, 30, 36.
Capítulo 5
Convergência de Variáveis
Aleatórias
1
L. C. Rêgo. Notas de Aula do Curso Probabilidade 4. 2010.
http://www.de.ufpe.br/~leandro/AulasET5842010-1.pdf
39
40 CAPÍTULO 5. CONVERGÊNCIA DE VARIÁVEIS ALEATÓRIAS
Definição 5.1 (lim sup e lim inf de eventos). Dada uma seqüência de eventos
aleatórios An , definimos o evento lim sup An , denotado por [An infinitas vezes]
ou [An i.v.], por
∞ [
\ ∞
lim sup An = Ak .
n→∞ n=1 k=n
e
lim inf(Acn ) = (lim sup An )c .
(−1/n, 1], n ímpar,
Exemplo 5.2. Exemplo: Ω = R, An =
(−1, 1/n], n par.
Temos ∞ [
∞ ∞
\ \
lim sup An = Ak = (−1, 1] = (−1, 1]
n=1 k=n n=1
e ∞ \
∞ ∞
[ [
lim inf An = Ak = {0} = {0}.
n=1 k=n n=1
P∞
2. Se n=1 P (An ) = ∞ e os eventos An são independentes, então
Caso os eventos An não sejam independentes, podemos ter P (An i.v.) = 0 sem
P
que necessariamente tenhamos n P (An ) < ∞. Neste caso podemos afirmar pelo
menos que P (An ) → 0.
Teorema 5.5 (Lema de Fatou). Para qualquer seqüência (An )n de eventos vale
logo !
∞
\
P An ≤ P (Am )
n=k
42 CAPÍTULO 5. CONVERGÊNCIA DE VARIÁVEIS ALEATÓRIAS
e portanto !
∞
\
P An ≤ inf P (Am ).
m≥k
n=k
Como (∩∞
n=k An )k é uma seqüência crescente de eventos, temos que
" ∞ ∞
!# ∞
!
[ \ \
P (lim inf n An ) = P An = lim P An ≤ lim inf P (An ).
k→∞ k→∞ n≥k
k=0 n=k n=k
P {|Xn − X| ≥ ε} → 0, quando n → ∞.
Exemplo 5.17. Seja {Xn ; n ≥ 1} uma seqüência de v.a. independentes com distri-
buição uniforme em (0, b), b > 0. Defina Yn = max(X1 , X2 , . . . , Xn ) e Y = b. Então
d
verifique que Yn → Y .
d
Exemplo 5.18. Seja Xn = n1 para n ≥ 1 e X = 0. Mostre que Xn → X, embora
limn→∞ Fn (0) = 0 6= 1 = F (0). Mas como 0 não é ponto de continuidade de F , isto
não é problema.
44 CAPÍTULO 5. CONVERGÊNCIA DE VARIÁVEIS ALEATÓRIAS
q.c.Y
constante
subseqüência |
P +3 d
caso dominado
AI
y
Lp+s +3 Lp
5.4 Exercícios
Exercício 5.5. B. James. Capítulo 5. Recomendados: 5, 6, 7, 9, 10.
Exercício 5.6. Seja (An )n uma seqüência de eventos em (IAn )n a seqüência de va-
riáveis aleatórias indicadoras das ocorrências dos eventos correspondentes. Encontre
P
uma condição sobre as probabilidades P (An ) para que IAn −→ 0.
Exercício 5.7. Considere o espaço de probabilidade ([0, 1], B, P ) com P dado pela
medida de comprimento, e a seqüência de variáveis aleatórias (Xn )n dadas por
n, w < n1 ,
Xn (ω) =
0, w ≥ n1 .
d P q.c. L L
Verifique respectivamente se Xn → X, Xn → X, Xn → X, Xn →2 X, Xn →1 X,
para alguma variável aleatória X.
P
1. Xn → 0.
q.c.
2. Xn → 0.
Xn q.c.
→0
n
se e somente se E|X1 | < ∞.
X q.c.
√n → 0
n
Exercício 5.13. Seja (Xn )n uma seqüência i.i.d. com distribuição exp(1). Mostre
que
P (Xn ≥ 2 log n i.v.) = 0.
Exercício 5.14. Seja (Xn )n uma seqüência i.i.d. com distribuição Poisson(λ). Mos-
tre que
Xn q.c.
→ 0.
log n
Sugestão: mostre antes que EeX1 /ε < ∞.
Exercício 5.15. Seja (Xn )n uma seqüência i.i.d. de variáveis aleatórias não-negativas
com EX12 < ∞. Mostre que
( ∞
)
X
Xn
P 2
<∞ =1
n=1 n
MX (t) = E[etX ],
desde que a esperança seja finita para todo t em algum intervalo [−b, b]. Caso
contrário dizemos que X não possui função geradora de momentos.
47
48 CAPÍTULO 6. TRANSFORMADAS
Assim,
∞
X
MX (t) = etxi P (X = xi ) se X é v.a.d.
i=1
Z ∞
MX (t) = etx fX (x)dx se X é v.a.c.
−∞
Exercício 6.3. No Exercício 6.1, use a função geradora de momentos para calcular
EX e V X.
Exemplo 6.5. Suponha um experimento realizado uma única vez tendo probabi-
lidade p de sucesso e q = 1 − p de fracasso. Denote a variável aleatória X = 0 se
fracasso ocorre e X = 1 se sucesso ocorre. Então a variável aleatória X é dita ter
distribuição de Bernoulli com parâmetro p, representado por X ∼ Bernoulli(p), e
sua função de probabilidade é dada por
P (X = x) = px (1 − p)1−x , x = 0, 1.
6.1. FUNÇÃO GERADORA DE MOMENTOS 49
MX (t) = pet + q,
EX = p,
V X = pq.
P (X = x) = q x−1 p, x = 1, 2, 3, 4, . . .
pet
MX (t) = , para t < − ln q
1 − qet
1
EX = ,
p
q
V X = 2.
p
50 CAPÍTULO 6. TRANSFORMADAS
A integração de funções complexas em domínios reais pode ser feita, para todos
os fins práticos, como no caso real. Por exemplo, X = g(Y ) = g1 (Y ) + ig2 (Y ), Y
v.a., define uma variável aleatória complexa, cuja esperança pode ser calculada por
R +∞ R +∞
EX = −∞ g1 (y)dF (y) + i −∞ g2 (y)dF (y).
Lembramos ainda a fórmula de Euler:
1
Registro aqui um comentário. A compreensão e manipulação de funções características não
requer conhecimentos de cálculo em uma variável complexa. Isso porque as integrais são calculadas
Rb
em dx para x ∈ R e não em dz para caminhos γ ⊆ C. Mais precisamente, a F ′ (x)dx = F (b)−F (a)
mesmo que F e F ′ sejam funções complexas. As únicas situações em que teríamos que sair de R e
R
usar argumentos típicos de variáveis complexas, em particular γ f dz = 0, seriam na obtenção da
função característica da Normal e da distribuição de Cauchy. Cumpre porém ressaltar que usamos
P n
abundantemente n zn! = ez , (eg )′ = g ′ eg , e (1 + znn )n → ez se zn → z, mas para fins práticos
manipulamos o i como um número qualquer.
6.2. FUNÇÃO CARACTERÍSTICA 51
ϕn (t) → ϕ(t) ∀ t ∈ R,
e ϕ é contínua em t = 0, então
d
Xn −→ X,
6.4 Exercícios
Exercício 6.4. Se X ∼ N (0, 1), calcule MX (t). Mostre que EX = 0. Mostre que
V X = 1. (Sugestão: verifique que −(z 2 − 2tz) = t2 − (z − t)2 e faça z − t = u.)
Exercício 6.5. Mostre que a soma de n variáveis aleatórias independentes normal-
mente distribuídas é, por sua vez, normalmente distribuída com média dada pela
soma das n médias e variância dada pela soma das n variâncias.
6.4. EXERCÍCIOS 53
1 2 t2
mX (t) = eµt+ 2 σ
E(X) = µ
V X = σ2 .
P Pn
(c) Se Xi ∼ N (µi, σi2 ), então Sn ∼ N ( ni=1 µi , i=1 σi2 ).
(d) Se Xi ∼ N (µ, σ 2), então Sn ∼ N (nµ, nσ 2 ).
2
(e) Se Xi ∼ N (µ, σ 2), então S̄n ∼ N (µ, σn ).
Exercício 6.8. As durações de gravidez têm distribuição normal com média de 268
dias e desvio-padrão de 15 dias.
(a) Selecionada aleatoriamente uma mulher grávida, determine a probabilidade
de que a duração de sua gravidez seja inferior a 260 dias.
(b) Se 25 mulheres escolhidas aleatoriamente são submetidas a uma dieta especial
a partir do dia em que engravidam, determine a probabilidade de os prazos de
duração de suas gravidezes terem média inferior a 260 dias (admitindo-se que a
dieta não produza efeito).
(c) Se as 25 mulheres têm realmente média inferior a 260 dias, há razão de
preocupação para os médicos de pré-natal? Justifique adequadamente.
Exercício 6.9. O peso de uma determinada fruta é uma variável aleatória com
distribuição normal com média de 200 gramas e desvio-padrão de 50 gramas. De-
termine a probabilidade de um lote contendo 100 unidades dessa fruta pesar mais
que 21 kg.
Exercício 6.11. Se X ∼ U[a, b], calcule MX (t). Use a função geradora de momentos
para calcular EX e V X.
54 CAPÍTULO 6. TRANSFORMADAS
Exercício 6.14. Seja Y uma variável aleatória contínua com função de densidade
de probabilidade dada por
(
ye−y , se y > 0
fY (y) =
0, caso contrário
para qualquer c ∈ R.
Tabela 6.1: Φ(x + y), onde x são os valores das linhas e y os das colunas.
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
56 CAPÍTULO 6. TRANSFORMADAS
Capítulo 7
57
58 CAPÍTULO 7. LEI DOS GDES NÚMEROS E TEO CENTRAL DO LIMITE
Sn − ESn d
√ → N (0, 1),
V Sn
isto é,
Sn − nµ d
√ → N (0, 1).
σ n
r2 (w) 2
onde r2 (·) é tal que w2
→ 0 quando w → 0. Segue que ϕ S√
n (t) → e−t quando
σ n
d
n → ∞, para todo t ∈ R. Pelo Teorema 6.17, S√n
σ n
→ N.
Sn = X1 + X2 + · · · + Xn ∼ b(n, p).
Assim, pelo Teorema Central do Limite, para n suficientemente grande Sn pode ser
aproximada por uma distribuição Normal, já que
Sn − np
√ ≈ N (0, 1).
npq
Ou de outra forma
Sn ≈ N (np, npq).
Exemplo 7.10. Um par de dados honestos é lançado 180 vezes por hora (aproxi-
madamente).
(a) Qual a probabilidade aproximada de que 25 ou mais lançamentos tenham
tido soma 7 na primeira hora?
(b) Qual a probabilidade aproximada de que entre 700 e 750 lançamentos tenham
tido soma 7 durante 24 horas?
60 CAPÍTULO 7. LEI DOS GDES NÚMEROS E TEO CENTRAL DO LIMITE
7.3 Exercícios
Observação 7.11. As questões sobre a Lei Forte dos Grandes Números, por trata-
rem de eventos que devem acontecer com probabilidade 1, em geral envolvem o uso
do Lema de Borel-Cantelli.
Exercício 7.1. Seja (Xn )n uma seqüência de variáveis aleatórias i.i.d. com EX14 <
∞. Mostre que essa seqüência satisfaz a Lei Forte dos Grandes
Números.
(Dica: supondo que EX1 = 0, mostre que ESn = nEX1 + 42 n2 E(X12 X22 ).)
4 4
Exercício 7.7. Se lançamos 10.000 vezes uma moeda honesta, calcule aproximada-
mente a probabilidade de que o número de vezes que se obtém coroa seja no mínimo
4.893 e no máximo 4.967.
Exercício 7.8. B. James. Capítulo 7. Recomendados: 2 e 9.
Capítulo 8
Distribuição e Esperança
Condicionais
8.1 Partições
Muitas vezes a estrutura do espaço amostral Ω é complicada demais para estudar-
mos as grandezas de interesse diretamente a partir dos eventos elementares ω ∈ Ω,
até mesmo em situações aparentemente simples. Por exemplo, se existe uma seqüên-
cia infinita de variáveis aleatórias independentes que representam lançamentos de
moedas honestas, então Ω é certamente não-enumerável e F é bastante complicada.
Neste contexto, estudamos as propriedades de algumas grandezas observáveis
(variáveis aleatórias), ou ainda, conseguimos dividir Ω em “classes” que podem
ser estudadas separadamente. Estudar uma partição D de Ω ao invés de toda a
σ-álgebra F quer dizer que estamos trabalhando apenas com a “informação” relaci-
onada àquela partição.
61
62 CAPÍTULO 8. DISTRIBUIÇÃO E ESPERANÇA CONDICIONAIS
{−1, 1}. O espaço Ω pode ser dividido em átomos onde X1 e X2 são constantes.
isto é, em cada átomo Di da partição D, temos que P (A|D) assume o valor cons-
tante P (A|Di).
P (X + Y = z|Y = y) = P (X + y = z).
De forma análoga definimos DX1 ,X2 ,...,Xn como sendo a partição cujos átomos são
os maiores conjuntos onde todas as Xn são constantes.
Exercício 8.2. Mostre que DX1 ,X2 < DX1 .
Assim,
4, se X(ω) é par,
Z(ω) =
3, se X(ω) é ímpar.
64 CAPÍTULO 8. DISTRIBUIÇÃO E ESPERANÇA CONDICIONAIS
X(ω) E(X|D)(ω)
ω ω
D D
EX = E[E(X|D)] = EZ = 3, 5.
E(X|Y ) = E(X|DY ).
E(X|Y ) = φ(Y ).
P (·) P / E(·)
F EX= i
xi P (X=xi ) ?
P (A∩D)
P (A|D)= P (D)
P
E(X|D)= i xi P (X=xi |D)
P (·|D) / E(·|D)
EX=E[E(X|D)]
P
P (A)=E[P (A|D)]
P (A|D)= i P (A|Di )IDi
P
E(X|D)= i E(X|Di )IDi
P (·|D) P / E(·|D)
E(X|D)= i
xi P (X=xi |D)
E(X|Y1 , . . . , Yn ) = φ(Y1, . . . , Yn ).
Em particular, h i
E E(X|Y1 , Y2 )Y1 = E(X|Y1).
Observação 8.19. Seja f ∗ (y) = E(X|Y = y), ou seja, tome f ∗ tal que E(X|Y ) =
f ∗ (Y ). Então, para qualquer f : R → R vale
2 2
∗
E X − f (Y ) ≥ E X −f (Y ) .
e
Z é D-mensurável.
e
n o
Z é G-mensurável, i.e., ω : Z ∈ B ∈ G ∀B ∈ B.
8.4. ESPERANÇA CONDICIONAL DADA UMA σ-ÁLGEBRA 67
Observação 8.23. Sempre existe tal φ, que é única no sentido de que qualquer
outra φ′ satisfazendo as mesmas condições satisfaz também P (φ(Y ) = φ′ (Y )) = 1.
Com isso estabelecemos uma relação entre φ(y) = E(X|Y = y) e E(X|Y ).
A primeira forma é mais intuitiva para se lidar. Entretanto, toda essa abstração
teórica e teoremas de existência e unicidade não fornecem uma forma explícita para
E(X|Y = y). É disso que tratam as Seções 8.5 e 8.6.
Caso de Y discreta
FX (x|Y = y) = P {X ≤ x|Y = y} .
Caso de X e Y independentes
P (X ∈ B|Y = y) = P (X ∈ B).
fX,Y (x, y)
fX (x|Y = y) =
fY (y)
P (X = xn )fY (y|X = xn )
pX (xn |Y = y) =
fY (y)
Princípio da substituição
Z Z x
x fX,Y (t, y) 1 + 2t − 2y
FX (x | Y = y) = dt = I[0,1]×[0,1] (x, t)dt
−∞ fY (y) 0 2 − 2y
0, x ≤ 0,
2
= x +x−2xy
, 0 < x < 1,
2(1−y)
1, x ≥ 1.
Substituindo temos
0, z ≤ y,
2
z +(1−4y)z+3y 2 −y
FZ (z|Y = y) = FX (z − y|Y = y) = , y < z < y + 1,
2(1−y)
1, x ≥ y + 1,
ou seja,
2z − 4y + 1
fZ (z|Y = y) = I[y,y+1] (z).
2(1 − y)
λk
P {Xk = min(X1 , X2 , . . . , Xn )} = Pn .
i=1 λi
Definindo φ(y) = E(X|Y = y), temos que E(X|Y ) = φ(Y ), de forma que pode-
mos obter uma versão “palpável” de E(X|G), G = σ(Y ). A esperança condicional
E(X|Y )(ω) = φ(Y (ω)), sendo um caso particular de esperança condicional dada
uma σ-álgebra, satisfaz todas as propriedades enunciadas na Proposição 8.21.
Observação 8.33. Para qualquer função g tal que g(X) é integrável, definimos
Z ∞
E [g(X)|Y = y] = g(x)dFX (x|y) .
−∞
Logo, fX (x|Y = 1) = d
F (x|Y
dx X
= 1) = I[0,1] (x) e
Z 1 1
E(X|Y = 1) = xfX (x|Y = 1)dx = .
0 2
Portanto,
1, Y =1
E(X|Y ) = 2
Y, 1 < Y ≤ 2.
Exemplo 8.36. O Jogador I lança uma moeda honesta n vezes, obtendo k “caras”,
onde 0 ≤ K ≤ n. Depois o Jogador II lança a moeda k vezes, obtendo j “coroas”.
Seja X o número j de “coroas” obtidas pelo Jogador II. Queremos calcular EX.
(Poderíamos fazer algum esforço neste caso – nem sempre isso é possível – para
mostrar que X ∼ b(n, 14 ) e portanto EX = n4 , mas estamos interessados apenas em
saber EX.)
Seja Y o número de “caras” obtidas pelo Jogador I. É claro que X|Y = k ∼ b(k, 21 ,
logo E(X|Y = k) = k2 . Assim, E(X|Y ) = Y2 . Calculamos então
Y 1 1n n
EX = E [E(X|Y )] = E = EY = = ,
2 2 22 4
uma vez que Y ∼ b(n, 12 ).
y
Se y ≤ 1
2
a integral vale +∞. Se y > 1
2
la integral vale y− 21
. Assim,
+∞,
h i Y ≤ 12 ,
E eX/2 |Y = y
, y > 12 ,
y− 12
h i
e E eX/2 |Y = 1 = 12 .
8.6. ESPERANÇA CONDICIONAL DADA UMA VARIÁVEL ALEATÓRIA 75
Exemplo 8.38. Seja X ∼ U [0, 1]. Se X = x, então uma moeda com probabilidade
x de sair cara é lançada n vezes independentemente. Seja Y a v.a. que representa
o número de caras obtidas.
Temos que Y |X = x ∼ b(n, x) e X ∼ U(0, 1) Se y ∈ 0, 1, . . . , n então:
Z Z !
1 1 n y
P (Y = y) = P (Y = y | X = x)fX (x)dx = x (1 − x)n−y dx.
0 0 y
Portanto
n n Z
!
X X 1 n y
E[Y ] = yP (Y = y) = y x (1 − x)n−y dx
y=0 y=0 0 y
Z n
!
1 X n − 1 y−1
= xn x (1 − x)n−y dx
0 y=0 y−1
Z Z
1 1 n
= xn(x + 1 − x)n−1 dx = n xdx = .
0 0 2
Por outro lado, E[Y | X = x] = nx, ou seja, E[Y | X] = nX, logo
n
E[E[Y | X]] = E[nX] = .
2
Exercício 8.9. Sejam X e Y v.a.’s independentes tais que X ∼ U [0, 2] e Y ∼
U [−1, 1].
(a) Calcule E [X|X + Y ≤ 2].
(b) Calcule E [X|X + Y ].
(c) Calcule E [X|X + Y = 2].
E [Y ] = E [N] E [X] .
k
E [Y1 + Y2 + · · · + Yk |Y1 + Y2 + · · · + Yn = y] = y, k = 1, 2, . . . , n.
n
Exercício 8.12. Um número não-negativo X é escolhido com densidade fX (x) =
xe−x para x > 0. Se X = x, um número Y é escolhido no intervalo [0, x]. Ache
P (X + Y ≤ 2).
76 CAPÍTULO 8. DISTRIBUIÇÃO E ESPERANÇA CONDICIONAIS
8.7 Exercícios
Exercício 8.13. Considere X e Y i.i.d. Bernoulli(p). Calcule E(X +Y |Y ) e escreva
essa variável aleatória como uma função da v.a. Y , de duas formas diferentes:
(a) usando P (X + Y = k|Y ), que para k = 1 já foi calculado no Exemplo 8.9, e
aplicando a definição de esperança condicional dada uma partição.
(b) usando a linearidade da esperança condicional, a independência entre X e Y
e o fato de que Y é DY -mensurável.
Exercício 8.14. Dadas X e Y i.i.d. assumindo finitos valores {0, . . . , n}, mostre
que
X +Y
E(X|X + Y ) = E(Y |X + Y ) = .
2
Sugestão: para obter a primeira igualdade, escreva a definição de esperança
condicionada à partição DX+Y , desenvolva essa expressão para depois usar a in-
dependência e o fato de X e Y terem mesma distribuição. Para obter a segunda
igualdade, some os dois lados da primeira igualdade.
Mostre que
V (X|D) = E X 2 |D − [E (X|D)]2 .
Sugestão: desenvolva a definição dada acima de forma semelhante ao que se faz
para mostrar que V X = EX 2 − (EX)2 . Em algum momento você vai ter que usar
o fato de que E(X|D) é uma variável aleatória D-mensurável.
E [ X E (Y |G) ] = E [ Y E (X|G) ] .
Dica: sabemos que essas esperanças podem ser calculadas da seguinte forma: pri-
meiro calcula-se E(·|G) e depois E(·), isto é, E[E(Z|G)] = EZ.
8.7. EXERCÍCIOS 77