Escolar Documentos
Profissional Documentos
Cultura Documentos
MARCOS NASCIMENTO MAGALHÃES. Probabilidade E Variáveis Aleatórias. Ed.2. EDUSP. 2006 (O.C.R.) PDF
MARCOS NASCIMENTO MAGALHÃES. Probabilidade E Variáveis Aleatórias. Ed.2. EDUSP. 2006 (O.C.R.) PDF
2!! edição
111104 1
COMISSÃO EDITORIAL
Presidellte José Mindlin
Vice-pre.<idente Laura de Mello e Souza
Brasflio João Sallum Júnior
Carlos Alberto Barbosa Dantas
Carlos Augusto Monteiro
Franco Maria Lajolo
Guilherme Leite da Silva Dias
Plinio Martins Filho
Prefácio
6. Convergên cia de Variáveis Aleatórias ......................................................... 299
6. 1 Introdução......................................................................................... 299
6.2 Modos de Convergência................................................................ ,... 300
6.3 Leis dos Grandes Números ............................................................... 323 Este livro busca contribuir para a formação de estudantes que tenham
6.4 Teorema Central do Limite............................................................... 337 interesse em aprofundar os conceitos de probabilidade e de variáveis aleatórias.
6.3 Exercícios .......................................................................................... 350 Em especial, poderia ser útil para estudantes de pós-graduação em ínicio de
Mestrado nas áreas de exatas, em particular, de Matemática e Estatística. O nível
Apêndice A ........................................................................................................ 359 dos pré-requisitos necessários à leitura e a formalização envolvida no texto,
Tabela Normal .......................................................................... :............ 36l podem ser considerados similares ao livro excelente (e, de certa forma, já clássico
em nosso país) de autoria de Barry James.
Resumo de Distribuiç ões ...................................................................... 362
A seqüência do conteúdo e a escolha dos tópicos refletem minha
Sumário de Expressões Matemátic as .................................................. 365 experiência, adquirida nos vários anos em que fui responsável por disciplinas
Apêndice B -Resposta s de Exercícios ...............................................................371 correlatas, no curso de Pós-Graduação do Departamento de Estatística do Instituto
de Matemática e Estatística da Universidade de São Paulo (IME-USP).
Bibliograf ia......................................................................................................... 403
Este livro traz inúmeros exemplos ilustrativos e uma quantidade
Índice Remissivo................................................................................................. 407 expressiva de exercícios. Isto busca realçar, para os leitores, a necessidade de
praticarem os conceitos através da resolução de exercícios. Muitas vezes, a
aparente frustração de ficar horas tentando resolver um exercício pode esconder
os grandes benefícios que essa persistência tem em nossa formação, pois, como na
vida, nem todos os problemas são resolvidos no tempo em que gostaríamos que o
fossem. Como é comum em textos desse tipo, muitos desses exercícios foram
adaptados de o"utros livros e/ou sugeridos por colegas. Vários fora m criados e
outros tantos coletados de provas e exames que organizei, ao longo da carreira
acadêmica. Os exercícios são apresentados ao fim de cada seção e em uma seção
específica ao final de cada capítulo.
Quero expressar minha gratidão aos colegas e estudantes que deram sua
colaboração na feitura deste livro. A professora Elisabeti Kira leu praticamente
todos os capítulos e fez inúmeras sugestões e comentários. Também auxiliou na
discussão de vários exercícios. Os professores Francisco Miraglia e Luis Gustavo
Esteves leram alguns capítulos e, também, deram várias sugestões importantes. A
professora Zara I. Abud forneceu algumas referências de Análise Matemática e a
professora Maria Izabel R. Martins auxilou na solução de vários exercícios que
envolviam integração. Os estudantes Thomas L. Ritchie, Geraldine G. Bosco e
Juvêncio S. Neto deram sugestões em capítulos específicos. Para preparar as
respostas dos exercícios, foram muito úteis as soluções que os estudantes
Fernando C. Cordeiro, Grazielle Y. Soldá, Juvêncio S. Neto e Mariana M. Ribeiro
iii
Prefácio
iv
e
gentilmente disponibilizaram. Gostaria de agradecer, em especial, ao estudant Capítulo 1
, bem como
Nelio P. Machado pela organização de exercícios, ajuda na digitação
em
na edição dos apêndices. O professor Antonio Carlos P. de Lima auxiliou-me,
vários momentos, na escolha das diversas opções que a redação de um texto como Conceitos Básicos em Probabilidade
a
este sempre traz. A professora Maria Cecilia Camargo Magalhães, com
tradicional competência e rapidez, auxiliou na correção do texto. Luis Ricardo
e a
Camara, da ADUSP- Associação dos Docentes da USP, preparou a capa
formatação da Tabela da Normal. As professo ras Elisabet i Kira e Mônica
Carneiro Sandoval utilizaram a 1a. edição em seus cursos e deram várias
1.1 Introdução
o Neste capítulo, são apresentadas as idéias básicas de probabilidade.
sugestões incorporadas nessa nova edição. A todos eles meu profund
agradecimento. Incluímos, também, vários exemplos para ilustrar técnicas importantes que devem
,
ser exercitadas pelos leitores. Muitos dos problemas apresentados são clássicos
Para a segunda edição foram corrigidos, na medida que foram textos da área, e fazem parte da história do estudo de
estão presentes em vários
encontrados, os erros ortográficos e os erros em respostas de exercícios. Alguns is
s probabilidade. Apresen tamos, na Seção 1.2, um sumário dos principa
enunciados de exemplos, definições, proposições e exercícios foram alterado Combina tória. Em seguida, na Seção 1.3, o
a redação. Eventua lmente, resultados em Teoria dos Conjuntos e
para sanar pequenos erros e/ou tornar mais clara é. apresent ado usando o suporte axiomát ico
a conceito formal de probabilidade
pequenas modificações de redação também foram feitas para ajustar
es nessa segunda edição. A rigoroso introduzido pelo matemático russo A. N. Kolmogorov. A notação
diagramação. Em resumo, não há grandes alteraçõ e irá
. utilizada procurou ser a mais usual dentre as várias alternativas possíveis
grande motivação para esta nova edição foi o fato da la. edição ter se esgotado io.
Desse modo, os estudantes e colegas podem continua r usando a edição anterior sendo introduzida conforme necessár
das
após consulta à www.ime.usp.br/-marcos que contém uma descrição 1.2 Conjuntos e Combinatória
atualizações.
Encontramos, na natureza, muitas situaç.ões que envolvem incertezas.
Por maior esforço que se possa ter feito, alguns erros vão aparecer e são Elas são denominadas de fenômenos ou experimentos aleatórios. A busca
por
de minha responsabilidade. Agradeceria receber críticas e sugestões que possam avaliar as diversas probabilidades de ocorrência é um dos objetivo s no estudo
contribuir para a melhoria do texto em novas edições. desses fenômenos.
O espaço amostrai é o conjunto de todos os resultados possíveis de um
experimento aleatório e é representado por n. Ele pode ser enumerável, finito
ou
São Paulo, fevereiro de 2006 bi-unívo ca com os números
infinito, se pode ser colocado em correspondência
Marcos N. Magalhães naturais. Caso contrário, será não enumerável, como a reta real. Cada resultado
pOSSSÍVel é denominado ponto OU elemento de f! e denotado genericamente por
marcos@ime.usp.br UI.
1
(
(
1.2 Conjuntos e Combinatória 3
2 Capítulo 1: Conceitos Básicos em Probabilidadt•
causa da falha, entre outras. Se estivermos interessados no número de falhas Diremos que dois subconjuntos são disjuntos ou mutuamente exclusivos
diárias temos como espaço amostrai: se sua intersecção é o vazio. Assim,
( J
Nesse caso, n é um conjunto enumerável finito, sendo m o limite máximo de Diremos que A 1 , A2, ... , A, formam uma partição de n se são disjuntos
falhas estabelecido pelo administrador da rede. É claro que se esse limite não é e se sua união é n, ou seja:
( n
fixado, poderíamos considerar n como sendo enumerável infinito. Em uma UA; = n, com A; nAj = 0, Vi =I= j.
análise estatística do funcionamento da rede, poderia haver interesse em avaliar o i=l
( valor de m para estabelecer políticas de manutenção preventiva. o conjunto das partes de n é formado por todos os subconjuntos de n.
Supondo, agora, que o interesse é observar a hora do dia em que ocorre Denotaremos esse conjunto por nP, mas são comuns outras notações tais como
(
falha, o espaço amostrai seria P{n} (que foi evitada aqui para não confundir com probabilidade, definida
( I
f2 = { w E IR : O :::; w :::; 24}. adiante).
Se um número infinito de subconjuntos estiver envolvido nas operações
Temos, assim, um conjunto não enumerável. Se a unidade de tempo for minutos acima mencionadas, elas são definidas de maneira análoga.
ou segundos, o intervalo de valores se modifica adequadamente. Exemplo 1.2: Leis de Morgan
Observe que, para um mesmo fenômeno aleatório, pudemos associar
yários espaços amostrais. A escolha de qual é adequado depende do interesse do Um conjunto de relações entre umao e intersecção de conjuntos,
estudo e, muitas vezes, é possível trabalhar com mais de um espaço amostrai. O conhecido como Leis de Morgan, auxilia na demonstração de vários resultados.
Elas são dadas por:
A notação utilizada para as operações básicas entre subconjuntos é
( apresentada a seguir:
(i) A c ou A é o complementar de A, isto é, todos os elementos de n exceto os
( de A;
Vamos verificar a relação (i) e deixamos ao leitor a demonstração da
n
(ii) A1 U A2 ... U A,. ou U AJ é a união de A 1, A2, ... , A,. e representa os outra parte, que é análoga.
j= l O caminho usual, para demonstrar igualdades entre conjuntos, é provar
pontos de n que pertencem a pelo menos um desses subconjuntos; que cada um deles está contido no outro. Dessa forma, temos duas partes a serem
n verificadas:
n ou, ainda, simplesmente A1A2 ... A,. é a n
(iii) A1 n A2 ... nA" ou
j=l
Ai
i=l
(parte 2).
desses subconjuntos;
Prova da Parte 1:
(iv) A- B ou A n B" = ABc é a diferença entre A e B, isto é, todos os
elementos de A, exceto os que também estejam em B ;
Suponha que w E (9 A;)
1
c. Então w ~;ºA; e, ainda, w ~A; para todo
nAj.
11
(v) A!::::.B ou ABc U Ar B é a diferença simétrica entre A e B, isto é, todos os i. Dessa forma w E Aj para todo i e, consequentemente, w E
elementos de A U B exceto os que estejam em A n B. i=l
(
1.2 Conjuntos e Combinatória 5
4 Capítulo 1: Conceitos Básicos em Probabilidade
Portanto, a verificação da relação (i) está completa. Vale ressaltar que as (A2) Se A E :F, então Ac E :F;
Leis de Morgan também são válidas para o caso em que n = oo. D 00
monótona não-decrescente se An C An+l para todo n 2:: 1 (em notação Se apenas a união finita está em :F temos uma classe menos restrita, denominada
simplificada An l ). A seqüência será monótona não-crescente (An l ) se a álgebra. D
inclusão for no sentido contrário, isto é, se para n 2:: 1 tivermos An :::> An+l· É fácil verificar que uma u-álgebra é também uma álgebra. Fica como
O limite superior da seqüência de subconjuntos { An; n 2:: 1} é definido exercício ao leitor verificar que intersecções infinitas de elementos de uma u -
por: álgebra, também pertencem à u-álgebra.
00 00
Exemplo 1.3: Considere O = {1, 2, 3} e as seguintes coleções de subconjuntos:
limsup An = lim An = n U Ak· •
n=lk=n :Fl = {0,0,{1} , {2,3}} ;
:F2 = {0,0,{1} , {2} , {1 , 3} , {2, 3}} .
Em palavras, o lim supAn é o conjunto dos elementos de O que pertencem a um
Seriam ambas u-álgebra?
número infinito dos A ... Por essa razão, é freqüente denominar lim sup An pelo Para responder a essa questão vamos verificar se as propriedades (Al)-
conjunto {An infinitas vezes}. (A3) estão satisfeitas. As duas coleções contém o espaço amostrai e, assim, (A1)
De modo similar, definimos limite inferior por
está satisfeita para ambas.
00 00 Vamos verificar (A2). Observe que os complementares dos elementos de
liminf A 11 = lim A,.= Un Ab :F1 estão todos também em :F1 pois:
n=l k=n
0c =o, oc = 0, {1 }" = {2,3} e {2,3Y = {1} .
sendo interpretado como o conjunto dos w E O que estão em todos os An, a partir
de um certo n (que pode ser função de w). Outra interpretação, bastante utilizada, Logo :F1 satisfaz a propriedade (A2). De modo análogo, verificamos que o mesmo
considera o lim in f An como sendo o conjunto {ocorre An, para todo n ocorre com a coleção :F2.
suficientemente grande} . Para verificar (A3) observamos que, como o número de elementos em
Se uma seqüência {A.,; n 2:: 1} tem limite, então os limites inferior e cada coleção é finito, basta verificar se todas as uniões possíveis com seus
superior coincidem, isto é, elementos também pertencem à coleção. A união com o vazio é inócua e a com O
dá o próprio O, logo vamos nos ocupar das demais uniões que poderiam não
lim An = lim An = n-->oo
lim An, pertencer à coleção.
Para :F1 temos
justificando a nomenclatura utilizada para essas operações de conjuntos.
Vamos estabelecer uma classe de subconjuntos com algumas {1} u {2, 3} =o E :F1 ,
propriedades convenientes. Ela será usada para a definição axiomática de e, portanto, a propriedade (A3) está satisfeita e a coleção :F1 é uma u-álgebra.
probabilidade, apresentada na próxima seção.
6 Capítulo 1: Conceitos Básicos em Probabilidade 1.2 Conjuntos e Combinatória 7
Se tomarmos as uniões relevantes e não triviais em :F2, notamos que :F= {0, A, A c, f!} é uma o--álgebra, sendo A um dos seus elementos.
imediatamente que Qualquer outra o--álgebra que também contiver A será "maior", isto é, terá os
elementos de :F e, eventualmente, mais alguns. Por isso, :F é definida como a o--
{1} u {2} = {1 , 2} tt :F2; álgebra gerada por A ou, ainda, como a intersecção de todas as o--álgebras que
logo (A3) não vale e a coleção de conjuntos :F2 não forma uma o--álgebra. O contém o subconjunto A. Numa denonúnação mais informal diremos que :F é a
menor o--álgebra que contém o subconjunto A.
Exemplo 1.4: Seja :F uma o--álgebra de conjuntos de n e considere que A o--álgebra de Borel em IR, denotada por B(IR), é a menor o--álgebra que
A1, A2 , ···sejam elementos de :F. Para k = 1, 2, ··· ,definimos: contém todos os intervalos abertos dos reilis. É possível verificar que ela pode ser
B~.: = { w : w pertence a no mínimo k dos conjuntos An, n = 1, 2, · · · }. gerada pelos intervalos ( -oo, x) com x E IR. Existem outras escolhas para o
intervalo gerador, mas o que é importante é que, qualquer tipo de intervalo dos
Vamos verificar que os conjuntos Bk, k = 1, 2, ···também estão na o--álgebra :F. reais, pode ser obtido através de um número enumerável, finito ou infinito, de
Fixando um k arbitrário, precisamos caracterizar os elementos de B~.. Observe operações de uniões e intersecções com o intervalo acima.
que se w E Bh então ele pertence a j dos An 's, para algum j 2: k. Assim, Para ilustrar essas idéias, vamos verificar que o intervalo [a, bJ, com
podemos considerar os w's E B~.: como a união daqueles que pertencem a a < b, a, b E JR, está na o--álgebra gerada por intervalos do tipo ( -oo, x) com
exatamente j dos An 's, com j = k, k + 1, ···. Mas pertencer a exatamente j dos X E JR.
j Observe que, para qualquer b E JR, existe uma seqüência b, ! b de modo
An 's, é pertencer à n An
i=l
1
, para alguma escolha de índices nh n2 , ... , nk. •oo
que ( -oo, bJ pode ser escrito como n (-oo, bn)· Logo ( -oo, b] está em B(JR),
j n=l
j=ki=l
nAn;· pois ele é obtido da intersecção infinita de intervalos do tipo ( -oo, x), todos em
B(JR). Note que, sendo (-oo,aY = [a,oo) este intervalo também está em B(JR).
Note que, pelas Leis de Morgan, temos ió An1 = (~ A~ 1 ) c. Aplicando
1
Finalmente, [a, bj está na o--álgebra de Borel, pois é intersecção ·de dois de seus
elementos, isto é, [a, b] = [a, oo) n (-oo, b].
sucessivamente as propriedades de o--álgebra vem: Se o resultado de um experimento é um número real, isto é n = JR, então
todas as perguntas práticas de interesse se referem a um conjunto pertencente à o--
A~ 1 E :F pois A 711 E :F (propriedade A2);
álgebra de Borel. É preciso muito esforço e artificialidade para construir um
j O
subconjunto que não seja boreliano.
: : } UA~1 E :F (propriedade A3);
i=l Uma função bastante útil na operação entre conjuntos é a função
: : } (U A~i)
t=l
r E :F (propriedade A2);
indicadora do conjunto A, definida da seguinte forma:
se w E A;
se w <tA.
c
: : } U UA~~ )
00 ( j
E :F (propriedade A3); Não é difícil verificar que J,1c:(w) = 1- IA(w). A notação de função indicadora
j=k i=l
pode variar entre autores, sendo também comum a utilização de 1A(w) ou 6A(w).
logo Bk E :F e a verificação está completa. o Exemplo 1.6: Indicadores da União e Intersecção
Exemplo 1.5: A "menor" u-álgebra gerada por um subconjunto
Muitas vezes a operação com indicadores facilita a notação e clarifica as
Em várias situações, nosso interesse é construir uma o--álgebra que tenha. idéias envolvidas. Vamos verificar duas expressões com indicadores referentes a
entre seus elementos, um particular subconjunto A c f!. Não é díficil verificar
Capítulo 1: Conceitos Básicos em Probabilidade 1.2 Conjuntos e Combinatória 9
8
união e a intersecção de conjuntos. Sejam A1o A 2, ... An subconjuntos de ne Um arranjo de n objetos, tomados n a n, é uma permutação de n objetos.
n n Assim, a expressão do número de diferentes permutações é dada por:
defina A= U Ai e B = n Ai então:
i=l i=l
n permutação: (n)n = n!
(i) lA(w) = 1 - IT IA:;(w); Outro resultado útil é o Príncipio Fundamental da Contagem enunciado a
i=l
n seguir:
(ii) IB(w) = II IAi(w). Se uma tarefa tem k etapas e cada etapa i tem n; maneiras
j=l
diferentes de ser realizada, então o número total de alternativas para
Prova de (i) :
realizar a tarefa é o produto n1n2 ... nk .
Se w E A, temos IA(w) = 1. Nesse caso, w E Ai para algum j e, assim,
Exercícios da Seção 1.2:
para esse j temos w ~ Aj e portanto IAj(w) = 0: Logo, o lado direito da
igualdade (i) é igual a 1. Se w ~A, temos IA(w) =O. Logo w ~Ai para todo nj, 1. Sendo A, B e C subconjuntos quaisquer, expresse em notação matemática os
conjuntos cujos elementos:
isto é, w E Aj para todo j. Dessa maneira, IA~(w) = 1 para todo j e TI a. Estão em A e B, mas não em C.
) j=l
b. Não estão em nenhum deles.
IA~(w) = 1. Assim o lado direito de (i) também é igual a O.
)
c. Estão, no máximo, em dois deles:
Prova de (ii) : d. Estão em A, mas no máximo em um dos outros.
Se w E B, temos IB(w) = 1. Nesse caso, w E Ai para todo j e, assim, e. Estão na intersecção dos três conjuntos e no complementar de A.
n
IA/w) = 1 para todo j . Então TI IAi(w) = 1 e o lado direito de (ii) é igual a 1. 2. Verifique fofi!ialmente que:
j=l a. A6B = B6A.
Se w ~ B, temos IB(w) = Oe portanto w ~ Ai para pelo menos um j. Seja j* um b. (A6B) u AB = A U B.
desses índices, temos IA.(w) =O. Logo, o lado direito de (ii) é igual a O. O c. (ABcc u N BC) n ABCc = 0.
)
As idéias de contagem se relacionam com probabilidade, conforme 3. Sejam A1. A 2 , • • • subconjuntos de n e defina Bn da seguinte forma:
veremos na próxima seção. Sem pretender ser exaustivo, apenas mencionamos
aqui as definições e resultados básicos de análise combinatória.
B1 = A1 e Bn = AnA~-1 A~-2" ·Aí, n 2:: 2.
Considere que desejamos escolher k dentre n objetos. Se a ordem de U An.
00
.
combmaçao:
_ (n)
k =
n!
k! (n _ k)! ·
a. Estude a monotonícidade das seqüências { Bn; n 2:: 1} e {Cn; n 2:: 1}.
00
b. Prove que w E U Bn se, e somente se, w pertence a todos os subconjuntos
n=l
A 1 , A 2 , ···exceto, possivelmente, a um número finito deles.
10 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 11
.
c. Mostre que w E
oc
n Cn se, e somente se, w pertence a um número infinito probabi!idáde geométrica. Por exemplo, para n sendo um intervalo dos reais
n=l temos,
dos subconjuntos A1, A2, · · ·.
P(A) = Comprimento de A
5. Sendo S1 = {a, b, c}, liste todas as a-álgebras de subconjuntos de n. Comprimento total de S1
6. Sendo S1 = {1 , 2, 3}, mostre que SlP é a-álgebra.
Uma outra definição, denominadafreqüentista ou estatística, considera o
11
7. Mostre que, se A1 , A 2 , .. ·,A, são elementos de uma a-álgebra :F então nA; limite de frequências relativas como o valor da probabilidade. Para tal, seja nA o
i=l
número de ocorrências de A em n repetições independentes do experimento em
também pertence a :F. questão. Assim,
8. Sendo n = JR.,
seja B(JR.) a a-álgebra gerada pelos intervalos ( -oo, x) com
P(A) = lim nA·
x ER Mostre que com o intervalo [x,y), x ~ y, x.,y E JR., também n .....oo n
poderíamos gerar os mesmos borelianos de B(JR.).
As definições apresentadas acima têm o apelo da intuição e permanecem
9. Seja C uma coleção não vazia de subconjuntos de n. Mostre que existe a menor sendo usadas para resolver inúmeros problemas. Entretanto, elas não são
a-álgebr;1 de subconjuntos de S1 que contém C, e que ela é unica. suficientes para uma formulação matemática mais rigorosa da probabilidade. Ao
10. Considere S1 = [O, I) e os seguintes subconjuntos: redor de 1930, A. N. Kolmogorov apresentou um conjunto de axiomas
matemáticos para definir probabilidade, permitindo incluir as definições
'A= {x E S1: x ~ 1/2} e B = {x E S1: x 2: 1/3}. anteriores como casos particulares.
Expresse, em fúnção dos indicadores de A e B, os indicadores dos seguintes Definição 1.2: Probabilidade
conjuntos: Uma função P, definida na a-álgebra :F de subconjuntos de n
e com
a. {:r E Sl: X> 1/2}. valores em [0, 1), é uma probabilidade se satisfaz os Axiomas de Kolmogorov:
b. {x E Sl: X< 1/3}.
C. {x f2: 1/3 ~X ~ 1/2}.
E (Axl) P(Sl) = I;
d. {x E f2: X< 1/3 ou X> 1/2}. (Ax2) Para todo subconjunto A E :F, P(A) ;::: O;
e. n.
(Ax3) Para toda seqüência A1, A2, ... E :F, mutuamente exclusivos,
1.3 Probabilidade temos
A definição clássica de probabilidade se refere a subconjuntos unitários
eqüipmváveis. No caso enumerável finito temos:
P(A) = Número de elementos em A
Número total de elementos em S1
o
A trinca (S1, :F, P) é denominada espaço de probabilidade. Os
Utilizando essa definição, muitos problemas são resolvidos através de técnicas de
subconjuntos que estão_ em :F são denominados eventos e é somente a eles que se
análise combinatória e de contagem. Se o número de elementos de n for infinito,
atribui probabilidade. E possível demonstrar, através do Teorema da Extensão de
precisamos tratar a definição acima com o uso de limites.
Caratheodory, que uma função de probabilidade definida em uma álgebra pode
Se n não for enumerável, o conceito se aplicará ao comprimento de
ser estendida para uma a-álgebra conveniente.
intervalos, medida de áreas ou similares, dando origem ao que é chamado de
1.3 Probabilidade 13
12 Capítulo 1: Conceitos Básicos em Probabilidade
r P (E)
Exemp lo 1.7: Proble ma dos Aniversários (Feller [68]) 10 0,1169
Num grupo de r pessoas, qual é a probabilidade de pelo menos duas delas 20 0,4114
fazerem aniversário no mesmo dia? 30 0,7063
de
Esse problema tem surpreendido estudantes pois, dependendo do valor 40 0,8912
Vamos conside rar o ano com 365
r, a_probabilidade procurada é bastante alta. 50 0,9704
desejada
dias e, assim, assumimos r < 365 pois para r ~ 365 a probabilidade 60 0,9941
seria 1.
s
O espaço amostrai n será o conjunto de todas as seqüências formada A nossa intuição de considerar "evento raro" duas pessoas terem a mesma
cada data a um dos 365 dias do ano).
com as datas dos aniversários (associamos data de aniversário contradiz os cálculos da tabela. Não é preciso um grupo
muito
enumerável
Pode ser verificado que o conjunto das partes de um espaço amostrai grande para que tenhamos, com quase certeza, anivers ários coincid entes. O
s tomar a a-álgeb ra :F como sendo o
é uma a-álgebra. Dessa forma, podemo
conjunto das partes de f! e, para qualque r A E :F, P(A) é o quocien te entre o Exempl o 1.8: Paradoxo de Bertran d (Neuts [73])
365r, que é o número total de seqüênc ias de é passível de
número de elementos de A por . Ne~te exemplo, vamos apresentar um problema que
os dias são eqüipro váveis. paradoxo,
tamanho r. Assim, assumimos que todos diferentes Interpretações. Apesar de se tomar conhecido como um
Seja E o evento de interesse, isto é, E = {pelo menos duas pessoas ~ata-se apenas de diferentes escolhas do espaço de
probabi lidade e, sendo
={ning uém
aniversariam no mesmo dia} . Para o complementar de E, temos Ec ngoroso, não existe paradoxo algum. Em todas as interpre tações os elemen tos são
Iremos calcula r a probabi lidade de Ec com o diferentes, produze m
faz aniversário no mesmo dia}. ~üiprováveis mas, como os espaços de probabilidade são
auxílio do Principio Fundamental da Contag em. diferentes respostas. O problema é formulado da seguint e forma:
as
Considerando a escolha das idades como sendo r etapas sucessiv Num círculo unitário, representado a seguir, o triângulo eqüiláte
ro
serem todas distinta s, elimina r as que forem escolhid as círculo
precisamos, para as datas inscrito tem lado igual a y'3 . Qual é a probabilidade de uma corda desse
para o
em etapas anteriores. O agrupamento formado é um arranjo e, dessa forma, escolhida ao acaso, ter comprimento maior que o lado desse triângulo?
'
total de maneiras de escolhermos r datas diferentes de aniversário, teremos
(365) r = 365 X 364 X ... X (365- r+ 1).
satisfazem a
Em outras palavras, o produto acima é o número de seqüências que
condição de datas distintas de aniversário. Então,
(365)r ( 1 ) (1 2 ) ( r- 1)
P(E ) = 365r = 1 1 - 365
c
- 365 ... 1 - 365 .
no
Portanto, a probabilidade desejada, de pelo menos dois aniversários
mesmo dia, será P(E) = 1 - P(ec).
,
O curioso é que para r = 23, um número relativamente baixo de pessoas c
que 1/2.
a probabilidade de pelo menos dois aniversários coincidentes já é maior Figura 1.1: Paradoxo de Bertrand.
lidade
A tabela a seguir (ver Neuts [73]) apresenta alguns valores dessa probabi
em função de r.
15
1.3 Probabilidade
14 Capítulo 1: Conceitos Básicos em Probabilidade
D D
c
Segue que
Figura 1.2: Paradoxo de Bertr and-l a.lnte rpret ação. Medida do Arco ( ~, !...
,.)
2 1
r;; 3 3 = 311' = _.
P(Co rdas maiores que v J) = ·
211' 211' 3
o unitário e :F uma
Para essa interpretação consideramos O como o círcul
subconjuntos de O cuja área
a-álgebra constituída de modo a incluir todos os 3a. Intemretação:
como sendo o quociente entre
esteja definida. Para todo A E :F, definimos P(A) Para a obtenção da corda, escolha um ponto ao acaso
em um dos raios, e
a área de A e a área do círculo unitário. raio utilizado é irrelevante e
que produzirá as por esse ponto, trace uma perpendicular. O particular
É um exercício de geometria, verificar que a região o procedimento aleatório é equivalente a sortea
r um ponto ao acaso num
de mesmo centro e raio 1/2.
cordas desejadas é o círculo inscrito no triângulo, segmento [0, 1] .
Logo, a probabilidade de interesse será: e :F uma a-álgebra
Para essa interpretação, seja O o intervalo [0, 1]
O cujo comprimento esteja
. r;; ) Área Círculo (0, 1/2) = !1r = ~.
4
constituída de modo a incluir todos os intervalos de
o comp rimento de A.
P(cord as maiOres que v 3J = Area
,
Círculo (0, 1) 1r definido. Para todo A E :F, definimos P(A) como sendo
o ponto escolh ido precisa
Para produzir os tamanhos desejados de corda,
2a. Intemretação: estar no intervalo [O, 1/2], conforme figura a seguir.
, ainda, que a corda Então,
A corda une dois pontos na circunferência. Admitimos
é invariante por qualquer rotação da circunferência.
Dessa forma, fixamos uma
o na circunferência. O espaço P(Co rdas maiores que VJ) = Comprimento do Intervalo [0, 1/2] = ~ ·
extremidade e escolhemos, ao acaso, o outro extrem
a a-álgebra :F é formada de
amostrai O consiste dos arcos no intervalo [0, 211'] e
ser avaliada. Para todo
modo a incluir todos os arcos de O cuja medida possa
do por 211'.
A E :F, definimos P(A) como a medida do arco dividi
1.3 Probabilidade 17
16 Capítulo 1: Conceitos Básicos em Probabilidade
Figura 1.4: Paradoxo de Bertrand- 3a. Interpretação. cuja interpretação corresponde a um outro espaço amostrai descrito a seguir. O
espaço amostrai seria agora constituído de subconjuntos das n peças com
tamanho r e, assim, temos ( ; )escolhas possíveis. Para contar os casos favorávei s,
Essas três respostas, aparentemente paradoxais, refletem as diferentes observe que, dentre as m peças defeituosas existentes, há ( :' )escolhas para as k
interpretações dadas à frase "escolhida ao acaso". Para estabelecer qual delas é a
participantes da amostra. De modo análogo, para as peças boas existem . ( r;=~')
resposta correta, é necessário tornar mais precisa a pergunta para evitar
possibilidades. Pelo Principio Fundamçntal da Contagem o número total de casos
ambiguidades na interpretação. Aliás, em muitos problemas de probabilidade,
D favoráveis é o produto. Daí segue a probabilidade desejada, conforme a expressão
essa pode ser a parte mais difícil!
acima indicada. Como será visto no próximo capítulo, essa situação origina o
Nos próximos dois exemplos, o espaço de probabilidade não foi modelo Hipergeométrico para variáveis.
formalizado e deixamos ao leitor essa tarefa. Na situação em questão parece ser mais natural uma amostragem sem
Exemplo 1.9: Amostragem com e sem Reposição (Mood, Graybill e Boes [74]) reposição. Entretanto, para efeito didático, vamos considerar uma amostragem
com reposição.
Num lote de n peças existem m defeituosas. Uma amostra sem reposição Para cada elemento da amostra temos n escolhas possíveis e então nr
de r dessas peças, r < n, é sorteada ao acaso e deseja-se obter a probabilidade de fornece o número total de amostras possíveis. De forma similar ao caso sem
obtermos k peças defeituosas, k $ min(r, m ). reposição, temos para o número de casos favoráveis, o produto ( ~ ) mk(n- m y-k
Cada amostra é denotada por ( z 1 , z 2 , .•• , Zr) em que zi representa a peça e podemos escrever
escolhida na i-ésima retirada. Dessa forma, o total de amostras possíveis é
(n )r. ou seja, o número de arranjos de n tomados r a r. Para estabelecer o número (r)mk(n- my-k
P( k defeituosas na amostra com reposição) = ~k:.....___:_nr
_ _...:........_
de casos favoráveis, consideramos três etapas. Inicialmente escolhemos em que
posição as defeituosas foram retiradas. As k peças defeituosas formam um
subconjunto de tamanho k, dentre as r posições da amostra. Assim, temos G) = G)(:f(l- :r-~
possibilidades. Note que as r - k peças boas formam um outro subconjunto
Essa expressão corresponde à função de probabilidade do modelo Binomial, a ser
complementar ao das defeituosas. Tendo fixada a posição das defeituosas, as boas
definido no Capítulo 2, sendo ~ a proporção de peças defeituosas no lote. O
têm posição definida. A segunda etapa será escolher quais k dentre as m peças
defeituosas existentes ocuparão as posições fixadas na primeira etapa. Isto pode
ser feito de (m)k maneiras diferentes. Uma terceira etapa, análoga à anterior, será
escolher as peças boas para participarem da amostra. Obtemos (n - m )r-k
diferentes formas dessa escolha. Aplicando o Príncipio Fundamental da
Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 19
18
Exemplo 1.10: Problema da Eleição e Principio da Reflexão (Brémaud [88]) n = n1 + mpf + mplJ,
Suponha que dois candidatos I e 11 disputem uma eleição recebendo,
em que mp1 e mpii representam, respectivamente, o número de trajetórias
respectivamente, a e b votos. Admita que a > b e o interesse é calcular a
desfavoráveis com primeiro voto em I e 11.
probabilidade do candidato I estar sempre à frente na contagem. Observe que a probabilidade de interesse é dada por
Considere um plano cartesiano com os votos de I no eixo x e os do
candidato 11 em y. A marcha da contagem pode ser pensada como um caminho n1 = 1
_ mpJ + mpn ,
que liga o ponto (O, O) até (a, b). Na figura abaixo uma possível trajetória é n n
apresentada. Trajetórias favoráveis são aquelas que ficam abaixo da diagonal.
restando calcular mn e mplJ, o que será feito a seguir.
Se o primeiro voto é em 11, já estamos numa trajetória desfavorável e,
y
assim, todas as trajetórias a partir desse ponto devem ser contadas. Dessa forma,
y=x basta contar o número total de trajetórias do ponto (0, 1) até (a, b). Isto
comesponde ao número de posições para os a votos do candidato I dentre o total
de votos de a + b - 1. Assim,
b (a, b)
2(at~~ )
1
, n1 ) a-b
Seja n1 o número de trajetórias com o candidado I liderando a apuração. P(Cand. I sempre a frente = -:; = 1- (a~b) = a+ b ·
O número de trajetórias desfavoráveis é repartido em duas, dependendo de quem
recebe o primeiro voto. Assim o
20 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 21
Com os Axiomas de Kolmogorov, apresentados na definição dt: (P3) Se A c B então o evento B pode ser particionado nos moldes
probabilidade, pode-se demonstrar com rigor matemático, diversas propriedades. usados em (P2). Assim,
Proposição 1.1: Propriedades da Probabilidade
Dado (n, F, P), considere que os conjuntos mencionados abaixo são Então, como a união é disjunta, vem
eventos nesse espaço de probabilidade. Temos:
P(B) = P(A) + P(B nAc) ;::: P(A),
(Pl) P(A) = 1 - P(N);
uma vez que, por (Ax2), P(B nA c) ;::: O.
(P2) Sendo A e B dois eventos quaisquer, vale
(P4) Vamos escrever A U B como a seguinte união disjunta:
P(B) = P(B nA)+ P(B nAc);
1 = P(A) + P(Ac) '* P(A) = 1 - P(Ac). (PS) Vamos escrever U A; como união de uma seqüência disjunta de
i=l
(P2) Para dois eventos A e B quaisquer, é sempre possível escrever o eventos. Temos
evento B da seguinte forma: B = (B nA) U (B n N). Note que essa é uma 00
união disjunta e, portanto, por (Ax3) o resultado segue imediatamente. UA; = A1 u (A~ n Az) u (A! n A2 n A 3 ) u ....
i=l
23
ade 1.3 Probabilidade
Capítulo 1: Conceitos Básic os em Probabilid
22
P (An- dJ ) , 3/4.
P(A ) = J~~(P(AI) + [P(A 2)- P(A I)J + ... [P(A n) - logo, pode-se verificar que P(A U B U C)=
Os cálculos de prob abili dade com os eventos acima poderiam ser
fosse utilizado. Considere a seguinte
e, então o resultado segue após simplificação. facilitados se um outro espaço amostrai
Temos agora uma seqüência alternativa para espaço amostrai
Considere agora o caso em que An ! A.
monótona não crescente com A 1 :) A2: A3: ) .. ·, de modo que
)
n1= {(p, p), (p, i), (i, p), (i, i)},
.n A ; e também P( A;) é não crescente em
00 i por (P3). Tomando os
_limA; = A= t=l ímpar, respectivamente. A a-álgebra
...... 00
caso anterior de seqüências monótonas sendo p e i a ocorrência de face par e
complementares dos A ;' s, recaímos no s de 0 1 e a probabilidade uniforme
uldade. Os detalhes são deixados ao poderia continuar sendo o conjunto das parte
não decrescentes e o resultado segue sem dific com w sendo um dos pare s acima.
O continuaria valendo, ou seja, P( { w}) = 1/4
{(p, i),(i ,p)} e, de forma
leitor. O evento A corresponderia ao conjunto
do duas vezes e as faces resultantes ao leitor a tarefa de completar os
Exem plo 1.11: Um dado equilibrado é lança imediata, teríamos P(A ) = 1/2. Deixamos
n = {1, 2, .. ·, 6} x {1 , 2, .. ·, 6} . A a e constatar que podem ser feito s de
observadas. Um espaço amostrai natural seria cálculos das probabilidades obtid as acim
Pé a probabilidade uniforme em todos ço de probabilidade. Entretanto, vale a
a-álgebra pode ser o conjunto das partes e forma bem mais rápida com o novo espa
Note que fica mais simples considerar
os pontos de n, isto é, P( { w}) = 1/36.
1.3 Probabilidade 25
24 Capitulo 1: Conceitos Básicos em Probabilidade
P (( )) = N(x, y), lim sup X 11 = inf sup XA· = lim sup xk.
x, y 650 71 ~1 k~n n ...:>o k~n
n = O
= limB/1 .
n-+x
ao acaso, que procura
ocorrê ncia de doença e se refere a uma criança, escolh ida
esse tipo de Posto de Saúde.
(
27
( 26 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade
(
(
lim P(B .. ) pela continuidade da probabilidade
Temos, então, P(limAn ) = n-+:x> equação, resulta em:
(
l =kP(B) ;
( expressa na propriedade (P6). :x;
Por outro lado, P(Bn) = P( U Ak ) 2: P(Ak), 'r:/k 2: n. Desse modo, Se P(B) > O, então k = 1/P(B). Se P(B) =O, não existe k que possa
( k=1l
temos P(B1,) 2: supP(Ak ). satisfazer as condições que discutimos até agora e nossa argumentação intuitiva
( k~ n não valeria. Nesses casos, alguns autores indicam que P1 (A) é indeterminada e
( Então, outros lhe atribuem um valor arbitrário.
o É possível verificar que, para P(B) > O, a função P1 aplicada em
( P(limA 11 ) limP(B,. ) 2: limsupP (Ak) = limP(An )·
= n-.oo n-+xk~n conjuntos de :F8 e definida por
(
p 1 (A)= P(AnB )
( Em muitas situações, informações preliminares podem alterar as P(B)
probabilidades de eventos. Assim, a probabilidade de chover no final da tarde
( poderia ser diferente se tivermos informações adicionais, tais como a situação satisfaz os Axiomas de Kolmogorov, sendo assim uma probabilidade.
( climática do dia anterior. Vamos, agora, descrever como é possível incorporar
( essas informações de um modo formal.
Suponha que um experimento é descrito originalmente em termos do
( espaço de probabilidade (0, :F, P). Desejamos discutir como a atribuição original
( de probabilidade aos eventos de :F é afetada pela informação sobre uma A
realização do experimento.
( De fo~a mais precisa, suponha que tenha ocorrido um ponto w B
( pertencente a um certo evento B. Seria possível identificar uma classe de eventos,
subconjuntos de B, e uma função de probabilidade nessa classe, de modo a
( incorporar o efeito da informação de que w E B?
( Seja A E :F um evento qualquer. A única forma dele ocorrer, sabendo-se
( que ocorreu w E B, seria se tivéssemos w E B nA. Assim, é natural considerar
um novo espaço amostrai B (ver Figura 1.6) com uma nova a-álgebra :F8 com
todos os conjuntos do tipo B nA para A E :F. A a-álgebra :FB é denominada a
restrição de :F ao espaço amostrai B.
A probabilidade original P(A) é a soma de P(A n B) com P(An Bc). Figura 1.6: Restrição ao evento B.
A informação adicional disponível nos diz que A n nc não pode mais ocorrer.
Gostaríamos que a nova probabilidade P1 (A) fosse proporcional à P(A n B).
Assim, é intuitivo redistribuir a massa unitária de probabilidade nos conjuntos de Desse modo, construímos um novo espaço de probabilidade (B,:FB, Pt )
:FB de modo proporcional às probabilidades que esses conjuntos tinham na antiga partindo do original (0, :F, P).
função de probabilidade P. A construção do novo espaço de probabilidade não é essencial e poderia
Vamos considerar ser contornada. Para tal, vamos estender a definição de P1 para todos conjuntos
A E :F. Isto é feito atribuindo sempre P1 (A n Bc) =O, \:IA E :F. Dessa forma,
Pt(A) = kP(AnB ),
(
definição de probabilidade
Procedemos por indução. Para n = 2, pela
usando a aditividade de P1. podemos escrever condicional, temos
c P(A nB)
P1(A ) = P1(A n B) + P1(A n B )= P(B ) · P(A1 n A2)
P(A2I At) = P(A ) =? P(A1 n A2) = P(A1 )P(A 2I A1),
1
o evento B, é conveniente
Para enfat izar a estreita relação de H com > O.
. Toda essa argumentação conduz à pois P(A I)
alterar a notação de P1(A) para P(AI B) + 1.
vamos prová-lo para k
próxima definição. Supomos o resultado válido para n = k e
Assim,
Defin ição 1.3: Probabilidade Cond icion al
F, P). Sendo P(B ) > O, a P(A1 n A2 ... n Ak n Ak+l) = P[(A1 n A2 ...
n Ak) n Ak+d
Cons idere os eventos A e B em (0, +li A1 n A2 ... n Ak)
reu B, é dada por: = P(A1 n A2 ... n Ak) P(Ak
prob abili dade condicional de A dado que ocor
= P(At )P(A 2I A1) ... P(AkiA1 n A2 ... n
Ak-d
P(A nB)
P(A I B) = P(B ) ; P(Ak +1IA 1n ... nAk )·
tos com prob abili dade posit iva, pois todos eles contém nA; .
feitos em even i=l
- -- --
L I.
31
abilidade 1.3 Probabilidade
Capítulo I: Conceitos Básicos em Prob
30
Vamos apresentar uma outra solução (ver Ross [98]), que calcula a Vamos admitir que a bola extra possa fazer par com a caixa extra. Logo a
probabilidade de não haver encontros através de uma expressão recursiva com o probabilidade condicional de ocorrência simultânea de U e Fc dado Ec, é igual à
condicionamento na primeira ocorrência. probabilidade de n- 1 desencontros, o que é igual a Pn-1· Assim,
Introduzimos nova notação que auxiliará o estabelecimento da recursão.
P(UPIEJC) =Pn-1·
Seja U o evento de não haver encontros e Pn a sua probabilidade. A primeira bola
a "escolher" uma caixa pode produzir um encontro, evento que representamos por Dessa forma, temos
E. Nesse caso, restarão n- 1 bolas e suas n- 1 caixas. Caso ocorra um
desencontro, isto é, a primeira bola escolheu a caixa de uma outra bola, teremos a P(UI Ec) = Pn-2 ~
n- 1
+ Pn-1·
ocorrência de Ec. Nesse caso, dentre as n - 1 bolas restantes, uma delas não vai
achar a sua caixa pois ela já foi escolhida! Assim, U pode ser escrito como: Então, a probabilidade do evento U pode ser escrita como
U =(UnE) u (Un EJC), 1 )n-1
P(U) = Pn = ( Pn-2 n _ 1 + Pn-1 -n- ;
mas U n E = 0, uma vez que U é o evento de todos os desencontros. Então
ou, ainda,
1
Observe que P(Ec) = (n- 1)/n, pois é a probabilidade de desencontro na Pn- Pn-1 = --(Pn-1- Pn-2)·
n
primeira bola. Para o cálculo de P(UI Ec) vamos desenvolver um novo
argumento. Valores iniciais de p11 podem ser calculados pela definição, resultando em P1 = O
Como houve desencontro na primeira ocorrência, temos agora n - 1 e P2 = 1/2. A partir desses valores e da expressão acima, podemos obter
bolas e n - 1 caixas, das quais uma bola e uma caixa não farão encontro pois seus recursivamente os outros termos. Não é difícil verificar que, em geral,
respectivos pares já sairam na primeira ocorrência. Denominemos a bola, e
1 1 (-1) 11 -1
também a caixa, como extra. A probabilidade que desejamos calcular, dada por Pu = 21 - 31
. .
+ ... + --1-
n.
~e = O, 368;
P(U] Ec), representa a ocorrência de não haver nenhum encontro entre n- 1
bolas e n - 1 caixas, sendo que existe uma caixa e também uma bola do tipo conforme obtido anteriormente. o
extra. Seu cálculo vai levar em conta as situações excludentes da bola extra ir ou
Exemplo 1.15: O doente sadio e o sadio doente (DeGroot e Schervich [02])
não para a caixa extra.
Sendo F o evento em que a bola extra foi para a caixa extra, temos Uma das formas de avaliar a eficiência de um teste para detectar uma
doença é quantificar a probabilidade de erro. Em geral, testes sofisticados
P(U] EJC) = P(U FI Ec) + P(U Fc IEJC). envolvem vários procedimentos laboratoriais e diversos equipamentos.
Observe que P(F) = P(Fl Ec) = 1/(n- 1). Dado que F ocorre, restam n- 2 Denominamos falso-positivo ao erro em que o teste indica positivo para um
paciente que não tem a doença. Por outro lado, teremos um erro falso-negativo se
34 Capítulo 1: Conceitos Básicos em Probabilidade 1.3 Probabilidade 35
o teste não acusar a doença num paciente doente. Não é díficil imaginar os Em certas farm1ias de eventos do espaço de probabilidade (0, :F, P), a
inconvenientes dessas ocorrências. Os erros originam doentes sadios e sadios função de probabilidade tem uma propriedade particular de grande importância,
doentes, isto é, pessoas sadias indicadas como doentes pelo teste e pessoas tanto prática quanto teórica. Ela se refere à indiferença no cálculo da
doentes apontadas como sadias. As probabilidades dos erros são calculadas probabilidade de um evento A frente à informação da ocorrência de um outro
condicionalmente à situação do paciente. Seus complementares fornecem as evento B. É como se não aprendêssemos nada da ocorrência de B, que fosse
probabilidades de acerto do teste, ou seja, a probabilidade de indicar doença para capaz de modificar a probabilidade atribuída ao evento A anteriormente. A
os doentes e não doença para os sadios. propriedade, denominada independência de eventos, é definida a seguir. Ela
Para fixar as idéias, considere que um determinado teste resulta positivo permite, muitas vezes, separar o experimento em partes mais simples de serem
para não doentes, com probabilidade 0,1. Também com probabilidade 0,1, o teste estudadas e, assim, possibilitar uma enorme simplificação nos cálculos
será negativo para um paciente doente. As informações fornecidas se referem aos probabilísticos de interesse.
erros que podem ser cometidos ao realizar o teste. Se a incidência da doença na Definição 1.4: Independência de Dois Eventos
população é de I para cada I O mil habitantes, qual é a probabilidade de uma
pessoa estar realmente doente se o teste deu positivo? Observe que, estando ou Os eventos A e B em (0, :F, P) são independentes se a informação da
não doente, existe uma probabilidade não nula do teste indicar a presença da ocorrência de B não altera a probabilidade atribuída ao evento A. Isto é:
doença. P(Aj B) = P(A);
A situação acima ocorre de forma similar em várias áreas e é típica para a
aplicação do Teorema de Bayes. Definimos os eventos: a condição de independência pode também ser expressa na seguinte forma
alternativa e equivalente:
D : a pessoa está doente;
A : o teste é positivo. P(A n B) = P(A)P(B).
s} =
m+t;n-1( m + kn- 1) P (1 - P)
k m+n -1-k
·
jogador na sua jogada, é suficiente o
Como os jogadores se sucedem, repe
tindo esse experimento ,
e
o espa
suge re,
ço de
será
P { n sucessos antes de m fracasso ço produto que, como o nom
probabilidade conveniente será o espa tico s ou não. No
ços de probabilidade, idên
uma espécie de produto de outros espa será den otad o por
ticos e o espaço produto
menos famosos, envolvem cálculo
de nosso caso, os espaços são todos idên o
Diversos outros problemas, mais ou con strução. Descrevemos brevemente com
pendentes de sucesso- frac asso . O leito r pod e {n, F, P}. É preciso cautela na sua Prob abil idad e
probabilidades em sequências inde s, entr e os quais tem os o isso pode ser feito e indicamos,
para mais detalhes, textos de
o de alguns dele
consultar Feller [68] para a descriçã .
de Banach e o Pro blem a de Ven cer no Ten is de Avançada tais como Billingsley [91] isto é
Problema das Caixas de Fósforos O espaço amostrai n é o produto cartesiano dos no's,
da forma
Mesa. o n = no X no X . . ·. Sendo c, defi a classe de todos os con junt os
a o--á lgebra
nimos F= u(C). Assim, F é
ora da desconfuula A1 x A 2 x · · ·, com A; E F0 uma funç ão de
Exe mpl o 1.17: O pro blem a da nam gerada pela classe C. Finalmente,
é possível constru ir
uma moeda equilibrada. Cada jogador riedade de que
João e José disputam um jogo com resultados probabilidade P sobre F com a prop
e o jogo aquele que obtiver dois
lança a moeda duas vezes e venc moe da para José e; = lim Po(AI) Po(A2) · · · Po(An),
com (A1, A2 , ···) E :F.
não vencer, passa a P(A I. A2, · · ·)
iguais. João começa jogando e, se A nam orad a de Jose n-+ex:>
das, até alguém vencer.
continuam assim, alternando as joga mai s prob abil idad e de
reclama que João tem
desconfia da honestidade do jogo e a de João diz que isso é
o lado, a namorad
vitória por iniciar o jogo. Por outr ito, tanto faz que m com eça
das pode ser infin
besteira pois, como o número de joga
jogando. Quem será que tem razão?
-----------~
1.3 Probabilidade
39
38 Capítulo 1: Conceitos Básicos em Probabilidade
e, portanto, a namorada de José tem razão em dizer que João tem maior = 1- I1P(A1j) = 1- (1- at)m 1
;
j=l
probabilidade de vitória. Após saber dessa resposta, ela virou para o seu
namorado e, num tom desafiador, exclamou "E agora José?" Para ajudá-lo, você e, de modo análogo,
teria alguma sugestão? Uma moeda com outra probabilidade de cara ajudaria? O
ffl2
Exemplo 1.18: Aplicação em Confrabilidade (Feldman e Fox [91]) P( UA2j) = 1- (1- a2)m2.
j=l
A confiabilidade de um sistema ou componente é a probabilidade que ele
funcione. Muitos sistemas são construídos com redundâncias nos componentes, Então, escolhemos os menores inteiros mr e mz que satisfazem à
permitindo alternativas de funcionamento em caso de falha de algum componente. desigualdade
Considere um sistema com dois sub-sistemas em série 8 1 e 8 2 com,
respectivamente, mt e m2 componentes idênticos em paralelo (ver figura a
seguir).
Se os componentes em cada sub-sistema têm custos diferentes, então isto deve ser
levado em conta, escolhendo m 1 e m 2 de forma a minimizar também a função
custo.
Para ilustrar nossos cálculos, considere componentes com custos iguais
nos dois sub-sistemas, confiabilidade 'Y = 0,99, a1 = 0,7 e a2 = 0,8. Nesse caso,
Existem n palavras tendo as duas primeiras letras iguais a s. Assim, (i) Se LPn < oo então P(limsup A 11 ) = O;
N(AB) = n. Fixando a letra s, seja no ínicio ou no meio, e requerendo n=l
00
exatamente duas letras iguais teremos 3( n - 1) palavras. Dessa forma, (ii) Se LPn = oo e os A 's são independentes, então P(limsup A11 ) = 1.
11
= ~ = ~;
n=l
P(AB) P(AC ) = 3 (n- 1) e P(BC) = 3 (n- 1 ).
~ ~ ~ ~ Demonstração:
Observe que a probabilidade da intersecção de qualquer dois, dentre os eventos
A, B e C, é igual ao produto das probabilidades marginais. Segue imediatamente Considere B k =
00
k=l
que os eventos A e B, A e C e também B e C são independentes. Para poder (i) Para todo k temos
afirmar que A, B e C são independentes precisamos também verificar que a
00 00 00
probabilidade da intersecção dos três eventos é o produto das marginais.
O número de palavras que iniciam com ss e têm exatamente duas letras
o ::; P(limsupAn) = P(n Bk)::; P(Bk ) = P(U An ) ::; LPn;
k= l n=k n=k
idênticas é igual a n- 1. Dessa forma, N(ABC) = n- 1 e temos
em que usamos várias das propriedades de probabilidade relativas à inclusão de
P( A BC ) = n - 1 , eventos. Tomando limite para k-+ oo e lembrando que, por hipótese a série
n3
converge, temos P(lim supA 11 ) = O.
--· 45
1.3 Probabilidade
44 Capítulo 1: Conceitos Básicos em Probabilidade
com event os comp lemen tares. Assim, Exemplo 1.21: O macaco escritor (]ames [81])
(ii) É mais conve niente trabal har r é razoável supor que
Coloc ando um macaco em frente a um comp utado
00 00
a. Qual é a probabilidade de uma caixa, escolhida ao acaso, ter 2 bolas 33. Escolha, ao acaso, um ponto (a, b) na região de lR2 definida por O::::; x::::; 1 e
brancas? O ::::; y ::::; I. Para a equação z 2 + 2az + b = O, determine a probabilidade das
b. Retirando-se, ao acaso, uma bola de cada uma, qual a probabilidade de raízes serem:
obtermos um total de 2 brancas? a. Dois números reais e distintos.
c. De uma caixa, escolhida ao acaso, uma bola é retirada ao acaso e colocada b. Dois números reais.
na outra caixa. Desta caixa uma bola é retirada e observa-se que é branca. 34. Os coeficientes a, b e c da equação ax 2 + bx + c = O são, respectivamente,
Determine a probabilidade dessa bola ter sido retirada de uma caixa com os resultados sucessivos de três lançamentos de um dado equilibrado. Calcule
número igual de bolas brancas e pretas. a probabilidade das raízes dessa equação serem números reais.
28. Para o lançamento de um dado equilibrado, pergunta-se: 35. Demonstre que dois eventos com probabilidade positiva e disjuntos nunca são
a. Para os interessados em saber se a face sorteada é par, qual seria um espaço independentes.
amostrai adequado?
b. Apresente o espaço amostrai mais detalhado possível. 36. Prove que eventos independentes não são disjuntos, a menos que um deles
c. Estabeleça uma correspondência entre os elementos dos espaços amostrais tenha probabilidade zero.
apresentados. 37. Demonstre que o vazio é independente de qualquer evento.
d. Indique as probabilidades dos elementos desses espaços amostrais.
38. Prove que, se os eventos A e B têm probabilidade positiva e não são
e. Com o espaço amostrai de (a), você poderia calcular a probabilidade de
ocorrência de face 3 ou 4? disjuntos, então P(A) = P(B) se é somente se P(AIB) = P(BIA).
f. Como ficaria a resposta de (e), utilizando o espaço amostrai de (b)? 39. Uma moeda equilibrada é jogada 15 vezes de forma independente. Qual é a
probabilidade de obter cara no lSo. lançamento, se ocorrerem 14 coroas nas
29. Um dado honesto é lançado duas vezes. Determine a probabilidade de obter:
a. Dois números pares. primeiras 14 jogadas?
b. O primeiro par e o segundo número ímpar. 40. Demonstre que se P(A) = P(B) = 3/4, então P(AI B) 2: 2/3.
c. Um número par e o outro ímpar.
d. Soma par.
41. Mostre que: P(A n B) 2: P(A) + P(B) - 1.
e. Soma dos números menor que 7. 42. Prove que P(A) + P(B) - 2P(A n B) é a probabilidade de ocorrência, não
f. Diferença entre os números maior que 4. simultânea, de A ou de B.
g. O segundo número maior que o primeiro. 43. Os eventos A, B e C são independentes. Prove que P(B I A n C)= P(B I
30. Escolha um ponto, ao acaso, no círculo unitário com centro na origem. Qual é AUC) = P(B).
a probabilidade da distância desse ponto à circunferência, que limita o
44. Verifique se são verdadeiras as afirmações (justifique sua resposta):
círculo, ser inferior a 1/2?
a. Sendo A e B eventos não vazios, P(A n B) é sempre positiva.
31. Um ponto (a, b) E JR2 é escolhido aleatoriamente no quadrado definido por b. Sendo P(A) = 3/4 e P(Bc) = 2/3, A e B não podem ser disjuntos.
-1 ::::; x ::::; 1 e -I ::::; y ::::; 1. Considerando a equação ax + b = O, determine a c. Sempre que A n B i' 0, P(A) + P(B) excede 1.
probabilidade de sua solução ser positiva . d. Se P(A U B) ::::; 0,9 e P(A) = 0,8; então P(B) é no máximo 0,1.
32. Um ponto x 0 é escolhido aleatoriamente em (0, 1] n IR.. A "sombra" gerada por 45. Considere os eventos A, B e C em n e suponha que P( C) > O e
esse ponto é o intervalo de amplitude x 0 /2, centrado em xo. Determine a P(B n C) > O. Verifique se são verdadeiras as afirmações (justifique sua
probabilidade (condicional a x 0 ) de sortear, ao acaso, um outro ponto em resposta):
(0, 1] fora dessa "sombra".
52 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios 53
67. Para um conjunto de 10 pessoas, qual é a probabilidade de 6 fazerem número, ele ganha 36 fichas (sua aposta mais 35). Qualquer outro número ele
aniversário num mesmo mês e 4 em um outro mês? (Admita igual perde sua aposta. Qual é a probabilidade do jogador perder todas as suas
probabilidade de nascimento em qualquer mês). fichas em até 50 rodadas?
68. Três pontos A, B e C são escolhidos independentemente em uma 77. Suponha que n livros, dos quais k são de Estatística, são colocados
circunferência. Determine a probabilidade do triângulo ABC ter todos os aleatoriamente em uma prateleira. Determine a probabilidade dos livros de
ângulos agudos. Estatística ficarem juntos. Que valor de k minimiza essa probabilidade?
69. Um ponto x é escolhido ao acaso em um círculo de raio r e origem no ponto 78. Em uma classe de Português para estrangeiros, 6 alunos têm nacionalidade
O. Qual é a probabilidade de que o quadrado, que tem x como ponto médio de peruana, 5 são argentinos e 4 chilenos. Para dois alunos escolhidos ao acaso,
um dos lados e é centrado em O, esteja inteiramente contido no círculo. qual é a probabilidade deles não terem a mesma nacionalidade?
70. Considere a região A={(x,y)ElR. 2 ;1$y$2,y$x+1 ,y2::x-1}. 79. De uma lista de m números inteiros positivos e n inteiros negativos
Para um ponto escolhido ao acaso em A, calcule a probabilidade de: sorteamos, ao acaso e sem reposição, três números. Qual é a probabilidade de:
a. Estar a uma distância menor que 1/2 da fronteira de A. a. Pelo menos um dos números escolhidos ser positivo?
b. Pertencer à região {(x, y) E JR.2 ; x + y > 2}. b. O quociente entre o produto de dois deles pelo outro ser negativo?
71. Uma caixa contém m bolas brancas e n vermelhas. Dois jogadores se 80. Cinco casais são colocados em linha. Qual é a probabilidade de nenhum
alternam em retirar, ao acaso, uma bola da caixa. As retiradas são com marido ficar vizinho de sua esposa?·
reposição e vence quem retirar a primeira bola branca. Mostre que quem
81. Um dado equilibrado é lançado dez vezes. Sendo M o máximo obtido e m o
inicia o jogo tem vantagem.
mínimo, determine P(M = 5,m = 2).
72. Uma moeda honesta será lançada o número de vezes indicado pelo resultado
82. Um pessoa está discando um número de telefone e conhece todos os dígitos,
de um dado equilibrado. Calcule a probabilidade da ocorrência de:
mas esqueceu-se da ordem dos últimos três (que são diferentes entre si). Ela
a. Nenhuma cara.
disca, variando aleatoriamente esses três últimos dígitos, até encontrar o
b. Pelo menos duas coroas.
número correto. Admitindo que ela não repita números discados, qual é a
c. Número igual de caras e coroas. probabilidade de ser necessário discar 5 números errados antes de acertar?
73. Um grupo de 4 homens e 4 mulheres é divido ao acaso em dois grupos de 4 83. Seis pares de sapatos estão guardados em um armário. Escolhendo quatro
pessoas. Determine a probabilidade de cada grupo ficar com o mesmo número sapatos, ao acaso, qual é a probabilidade de:
de mulheres.
a. Não formarmos nenhum par?
74. Dentre todos os números com três algarismos (incluindo o zero em qualquer b. Pelo menos um par ser formado?
posição), qual é a probabilidade de escolher ao acaso um deles com:
84. Para A, B e C eventos em (f!, :F, P), mostre que se A é independente de B e
a. Exatamente dois cincos?
de C e se B U C = f!, então A é independente de B n C. Dê um exemplo
b. Pelo menos um 3?
mostrando que a condição P(B U C) = 1 é essencial para a conclusão valer.
75. Um grupo de animais tem 2n machos e 2m fêmeas. Feita uma divisão
85. Uma moeda equilibrada é lançada 3 vezes. Verifique se os eventos
aleatória em dois grupos de mesma quantidade, qual é a probabilidade desses
A = {ocorrem pelo menos duas coroas} e B = {coroa no 1o. lançamento},
grupos terem números iguais de machos?
são independentes.
76. Considere um jogo de roleta com 36 números. Um jogador tem 5 fichas e
aposta sempre, em cada rodada, I ficha em um dos números. Caso dê seu 86. Sejam A 1 , A 2 , ·· ·, eventos em (f!, :F, P), mostre que:
- 56 Capítulo 1: Conceitos Básicos em Probabilidade 1.4 Exercícios 57
00
... , eventos em (O ,F ,P), tais que P(A,) = 1/ n, n = 1, 2, · · ·.
93. Para A1, A2 ,
a. Se P (A1) = P (Az) = · · · =O então P( U An ) =O.
n= l Que podemos dizer de P(liminf A 11 ) e P(lim sup An)?
00
b. Se P(AI) = P(Az) = · · · = I então P( n An) = 1. 94. São escritas cartas a n destinatários diferentes e há n envelopes com os
n=l respectivos endereços. Porém as cartas são colocadas, ao acaso, em cada um
87. Uma seqüência de experimentos independentes do tipo sucesso-fracasso é desses n envelopes.
realizada. Para cada n = 1, 2, .. . , defina os eventos: a. Qual é a probabilidade da k-ésima carta chegar ao destino correto?
b. Qual é a probabilidade de pelo menos uma carta chegar ao destino correto?
An = {os primeiros n ensaios têm resultados iguais};
c. O que ocorre com a probabilidade de (b) se n -+ oo?
Bn = {o n-ésimo ensaio tem resultado diferente do (n + 1)-ésimo} .
95. Uma amostra de n pontos é escolhida ao acaso e de forma independente em
Se a probabilidade de sucesso é p, determine a probabilidade de que An
uma esfera de raio R.
ocorra infinitas vezes. Faça o mesmo para Bn.
a. Calcule a probabilidade da distância, entre o centro da esfera e o ponto
88. Considere os eventos A 1 , A 2 , ··• em (0, F , P) , tais que P (A~ i. v.)= 1 e mais próximo, ser maior que x.
00 411"ÀX3
I: P (A~ n A~+l) < oo. O que dizer sobre P(An i. v.)? b. Verifique que o limite da probabilidade obtida em (a) é igual a e-ã ,
n=l quando R-+ oo, n-+ oo e admitindo que -Jb -+ ~7r >., para algum>. > O.
89. Seja (n, F, P) um espaço de probabilidade em que n = [0, 1] n R, F é a q- 96. Considere a escolha, ao acaso, de um 'número inteiro entre 1 e 200. Determine
álgebra de Borel e P é a probabilidade uniforme (isto é, a probabilidade de as probabilidades dos eventos A = {número divisível por 7} e B ={número
um evento é o seu comprimento). Para n = 1, 2, . . . defina An = [O, 1 - e i. ] satisfaz a equação 3n + 10, para algum inteiro n }. Eles são independentes?
Bn = [ ~ '~ - ~,] .Calcule limP(An n B 11 ).
n--+oo 97. O intervalo [O, 1] n IR é dividido em cinco partes, por quatro pontos escolhidos
ao acaso. Determine a probabilidade das partes serem menores que 1/2.
90. Sejam {An : n > O} e {B11 : n > O} duas seqüências de eventos. Admita que
00 oc 98. Três jogadores A, B e C lançam, sucessivamente e nessa ordem, uma moeda
L: P(An n B~+ 1 ) < oo e L: P(Bn n A~+l) < oo. Demonstre que se
com probabilidade de cara PA· PB e pc, respectivamente. Vence o jogo aquele
n= l n= l
que obtiver a la. cara. Estabeleça as condições para haver igualdade de vitória
P (An) -+0 (ou, P (B 11 )-+ 0), então P(An i. v.)= P(Bn i. v.)= O.
entre os jogadores. Qual seria o valor máximo de PA nesse caso?
Sugestão: Considere o evento C= (An i. v.)- [(Dn i. v.) U (Cn i. v.)] em que,
99. Cada um dos 2n moradores de um prédio joga uma moeda honesta e, se der
para n 2:: 1, Cn = An n B~+l e Dn = Bn n A~+1· cara, irá à assembléia de condomínio. Calcule a probabilidade da maioria
participar da assembléia.
91. Seja S uma particular seqüência (finita) de caras e coroas. Mostre que, se uma
100. Três atiradores A, B e C têm probabilidade de acertar o alvo de,
moeda, com probabilidade de cara igual a p (O < p < 1), é jogada de forma
respectivamente, 0,6; 0,5 e 0,4. Cada um deles atira uma vez e 2 tiros
independente infinitas vezes, então a seqüência S ocorre infinitas vezes com acertam o alvo. Nessas condições, qual é a probabilidade de que um dos tiros
probabilidade 1. que acertou o alvo tenha sido disparado por C?
tarde em que a bilheteria abriria às 18 horas. No momento de abertura das laboratório dá positivo para 25% dos doentes com D1o 50% dos com D2 e
vendas existia um total de n pessoas na fila (incluindo os dois). Pergunta-se a 75% dos doentes com D 3 . Se o paciente realizou 3 desses testes (assuma
probabilidade de os dois: independência entre eles) e dois deram positivo, determine as probabilidades
a. Estarem separados na fila por r pessoas (r ::; n- 2)? do paciente ter cada uma das doenças.
b. Se encontrarem no momento da chegada à fila da bilheteria?
120. (Problema da ruína de um jogador) Dois jogadores participam de um jogo
114. Em um teste de múltipla escolha, a probabilidade do aluno saber a resposta é com uma moeda que tem probabilidade de cara igual a p e de coroa q
p. Havendo m escolhas, se ele souber a resposta, responderá corretamente (p + q = 1). O jogador A inicia o jogo com i fichas e ganha mais uma de B,
com probabilidade 1; se ele não souber, responderá corretamente com cada vez que der cara. O jogador B começa com N - i fichas e, em cada
probabilidade 1/m. lançamento que resultar coroa, ganha uma ficha de A. Para enfatizar a
a. Qual é a probabilidade de que ele saiba a resposta, dado que a pergunta foi dependência do número inicial de fichas i, denomine por P(i) a probabilidade
respondida corretamente? do jogador A ficar com todas as fichas, o que implica na ruína de B.
b. Determine o limite dessa probabilidade se m-+ oo com p fixo. O que Condicione no resultado do primeiro lançamento da moeda, para estabelecer
ocorre se p-+0 com m fixo? uma relação de recorrência entre os P(i)'s· Usando que P(o) =O e P(N) = 1,
115. Dois times de basquete A e B disputam a final do campeonato numa série de mostre que P(i) = ~ para p =f. ~ e P(i) = -k para p = ~·
até 7 jogos. A probabilidade de vitória é a mesma para as duas equipes.
Determine a probabilidade de: 121. Em farru1ias de n filhos (meninos ou meninas), defina os seguintes eventos
a. O campeão sair em até seis jogos. A = {filhos dos dois sexos} e B = {no máximo uma menina entre os
b. O campeão sair em seis jogos, se o time A venceu os dois primeiros. filhos}. Admita igual probabilidade no nascimento de meninos e meninas e
mostre que, para n = 3, os eventos A e B são independentes. Existem outros
116. Usando indução, prove a desigualdade de Bonferroni para n eventos.
valores de n em que isto ocorre?
n
P( n AJ) 2:: P(At) + P(A2) + ··· + P(An) - (n- 1).
j=l
122. Um carcereiro informa a três prisioneiros que um deles foi sorteado para ser
executado no dia seguinte, enquanto que os outros dois serão libertados. O
117. Sejam An e Bn , n 2:: 1 eventos em (n, :F, P). Prove que: prisioneiro João Espeto se aproxima do carcereiro e cochicha no seu ouvido,
a. Se P(Bn) >O e lim P(Bn) = 1 então lim {P(AnJBn )- P(An)} =O. solicitando que ele lhe conte qual dos outros dois prisioneiros será solto. O
n-oc n-oo
prisioneiro argumenta que isso não altera em nada a situação, visto que pelo
b. Se existir qualquer um dos limites, lim P(AnlBn) ou lim P(A,.), os menos um desses prisioneiros será solto. Entretanto, o carceiro não atende
n-+oc n-oc
dois existem e eles são iguais. seu pedido, acreditando que isto poderia dar ao João Espeto alteração nas
suas expectativas de ser libertado. Você acha que o carcereiro tem razão?
118. (Teorema de Poincaré- Fórmula da Inclusão e Exclusão). Sendo A 1 , Az,
· · ·, An eventos em (0, :F, P), mostre que temos 123. Dois jogadores se alternam lançando dois dados equilibrados. O jogador A
vence o jogo se ocorrer soma 6, enquanto B vencerá se ocorrer 7. Se A
n
P( U AJ) = 81 - 82 + ... + (-1 )n-1 S"; começa jogando, qual é sua probabilidade de vitória? Qual é a probabilidade
j=l do iniciante, escolhido ao acaso, vencer o jogo?
com Sk= :L:L···:L P(A; 1 , A;2 • ···,Ad parak =1,2,···,n. 124. Três caixas I, I I e I II contêm, respectivamente, a 1 , a 2 e a3 bolas azuis e
1 ~ Íj < Í2 < ... < h ~ 11
b1 , b2 e b3 bolas brancas. Uma bola é escolhida de I e passada para II e, em
119. Um paciente é suspeito de sofrer uma de três doenças D~, D 1 ou D 3 • cuja seguida, uma bola de I I é passada para I I I. Considerando que todas as
incidência na população se dá na razão 2:1:1, respectivamente. Um teste de
62 Capítulo 1: Conceitos Básicos em Probabilidade
63
2.2 Va riáveis Aleatórias 65
64 Capítulo 2: Variáveis Aleatórias
X(w) = { ~: se w =cara;
se w =coroa.
A classificação das variáveis aleatórias é feita de aco~do com ~s valores
que assumem. Como veremos, essa classificação tem estretta relaçao . ~om o
comportamento da função de distribu~ção da va~ável. O cál~ulo de probabthdades
Para qualquer conjunto I c JR, x- 1 (1) E :F e, portanto, X é variável aleatória. com variáveis aleatórias depende do tipo de vartavel envolvida.
,,
r"U I
Definição 2.3: Variável Aleatória Discreta e Função de Probabilidade 0 número de caras nos dois lançamentos. A variável X será discreta e sua função
de probabilidade será dada por:
Uma variável aleatória é classificada como discreta, se assume somente
um número enumerável de valores (finito ou infinito). A função de probabilidade X o 1 2
de uma variável discreta é uma função que atribue probabilidade a cada um dos p(x;) 1/4 1/2 1/4
possíveis valores assumidos pela variável. Isto é, sendo X uma variável com
A função de distribuição correspondente será:
valores x 1 , x 2 , ... , temos para i= 1, 2, ... ,
p(x;) = P(X = X;)= P({w E n : X(w) =X;}). D
o, se x <O;
As propriedades que precisam ser satisfeitas por p(x) são duas: ser hão Com o devido cuidado, podemos, a grosso modo, pensar na classificação
negativa e somar 1. De imediato temos c 2: O pois p(x) é não negativa. Efetuando de contínua em oposição à de discreta. Isto no sentido de que os valores das
a soma das probabilidades para todos os valores de x vem contínuas estão em intervalos dos reais e os das discretas em um conjunto
6
enumerável. Isto vai valer na grande maioria dos casos práticos, mas não em
LP(x) = c( 12 + 22 + 32 + 4 2 ) = 30c. todos.
x=3 Para obter a probabilidade da variável estar num certo intervalo (a, b],
fazemos a integral da função densidade nesse intervalo. Assim,
Igualando a 1, resulta em c= 1/30. Logo, temos p(x) = <x;;) 2
I {3, 4,5,6}(x). O
Definição 2.4: Variável Aleatória Contínua e Função Densidade P(a <X S b) = 1b f(x) dx = F(b)- F( a).
Uma variavel aleatória X em (0, :F, P), com função de distribuição F,
Note que essa integral não se altera com a inclusão ou não dos extremos a
será classificada como contínua, se existir uma função não negativa f tal que:
e b, ou seja, o valor seria o mesmo para (a, b), [a, b] e [a, b). Dessa forma, para as
1~ f(w) dw
variáveis contínuas, a probabilidade da variável ser igual a um particular valor é
F(x) = , para todo x E R zero. Pelas propriedades do cálculo, é possível modificar a função densidade em
um número enumerável de pontos sem alterar a integral. Assim, a unicidade da
A função f é denominada função densidade. D densidade, para uma dada função de .distribuição, deve ser entendida na classe de
Proposição 2.3: Propriedades da Função Densidade equivalência de funções com mesma integral (para mais detalhes ver James [81]).
A função densidade caracteriza a variável contínua. A relação entre a
A função densidade de X em (0, :F, P) satisfaz: função de distribuição e a função densidade foi expressa na definição de variável
(fdl) f(x) 2: O, Vx E~; contínua. Dada a função densidade, a função de distribuição segue por integração.
Por outro lado, derivando a função de distribuição, obtemos a densidade.
Exemplo 2.6: A duração, em anos, de uma certa lâmpada especial é uma variável
(fd2) l:f(w) dw = 1.
aleatória contínua com densidade dada por:
Demonstração: f(x) = { 2e-2x, X 2: O;
A função densidade é não negativa por definição. Como conseqüência de o, caso contrário.
que F( oo) = 1, vale (fd2). O Uma notação mais resumida poderia ser usada com o auxílio de indicadores,
É conveniente esclarecer que existe uma distinção de nomenclatura entre deixando implícito que, fora do intervalo especificado, a densidade se anula.
a variável aleatória e sua função de distribuição. Classificamos a variável X como Assim, a densidade acima pode também ser escrita como:
contínua, se sua função de distribuição F é absolutamente contínua (por ser
integral da função densidade). Assim não basta a função de distribuição ser
f(x) = 2 e- 2x l(o,oo)(x).
contínua para a variável aleatória ser denominada de contínua. Alguns autores Para obter a função de distribuição F(x) = J~00 f(w) dw, distinguimos
preferem ser mais rigorosos e usar a mesma termilogia para X e F, denominando
dois casos. Para x <O, F(x) =O, pois a função densidade é nula nesse intervalo.
de absolutamente contínua a variável que aqui chamamos simplesmente de
contínua. Nossa escolha de nomenclatura parece ser a mais comum entre os
diversos autores. Conforme veremos mais adiante, existem variáveis que não são
nem discretas nem contínuas.
72 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 73
Para x ;::: O, temos O conjunto de Cantor, denotado por C, é obtido a partir do intervalo real
[0, 1] pela remoção sucessiva de intervalos abertos. Inicialmente, o terço central
F(x) = 1x f(w) dw = lor 2e-
-oo
2w dw = 1- e- 2 x. do intervalo é removido, em seguida os terços centrais dos dois intervalos
remanescentes são retirados. Continuamos esse procedimento indefinidamente. O
Se desejamos a probabilidade da lâmpada durar até 2 anos, calculamos F(x) no conjunto de pontos que permanece no intervalo [0, 1], após essa seqüência infinita
ponto 2. Assim, F{2) = 1 - e- 4 = O, 98. O de remoções de intervalos abertos, é o conjunto temário de Cantor. Para maiores
detalhes sobre esse conjunto recomendamos ao leitor consultar Chae [80].
Exemplo 2.7: Vamos avaliar para que valores da constante c E JR, a função A construção da função de Cantor será feita em etapas. Em cada uma
abaixo representa uma densidade de probabilidade. delas, a função será definida para alguns intervalos e permanecerá sem definição
c(1-x) 2 , se O~ x < 1/2; em outros.
f(x) = 1/{c + 1), se 1/2 ~ x ~ 1; Etapa 0: Seja F(x) =O para x <O e F(x) = 1 para x > 1. Resta definir
{ o, caso contrário. F em [0, 1].
Etapa 1: Para o intervalo aberto (i• V.
referente ao terço central de [0, 1],
As condições que precisam ser satisfeitas por f são f(x) 2: O e f~00 j(x)dx = 1. definimos F(x) = ~·Restam, sem definição, os valores de F nos intervalos [0, ll
Observe que, se c 2: O, temos J(x) não negativa. Para obter os valores de c para e ri· 1], cujo comprimento total é de 2/3.
que a segunda condição seja satisfeita. Temos, Etapa 2: Definimos F(x) = ~ para (à• ~)e F(x) = ~ para a• ~).Para
1
00
-oo
f(x)dx = 1°
-oo
Odx + f ~ (1- x)
lo
11
2
dx +1 -
1
1/2 C
1
+1
- dx + l
l1
00
0dx = 1,
os intervalos [0, àJ, [~· lJ, [i• ~] e [~· 1] a função F ainda não foi definida. Esses
intervalos têm comprimento total de (2/3) 2 •
Sugerimos, ao leitor, escrever a 3a. etapa. A Figura 2.2 ilustra o
que resulta em procedimento utilizado.
F(x)
c -{1-x)3j1/2+_x_,1 =1 =}7c2-17c-12=0.
3 o c+ 1 1/2
A solução negativa dessa equação do 2o. grau é descartada e obtemos c = 3. O
3/4
Para completar a classificação, resta mencionar que uma variável
aleatória pode ser classificada como singular, se sua função de distribuição é
112
contínua, mas sua derivada é zero em quase todos os pontos. Essa linguagem,
mencionando "quase todos os pontos", é muito utilizada em probabilidade
1/4 - - -~
avançada e significa que a propriedade só não é válida num conjunto de pontos
que tem probabilidade zero (às vezes, também referido como de medida nula). A
classificação como singular tem mais interesse teórico do que prático e não é o 1/9 219 1/3 2/3 7/9 8/9 X
tarefa fácil exibir uma variável singular, conforme veremos no próximo exemplo.
Exemplo 2.8: Função de Distribuição Singular (]ames [81]) Figura 2.2: Construção da Função de Cantor.
Um dos mais freqüentes exemplos de função de distribuição singular é a Etapa n+l: No terço central de cada um dos 2n intervalos restantes após
função de Cantor que envolve o conjunto de mesmo nome. Apresentamos a etapa n, seja F(x) igual à média dos valores de F, nos dois intervalos vizinhos
brevemente a descrição desse conjunto.
74 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 75
para os quais F fora definida anteriormente. Restarão 2n+l intervalos, de Salientamos que alguns autores fazem a decomposição sem exigir que cada uma
comprimento total (2/3t+ 1, em que F ainda não está definida. das funções envolvidas seja, isoladamente, uma função de distribuição.
Logo podemos definir F, por indução, para um número enumerável de Exemplo 2.9: Função de Distribuição Mista
intervalos abertos. Ela só não estará definida no complementar desses intervalos.
Esse conjunto complementar é o conjunto de Cantor, conforme mencionamos A variável aleatória X tem função de distribuição dada por:
anteriormente. o, se x <O;
Para estender o valor de F para o conjunto de Cantor, impomos que F
~:i:
se O~ x < 1;
deva ser contínua. Considere x E C e sejam an e bn os valores de F, após a etapa F(x) =
{ se 1 ~ x < 2;
n, nos intervalos vizinhos de x, à esquerda e à direita, respectivamente. Sabemos,
1, se x ;:: 2.
por construção, que a diferença entre esses valores é de (1/2)n. Esse limite vai a
zero quando n-+oo. Como a função F é monótona não decrescente no Observe através do gráfico de F(x) que a variável aleatória X é do tipo mista. Ela
complementar de C, os limites de an e bn existirão e serão iguais. Tomamos, é contínua nos intervalos [-oo, 1), (1, 2) e (2, oo) e os pontos de descontinuidade
então, F( x) = lim an = lim bn. em 1 e 2 indicam os valores de sua parte discreta.
n--+oo n--+oo
Dessa forma, a função F tem sua definição concluída em R Ela é
denominada função de Cantor e satisfaz todas as propriedades de uma função de
distribuição. F(x)
Seja X uma variável aleatória com função de distribuição de Cantor.
Então X não é discreta, pois F é contínua em R A variável X não pode também
c
ser classificada como contínua, pois F' (x) é zero em c, uma vez que, em cada
etapa, foi sempre definida como constante nos intervalos respectivos. Pode-se
verificar que a massa de probabilidade de X está toda no conjunto C, que tem
comprimento zero (ou medida de Lebesgue nula). Logo a variável X será 112
classificada como singular, pois tem função de distribuição contínua com
densidade igual a zero em quase toda parte. O 114
Uma variável aleatória pode ser classificada como mista se tem partes em
diferentes classificações. O mais comum é a mistura de parte contínua com 2 X
F(x) = adP(x) + O:acF'c(x) + a.F"(x); Para obter a decomposição de F(x), inicialmente calculamos a massa de
probabilidade de cada uma das partes.
com O:tt + O:ac +a, = 1, ú:d, O:nc, 0: 8 ;:: O e Fd, Fac e F 5 são funções de
Note que P(X = 1) = ~ e P(X = 2) = ~. totalizando 3/4 de
distribuição do tipo discreta, absolutamente contínua e singular, respectivamente.
Se uma variável for discreta (digamos "inteiramente" discreta), sua probabilidade para a parte discreta.
Para a parte contínua obtemos P(X < 1) = F(l-) = 1/4,
função de distribuição é em escada e os coeficientes O:ac e o: 8 serão nulos.
P(1 <X< 2) = F(2-)- F(1) =~-~=O e P(X > 2) = 1- F(2) =O.
76 Capítulo 2: Variáveis Aleatórias 2.2 Variáveis Aleatórias 77
Dessa forma, a parte contínua totaliza 114 e não existe parte singular. Os com
coeficientes da decomposição são ad = 3I 4, aac = 1I 4 e a. = O.
Vamos, agora, calcular as funções de distribuição associadas às partes
o, se x < 1; o, se x <O;
Fd(x) = 113, se 1::; x < 2; e pac(x) = x, se O ::; x < 1;
discreta e contínua de F(x). Como exigimos que a decomposição seja feita { 1, se x 2: 2;
{ 1, se x 2: 1.
através de funções de distribuição, precisamos normalizar as probabilidades
associadas a cada parte para, quando forem multiplicadas pelos coeficientes, É sempre conveniente testar se a decomposição foi feita corretamente.
produzirem os valores corretos de F(x). Para a parte discreta, a normalização é Escolhemos alguns valores e apresentamos os resultados na tabela abaixo.
obtida dividindo a probabilidade discreta acumulada por ad:
F(x) pd(x) pac(x) ~Fd(x) + ipac(x)
1
pd(x) = - x
{o, 114,
se x < 1;
se 1 ::; x < 2;
X
Exemplo 2.10: O desempenho diário, de um certo conjunto de ações, pode ser' A probabilidade de interesse é expressa por P(BIAc). Temos
medido como a porcentagem de crescimento do preço de venda em relação ao dia
°
anterior. Suponha que esse desempenho é uma variável aleatória contínua X com
função densidade dada por:
P(BnAc)=P(-1: SX:S0)= _
1 1
(
1
12
1
x+4)dx=
5
24
•
3 2. Mostre que X 2 é variável aleatória em (n, :F, P), desde que X também seja.
P(X > 3IA) = 1 - P(X < 3IA) = 1 - F(3IA) = 1- P([X:::; 1nA).
- P(A) 3. Estabeleça condições sobre a e b, de modo que a função g(x) seja uma função
de probabilidade:
O evento A corresponde a [X> OI e sua probabilidade é calculada da seguinte
forma: -1 o
P(A) =
1
o
00
f(x) dx = 12
o 4
1
-xdx + 14
2
-1 dx +
16
14
00
Odx = -5 ·
8
b a
4. Discuta as condições sobre a, b e c para que a função g(x) = ~ e-(x-b)/c seja
uma densidade em [b, oo ).
Também [X :::; 3] nA = [X :::; 3] n [X > O] = [O < X :::; 3], cuja probabilidade
é dada por: 5. Determine as constantes a e b, para que a função G (x) seja a função de
distribuição de alguma variável aleatória contínua.
P(O < X:::; 3) =
1 3
f(x)dx = 121 -xdx+ 13 1 - dx = -9· a- 2b X< O;
:~ b(~- 1),
o o 4 2 16 16 0 :S X< 1;
G(x) = 1 :S X< 2;
Então {
1, X 2:: 2.
P(X > 3 IA) = 1 _ P([X:::; 3] nA)= 1 _ 9/16 = _!_.
P(A) 5/8 10 6. A variável discreta X tem função de probabilidade dada por:
1 3/2
Considere agora o evento B , que indica desempenho regular, definido por
0,2 0,1
não haver alteração superior a 1% em relação ao dia anterior. Supondo que
teremos um desempenho não positivo, qual seria a probabilidade de termos, ao a. Obtenha F, a função de distribuição de X.
menos, um dia regular? b. Determine F(O) e F(o-).
80 Cap(tulo 2: Variáveis Aleatórias 2.3 Principais Modelos Discretos 81
F(x)
Então, X "' Bernoulli (p), com p = P(cara). Se a moeda for equilibrada teremos
p = 1/2.
A repetição de sucessivos ensaios de Bernoulli é fonte de vários
problemas teóricos interessantes. Considerando uma sequência de n ensaios de
Bernoulli, independentes, outros modelos podem ser construídos.
Definição 2.8: Modelo Binomial
Seja X o número total de sucessos obtidos, na realização de n ensaios de
Bernoulli independentes. Diremos que X segue o modelo Binomial com
113
parâmetros n e p e sua função de probabilidade é dada por:
p(1) = P(X = 1) = p; P(X = 15) = p(15) = ( ~~) O, 815 O, 220- 15 =O, 175.
p(O) = P(X = O) = 1 - p.
A notação utilizada será X"' Bernoulli (p). o Outras probabilidades podem ser calculadas de modo análogo. o
~o modelo de Bernoulli, a probabilidade pé denominada de parâmetro do Definição 2.9: Modelo Geométrico
modelo. E prática comum considerar como sucesso a ocorrência de 1 e fracasso a Considere uma sequência de ensaios de Bernoulli independentes. Defina
de O. Assim, denominamos por ensaio de Bernoulli, o experimento que tem X como o número de fracassos anteriores ao primeiro sucesso ou, em outras
resposta dicotômica do tipo sucesso-fracasso. palavras, o tempo de espera (em termos de ensaios anteriores) para o primeiro
Um exemplo clássico do modelo Bernoulli é o lançamento de uma moeda. sucesso. A variável X segue o modelo Geométrico com parâmetro p, O < p < 1,
Podemos definir sucesso como qualquer uma das faces, digamos cara. Dessa e tem função de probabilidade dada por:
forma temos
p(x) = p(1- PY, x =O, 1, ... .
X= {1,o, se cara;
se coroa. Usaremos a notação X"' Geo(p). o
84 Capitulo 2: Variáveis Aleatórias 2.3 Principais Modelos Discretos 85
A restrição dos valores de p para aqueles estritamente entre O e 1 evita o~ podemos considerar que a variável "lembra" do presente, mas "esqueceu" do que
casos triviais mas, com o devido cuidado, os extremos poderiam ser considerados. ocorreu no passado.
Alguns autores preferem definir o modelo Geométrico como o número de Por exemplo, se X representasse a espera em dias para a ocorrência de
fracassos até o primeiro sucesso ou, ainda, o número de ensaios até o primeiro um certo evento, a probabilidade condicional acima representaria a probabilidade
sucesso. Nesse caso, a função de probabilidade sofre ligeira modificação pois, de espera de pelo menos m + n dias, sabendo que o evento não ocorreu antes de
agora, a variável inicia seus valores em 1 ao invés de O (ver exercício no fim dessa m dias. A propriedade da falta de memória estabelece que essa probabilidade é a
seção). mesma de esperar pelo menos n dias.
Para verificar a propriedade, observe que
Exemplo 2.13: Uma linha de fabricação de um equipamento de precisão é
interrompida na primeira ocorrência de um defeito. A partir da manutenção, o P(X>m niX>m)= P([X2':m+n]n[X2':m]) = P(X2-:m+n) _
equipamento tem probabilidade de 0,01 de apresentar defeito em um dia qualquer. - + - P(X 2': m) P(X 2': m)
Deseja-se planejar o cronograma de manutenção preventiva e, para tal, decidiu-se
avaliar probabilisticamente a espera até a produção ser interrompida. Seja X a A função de probabilidade de X é dada por P(X = x) = p(1- p)X.
variável aleatória que conta o número de dias que antecedem a interrupção. Então,
Admitindo que o desempenho, nos sucessivos dias, sejam independentes, temos (1 )m+n
que X""' Geo(p = 0,01) . Dessa forma, P(X2':m+niX2-:m)= ( -_!p)m =(1-pt=P(X2':n).
P(X = x) = 0,01 X 0,99:r 'X= o, 1, ....
1
.
Pode-se ainda demonstrar que o modelo Geométrico é o único modelo discreto
Por exemplo, para uma interrupção no sexto dia temos P(X = 5) = 0,01 x com a propriedade da falta de memória. D
0,995 = 0,0095. Uma generalização do modelo Geométrico é definida a seguir.
Qual seria o intervalo ideal para uma manutenção preventiva, se
desejamos uma probabilidade de, pelo menos, 0,90 de que o defeito não ocorrerá? Definição 2.10: Modelo Binomial Negativo
A pergunta estará respondida, se determinarmos quantos dias são Considere uma sequência de ensaios de Bernoulli independentes e
necessários para acumular uma probabilidade de defeito próxima de 0,10. Ou definimos X como o número de fracassos anteriores ao r-ésimo sucesso. A
ainda, obter k tal que variável X segue o modelo Binomial Negativo com parâmetros r e p com
P(X ~ k) = 1- O, 99k+ 1 ::: 0,10. O< p < 1, r > O e tem função de probabilidade dada por:
A Binomial Negativa pode ser apresentada em várias formas conforme Ensaios do tipo sucesso-fracasso são realizados de forma independente,
mencionamos no próximo exemplo. ' sendo p a probabilidade de sucesso e 1 - p a de fracasso. Qual é a
probabilidade de ocorrerem n sucessos antes de mfracassos?
Exemplo 2.15: Formas Alternativas da Binomial Negativa
Note que n sucessos ocorrem antes de m fracassos se, e somente se, no
Seja X"' BN(r,p). Note que
máximo ocorrem (m - 1) fracassos antes do n-ésimo sucesso.
Seja X"' BN (n, p). Assim, a probabilidade desejada é
x + r - 1) = ( x + r - 1) = _ 1 "' (-r)
( r-1 X ( ) X ' m -I
P{n sucessos antes dem fracassos}= LP(X = x)
com esta última combinação sendo calculada por: x=O
-r)= (-r)(-r-1)(-r-2) .. ·(-r-x+1)_
( x x!
= ~ (X::~ 1) pn( 1 _ p)"' .
~r) pr (p -
1 no Exemplo 17 do Capítulo 1. O
P( X = X) = (X + : - ) pr ( 1 - p )"' = ( -1 )"' ( 1)"', x = O, 1, .. ·.
O modelo apresentado a seguir é motivado por amostras retiradas, sem
reposição, em conjuntos com elementos que possuem uma dentre duas
Essa última expressão à direita justifica o nome dado a esse modelo.
caracteósticas possíveis. Sem reposição, uma retirada interfere na ·seguinte e não
Alguns autores definem a Binomial Negativa como número de ensaios
temos independência entre os sucessivos sorteios. Retirar sem reposição é
anteriores ao r-ésimo sucesso. Isto corresponde a uma troca de variável na nossa
equivalente a retirar, de uma só vez, todos os elementos da amostra.
de~nição. Tomando y = x + r - 1 temos a quantidade desejada e seus valores
variam de (r - 1) em diante. Assim, sendo Y o número de ensaios anteriores ao Definição 2.11: Modelo Hipergeométrico
r-ésimo sucesso, temos Considere um conjunto com n objetos dos quais m são do tipo I e n - m
são do tipo I I. Uma amostra é escolhida, ao acaso e sem reposição, com tamanho
r (r< n) e definimos X como o número de objetos com a caracteóstica I, na
amostra. Nesse caso, diremos que a variável aleatória X segue o modelo
. Finalmente, cabe ressaltar que existem autores que preferem incluir o
Hipergeométrico de parâmetros m, n e r, com notação X"' Hgeo(m, n, r) , e
ensaio em que se realiza o r-ésimo sucesso, na sua variável. Dessa forma, eles
função de probabilidade dada por:
define~ a Bin~~ial Negativa como o número de ensaios necessários para a
obt~?çao do r-esimo sucesso. A diferença é o acréscimo de 1, em relação à
vanavel da nossa definição. A despeito da modificação ser aparentemente
P(X = k) = (~)(~:~) '
(~)
simples, é preciso ter atenção sobre qual definição está sendo usada. Nesses casos
é natural que qualquer quantidade, calculada a partir da função de probabilidade. sendo k inteiro e tal que max{O, r- (n- m)} ~ k ~ min{r, m }. o
também tenha seu valor alterado. O
Observe que os limites para k, na definição acima, garantem que
Exemplo 2.16: Problema dos pontos situações absurdas serão evitadas.
Como aplicação do modelo Binomial Negativo vamos resolver o Exemplo 2.17: Considere que, num lote de 20 peças, existam 4 defeituosas.
Problema dos Pontos, já discutido no Capítulo 1, cujo enunciado é reproduzido Selecionando-se 5 dessas peças, sem reposição, qual seria a probabilidade de 2
abaixo.
Capítulo 2: Variáveis Aleatórias
2.3 Principais Modelos Discretos 89
88
Para isso, a parte sul da cidade foi repartida em 5 76 pequenas regiões com variável, indicando o número de objetos do tipo I, será observada. O modelo
meio quilômetro quadrado de área cada uma. Foi contado o número de regiões dessa variável é Hipergeométrico.
que receberam k bombas, representado por nk. O total de bombas na parte sul da Nossa intuição nos diz que, para um tamanho grande de população se
cidade foi de 537, resultando numa taxa de O, 9323 bombas por região. Veremos comparado ao da amostra, a não reposição dos objetos coletados não deve influir
que o modelo de Poisson, com a taxa acima, é considerado adequado para ajustar muito no resultado final. Veremos como essa intuição pode ser justificada
o número de bombas por região. Isto é, a probabilidade de uma região (hipotética) matematicamente.
receber k bombas seria dada por p( k) = e-À À k / k!. Sendo X,..... Hgeo(m, n, r), temos
Vamos construir uma tabela de freqüências esperadas, supondo que o
modelo Poisson seja válido, e compará-la com a tabela das freqüências P( X = k) = (';;)(~~='!:) ; max{O, r - (n - m)} ~ k ~ min{r , m} .
observadas. Para obter a freqüência esperada do número de regiões com k
bombas, denotada por e~o multiplicamos o total de regiões pela probabilidade
p(k). Por exemplo, para a freqüência esperada de regiões com 2 bombas, temos Vamos definir p como a proporção de objetos do tipo I na população, isto
é, p = mfn. Após alguma manipulação algébrica com as combinações e com o
e-0,9323 O 9323 2 uso de p, podemos reescrever a expressão acima da seguinte forma:
e2 = 576 x ,• = 98,54.
2
A tabela abaixo resume os valores obtidos.
No. bombas o 1 2 3 4 5 ou mais
Freq. Observada 229 211 93 35 7 1
Freq. Esperada 226 , 74 211 , 39 98,54 30, 62 7, 14 1, 57
Se o tamanho da população n é bem superior ao da amostra r ,
É possível realizar um teste estatístico para avaliar a aderência da esperaríamos que os valores de m e n- m (que se referem à população de
distribuição de Poisson aos dados (ver, por exemplo, Magalhães e Lima [05]). objetos) também fossem bem superiores aos de k e r - k (que se referem à
Deixando de lado os detalhes, vamos apenas mencionar que os valores observados amostra). Dessa forma, cada um dos produtórios dentro do colchete acima se
e esperados estão bastante próximos, servindo de indicação da adequação do aproxima de 1 e, então, podemos dizer que
modelo proposto.
Note ainda que, se houvesse tendência das bombas se agruparem, haveria
alta freqüência de regiões sem nenhuma bomba, bem como alta freqüência de
regiões com muitas bombas. Também, teríamos baixa freqüência em valores que é a função de probabilidade de uma Binomial de parâmetros r e p = mfn. O
intermediários. Pela tabela acima, percebemos que isso não ocorre e somos Exemplo 2.22: Relação entre Binomial e Poisson
levados a concluir que o bombardeio foi feito aleatoriamente sobre essa região. O
Seja X '"" B( n, p) e vamos discutir as condições para a aproximação
Encerramos a seção com a apresentação de dois exemplos sobre o desse modelo para o de Poisson.
relacionamento entre modelos. Temos
Exemplo 2.21: Relação entre Hipergeométrica e Binomial
Considere uma população com n objetos, dos quais m são do tipo I e
n - m do tipo I I. Uma amostra de tamanho r é coletada sem reposição e a
em que (n )x = n(n - 1)· · ·(n- x + 1) e definimos À= np.
92 Capítulo 2: Variáveis Aleatórias
2.3 Principais Modelos Discretos 93
P(X ~x(n)
= x) = _ _x ( 1 -~)
- -x ( 1 - ~)n
- . 4. Se X"' Geo(p), qual é o modelo de Y =X+ 1? Interprete.
x! nx n n
5. Dentre os estudantes João, Pedro e Manoel, o professor escolhe ao acaso um
Considere agora que a probabilidade p seja de tal modo pequena que, quando n se deles para fazer uma pergunta. Se cinco perguntas forem feitas, qual a
aproxima do infinito, ~ possa ser considerado como aproximadamente constante. probabilidade de:
Na aplicação do limite observe que a. Manoel nunca ser escolhido?
b. Um (qualquer) dos estudantes não ser solicitado a responder sequer uma
lim (1- ~) -x = 1 e lim (n)x = 1; pergunta?
n-+00 n n-+OO nX
6. Uma vacina, com taxa de imunização de 80% segundo o fabricante, foi
e, por um resultado clássico de limite, segue também que
aplicada num conjunto de crianças de um certo bairro. As autoridades de saúde
lim (1 - ~)n =e-À. desejam se certificar se a taxa de imunização tem efetivamente o valor
indicado. Para tal, 20 crianças foram sorteadas dentre as que receberam a
n-+oo n
vacina e foram submetidas a testes rigorosos para avaliar sua imunização.
Nestes termos a. Sendo a afirmação do fabricante verdadeira, qual seria a probabilidade de
~X -À obter 3 crianças não imunizadas, no grupo das 20 crianças?
limP(X = x) ~ _ e_l-, b. Se você fosse encarregado de decidir sobre a aceitação ou não da afirmação
n---Jooo X.
do fabricante, que critério você estabeleceria?
que corresponde à função de probabilidade Poisson (~). Este resultado se refere
7. O número de chegadas a um posto de informações turísticas é modelado por
ao comportamento limite de distribuições, que será objeto do Capítulo 6. O
Poisson com taxa de 2 pessoas por hora. Para uma hora qualquer, qual a
Exercícios da Seção 2.3: probabilidade de ocorrer:
1. Verifique que a atribuição de probabilidade nos modelos Binomial, a. Pelo menos uma chegada?
Geométrico, Hipergeométrico e Poisson satisfazem às propriedades de função b. Mais de duas chegadas, dado que chegaram menos de 5 pessoas?
de probabilidade. 8. Para m,n ~O, seja P(X = m +n I X~ m) = P(X = n) uma versão da
2. Considere um dado eqüilibrado. Para cada um das situações abaixo, obtenha a propriedade da falta de memória. Verifique se ela está satisfeita para os
função de probabilidade da variável de interesse e identifique o modelo, se modelos abaixo:
possível. a. Poisson(~).
a. O dado é lançado 3 vezes, de forma independente. Estamos interessados no b. B(n,p).
número de vezes em que ocorreu face 1. c. Geo(p).
b. O dado é lançado 3 vezes, de forma independente. Estamos interessados no 9. Seja X"' Poisson(~) responda:
número de repetições de faces sorteadas. a. Se P(X = 1) = P(X = 2) qual o valor de P(X < 4)?
c. O dado é lançado sucessivamente, de forma independente, até ocorrer a b. Sendo P(X = 1) =O, 1 e P(X = 2) =O, 2 quanto vale P(X = 3)?
face 6. Estamos interessados em quantos lançamentos foram necessários.
d. O dado é lançado 3 vezes, mas a face ocorrida num lançamento é "retirada" 10. Suponha que uma impressora de alta velocidade cometa erros, segundo um
para o próximo sorteio. Estamos interessados no número de faces ímpares modelo de Poisson com uma taxa de 2 erros por página.
obtidas. a. Qual é a probabilidade de encontrar pelo menos 1 erro em uma página
escolhida ao acaso?
2.4 Principais Modelos Contínuos 95
94 Capítulo 2: Variáveis Aleatórias
f(x)
b. Se 5 páginas são sorteadas, ao acaso e de forma independente, qual é a
probabilidade de pelo menos 1 página com pelo menos 1 erro por página?
c. Dentro das condições de (b ), considere a variável que conta o número de
páginas com pelo menos um erro. Você identifica o modelo dessa _1_
b-a
------------------------------------,
variável?
1b
1 00
-00
f(x)dx =
a
1
~dx
a
= 1.
A função de distribuição pode ser calculada sem dificuldade através da integral da
densidade. A expressão resultante é dada por:
o, se x <a;
F(x) = (x- a )/(b- a), se a:::; x < b;
{ 1, se x ~ b. Figura 2.6: Função de Distribuição da Uniforme Contínua em [a, b].
Devido à natureza contínua da variável, não faz diferença na definição do
modelo se o intervalo de valores for aberto ou semi-aberto.
Apresentamos, a seguir, os gráficos da densidade e da função de Exemplo 2.23: Um programa de TV dura 1 hora e um telespectador impaciente
distribuição do modelo Uniforme Contínuo em [a, b] para a e b positivos. vai trocar de canal a qualquer momento durante o programa. Qual a probabilidade
~·
97
96 Capítulo 2: Variáveis Aleatórias 2.4 Principais Modelos Contínuos
dele assistir à maior parte do programa? Se ele assistiu à maior parte, qual seria a que J(x), dada na definição do modelo Exponencial, satisfaz as propriedades de
probabilidade dele desligar a TV ou mudar de canal nos últimos lO minutos? densidade (ver gráfico a seguir).
Vamos denotar por X o instante em que o telespectador troca de canal.
Pelas informações disponíveis, X"' Uc[O, 1] e, portanto, j!z)
o, se x <O;
1
se O~ x < 1;
F(x) =
{ x,
1, se x ~ 1.
Exemplo 2.24: Um serviço de atendimento ao consumidor recebe chamadas ~is X é contínua. Note que F é não crescente, contínua à direita, F(O) = 1 e
telefônicas num intervalo de tempo, em horas, que segue uma distribuição F( +oo) =O.
Exponencial com >. = 5. O parâmetro >. pode ser interpretado como sendo uma A propriedade da falta de memória pode ser reescrita da seguinte forma:
taxa de 5 chamadas por hora e, dessa forma, a unidade de >. seria horas- 1• A
probabilidade de um intervalo entre chegadas ter duração inferior a 30 minutos é F(s + t) = F(s)F(t).
dada por Se g(x) = F(x), vamos resolver a equaçã~ funcional g(s + t) = g(s)g(t), sujeita
às condições já mencionadas sobre F. A solução única será da forma
P(X < 1/2) = P(X :::; 1/2) = F(1/2) = 1 - e-~ = 0,918. O g(x) = e->.x , para x 2: O e com>.> O.
Inicialmente, mostramos que g(x) >O, sempre que O:::; x < oo.
Uma característica matemática importante do modelo Exponencial é a já É claro que g(x) ;::: O (por ser probabilidade) e não crescente (por
mencionada falta de memória. A interpretação permanece a mesma do caso definição). Suponha por absurdo que g(xo) = O para algum xo. Segue pela
discreto mas, para o caso contínuo, não faz diferença incluir ou não as igualdades
equação funcional que g(x) =O para todo xo :::; x < oo. Seja xô o ~enor dos x
nas probabilidades. Na próxima proposição verificamos que o modelo para os quais g(x) =O. Assumindo que X não é uma constante Igual a zero,
exponencial é o único dentre os contínuos com tal propriedade.
temos xô > O. Sejam u e v dois números reais tais que O :::; u < v < xô :S u + v,
Proposição 2.4: Falta de memória da Exponencial então pela equação funcional
Sendo X uma variável aleatória contínua, X tem a propriedade da falta de g(u)g(v) = g(u + v) = O.
memória se, e só se, X......, Exp(>.).
Isto implica em uma contradição, pois g(u) e g(v) não são nulas. Concluímos que
Demonstração: g(x) não é zero para qualquer x finito. .
A propriedade de falta de memória pode ser escrita da seguinte forma: Para todo x >O temos g(nx) = g(x)g(nx- x), n 2: 1. Recursivamente,
obtemos g(nx) = gn(x).
P(X 2: t+siX 2: s) = P(X 2: t) ;t , s 2: O. ,
Para qualquer numero · 1 ;:nn vem g ( ;:nn ) = gn ( ;:nI ) • Logo com
raciona
Seja X......, Exp (>.)e s, t > O. Temos que escolhas convenientes de me n obtemos g(~) = [g(1)jlfm . Então
_ P(X 2: t + s, X 2: s) _ P(X 2: t + s) . 1
P(x 2: t + 8 I X 8 ) 9 (:) = [g(1)r m, para todo racional njm.
2: - P(X 2: s) - P(X 2: s)
A função densidade de X é dada por f(x) = >. e->.x Ico,oo) (x). Assim, Pela continuidade à direita de g, vem
•
roc >. e-Àxdx _ e-Àxloc
P(X > t + siX > s)
- -
= Jfsoc
t+s
À e-Àxdx
= t+s
- e-Àx ~~
=
e-À(t+s) Como g(1) > O,>.= -logg(1) está definido e é positivo. Substituindo na última
=
e - Às
= e->.t = P(X -> t) ' equação, obtemos
Para uma maior discussão sobre a função Gama, consulte Hoel, Port e
Como ilustração da falta de memória da Exponencial, considere que o Stone [71]. Vale destacar alguns resultados:
tempo de vida de um equipamento siga esse modelo. A probabilidade de durar
pelo menos t + s anos, sabendo-se que já durou s, é igual à probabilidade de um i) r( a+ 1) =a r( a), a > oj
equipamento novo durar pelo menos t anos. Em outras palavras, a informação da ii)r(n) = (n- 1)!, n inteiro positivo;
"idade" do equipamento pode ser esquecida e o que importa, para o cálculo da
probabilidade, é quantos anos a mais queremos que dure.
iii)r(1/2) = vn.
O uso da Exponencial no estudo de fenômenos que ocorrem na área de Exceto em situações especiais, a função de distribuição do modelo Gama
engenharia e de telecomunicações se deve, em parte, ao seu relacionamento com o não tem uma forma simples e compacta. Dependendo dos valores dos parâmetros,
modelo Poisson. ·o modelo Gama recebe outros nomes e a tabela abaixo resume os casos principais.
Exemplo 2.25: Relação entre Poisson e Exponencial Nome Especial Notação
Parâmetros
Seja X uma variável aleatória Poisson com parâmetro >.. Suponha que X a= 1, {3 > O Exponencial Exp ({3)
representa o número de ocorrências de um evento, num certo intervalo de tempo.
Variando o intervalo de interesse, podemos considerar que o número de
o· .
a= 2n , n > mte1ro, {3 = 21 Qui-quadrado com n graus de liberdade x2 (n)
(
ocorrências ainda é Poisson, mas com o parâmetro ajustado proporcionalmente. a = k, k > O inteiro, {3 > O Erlang de ordem k Erlk(f3)
(
Assim, temos a variável Xt "'Poisson(>.t).
Vamos supor que acabamos de ter uma ocorrência e seja Y a variável que Para exemplificar a versatilid~de da Gama apresentamos na Figura 2.9 o
indica o tempo até a próxima ocorrência. Temos, para y > O, gráfico de sua densidade para alguns valores de parâmetros.
Fy(y) = P(Y ~ y) = 1 - P(Y > y ) = 1 - P(Xy =O) = 1 - e->.y
ft.x)
e, assim, concluímos que Y é Exponencial com parâmetro >.. o
Um modelo contínuo bastante versátil e, também, com inúmeras
0,6
aplicações é o modelo Gama. Muitos autores se referem a ele como a famíla
Gama tendo em vista que, dependendo da escolha dos seus parâmetros, outros
modelos importantes podem ser obtidos.
Definição 2.15: Modelo Gama 0,4
Diremos que X segue o modelo Gama, se sua densidade for dada por
f (X ) -_ _f!:_
r (a) X
a-1 -{3x J
e
( )
(O,oo) X '
0,2
r( a ) = 1
00
1
x"'- e-x dx, a> o.
o 2
O modelo mais importante para variáveis aleatórias, tanto do ponto de integral, pois esta não possui primitiva. Assim, valores de probabilidade são
vista teórico como prático, é o modelo Normal. Algumas vezes ele é também obtidos por integração numérica e apresentados em tabela. Não é necessário fazer
denominado modelo de Gauss ou de De Moivre. O modelo Normal foi uma tabela para cada par de valores dos parâmetros em que se tenha interesse.
2
estabelecido, ao redor de 1733, pelo matemático francês Abraham De Moivre. Basta, apenas, tabelar as probabilidades para J.L = O e a = 1, conforme indicado
pela próxima proposição.
Definição 2.16: Modelo Normal
Proposição 2.5:
Uma variável X segue o modelo Normal se sua densidade é a seguinte:
Sendo X rv N(p, a 2 ), então Z = X;!J terá distribuição N(O, 1).
1 ~
f( x) = r;c_ e- 2
• 1(-oo,oo)(x),
l!V 21T Demonstração:
Com as definições a serem apresentadas nos Capítulos 4 e 5, veremos que P(X- J.L :::; z) = P(X:::; za + p)
os parâmetros J.L e a 2 são, respectivamente, a média e a variância da variável (a a
zu+p. 1 _ (;-~)2
quantidade a será denominada desvio-padrão). O gráfico da densidade N(p, a 2 ) é
apresentado na figura a seguir.
=
l
-oo ay 21T
r;c_ e 2. dx
='1%-oo y
1
r;c_
2?T
e- i.2 dy,
f(:r)
em que usamos y = (x- p)ja.
Observamos que este último integrando é a função densidade de uma
N(O, 1) e, portanto, o resultado está verificado. A distribuição N(O, 1) é
denominada Normal Padrão ou Normal Reduzida. D
Com auxílio da proposição acima, convertemos as probabilidades de
interesse em probabilidades equivalentes da N(O, 1), cuja função de distribuição
é, usualmente representada por <J>( z). No Apêndice A, apresentamos uma tabela
que auxilia nos cálculos de probabilidade para a Normal.
Como ilustração, sendo X rv N(p, a 2 ), desejamos obter a probabilidade
de X estar entre duas constantes a e b, a < b. Temos
a~p b-p b-p a-p
P(a <X< b) = P(-- < Z < - ) = <J>(- )- <1>(--)
a
,
a a (J
cujo valor numérico poderia ser obtido com o uso da tabela mencionada, se as
Figura 2.10: Densidade Normal (J.L, u 2 ).
constantes fossem conhecidas.
A importância da distribuição Normal em Estatística é muito grande. Ela
serve como modelo para quantidades de interesse em Inferência Estatística e,
A função de distribuição da N(p, a 2 ) não tem uma forma fechada e, de
também, é usada em aproximações. Sua densidade é simétrica ao redor de J.L (que
fato, o cálculo de probabilidades com a densidade Normal não pode ser feito pela
já mencionamos que é a média da variável) e vai diminuindo a massa de
104 Capítulo 2: Variáveis Aleatórias
2.4 Principais Modelos Contínuos 105
probabilidade, à medida que seus valores se movem para as extremidades. Dessa conseqüências práticas. Segundo os modelos Normais para a produção das duas
forma, o modelo Normal poderia ser adequado para várias quantidades máquinas, as probabilidades de valores negativos são praticamente desprezíveis.
envolvendo medidas populacionais tais como peso, altura, dosagem de Os cálculos são apresentados a seguir:
substâncias no sangue, entre outras.
A falta de limitação para os valores da Normal poderia ser um empecilho P(XA < o) = P(Z < -5, 5) ~ 1, 9 x w- 8 ;
para sua maior aplicação. Entretanto, do ponto de vista prático, a probabilidade P(Xs <O)= P(Z < -4) ~ 3, 2 X w- 5 .
que escapa dos valores centrais é desprezível. Por exemplo, para a N(O, 1), a
probabilidade de um valor fora do intervalo ( -3, 3) é cerca de O, 0026 e para o Portanto, supondo que a modelagem esteja adequada para a parte positiva dos
intervalo ( -4, 4) seria menor do que w- 4 , evidenciando que o "infinito" da valores da variável, poderíamos aceitar o modelo.
Normal não é tão longe assim! Para comparar as duas máquinas, vamos calcular o índice regular de
Muitas das variáveis de interesse em aplicações são não negativas e a produtividade de cada uma delas. Temos
modelagem pela Normal poderia parecer absurda. Pela mesma argumentação
P(80 < XA < 120) = P(-1,5 < Z < 0,5) = 0,6247;
numérica do parágrafo anterior, podemos verificar que, sendo J.L relativamente
P(80 < Xs < 120) = P(-0,8 < Z < 0,8) = 0,5762.
grande em relação à u, a probabilidade de valores negativos é muito reduzida e,
portanto, a Normal poderia ser um bom modelo. Dessa forma, a máquina A tem um melhor desempenho pelo critério utilizado. O
Em muitos métodos estatísticos, o requisito de normalidade é necessário.
Se utilizamos uma variável limitada, como ocorre na maioria dos casos práticos, a Exemplo 2.27: Relação entre Binomial e Normal
modelagem pela Normal poderia ser usada para ganhar tratamento matemático. A Uma consequência do Teorema Central do Limite, a ser apresentado no
justificativa segue, também, pela argumentação anterior. De qualquer forma, a Capítulo 6, é a aproximação de cálculos de probabilidade da Binomial pela
avaliação de qual modelo é adequado precisa ser feita com cuidado e critério, um distribuição Normal. Sendo X"' B(n,p), desejamos calcular P(a ~X~ b) com
assunto para as áreas de Estatística Descritiva e Inferência Estatística. a e b inteiros entre Oe n. Para n suficientemente grande, a aproximação será feita
Exemplo 2.26: Duas máquinas estão sendo comparadas quanto ao seu através da variável Y "'N(J.L = np, u 2 = np(1- p) ). Em geral, essa
desempenho. As máquinas produzem, por hora, um número de peças que é aproximação é aceitável sempre que np ~ 5 e np(1- p) ~ 5. Como estamos
modelado pela distribuição Normal. Os parâmetros são dados a seguir: aproximando uma variável discreta por uma contínua, alguns cuidados precisam
ser tomados. Para melhorar a aproximação, um recurso é utilizar a correção de
Máquina J.L 0'2 continuidade que consiste em, dependendo do caso, acrescentar ou retirar O, 5 ao
A 110 400 valor de que se pretende calcular a probabilidade. Dessa forma, P(X ~ b) é
B 100 625 aproximada por P(Y ~ b +O, 5), enquanto que P(X < b) por P(Y ~ b- O, 5).
Lembre-se de que, para a variável Y não faz diferença a inclusão ou não da
Deseja-se comparar as máquinas pelo que foi denominado índice regular de
igualdade. Assim, nas condições para aproximação já mencionadas, temos
produtividade, que é calculado pela probabilidade de produzir de 80 a 120 peças
em uma hora. Um maior índice indicaria um melhor desempenho. P(a ~X~ b) ~ P(a- 0.5 ~ Y ~ b + 0.5).
Inicialmente, cabe um comentário sobre a conveniência do modelo
Normal. O número de peças produzidas é sempre um inteiro não negativo e, Utilizando o Exemplo 6.9 em Magalhães e Lima [05], consideramos uma
portanto, o uso de um modelo contínuo necessita ser justificado. Em geral, variável X "' B(200; 0,3), cujos cálculos de probabilidade serão aproximados por
construímos um gráfico com os valores observados de uma amostra da produção Y "'N(J.L = 60, a 2 = 42). Assim, com o auxílio da tabela da N(O, 1) e sem o uso
horária das máquinas e, com o uso de algumas técnicas estatísticas, avaliamos a da correção de continuidade, temos:
qualidade da modelagem. O modelo Normal permite valores negativos, que não
fariam sentido em termos de produção de peças, mas nesse caso sem maiores
106 Capítulo 2: Variáveis Aleatórias 2.5 Exercícios 107
5. Mostre que, para a e f3 positivos, f(x) = /[;,) (x- a)a:- 1 e-.B(x-a) I(a,oo)(x) é
P(X 2:
5
50)~P(Y 2: 50)=P(y~O 2: ~ )=P(Z2:-1,54)=0,9382. 0
função densidade de probabilidade. Alguns autores definem o modelo Gama
42 42
dessa forma, sendo que, nesse caso, o modelo tem um terceiro parâmetro a.
Para o resultado exato, utilizando a Binomial, o valor obtido seria 0,9484. Isto 6. A variável X segue o modelo Beta de parâmetros a, b > O, se sua densidade for
indica que a solução dada pela distribuição Normal é bastante razoável. Se f(x) = .B(~,b)xa- 1 (1- x)b- 1I(o, 1)(x); f]( a, b) é a função Beta (Apêndice A).
utilizarmos a correção de continuidade, o cálculo ficaria ainda mais preciso:
a. Verifique que a densidade Beta com parâmetros a = b = 1 é a Uc(O, 1).
50)~ P(Y 2: 49,5) =
49
P(X 2: P(Z 2: ~ ) 60
= 0,9474. b. Prove a seguinte relação entre as funções Beta e Gama: /3( a, b) = ri(~I~~) ·
42
Para calcular a probabilidade de igualdade a um valor, digamos X= 50, 7. Mostre que a taxa de falha, tr(x) = 1 !~(~) (F(x) < 1), para o modelo
criamos um intervalo artificial, pois, com variáveis contínuas, essa probabilidade Exponencial é constante e coincide com seu parâmetro.
seria zero. Assim,
8. Sendo X"' N(J.L, a 2 ), J.L > O, avalie as probabilidades abaixo em função de
ci>(z) ou numericamente, se possível:
P(X = 50) ~ P( 49,5 ~ Y ~ 50,5)
a. P(IXI < J.L).
~ P( 50~60 ~ z ~ 49~60) = 0,0 182 _ b. P(IX- J.LI > 0).
42 42 c. P(X- J.L < -a).
d. P(a <IX- J.LI < 2a).
O cálculo exato é 0,0190; mostrando, novamente, a qualidade da aproximação. O
9. Suponha que o volume, em litros, de uma garrafa de refrigerante seja Normal
Exercícios da Seção 2.4: com parâmetros J.L = 1 e a 2 = w- 4 • Se três garrafas forem sorteadas ao acaso,
1. Seja X"' Uc( -a, a), determine o valor do parâmetro a de modo que: pergunta-se a probabilidade de:
a. P(-1 <X< 2) = 3/4. a. Todas as três terem pelo menos 980 ml?
b. P(IXI < 1) = P(IXI > 2).
b. Não mais de uma ficar com volume inferior a 980 ml?
2. Supondo que a expectativa de vida, em anos, seja Exp(1/60): 10. Uma variável X"' N(J.L, a 2 ) representa o desempenho de um certo
a. Determine, para um indivíduo escolhido ao acaso, a probabilidade de viver equipamento. Ele será considerado fora de controle se afastar de J.L por mais de
pelo menos até os 70 anos. 2a unidades. Todo o dia, o equipamento é avaliado e, caso esteja fora de
b. Idem para morrer antes dos 70, sabendo-se que o indivíduo acabou de controle, será desligado e enviado para manutenção. Admita independência
completar 50 anos. entre as avaliações diárias. Determine a probabilidade de:
c. Calcule o valor de m tal que P(X > m) = 1/2. a. No primeiro dia o equipamento ser desligado.
b. A primeira manutenção ser no décimo dia.
3. Mostre que a densidade Gama satisfaz as propriedades (fdl) e (fd2). c. Você reconhece a variável que conta os dias anteriores à manutenção?
4. Com a definição da função matemática Gama dada nesta seção, verifique que:
2.5 Exercícios
a. r(a+ 1) = ar(a),a > o.
b. Para n inteiro positivo, r(n + 1) = n! 1. Sendo c uma constante real qualquer, verifique que X(w) =c, para todo
c. r(1/2) = J7i. Sugestão: use a N(O, 1) e uma troca de variáveis. w E 0, é variável aleatória em qualquer 0'-álgebra de conjuntos de 0.
Capítulo 2: Variáveis Aleatórias 2.5 Exercícios 109
108
b. p(x) = ~. x = ± 1, ± 2, ± 3, ± 4. d. f(x) = ~ e-Àix-pl, x, 1-l E JR., >. >O; modelo de lAplace ou Exponencial
c.p(x) = fõ,x = 1,2,3,4,5. Duplo.
21. Determine condições sobre as constantes c, de modo que as expressões abaixo f. f(x) = >.axa-l e-Àxa I(o,oo)(x), .À, a> O; modelo de Weibull.
sejam função de probabilidade.
g. f(x) = x e-4 I(o,oo)(x); modelo de Rayleigh.
a.p(x) = cax,o <a< 1, x =O, 1,2, ...
b.p(x) =(c -1) 2x,x = 1,2,···.
h. f(x) = ~ x 2 e-f I(o,oo)(x); modelo de Maxwell.
22. Obtenha o valor (ou valores) de c, para que as expressões abaixo sejam função i. f(x) = (~) (~)a+l l(c,oo)(x), a, c> O; modelo de Pareto.
densidade. 25. Obtenha a função de distribuição referente às funções densidade abaixo:
a. f(x) = cosx I(o,c)(x). ~.
{
o::;x<3;
o, X:::; -1; a. f(x) = ~(6- x), 3:::; x < 6;
b. f(x) = -ex, -1 <X:::; O; O, caso contrário.
{ ce-6x, X> 0. -1 :::; X :::; O;
2
-~·
c. f(x) = cx 1(-c,c)(x) .
b. f(x) = ~· 0 <X:::; 1;
d. f(x) =c x 2e-x I (o,oo)(x).
3
1, 1 <X:::; 2;
2
e. f(x) = (c+ 1)/I (x) - ch(x), x E lR. e h e h são densidades. o, caso contrário.
23. Determine c, para a expressão abaixo ser função de probabilidade de uma 26. Verifique se a função abaixo é função de distribuição:
variável discreta X.
o, X< 1;
c F(x)= sen1r(x-1), 1 :::; X< 2;
p(x)= x,x=0,1,2, ... { 1- e-(x-2),
3 X 2: 2.
Sendo A= {x E N; x = 2k + 1, k E N} e B = {x E N; x = 3k + 1, k E N},
27. Seja X uma variável aleatória contínua com função de distribuição:
obtenha as probabilidades P(X E A) e P(X E B).
24. Demonstre que as funções abaixo satisfazem as propriedades da função
o, X :::; O;
2
densidade. x /2, 0 <X:::; 1/2;
F(x) =
a. f(x) = (1 -11- xi)I(o,2)(x); modelo Triangular. x3 1/2 <X:::; 1;
'
1, x>l.
b. f(x) = ~ ffl+(~-a)2 , x, a E !R, ,B > O; modelo de Cauchy. Para a = O e
,B = 1 temos o modelo Cauchy Padrão. a. Verifique que F(x) satisfaz as propriedades de função distribuição.
c. f(x) = ~x e-~, x E JR.+; modelo Qui-quadrado. b. Obtenha a f( x) .
2.5 Exercícios 113
112 Capítulo 2: Variáveis Aleatórias
f(x) = { ~~ '
3
28. Seja X uma variável aleatória contínua com densidade se -1::::; x <O;
se O ::::; x < 1;
1 ( jx-o:j) se 1::::; x < 3/2;
f(x) = {J 1- -{3- I(a-{J,a+{J)(x); 2c,
o, caso contrário.
com -oo < o: < {3 e {3 > O.
a. Obtenha a função de distribuição de X. 33. A função de distribuição de X é dada por
b. Determine q tal que P(X > q) =O, 25. se x <O;
29. Seja X uma variável aleatória contínua com função densidade de se O :$ x < o:, o: > O;
se x >o:.
probabilidade dada por: f(x) = 4~ [1- (x~a rJ I(a-fJ,a+{J)(x), com {3 > oe
-oo <o:< {3. a. Obtenha a densidade de X.
a. Verifique que f(x) satisfaz as propriedades de função densidade. b. Na vizinhança de que ponto, teremos probabilidade máxima?
b. Obtenha a função de distribuição de X. 34. Mostre que X é contínua se, e somente se, P(X = x) =O, Vx E R
c. Determines tal que P(X < s) = O, 5.
35. Seja X uma variável com função de distribuição:
30. Para o: constante, O :$ o: ::::; 1, seja X com função de distribuição:
0, X< -2;
o, X::::; O; 2'
ax 0 <X:$ 1;
F(x) = ~ + x! -2 :$X< O;
2,
~ + H1 -e-x),
{
·a-l+x X 2: O.
F(x) = -2- 1 <X:$ 2;
a+l+(l-a)(x-2) a. Classifique X e faça um gráfico de F.
2 2 <X:$ 3;
b. Calcule P(X > -1) e P(X :$ 4j X > O).
1, X > 3. c. Decomponha F nas partes discreta e absolutamente contínua.
a. Verifique que F(x) satisfaz as propriedades de função distribuição. 36. A variável X tem função de distribuição dada por:
b. A variável X é contínua? Se sim, obtenha sua densidade.
0, X< 2;
31. Para X com densidade f( x) = 11- xl I(o, 2)(x), obtenha:
a. A função de distribuição de X.
F(x) = ~ + xw 2
' 2::::; X< 6;
{
b. P(X > 1/2). 1, X 2: 6.
c. P(X < 2/31 X > 1/2).
a. Faça um gráfico de F e classifique a variável X.
32. Uma variável aleatória contínua X tem a densidade dada abaixo. b. Decomponha F em partes discreta e absolutamente contínua.
a. Obtenha o valor de c.
37. Numa certa região a probabilidade de chuva é o:, ~ < o: < 1. Um morador da
b. Determine a função de distribuição de X.
região, acostumado com as variações muito freqüentes no clima, afirma que
c. Calcule P(X > -1/21 X:$ 1/2).
acerta mais do que os meteorologistas. Ele costuma jogar sua moeda, que
d. Qual o valor de b tal que P(X > b) = P(X::::; b)?
indica chuva com probabilidade {3, O < {3 < 1. Suponha que são feitas, de
forma independente, previsões em três dias.
J
- 114 Capítulo 2: Variáveis Aleatórias
115
116 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 117
Na definição de vetor aleatório, está implícito que X1, X2, ... , Xm são atendimento. A segunda variável de interesse é o tempo de atendimento em
variáveis aleatórias no mesmo espaço de probabilidade (O, :F, P). Isto segue do minutos, representado por X 2 • Vamos supor que o comportamento conjunto
requisito de que a imagem inversa de cada um dos X; 's esteja em :F, ou seja, para dessas variáveis se dá segundo a função de distribuição conjunta apresentada a
todo I; c lR o conjunto X; 1 (J;) é um evento. Assim, seguir:
m
{w: Xl(w)::::; X}, •.• ,Xm(w)::::; Xm} = n {w: X;(w)::::; x;},
i=l
X} < oou X2 < O;
x1 ~ O,x2 ~O.
também é um evento, pois é a intersecção de elementos da a-álgebra :F.
Da mesma forma que no caso univariado, definimos uma função que A qualidade do serviço de reservas dessa companhia poderia, então, ser avaliado
caracteriza, de modo único, o comportamento probabilístico do vetor aleatório. levando em conta as probabilidades dos tempos de demora e atendimento. O
Definição 3.2: Função de Distribuição Conjunta Na próxima proposição, apresentamos algumas propriedades da função de
A função de distribuição conjunta de X é definida por distribuição conjunta.
F(x) = F(xl,X2,·· ··xm) = P(X1::::; x1,X2::::; x2, ... ,Xm::::; Xm), Proposição 3.1: Propriedades da Função de distribuição Conjunta
i=l
ih
tipo de chapa no funcionamento da máquina, bem como estabelecer programas de aplicação de probabilidade nesses conjuntos, verifica a propriedade.
manutenção preventiva. O
A demonstração de (FC2) é análoga ao caso uni variado.
Exemplo 3.2: Considere uma central de reservas de uma companhia aérea e, para Para (FC3), seja Xj tal que Xj-+-oo então {w: Xj(w)::::; xj}! 0 e,
uma chamada ao acaso, estamos interessados em duas quantidades aleatórias. A portanto, F(x)-+0. Se todos os Xfs vão para oo, então cada um dos eventos
variável xl é o tempo de espera, em minutos, para o cliente iniciar seu
(
/
pois para cada i, i = 1, 2, · · ·, m temos
(
( {w: a; < Xi(w) :5 bi} E F e, portanto, nm
{w : a; < X;( w ) :5 bi} E F ; s
(
(
i=l
Definição 3.4: Vetor Discreto, Probabilidade Conjunta e Marginal Nessa tabela, o corpo representa a distribuição conjunta e as últimas linha e
coluna fornecem as distribuições marginais. Na tabela apresentada X 1 assume os
Se as variáveis do vetor aleatório são discretas, temos um vetor aleatório valores ai> a2, ···,ar e X2 os valores b1, b2, · · ·, b•. Observe que as distribuições
discreto. Sua função de probabilidade conjunta é definida da seguinte forma: marginais das duas variáveis são obtidas através da soma de linhas e colunas
p(x) = p(xi. X2, .. ·, Xm) = P(Xl =X!, x2 = X2, ... 'Xm = Xm)· correspondentes.
A função de probabilidade marginal de Xk, k = 1, 2, · · ·, m é dada por: Exemplo 3.4: Duas moedas equilibradas são lançadas de forma independente e
definimos as variáveis aleatórias X e Y da seguinte forma:
X : número de caras nos dois lançamentos;
Xi X; Y : função indicadora de faces iguais nos dois lançamentos.
Vi# V;"'t
O espaço de probabilidade (0, F, P) pode ser construído como usual.
ou seja, a marginal vem da soma em todas as coordenadas, exceto k. o Consideramos O todos os 4 pares de resultados possíves e F a u-álgebra das
Note que a idéia da marginal se aplica para mais de uma variável. Se partes de O. A função de probabilidade P atribui igual probabilidade aos
desejamos a função de probabilidade conjunta (marginal) de algumas das m elementos de n.
variáveis, somamos em todas as coordenadas, exceto as das variáveis de interesse. Para calcular as probabilidades conjuntas sempre nos reportamos aos
pontos de O, pois as variáveis aleatórias são funções das ocorrências do espaço
Proposição 3.2: Propriedades da Função de Probabilidade Conjunta amostrai. Representando por C e K, os eventos cara e coroa, respectivamente,
Seja X um vetor aleatório discreto em (0, F, P). Então sua função de temos:
probabilidade conjunta (fpc) satisfaz as propriedades: y
Eventos prob. X
(fpcl) p(x) ~ O, Vx E lRm; (C , C) 1/4 2 1
(fpc2) LP(x) = 1. (C,K) 1/4 1 o
X (K,C) 1/4 1 o
Demonstração:
(K,K) 1/4 o 1
As provas são análogas ao caso univariado e serão omitidas. o Coletando os valores comuns dos pares (X, Y), obtemos a probabilidade conjunta
apresentada, a seguir, na forma de uma tabela de dupla entrada.
A função de probabilidade e a função de distribuição podem ser obtidas,
uma a partir da outra, de forma similar ao que é feito no caso unidimensional. X\Y o1 P(X = x)
No caso especial de duas variáveis discretas, é conveniente a o o
1/4 1/4
representação da função de probabilidade através da tabela de dupla entrada: 1 1/2 o 1/2
2 o 1/4 1/4
X1 \ X 2 b! ... b. P(X 1 = xi) P(Y = y) 1/2 1/2 1
a1 p(a 1 ,bi) ... p(ah b,) Px,(ai) Para calcular a função de distribuição conjunta de X e Y é necessário separar em
vários casos, percorrendo intervalos de valores em cada variável. O gráfico a
seguir apresenta as várias regiões, correspondentes aos diversos casos. As
ar p(a, b1) ... p(a, b.,) Px,(ar) fronteiras de cada região não foram assinaladas, para evitar congestionar o
... gráfico.
P(X2 = x1) Px,(bJ) Px,(b.,) 1
122 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 123
y
condições para seus valores, de modo que as propriedades da função de
probabilidade conjunta estejam satisfeitas.
SJ ss s7 X\Y o 1 2 3
1
o a a+b-~ b 5
s2 s4 só
i (0,0)
1 1
5 2(a+b-~) ~-a ~-b
SI -~····*·~'"-····~·~
·----> A primeira condição requer que as probabilidades conjuntas sejam não negativas.
a
1
> O· a + b - -5>-
1
O· b > O· - - a >
1
O· - - b > O.
-' ' - '5 - '5 -
Figura 3.2: Partição dos valores de (X, Y).
Logo ficamos restritos à Rt = { (a, b) : q~ a ~ L o ~ b ~ ~ 'a + b :::: n.
Dessa forma, a função de distribuição conjunta pode ser expressa da Impondo que a soma de todas as probabilidades conjuntas seja igual a 1, vem
seguinte forma: 1 1
a + (a +b- -)
5
+ b .+ ··· + (-5 - b) = 1.
o, em sl = {(x, y ): X< o ou y <O};
o, em 8 2 = {(x, y): O ~ x < 1, O~ y < 1} ; Daí, resulta em R2 = {(a, b) :a+ b = fs }· Os valores de a e b precisam estar
1/4, emS3 = {(x,y): O~ x < 1,y;::: 1};
na intersecção dos conjuntos R 1e R 2 . Assim,
Fx,y(x,y) = 1/2, emS4 = {(x,y): 1 ~ x < 2,0 ~ y < 1};
3/4, emS5 = {(x,y): 1 ~ x < 2,y;::: 1};
1/2, emS6 = {(x,y): x;::: 2,0 ~ y < 1};
1, emS1 = {(x,y): x;::: 2,y;::: 1}. Tomando as constantes no conjunto R, garantimos que a tabela acima representa
uma função de probabilidade conjunta de duas variáveis. O
Observe que podemos resumir a apresentação da função se agregarmos os valores
comuns. Entretanto, optamos por essa forma inicial de apresentação para Definição 3.5: Vetor Contínuo, Densidade Conjunta e Marginal
evidenciar o cuidado que é preciso ter no estabelecimento das regiões Denominamos vetor aleatório contínuo o vetor aleatório cujas
convenientes para o cálculo de Fx,Y· Fica a cargo do leitor reescrever a função componentes são variáveis aleatórias contínuas. Em outras palavras, um vetor
numa forma mais resumida e também verificar que estão satisfeitas as aleatório é contínuo se, dada a função de distribuição F, existe uma função
propriedades de função de distribuição. O f : IRm --+ IR+, denominada/unção densidade conjunta (fdc), tal que
Exemplo 3.5: A tabela abaixo apresenta valores de probabilidade conjunta de
duas variáveis X e Y em função de constantes reais a e b. Vamos determinar
124 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 125
A função densidade marginal é dada pela expressão: uma vez que e-Y• 2': e- 112 . Logo, Fx,Y é não decrescente em cada uma das
coordenadas e (FCI) está satisfeita nessa região (complete para as outras!).
f xk(xk) = r... r f(x) dxl dx2(i .. ·dxm.
Jxl lxm i- k)
As propriedades (FC2) e (FC3) são verificadas sem dificuldade.
Para (FC4) devemos provar que Fx,y(x, y) é tal que, para V a;, b; E JR,
(i i- k)
a; < b; e intervalo/; = (a;, b;], 1 ~ i ~ 2, temos
D
P(a1 <X~ bt,a2 < Y ~ b2) = 6.1,11 6.2,12 Fx,Y(x,y) 2': O.
Note que a função densidade f(x) é obtida a partir de F por sucessivas
derivadas parciais, generalizando, assim, o caso univariado. Se desejamos a Podemos escrever essa condição (ver exercício), da seguinte forma:
marginal conjunta de l variáveis, procedemos de modo similar ao caso discreto, Fx,y(bl, ~) + Fx,y(al, a2)- Fx,y(al, b2)- Fx,Y (bl, a2) 2': O.
integrando todas as variáveis exceto as de interesse.
Considere que I;, i= 1, 2 estão na região O ~ x < 5 e y 2': O. Temos
Proposição 3.3: Propriedades da Função Densidade Conjunta
Seja X um vetor aleatório contínuo em (0, F , P). Então sua função bl (1 -e-~)+ al (1- e-a2) - al (1- e-~) - bl (1 - e-a2)
5 5 5 5 '
densidade conjunta (fdc) satisfaz as propriedades:
(fdcl) f(x) 2': O, 'Vx E JRm; que, após simplificação, torna-se (b•;a.) (e-a 2 - e-~). Essa é uma quantidade não
negativa, pois a2 < b2. Para as outras éscolhas de região para os intervalos/; 's, a
(fdc2) I:· ··l:f(x) dx1 dx2 · · ·dxm = 1. verificação de (FC4) é análoga.
Assim, valem as propriedades de função de distribuição conjunta.
Demonstração: Para obter as funções de distribuição marginais, passamos ao limite,
lembrando que Fx,y(x, y) é nula se x <O ou y < 0:
As provas serão omitidas, mas são similares ao caso univariado. D
lim ~ (1 - e-Y) = x/5, se O ~ x < 5;
Exemplo 3.6: A função de distribuição conjunta de X e Y é dada por: . y-.oo 5
Fx(x) = hm Fx,y(x, y) = . (
11m 1 - e
-y) -_ ,
1
5
se x 2': .
y-.oo { y-<oo
se x < Oou y < O;
se O ~ x < 5, y 2': O; Fy(y) = lim Fx,y(x, y) =x-oo
lim (1 - e-Y) =1- e-Y, y 2': O.
x~oo
se x 2': 5, y 2': O.
As funções densidades podem ser obtidas, a partir da derivação das
Vamos verificar as propriedades da função de distribuição na região respectivas funções de distribuição.
O~ x < 5 e y 2': O. Nas demais regiões, as provas são similares. ô2 { ! e-Y se O ~ x ~ 5, y 2': O;
Para provar (FCI) escolha x 1 ~ x2 em [0, 5) e fixe y 2': O. Então, fx,y(x, y) = ôx ôy Fx,y(x, y) = 8, '
caso contrário.
X1 X2 (1- e-Y) = Fx,y(x2, y ) . ô {!' se O ~ x ~ 5;
Fx,Y(Xt, y) =
5 (1 - e~Y) ~
5 fx(x) = ôx Fx(x) = 8, caso contrário.
Considere, agora, y 1 ~ y2 em [O, oo) mantendo x fixo (x E [0, 5)). Temos, ô { se y 2': O;
~'
-y
fy(y) = ôy Fy(y) = ' caso contrário.
Fx,y(x, Yl) =
X
5 (1- e-Y•) ~ 5X {1- e-112 ) = Fx,y(x, Y2),
Note que as densidades de X e Y correspondem aos modelos Uc(O, 5) e Exp(1) ,
respectivamente. Elas poderiam, também, ser obtidas através das marginais da
densidade conjunta. D
3.2 Vetores Aleatórios 127
126 Capítulo 3: Vetores Aleatórios
Exemplo 3.7: (Dudewicz e Mishra [88]) caracterizar o comportamento probabilístico conjunto dessas variáveis. Para
calcular a probabilidade de (X , Y) pertencer a uma certa região do plano xy,
Vamos obter o valor de k, de modo que a função abaixo seja a densidade somamos os valores para a variável X e integramos para os de Y.
conjunta de três variáveis aleatórias contínuas X, Y e Z. Vamos supor que a função mista de probabilidade conjunta de X e Y é
dada por:
f(x,y,z) = {kxy 2 z seO ~ x ~ ~,0 ~ y ~ 1,0 ~ z ~ J2;
~'
{ O,
O caso contrário.
f(x,y) = 3 sex = 1,2,3e0 ~ y ~ 1;
A função será positiva, se k for positivo. Para valer a segunda propriedade da caso contrário.
função densidade conjunta, impomos que a integral tripla de menos a mais
infinito seja 1. Isto é Para verificar se essa função poderá gerar probabilidades, observamos que é
positiva e vamos mostrar que ao percorrer todos os valores possíveis para X e Y,
via soma ou integral conforme o caso, obtemos o valor 1. Existindo o resultado
1:1:1:/(x,y ,z)dxdydz = 1. dessa dupla operação, podemos fazê-la em qualquer ordem. Entretanto, é mais
fácil fazer a integral primeiro. Temos
Temos
3 t 3 {1 xyx-1 3 1
rv'2 { t
1
kxy 2 zdxdydz = rv'2f\y 2 z! dydz = rv'2 kz!6 dz = ~-6
lo
~lo f(x,y)dy = ~1o -3-dy =~3= 1;
lo lo lo lo lo 2
logo f(x, y) pode ser considerada uma probabilidade. Por exemplo,
Segue então que k = 6.
A marginal de X pode ser obtida, integrando-se em y e z para todos os
valores possíveis. Temos, para O ~ x < 1, P(X 2: 2, Y 2: 1/2) = t{
x=211/2
1
xy;- dy
1
= t(
x=2
1
- ~/ 2 Y) = 13/24.
fx(x) =
100100 f(x,y,z)dydz =
1../2116xy zdydz = 2x.
O
2
Para obter a função mista de distribuição conjunta, teremos que separar
-oo -oo O
várias regiões de valores do par (x, y). Após algum trabalho, obtemos:
Pela conjunta, sabemos que X tem valores apenas em [O, 1] e, portanto, o, se x < 1 ou y < O;
fx(x) = 2x I[o,1j(x). ll,
3
se 1 ~ x < 2,0 ~ y < 1;
ll±i se 2 ~ x < 3,0 ~ y < 1;
Logo, X ""' Beta(2, 1). As outras marginais são calculadas de modo similar. O 3 '
F(x,y) = liliC±Jl se x 2: 3, O~ y < 1;
'
Se as variáveis não são do mesmo tipo, ainda é possível a obtenção da 3
!, se 1 ~ x < 2, y 2: 1;
função de distribuição conjunta. Nesses casos não existe nomenclatura padrão. 3
Para a situação em que temos mistura da densidade com a função de
a,3 se 2 ~ x < 3, y 2: 1;
probabilidade, usaremos a notação das variáveis contínuas, indicando por f essas 1, se x 2: 3, y 2: 1.
funções. As propriedades são equivalentes aos casos sem mistura.
o
Exemplo 3.8: Função Mista (DeGroot e Schervich [02])
Ao tratar com vanas variáveis é comum haver interesse em obter o
Considere duas variáveis aleatórias X e Y, sendo X discreta e Y comportamento condicional de uma delas em função de outras. Os valores das
contínua. Nós podemos usar a função mista de probabilidade conjunta para variáveis induzem eventos e, portanto, ao condicionar na ocorrência de certos
(
( 128 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 129
(
(
( valores de uma variável, estamos, de fato, condicionando em eventos. Dessa Tomando B = ( -oo, x], x E JR, podemos obter a função de distribuição
forma, a definição de probabilidade condicional pode também ser aplicada para o condicional de X, dado Y = y:
( condicionamento entre variáveis aleatórias.
Observe que, na definição de uma variável aleatória X em (n, .r, P),
y _ ) _ P([X S x] n [Y = y]).
( FxiY (x I - Y - P(Y = y)
(
requeremos que o conjunto {w : X ( w) S x} estivesse em .r,
para todo x real.
Assim, a ocorrência de valores de uma variável pode ser descrita de duas formas:
Como conseqüência, temos:
( pelo próprio conjunto de valores assumidos, isto é, por um elemento de B(JR) (a-
(
álgebra de Borel em JR) ou por um evento da a-álgebra .r
que foi induzido por Fx(x) = LP(Y = y)FxiY(xl Y = y).
esse boreliano através da variável aleatória. Num estudo mais formal do y
( condicionamento em variáveis aleatórias, essas duas formas podem ser usadas
alternativamente conforme a conveniência da situação. Em algumas situações, é útil escrever a função de distribuição conjunta a partir da
(
Vamos restringir nossa apresentação ao caso bivariado, mas as idéias condicional:
( podem ser estendidas para o caso multivariado.
( Definição 3.6: Distribuição Condicional
Fx,y(x, y) =L P(Y = k)FxiY(xl Y = k).
k:kSy
( Sejam X e Y duas variáveis em (n, .r, P) e B 1 , B 2 E B(JR) com
Essa expressão é similar à regra do produto de probabilidades, aplicada aqui para
( P(Y E B2) >O. Definimos a distribuição condicional de X dado Y E B2, pela
variáveis aleatórias e função de distribuição.
expressão
( Se X também for discreta, a probabilidade condicional pode ser reescrita
P(X B Iy B ) = P([X E B1] n (Y E B2]). na notação de função de probabilidade da seguinte forma:
( 1 2
E E P(Y E B2)
_ Px,y(x,y).
( PXIY (X IY) - py(y)
(
Se P(Y E B2) = O, definimos P(X E B 1 1Y E B 2) = P(X E Bl). o
Apresentamos, a seguir, algumas fórmulas úteis para o cálculo com As outras fórmulas se adaptam convenientemente.
( probabilidades condicionais. Iniciamos com o condicionamento em uma variável Vamos considerar, agora, o condicionamento em variáveis contínuas.
( 1 discreta. Sendo Y contínua, é freqüente um abuso de notação indicando um
Seja Y uma variável discreta e y E lR tal que P(Y = y) > O. Sendo X condicionamento em eventos do tipo [Y = y] que tem probabilidade zero. Nesse
(
uma variável qualquer e B E B(JR), temos caso, a probabilidade condicional deve ser entendida como o limite de
( probabilidades condicionadas em [y- e S Y S y + t:] quando t:-+0. Isto é, para
P(X E Bl y = y) = P([X E B] n [Y = y]), X uma variável qualquer e B E B(JR),
(
P(Y = y)
P(X E Bl Y = y) = limP(X E Bl y- E S Y S Y + t:).
que, com alguma manipulação, resulta na expressão: f-->Ü
cuja expressão nada mais é do que a conjunta dividida pela marginal. A função de
f(2,y) =2y/3=2y O<y<1·
f( y lx =2)= P(X
distribuição condicional é definida de modo similar. Observe que o = 2) 1/3 ' - - '
relacionamento entre função densidade e função de distribuição também se
preserva com o condicionamento. Isto é, f( X IY -- 1/2) = f(x, 1/2) = l[x(1/2}"'-1 J = _! [x(1/2)"'-1] x =1
1
2 3·
jy(1/2) 11/12 11 ' ' '
FxiY(xiy) = ~~fx!Y(ziy) dz . os cálculos das marginais foram omitidos, mas podem ser feitos sem dificuldade.
Para as funções de distribuição condicionais teríamos:
Como conseqüência, as seguintes fórmulas são também válidas:
y ly 2
Fx ,y(x, y) = ~~Jy(z)FxiY(xiz)dz;
Para O:::; y :::; 1: Fy 1x(Yi X = 2) =
l _
00
/ (zi X= 2) dz = -oo 2z dz = Y,
e, portanto,
Fx(x) = J:Jy (y ) Fx!Y(xiy) dy.
se y < O;
se O:::; y :::; 1;
Ressaltamos que, de um modo mais geral, a função de distribuição se y > 1.
condicional pode ser caracterizada como a solução das seguintes equações (já
apresentadas): Por outro lado, para FxiY(xi Y = 1/2), x E lR. temos
Então, para qualquer y fixado, com O~ y ~ 1: Definição 3.7: Independência entre Variáveis
f(x,y) Duas variáveis aleatórias, X e Y em (n, F, 'P), são independentes se a
x+y 2(x+y) .
fxiY(xjy) = Jy(y) = y +
112
= 2y + 1 , para O ~ x ~ 1. informação sobre uma delas não altera a probabilidade de ocorrência da outra.
Isto é, para qualquer B1. B2 E B(R),
Fora desse intervalo, fxiY( xjy) é zero.
P(X E B1i Y E B2) = P(X E B1).
A função de distribuição condicional pode ser obtida a partir da
integração da densidade condicional. Assim, para qualquer y fixado com Uma definição alternativa e equivalente é:
O ~ y ~ 1 e O ~ x ~ 1, vem: X, Y independentes se, e somente se,
F (
XIY X
I )=
Y
r 2(z+y) d
}_co 2y + 1 Z
= x(2y+x),
2y + 1
VB1.B2 E B(R),P(XE B1,YE B2) = P(XE BI)P(YE B2).
o
e, portanto,
Note que não basta valer a igualdade para algumas escolhas dos
o, se x <O; borelianos B 1 e B 2 nau-álgebra B(R). É necessário valer para todas.
A definição alternativa é muito útil e freqüentemente mais prática de ser
FxiY(xjy) = x~::;>, se O ~ x < 1;
{ 1, se x 2: 1.
usada. Em tefl!I:OS da função de distribuição, a definição alternativa pode ser
escrita como:
A função de distribuição conjunta pode ser obtida a partir da condicional, X, Y independentes {::} Fx,v(x, y) = Fx(x) Fy(y), V(x, y) E R 2 •
da seguinte forma:
Para as discretas, podemos escrever uma definição equivalente com o uso de
o, se x < Oou y < O;
funções de probabilidade:
Hx2y+xy2), se O ~ x < 1,0 ~ y < 1;
Fx,v(x, y) = [~!v(z)FxiY(xiz) dz = Hx+x2), se O ~ x < 1,y ~ 1; X, Y independentes {::} Px,v(x, y) = px(x) py(y), V(x, y) E R 2 •
Hy+y2), se x ~ 1, O ~ y < 1;
Para as contínuas, a condição de independência usa as densidades:
1, se x ~ 1, y ~ 1.
X, Y independentes {::} !x,v(x, y) = fx(x) fy(y), V(x, y) E R 2 ,
Deixamos ao leitor a tarefa de verificar se essa expressão está correta, o que pode
ser feito calculando seu valor diretamente pela densidade conjunta. O em que ressaltamos que esta última igualdade deve valer exceto, eventualmente,
Um dos conceitos mais importantes em Probabilidade e Estatística é o da em conjuntos com probabilidade zero.
independência entre variáveis. Muitas das técnicas estatísticas só podem ser Em geral, dizemos que as variáveis X1. X2, .. ·, Xn definidas em um
aplicadas em amostras cujos elementos foram supostamente coletados de forma mesmo espaço de probabilidade (n, :F, 'P) são independentes, se
independente. Nesses casos, as variáveis observadas em uma unidade amostrai VB; E B(IR), i= 1, 2, .. ·, n, tivermos:
são independentes daquelas de uma outra unidade. De fato, a independência é um
n
requisito importante que permite resolver, com rigor matemático e sem
aproximações, muitos problemas de interesse prático. Como em muitas situações,
P(X1 E B1. .. ·, Xn E Bn) = 11P(X; E B;).
i=l
a independência não pode ser assumida, sua imposição serve como uma
aproximação da realidade e origina, nesses casos, uma solução também
aproximada.
134 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 135
•
Segue dessa expressão que qualquer sub-fanu1ia dessas variáveis também é Assim, a probabilidade de não haver casos de crianças alérgicas (X= 0), não
formada por variáveis independentes. A verificação é simples, bastando tomar os sofre influência da ocorrência ou não de casos de pneumonia. Entretanto, para
convenientes B; 's = JR. outros valores de X a situação é diferente, conforme apresentamos na tabela
abaixo:
Exemplo 3.11: Com base em resultados do Posto de Saúde do bairro, estabeleceu-
se a função de probabilidade conjunta entre os números diários de crianças X P(X = x jY > O) P (X = x jY = O)
atendidas com alergia (X) e com pneumonia (Y). Na tabela abaixo, apresentamos o 1/4 1/4
a conjunta e as marginais para essas variáveis. 1 1/6 1/2
X\Y o 1 2 P(X = x) 2 1/3 1/4
o 1/16 1/ 16 1/ 8 1/4 3 1/4 o
1 1/8 1/8 o 1/ 4 Observe que as probabilidades condicionais somente são iguais para [X= 0] .
2 1/ 16 1/ 8 1/8 5/16 Para os outros valores, a probabilidade condicional de X é crescente ou
3 o 1/ 8 1/ 16 3/16 decrescente, se condicionada ao evento [Y > O] ou [Y = 0], respectivamente.
P(Y = y) 1/4 7/ 16 5/16 1 Dessa forma, enfatizamos que as variáveis são dependentes. O
Se as variáveis fossem independentes, o produto das marginais daria a função de
probabilidade conjunta. Entretanto, isso não ocorre pois
.
Exemplo 3.12: A função densidade conjunta de X e Y é dada por:
1
!x,v(x, y) = x I(o,2j(x )I(o,xj( y).
P(X = 1, Y = 2) = O =f:. P(X = 1) x P(Y = 2) = 5/64. 2
Pela _definição de independência, basta haver um par em que isto não aconteça As marginais são calculadas através de integração:
para quebrar a propriedade de independência. Portanto, os números diários de 1 1
1
x
crianças atendidas com alergia e com pneumonia são variáveis dependentes. f x(x) = -dy
2x
= -2 , O < x:::; 2;
0
=1
Condicionado à ocorrência ou não de casos de pneumonia, como se
..!.._ dx = ~ ( log 2 - log y ) , O < y :::; 2.
2
comporta o número de crianças alérgicas? Pela dependência, esperamos fy (y)
comportamentos diferentes. Vamos calcular a função de probabilidade Y 2x 2
condicional de X dado o evento [Y > O] e comparar seu resultado com o É imediato verificar que f x (x) satisfaz as propriedades de uma densidade.
condicionamento em [Y = 0] . Temos Observe que para calcular a densidade de Y, os limites de integração obedeceram
à condição de que os valores da variável X precisam ser sempre superiores ao de
P(X = OjY O) = P(X = O, y > O) Y. A expressão obtida é efetivamente uma densidade, pois é não negativa (a
> P(Y >O)
função logarítmica é crescente) e também
P(X =O, Y = 1) + P(X =O, Y = 2)
= ---'---=P-:-:(Y~=--=-1:----)+--=P-7=(Y-=-=---=-2):-------'- 121-(log2-logy)dy= [1
-(ylog2-y(logy-1 )) ]2 =1.
= 1/4; 1 o
2
fy(y )dy=
o2 2 o
enquanto As densidades condicionais são calculadas pelo quociente entre a conjunta e a
marginal. Vamos indicar apenas os valores não nulos, temos:
P(X = OjY =O) = P(X =O, y =O) = 1/16 = 1/4.
P(Y =O) 1/4
136 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 137
É importante ressaltar que, no cálculo de densidades condicionais, a expresssão e elas não são iguais para quase todo (x, y) E JR.2. Em outras palavras, existe um
resultante é sempre função do valor usado no condicionamento. Dessa forma, conjunto, com probabilidade positiva, em que a condição de independência não se
fxjY(xiy) depende de y. Se estamos integrando essa função em x, o valor y pode verifica. O
ser considerado constante. Por exemplo, para y E {0, 2) vem Encerramos essa seção com a apresentação de dois modelos
multivariados. O modelo apresentado a seguir generaliza a distribuição Binomial
se 1y < 2;
~
P(X < 1IY = y) = t fxiY(xiy) dx = { OJ,,'
}11
1 d
11 x(log2-log11) X, seO<y<l.
ao tratar com experimentos que têm mais de duas alternativas de resultado.
Definição 3.8: Modelo Multinomial
Então, Considere um experimento com m possíveis resultados, cada um com
m
o, se 1 ~ y < 2; probabilidade p; ;::: O, i = 1, 2, · · ·, m e L.':P; = 1. Esse experimento é repetido n
P(X < 1IY = y) ={ logy
seO<y<l.
i=l
log11-log2 ' vezes de forma independente e observamos as variáveis X 1 ,X2, ···,Xm. que
correspondem ao número de ocorrências de cada um dos possíveis resultados
Temos também que, para x E {0, 2), temos dessas repetições. O vetor aleatório X = {X1 , X2, ... , Xm) segue o modelo
{ rmax(l/2,x) Multinomial com função de probabilidade conjunta dada por:
P(Y < 1/2IX = x) =Jo fvlx(yix) dy
( n'
Px( k 1 ' k 2' ... ' km) -- k, ! k2!. ·.. km! Plk1 P2k2 ... Pmkm '
_ { J;~dy, se O< x ~ 1/2;
m m
\ r' 12 ! dy se !2 <x< com L.':Pi = 1 e L.':k; = n, k; E N, O ~ k; ~ n. D
Jo x , - 2·,
( i=l i=l
1, se O< x ~ 1/2; Exemplo 3.13: Para 10 lançamentos independentes de um dado equilibrado seja
-
{
2~, se~ < x ~ 2. X; o número de ocorrências da face i, i= 1, 2, ... , 6. O vetor aleatório
X = (X,, X2, ... , X6) segue o modelo Multinomial com parâmetros p; = 1/6,
Outras probabilidades podem ser calculadas de modo similar. Deixamos ao leitor i = 1, 2, · · ·, 6. Assim,
a tarefa de verificar que fxiY(xiy) e fvlx(Yix) satisfazem as propriedades de uma
densidade.
Finalmente, observamos que as variáveis não são independentes, pois a
densidade conjunta não é o produto das marginais. Ou seja, temos D
1 Um dos modelos multivariados contínuos mais importante é aquele que
!x,v(x, y) = x I(o,2j(x)J(o,x]{Y),
2 generaliza a distribuição Normal. Vamos apresentar o caso bi-variado e
recomendamos a consulta às referências para o modelo geral.
138 Capítulo 3: Vetores Aleatórios 3.2 Vetores Aleatórios 139
Definição 3.9: Modelo Normal Bivariado em que, na última passagem, ajeitamos o integrando para obter a densidade
Dizemos que o vetor aleatório X= ( X~, X2) segue o modelo Normal correspondente a uma Normal com J.L = x/2 e a= [f. Logo, concluímos que
Bivariado se sua função densidade é dada por
e-f
1 fx(x) = rn=' -oo < x < oo;
y27l"
que corresponde à densidade da N(O, 1). De modo análogo, teríamos Y "'N(O, 1).
As variáveis não são independentes pois verificamos, facilmente, que o
com (x1,x 2 ) E JR2 e os parâmetros J.LI,J.L2,crhcr2 e p satisfazem às seguintes produto das marginais não resulta na densidade conjunta. D
condições: J.Ll e J.L2 estão em JR., cr1 > O, cr2 > Oe - 1 :S: p :S: 1. D Exercícios da Seção 3.2:
A interpretação dos parâmetros do modelo Normal Bivariado depende de 1. Sejam X e Y variáveis aleatórias em (O, :F, P) com função de distribuição
conceitos apresentados no Capítulo 5. Entretanto, adiantamos que J.L1 e J.L2 são as conjunta dada por Fx,Y· Mostre que P(a 1 <X :S: b1 ,a2 < Y :S: b2), com
médias e cr1 e CF2 são OS desvios-padrão de X 1 e X2, respectivamente. 0 a1, b1, a2 e b2 E JR., pode ser escrita como:
parâmetro p é o coeficiente de correlação entre as variáveis. Usualmente, os
parâmetros J.Ll e J.L 2 são denominados parâmetros de localização, enquanto que cr1 Fx,y(bl, b2) + Fx,y(a~, a~)- Fx,y(al, b2)- Fx,Y(bl, a2).
e cr2 são parâmetros de escala.
2. Mostre que H não é função de distribuição conjunta.
Exemplo 3.14: O vetor (X, Y) segue o modelo Normal Bivariado com
se max(x, y) 2:: O ou x 2 + y 2
parâmetros J.Lx = J.LY = 1, crx = cry = 1 e p = 1/2. Então sua densidade H (x,y) = { ~: caso contrário.
:::; 1;
conjunta é dada por:
3. A densidade conjunta de X e Y é dada por:
Jx ,y(x, y) = 1l"~ e-i(x2+fl-xyl,(x, y) E JR.2.
1
!x,Y(x, y) = 2 IA(x, y) com A= {(x, y) E JR. 2; -1 :S: x :S: 1, O :S: y :S: 1}.
Para a marginal de X temos
fx (x) = 1 00
-oo
fx,Y(x, y)dy = 100
1 2 2
;;;- e-i(x +Y - xy) dy
-oc 7ry 3
a. Calcule as marginais e verifique se X e Y são independentes.
b. Obtenha a densidade condicional de Y dado que X > O.
c. Determine a função de distribuição conjunta entre X e Y.
=e a 1oo - -
-~x2 1 ea -~( y2- xy) d y
4. Sejam X e Y com densidade conjunta:
-oc 7l"y'3
1
2 2 2x21oo
= e-ax eãT --e
1 _lu-t2
dy !x,y(x, y) = ;:fA(x, y) com A= {(x, y) E R; x 2 + y2 :S: 1}.
-oo 7l"y'3
a. Calcule as marginais e verifique se X e Y são independentes.
-- .J2ir
e-21
r2 00
-oo
1
.J2ir [f
e-;zm
(y- ~)2
dy
'
b. Determine a densidade condicional de X dado que Y = 1/2.
140 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 141
l, se -2 ~ x < 0,0 ~ y ~ 1; 10. Seja F(x, y) a função mista de distribuição conjunta de (X, Y). Suponha que
i• se O ~ x ~ 1,-2 ~ y <O;
F corresponde à densidade Uniforme Contínua sobre o intervalo (0, 1) do
!x,Y(x, y) =
{ eixo y de JR2 •
O, caso contrário.
a. Obtenha F.
a. Calcule as marginais e verifique se X e Y são independentes. b. Mostre que Fx(x) é contínua exceto se x =O.
b. Determine a função de distribuição conjunta entre X e Y. c. Prove que Fy(y) é contínua.
c. Obtenha a função de distribuição condicional de Y dado X= x. d. Você diria que (X, Y) é contínua se, e só se, sua função de distribuição
conjunta induz probabilidade zero a cada ponto (x, y) E JR2 ?
6. Seja Y"' Poisson(>..) e XI(Y = n) "' B(n, p).
a. Calcule a função de probabilidade de X. 3.3 Funções de Variáveis Aleatórias
b. Determine a função de probabilidade condicional de Y dado X= x.
Sendo X uma variável aleatória em (O, F, P), a função ou transformação
7. Um milionário excêntrico, uma vez por semana, deixa seu escritório com X h : X -+R também será uma variável aleatória no mesmo espaço de
milhares de reais no bolso. Ao caminhar para sua casa vai distribuindo esse probabilidade. Dado o conhecimento de X através de, por exemplo, sua função de
dinheiro aos eventuais pedintes que encontra. Admita que X tem densidade de distribuição, desejamos obter o comportamento de h(X). De modo geral,
probabilidade fx(x) = ~ I(o, 4 )(x) e, também que o dinheiro que lhe resta ao podemos ter uma fam1lia de funções atuando sobre um vetor aleatório
chegar em casa, denotado por Y, tem probabilidade uniforme entre zero e o X= (X1, X2, ... , Xm) para produzir um novo vetor aleatório
dinheiro com que deixou o escritório. Isto é, YI(X = x)"' Uc[O, x]. Y = (Yi , Y2, ... , Y;.) de dimensão r, eventualmente igual a m. Nesse caso, X é
a. Calcule a densidade conjunta entre X e Y. um vetor com função de distribuição conjunta conhecida e desejamos o
b. Determine a densidade marginal de Y. comportamento de Y. As dificuldades envolvidas nessa tarefa dependem das
variáveis iniciais e da função de interesse. Em termos matemáticos gerais,
8. A função de distribuição conjunta de (X, Y) é dada por:
dizemos que Y é uma transformação de X.
o, se x < Oou y < O ou x ~ y; Para obter o comportamento probabilístico de transformações uma técnica
2x2y2-x4'
se O ~ x < y, O ~ y < 2; muito conveniente, principalmente no caso discreto, é o chamado método direto.
F. X -
,\,Y( 'y) -
16
8x2-x4' Ele consiste em realizar operações algébricas simples, aplicando a definição da
{ 16 se O ~ x < 2, y ~ 2; transformação diretamente na expressão da função de distribuição (ou função
1, se x ~ 2, y ~ 2, x < y. densidade ou de probabilidade conforme o caso).
Sejam X 1 e X2 duas variáveis discretas com função de probabilidade
a. Obtenha as funções de distribuição marginais de X e Y.
conjunta p(x1,x2) e defina Y = h(X1 ,X2). A variável Y também será discreta
b. Calcule a densidade conjunta entre X e Y.
com valores no contra-domínio da função h. Sua função de probabilidade é dada
c. Calcule as densidades marginais de X e Y de duas maneiras diferentes. por:
9. Considere a função:
lt!:!. se x = O, 1, · · · e y > O;
py(y) = P(Y = y) = P(h(X1, X2) = y) = L p(x1, x2),
fxJY(xiy) = { x! '
(Xi>X2)EAu
o, caso contrário.
em que Ay = {(x 1 , x2) : h(x 1 , x2) = y}. Isto é, para cada y fixado, a soma se dá
a. Mostre que, para cada y fixado, f(.iy) é uma função de probabilidade. em todos os pares (xb x2) cuja aplicação da função h resulta no valor y. A função
b. Determine a conjunta de X e Y se Y "'Exp(1). de distribuição de Y pode ser obtida de maneira análoga.
142 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 143
No caso de funções de variáveis contínuas, é mais conveniente obter Para a conjunta entre X + Y e X - Y, utilizamos novamente a tabela acima
primeiro a função de distribuição. Por exemplo, considere duas variáveis coletando os eventuais pares comuns (que nesse caso não existem):
contínuas xl e x2 com função densidade conjunta f(xl, X2). Seja -2 -1 o 1
X+Y\X-Y
Y = h(X1,X2), temos o
o o o 1/4
Fy(y) = P(Y ~ y) = P(h(X1, X2) ~ y) = 1 o 1/8 o 1/4
o o o
= P((X1, X2) E By) =f f f(x1. x2) dx1 dx2, 2
3
1/8
o 1/4 o o
By
A partir dessa conjunta, outros cálculos de probabilidade podem ser feitos. O
sendo By = {(xb x2) : h(x1, x2) ~ y}. A densidade de Y pode ser calculada por
Exemplo 3.16: Seja X uma variável aleatória contínua com densidade
derivação de Fy(y). Entretanto, às vezes, a densidade pode ser obtida diretamente
f(x) = 4Ir1,3J(x). Vamos obter a função de distribuição e a função densidade de
se for possível reescrever a integral dupla acima na forma:
Y=ex.
Observe que Y será contínua e com valores no intervalo [e, e3]. Sendo
Fy(y) = ~-~g(w)dw. Fy sua função de distribuição, temos de imediato que Fy(y) =O se y < e e
Fy(y) = 1 se y;::: e3 . Para e~ y <é,
Nesse caso, g é a densidade da variável Y.
Fy(y) = P(Y ~ y) = P(ex ~ y) =
Exemplo 3.15: A função de probabilidade conjunta de X e Y é dada na tabela
logy 1 logy- 1
abaixo: = P(X ~ logy) = j
-oo 2l[l,a]dx = 2
. ·
X\Y o 1 2
o 1/4 1/8 1/8 Dessa forma,
1 1/4 o 1/4 o, se y <e;
_ logy-1
Vamos obter o comportamento de X+ Y e X- Y. Uma forma prática de obter Fy (y ) - , se e~ y < e3 ;
as funções de probabilidade dessas variáveis é construir, inicialmente, uma tabela
{ 1, 2 sey;::: é.
com seus valores a partir da conjunta de X e Y.
(X,Y) p(x,y) X+Y X-Y O leitor pode verificar que a densidade de Y é dada por Jy(y) = ty I[e,e3J· O
(0,0) 1/4 o o Exemplo 3.17: Considere a variável aleatória contínua X com valores entre O e 3
(0, 1) 1/8 1 -1 e densidade fx(x) = ~ Iro,aJ(x). A partir dessa variável, uma nova variável é
(0,2) 1/8 2 -2 definida da seguinte forma:
(1, O) 1/4 1 1
(1,2) 1/4 3 -1 se 2 <X~ 3;
caso contrário.
Segue, então, que as funções de probabilidade de interesse são
e X- Y -2 -1 O 1 A variável Y será do tipo misto. Sempre que X estiver em (2, 3], o valor de Y
X+Y O 1 2 3
será 3. A função de diStribuiçã~e Y será dada por:
prob. 1/4 3/8 1/8 1/4 prob. 1/8 3/8 1/4 1/4
144 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 145
F (z ) = o, . se z <O;
z { 1 + e-z - 2e- ~ , se z ~O .
Figura 3.3: Função de Distribuição Mista. O próximo exemplo apresenta uma situação que pode surpreender vários
leitores. Partindo de variáveis discretas relativamente simples, tomamos uma
Suponha, agora, que queremos determinar P(Y < 21 Y ~ 1). Temos: função dessas variáveis, também relativamente simples, para produzir uma nova
variável bem mais complicada e que não tem nada de simples! O exemplo retoma
P(Y < 21 y > 1) = P([Y < 2] n [Y > 1]) o conceito de função singular apresentado no capítulo anterior.
- P(Y ~ 1)
Exemplo 3.19: Função Singular-tipo Cantor (Dudewicz e Mishra [88])
_ P(1 $ Y < 2) Considere sucessivos lançamentos independentes de uma moeda
- P(Y ~ 1) equilibrada. Definindo como sucesso a ocorrência de cara, temos que
X1, X 2 , ···,formam um sequência de variáveis de Bernoulli independentes.
= Fy(2 - )- Fy(l - ) = _ Assim,
112
1-Fy(1-) P(Xi = 1) = 1/2, i= 1, 2, .. · .
o Sendo a ocorrência de sucesso no lançamento i recompensada por 3/4i
(em alguma unidade monetária), estamos interessados na função de distribuição
- 146 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 147
I,
li de modo análogo, concluímos P(W = 3/4) =O. De fato, podemos repetir esse
do ganho total. Conforme veremos essa função será do tipo singular, isto é, será ' I
contínua e com derivada igual a zero em quase toda parte (a massa de I argumento de modo que, para qualquer valor k, teremos P(W = k) = O. Então,
probabilidade onde isto não ocorre é igual a 0). para o intervalo i : :;
w :::; t,
P(W :::; w) = P(Xt =O) = 1/2.
Denotando por W a variável ganho vem Resumindo, o que temos até agora para F, é o seguinte:
00 3 o, se w :::; O;
W= L4iX; . F (w ) = P (W :::; w) ={ 1/2, se l4<
-
w <
-
;!.
4'
i=l
1, se w ~ 1.
Observe que O :::; W :::; 1, pois para cara em todos os lançamentos (isto é,
00 Temos 2 intervalos em que F ainda não está definida, a saber, (0, 1/4) e (3/ 4, 1).
Xt = x2 = ... = 1), temos Ei = 1. Daí decorre que já podemos saber alguns O gráfico correspondente ao que já calculamos é apresentado na figura a seguir.
i=l
valores parciais da função de distribuição. Para w < O, ela tem valor O e para
w ~ 1, vale 1. Lembrando que as funções de distribuição são contínuas à direita,
F(w)
o ponto w = O poderia ser um candidato a uma descontinuidade à esquerda e,
assim, F não seria contínua. Entretanto, isso não ocorre uma vez que:
F(O) = P(W :::; O) = F(o-) + P(W =O)
= O+ P(Xt = X2 = · · · = O)
= lim ( ~ ) k =O.
k-->oo 2 112
=
1 w
2P(4 ~ w) 1116
iI
3116
I
13/16
i
IS/16
I
o 1/4 w
3/4 I
1
= F(4w).
2 Figura 3.5: Construção da Função de Distribuição- tipo Cantor (continuação).
De acordo com o que já sabemos de F, temos para 1/4 < 4w < 3/4,
F(4w) = 1/2. Assim, para 1/16 ~ w ~ 3/16 vem F(w) = 1/4, uma vez.q~e os Observe que, nos três sub-intervalos de (O, 1) já analisados, a função de
extremos não contribuem com probabilidade positiva. Restam sem defimçao os distribuição é constante. O maior salto, que indicaria descontinuidade de F, não
intervalos (0, 1/16) e (3/16, 1/4). poderia ultrapassar l/4 pois trata-se de uma função monótona não decrescente. Os
Para 3/4 < w <!,procedemos de modo análogo. intervalos já definidos têm comprimento total de 3/4 e cada um dos quatro
F(w) = P(W ~ w) = P(W ~ w,X1 =O)+ P(W ~ w,X1 = 1) restantes tem comprimento 1/16.
00 Usando o mesmo raciocínio desenvolvido acima, conseguimos definir F
= 1 +P(L 43;X; ~ w,X1 = 1) em um sub-intervalo de cada um dos intervalos ainda sem definição. Por exemplo,
2 •=1 no intervalo (0, 1/16), definimos F(w) = 1/8 para 1/64 ~ w ~ 3/64 e restarão,
00
sem definição, os intervalos (0, 1/64) e (3/64, 3/16).
=-+P((-+L;X;) ~w,X1=l
1 3 3 )
2 4 i=2 4 De modo geral, cada intervalo restante é dividido em 4 partes e, para os
00 dois sub-intervalos centrais, F será constante e igual à média dos valores já
1 +P(" -,X;
=- 3 < w--3) P(X1 = 1) atribuídos aos intervalos mais próximos, que já têm probabilidade determinada. O
2 ~4 1 - 4
1=2 valor máximo de um eventual salto de F está limitado à metade da diferença entre
1 1 w 3 seus valores vizinhos. Usando indução matemática, após n etapas, teremos já
= 2 + 2P(4 ~ w- 4) definido o valor de F em 1 + 2 + 22 + 23 + · · ·2n-l intervalos. Eles terão
1 1 3 comprimento total de 2- 1 + 2- 2 + 2- 3 + · · ·2-n = 1- 1/2n. Tomando o limite,
= 2 + 2F(4(w- 4)). quando o número de etapas vai a infinito, concluímos: F será contínua em todo IR
e com F(O) =O e F(l) = 1. Os sub-intervalos de [0, 1], em que F é constante,
Então, F(w) = 3/4para 13/16 ~ w ~ 15/16 e resta defini~, o valor.de F em têm comprimento total igual a 1. Além disso, como a derivada de uma constante é
(3/4, 13/16) e (15/16, 1). O gráfico de F com os valores Ja conhecidos até o
zero, temos F' (w) = O para quase todo w E IR. Logo, F é uma função de
momento é representado na figura a seguir.
distribuição do tipo singular. A construção exibida neste exemplo é uma variante
do que é conhecido como Função de Cantor (ver Chae [80]). D
150 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 151
F
em que usamos a proposição anterior e, na última igualdade, a continuidade de X .
F
Yo ,., Essa continuidade ainda implica que F(F- 1 (y)) = y. Então
Considere, agora, a recíproca. Suponha que U"' Uc[O, 1] e X= F- 1(Uf Um importante resultado referente a um vetor de variáveis aleatórias
Temos independentes é aquele que garante que funções disjuntas de variáveis
independentes sejam independentes. Um caso particular é demonstrado no
P(X:::; x) = P(F- 1 (U):::; x) = P(U :::; F(x)) = F(x). próximo exemplo.
Logo a variável aleatória X tem distribuição F. o Exemplo 3.21: Famaias disjuntas de variáveis independentes
Em simulação é comum a necessidade de gerar valores de uma certa Sejam X h X 2 , · · ·, Xn variáveis aleatórias independentes num mesmo
variável com uma distribuição determinada F. Pela proposição acima, isto pode espaço de probabilidade. Com o uso de duas funções 91 e 92 defina as variáveis
ser feito gerando um valor aleatório da Uniforme Continua em [0, 1], digamos u, e Y1 e Y2 tais que:
tomando x = F - 1 (u). Valores do tipo u são conhecidos como números pseudo-
aleatórios. Esses números imitam a escolha, feita ao acaso, de valores do
Yi = 91( X1,X2, ···,Xm) e Y2 = 92( Xm+l,Xm+2, ···,Xn); 1:::; m < n.
intervalo [0, 1]. O que podemos dizer sobre a independência entre Y1 e Y2?
Os números pseudo-aleatórios têm essa denominação pois são gerados Inicialmente, observamos que as variáveis são funções disjuntas de
por algoritimos determinísticos e devem aparentar terem sido sorteados de forma X 1 , X 2 , · · ·, Xn. Sendo que Yi é função das primeiras m variáveis, enquanto Y2
independente e aleatória. Isto significa que, tomando uma grande quantidade das restantes n - m. Assim, temos que 91 : Rm-+ R e 92 : Rn-m-+ R
deles, esperaríamos que estivessem espalhados uniformemente em [O, 1]. Muitos Sejam B 1 e B 2 dois borelianos quaisquer dos reais, lembramos que
programas de computador já incluem rotinas de geração de números aleatórios em
suas bibliotecas. O próximo exemplo ilustra essas idéias. Y1 1(Bl) = { (x1, x2, · · ·, Xm) E Rm : 91 (xl, X2, · · ·, Xm) E B1},
Exemplo 3.20: Geração de Valores Aleatórios (DeGroot e Schervich [02]) e, então, [Yi.EB 1 ] é equivalente a [(X1 ,X2,···,Xm)Eg1 1 (BI)]. De modo
Suponha que temos a disposição algum software com um gerador de análogo, [Y2 E B2] e [(Xm+l• Xm+2• · · ·, Xn) E Y2 1 (B2)] são equivalentes.
números pseudo-aleatórios e independentes da Uc[O, 1]. Desejamos gerar valores Para verificar a independência entre Yi e }2, note que
de uma variável X que tem densidade f(x) = !{2- x)I(o, 2 )(x). P([Yi E B1], [Y2 E B2]) é igual a
A correspondente função de distribuição é dada por:
P([(X1, X2, ···,Xm) E 91 1 (BI)], [(Xm+l,Xm+2• ···,Xn) E Y2 1 (B2)J),
o, X :::; O;
F(x) =
{ x- 't• 0 <X:::; 2; o qual, por sua vez, é igual ao produto
1, X> 2.
Para obter a inversa resolvemos a equação y = F(x) em x, sendo que
y E (0, 1) é o domínio da função inversa. Basta considerar a expressão de F(x) pela definição de independência de vetores aleatórios. Mas, essa última
para o intervalo (0, 2]. A solução, com uma das raízes sendo desprezada, fornece: probabilidade pode ser escrita, utilizando novamente o argumento de equivalência
x = F- 1 (y) = 2(1- JI=Y") para y E (0, 1). mencionado acima, como P([Yi E BI]) P([Y2 E B2]). Fica, assim, verificado a
Suponha que geramos, aleatoriamente e de forma independente, três independência entre Y1 e }2. O
valores da distribuição Uc[O, 1]: Y1 = O, 4125; Y2 = O, 0894 e Y3 = O, 8302.
Algumas funções de variáveis aleatórias merecem destaque, pois
Aplicando esses valores na expressão da função inversa, obtemos:
aparecem com grande freqüência em aplicações. As expressões referentes ao
X 1 = 0, 4670; x 2 = 0, 0914 e x 3 = 1, 1759.
comportamento probabilístico da soma, diferença, produto, quociente, mínimo e
Dessa forma, obtemos três observações independentes da variável X. O
máximo entre variáveis aleatórias são apresentadas nas próximas proposições.
I
154 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 155
Proposição 3.6: Densidade da Soma e da Diferença de Variáveis em que fizemos a substituição x = u + y. Invertendo a ordem de integração e
Dadas duas variáveis aleatórias contínuas X e Y com densidade conjunta derivando, obtemos a densidade f x-Y(w) = f~oofx,y(w + y, y) dy. O
!x,Y . então a função densidade da soma e da diferença entre essas variáveis são Observe que se X e Y forem independentes a densidade conjunta pode
dadas por, respectivamente: ser escrita como o produto das densidades marginais, simplificando as expressões.
No caso independente, a densidade da soma recebe o nome de convolução das
fx+Y(z) = f : ! x,Y(x, z- x) dx ; densidades de X e Y. A proposição anterior tem, também, uma versão para o caso
discreto que não será apresentada.
fx-Y( w ) = f : ! x,y(w + y,y)dy. Exemplo 3.22: A densidade conjunta das variáveis X e Y é dada pela expressão:
1
Demonstração: Jx ,y(x, y ) = 3 (x + y)I(o,2j(x)I(o,l](Y)·
Para a soma, com Bz = {(x, y) : x + y :$ z }, temos:
Vamos obter a densidade de X + Y. Temos,
Fx+Y(z) = P(X + Y :$ z) = P ((X, Y) E B, ) =f f f x,y(x, y )dxdy;
Bz
fx+y(z) =
1 00
_ /x,y(x, z- x ) dx =
00
/00 1
_ 3 z I(o,2j(x)I(o,l](z- x) dx.
00
Então, Avaliando o comportamento dos indicadores, teremos (ver figura a seguir):
r1
Capítulo 3: Vetores Aleatórios
z2
3.3 Funções de Variáveis Aleatórias 157
fx~,x2 (x, y ) = À2e-A(x+y), O < x < oo, O < y < oo. P(Xt 2: 2) = P(Yi + Y2 < t) = 1 - e-At - Àt e-"1 •
Então Note que a mesma expressão resultaria se o modelo Poisson (At) fosse usado para
X 1• De fato, para qualquer n, a variável X 1 terá distribuição de Poisson com
parâmetro Àt . A prova pode ser feita por indução finita e integração por partes. O
158 Capítulo 3: Vetores Aleatórios 3.3 Funções de Variáveis Aleatórias 159
Dizemos que a distribuição Normal se reproduz, porque a soma de Proposição 3.7: Distribuição do Mínimo e do Máximo
Normais independentes também tem distribuição Normal. Essa propriedade vale Considere o conjunto X1, X2, ... , Xm de variáveis aleatórias
também para outros modelos, entre eles, Binomial, Poisson e Gama. independentes, cujas funções de distribuição são F1, F2, ... , Fm, respectivamente.
Vamos verificar que a soma de duas Normais Padrão independentes é As expressões da função de distribuição de Y1 = rnin(X1, X2, ... , Xm) e
Normal com JL = O e a 2 = 2. O caso geral pode ser demonstrado, mais Ym = max(X1, X 2, ... , Xm) são dadas, respectivamente, por:
facilmente, com o uso da função geradora de momentos a ser definida no Capítulo m
5. Fy,(z) = 1- I1[1- Fx;(z)];
Sejam X 1 e X 2 duas variáveis aleatórias independentes com distribuição i=l
N(O, 1). Para a distribuição da soma temos m
Fym(w) = ITFx;(w).
Fx,+x2 (z) = P(X1 + X2::; z) = = 1:1:x fx,,x 2 (x, y) dxdy;
Demonstração:
i=l
fx,+x 2 (z) =
1
rn=
1 ,2100
r;:; e- 4
1 1
rn= -1() e
_! (r-•/2r
2
7i12 dx.
Pela independência entre as variáveis, temos
m
V 271' V 2 -oo V 271' V2 P(Ym::; w) = P(X1::; w) ··· P(Xm::; w) = ITFx; (w).
i=l
O integrando corresponde à densidade de uma Normal com JL = z/2 e a 2 = 1/2. Se as variáveis forem identicamente distribuídas, as expressões podem ser
Logo a integral vale 1 e o termo restante é a densidade N(O, 2). O apresentadas em forma de potências da função de distribuição comum. O
160 Capítulo 3: Vetores Aleatórios
3.3 Funções de Variáveis Aleatórias 161
= y ! x,Y(sy, y) dy] ds
Demonstração:
Aplicamos o método direto, mas o resultado também poderia ser obtido = [~[[:\y\fx,Y(sy, y)dy ]ds.
via o método do Jacobiano a ser apresentado a seguir nesta seção.
Vamos iniciar obtendo a função de distribuição do produto XY. Com
B u = {(x, y): x y :::; u} , vem Fxy(u) = P(XY :::; u) = f f f x,y(x, y) dx dy. Derivando, obtemos:
8Fx;y(v)
a = [x;y(v) =
loo \y\fx,y(vy, y) dy. o
Bu
Assumimos x '# Oe precisamos separar os casos x > O e x < O. Então,
V -oo
Para as variáveis contínuas, pode-se usar o Método do Jacobiano,
[1ao fx .Y(x, y)dy] dx +1 ao [lujx f x,y(i, y)dy] dx,
0 utilizado em Cálculo Diferencial, para obter a distribuição de transformações de
Fxy(u) =
1-ao ujx -ao O variáveis aleatórias. O método é apresentado a seguir sem demonstração formal.
Seja X = (X 1, X 2 , • •• , Xm) um vetor aleatório contínuo com densidade
que, após a substituição s = xy, vem:
fx(x) conhecida. O vetor aleatório Y = (Y1 , Y2, ... , Ym) é uma transformação g
( 1-oo° [1-oo
Fxy u) =
u
8
[lu-ao f xx(x, -X)ds]X- dx
- dx + 1 ao
fx .Y(x, - )ds]
X X O
8 (multidimensional) do vetor X. Em notação simplificada, podemos escrever
Y = g(X) = (g1(X) , g2 (X) , · · ·, 9m (X)), de modo que Y; = g;(X1 , X2, ... , Xm)
l-ao 1
0 contínuas e que o Jacobiano da transformação seja diferente de zero para todos os
00
8 pontos (x 1, x2, ... , Xm); isto é
= u
[ -1 Jx,y(x,- )dx]ds .
-ex: 1X 1 X
!!1l! !!1l! ~
Aplicando a ~erivada, obtemos a densidade âx 1 âx2 8x 111
8Fxy(u)
8u = f xy (u) =
1 00
-ov
1 u
~ /x,Y(X,;;) dx .
J9 (x) =
!!91.
âx,
!!91.
âx2
Êi:L
âx,, -::p O.
determina, de modo único, os x; 's em função de (YI. y2, ... , Ym)· Em outras
palavras, isto significa dizer que g é bijetora. Representamos a solução do sistema
por x = h(y), ou seja,
X!= hl(Y1,Y2,···•Ym)i
X2 = h2(Y1,Y2,···,Ym);
Exemplo 3.27: Considere o vetor aleatório X com densidade Exemplo 3.28: (DeGroot e Schervich [02])
Considere o vetor aleatório X com densidade
fx(x) = .À 3 e-A(xt+x2 +x3 ) I(o,oo) (xt)I(o,oo) (x2)l(o,oo) (x3), .À > O.
fx(x) = 4xtX2 I(o,t)(xl)J(o,l)(x2)·
Estamos interessados em Y = (Yi., }'2, Ya) tal que
Estamos interessados em Y = (Yt, Y2) tal que
Yt = X1;
Y2 = x1 +X2; Yt = XdX2;
Ya = x1 + x2 + X3. Y2 = X1X2.
como não depende de x, podemos já estabelecer IJ9 (h(y))I-I = 1/3. Estamos no caso univariado e, portanto, não precisamos calcular o determinante.
O sistema Basta derivar a função g para obter J9 (x) = 2x. Logo,
YI = Xt + Xz + X3; J9 (h( 1>(y)) = -2y'y em VI e J9 (h< 2>(y)) = 2y'y em Vz.
Yz =XI- xz;
Y3 =XI- XJ, Segue, então
tem solução única dada por
o
168 Capítulo 3: Vetores Aleatórios 3.4 Exercícios 169
Exercícios da Seção 3.3: 10. Sendo X rv N(O, 1), verifique que X 2 tem distribuição Qui-quadrado com I
1. Seja X uma variável aleatória com função de distribuição F e sejam a e b grau de liberdade usando:
constantes reais. Determine a função de distribuição das seguintes variáveis a. O método direto.
aleatórias: b. O método do Jacobiano.
a. -X.
b. aX + b, com a =/: O.
3. 4 Exercícios
c.XI(a,b)(X), supondo 1 < a < b. 1. Sendo X e Y variáveis aleatórias em (O, F , P), mostre que min(X, Y) e
d. Comente as diferenças nas soluções se X é discreta ou contínua. max(X, Y) também são variáveis aleatórias.
2. Seja X uma variável aleatória com função de distribuição F. Considere uma 2. Para X e Y variáveis aleatórias em {O, F, P), verifique que os conjuntos
função h : X -+ R bijetora. Expresse, em função de F, a função de [X < Y] , [X = Y] e [X > Y] pertencem a a-álgebra F.
distribuição de h( X), nos seguintes casos: 3. Mostre que A 1 ,A2 , · ··,An são eventos independentes se e só se
a. A função h é monótona não decrescente.
lAp 1A2 , ···,lA" forem variáveis aleatórias independentes.
b. A função h é monótona não crescente.
4. Para as variáveis discretas, as expressões de soma e diferença de duas variáveis
3. A variável X tem função de distribuição F . Para Y = X 2 , obtenha Fy{y). são similares ao caso contínuo. Verifique as expressões abaixo:
4. Sejam X e Y rv N(O, 1), independentes. Obtenha a densidade de 2X + Y.
PX+Y(z) = L P(X = x, Y = z- x) = LPx,v(x,z- x);
5. Suponha que X e Y são variáveis independentes e com densidade Exponencial X X
6. Sejam X e Y rv Exp(1 ), independentes. Obtenha a densidade de X- Y . Se X e Y forem independentes, essas expressões se transformam em
7. A densidade conjunta de {X, Y ) é f (x, y) = 2{x + y) I {o<x<y< 1}(x, y). Px+Y(z) = LPx(x) py(z- x);
a. Determine a densidade de X + Y. X
8. A densidade conjunta de {X, Y) é dada por: 5. Seja X uma variável aleatória com função de distribuição Fx . Seja Y = h(X)
com função de distribuição Fy . Mostre que:
f (x , y) = { f,;e-f..-y, -oo < x < oo, y 2: O; a. Fx,v(x, y) = min{Fx(x), Fy(y)} , se h é monótona crescente.
O, caso contrário. b. Fx,v(x, y) = max{ Fx(x) + Fy(y)- 1, 0}, se h é monótona decrescente.
8. Seja F( .) a função de distribuição de alguma variável aleatória. Para as funções b. A distribuição condicional de X, dada a soma X+ Y, é Hipergeométrica
G, definidas abaixo, avalie quais podem ser função de distribuição conjunta: com parâmetros que não dependem de p.
a. G(x , y) = F(x) + F(y); x, y E R 17. Obtenha a conjunta de X e Y e a marginal de Y, sendo dados:
b. G(x , y ) = F(x )F(y); x, y ER
Px(x) = xj3,x = 1,2; PYjx(yJx) = (:) G r . y E N, y :5 xex = 1, 2.
c. G(x, y ) = F (x )/ F(y ); x, y E R
d. G(x, y) = max(F (x) , F (y)); x, y E R 18. Mostre que, sendo X e Y variáveis independentes com distribuição Poisson
de parâmetros >. 1 e >. 2 , respectivamente, temos que:
e. G(x, y) = min(F(x) , F(y )); x, y E R
a. A soma X + Y é Poisson.
9. Considere X"' Poisson(2). Defina Y pelo truncamento de X que impede b. A distribuição condicional de X, dada a soma X + Y , é Binomial.
valores superiores a 2. Assim, Y tem o valor 2 sempre que X ~ 2. Obtenha a 19. Defina Y como a restrição de uma variável Exponencial (2), em valores
função de distribuição de Y.
superiores a uma dada constante a (a > 0) .
10. Sendo F(x , y) a distribuição conjunta de X e Y, defina Z= max(X, Y) e a. Determine a densidade de Y .
W = min(X, Y). Mostre que: b. Calcule P (Y > a + 1JY <a+ 2).
a. Fz (z) = F(z, z), V z E R 20. Considere X "' Uc(O, 1). Para que função g, estritamente decrescente, temos
b. Fw(w) = Fx( w) + Fy(w)- F(w, w), Vw E R
g( X) com distribuição Exponencial de parâmetro 1?
11. Seja X "' B(n = 5, p = 1/2) e defina Y = ~(max (X , 4) + min(X, 2)). 21. Seja X "'N(O, 1) e defina Y = ex. A variável Y segue o modelo Lognormal
a. Obtenha p(y ) e Fy . de parâmetros O e 1. Obtenha a densidade de Y. ·
b. Calcule P(Y :5 2) e P(Y > 2JY :5 4).
22. Indique para quais valores de a, a função abaixo é densidade.
12. Para X "' Poisson(2), defina Y = max(min(X , 4), max(X, 2)).
a. Obtenha p(y) e Fy . f (x, y) = ( 1 - a( 1 - 2x)(1 - 2y) )I(o,t)(x)I(o,t)(y).
b. Calcule P(Y > 1) e P (Y > 1JY :53).
13. Suponha que X e Y são variáveis aleatórias, independentes e identicamente 23. A densidade conjunta de X e Y é dada por:
distribuídas, com valores -1 e 1 com mesma probabilidade. Verifique se X e
Z = XY são independentes. fx,Y(x, y ) = ~ [ 1 + xy(x2 - y
2
)] J{-t,l)(x)J(- t,l)(y).
14. Uma uma contém bolas numeradas de 1 a 3. Duas retiradas são feitas sem a. Verifique que f satisfaz as propriedades de função densidade conjunta.
reposição. Defina as variáveis X e Y como, respectivamente, o menor e o b. Calcule P(X > OJ Y > 0).
maior valor observado. Obtenha a conjunta dessas variáveis e verifique se são
independentes. 24. As variáveis X e Y têm a seguinte densidade conjunta:
15. Sejam X e Y duas variáveis independentes com distribuição Geométrica de Jx,Y(x, y) = e-Y(l- e-x)l(o,yj(x)I[o,oo)(Y) + e- x(l- e-Y)J(o,xj(y)I[o,x)(x).
parâmetro p. Determine P(X = Y). a. Mostre que f satisfaz as propriedades de função densidade conjunta.
16. Para X e Y independentes com distribuição Binomial de parâmetros ( n1, p) e b. Determine P(X > 1, Y < 2).
(n2, p), respectivamente, verifique que: c. Obtenha as marginais.
a. A soma X + Y também segue o modelo Binomial. d. As variáveis são independentes? Justifique.
......
3.4 Exercícios 173
172 Capítulo 3: Vetores Aleatórios
{J(a, b) = 1 1
xa- 1 (1- x)b- 1 dx; a, b > O.
35. Para X"' Exp(2), defina Y = max(X, 2).
a. Obtenha Fy.
b. Apresente Fy como combinação linear de funções de distribuição discreta,
singular e absolutamente contínua.
Temos ainda a relação {J(a b) = r(a)r(b).
' r(a+b)
-
r--
r
36. Seja X "' Exp( .X) e defina Y da seguinte forma: 41. As variáveis aleatórias X 1 e X 2 são independentes e têm densidade comum
Exp(.X).
1, se X< 1;
Y= X, se 1 :5 X< 2; a. Obtenha a função densidade conjunta das variáveis Y1 = min(X1, X2) e
{ Y2 = max(XI. X2).
2, se X~ 2.
b. Determine a densidade de Y2 - Y1l Yt.
a. Classifique Y e obtenha sua função de distribuição.
42.Sejam X e Y independentes com distribuição Uc(O, 1). Defina W =X- Y e
b. Decomponha a função de distribuição nas suas partes discreta e contínua.
Z=X+Y.
37. Sendo X uma variável aleatória contínua com densidade: a. Obtenha a densidade conjunta de W e Z.
1
4x, 0 :$X< 2; b. Determine P(Z > 3W).
f(x) = A, 2 :$X< 6; 43. As variáveis aleatórias contínuas X e Y são independentes, identicamente
{
o, caso contrário. distribuídas e têm densidade Exp(1). Através do método do Jacobiano,
obtenha a conjunta e as marginais de U = 2X + Y e V = 2X - Y e
a. Determine a função de distribuição de Y = min(3, X). verifique se são independentes.
b. Calcule P(Y < 31 Y ~ 2) e P(Y :5 31 Y > 2).
c. Faça a decomposição de Fy nas suas partes discreta, contínua e singular. 44. Considere as variáveis X e Y independentes e identicamente distribuídas com
densidade Normal Padrão. Defina U = X + Y e V = X fY.
38. Seja X uma variável aleatória com densidade:
a. Obtenha a densidade conjunta de U e V.
i x se O :5 x :5 2; b. Mostre que V tem densidade Cauchy Padrão.
f(x) = k se 2 <x :56; 45. Se XI e x2 tem função densidade conjunta:
{ O se caso contrário. 1 2 2 )
!x1,X2 (x1,x2) = 2Cx1- x2)IA(XI.X2
Defina uma nova variável Y = max{min(3, X), 2 }. Obtenha pac(y) e pd(y).
39. Sejam X, Y e Z variáveis aleatórias independentes com X e Y, tendo com A= {(xi,x2) E 'R};xl E (0,2),lx21 < x1.lx2l < 2 -xt}, obtenha a
distribuição Uniforme em [0, 2] e Z assumindo os valores ~ e ~ com função densidade conjunta de WI = HXI + X2) e w2
= ~(XI- X2)·
probabilidade ~ e j, respectivamente. Seja W = max (X, Y, Z, 1). 46. As variaveis aleatórias X 1, X2 e X3 são independentes e identicamente
a. Obtenha a função de distribuição de W. distribuídas com densidade Normal Padrão. Considere as seguintes novas
b. Calcule P(1 < W :5 W ~ ~). II variáveis: WI =XI, W2 = (X1 + X2)/2 e W3 = (XI + X2 + X3)/3.
c. Determine as partes discreta, absolutamente contínua e singular da função a. Determine a densidade de W3, pelo método direto.
de distribuição de W.
b. Obtenha a densidade conjunta de W1, W2 e W3.
40. A densidade conjunta de X, Y e Z é dada por c. Obtenha a densidade marginal conjunta de WI e W2.
d. Confirme a resposta de (a), calculando a densidade de W3 a partir da
1
f(x, y, z) = [4(xy + xz + yz) + 4(x + y + z) + 7], para x, y, z E (0, 1]. conjunta obtida em (b).
16
a. O que pode ser dito da independênc ia de X, Y e Z?
b. Calcule P(X :5 ~. Y > !).
- r--
a. Através do método direto, obtendo primeiro a função de distribuição. a. Verifique que Y1 = min(X1, X2, ···, Xn) é Exp(~>.;).
P[X~.: = =>.~.-/(E>.;).
b. Via a expressão da convolução de densidades.
( c. Via método do Jacobiano. b. Mostre que min(X1, X2, ···, Xn)]
1=1
( 53. Sejam X1 ,...., Gama( a,>.) e X2 ,...., Gama(/3, >.) duas variáveis independentes. c. Calcule a função de distribuição de Yn = max(X1, X2, · · ·, Xn)·
Defina novas variáveis W = XI/(X1 + X 2) e T = X 1 + X 2. Mostre que:
a. W tem densidade Beta de parâmetros (a, /3).
178 Capítulo 3: Vetores Aleatórios
( 58. Sejam Yi. }2, · · ·, Yn as estatísticas de ordem de uma sequência de n variáveil> Capítulo 4
independentes da Uc(O, 1). Obtenha a conjunta de Vn = Yn e V;= Y;/Y;+l
para i = 1, 2, · · ·, n - 1. Elas são independentes?
Valor Esperado
59. Seja X"' Exp(1), obtenha a densidade de Y = cosX.
( Sugestão: Particione o domínio em subconjuntos D; = ( (i - 1)7r, i7r] para
( i ~ 1. Ao obter as inversas, separe os casos de par e ímpar para i.
2
60. Sejam X1 e X2 independentes com distribuição N(O, u ). Defina as seguintes 4.1 Introdução
variáveis aleatórias U = Xl +X~ e V= Xtf X 2.
( Neste capítulo, vamos apresentar o conceito de valor esperado ou média
a. Sem fazer "muita" conta indique os modelos deU e V. de uma variável aleatória. Essa quantidade é freqüentemente utilizada como
b. Via método do Jacobiano, obtenha a densidade conjunta deU e V. resumo do comportamento da variável e serve como parâmetro para vários
( c. As variáveis U e V são independentes? modelos como Poisson e Normal. Veremos, também, como calcular o valor
esperado de funções de variáveis aleatórias. Em contextos mais formais, o valor
61. (Problema da agulha de Buffon) Considere uma mesa plana com linhas
esperado também é denominado de esperança matenuítica. Usaremos os três
( horizontais separadas pela distância 2a. Uma agulha de tamanho 2c (c < a) é
nomes de forma indistinta, ao longo do capítulo.
aleatoriamente jogada nessa mesa. Qual é a probabilidade da agulha tocar
uma das linhas? Na Seção 4.2, definimos o vMor esperado para variáveis discretas e
contínuas, conceitos com os quais o leitor já deve estar familiarizado. Essas
Sugestão: Defina X como a distância do centro da agulha até a linha mais
definições são unificadas com o uso da integral de Riemann-Stieltjes.
próxima e () como o ângulo entre a agulha e a perpendicular do centro da
A definição abstrata de valor esperado utilizando a integral de Lebesgue-
agulha até a linha mais próxima. Faça uma interpretação da aleatoriedade
Stieltjes é apresentada na Seção 4.3, de acordo com a construção teórica que é
do lançamento da agulha em tennos de X e O.
freqüente em textos mais avançados de Teoria das Probabilidades. Dessa forma, a
seção pode também servir de introdução àqueles leitores que desejem uma visão
mais profunda do assunto.
É importante destacar que todas as definições de valor esperado mantém
uma certa concordância entre si. Explicando melhor, como são construídas com
ferramentas matemáticas diferentes, pode ocorrer do valor esperado de interesse
não existir dependendo da definição utilizada. Entretanto, se ele existir em mais
de uma formulação, os valores esperados obtidos são sempre coincidentes. Com
isso em mente, na grande maioria dos casos, estaremos usando as definições da
Seção 4.2.
Na seção 4.4, as principais propriedades do valor esperado são
apresentadas. Incluímos nessa seção, resultados importantes como o Teorema da
Convergência Monótona e o Teorema da Convergência Dominada nas suas
versões para variáveis aleatórias.
Estaremos assumindo que as variáveis aleatórias apresentadas estão todas
em um mesmo espaço de probabilidade (0,.1", P), o que muitas vezes será
omitido para maior brevidade na apresentação.
179
(
- T.
(
•
0,3 0,3
•
0,2
( O conceito de valor esperado ou média parece ter sido historicamente 0.2
seria imprevisível. A questão de interesse era avaliar esse retomo num horizonte -0,3
de várias jogadas. Seria uma espécie de balanço final de muitas jogadas, após
contabilizar perdas e ganhos. Com o auxílio do formalismo matemático, essas Figura 4.1: Centro de Gravidade e Valor Esperado- caso discreto.
idéias foram estabelecidas em definições rigorosas, incluindo os casos discreto e
contínuo.
O centro de gravidade da barra, denotado por G, será o local em que
Definição 4.1: Valor Esperado para Variáveis Discretas 4 4
E (x; - G)p; =O. Não é difícil verificar que G = ExiPi e, portanto, G é o
Seja X uma variável aleatória discreta com função de probabilidade Px e i=l i=l
valor Xi para i num certo conjunto de índices I. Valor esperado ou esperança valor esperado de uma variável discreta com valores e respectivas probabilidades,
matemática ou média de X é definido por conforme indicados pela Figura 4.1. Efetuando os cálculos, obtemos
( G = E( X)= -0, 3. Se sustentarmos a barra no ponto G, ela permanecerá em
E(X) = J.Lx = L: x;px(x;), eqüilíbrio horizontal.
( iEI O uso da denominação média para o valor esperado da variável tem
( origem histórica, mas também pode ser visto como uma referência a um resultado
desde que a soma esteja determinada. D importante conhecido por Lei dos Grandes Números. Como ilustração, seja X a
O conjunto de valores da variável pode, eventualmente, ser infinito. Se a face obtida no lançamento de um dado honesto. O valor esperado de X é dado por
variável toma um número infinito de valores positivos e negativos, a existência do 6
valor esperado está condicionada a que não ocorra soma do tipo oo - oo, o que E(X ) = LXiPi = 7/2.
resultaria em indeterminação. Note que a nossa definição de valor esperado i=l
permite a ocorrência do valorinfinito (positivo ou negativo). Se, por exemplo,
Se coletarmos, de forma independente, um certo número de valores da variável X
houver convergência absoluta na somatória acima, isto é E lx;! Px(x;) < oo, ou, em outras palavras, se coletarmos uma amostra aleatória de X, poderemos ter
iEI
teremos um valor esperado finito. repetições de valores dentre aqueles que são possíveis para X. Esperaríamos que
A notação será simplificada para J.L, sempre que não houver outras a proporção, com que cada valor aparece na amostra, fosse próxima da respectiva
variáveis envolvidas. O valor esperado pondera os valores assumidos pelas probabilidade. Dessa forma, teríamos a expectativa de que a média dos valores
respectivas probabilidades e não precisa ser um dos valores possíveis da variável. amostrados não ficasse distante do valor esperado da variável. Parece intuitivo
Lembrando o. conceito de equilíbrio de um corpo em Física, podemos considerar o admitir que, quanto maior for o tamanho de amostra, menor diferença haverá
valor esperado como o centro de gravidade de um objeto de massa unitária. Nesse entre a proporção amostrai e a respectiva probabilidade. Assim, para uma amostra
caso, a probabilidade faz as vezes da massa. Por exemplo, considere uma barra suficientemente grande, podemos admitir que a média das observações se
sem peso que tem massas distribuídas nos pontos - 2, - 1, O e 2, de acordo com a aproxima do valor esperado da variável X. Esse resultado é a Lei dos Grandes
figura a seguir. Números, mencionado acima, e será apresentado no Capítulo 6.
182 Capftulo 4: Valor Esperado 183
4.2 Valor Esperado
Exemplo 4.1: Vamos obter o valor esperado de X"' B(n, p) . Temos O valor esperado de X é calculado facilmente e é igual a -1/3. Dessa
n forma, em uma jogada a expectativa é de -R$ O, 33 como saldo. O valor esperado
E( X) =L i(~ )Pi (1- p)n-i obtido não é um valor resultante de apenas uma jogada. Ele deve ser interpretado
i=O Z como a média dos resultados de uma longa repetição desse jogo, sendo que, em
( = t
i=1
n (~- 1)pi-1p( 1 _ p)n-1-(i-1)
z- 1
cada rodada, um dos valores de X ocorrerá. Portanto, o jogo é interessante para a
banca, mas não para o jogador. Se o jogador der sorte e iniciar com saldo
(
( =npL
n-1 (
n~ 1) pv(1-p)n-1-v =np; positivo, o melhor a fazer é parar de jogar!
Exemplo 4.4: Seja X uma variável aleatória discreta com a seguinte função de
O
v=O
f distribuição:
(
em que usamos a identidade i ( 7)
V=i-1.
= n c~ n, 1 ~ i ~ n e a substituição o, X< -2;
1/8, -2 ~X< 1;
( Note que o valor esperado de uma Binomial é o produto dos seus F(x) = 5/8, 1 ~X< 2;
parâmetros n e p. Como ilustração, suponha que a incidência de uma certa doença 7/8, 2 ~X< 4;
é de 10% na população. Podemos considerar que, para um indivíduo escolhido ao 1, X~ 4.
acaso nessa população, a probabilidade de ter a doença é 0,10. Dessa forma, se
( 1000 indivíduos são observados de forma independente, esperaríamos que 100 Para calcular a média, obtemos primeir~ a função de probabilidade. Os pontos de
deles estivessem com a doença. O salto de F(x) indicam os valores de X com probabilidade positiva, assim
(
p~) I ~ 1 ! li I i
Exemplo 4.2: Sendo X"' Poisson(>..), vamos determinar seu valor esperado. 2
Assim,
oo . >.,i e-Á oo >.,i e-Á oo >., (i-1)
E(X)=~z~=~ (i-1)! =À. e-Á~{i-1)! =À..
O cálculo do valor esperado é feito sem dificuldade e seu valor é igual a 5/4.
Veremos, mais adiante, neste capítulo, que o valor esperado pode ser calculado
diretamente a partir da função de distribuição. D
Logo, o parâmetro >.. na Poisson indica também o valor esperado. Se as chegadas
de clientes em um banco se dão de acordo com uma distribuição de Poisson com Exemplo 4.5: Considere X uma variável com distribuição Geométrica de
parâmetro 1O por hora, o número médio de clientes que chegam por hora é parâmetro p. Assim, sua função de probabilidade é dada por
também 10. Isso justifica denominar >.. como a taxa média de ocorrência. O
P(X = j) = p(1- p)i , j =O, 1, 2, · · ·.
Exemplo 4.3: Suponha um jogo com um dado equilibrado e com a seguinte regra:
Temos
em cada rodada, o jogador paga a uma banca R$ 1 para jogar e ganha R$ 1, se der
face 4 ou 5 .e R$ 2, se der face 6. Nos demais resultados, ele não ganha nada. Esse 00 00
jogo é interessante para quem? E(X) = LiP(1- p)j = p(1- P)Lj(1- p)i- 1
j=O j=1
Sendo X o saldo em uma jogada, seus valores são: -1 para as faces de 1
a .
a 3; Opara 4 e 5 e 1 para a face 6. Assim, sua função de probabilidade é dada por
= -p(1- p) L-
00
8p
(1- p)J;
p:b.l ~ I i I ~
1 j=1
Então, Para avaliar outros cenários, calculamos o valor esperado de duas outras
variáveis, correspondentes aos mínimo e máximo lucros possíveis. Sejam L; e Ls
a~ . a 1-p
E(X) = -p(1- p)- L....J (1- p)l = -p(1- p)- ( - )
os respectivos limites inferior e superior para L . Assim,
ap j=l ap p E(L;) = (-15 X 0, 10) + (-7 X 0,55) + (-2 X 0,35) = -6,05.
-1 1- p E(Ls) = 17 X 0,10+9 X 0,55 + 2 X 0,35 = 7,35.
-p(1- p) (-) = - ·
=
r p Esses dois valores indicam extremos que não são alcançados, pois existem
o diferentes ações em cada classificação. Por exemplo, nem todas de alto risco terão
o mesmo desempenho, seja otimista ou pessimista. De qualquer forma, esses dois
Exemplo 4.6: Uma corretora aplica dinheiro de clientes na Bolsa de Valores e valores fornecem horizontes que auxiliam na tomada de decisões pela corretora. O
classifica as ações das empresas através do seu risco: alto, médio ou baixo. A
evolução diária do lucro por ação, no último mês, apresentou os seguintes valores Exemplo 4.7: Seja X uma variável aleatória discreta com função de
(em porcentagem sobre o valor unitário): probabilidade dada por:
Ações\ Lucro Mínimo Máximo Média _ )_ ( ) _ { 2lxl(!;l+l) ,X= - 1, - 2 , ...
Alto Risco -15 17 3 P(x -X - PX X - 1
2x(x+l) 'X = 1• 2• '· ·
Médio Risco -7 9 4
Baixo Risco -2 2 1, 5 Inicialmente, vamos verificar que a expressão acima é, de fato, uma função de
probabilidade. Temos O ~ Px(x) ~ 1 e
A tabela se refere a um conjunto de ações de um mesmo tipo (preferencial
ou ordinária, por exemplo) e seus valores foram obtidos em duas etapas. Na 00 00
1 1 00
1 1
primeira, calculamos o mínimo, máximo e a média de cada ação ao longo do mês. ~px(x)=~2x(x+1) =2~(;- x+ 1)
Em seguida, obtivemos o mínimo, o máximo e a média das ações em cada
1 1 1 1 1
classificação (alto, médio ou baixo risco). = 2[( 1 - 2) + (2- 3) + ... ] = 2;
Em termos práticos, para um próximo período, a corretora escolheria
algumas ações para manter e outras para descartar. Entretanto, vamos admitir que segue ainda que
o comportamento expresso na tabela acima será repetido nos próximos períodos.
Estamos interessados em avaliar o desempenho da corretora, se sua carteira de
-oo -oo 1 1 00
1 1
aplicações em reais é de l 0% de ações de alto, 55% de médio e as restantes de x~lpx(x) = x~l 2lxl(lxl + 1) = 2~ y(y + 1) = ... = 2'
baixo risco.
Esse exemplo ilustra, de modo simplificado, alguns dos cálculos de com a conveniente substituição y = -x. Então Px(x) é uma função de
interesse para empresas do mercado financeiro. O desempenho médio será probabilidade.
simplesmente o valor esperado da variável aleatória L: lucro percentual para Para o valor esperado de X temos
cada real aplicado em ações. Temos
-00 00
Para a parte positiva vem esperados idênticos, sem isso significar igualdade no comportamento das
(
00 00 00 variáveis.
X 1 1 1 1 1
(
~xpx(x) = ~ 2x(x + 1) = 2~ (x +I) = 2(2 + 3 + ···) = oo;
pois a soma acima é parte da série harmônica, que diverge. Para a parte negativa, ftx)
o cálculo é similar e resulta em -oo. Concluimos que não existe valor esperado
nesse caso. D
Definição 4.2: Valor Esperado para Variáveis Contínuas
(
Seja X uma variável aleatória contínua com função densidade f.
( Definimos valor esperado ou esperança matemática ou média de X por
(
E(X) = J:xf(x)dx,
o E( X) JC
desde que a integral esteja bem definida. D Figura 4.2: Centro de Gravidade t Valor Esperado- caso contínuo.
Se a variável é limitada, o cálculo é feito sem ambiguidades e a existência
do valor esperado está assegurada. No caso não limitado, podem aparecer
situações indefinidas do tipo oo - oo, em que diremos que a esperança não existe. Exemplo 4.8: Seja X uma variável aleatória contínua com densidade dada por:
Alguns autores exigem que a integral do valor absoluto seja finita para existir o
1 1
valor esperado. Note que, na nossa definição, não fazemos essa exigência e f(x) = 4 J(-2,o)(x) + 4 J(2,4)(x).
podemos ter esperanças com valor infinito (positivo ou negativo). Como podemos
repartir a integral acima nos intervalos ( -oo, O] e (0, oo ), E(X) vai estar bem Para o valor esperado temos,
definida se a integral em pelo menos um desses intervalos, for finita; isto é
1: xf(x) dx < oo ou 1
00
- oo
xf(x) dx = 1° x~
-2 4
dx +
J2tx~ dx =
Pelo gráfico de f(x), apresentado a seguir, notamos que o valor esperado
1.
A interpretação de E(X) para o caso contínuo é similar ao mencionado é o centro de gravidade da distribuição.
para variáveis discretas. O valor esperado é o centro de gravidade da distribuição Para reforçar a interpretação do valor esperado considere, por exemplo,
da variável aleatória. que as massas de probabilidade correspondentes aos intervalos [-2, O] e [2, 4] são
Como ilustração, considere o gráfico da densidade apresentada na Figura deslocadas para, respectivamente, os intervalos [-3, -1] e [3, 5]. O ce~tro de
4.2. Admita que o eixo x é uma barra sem peso e, apoiada nessa barra, temos uma gravidade permanecerá inalterado e, portanto, também o valor esperado. E claro
massa com peso unitário, distribuída de acordo com a densidade de que existem modificações que alterariam o valor esperado e serão discutidas mais
probabilidade. Não é difícil perceber que poderemos ter mudanças significativas ~~. D
no valor esperado, se alguma massa de probabilidade é deslocada para um valor
muito alto ou muito baixo de x. Diferentes densidades podem produzir valores
188 Capítulo 4: Valor Esperado 4.2 Valor Esperado 189
ftx) I F(x) =
o,
2
x j 4,
(2x- 1)/4,
-(x2
1,
- 6x + 5)/4,
X< O;
0 ::;
1 ::;
2 ::;
X>
X< 1;
X< 2;
X ::;
3.
3;
1/4
A função densidade é obtida por derivação de F nos respectivos intervalos.
Assim:
1 1 1
-2 o E(X) 2 4 X f(x) = 2 x I[o,l)(x) + 2 I[1,2)(x)- 2(x- 3) I[2,3J(x).
Para o valor esperado temos
Figura 4.3: Função Densidade e Valor Esperado (Exemplo 4.8).
E(X) =I: xf(x) dx =1x~ 1
dx + i\~ dx -1 3
3
x (x; ) dx =~-
Exemplo 4.9: Seja X rv Exp(a), a> O. Seu valor esperado será dado por: Veremos que o cálculo do valor esperado pode ser feito diretamente, a partir da
E( X) =100
o
xae-ax dx = -xe-ax 100 -
o
100 o
( -e-ax) dx =-•
1
a
função de distribuição, com auxílio de uma expressão a ser apresentada.
Exemplo 4.12: Seja X uma variável Cauchy de parâmetros a
D
= O e f3 = 1. Sua
densidade é dada por:
em que aplicamos integração por partes. D
1
Exemplo 4.10: Sendo X N(J.L, a 2
), vamos verificar que o parâmetro J.L é a f(x) = ,-oo < x < oo.
rv
rr (1 + x 2)
média de X. Temos,
Para o cálculo do valor esperado, repartimos a integral em duas partes:
E(X) =
00 X _!(=)2
;;:;-::_ e 2 • dx =
100 ay;;:;-::_+ J.L e-2YI 2ady,
1-oo v 2rra
com a substituição y = ~. Segue então que
-oo v 2rra E(X) =I: xf(x) dx =I: xf(x) dx + 1 00
xf(x) dx;
E( X) = a1
;;:;-::_
V 2rr
00
y e-21Y2 dy 1v
+ J.L
00
1 e-212
;;:;-::_
2rr
Y dy
Temos,
roo ro x 1 roo 2x
a
-oo -oo
lo xf(x) dx =lo rr (1 + x2) dx =lo 2rr (1 + x2) dx
= -- X 0 + J.L X 1 = J.Lj
~ 1
= -[ln (1 + x 2 )] 100 = oo;
2rr o
uma vez que, a primeira integral se anula por simetria e a segunda corresponde à
integral da densidade N(O, 1). D de modo análogo, segue que
1: xf(x) dx = -oo.
Seja h uma função limitada e considere
intervalo [a, b]. Definimos, para Xi-1 ~ x ~X;,
n
U(h ) = L
Xo, X1, • • ·, Xn
n
M; .ó.x; e L(h ) =L m ; .ó.x;;
uma partição do
Dessa forma, o valor esperado não existe. Observe que a densidade i=1 i=1
Cauchy, com os parâmetros acima, é simétrica ao redor do zero, o que poderia
induzir a tomar o zero como valor esperado. Entretanto, a definição de esperança em que M; = sup[h(x)] e m; = inf[h(x)] para x E [xi-1. x;], sendo .ó.:z:; _a
exige que pelo menos uma das partes, em que foi repartida E( X), seja finita. O amplitude desse sub-intervalo. As somas U e L dependem da part1çao
considerada, entretanto, se, ao passar ao limite com a amplitude máxima dos sub-
As definições de valor esperado para variáveis discretas e contínuas, intervalos indo para zero, as quantidades U e L forem iguais, diremos que seu
apresentadas até aqui, respondem por boa parte dos casos práticos encontrados.
valor comum é a integral de Riemann da função h em [a, b].
Contudo, sabemos que existem outros tipos de variáveis. Lembremos que a
Suponha, agora, que F é uma função monótona não decrescente (tal como
caracterização da variável aleatória, através da sua função de distribuição,
a função de distribuição) e, nas mesmas condições anteriores, definimos
permitiu a unificação dos tratamentos com rigor matemático. Variáveis do tipo
singular têm interesse principalmente teórico, mas o mesmo não podemos dizer do n n
tipo misto. Por exemplo, uma variável mista seria adequada para descrever o Up( h) = L M; .ó.F; e Lp(h) = L m; .ó.F;;
~1 ~1
tempo de espera para atendimento em um caixa eletrônico. Nesse caso, se não
houver fila, esse tempo é zero; em havendo, esperamos um tempo aleatório, em sendo .ó.F; = F(x;) - F(x;_ 1). Se Up e L p convergirem.para um mesmo. valor,
geral modelado por uma variável contínua. quando as amplitudes de todos os sub-i~tervalos s~ a~roxtmam de zero, ~m:mos
Podemos unificar as expressões do valor esperado para os diversos tipos que 0 valor comum é a integral de Riemann-StteltJeS de h em relaçao a F.
de variáveis, se utilizarmos a integral de Riemann-Stieltjes. Essa é uma forma Observe que a integral de Riemann-Stieltjes segue os mesmos passos ?a ~e
elegante e freqüentemente utilizada nos textos intermediários de probabilidade. Riemann, mas, ao invés dos comprimentos, a ponderação dos valores de h e fetta
Não importa a integral que estejamos usando, sempre existirão funções pela diferencial de valores de uma função F. Essa fu.nç~o ~ monó~ona e não
que não serão integráveis ou por suas características ou pelo domínio usado. decrescente e, em geral, é diferente de h. Para as pnnc1pa1s propnedades da
Trata-se, portanto, de discutir a conveniência do uso de uma ou de outra integral, integral de Riemann-Stieltjes, o leitor pode consultar Chae. [80], e~ que ~ambém
a luz do que ela nos auxilia no desenvolvimento da teoria ou dos cálculos podem ser encontradas infonnações similares sobre outros tlpos de m~e~rats.
necessários. A discussão da caracterização das funções integráveis, nos vários llustramos, a seguir, o uso dessa integral para calcular probablltdades.
modos de integração, é um assunto da área de Análise Matemática e não nos
aprofundaremos nessa questão. O importante a destacar é que, em termos práticos, Seja X uma variável com função de distribuição F . Temos
o cálculo de integrais pela definição quase nunca é feito e os vários modos de
integrais recaem sempre numa soma ponderada ou numa integral de Riemann. 1bdF(x ) = F(b)- F(a)= P(a < X ~ b);
Para introduzir a integral de Riemann-Stieltjes a leitores não
familiarizados com ela, relembramos, inicialmente, as idéias da construção da em que estamos tomando a função h, mencionada acima, como sendo a constante
integral de Riemann num intervalo finito [a, b]. O caso infinito é tratado, passando 1. Observe que a integral feita no intervalo fechado [a, b] resulta na massa de
ao limite, os extremos de integração. probabilidade de X, no intervalo semi-aberto (a, b]. No caso contínuo, isso não
fará diferença, mas é preciso ter atenção no caso discreto.
-
192 Capítulo 4: Valor Esperado 193
4.2 Valor Esperado
Sendo X uma variável aleatória contínua, a função de distribuição F é Exemplo 4.13: Seja X- Exp(>. ). Temos F(x) = 1- e-.\x, para x > Oe, assim,
absolutamente contínua e temos
dF(x) = f(x) dx 1 3
dF(x) = F(3)- F(1) = {1- e- 3.\) - (1- e-À)= e-À - e-3\
1 3
dF(x) = 1 3
f(x) dx = 1 3
>. e-.\xdx =e-À- e-3\
De novo, ressaltamos que é preciso ter cuidado em distinguir os casos contínuo e fb dF(x) =L [F(x)- F(x-)],
discreto, conforme veremos nos próximos exemplos. la a<x::;b
fI
I Exemplo 4.15: A variável X é do tipo mista e tem função de distribuição dada Temos, então
por
[ 3- 2
'
1
f o, X< -2; P(X < 3) = J_oo [3dP(x) + 3dF"c(x)]
I -J:i (x 2 + 4x + 4), -2:5 X< O; 3- 3-
[ ~dFd(x) + [ 00 ~dF"c(x)
F(x) =
~(x+2),
~(x + 3),
0 :5 X< 1;
1 :5 X< 2;
=
00
'
I -J:i(-x2 + Bx + 8), 2 :5 X< 4; = ![Fd(3-)- Fd( -oo)]
3
+ ~[F"c(3-)- Fac( -oo)]
3
'
I
1,
3 = 24°
23 23
1 - -
P(X < 3) = dF(x) = F(3 ) - F(-oo) =--O= -;
-oo 24 24 No cálculo acima, utilizamos a aditividade no integrador e a passagem de
2
20 1 19 constantes para fora da integral, propriedades das integrais de Riemann-Stieltjes.
P(-1 :5 X :52)=
00
1-1 -
dF(x) = F(2)- F(-r) = - - - = -;
24 24 24 As demais probabilidades podem ser calculadas de modo análogo. O
Fd(x) =
o,
{· 1,~·
X< O;
O :5 x
X~ 1;
< 1; e F"c(x) =
fii(x 2
+
i(x + 1) •
fB( -x 2
4x
+
+ 4)
Bx),
, -2:5 X< O;
0 :5 X< 2;
2 :5 X< 4;
E(X) = 1: xdF(x),
o, X< -3;
1 -oo
-dFd(x)
3
X = -[0 X-+ 1 X 2J = 6'
3 2.
l, -3 $X< -1;
8 Para a parte contínua, calculamos antes a densidade. Derivando pac, obtemos:
7
24' -1 $X< 1;
F(x) = 13
1 $X< 2;
o, X< -2 OU X~ 4;
24'
,1,
6 2 $X< 3; rc(x) = !(x+2 ),
1
-2::; X< O;
0 $X< 2;
1, X~ 3. { 4'
l(-x+4), 2 $X< 4.
Para a média de X temos
1 00 2
x -dFac(x) = 1 00
2
X- rc(x) dx =
1
8
1 1
6
7
= (-3) X - + (-1) X-+ 1 X -4 + 2 X-24 + 3 X-=-·
6 24
1 19
-oo 3
=
1
-oo 3
-x(x+2)â x+ 121
01
-212
-xdx+
o 6
1
2
4
1 x(-x+4)dx
12
Esse valor pode ser confirmado via a expressão da média para o caso discreto. = 2/3.
Nesse caso, obtém-se primeiro a função de probabilidad e e depois a média. O
Concluímos que
Exemplo 4.17: A variável X é contínua com a seguinte função de distribuição: 1 2
E(X) = - + -3 = 5/6.
= { ~'- e4- 2x,
X< 2; 6
F(x) X~ 2.
Conforme veremos, em proposição a ser apresentada na Seção 4.4, o cálculo do
A variável X corresponde a restrição da Exponencial de parâmetro 2 em valores valor esperado poderá também ser feito de urna forma direta, sem necessidade de
obter a decomposição da função de distribuição, O
maiores ou iguais a 2. Para calcular o valor esperado, usaremos que
dF(x) = 2é- 2x If2,oo)(x) dx e, portanto, temos: Se a variável tiver parte singular, ainda podemos usar a integral de
E(X) = 100
-oo
xdF(x) = {oo x2e4- 2xdx = {oo (y + 2) 2e- 2Ydy = 5/2;
h h
Riernann-Stiltjes, mas o cálculo é bem mais complicado. É preciso usar a
definição da integral e aplicá-Ia em sucessivas etapas, seguindo passos similares
aos utilizados na construção da função de distribuição singular (ver Capítulo 3).
após a conveniente troca de x por y - 2. o Exercícios da Seção 4.2:
Exemplo 4.18: Vamos calcular o valor esperado para a variável mista do 1. Verifique que o valor esperado do modelo Hgeo(m, n, r) é rmfn. Nesse
Exemplo 4.15. Usaremos a decomposiçã o já apresentada de modo que: modelo n é o número total de objetos na população, dos quais m são do tipo I
e os r~stantes são do tipo I I e r é o tamanho da amostra retirada sem
reposição. A variável do modelo é o número de objetos do tipo I na amostra.
198 Capítulo 4: Valor Esperado 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 199
2. Seja A um evento qualquer no espaço de probabilidade (0, :F, P). Mostre que
O, se x < O ou y < O;
P(A) = E(IA).
xy, se O $ x < 1, O $ y < 1;
3. O vetor aleatório (X, Y) é um ponto escolhido ao acaso no quadrado de Fx,y(x, y) = x, se O $ x < 1, y 2: 1;
vértices (0, 0), (1, O), (1, 1) e (O, 1). Obtenha o valor esperado de E(IA), sendo y, se x 2: 1, O $ y < 1;
V
que A= {(x, y): (x- 2 + (y- ~) 2 $H· 1, se x 2: 1, y 2: 1.
4. Determine E( X), sendo a função de distribuição da variável X dada por:
10. Seja X simétrica ao redor de uma constante a, isto é,
O, se x < -2; P(X 2: a+ x) = P(X $a- x) Vx E R Admita, ainda, que X é contínua e
1/2, se -2 $ x < O; que E( lXI) < oo. Mostre que E( X) = a.
F(x) = 5/8, se O$ x < 1;
7/8, se 1 $ x < 2; 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes
1, se x 2: 2.
Pela natureza mais abstrata desta seção, ela pode ser considerada opcional
para os leitores que desejam um tratamento menos formal dos conceitos de valor
5. A função de distribuição da variável X é dada a seguir. Obtenha E( X). esperado. Vamos apresentar uma definição teórica e abstrata de valor esperado
o, que dá conta de casos gerais. Iniciamqs com uma breve descrição sobre modos de
se x <O;
integração.
se O$ x < 1;
{ ~~~:
F(x) = A idéia de valor esperado está associada a uma soma ponderada dos
se 1 $ x < 2;
valores da variável pelas respectivas probabilidades. De modo geral, a integral é
1, se x 2: 2.
uma operação matemática que também pode ser vista como ponderação de
valores. Portanto, nada mais natural do que existir uma estreita relação entre valor
6. Seja X uma variável aleatória contínua com densidade de acordo com o modelo esperado e integral.
Gama de parâmetros a e /3. Obtenha o valor esperado de X. A construção de integrais abstratas, tais como as integrais de Lebesgue e
7. A variável aleatória X segue o modelo de Weibull, isto é, sua densidade é dada de Lebesgue-Stieltjes, é feita com o auxílio da Teoria da Medida, uma parte
por f(x) =a>. xa-l e-Ax" I(o,oo) (x), a,>.> O. Obtenha a média de X. importante da área de Análise Matemática. Sendo n um conjunto qualquer, :F
uma a-álgebra de subconjuntos de n e M uma função dos elementos de :F em JR,
8. Calcule o valor esperado de X com função de distribuição: denominamos (0, :F, M) de espaço de medida. A função M é denominada
medida e satisfaz propriedades similares às de probabilidade. É imediato
o, sex < -1;
reconhecer que um espaço de probabilidade é um particular espaço de medida.
-(x2 - 1)/4, se -1 $ x <O; Os comentários, a seguir, ajudam a compreender a motivação para o
F(x) = (x 2 + 1)/ 4, se O$ x < 1; cálculo do valor esperado através de integrais abstratas, ao invés do uso da
1/2, se 1 $ x < 2; integral de Riemann ou Riemann-Stieltjes.
1, se x 2: 2. As construções das integrais de Riemann e Lebesgue são baseadas em
diferentes idéias. Na teoria de Riemann, que origina a integral de Riemann-
9. Determine E( X) e E(Y), sendo a função de distribuição de (X, Y) dada por: Stieltjes, o domínio lR é particionado em sub-intervalos disjuntos. Para a integral
de Lebesgue, é o contra-domínio que é particionado primeiro e a partir daí,
através da imagem inversa, a divisão do domínio é obtida. Como conseqüência, a
integral de Riemann é mais afetada pelas descontinuidades da função a ser
__..
II
200 Capítulo 4: Valor Esperado 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 201
integrada. Nesse sentido, a integral de Lebesgue seria mais robusta e poderia X + e X - variáveis aleatórias não negativas tais que X = X+ - X - (ver
existir para várias funções que não são Riemann integráveis.
Capítulo 2).
É preciso ter cuidado com algumas afirmações sobre a generalidade da Em cada etapa são provadas diversas propriedades como linearidade e
integral de Lebesgue. Poderíamos ser levados a acreditar que toda função multiplicação por constante, entre outras. As propriedades de uma etapa embasam
Riemann integrável também é integrável no sentido de Lebesgue. Para funções a definição da etapa seguinte. Como já mencionamos, esse é o caminho utilizado
com certas propriedades, essas integrais coincidem. Entretanto, existem situações para definir integrais mais gerais, mas é também um modo conveniente de provar
em que um tipo de integral existe e o outro não. O leitor pode consultar Chae [80] que uma certa propriedade das integrais vale num caso geral.
para uma apresentação mais formal e outras questões sobre o relacionamento Se o valor esperado a ser calculado se refere a uma função de variável
entre elas. aleatória, o mesmo procedimento é utilizado.
A integral de Lebesgue de uma função f qualquer é obtida em etapas.
Inicialmente tratamos com funções simples ou em escada que são funções Definição 4.4: Valor Esperado para Variáveis Discretas Simples
positivas com um número finito de valores diferentes. Nesse caso, a integral é Seja X uma variável aleatória discreta simples em (O, :F, 'P) , isto é,
definida pela ponderação de valores da função pela respectiva medida associada à k
imagem inversa desses valores. A integral é estendida para funções positivas, X (w) =E x; IA;(w) com x; ;::: O, Vi, k E N e A1, A2, .. ·, Ak sendo eventos que
usando o fato destas serem limites de funções simples. Finalmente, para uma i= l
Proposição 4.1: Para o item (iii), observe que x; 2: Yi sempre que A; n Bi =J 0, então,
Sejam X e Y variáveis aleatórias discretas simples em (O, F, P) e k r k r
a, b 2: O. Temos: E( X) = L L x;P(A; n BJ) 2: L LY;P(A; n Bi) = E(Y).
(i) E(aX + b) = aE(X) + b; i=l j=l i=l j=l
Para verificar (i), observe que aX + b é uma variável discreta simples que Proposição 4.2:
assume o valor ax; + b no conjunto A;. Segue então que Suponha que XI, x2, ... e y são variáveis aleatórias discretas simples em
(f!, F, P) tais que, quase certamente em n, O~ X1(w) ~ X2(w) ~ ··· e
E(aX + b) = fn(aX + b)dP = t(ax; + b)P(A;) = O~ Y(w) ~ limXn(w). Então,
n-+oo
r
Suponha que Y = E y1 IBi seja a representação dessa variável. g,(x)
j=1
Lembrando que A 1. A 2 , ···,Ar formam uma partição de O, temos
r r
Y lA,.= LYilBJA,. = LYilBinA,.·
j=1 j=1
Assim, I ········--········································-······-·······································- - - - -
r
E(Y IA.) = L Yi P(Bj n An)·
j=1
112 -·· ·••---oo
Observe que, para cada j fixado, a seqüência de eventos Bj n An é não
decrescente em n . Logo, pela continuidade da probabilidade, temos que
lim P(Bi nA,) = P(Bi )· Então,
n->oo
r Figura 4.4: Função 01(x).
lim E(Y lA,,)= "' Yi P(Bi) = E(Y ).
n --t- oc ~
j=1
gjx)
Aplicando esse resultado na expressão (1) e passando ao limite, obtemos
lim E( X,) 2:: E(Y ) - f, ···········--······-·--· ··-· ·-·----···-···---·-·······--······--···--...---
n->oo
714 -·-···················-··
que, valendo para todo f > O, implica lim E( X,) 2:: E(Y ) e isto completa a
n->oo 31:!
Exemplo 4.19: Considere a função quadrática f( x) = x 2 para x 2:: O. Com o 112 & ..fjfz 1 ..JS12 .J612 ..J'In ,f!
objetivo de aproximar f por funções simples, definimos 9n ( x), n 2:: 1:
_
(k-1)
""2" se (k- 1) <f(
""2" _ x) < _ 1, 2, ... , n 2"·,
Fk , k- Figura 4.5: Função 02(x).
9n ( X ) -
{ n se f (x) 2:: n .
Os gráficos de 9 1 e 92 são apresentados nas figuras a seguir. Dessas figuras, podemos perceber como a construção sucessiva da
aproximação é feita. Sugerimos ao leitor fazer o gráfico de 93 • O
206 Capítulo 4: Valor Esperado 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 207
Proposição 4.3: representando a união disjunta de dois intervalos, com amplitude 2}+ 1 •
Suponha que Y é uma variável aleatória não negativa em (n, F , P ). Esses intervalos podem ser usados na construção de Xn+l (w) e, para o wo
Então, existe uma seqüência monótona { X n : n ~ 1} de variáveis aleatórias considerado, podemos ter duas opções distintas de valores para X n+1 ( w0 ). Elas
simples em (n, F, P) tal que: correspondem aos extremos inferiores dos intervalos acima. Em ambos os casos,
esses valores são maiores ou iguais ao de X n(wo). Logo concluímos, X n :::::; Xn+1
lim Xn(w) = Y(w), w E
n->oo
n. em Ant·
Tomemos agora wo E An, logo Y(wo) ~ n e Xn(wo) = n. Lembremos
Demonstração:
que, para Acn+l)k• os valores de k vão até (n + 1)2n+l , isto é,
Para obter uma sequência de variáveis simples, vamos dividir os valores
k = 1, 2, · · ·, n2n+l, n2n+l+ 1, n2"+1 + 2, .. ·, (n + 1)2n+l_ 1, (n + 1)2n+l.
de Y em intervalos com extremos racionais da forma:
Observe que, para k = n2n+l + 1, o limite inferior para o valor de Y , no
correspondente Acn+l)., é igual a n.
Para avaliar o comportamento de Xn+l(wo), precisamos considerar se o
com n, k E N, 1 :::::; k :::::; 2n e n ~ 1 fixado. valor de Y (w 0 ) é menor, ou não, que n + 1.
Para n = 1, 2, · · ·, considere os seguintes conjuntos de n: Se temos n:::::; Y (wo) < n + 1, então wo pertence a um dos eventos
A(n+l)t• com o índice k sendo inteiro e compreendido entre n2n+l + 1 e
k-1 k} (n + 1)2n+l - 1. Assim, podemos escrever Xn+l(w0 ) na forma n + ~ para
Ant = {w E n:~ ::S Y ( w) <
2
n , 1 :::::; k ::S n 2n;
algum j = O, 1, 2, ... , 2n+l - 1. Logo, vale Xn(wo):::::; Xn+l(wo) nesse caso.
An = { w E n : Y (w) ~ n }· Supondo Y (wo) ~ n + 1, temos Xn+1(wo) = n + 1 > Xn(w 0 ) pela
definição dessa variável. Então, segue que X n : : :; Xn+l em An.
Tendo em vista que Y é variável aleatória, os conjuntos acima são Concluímos, assim, a verificação de que a seqüência é monótona não
eventos, isto é, pertencem a 0'-álgebra F. Podemos, então, definir uma seqüência decrescente. Isto é,
de variáveis aleatórias discretas simples da seguinte forma:
Xn(w) ::S Xn+I(w) ::S Y(w), Vn E N, w E n.
lim Xn(w),
Como seqüências monótonas têm limite, 'I'11:arantimos a existência de n~oo
Vw E n. É bom notar que, eventualmente, pode existir algum w em que esse
Vamos verificar que essa seqüência é monótona não decrescente em n. limite é infinito.
Para Wo E Anp com k e n fixados, temos Se, para algum w, Y (w) lim Xn( w) = Y(w). Isto vale pois,
< oo, temos n-.oo
- (k- 1)
para n suficientemente grande, I Xn(w) - Y(w) l < f,..
X n (Wo ) -
2n Por outro lado, se para algum w, Y(w) = oo, então Xn(w ) = n para todo
lim Xn(w) = oo = Y (w).
n. Dessa forma, para esse w, n-.oo
e ainda [ k;.l :::::; Y (w 0 ) < f.; J, que é equivalente a [;~.:;} :::::; Y(w0 ) < 2~~I].
Em resumo, temos que lim Xn(w) = Y (w), Vw E n e a proposição está
Este intervalo pode ser reescrito como n->oc
demonstrada. D
2k-2 2k - 1] [2k-1 2k]
[ 2"+1 ~ Y(wo) < 2n+l U 2n+l ~ Y(wo) < 2n+l ,
- 4.3 Valor Esperado- Integral de Lebesgue-Stieltjes 209
208 Capítulo 4: Valor Esperado
Definição 4.5: Valor Esperado para Variáveis Não Negativas (iii) Sendo X - Y não negativa, pela parte (ii), temos:
Seja X uma variável aleatória não negativa em (0, :F, 'P). Definimos E( X) = E( X- Y) + E(Y) ~ E(Y).
valor esperado ou esperança matemática ou média de X por Isto completa a demonstração. D
E(X) = limE(Xn), Consideramos agora que X é uma variável aleatória qualquer em
n---+oo
(0, :F, 'P). Suas partes positiva e negativa são variáveis aleatórias não negativas
em que {Xn : n >O} é uma seqüência monótona não-decrescente de variáveis no mesmo espaço de probabilidade. Dessa forma, X = x + - x- com
aleatórias simples no mesmo espaço de probabilidade e tal que temos a
convergênciaXn(w)-+X(w), \:fw E O. O x+ = !(lXI +X)= {X, X~ O;
2 O, X< O.
É possível verificar que o valor de E(X) não depende da seqüência de
variáveis aleatórias simples utilizada para passar ao limite. Também não é díficil x- = !(IXJ-X) = {-X, X:::; O;
provar que, no caso de X ser uma variável aleatória simples não negativa, as duas 2 O, X > O.
definições até agora apresentadas, produzem o mesmo valor.
Pela definição e pelas propriedades da esperança para o caso de variáveis não
Proposição 4.4: negativas, o caso geral pode agora ser definido sem dificuldade a partir das etapas
anteriores ..
Suponha que X e Y são variáveis aleatórias não negativas em (0, :F, 'P) .
Então, para todo a, b E JR; a, b ~ O. Temos: Definição 4.6: Valor Esperado-Caso Geral
(i) E(aX + b) = aE(X) + b; Seja X uma variável aleatória qualquer em (0, :F, 'P). Valor esperado ou
esperança matemática ou média de X, se existir, é dado por
(ii) E(X + Y) = E(X) + E(Y) ;
(iii) Se X ~ Y em O, então E( X) ~ E(Y).
Demonstração: Em termos de notação é comum indicar a esperança como
(i) Seja {Xn : n > O} uma sequencia monótona não-decrescente de
E(X) = fnx(w) dP(w) ;
variáveis aleatórias simples tal que X 11 -+X. A seqüência {aX 11 + b : n > O}
também é uma sequência monótona não-decrescente de variáveis aleatórias
simples e pode-se verificar que (a X n + b ) -+ (a X + b) . Considerando que vale que é uma integral de Lebesgue-Stieltjes. D
E(aXn + b) = aE(Xn) + b, o resultado segue pela passagem ao limite. A existência de E(X) depende de E(X+) e E(X-) não serem
(ii) Sejam {Xn : n > O} e {Y;, : n > O} duas seqüências monótonas não- simultaneamente iguais a infinito, o que causaria uma indeterminação. Se apenas
decrescentes d~ variáveis aleatórias simples tais que, respectivamente, X 11 -+ X e uma das partes de X tem esperança infinita, o valor esperado existe. Ele será igual
Yn-+Y. a + oo se E(X+) = oo e E(X-) < oo; por outro lado, teremos E(X) = -oo se
Defina uma nova seqüência {Xn + Yn : n > O}. Essa seqüência também E(X+) < oo e E(X-) = oo.
é de variáveis aleatórias simples e é monótona não decrescente. Temos A definição no caso geral é coerente com as anteriores, ou seja, se a
variável for simples todas as três definições são aplicáveis e dão o mesmo valor.
E( X+ Y) = lim E(Xn
n-+oo
+ Yn) = n----.oc
lim [E( X n) + E(Yn)] = E( X )+ E(Y). O mesmo ocorre para variáveis não negativas, em que duas definições são
aplicáveis.
• r -·
Do ponto de vista prático, para a grande ma10na das variáveis de expressão que acabamos de obter temos
interesse, o cálculo da esperança é feito pelos procedimentos da seção anterior. 00
Entretanto, para a verificação de resultados teóricos é conveniente utilizar a E(X+) = E xi p;;
definição de valor esperado via a integral de Lebesgue-Stieltjes. í=l
O importante a ressaltar é que, se a esperança de uma variável aleatória 00
existe em mais de uma das definições apresentadas nessa ou na seção anterior, ela E(X-) = L XiPi·
í=l
coincide em todas elas. Os exemplos a seguir ilustram essas situações.
Exemplo 4.20: Suponha que X é uma variável aleatória discreta em (n, :F, P) e Se pelo menos uma dessas esperanças for finita, a esperança de X existe e é dada
vamos obter seu valor esperado através da definição apresentada nesta seção. A por
seqüência A1, A2, ··· é uma partição de eventos de n tal que a variável X vale Xn 00
E(Xk) =
ÓA; e, portanto ' temos
í=l
k
Ex;p;.
E[g( X)] = i: g( x) f (x) dx.
i=l Em particular, obtemos o valor esperado de X, se g for a função identidade.
A técnica de demonstração segue os passos da construção da integral de
Como X1, X2, · · · são variáveis aleatórias discretas simples com
O:::; X1:::; X2:::; Lebesgue-Stieltjes. Inicialmente, considere g uma função simples com distintos
.. ·e Xk-+X para k-+oo, podemos aplicar a definição de valor
esperado para variáveis positivas e obter valores a 1, a 2 , • • ·, am· Definimos para i= 1, 2, · · ·, m:
A;= {x: g(x) =a;} e B; = {w: g(X(w)) =a;}.
Observe que os A;'s formam uma partição dos reais e A; E B(JR). Temos,
também, B; = {w: X(w) E A;}= 1(A;) E :F.
x-
E(X) =
""
E x;p;.
i=l
1:
Se pelo menos uma das esperanças acima for finita, então,
m
E(9(X)) =L ai P(B;)
i=l
E(9(X)) = E(9+(X))- E(9-(X)) = 9(x)j(x) dx;
m
= 2:a;P(X- 1 (A;)) resultado que coincide com a definição apresentada na seção anterior. D
i=l
Exercícios da Seção 4.3:
=f; a; L/(x)dx k
l.A variável discreta simples X tem duas representações, X(w) = L:;x;IA;(w)
4. Seja X uma variável qualquer em (0, :F, P). Com as definições apresentadas
1:9n(x)f(x) dx--+ 1:9(x)j(x) dx, nesta seção, mostre que E( X) é finita se, e só se, E( lXI) for finita.
S. Seja X uma variável aleatória qualquer em (0, :F, P). Admita que E( X) é
e, portanto, concluímos finita. Usando as definições apresentadas nesta seção, mostre que
IE(X)I ~ E(IXI).
E(9(X)) = 1:9(x)j(x)dx. 6. Sejam X e Y variáveis aleatórias quaisquer em (0, :F, P), com E(Y) finita e
lXI ~ Y em O. Com as definições apresentadas nesta seção, mostre que E( X)
Se 9 é uma função que pode tomar qualquer sinal, calculamos a esperança é finita.
das partes positiva e negativa de 9· Assim,
4.4 Propriedades do Valor Esperado
E(9+(X)) = 1:9+(x)j(x)dx e E(9-(X)) = 1:9-(x)j(x)dx, Esta seção e a de exercícios ao final do capítulo vão utilizar a definição
de esperança dada pela integral de Riemann-Stieltjes. Muitas das propriedades
existem pelo caso anterior. apresentadas são decorrências diretas de resultados válidos para essa integral.
O próximo resultado é muito útil, pois possibilita a obtenção do valor
esperado de uma variável aleatória qualquer, como a diferença de duas integrais
de Riemann.
214 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 215
xdF(x) 21c[1-F(x)]dx,
E(X) = 1: xdF(x) = 1
00
Demonstração:
Vamos verificar que, dividindo o intervalo de integração do valor
( esperado em duas partes, temos as seguintes igualdades:
Das desigualdades ( 1) e (2), concluímos que
( 00 00
fo\dF(x)=F(b)b-F(O)o-fobF(x)dx 1°xdF(x)=F(O)O-F(b)b-1°F(x)dx;
I
e, portanto, a função de distribuição pode ser escrita como Exemplo 4.24: A variável X do Exemplo 4.15 é do tipo mista e sua função de
distribuição é reapresentada a seguir:
= { ~·- (1- p)k+l,
X< O;
F(x) X 2: 0, k $X< k + 1, k E N. o, X< -2;
i4(x 2 + 4x + 4), -2 s X< O;
Como não temos valores negativos, a média será
~(x+2), 0$ X< 1;
E(X) = 1 00
(1- F(x)Jdx
F(x) =
~(x+3),
i4(-x2 + 8x + 8),
1$ X< 2;
2$ X< 4;
rk+1 2: 4.
={;A 00
(1- F(x)] dx
1, X
[1-F(x)Jdx- I:F(x)dx
conforme obtido anteriormente. o
Exemplo 4.23: A variável aleatória X tem densidade dada pela expressão:
f(x) = fs(2x + 1)J[1,4J(x). Para sua função de distribuição temos
=
o
+
1r
1(4-x)d
6
x+
2
12(3-x)d
1 6
x+
2
(16 + x - 8x) dx- !o (x + 4x + 4) dx
o, X< 1; 12 24 -2 24
5
=
{ 1,-fs(x + x- 2),
2
F(x) 1 $X< 4; = -·
6
X 2:4.
Observe que esse valor já havia sido obtido antes. Entretanto, agora, calculamos o
A variável só tem valores positivos, logo, valor esperado sem a necessidade de obtermos a decomposição nas partes
E(X) = 1 00
(1- F(x)] dx
contínua e discreta.
Vamos formalizar, na próxima proposição, alguns resultados aplicados
O
= f\
lo dx +
3
-1
1 18
2
1 2 4
(x + x- 20)dx + 1 4
00
Odx
nos exemplos acima.
Proposição 4.6:
1 x x 14 11 Seja X uma variável aleatória com valores não negativos, então,
= 1 - 18 ( 3 + 2- 20x) 1 = 4'
Note que, apesar de F(x) ser zero no intervalo (0, 1], a expressão alternativa do
valor esperado recebe contribuição positiva, pois integramos 1- F(x) , no
E(X) = 1 (1-
00
referido intervalo. O Se, além disso, a variável for discreta com valores nos inteiros não negativos,
temos
00 00
Demonstração:
Se a variável for não negativa, então F (x ) =O para x <O. Assim, para o E(X) = 1oo P(X > x ) dx
valor esperado temos 00 rk+l
=~Jk
E(X)= 100
= 100
[1- F(x)] dx
= L:l1-F(k)]
k=O
= LP(X > k ).
k=O
= 100
da parte anterior, observamos que a integral de interesse é a área sombreada da probabilidade dessa função. Em outras palavras, seja g uma função de uma
figura a seguir. variável X que tem função de distribuição F. Estamos interessados em E(g(X)),
que poderia ser obtida de modo usual, se conhecêssemos a função de distribuição
da variável g(X), isto é, F9 (y) = P(g(X) ~ y). Entretanto, esse conhecimento
F(x) pode demandar muito esforço e evitá-lo é uma das razões da importância do
próximo teorema.
Teorema 4.7:
Seja X uma variável aleatória cujo valor esperado existe. Considere
Y = g(X), uma função de X que também é variável aleatória no mesmo espaço
F(l) 1--- - - - -- -------<.-- --<l
de probabilidade. Então:
F(2)
E(g(X)) = l:g(x)dFx(x).
F(/) 1------'. - - - - --o
FtoJ.....- - -.0
= g( X) = { ~0,
=L L g(x )P(X = x) X= 180;
Y x: g(x)=y y X= 260;
(
= Lg(x)P(X =x)
( X
observe que se a ação estiver valendo R$ 180,00 não haveria lucro, mas sim
= E(g(X) ); prejuízo, por isso estabelecemos lucro igual a zero.
Para calcular o valor da opção de compra nos dias de hoje, é necessário
note que os valores possíveis, nas somatórias, dependem da variável e da função comparar o lucro médio da ação com a renda de outros investimentos. Vamos
de interesse. assumir que, descontadas todas as despesas, o rendimento em um ano de
Vamos verificar, agora, a expressão para o caso contínuo. aplicações financeiras seria de 4%. Dessa forma, o preço da opção de compra
Suponha que X é uma variável aleatória contínua com função densidade dessas ações, nos dias de hoje, teria um valor razoável, se empatasse com o lucro
f x . Seja Y = g(X) e admita, ainda, que a função g é tal que podemos aplicar o médio da ação. Ou seja, vamos determinar v tal que: 1, 04 v = E(Y ).
método do Jacobiano (g é bijetora ou particionável em bijetoras) e que sua inversa O valor médio do lucro é:
é denotada por h. Assim,
E(Y) = L g( x) P(X = x) = 60p.
X
l : g( x) dFx (x ) = l:g(x)fx(x)dx
1:
(
Segue então que v= ~ = 57,69 p. Podemos usar algum método para
Yfx (h(y)) jâ~~) jdy
(
= obter p ou, então, estabelecer algum cenário para seus valores. Uma das formas de
( determinar p é igualar o valor médio do preço da ação com o preço de hoje
reajustado pelo rendimento anual, aqui suposto igual a 4%. Nesse caso, teríamos
= l : yfy(y) dy
200 X 1, 04 =E( X ) => 208 = 260p + 180(1- p) => p =o, 35.
=E(Y )
Substituindo na expressão de v, obtemos v= R$ 20, 19. Este deveria ser o valor a
= E(g(X));
ser pago, hoje, pela opção de compra. Essa opção consiste em poder comprar a
ação em um ano pelo preço atual, sabendo-se que a ação vale, hoje, R$ 200, 00 e
após utilizar a expressão de troca de variáveis do método do Jacobiano. O
que a valorização anual do capital está avaliada em 4%. O
O teorema anterior pode ser generalizado para calcular o valor esperado
de funções de vetores aleatórios. A expressão é similar, usando integrais múltiplas
e com a substituição da função de distribuição univariada pela multi variada.
222 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 223
Proposição 4.9: Desigualdade de Jensen O valor esperado pode ser usado para avaliar a amplitude de valores da
variável, conforme estabelecido na próxima proposição.
Seja X uma variável aleatória com esperança finita e g uma função
convexa. Então, Proposição 4.10: Desigualdade Básica de Chebyshev
E(g(X)) ~ g(E(X)). Seja X uma variável aleatória não negativa e considere a > O. Então,
Demonstração:
P(X ~a)~ E(X) ·
a
. Send,o g convexa: existe uma reta que passa no ponto (xo, g( xo)) e fica
abaixo do grafico da funçao g. Demonstração:
. Para 0 ~onto (xo, g(xo)) = (E( X), g(E(X)) ), seja h(x) = ax + b a reta A existência de E(X) está garantida, pois X é não negativa. Considere o
m(;(~I)ona[!a(;c)]I)ma. Dessa forma, veja ilu~tração na figura a seguir, no ponto evento A= {X~ a} e uma variável discreta Y =alA. Ou seja, Y é tal que, para
,9 , temos h= g e, nos demais, h(x) ~ g(x).
todo w E 0, temos
(
= 1:1:1 dFxl.x2(Xt, X2) +1:1:2 d2Fx ,x (x x 1 2 1, 2) Demonstração:
Vamos aplicar o Teorema 4.7 com a conjunta de Xt, · · ·, Xn. Decorre da
( = 1:xtdFx (xi)+ 1:x2dFx (x
1 2 2) independência e de propriedade da integral, que podemos fatorar a diferencial da
função de distribuição conjunta em produto das diferencias das marginais.
( = E(XI) + E(X2);
( em que ~pl~camos propriedades da integral de Riemann-Stieltjes, para obtermos
( as margmats. A suposição da existência do valor esperado de X 1 + X 2 é
(
(
(
(
228 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 229
X.(w)
X\Y -1 o 1
o o 1/3 o
1 1/3 o 1/3
Não é díficil verificar que as variáveis X e Y são dependentes. Temos
E(X) = 2/3, E(Y) =O e E(XY) =O. Portanto, a esperança do produto w
XY
pode ser fatorada como o produto das esperanças. Assim, a recíproc
a da
Proposição 4.12 não é válida.
D
Os próximos dois teoremas tratam de resultados limites. A questão Figura 4.8: Comportamento da variável Xn.
importante é saber se é possível permutar as operações de limite e esperanç
a. Ou
seja, estal'Il:os interessados em estabele cer condições para que tenhamo
s É imediato observar que lim Xn (w) = O. Para o valor esperado temos
limE( X,.) =E( lim Xn)· Apresentaremos duas situações em que isto é possível. n~oo
n--+oo n-+oc
Em uma, as variáveis precisam ser não negativas e formar uma seqüênc
ia
r 1Xn(w) dw = 1/2n 11/n (-2n w + 2n) dw = 1/2.
monótona não decrescente. Na outra, a seqüência de variáveis é dominad
uma variável que tem esperanç a finita. Esses resultados valem no contexto
a por
teoria de integrais, mas serão apresentados aqui para variáveis aleatórias com
da
E(X )
n
=
Jo 1 O
2n2 w dw +
l/2n
2
Teorema 4.13: Teorema da Convergência Monótona (ii) X(w) ~ Y(w) e Xi(w)-+X(w), então Xj(w) ~ Y(w) para um
Sejam X, X1, X2, · · ·, Xn variáveis aleatórias em (f!, :F, P). Suponha que índice j suficientemente grande.
(
Xn ~ O,n E N com X1 :S X2 :S ··· e, também, que Xn(w)-+X(w), Vw E n, Seja
quando n vai a infinito. Nessas condições, temos
se w E Ai;
lim E(Xn) =E( X). se w ri. Ai;
n--+oo
Demonstração: temos O :::; Y IA :::; Xj e, portanto, O :::; E(Y IA) :S E(Xj)· Podemos reescrever
1
Como as vanave1s são não negativas, todas as esperanças existem YIAi como
(eventualmente sendo infinitas). Por propriedade do valor esperado e usando a sew E AinBn,n E N;
monotonicidade da seqüência, vem caso contrário.
Então,
que, passando ao limite, resulta em oo m
( E(Xi) ~ E(YIA) = Ln«:P(AinBn) ~ LmP(AinBn), Vm E N;
lim E(X,J :SE( X). (I) n=O
n--+oo n=O
(
Vamos definir uma aproximação de X, através de um variável discreta Y, passando ao limite, para j-+ oo, vem
(
de modo que E( X) = E(Y) :::; lim E(Xn). Assim, a demonstração ficará m
n--+oo
completa, juntando-se as duas desigualdades obtidas. limE(Xj) ~ lim
J--+oo
L
J--+OO n=O
nE P(Aj n Bn)·
(
Parat >O, n E N, e Bn = {w: m < X(w) :S (n + 1)«:} seja
( Observe que, para cada n fixado, temos Ai n Bn j Bn. isto é, a seqüência
Y(w) = ~noc=O nds,(w) = { On,«:, se n«: < X(w) :S (n + 1)«:; Ai n Bn será monótona não decrescente em j e com limite Bn.
L....t se X(w) =O.
Como vale a troca entre limite e probabilidade, vem
Logo, X - «: :::; Y :::; X e, portanto, para as esperanças segue que
Vamos, agora, estabelecer a relação entre as esperanças de Y e da limE(Xj) ~ L nE P(Bn) = E(Y) =E( X). (2)
J--+OO n=O
seqüência {Xn : n > 0}. Seja Ai= {w: Xj(w) ~ Y(w)}, j = 1, 2, .. ·. Esses
eventos formam uma seqüência monótona não decrescente cuja união é o espaço Observando-se as desigualdades (l) e (2), concluímos a demonstração. o
amostrai n, conforme concluímos a partir dos argumentos a seguir:
(i) Xj(w) ~ Y(w) e isto implica Xi+ 1 (w) ~ Y(w) pela monotonicidade
de {Xn}·
-
232 Capítulo 4: Valor Esperado 4.4 Propriedades do Valor Esperado 233
3. Suponha que n envelopes estão endereçados, mas as n respectivas cartas são 3. Em ensaios de Bernoulli independentes, com probabilidade p de sucesso, seja
colocadas aleatoriamente nesses envelopes. Determine o número esperado de X o número de fracassos anteriores ao r-ésimo sucesso. A variável X segue o
cartas enviadas ao destinatário correto. modelo Binomial Negativo de parâmetros r e p. Determine a média de X.
4. Seja X uma variável aleatória, seguindo o modelo Logístico, com função 4. A densidade de X é apresentada, a seguir, determine o valor esperado de
densidade dada por f(x ) = e-x 1(1 + e-x) 2, x E~- 2X -1.
a. Verifique se X é simétrica ao redor do zero. x2
se OS x < 1;
~ r:;x),
b. Determine o valor esperado de X.
c. Calcule E( ex). se 1 S x < 2;
fx(x)
5. Sendo X uma variável aleatória com média J.L, mostre que o erro quadrático { se 2 S x S 3;
médio, dado pela expressão E[(X- d) 2 ], é minimizado para d igual a J.L. o, caso contrário.
6. Mostre ou dê um contra-exemplo:
5. A função de distribuição da variável X é dada por:
a. E(1IX) = 1IE(X).
b. Se X e Y são independentes, então E(XIY) = E(X)IE(Y). o, se x <O;
se OS x < 2;
7. A densidade conjunta de X e Y é dada por Jx,y(x, y) =e-x I(o,oo)(x )I(o,x)(Y).
a. Obtenha a densidade de Y I X e calcule seu valor esperado.
Fx(x) = ~:::
{ 1, se 2 S x < 3;
se x 2: 3.
b. Determine E(Y I X) diretamente.
8. Sejam X uma variável aleatória qualquer e g uma função não negativa tal que Determine E( X) de duas formas diferentes.
·g(X) é variável aleatória e E(g(X)) < oo. Se g(x) 2: b > O sempre que 6. A variável X tem a seguinte função de distribuição:
x 2: a, mostre que P(X 2: a) S E[g(X)Jib.
9. Considere uma função g tal que, g(X) seja variável aleatória sempre que X for
o, X< -1;
{ !~~:
variável aleatória. Suponha que g é par, isto é, g(x) = g( -x), Vx E R Além -1 :$X< 112;
F(x) = 112 :$X< 2;
disso, admita que g é não decrescente e não negativa para x > O. Mostre que,
para qualquer c> O e qualquer X, P(IXI 2: c) S E[g(X)Jig(c).
1, X 2: 2.
oc
a. Obtenha E( X).
10. As variáveis aleatórias xl, x2, 00
·são não negativas e EX,. é convergente em
n=l b. Determine E([X]), em que [a] indica o maior inteiro contido em a.
oc oc
n. Mostre que E( E X,.) = E E( X,.). 7. Seja F(x, y) = [1- e-(x+l)- e-Y + e-(x+y+Il]J(-I,oo)(x) I(o,oo)(Y) a função
n=l n=l
de distribuição conjunta das variáveis X e Y.
4.5 Exercícios a. Obtenha E( X+ Y) de duas maneiras diferentes.
b. Calcule E(XY).
1. Um jogador lança uma moeda equilibrada até a ocorrência de dois resultados
iguais sucessivos. Determine o valor esperado do número de lançamentos. 8. A função mista de probabilidade conjunta de X e Y é dada por:
2. Cartas são retiradas sem reposição de um baralho, contendo 52 cartas, até que :C se x = 1, 2, 3 e O S y S 1;
todos os 4 ases tenham saído. Calcule o valor esperado do número de retiradas. f(x, y) = 0,3 '
{ caso contrário.
236 Capítulo 4: Valor Esperado 4.5 Exercícios 237
a. Obtenha E( X + Y). 17. A função de probabilidade conjunta do vetor (X, Y), para O < p < 1/2, é
b. Determine E(XY). dada por:
9. Supondo que E(X) existe, mostre que E(IX - ml) :::; E( IX- a i), em quem é
a mediana de X e a é um número qualquer. p(x, y) = {f'_ 2p,
se x = ± 1, y =O;
se x = O,y = 1.
10. Supondo a existência das esperanças, considere as seguintes situações:
Verifique que E(XY) = E(X)E(Y), mas X e Y não são independentes.
(A): P(X > Y) = 1; (B): E(X ) > E(Y) e (C): Fx(z) > Fy (z), 'Vz. 18. O vetor aleatório (X, Y ) tem densidade uniforme, no triângulo (0, 0), (0, 1) e
Mostre ou dê um contra-exemplo para as seguintes implicações: (1, O). Obtenha E( X), E(Y) e E(XY).
a. (A) => (B). 19. Duas câmeras de vídeo funcionam, de forma independente, monitorando a
b. (A) => (C). segurança da portaria de um prédio residencial. Admita que o tempo até
c. (B) => (A). acontecer uma falha na câmera é Exponencial, com parâmetros .À 1 e .À 2 ,
d. (B) => (C). respectivamente, para as câmeras 1 e 2. Supondo que ambas as câmeras
e. (C) => (A). iniciaram suas atividades no instante zero, obtenha o valor esperado do
f. (C) => (B). instante a partir do qual não haverá câmera em operação na portaria.
11. Para X ~ Oem n, com E( X)= O, prove que X= O para quase todo w E n. 20. O vetor aleatório (X, Y) tem função de distribuição conjunta dada por:
12. Seja X simétrica ao redor da constante a. Se E(IX I) = oo, mostre que a o, se x < Oou y < O;
mediana de X é a. (rnin(x, y) + x 2 y)/2, se O:::; x < 1, O :::; y < 1;
13. Para quaisquer constantes reais a e b, se P (a :::; X :::; b) = 1, então Fx,y(x, y) = (x + x 2)/2, . se O :::; x < 1, y ~ 1;
a :::; E(X):::; b. y, se x ~ 1; O :::; y < 1;
1, se x ~ 1, y ~ 1.
14. Sejam X 1 , X 2 , · · · variáveis aleatórias independentes com valores -1 e 1, com
I·
Obtenha E( X) , E(Y) e E( X + Y).
probabilidades n/n + 1 e 1/n + 1, respectivamente. Determine E [( - 1 )~X;],
para k inteiro. 21. O vetor aleatório (X, Y) tem densidade dada por f(x, y) = ~e-(x+y)/A
I(o<x<y<oo )(x, y), com À > O. Obtenha E(X),E(Y) e E(XY).
15. João e José disputam um jogo em que João tem probabilidade p, O < p < 1,
de sair vencedor em cada partida. Quem perde paga R$ 1 ao vencedor em 22. Sendo X e Y independentes com distribuição Exp(2).
cada partida. Se João inicia o jogo com R$ 2 e José com R$ 1, qual será a a. Determine o valor esperado de max(X, 2).
duração esperada do jogo se eles pararem quando um deles tiver R$ 3? b. Confira a resposta de (a), usando para o cálculo a função de distribuição
16. Em um jogo, uma moeda equilibrada é lançada até que a primeira cara sej a obtida no Exercício 35 do Capítulo 3.
obtida. Um sistema de recompensa é estabelecido pelo organizador do jogo. c. Determine o valor esperado de max(X, Y , 2).
Para m inteiro e positivo, o jogador ganha m2-k , sempre que a primeira cara 23. Seja (X , Y ) um vetor aleatório com valores em (0, 1) x (0, 1) de forma que
ocorrer no intervalo (km, (k + 1)m], k = O, 1, · · ·. Determine a recompensa X"' Uc(O, 1) e YIX "' Uc(1- X 2 , 1). Calcule o valor esperado de
média. W = (1 - Y)/ X.
24. Sejam X e Y variáveis aleatórias independentes com densidade Uc{l, /3),
/3 > 1. Calcule E[min(X, Y) x max(X, Y)] .
4.5 Exercícios 239
238 Capítulo 4: Valor Esperado
b. Verifique se E(XY) = E(X)E(Y). 33. Uma partícula está na origem e realiza movimentos de acordo com a regra
descrita a seguir. A cada etapa ela pode mover-se a unidades para a direita
28. Seja X uma variável aleatória qualquer. Considere uma função g que, para
com probabilidade p, ou b unidades para a esquerda com probabilidade 1 - p.
x > O, é não negativa e não decrescente. Admita, ainda, que g(X) é variável Os vários movimentos são independentes. Determine o valor esperado da
aleatória com E(g(X)) < oo. Mostre que, para f> 0:
posição da partícula, em relação à origem, após n etapas.
a. Se ig(x)i :::; k, Vx E JR, então P(IXI ~ t:) ~ {E[g(X)]- g(t:)}/k. 34. Seja X uma variável aleatória discreta com P(X = n) = (~)n, n = 1, 2, · · ·.
b. Se P(IXI:::; M) = 1, então P(IXI ~ t:) ~ {E[g(X)]- g(t:)}/g(M). Defina Y = g(X), em que g(n) = %( -l)n+l2n. Mostre que E(Y) não existe.
29. Sendo X e Y variáveis aleatórias independentes e identicamente distribuídas 35. Sejam X 1, X 2 , • • • variáveis aleatórias não negativas e limitadas para cada
com densidade Uc[O, 1), calcule os valores esperados de min(X, Y) e de w E O. Mostre que liminf E(Xn) ~ E(liminf Xn)·
max(X,Y).
36. Suponha que XI, x2, ... são variáveis aleatórias contínuas independentes e
30. Um jogo eletrônico, imitando uma espécie de bilhar, consiste de 3 caçapas identicamente distribuídas, representando as sucessivas etapas de um
numeradas e uma bola. As caçapas podem ter cor vermelha ou verde, experimento. Consideramos que tenha ocorrido um sucesso na etapa k, se
conforme estejam fechadas ou abertas para receber bolas. A cada momento, Xk > max(X1 ,X2 ,···,Xk-l)· Assuma que a primeira etapa é sempre um
somente uma caçapa fica verde. Inicialmente a cor verde está na caçapa 1 e a sucesso, não importando qual tenha sido o valor de X 1· Determine o valor
bola está na caçapa 3. A cada etapa, a cor verde e a bola se deslocam de esperado do número de sucessos até a etapa n.
acordo com a seguinte regra. A cor verde se desloca para as outras duas
caçapas com igual probabilidade. A bola só salta para caçapas adjacentes, 37. As variáveis aleatórias X 1, X 2 , • • ·, Xn formam uma amostra aleatória da
sempre na direção da cor verde. O jogo termina, quando a bola entrar na densidade f(x) = ax0 - 1l(o,l)(x), a> O. Em outras palavras, as variáveis
caçapa. Determine a duração média do jogo. X; 's são independentes e identicamente distribuídas de acordo com a
densidade indicada. Determine o valor esperado de YI/Yn, sendo que Y1 e Yn
31. As variáv~is X e Y têm a seguinte densidade conjunta: são o mínimo e o máximo da amostra, respectivamente.
Jx,y(x, y) = e-11 (1- e-x)I(o, 11](x)I]o,oo) (y) + e-x(l - e-11 )/(o,x] (y)I]o,oc)(x). 38. As variáveis X e Y são independentes e identicamente distribuídas com
densidade Exp(>..). Calcule o valor esperado de log[X/(X + Y)].
a. Calcule E(XY).
b. Para qual a, o valor da expressão a 2E(X)- (1- a)E(Y) é mínimo?
240 Capítulo 4: Valor Esperado
39. A taxa de crescimento semanal (em porcentagem) no preço de uma certa ação, Capítulo 5
foi modelada pela variável X que tem a seguinte função de distribuição:
o, X< O; Momentos, Esperança Condicional e Funções
F(x ) = *(1 + 4x),
{ w(3 + Bx) ,
0 ::;
1 ::;
X
X< 2;
< 1;
Auxiliares
{ 1, X::::: 2.
a. Calcule o valor esperado de X .
b. O administrador da carteira de ações recebe um bônus de b reais, por cada
fração de O, 5 % que é ultrapassada na taxa de crescimento semanal.
5.1 Introdução
Determine o bônus médio por ação. Neste capítulo, estudamos o valor esperado de funções de vanave1s
aleatórias. Na Seção 5.2, apresentamos a definição de momento e exploramos suas
40. Admita que X represente a duração de uma chamada telefônica internacional
propriedades. Um conceito importante é o de variância que caracteriza a
e obedeça o seguinte modelo:
dispersão da variável. A relação de dependência linear entre variáveis será
o, X< O; estabelecida através da correlação. Essas quantidades são calculadas a partir de
F (x) = {1 - 3
e _ ~:.2 1 -[~] momentos de uma ou mais variáveis. O conceito de esperança condicional e suas
4 -
4e 2 , X::::: 0.
propriedades são o objeto da Seção 5.3. Nas Seções 5.4 e 5.5, apresentamos duas
em que [a] indica o maior inteiro contido em a. ferramentas bastante utéis em Probabilidade e Estatística: a função geradora de
a. Verifique que F( x) é função de distribuição. momentos e a função característica. A idéia básica do uso dessas funções é,
b. Determine o valor esperado de X. através de uma transformação, facilitar alguns cálculos. Obtido o resultado no
c. A tarifa aplicada por chamada tem um custo inicial de R$ 2 e um adicional domínio das transformadas, teoremas garantem a inversão de volta ao domínio das
de R$ O, 75 por minuto inteiro de conversação. Determine o custo médio funções originais, se isto for necessário. Dessa forma, muitos teoremas
de cada chamada. importantes em Estatística são provados com o auxílio dessas funções .
5.2 Momentos
Diversas características importantes das variáveis aleatórias podem ser
quantificadas através do valor esperado de potências da variável. Nesta seção,
vamos descrever várias delas. Iniciamos com a definição de momento.
Definição 5.1: Mom entos de Variáveis Aleatórias
Para k = 1, 2, · · ·, o momento de ordem k da variável X é definido por
E(Xk), desde que essa quantidade exista. Se E(X) = J.L < oo, definimos o
momento central de ordem k por E[(X - J.L )k], sempre que essa quantidade exista.
De modo similar, o momento absoluto de ordem k da variável aleatória X é
definido por E(IXIk) . O
A existência dos momentos está relacionada à discussão que fizemos
sobre a existência da integral. Isto é, o valor infinito pode ocorrer, mas operações
241
5.2 Momentos 243
242 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares
do tipo oo - oo são indeterminadas e levam à inexistência do momento. É Se E[( X - a)k] existe e k é ímpar, então seu valor será igual a zero. Para
imediato notar que o momento de ordem I é o valor esperado, já definido verificar isso, observe que (X- a)k e [-(X- a)Jk têm, também, a mesma
anteriormente. distribuição e a mesma média. Se k é ímpar vale [- (X- a)Jk = -[(X - a)k] e,
então
Exemplo 5.1: Sendo X,..... Gama( a , /3), vamos obter seus momentos. Temos
(
E(Xk) = roo xkLxOI-le-f3xdx e isto implica E[(X- a)k] =O. Se k é par, o cálculo do momento precisará ser
( lo r(a)
01 00 feito do modo usual.
- /3 { k+OI-1 -{3xd
- r (a)}o X e X Note que a simetria não é garantia de existência do valor esperado e sua
suposição foi necessária. Lembremos que o modelo Cauchy não tem média,
/3 r(k +a)
01
Proposição 5.1: Exemplo 5.3: Vamos obter a variância de X"" B(n, p). Sabemos que E( X) = np
Se a e b são constantes quaisquer, então e para E(X 2 ) vem que
n
Var(aX + b) = a2 Var(X) . E(X2) = :~:::>2 (~)Pi (1- p)n-i
i=O t
Demonstração:
Sendo E(X) = J.t, por uma propriedade do valor esperado temos
E(aX + b) = aJ.t + b. Assim,
= t
i=O
[i( i- 1) +i](~ )Pi (1- p)n-i
t
Var(aX + b) = E[(aX + b- aJ.t- b) 2] = E[(aX- aJ.t) 2J = a2 Var(X). = t i ( i -1) (~ )P; (1- Pt-í +E( X)
i=2 t
Demonstração: variância de X. O valor esperado é J.t, conforme já foi calculado. Para o segundo
momento temos:
Para verificar (i), vamos desenvolver o quadrado do desvio e aplicar
propriedades da esperança. Temos
1 00
= y 2dFy(y) 2: t 2dFy(y) = t 2 P(A);
e, portanto, o resultado segue. D
Proposição 5.4: Desigualdade de Markov
Portanto, Seja X uma variável aleatória qualquer. Então, para quaisquer t, k > O,
temos
D
A variância permite ter uma avaliação da amplitude de valores da
variável. Por exemplo, com o auxílio de valores tabelados de probabilidade para a Demonstração;
N(O, 1), podemos determinar a probabilidade de não nos afastarmos da média de
mais de 2 desvios-padrões. Sendo Z "'N(O, 1), obtemos P(IZI ~ 2) =O, 9544; Temos
um valor bastante expressivo. Para 3 desvios-padrões teríamos a quase totalidade
da amplitude da variável, ou seja, P(IZI ~ 3) =O, 9974. Se tivermos uma
N(J.L, a 2 ), as probabilidades de afastamentos menores que 2a e/ou 3a serão as
mesmas mencionadas acima no cálculo para Z. Dessa forma, o conhecimento dos pela aplicação da desigualdade básica de Chebyshev. D
parâmetros da Normal é uma informação importante para estabelecer, com alta Se a partir de uma amostra pudermos obter estimativas de momentos da
probabilidade, a amplitude de seus valores. variável, às desigualdades acima podem ajudar a estabelecer limites em
As próximas proposições auxiliam no estudo do comportamento das probabilidades de interesse. Também, em termos teóricos, elas podem ajudar. Por
variáveis. As desigualdades apresentadas fornecem limites, em função da exemplo, suponha que desejamos avaliar P(IX- J.LI < 2a), sendo J.L e a finitos e
variância e de momentos, para a probabilidade da variável aleatória exceder um indicando, respectivamente, a média e o desvio-padrão de X. Obtemos, com a
certo valor de interesse. aplicação da desigualdade clássica de Chebyshev,
Proposição 5.3: Desigualdade Clássica de Chebyshev P(IX- J.LI < 2a) .= 1- P(jX- J.LI2: 2a) 2: 1-1/4 = 3/4.
Seja X uma variável aleatória com média J.L· Então, para qualquer t > O,
Assim, a porcentagem de valores, num raio de 2 desvios-padrões da média, é de
temos
pelo menos 75%. Note que nada de particular da distribuição da variável foi
usado e, portanto, esse resultado vale em geral, contanto que média e variância
P(jX- J.Li 2: t) ~ Va~~X) · sejam finitas.
O valor esperado e a variância são mencionados como medidas de
Demonstração: localização e dispersão, respectivamente. Além delas, a mediana, apresentada em
exercício no Capítulo 2, e a moda definida genericamente como o valor da
Sejam Y =IX- J.Li e A= {Y;::: t}. Assim, Y 2 =(X- J.L) 2 e também variável com maior probabilidade, são as medidas usualmente utilizadas para
' y2 2: y2JA.
caracterizar as variáveis aleatórias. Entretanto, em algumas áreas, a simetria e/ou
248 Cap{tulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos 249
a massa de probabilidade nas caudas é um fator importante para a variável de Ao considerarmos distribuições multivariadas poderíamos também definir
interesse e avaliar seus efeitos pode ser relevante. Uma análise gráfica é momentos conjuntos. Não vamos nos aprofundar nesse tópico e o lei~or
freqüentemente utilizada nesses casos, mas também é possível quantificar esses interessado pode consultar Dudewicz e Mishra [88]. Entretanto, por ter espectal
efeitos com o uso de momentos, conforme apresentamos nas definições a seguir. importância, o momento central conjunto de ordem I para duas variáveis é
Definição 5.3: Coeficiente de Assimetria definido a seguir.
Seja X uma variável aleatória qualquer com valor esperado p, e desvio- Definição 5.5: Covariância
padrão a. O coeficiente de assimetria de X, denotado por a3, indica o grau de Sejam X e Y variáveis aleatórias no mesmo espaço de probabilidade. A
assimetria da sua distribuição de probabilidade e é definido por: covariância entre X e Y é definida por
Cov(X, Y) = ax,Y = E[(X- p,x)(Y- p,y)];
desde que as esperanças, presentes na expressão, existam. o
em que supomos a existência do terceiro momento de X. o Em palavras, a covariância poderia ser definida como o valor esperado do
Definição 5.4: Coeficiente de Curtose produto dos desvios das variáveis, em relação às suas médias. A covariância é
uma medida de dependência linear entre as variáveis e pode assumir valores de
Seja X uma variável aleatória qualquer com valor esperado p, e desvio- qualquer sinal. Se a covariância for zero não há dependência linear entre ~s
padrão a. O coeficiente de curtose da variável X, denotado por a 4 , mede a variáveis, mas pode haver outro tipo de relação entre elas e, portanto, nao
intensidade dos picos da sua distribuição de probabilidade e é definido por: podemos dizer que são independentes. A próxima proposição apresenta. _u~a
fórmula alternativa bastante útil. Ela toma evidente que, para vartavets
independentes, a covariância será zero.
Proposição 5.5:
em que supomos a existência do quarto momento de X. O A covariância entre X e Y é igual à esperança do produto menos o
Exemplo 5.5: Seja X "' N(p,, a 2 ), como X é simétrica ao redor de p,, não é produto das esperanças, isto é:
díficil verificar que a3 será zero. Em geral, se a 3 < O, dizemos que a variável é
Cov(X, Y) = E(XY)- 11-XJl-Y i
assimétrica à esquerda. Esse será o caso da B( n, p) se p > ~. Se a 3 > O, temos
assimetria à direita, como para uma B( n, p) com p < ~. Pode-se também verificar sempre que as esperanças envolvidas estejam bem definidas.
que os modelos Poisson e Exponencial são sempre assimétricos à direita.
Demonstração:
Para o coeficiente de curtose é comum uma comparação com a N(O, 1),
que tem a 4 = 3. De fato, alguns autores já definem o coeficiente subtraído de 3. Pela definição temos
Se para alguma distribuição a -1 - 3 é maior que zero, é usual indicar que tem mais Cov(X, Y) = E[(X- p,x)(Y- p,y)]
pico no centro do que a N(O, 1). Valores negativos indicariam que é mais achatada
= E(XY- p,xY- p,yX + 11-XJl-Y)
no centro do que a N(O, 1). Pode se verificar que para a Uc(a,b) temos a 4 < 3,
= E(XY) - p,xE(Y) - p,yE(X) + P,xll-Y
enquanto que para a Exp(>..) , obtemos a 4 > 3.
O leitor interessado em aprofundar esse assunto pode consultar Mood, = E(XY) - JlxJl-Yi
Graybill e Boes [74] e as referências lá mencionadas. O se as variáveis forem independentes, E(XY) fatora no produto das esperanças e a
covariância se anula. O
250 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 251
5.2 Momentos
Exemplo 5.6: Um dado equilibrado é lançado. Seja X o resultado do lançame deixamos ao leitor a tarefa de conferir esse resultado através da expressã
nto o
na base 2 e Y igual a 1 ou O, se o resultado for múltiplo de 2 ou não, original, apresentada na definição de covariância.
respectivamente. Vamos avaliar se essas variáveis têm dependência linear, O
calculando sua covariância. Exemplo 5.8: Sendo U uma variável Uniforme Contínua em (0, ~)· ~efinimos
as
variáveis X= sen(27rU) e y = cos(27rU). Vamos obter a covananc1a entre X
A conjunta entre X e Y é dada por: e
Y.
X\Y o 1 Para a esperança das variáveis temos:
o o 1/2 1
1 1/2 o E(X) = { sen(27ru) du = 2._ (-cos(2 7ru)n
Então,
h 27l' o
=O;
1 = ~ ( sen(47ru) du
f(x,y) = x I(o,2j(x) I(o,xj (y). 2}o
8~ ( -cos(47ru)j:) =O.
2
=
Para utilizar a expressão alternativa da covariância, determinamos inicialmente
as
marginais e daí obtemos E( X) = 1 e E(Y) = 1/2. A esperança do produto é dada
Então,
por:
Cov(X, Y) = E(XY) - E(X)E( Y) =O;
e as variáveis não são covariadas. Seriam também independentes? A respo~ta
.é
negativa, pois a função de distribuição conjunta não é o produto das margma1
s
para todos os valores x, y E R Por exemplo, para x = Y = 1/2, temos
1 1
Fx,y(1/ 2, 1/2) = P(X ~ 2' Y ~ 2)
= P(sen(27rU) ~ 21 ,cos(27rU) ~ 2)
1
1 5 1 5
Então, = P(U E { ([0, 12] U [12 '1]) n [6' 6]})
Por outro lado, em que aplicamos o resultado para duas variáveis. Usando a hipótese de indução,
1 7 2 4 o segundo termo dessa soma pode ser escrito como:
Fx(1/2)Fv(1/2 ) = ( - +-) x- = _,
12 12 3 9 k+l k+l
com 1 ~ i < j ~ n. Se, além das condições mencionadas, as variáveis forem Então, após a respectiva substituição,obtemos
i=2
.
independentes, então:
k+l k+l
Var(LX;) = Var( XI) + LVar(X;) +
i=l 1=2
k+l
Demonstração:
+ 2L L Cov(X;Xj) + 2L Cov(X1, X;)
2:5i<j:5k+l i=2
A prova será feita por indução. Para a soma de duas variáveis temos: k+l
=L Var(X;) + 2L L Cov(X;Xj);
Var(XI + X2) = E((XI + X2) 2) - E 2(X + X2) 1 i=l 1:5i<j:5k+l
= E(Xi) +E( X~) + 2E(X1X2) -
2 2 que é o resultado desejado. ·A • •
Exemplo 5.11: Vamos calcular o coeficiente de correlação entre as variáveis Teorema 5.7: Desigualdade de Cauchy-Schw arz
contínuas X e Y que têm a seguinte função densidade conjunta:
Sejam X e Y variáveis aleatórias com segundo momento finito. Então,
f(x, y) = 9 e-ay I(o,yJ(x)I(o,oo)(Y)·
E(IXYI) ~ JE(X 2 )E(Y2 );
Para a variável X temos com a igualdade valendo se, e só se, Y = aX, para alguma constante a.
E(X)=
100 100
0
100 3xe- xdx=-i1
x
X 3
9e - 3Ydydx=
0
3
Demonstração:
Assumimos que E(X2) e E(Y2) não são nulas. Se uma dessas esperanças
100
1 x 9 e- Ydydx= 1003x e- x dx=-i2
2 2
for zero, a variável será zero com probabilidade 1 e a desigualdade vale.
E(X )= 00 3 2 3
0 X 0 9 Temos
2
2 E 2(X)=--
Var(X) = E(X)- 2 (1)
- 2 = -·
1 lXI _ IYI ) ) >o,
9 3 9 E [( JE(X2 ) JE(Y 2 ) -
100 1y
00
E(Y) = y 9 e- 3Y dx dy = 1009y2e- 3Y dy = -;2
o o o 3
2_ 2 E(IXYI) > o '* E(IXYI) ~ JE(X 2 )E(Y2 ).
E(Y2 ) =
1 o
1y y2
o
9 e- 3Y dx dy = 100 9y e-ay dy = -;
o
3 2
3
JE(X2)E(Y 2) -
Se a igualdade valer temos, com probabilidade 1
oo1y 1oc -9 y 3 e- 3Y dy = -;
1
que implica em
E(XY) =
1o o xy 9 e- 3Y dx dy =
o 2 3 - JE(X2)
IYI -
JE(Y2} IX l-
Segue então que
Portanto, Y = aX com a= ± JE(Y 2)/E(X2 ). o
py:y =
Cov(X, Y)
=
E(XY)- E(X)E(Y)
=
i- H = _,
J2
· · . crxcry Jvar(X)JV ar(Y) fi..Ji 2
Proposição 5.8:
Sejam X e Y variáveis aleatórias com variâncias finitas e não nulas.
indicando uma associação linear positiva entre as variáveis. o Então:
O próximo resultado é importante para estudar as relações entre variáveis (i) IPx,YI ~ 1;
aleatórias, além de permitir estabelecer propriedades do coeficiente de correlação. (ii) IPx,Y 1 = 1 se, e somente se, uma variável for função linear da outra.
258 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.2 Momentos 259
Demonstração: direção, enquanto, com correlação negativa, valores altos de uma variável
implicam em valores menores da outra. _
(i) Pela desigualdade de Jensen, temos para qualquer variável aleatória a correlaçao ent~e
Salientamos que, se as variáveis são independentes,
W, IE(W)I $ E(IWI). Combinando esse resultado com a desigualdade de conforme pudemos conclUir
elas é zero. Entretanto, a recíproca não é verdadeira,
Cauchy-Schwarz aplicada nas variáveis (X- f.J-X) e (Y- f.J-Y ), obtemos
do Exemplo 5.8.
IE[(X- tJ-x)(Y- f.l-Y ))I S E[I(X- tJ-x)(Y- f.l-Y)IJ (Jensen)
Exercícios da Seção 5.2:
IE[(X- f.J-x)(Y- f.J-Y ))I$ JE[(X- tJ-x)2] E[(Y- f.J-y) 2] (Cauchy-Schwarz)
ICov(X, Y)l $ ux uy 1. Determine a variância dos seguintes modelos:
a. Geo(p).
IPx,YI S 1.
b. Hgeo(m, n, r).
c. Gama( a, (3).
(ii) Se IPx,YI = 1, vale a igualdade na desigualdade de Cauchy-Schwarz d. Weibull de parâmetros (a,.>.).
e, portanto, temos:
2. Para X,...., Uc[a, b), obtenha E(Xk), k E N e calcule sua variância.
Y- f.J-Y = a(X- f.J,x ).
3. Considere que a variável X segue o modelo Laplace (ou Exponencial Duplo),
Então, isto é, sua densidade é dada por fx(x) = ~ e-Aix-~<IJ(-oo,oo) (x), com .À> O e
Y=aX+b, -oo < p, < oo. Determine a média e a variância de X.
4. Dois tetraedros equilibrados com faces numeradas de 1 a 4 são la~çados de
e as variáveis têm uma relação linear entre si com a= ± JE(Y2)jE(X 2) e
forma independente. Seja X o menor dos dois números e Y o mator deles.
b = f.J-}'- atJ-x.
Calcule a correlação entre essas variáveis.
Suponha, agora, que Y = aX + b. Vamos calcular a correlação entre as 5. Sejam X 1 , X 2 e X 3 independentes e com distribuição Exp(1). Determine a
variáveis. Das propriedades de esperança e variância, temos f.J-Y = atJ-x + b e
variância da variável (Xt + X2)X3.
u~ = a ul (uy = ialux ). Então,
2
Portanto, 8. Sendo X e y independentes com variâncias finitas e médias iguais, mostre que
E[(X- Y) 2 ] = Var(X) + Var(Y).
Cov(X, Y) aul { 1, a> O; 9. Seja (X, Y) Normal Bivariada. Mostre que X e Y são independentes se, e
· Px,Y = rrxuy = rrx(lalux) = -1, a< O. somente se, forem não correlacionadas.
Dessa forma, a demonstração está completa. o 10. Se E(X) =O, Var(X) = 1 e JXJ $ M. Mostre que para O < t < 1,
5.3 Esperança Condicional valores possíveis. Em termos matemáticos formais, dizemos que X1, X2, ···,X"
são variáveis de Bernoulli, cujo parâmetro é dado pela variável Y, com a seguinte
Como vimos no Capítulo 1, a probabilidade condicional satisfaz todas as
função de probabilidade:
condições para ser, ela mesma, uma probabilidade. Logo, poderíamos, em tese,
repetir todo o desenvolviment o feito, no capítulo anterior, para o valor esperado,
usando probabilidades condicionadas a algum evento. Do ponto de vista prático,
considerando duas variáveis dependentes X e Y, como ficaria o valor esperado de
X, se tivermos informação sobre a ocorrência de Y? Esses são alguns dos
Dado um valor de probabilidade de cura, as variáveis Bernoulli são
aspectos que motivam a introdução do conceito de esperança condicional. Para os
independentes. Ou seja, a cura de um paciente não interfere na de outros e vice-
cálculos de esperança, continuamos usando a integral de Riemann-Stieltjes.
versa.
Definição 5.7: Esperança Condicional Suponha que estamos interessados no valor esperado do número total de
curados. Dado Y = p 1, sabemos que esse valor esperado é np1 correspondente a
Sejam X e Y variáveis aleatórias no mesmo espaço de probabilidade
(n, :F, P). A esperança condicional de X uma Binomial de parâmetros n e PI· Isto é,
dado que Y = y, se existir, é dada por
E(XIY = =I:
y) xdFxjY(xlY = y).
E(Xt + X2 + ··· + Xnl Y = pi) = np1.
Se deixarmos indeterminado o valor de Y, temos
ht-"x 1 ~
Exemplo 5.12: Como ilustração do cálculo de esperanças condicionais, considere 00
1
a seguinte situação hipotética. Um conjunto de n pacientes é submetido a um E(XJY==y)= 1 xdFxiY(xJY= y)= dx= ;Y.
tratamento que pode curar ou não, com certa probabilidade. Essa probabilidade
-oo Y
depende das condições hospitalares de aplicação do tratamento e pode ter três Logo, substituindo y por Y na expressão acima, obtemos E( XI Y) = l-;Y. O
262 Capftulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.3 Esperança Condicional 263
1:1:
-oo -oo D
Exemplo 5.15: Considere um círculo de raio unitário com centro na origem do
= xfx,y(x,y)dxdy
plano cartesiano. Defina o par aleatório (X, Y) como sendo um ponto do primeiro
= 1: x(1: !x,y(x,y)dy)dx
quadrante escolhido ao acaso nesse círculo. Seja Z a área do retângulo formado
pelos pontos (±X, ± Y). Assim, Z = 4XY e estamos interessados no valor
esperado dez. A Figura 5.1 ilustra a situação.
Para o primeiro quadrante e no círculo unitário temos área 1r /4 e a
= 1:xfx(x)dx conjunta de X e Y será:
= E(X); 4
!x,y(x, y) = -, se x 2 + y2 = 1, O::::; x::::; 1 e O::::; y::::; 1.
em que a~sumimos que foi possível trocar a ordem de integração. Isto é permitido,
• 1f
5.4 Função Geradora de Momentos Exemplo 5.17: Para X"' Po(>.) a função geradora de momentos é calculada da
seguinte forma:
Nesta seção, apresentamos afunção geradora de momentos. Como outras
transformadas, ela facilita o cálculo de probabilidades e de outras quantidades
relacionadas. Mx(t)
oo 13.e-.\ ).i =
= E(e1x) = Le -.\ ~ (>.et)i - -.\ .\e' - -W-e') .
e ~ -.-1 - - e e - e
1 1· j=O 1·
j=O
Como mencionamos no ínicio do capítulo, após aplicar a função geradora
de momentos efetuamos o cálculo de interesse e obtemos o resultado no domínio o
das transformadas. Com a aplicação do chamado Teorema da Inversão, podemos
voltar ao domínio das funções originais, se isto for de interesse. Exemplo 5.18: Sendo Z "'N(O, 1), sua função geradora de momentos é
Definição 5.10: Função Geradora de Momentos Mz(t) = E(etz) = /oo _1_ etz e-z2/2dz
A função geradora de momentos da variável X é definida por -oo J2;
E(e1x);
= /00 _1_ e-(z2-2tz)/2dz
Mx(t) =
-00 J2;
desde que a esperança seja finita para t real em algum intervalo -to < t <to; = et2j2!oo _1_ e-(z-t)2/2dz
com to> O. O -oo J2;
- et2}2.
A função geradora de momentos é o valor esperado de uma função - '
positiva da variável aleatória. Segundo nossa definição de esperança, o valor
sendo que a última integral é igual a 1, pois corresponde à densidade N(t, 1).
infinito era possível e, portanto, a expressão acima também poderia produzir esse
Suponha que X "' N(J.L, a 2 ), vamos usar o resultado já obtido e
valor para alguns intervalos de t. Entretanto, a definição de função geradora de
propriedades da esperança para calcular a função geradora de momentos de X.
momentos requer que a integral seja finita para valores de t numa vizinhança de
zero. Isto garante algumas propriedades importantes dessa função. Assim, ao Sabemos que X= aZ + J.L, com Z "'N(D, 1) e, então,
apresentar a função geradora de momentos, convém sempre mencionar o intervalo Mx (t) = E(etX) = E(et(aZ+p) ) = et~'E(etaZ) = et~' Mz( ta) = etP+-r.
tt2t2
O conceito de função geradora de momentos pode ser estendido para mms em que usamos 1- p1 = P2 + P:l· Os momentos da variável X1 são agora
de uma variável. Isto será muito útil na avaliação do comportamento conjunto de obtidos, de modo usual, através de Mx1(tJ).
variáveis e tem, ainda, aplicações na área de Estatística. De modo similar, a função geradora de momentos conjunta entre X 1 e X 2
Definição 5.11: Função Geradora de Momentos Multidimensional é obtida de Mx~>x2 ,x3 (tt, t2, t3) com t3 =O. Substituíndo P3 por 1- Pt - P2. vem
Sejam X1,X2, ···,Xn variáveis aleatórias definidas num mesmo espaço Mx1 ,x2(tt, t2) = Mx~ox2 ,x3 (tt, t2, O)= (ptet1 + P2€t2 + 1- p1 - P2t·
de probabilidade e t1, t2, · · ·, tn números reais. A função geradora de momentos
multidimensional dessas variáveis é definida por Dessa conjunta, é possível calcular o valor esperado do produto das
variáveis. Temos
M XbX2, ···,Xn (t 1, t 2, ... , t n ) = E( et1X1+t2X2+··+tnXn)·,
desde que a esperança seja finita para os tj's tomados numa vizinhança de zero. O
Vamos aproveitar o próximo exemplo para apresentar, de modo informal, Assim, a partir da média e da variância das variáveis, podemos também obter
alguns resultados relacionando momentos e função geradora multidimensional.
Exemplo 5.22: Suponha que a função de probabilidade conjunta de X 1, X 2 e X 3 é
Multinomial com parâmetros n, p 1, P2 e P3· Assim, temos
Cov(X1,X2) = -nPtP2 e Px1,X2 = -J ( :J~ _
1- P2) ·
note que, na última integral, o integrando corresponde à densidade do modelo Mx~ox2 ,. .. ,x.. (ti, t2, · · ·, tn) = I1" Mx (tj).
1
N(O, (1 - 2t)-I ). Concluímos que Y "' Gama(~, ~ ), cujo modelo também é j=l
Considere agora que a fatoração é válida, vamos demonstrar que as Exemplo 5.26: Sejam X e Y variáveis independentes com a mesma densidade
variáveis são independentes. A prova será feita por indução, iniciando-se com N(O, 1). Vamos obter a conjunta deU = X+ Y e V= X- Y e verificar se são
n = 2. independentes. Temos
Sejam Yi e Y2 duas variáveis aleatórias independentes cujas distribuições
marginais são iguais as de X 1 e X 2 , respectivamente.
Mu,v(t 1 , t 2 ) = E(et1U+t2V) = E(et1(X+Y)+t2(X-Y))
= E(eX(tt+t2)+Y(tt-t2))
Myt,Y2(tt, t2) = E(ettYt+t2Y2) = E( eX(t1+t2)) E( eY(t1-t2))
= E( et 1Yi )E( et2Y2) (independência) = Mx(tt + t2) My(tt - t2)
= E( et1X1)E( et2X2) (igualdade das distribuições), (lt+;2>2 (lt-12)2
=e e 2
Do Teorema 5.11 (caso multidimensional), segue que (X 1 , X 2 ) e (Yi, 12) note que, essa última expressão é o produto das funções geradoras de duas
têm a mesma função de distribuição conjunta, pois têm a mesma função geradora variáveis com distribuição N(O, 2). Portanto, as variáveis aleatórias Ue V são
de momentos bidimensional. independentes. O
Uma vez que a função de distribuição conjunta é o produto das marginais,
as variáveis X 1 e X 2 são independentes. Exercícios da Seção 5.4:
Para completar a indução, falta verificar que, se o resultado é válido para 1. Para a e b constantes, expresse a função geradora de Y = aX + b em função
k, vale também para k + 1. de Mx (t).
A verificação é feita sem dificuldade repetindo os passos do caso n = 2,
com Yi sendo agora um vetor aleatório k-dimensional. Dessa forma, concluímos a 2. Obtenha a função geradora de momentos dos seguintes modelos:
indução e o teorema está demonstrado. O a. Geo(p).
b. Gama( a, (3).
Exemplo 5.25: Do Capítulo 2, vimos que a soma de n variáveis de Bernoulli
independentes é Binomial. Vamos verificar esse resultado, novamente, com o 3. Considere que a variável X segue o modelo Laplace (ou Exponencial Duplo),
auxílio das funções geradoras de momentos. isto é, sua densidade é dada por fx(x) = ~ e-Aix-1'1[(-oo,oo)(x), com À > O e
Sejam Xt, X2, · · ·, Xn vanavets aleatórias independentes com -oo </.L< oo. Determine sua função geradora de momentos. Confira os
distribuição Bernoulli de parâmetro p. Portanto, valores da média e da variância já obtidos no Exercício 3 da Seção 5.2.
4. Para X com distribuição Cauchy Padrão, o que ocorre com sua função geradora
Mx;(t) = pet + 1- p;j = 1,2, · ··,n. de momentos?
Então, S. As variáveis X e Y são independentes com X rv Exp(À ) e Y rv Exp(2À).
1l
Usando função geradora de momentos, calcule a média e a variância de
Mx 1+X2 +··+x,.(t) = IT Mx/t) = (pet + 1- p)"; X-2Y.
j=l
6. Sendo X e Y rv N(O, 1) independentes, calcule a função geradora de
que corresponde à função geradora de momentos de uma variável aleatória momentos de W = HX- Y) 2 e identifique sua distribuição.
Binomial com parâmetros n e p. Logo, temos X 1 + X 2 + ··· + Xn rv B(n,p). 0
276 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 277
7. Sendo Xt, X2 "'N(O, 1) independentes, defina as variáveis Yí = X 1 + X2 e esperanças das duas partes sejam finitas. Assim, temos:
Y2 =X~+X~.
a. Mostre que a função geradora de momentos conjunta de }í e Y2 é dada por:
eftU(1-2t2Jl 1 em que E(Xa) e E(Xb) são finitas.
(1- 2t2) ; -()() < tl < oo, 00 < t2 < 2" Os casos multivariados e de funções de variáveis complexas são tratados
de forma similar. A integração de funções complexas é adaptada de forma
b. Calcule o coeficiente de correlação entre Yí e Y2. conveniente e, para efeitos práticos, podemos operar como se estivéssemos com
funções reais. As propriedades usuais de números complexos serão usadas. Sendo
8. Calcule a função geradora de momentos de XY, para X e Y independentes e z =a+ ib, denotaremos por lzl seu módulo e por z seu conjugado.
com distribuição N( O, 1).
Definição 5.12: Função Característica
9. Considere que X1, X2, · · ·, Xn são variáveis discretas e independentes. Usando
A função característica da variável X é definida por
função geradora de momentos, determine a distribuição da soma
X1 + X2 + ··· + Xn, nos seguintes casos: 4Jx(t) = E(eítX) = E[cos(tX)J + iE[sen(tX)];
a. X j "'Poisson(>..3), j = 1, 2, · · ·, n.
b. X 3 "'B(n3,p),j = 1, 2, ···,n. para t real e i= J=l. . o
c. X 3 "' Geo(p), j = 1, 2, · · ·, n. Exemplo 5.27: Considere a variável aleatória X com distribuição Uniforme
10. As variáveis X1, X2, · · ·, Xn são contínuas e independentes. Usando função Contínua no intervalo [a, bJ. Sua função característica é dada por:
geradora de momentos, determine a distribuição de X 1 + X 2 + ··· + Xn, nos
seguintes casos:
4Jx(t) = E(eítX) = E[cos(tX)J + iE[sen(tX)]
a. X i "' Gama( ai, {3), j = 1, 2, · · ·, n.
b. X i "'N(J.Li, a]), j = 1, 2, · · ·, n.
= 1b cos(tx) b~a dx + i1\en(tx) b ~a dx
5.5 Função Característica = t(b ~a) ( sen(tx)- i cos(tx)) 1:
A função geradora de momentos é uma ferramenta muito útil, conforme = t(b ~a) (sen(tb)- sen(ta)- icos(tb) + icos(ta))
observamos nos vários exemplos apresentados na seção anterior. Contudo, tem a
desvantagem de que a integral que a define pode, nem sempre ser finita e,
ítb ita
~ (b- e ) (após multiplicar e dividir por i).
portanto, nem sempre existirá. Definiremos uma nova transformada que tem a ~t -a
vantagem de sempre existir. Entretanto, teremos o inconveniente de trabalhar com
uma função de valores complexos. O leitor pode refazer o cálculo, sem usar a decomposição em seno e cosseno.
Até aqui, só tratamos com variáveis reais, mas o caso complexo é similar. Nesse caso, trata-se i como se fosse uma constante real, conforme mencionado
Sem aprofundar o assunto, diremos que uma variável aleatória X é complexa, se acima. O
pode ser escrita como X = xa + i xb, em que i = FI e xa e xb são variáveis
aleatórias reais. Assim, para verificar que uma função complexa é variável
aleatória, precisamos verificar as propriedades da imagem inversa nas suas duas
partes. Para o valor esperado de X, no caso complexo, exigimos que as
(
278 Capltulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 279
Exemplo 5.28: Seja X"' Gama(a,{3). Vamos calcular sua função característica. A função característica tem aplicações e propriedades similares à função
Temos geradora de momentos. Na próxima proposição, listamos algumas de suas
propriedades.
c/>x (t) = E(eitX) = {oo eitx_/!:__ xa-1 e-f3x dx Proposição 5.14:
lo r(a)
Seja X uma variável aleatória qualquer e c/>x sua função característica,
= ~) 1oo xa-1 e-x(!Ht) dx
então:
{3a r(a) . . - (i) c/>x(O) = 1;
= r( a) ({3- it)a (suceSS1VaS mtegraçoes por partes)
(ii) lc/>x(t)\ ~ 1;
= ({3 ~ itr. (iii) Para a e b constantes, c/>aX+b(t) = eitbc/>x(at);
(iv) Se as variáveis aleatórias X e Y são
Particularizando valores para a e {3, obtemos as funções características de independentes então,
membros da farru1ia Gama. Por exemplo, para a = 1, temos a Exp(f3) com c/>x+Y(t) = c/>x(t)cj>y(t) (vale para n variáveis);
c/>x(t) = !3/(!3- it) e, para a= n/2 (n inteiro) e {3 = 1/2, obtemos uma Qui- . (v) c/>x é uniformente contínua;
quadrado com n" graus de liberdade, que tem função característica dada por
1
c/>x(t) = ( 1-2it r. o
(vi) c/>x também gera momentos:
Exemplo 5.29: Seja X"' B(n , p). Lembremos que sua função geradora de L L c/>x(ti- tk) zi 2k ~ O,
j=1 k=1
momentos é dada por (p e 1 + 1 - p )n. Portanto, segue imediatamente para a
função característica: para quaisquer números reais tt, h,···, tn e complexos z1, z2, · · ·, Zn·
c/>x(t) = E(eitX) = Mx( it) = (peit +1- Pt; Demonstração:
resultado que pode ser confirmado com a aplicação da definição. (i) c/>x(O) = E(ei0 X) =E( I) = 1.
O
Exemplo 5.30: Sendo X "'N(J-L, a 2 ), vamos usar o resultado obtido com a
(ii) Lembremos que o módulo de um número complexo z = a + ib é dado
função ger.adora de momentos para determinar sua função característica. Temos
por \z\ = Ja2 +b2. Assim,
.,2,2
Mx (t) = e 1 ~'+-r e, então \c/>x(t)\ = \E(eitX)\ = \E[cos(tX)) + iE[sen(tX)JI
= JW[cos(tX) ) + E2[sen(tX))
c/>x(t) = E(eitX) = Mx( it) = eit11-"~ .
2
em que a última passagem decorre da relação fundamental entre seno e cosseno. Então, com t = O vem
Como conseqüência dessa propriedade, a função caracteóstica sempre existe para
qualquer valor de t nos reais. an 1/Jx(t)l = inE(Xn).
a tn t=O
(iii) <PaX+b(t) = E(eit(aX+b)) = eitbE(eitaX) = eitb<Px(at).
Logo, da função característica, obtemos os momentos, levando em conta as
(iv) Temos
potências do número complexo i.
<Px+y(t) = E(eit(X+Y)) = E(eitXeitY) = (vii) Para verificar que 1/Jx é positiva definida, considere n E N e, assim,
= E(eitX)E(eitY) = </Jx(t)</Jy(t); n n n n
L L tPx(tj-tk)ZjZk = LLE(eiX(trtd)ZjZk
aqui utilizamos que a independência entre X e Y, implica a independência entre ~1~1 ~1~1
funções complexas dessas variáveis. Isto estende o que foi mencionado n n
anteriormente para funções reais. A prova poderia também ser feita, usando a = LLE( zjeiXti Zk e-iXtk)
decomposição de étX e eitY em seno e cosseno. Nesse caso, trabalhaóamos com j=1 k=1
funções reais e depois faóamos a recomposição para as funções caracteósticas.
Omitimos a prova para n variáveis, mas ela é similar.
(v) Para verificar que <Px(t) é uniformente contínua, observe que:
I<Px(t + h )- <Px(t)l = IE(ei(t+h)X- eitX)I
~ E(lei(t+h)X _ eitXI)
= E(leitX(eihX _ 1)1)
= E(leitXII(eihX -1)1) (use que leitXI = 1)
= E(leihX- 11). e, portanto, tjJ é positiva definida. D
Exemplo 5.31: Sendo X"'" B(n, p), usaremos sua função característica
Então
1/Jx(t) = (peit + 1- p)n, para obter os primeiros dois momentos. Tomando duas
limlt/lx(t +h)- 1/Jx(t)l ~ limE( IeihX- 11) =E( lim leihX- 11) =O; sucessivas derivadas, obtemos
h-->0 h-->0 h-->0
tP'x(t) = npi(peit + 1 - Pt-1eit;
em que a troca de ordem entre limite e esperança é justificada pelo Teorema da
1/J'Jc(t) = npi(n- 1)(peit + 1- p)n-2pieiteit + npi(peit + 1- Pt-1ieit.
Convergência Dominada. Como a majoração, na expressão acima, não depende de
t, a continuidade é uniforme. Substituindo t por zero, vem
(vi) Para n fixado, com E(IXIn) < oo, pode-se verificar que é válido
inverter a ordem entre diferenciação e esperança. Assim, iE(X) = t/J'x(t)L = npi :::} E(X) = np;
0
~tP (t) = ~E(eitX) =E(~ eitX) = E(in xneitX). i 2E(X2) = tjJ'Jc(t)lt=O = npi 2(np- p + 1):::} E(X2) = np(np- p + 1).
8tn X 8tn 8tn
Outros momentos poderiam ser calculados de forma similar. D
282 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 283
2
Exemplo 5.32: Se X"' N(J.L, a ), temos 4Jx(t) = e•tJ.L--y- como sua função
. tf2t2 ~
1 !c ( e-i(a-X)t _ e-i(b-X)t )
. dt ,
].
c-+oo 2n -c zt -c zt
sendo F(w) = HF(w) + F(w-)}, Vw E JR., e os números reais a, b e c tais que essa última passagem é uma aplicação do Teorema de Fubini (ver Chae [80]) que
c> O e a< b. trata da troca de ordem de integrais. O teorema pode ser usado tendo em vista que
Demonstração: o integrando é limitado, conforme observado acima.
Vamos trabalhar, agora, com a expressão entre colchetes. Desenvolvemos
Algumas observações preliminares: o termo exponencial em seno e cosseno e notamos que, para todo w E R
(l) Se F for contínua em w, então F( w) = F( w). fcos(wt) é função ímpar e fsen(wt) é par. Portanto,
(2~ A função é definida para ser b - a, quando t = O,
e-iat iie-ibt
coincidindo com o respectivo limite. Logo, ela será contínua para todo t real e !c1
-cos(wt)
-ct
dt =O e !c -c
1
-sen(wt)
t
dt = 21c1tsen(wt) dt.
O
limitada pois:
284 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 285
Assim, Assim,
1 ~c ( e-i(a-X)t _ e-i(b-X)t ) 1 ~c ( ei(X-a)t _ ei(X-b)t ) o, se X < a ou X > b;
- &=- &
2rr - c it 2rr -c it }!_,~ {g(c(X- a))- g(c(X- b))} = 1/2, se X = a ou X = b;
{ 1,
=~
=-11c -:-1 (cos((X- a)t] + i sen[(X - a)t] -
2rr -c tt
= -
1 1c(X-a) sen u
--du--
11c(X-b) -sen-u du Considere as variáveis aleatórias Y1, Y2, ···tais que
rr o u rro u Yn = g(cn(X- a))- gn(c(X- b) e Yn-+ Y, quando n-+oo.
= g(c(X - a)) - g(c(X- b) );
Observe que IYn 1 :::; 2M e, portanto, pelo Teorema da Convergência Dominada:
em que g(.) é dada por: lim E(Yn ) =E[ lim (Yn)] = E(Y).
g(w) = -
11w senu du, w
-- ER
n--+oo n---+oo
lim g(w)
w_,±oc
= ± ~2 ; Então,
limlnt(c) = = lim Int(cn) = limE(Yn) = F(b)- F(a),
c--+00
segue, então, que g será limitada. Isto é, existeM tal que jg(w)l :::; M, Yw E R C11 -+00 n-+ 00
r1
286 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 287
Fx(b) = Fy(b), Vb E IR. Lembremos que uma amostra aleatória con.siste. de uma .se~ue~cia
X 1t X 2, ... , X n de variáveis aleatórias independ entes e tdenticamente dtstnbut das
Considere, agora, c E R, c < b. Pela definição de F(.) vem seguindo o mesmo modelo de X. Ou seJa, . . . X N( 2)
as vanávet s j ,...., JL, a para
Fx(c) $ Fx(b) $ Fx(b) e Fy(c) $ Fy(b) $ Fy(b). j = 1, 2,. · ·, n são independentes. , .
A média amostrai é uma funçã,o dos valores da amostra e e dada por.
Lembrando que a função de distribuição é contínua à direita, tomamos limite
para
X XI+ x2.~;__
- = ~__:_:: Xn
+ ..._ + ____:.:..
b ! c. Dessa forma vem
n
lim Fx(b)
b!c
= Fx(c) e lim Fy(b) = Fy(c) Vamos calcular a função caracteó stica de X e, a partir daí, tentar identificar sua
b!c
distribuição. Temos
e isto implica Fx(c) = Fy(c). Como o argumento é válido para qualquer
c real,
podemos concluir que as funções de distribuição de X e Y são iguais. A. (t) = E( eit~(Xt+X2+· ·· +X,.))
O '+'~(Xt+X2+ ··+X,. )
A função caracteó stica de X"' Poisson (.X) é dada por: Assim, X rv N(JL, ~ ). pois tem a função caracteó stica desse modelo. o
00 ->._xj 00 ( it .X)J Apresentamos, a seguir, a definição de função característica ~ara
l/Jx(t) = E(eitX) = Leitj ~=e->. L _e-.-,-= e>.(ei'-Il.
variáveis multidimensionais. Nesse caso, também valem a Fórmula de lnversao
j=O J. j=O J. e
o Teorema da Unicidade, mas não faremos as demonstrações.
288 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.5 Função Característica 289
Definição 5.13: Função Característica Multidimensional Exemplo 5.35; Sejam </J1, </J 2 , • • ·, <Pm funções características e defina
m m
Sejam X1 , Xz , · · ·, Xn variáveis aleatórias definidas num mesmo espaço 'lj;(t) =L: a1<fJ1(t) , sendo que L: a1 = 1. Vamos verificar que 1/J também é função
de probabilidade. A função característica multidimensional dessas variáveis é ~1 ~1
funções características, conforme indicado no próximo teorema. Falta verificar que 1/J é positiva definida. Para n = 1, 2, · · ·,
Teorema 5.17: Critério de Independência n n n n m
Sejam X1, Xz, · · ·, Xn variáveis aleatórias com função característica L L 1/J(tJ- tk) ZJ Zk =L L L a1 </J1(tj- t~..) ZJ Zk
j=l k=l j=l k=l 1=1
conjunta </Jx1,x2 ,. .. ,x.. (t1, tz, · · ·, t 11 ), com os t/s reais. Então as variáveis aleatórias m n n
X1 , Xz, · · ·, Xn são independentes se, e somente se, a função característica = La1 LL <P(tJ- tk) ZJ Zk ~O;
conjunta puder ser fatorada como o produto das funções características das 1=1 j=l k=l
variáveis. Isto é:
em que, trocamos a ordem na somatória, pois trata-se de série convergente. Como
n
</J é positiva definida, a ponderação não altera essa condição e 1/J será positiva
</Jx~oX2 ,··,X,.(t1, t2, · · ·, tn) = IT </Jxi(tj)·
j=1
definida. Logo 'ljJ satisfaz todas as condições para ser função característica. O
Demonstração: Exercícios da Seção 5.5:
1. Mostre que se X é igual a c com probabilidade 1, então sua função
A prova será omitida. Ela é similar a que foi feita para funções geradoras
de momentos multidimensional. característica é eict.
O
Um resultado importante, apresentado a seguir, indica as condições em
2. Verifique que se c é o complexo conjugado de c, então </Jx(t) = </Jx( -t).
que uma função dos reais nos complexos é função característica de alguma 3. Prove que X é simétrica ao redor do zero se, e só se, sua função característica
variável aleatória. for um número real.
Teorema 5.18: Teorema de Bochner-Khintchine 4. Obtenha a função característica do modelo Geométrico de parâmetro p e use-a
Uma função contínua 1/J : IR-tC com 1/J(O) = 1 é função característica, de para determinar a média e a variância.
alguma variável aleatória se, e só se, ela for positiva definida. 5. Mostre, via função característica, que a soma de variáveis aleatórias Bernoulli
Demonstração: independentes é Binomial.
Conforme propriedades já demonstradas, se for função característica, é 6. A variável X tem densidade f (x) = ~ e-lxl , x real. Mostre que sua função
contínua, positiva definida e, aplicada em zero, resulta no valor 1. Não característica é dada por </J x (t) = 1/ ( 1 + t 2 ).
apresentaremos a outra parte da prova e o leitor interessado pode consultar Feller
[66]. o
290 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.6 Exercícios 291
7. Sejam X e Y variáveis aleatórias independentes com distribuição Exp(>. ). 6. Seja {Xn: n ~ 1} uma seqüência de variáveis aleatórias tal que, para a E JR,
Usando funções características, mostre que: temos E(Xn)-+a e E(X~)-+a 2 , quando n-+oo. Você acha que vale:
a. X - Y é simétrica ao redor de zero. P(lim Xn = k) = 1, sendo k uma constante finita?
n-+oo
b. X - Y segue o modelo Laplace com parâmetros p = O e .\.
7. Uma uma contém três bolas numeradas -1,-1 e 1. São feitas duas retiradas,
8. Seja X com densidade f( x) = ~~(-t,o)(x) + (~ + ~)I[o, 2 )(x). Obtenha a ao acaso e com reposição, e definimos X como o produto dos números
função característica de X e verifique sua resposta, calculando c/>x(O). retirados e Y como o maior número. Determine a correlação entre X e Y.
9. Suponha que Xt. X2, · · ·, Xn são variáveis aleatórias independentes com
Xi "'N(pj, a/). j = 1, 2, · · ·, n. Com o uso de funções características, obtenha
8. Para estimar a integral M = J: f( x) dx utiliza-se T = ~L f(X;) como
n
i= I
a distribuição de X 1 + X2 + ··· + Xn. estimador, em que X 1 , X2 , .. ·Xn são variáveis aleatórias independentes e
identicamente distribuídas, segundo o modelo Uniforme Contínuo em [0, 1].
10. Se X"' N(p, a 2 ), obtenha a função característica de X 2 e identifique sua
distribuição. Mostre que temos E(T) =Me Var(T) = ~J0\J(x)- M) 2 dx.
9. As variáveis X e Y têm densidade conjunta !x,Y(x, y) = ~ xy I(o,y)(x)
5.6 Exercícios
I(o, 2 )(y). Calcule a covariância. As variáveis são independentes?
1. Seja X uma variável com densidade Uniforme Contínua em [0, 21r]. Verifique
que U = sen X e V = cos X são não correlacionadas. 10. As variáveis aleatórias X e Y são tais que Var(X + Y) =O. Determine o
coeficiente de correlação entre elas.
2. M?stre que ~ara variáveis X e Y com variâncias finitas e positivas e quaisquer
numeros reats a, b, c e d, com a e b não nulos, temos 11. Sejam X e Y variáveis Bernoulli com parâmetros p e q, respectivamente.
discretas cada uma com dois valores diferentes. Mostre que as variáveis X e
-px,Y i se ac <O; Y são independentes se, e só se, forem não correlacionadas.
PaX +b,cY +d = { .
Px,Y, se ac > O. 12. Seja X uma variável tal que E(X 2 ) = 1 e E(IX I) ~ a > O. Mostre que, para
3. Uma moeda com probabilidade p (O< p < 1) de cara é lançada n vezes de o < f< 1,
forma independente. Defina para 1 ::; k ::; n, o evento Ak = {cara no n-ésimo
n-1
lançamento}. Determine a média e a variância de S n = "'
L..J IA k nA k+l •
k=l 13. As variáveis X e Y são independentes e identicamentes distribuídas de acordo
4. Suponha que as variáveis X; com i = 1 2 · . · m e Y. com J. = 1 2 .. . n com o modelo Uc(O, 1). Determine a covariância entre min(X, Y) e
' ' ' 1 ' ' '
tenham variância finita. Mostre que para a;, bi, ci e dj constantes reais Vi, j, max(X, Y).
temos:
14. Sejam X e Y variáveis com segundo momento finito. Mostre que:
m n m n
Cov(I)a;X; + bi), :~:)ci}j +di)= ,L:,L:a;cjCov(Xi, }j). a. lax - ayl ::; .jvar(X ± Y) ::; ax + ay.
i=l j=l i=l j=l
b. Var(XY) = a]ca~ + p]ca~ + J.L~a]c.
Deduza a expressão de Var(X- Y), tendo X e Y variâncias finitas.
c. Se a]c =1 a~ então X + Y e X - Y não são independentes.
5. Seja X uma variável aleatória tal que E(X) =a e E(X 2 ) = a2, para a E R
Mostre que X assume um único valor com probabilidade 1.
r
292 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 293
5.6 Exercícios
!x,y(x, y) = 3(x + y ) I(o,I)(x + y) I(o,r)(x) I(o,l)(y). 27. Numa rodovia, o número de acidentes por semana tem distribuição de Poisson
com parâmetro a. Em cada acidente, o número de feridos tem distribuição de
a. Obtenha E(X/ Y = y). Poisson com parâmetro (3. Assuma independência entre número de feridos por
b. Determine E(XY/ Y = y). acidente e número de acidentes por semana. Obtenha o número médio de
c. Calcule Var(X/ Y = ~). feridos por semana.
20. Sendo X e Y variáveis aleatórias contínuas com densidade conjunta: 28. Sejam X e Y variáveis tais que suas variâncias sejam positivas e finitas.
1 Mostre que se E( X/ Y) é constante para todos os valores de Y, então X e Y
fx,y(x, y) = :;;: IA (x, y), com A= {(x, y) E JR
2 : x 2 + y2 < 1}. são não correlacionadas.
29. Sejam X e Y variáveis aleatórias independentes com distribuição Poisson de
a. Obtenha E( XI Y).
parâmetro >.1e >.2. respectivamente. ParaS =X + Y, obtenha a distribuição,
b. Verif~que se X e Y são não correlacionadas.
a esperança e a variância condicional de X dado S.
21. Sejam X e Y variáveis aleatórias contínuas com densidade conjunta:
30. Considere o seguinte experimento com uma moeda equilibrada. Na primeira
/x,Y(x, y) = 8xy lA (x, y) , comA = { (x,y) E JR
2
: O< x < y < I}. etapa, ela é lançada n vezes de forma independente. O número de caras
obtidos, digamos X r, indicará o número de lançamentos da moeda, na
a. Obtenha E( XI Y). segunda etapa. O experimento contínua de modo que o número de caras
b. Calcule Var(XI Y). obtidas em uma etapa será o número de lançamentos na etapa seguinte.
a. Obtenha o número esperado de caras na segunda etapa.
294 Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.6 Exercícios 295
b. Generalize o item (a) para a k-ésima etapa. 40. Para X, Y e Z variáveis aleatórias e, supondo que as esperanças envolvidas
na expressão existam, mostre que:
31. Seleciona-se, ao acaso, um número x em (0, 1). Seja Y o número de caras em
n lançamentos independentes de uma moeda, com probabilidade de cara igual Cov(X , Y) = E{Cov[(X, Y)l Z]} + Cov[E(XI Z),E(YI Z)].
a x. Calcule a média e a variância de Y.
41. Através da função geradora de momentos, determine a média e a variância da
32. Considere uma seqüência de ensaios de Bernoulli independentes, com Uc(a, b), O< a < b.
probabilidade p de sucesso. Seja Tn o número de ensaios necessários para a
ocorrência, pela primeira vez, de n sucessos seguidos. Seja Y a variável que 42. A variável X tem função geradora de momentos dada por M (t) = eat+flt~,
indica o número do ensaio em que ocorreu falha. com t E IR, a E IR e {3 > O. Determine a média e a variância de X.
a. Obtenha E(T2I Y = 1). 43. Para X,..... N(O, 1) e Y,..... N(O, 2), independentes:
b. Determine E(T3). a. Determine a função geradora de momentos de X 2 + Y 2 e, a partir daí, sua
33. Sejam X e Y variáveis independentes e com distribuição Uniforme Contínua média.
em (0, 1). Defina as variáveis W e Z como o mínimo e o máximo entre X e b. Calcule a função geradora de momentos conjunta de X 2 e Y 2 e, a partir
Y, respectivamente. Mostre que a esperança condicional de W dado Zé igual daí, a média de X 2 •
a Z/2. 44. Sejam X 1 e X 2 independentes, com mesma distribuição Normal de média O e
34. Considere duas caixas e bolas numeradas de 1 a n. Assuma que, inicialmente, variância 1/2. Usando função geradora de momentos, mostre que a variável
temos m bolas na caixa 1 (O ~ m ~ n) e as restantes na caixa 2. Um Y = ( X 1 + X 2 ) 2 é Qui-quadrado com 1 grau de liberdade.
mecanismo, conhecido como modelo de Ehrenfest, consiste em sortear ao 45. Para j = 1, 2, 3, 4, sejam X j ,..... N(j JL, a 2) variáveis aleatórias independentes.
acaso uma das n bolas e trocá-la de caixa. O sorteio e a correspondente troca 4
são repetidos indefinidamente. Seja Xn o número de bolas na caixa I após n Defina Y = 2:.:( -1)JXj.
sorteios e trocas. Mostre queE(Xn ) = ~ + (m- V(1- ~)n. j=l
a. Apresente a função geradora de momentos de X j.
Sugestão: escreva E(Xn) em função de E(Xn-d· b. Calcule a função geradora de momentos de Y e, então, E(Y) e Var(Y) .
35. As variáveis aleatórias X e Y são independentes com mesmo modelo Uc[O, 1].
46. Sendo (X, Y) uma Normal Bivariada, obtenha sua função geradora de
Para W = min(X, Y) e Z = max(X, Y), obtenha E(sen(W Z)IW).
momentos conjunta. A partir desse resultado, calcule E(XY).
36. Sejam X e Y variáveis tais que E( XI Y) = aY + b. Obtenha o valor das
47. A função geradora de momentos conjunta de X1 e X2 é dada por
constantes a e b, em função de E(X),E(Y), Var(X) e Cov(X, Y), desde que
essas quantidades existam e que Var(X) seja positiva e finita. 1 1
llf(tlt t2) = [-(et 1+t 2 + 1) + -(et1 + e12
3 6
W, t1 , t2 E R
37. Escolhendo um valor x de acordo com X,..... Exp(a), a variável YI(X = x)
será Uniforme Contínua em [0, x] . Determine E(YI X) e Var(YI X). Calcule a covariância entre as variáveis.
38. Bolas numeradas de 1 a n são colocadas, ao acaso, em caixas também 48. Sejam X 1 e X 2 duas variáveis independentes com distribuição Normal
numeradas de 1 a n. Temos um encontro cada vez que a bola e a caixa têm o Padrão. Defina Y = X1- X2 e Z = Xr- X~.
mesmo número. Calcule a média e a variância do número de encontros.
a. Verifique que Myz(t 1 ,t2 ) = ~etif(l- 4til, sendo (t 1,t2) restritos à
2 , y(l-4t~)
39. Sendo X um valor real escolhido, ao acaso, em [-2, 1] e YIX,..... Uc[X ,4],
determine Cov(X , Y). condição -oo < t 1 < oo e- ~ < t2 < ~-
b. A partir de (a) calcule E(YZ). Seriam Y e Z independentes?
( 297
Capítulo 5: Momentos, Esperança Condicional e Funções Auxiliares 5.6 Exercícios
296
(
(
( 55. Sejam X e Y independentes, sendo X"" Gama( a, {3) e Y ""Beta(r, {3 - I'),
49. A densidade conjunta do vetor aleatório (X, Y , Z) é dada por:
para {3 e I' inteiros não negativos e I' :::; {3. Mostre, usando funções
(
6xy2 z
f(x,y,z) = { O, '
seO:::; x:::; 1,0:::; y :::; 1,0 :::; z:::; J2; características, que Z = XY tem distribuição Gama( a, I')·
( caso contrário. 56. Para X com densidade f(x) = (1-lxi)J(-l,l)(x), mostre que sua função
( Obtenha Mx, y(t 1 , t 2 ) de três formas diferentes. Confira sua resposta, característica é ifJx(t) = 2(1- cost)jt2 •
2
( calculando Mx,Y(O, 0). 57. Para X "" N(JL, a 2), obtenha a função característica de x- .
roo -(a x -~) d
2 2
/1r -2ab .
( 50. Seja X uma variável aleatória tal que E(Xn) = n! para todo n E N. Sugestão: Temos. para a, b > o, Jo e r X = 2a e
( a. Obtenha a função geradora de momentos de X nos intervalos de t em que 58. Para X e Y independentes com distribuição N(O, 1), obtenha a função
ela existe. Você identifica essa variável? característica de:
( n
b. Determine a função geradora de momentos de Y = L:X;, em que os X;'s a.XY.
( i=l b. XjY.
( são independentes e com mesma distribuição de X. Sugestão para (b): Aplique esperança condicionada em Y =y e use a
Sugestão para (a): use a expansão de ex. sugestão do exercício 57.
(
51. Seja X uma variável aleatória tal que 59. As variáveis X 1 e X 2 são independentes com distribuição Gama(aj,{3), com
(
j = 1 e 2, respectivamente. Com o uso de funções características, determine a
( se n par; + x2.
distribuição de xl
caso contrário.
60. O modelo Cauchy Padrão tem densidade f(x) = 1/7r(1 + x ), x E R
2
(
( Determine a função geradora de momentos de X e identifique sua a. Verifique que sua função característica é dada por e-ltl.
distribuição. b. De acordo com (a) o que pode ser dito do valor esperado do modelo
( Cauchy Padrão?
52. As variáveis X 1 e X2 têm função geradora de momentos conjunta M(t1, t2), c. Para X 1 e X 2 independentes, seguindo o modelo Cauchy Padrão, obtenha a
(
com (t 1,t2) em algum intervalo de JR2. Defina K(t 1,t2) = logM(t1,t2) nos distribuição de xl + x2 e de HXl + X2)·
( intervalos em que M existe. Mostre que, para i = 1 e 2, d. Repita o item (c) para n variáveis independentes.
( _ ( ) Joo cos(tx) d ,. -ltl
a. ~ K(t1, t2)1 t1=t2=0 = E(X;).
I
Sugestao para a : -oc l+x2 x = 2e ·
61. Suponha que X 1 , X 2 ,. · ·, Xn sejam variáveis aleatórias independentes com
X j,..., N(JLj, 1), j = 1, 2, . · ·, n. Defina Y = XJ
+ X~ +···+ X~ e mostre
que a função característica de Y é dada por
I}Jy(t) = 1 eit1J/(l-2it)
53. Calcule a função característica da variável aleatória X que, para À > O, tem (1- 2it)nf 2 '
299
- r-
Nas demonstrações e exercícios deste capítulo, usaremos, repetidamente Definição 6.1: Convergência Quase Certa
as desigualdades de Chebyshev e o Lema de Borel-Cantelli, que são A seqüência {X n : n 2: 1} tem convergência quase certa para X , se
reapresentados a seguir. existir um conjunto A E :F tal que P(A) =O e
O Lema de Borel-Cantelli, cuja demonstração está no Capítulo 1, afirma
que para A1 , A2, ... , An em (n, :F, P) e p, = P(An ) para todo n 2: 1, temos Xn -+X em Ac, quando n-+oo.
00
Usaremos a notação X 11 ~X para indicar essa convergência. Ela também é
(i) Se L Pn < oq então P(limsup An) = O;
denominada de convergência em quase toda parte ou convergência forte. D
n=l
00
A convergência quase certa permite que alguns pontos de n escapem do
(ii) Se L Pn = oo e os A 11 's são independentes, então P(lim sup An) = 1.
critério de convergência, entretanto, o conjunto desses pontos precisa ser
n=l
negligenciável em termos probabilísticos, isto é, sua probabilidade deve ser zero.
A desigualdade Básica de Chebyshev, demonstrada no Capítulo 4, tem o
Exemplo 6.1: Seja w um número real em (0, 1). Definimos X n(w) = ~· em
seguinte enunciado: seja X uma variável aleatória não negativa (valor esperado
que [nw] é o maior inteiro contido em nw. Pode-se verificar que
existe) e considere a > O. Então
lim Xn(w) = w, Vw E (0, 1). Logo a seqüência converge para X( w) = w em
n ..... oo
E(X)
P(X 2: a):::; - -· todo n e, em particular, temos X n ~X. Nesse caso, o conjunto em que não há
a D
convergência é o conjunto vazio.
A desigualdade Clássica de Chebyshev, cuja demonstração está no
Exemplo 6.2: Considere {Xn : n 2: 1} uma seqüência de variáveis i.i.d. com
Capítulo 5, estabelece que para X variável aleatória, com variância finita e
função de distribuição F . Suponha que F (x) < 1, para todo x < oo. Defina
qualquer t > O, temos
Yn = max(Xt, X2, ... , Xn)· Vamos verificar que
Var( X) qc
P(IX - J.Lx I 2: t) :::; t2 . Y, -+ oo.
IXn(w) - X (w)i < t:; para n > n(t:, w ). Então, para todo .1\f finito,
n, se n( t:, w) não depende de w. Isto é, P( lim Y;, :::; lv/ ) = P(Yn $ lvf : n = 1, 2, . .. ) = O;
A convergência acima é dita uniforme em n-oo
IX "(w)- X (w) l < t:; para n > n(t:) e Vw E n. pois Fk(M) tende a zero, quando k-+oo.
Para a Teoria das Probabilidades existem outras formas de convergência Dessa forma, o conjunto dos w E n, em que n-oo
lim Yn(w) é finito, tem
que são de interesse. Nesta seção, apresentamos suas definições, mas as mais
probabilidade zero e, portanto, Y;, ~ oo. D
importantes aplicações são discutidas nas próximas seções.
302 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 303
Definição 6.2: Convergência em Probabilidade afirmação observe que, para f > O, temos
A seqüência {X, : n 2: 1} tem convergência em probabilidade para X 1
P(j Y,j >f)~ P(Y, = 1) = --+ O,paran-+oo.
se, para todo f > O, temos n
lim P (jX, -XI > f) = O. Assim, a seqüência converge em probabilidade, mas não quase certamente. o
n--+oo
Definição 6.3: Convergência em média r
A notação X,~ X será usada para indicar essa convergência que também é
A seqüência {X, : n 2: 1} tem convergência em média r ou em U para
denominada de convergência fraca. O
X, se
Exemplo 6.3: Seja X, "' Bernoulli (Pn) com Pn = ( D", n = 1, 2, ... . Temos
limE(jX,- xn =O.
para f > 0: n--+oo
(
P(j X,j 2: f) = P (X, 2: f)~ E(X,) = (~)" -+O, para n-+ oo;
Indicaremos por X,!. X essa convergência. Para r = 2, essa convergência recebe
o nome especial de convergência em média quadrática. O
f f
(
em que usamos a desigualdade Básica de Chebyshev. Portanto, Xn ~O. O Nos próximos exemplos, exploramos as relações entre os modos de
convergência até aqui apresentados.
Ao utilizarmos a terminologia de convergência fraca para indicar
convergência em probabilidade, estamos, de fato, quantificando a relação dessa Exemplo 6.5: Considere as variáveis introduzidas no Exemplo 6.4. Naquele
convergência com a quase certa. No próximo exemplo, apresentamos uma exemplo verificamos que Y, converge em probabilidade para a variável zero, mas
seqüência que não converge quase certamente, mas converge em probabilidade. não quase certamente. Para r > O, observe que
1 kn< w < k+l O< k -< n- 1·' indicando que temos convergência em média r. o
( - n' -
Xnk(w) = { '
(
o, caso contrário. Exemplo 6.6: Seja (0, F, P) um espaço de probabilidade com n = {1, 2, ... }, a
u-álgebra F sendo o conjunto das partes de n e a probabilidade P dada por
{ Com essa definição, as variáveis formam o que é chamado de um arranjo P({n} ) = 1/n(n + 1).
triangular de variáveis aleatórias. Apresentamos, como ilustração, alguns termos
( deX,k: Para n 2: 1, definimos X, por:
2" sew = n;
X,(w) = { O,' caso contrário.
Para qualquer valor wo fixado, existem infinitos pares (n, k), tais que
qc
Xnk(wo) = 1; da mesma forma existem infinitos outros pares com X,k(wo) = O. Sendo X(w) =O, Vw E O, temos X, -+X.
Podemos organizar o arranjo triangular na forma de uma seqüência com índice
De fato, a convergência é em todo O pois, para cada f > O e todo w E O
único tomando j = n(n;l) + k + 1 e definindo Yj(w) = Xnk(w). A seqüência
temos:
{}j(w) : j 2: 1} não tem limite para nenhum w. Logo ela não pode convergir
quase certamente, seja qual for a variável limite. Entretanto, existe a convergência V jX,(w)l < f ,paratodon > w.
em probabilidade para a variável identicamente zero. Para verificar essa
.._.. I
o, X<!.
I
então, aplicando esperanças, vem
Fn(x) = { 1, X> l.n' e F(x) = {~: X< O;
X 2:0.
- n
P(An)::; f-rE(IXn- xn -+ O, para n-+oo;
e, portanto, Xn converge em probabilidade para X. o
(
( 306 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 307
(
(
( Portanto, como lim Fn(O) =O =f. F(O) = 1, não temos lim Fn(x ) = F(x ) para algum fi > O. Argumento similar pode ser aplicado à terceira integral mostrando
n-+oo n-+oo
que, com b suficientemente grande, temos
( todo x E R Dessa forma, se houvesse a exigência de convergência em todos os
(
pontos, não teríamos convergência em distribuição. Entretanto, note que para
x =f. O, temos limFn(x) = F(x) e, como o ponto O não é de continuidade de F,
n->oo
11
00
(
(
+1bg(x)[dF 11 (x) - dF(x)] +1 00
Vamos estudar o comportamento das três integrais do lado direito da Observe que
igualdade acima, buscando para cada uma delas um majorante.
Co11_1o g é limitada, seja c > O tal que IYI ::; c. Então, para o módulo da b [b
primeira integral, temos 1 g(x) [dFn(x)- dF(x)] =la [g(x) - 9m(x)]dFn(x) +
Se a é suficientemente pequeno, F(a) é pequeno e o mesmo ocorre com F,,(a) + 1b[gm(x) - g(x)]dF(x);
para n suficientemente grande. Nessas condições, c[Fn(a) +F( a)] < € 1 , para
6.2 Modos de Convergência 309
308 Capítulo 6: Convergência de Variáveis Aleatórias
1b g(x) [dFn(x)- dF(x)] ::; 1b f.3 dFn(x) + f.4 + 1b f.3 dF(x) c/>n(t) n~ cj>(t), com </J(t) = { ~: t =O;
t # O,
::; 2€3 + f.4. e, portanto, 4> não é contínua em O. A conclusão da parte (ii) da proposição não
vale pois, para todo x E ~. temos
Logo, quando n cresce podemos fazer os f.'s arbitrariamente pequenos, de modo
que concluímos X 1
F71 (x) = P(Xn ::; x) = P( Z ::; y~n) n-:::::1x. 2;
1 : g(x) dFn (x) - l : g(x ) dF(x) n~ O; sendo que z ,. . , N(O, 1). O problema reside em que F (x ) = 1/2, Vx E ~ não é
uma função de distribuição.
e isto completa a demonstração. D
Exemplo 6.8: Seja {Xn : n ;::: 1} uma seqüência de variáveis com distribuição
Teorema 6.3: Teorema da Continuidade de Levy
Erlang de ordem n e com parâmetro 1. Vamos verificar que Yn = (Xn- n)/ Vn
Sejam Fn, n ;::: 1, funções de distribuição cujas funções características converge em distribuição para a N(O, 1).
são dadas por <Pn. n ;::: 1, respectivamente. Então, Lembremos que Er/71 (1) é uma Ga~ (n, 1) e assim
(i) Se Fn,.~ F nos pontos de continuidade de uma função de
distribuição F, então <Pn (t),~ <P(t ) para t E~. em que <P é a função
A..
'!'X,
.
(t) = E(e'tX,) = 1ooe•tx-x
. (n- 1)! dx =xn-1 ( 1 . ) " , para t real.
--
1 -zt
0
característica correspondentes à F.
Com o auxílio das propriedades de função característica, obtemos
(ii) Se <Pn(t ),.-:::::tx, <P(t) para t E ~. em que <P é uma função contínua em
t = O, então <P é função característica. Se F for a função de distribuição .
</JY,,(t) = E(e'tY,,)
it )-n e-tt..fo.
= ( 1- Vn .
correspondente à </J, então F,. ,.-:::::tx, F em todos os pontos de continuidade de F .
Demonstração: Aplicando logaritmos nos dois lados da expressão vem
(
A prova será omitida. Ela pode ser encontrada em James [81].
Em essência, o Teorema da Continuidade de Levy estabelece uma
O
logE(eitYn) = -ityÍn- nlog( 1- :/n)
equivalência entre a convergência em distribuição e a convergência das -it t2 it3
respectivas funções características. Dessa forma, a verificação de convergência = -ityÍn- n( fo + 2n + 3nyln + .. .)
em distribuição pode ser feita pela verificação do comportamento limite da função
t2
característica.. = --+ Rn(t) ;
No enunciado do teorema, optamos por não fazer menção à variável 2
aleatória, seguindo o caminho de vários autores. Entretanto, é importante que com o resto Rn(t) indo para O, quando n vai ao infinito. Note que a expansão em
fique claro que poderíamos considerar variáveis aleatórias Xn e X e funções de
distribuição Fn e F, tais que Xn E. x.
série de log ( 1 - fn) é válida, pois, para n suficientemente grande, litI vnl < 1
A menção, na segunda parte do teorema, sobre a necessidade da função 4> para todo t real.
ser contínua em t = O é essencial. Para ilustrar esse fato, seja Xn ,...., N(O, n) e,
310 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 311
Então, Assim, completamos a demonstração do teorema pois, para n 2::: n(f), temos que
IFn(x)- F(x)l <f para todo x E R O
Vários autores se referem à convergência em distribuição como
que é uma função contínua em t = O e, como é a função característica de convergência fraca. Preferimos evitar essa denominação, para não confundi-la
com aquela já usada para convergência em probabilidade. Entretanto, o nome
Z ""N(O, 1), segue pelo Teorema da Continuidade de Levy que Yn _!l:_.z. O
seria justificável, pois a convergência em distribuição é conseqüência dos outros
Teorema 6.4: Teorema de Polya modos de convergência.
Sejam { Xn : n 2::: 1} e X variáveis aleatórias com funções de distribuição Proposição 6.5:
{Fn : n 2::: 1} e F, respectivamente. Se Xn ~X e F é uma função contínua, então A convergência em probabilidade implica a convergência em distribuição.
a convergência é uniforme.
Isto é:
Demonstração: p d
Xn -+X => Xn -+X.
Precisamos verificar que para todo f > O, existe n( f) tal que n 2::: n( f)
implica a ocorrência de IFn(x)- F(x)l <f para todo x E R Demonstração:
Seja f >O, existem números reais a e b tais que F(a) < f/2 e
F(b) > 1 - f/2. A função F é uniformemente contínua em [a, b] e existe uma Suponha que F seja contínua em x. Dado f > O, temos
partição finita tal que a = X1 < X2 < · · · < X r = b tal que Fn(x) = P(Xn ~ x)
IF(xj+l)- F(xi)l < f/2, j = 1, ... , r- 1. = P(Xn ~ x,X ~X+ f)+ P(Xn ~ x,X >X+ t:)
~ P(X ~ X+ f)+ P(IXn- XI > f).
Pela convergência de Fn temos que, para cada xi, j = 1, ... , r, existe
nj(f) > O tal que para todo n 2::: nj(f), IFn(xi)- F(xi)l < f/2. Tomando De forma similar
n 2::: n( f) = max ( n1 (f), ... , nr( f)) a majoração vale para todo j. Assim, F(x- f) = P(X ~ x-f)
IFn(Xj) - F(xi)l < f/2, j = 1, ... , r. = P(X ~X- f,Xn ~ x) + P(X ~X- f,Xn > x)
~ P(Xn ~ x) + P(IXn- XI> f).
Definindo x 0 = -oo e Xr+l = oo, podemos escrever
Portanto
IF(xj+l)- F(xi)l < f/2, j =O, 1, ... , r;
IFn(Xj)- F(xi)l < f/2, j =O, 1, ... , r+ 1. F(x- f)- P(IXn- XI >f)~ Fn(x) ~ F(x +f)- P(IXn- XI> f).
Para x E JR, temos Xj ~ x ~ xi+l para algum j =O, 1, ... , r. Então, ainda para Dessa forma, quando n-+ oo, podemos escrever para todo n suficientemente
n 2::: n (f),. temos a seguinte seqüência de desigualdades: grande
F(xj)- t:/2 < Fn(xj) ~ Fn(x) ~ Fn(Xj+l) < F(x- f)~ liminfFn(x) ~ limsupFn(x) ~ F(x + t:),
< F(xj+l) + f/2 < F(xj) +f~ F(x) +f~ F(xi+d +f. e, então, temos lim Fn(x) = F(x) para todo ponto de continuidade x de F. o
n-+oo
Logo,
A convergência em distribuição não implica convergência em
probabilidade, conforme apresentaremos no próximo exemplo. Um caso
312 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 313
p
particular, em que essa implicação é verdadeira, é apresentado em seguida atraves mas, F( c- E)+ [1- F( c+~)]= O+ (1 -1) =O e, portanto temos X 11 -+ C. O
de proposição.
Como mencionamos anteriormente, a definição de convergência em
Exemplo 6.9: Seja (0, :F, P) um espaço de probabilidade com O= {1, 2}, distribuição é aplicada nos pontos de continuidade de F. A próxima proposição
:F = OP e P a probabilidade uniforme em O. Considere as variáveis aleatórias: indica que o conjunto de pontos de descontinuidade de F é enumerável.
X(w) = { ~: w =
W-
_ 1; e, para n
2.
= 1 , 2 , ... , X n (w ) = { 1,
O
,
w= 1;
w=2.
Proposição 6. 7:
Seja D o conjunto de pontos de descontinuidade da função de
Note que, para as funções de distribuição, temos igualdade entre elas, em distribuição F. Então D é enumerável.
todos os valores x E~ e n E N: Demonstração:
o, X< O; Para todo x real, temos F(x-) :::; F(x) :::; F(x+). Temos x E D se e só
F11 (x) = F(x) = 1/2, 0 :S: X< 1; se F(x+) > F(x-). Para n = 1, 2, ... seja
{ 1, x;::: l.
1
An = {x: F(x+)- F(x-) > - };
Portanto, vale a convergência em distribuição de Xn para X. Entretanto, tomando n
E= 1/2, temos 00
então D = U An.
n=I
P(IXn -XI ;::: 1/2) = 1, qualquer que seja n E N,
Vamos verificar que todo An contém menos que n pontos e, portanto, é
e, assim, não vale a convergência em probabilidade. o finito. Dessa forma, D será enumerável.
Por absurdo, suponha que para cada n, An contém pelo menos n pontos.
Proposição 6.6: Assim, existem números reais XI, x 2 , •.• , Xn em An tais que XI < x2 < ... < Xn
Suponha que a seqüência Xn, n ;::: 1 converge em distribuição para uma e
- X n -+P c.
constante c, entao O :::; F(xl) < F(xt) :::; F(x2) < F(xt) :::; ... F(x;;) < F(xt) :S: 1.
Demonstração:
Então, temos
Seja F a função de distribuição da variável aleatória constante c. Assim TI
O figura, a seguir, resume as implicações dos diversos modos de quase certa e em probabilidade, não podemos reduzir o estudo da convergência
convergência. em distribuição de vetores aleatórios, ao comportamento das suas respectivas
coordenadas. Não temos equivalência, mas apenas implicação, em uma das
direções. Ou seja, se o vetor converge em distribuição então cada componente
também converge em distribuição, para a correspondente marginal da função de
distribuição limite. Entretanto a recíproca não é, em geral, verdadeira.
Como já mencionamos, para amenizar as dificuldades técnicas no trato de
convergência em distribuição, é conveniente trabalhar com funções
características. O Teorema da Continuidade de Levy também vale para o caso
multivariado. A seguir, apresentamos um critério que facilita a verificação da
convergência em distribuição para vetores aleatórios.
Teorema 6.8: Teorema de Cramér- Wold
Para k ;::: 1, sejam {Xn : n ;::: 1} e X vetores aleatórios k-dimensionais
em um mesmo espaço de probabilidade (S1, :F, P). Então, Xn converge para X em
k
distribuição se, e somente se, a seqüência de combinações lineares I:aiXnj
j=l
k
converge em distribuição para I:aiXi, para qualquer (ai, a2, ... , ak) E JRk.
j=l
Figura 6.1: Relação entre os Modos de Convergência.
Demonstração;
d k d k
Supomos que X11 -+ X e vamos verificar que I:aJXn; -+ I:aiXJ, para
Para o caso vetorial, as definições de convergência sofrem algumas j=l j=l
Proposição 6.9: Funções contínuas preservam convergência [lXI > M] U [IX,- XI 2:: 6(E)] :J [lg(X,)- g(X)I 2:: E], para n 2:: n(E).
Para k 2:: 1, sejam {X11 : n 2:: 1} e X vetores aleatórios k-dimensionais Então, para todo n 2:: n( f.),
com funções de distribuição conjunta {F, : n 2:: 1} e F, respectivamente. Seja
P(lg(X,)- g(X)I 2:: f) :::; P(IXI > M) + P[IX,- XI 2:: 6(€)] <f..
g : JRk -+ lR uma função contínua. Então, se X 11 converge para X em quase toda
parte, em probabilidade ou em distribuição, o mesmo ocorre com g(X,) para p
Portanto, vale g(X,)-+ g(X).
g(X), no mesmo modo de convergência.
d d
RestamostrarqueX,-+X::::} g(X,)-+g(X). Temos
Demonstração:
Notamos, inicialmente, que o requisito de mesmo espaço de probabilidade E(eitg(X,.)) =L: dF,(x)
eitg(x)
pode ser relaxado, se a convergência for em distribuição.
Faremos a prova para o caso k = 1. Para as convergências quase certa e =L:cos(tg(x)) dF,(x) +iL: sen(tg(x)) dF,(x).
em probabilidade, o caso geral segue diretamente. Já para a convergência em
distribuição, precisaríamos usar uma versão multivariada do Teorema da As funções seno e cosseno, aplicadas no produto de t por g(x), são funções
Continuidade de Levy. contínuas e limitadas. Então, pelo Teorema de Helly-Bray
Suponha X, ~X. Então existe um conjunto A E F tal que P(A) =O e
X,(w)-+X(w) para w E Ac, quando n-+oo. Como g é contínua, g(X11 (w))-+ !!..~E(e itg(X,.)) =L:cos(tg(x)) dF(x) +iL:sen(tg(x)) dF(x)
g(X(w)) para w E A c, quando n vai ao infinito e, portanto, g(X11 ) ~ g(X). = E(eitg(Xl).
Considere que X,!. X e vamos verificar que g(X,)!. g(X).
Segue, agora, do Teorema da Continuidade de Levy que g(X,) 2. g(X). D
SeM, >0 eM, loo, então P(X E [-M,,M11 ]) ,~ 1.
-
318 Capítulo 6: Convergência de Variáveis Aleatórias 6.2 Modos de Convergência 319
Uma simples aplicação da proposição anterior permite avaliar, a partir do 0 comportamento da soma e do produto de variáveis, uma convergindo
que ocorre com Xn, a convergência de X~ ou de aXn + b, para a e b constantes. em distribuição e outra em probabilidade, é o objeto do próximo teorema.
Assim, por exemplo, se Xn ~N(O, 1) teremos X~~ [N(O , 1)]2 = x~ ou, se Teorema 6.10: Teorema de Slutsky
qc X qc
tivermos Xn-+ c, então Xne •-+ c é . Considere {Xn:n;;::: 1}, {Yn : n;;::: 1} e X variáveis aleatórias tais que
No próximo exemplo, discutimos o comportamento da soma de duas
variáveis, a partir da convergência de cada uma delas. valem as convergências Xn ~X e Yn ~c, com c constante. Então,
Exemplo 6.10: Sejam Xn e Yn, n;;::: 1, seqüências de variáveis que convergem (i) Xn + Yn ~X + c;
quase certamente para X e Y, respectivamente. Da convergência individual temos
a convergência quase certa do vetor (Xn, Yn) para (X , Y). Usando a proposição (ii) XnYn ~eX;
anterior com a função contínua g(x, y) = x + y, obtemos o resultado:
(iii) Se c =f O, ~:: 2. f ,desde que P(Yn =f O) = 1.
qc qc qc
Xn -+X e Yn-+Y ::::} Xn + Yn -+X + Y. Demonstração:
Se a convergência for em probabilidade, o mesmo argumento se aplica e temos: Prova de (i): Temos
p p p
Xn-+X e Yn-+Y =}Xn+Yn -+X +Y. ,~.. (t) = E(eit(X.,+l~,)) = E(eit(Xn+c) ) +E[(eitX,. )(eitY,, _ eitc )] .
'f'X,+Y,,
Prova de (ii): Inicialmente consideramos c = O e vamos verificar que Por serem funções da amostra, essas quantidades são aleatórias. Omitimos a
X, Y, , !. O. Daí a convergência em distribuição também vale. menção ao tamanho da amostra n , para aliviar a notação. Note que, após o
Temos, para t > Oe k > O, conhecimento dos valores observados em uma particular amostra, a média e a
variância amostrais podem ser calculadas numericamente.
P( IX, Y,,I >E) = P(I Xn Ynl >E, IY,, I ~ tlk ) + P( IX, Y,,I > t, IY,, I > tlk ) Vamos verificar que s~ !.e12 • É possível mostrar que (n - 1 )s~ le1 tem
2
~ P(I X, I > k ) + P(I Y,,j > Elk). distribuição Qui-quadrado com n - 1 graus de liberdade e, dessa forma, temos
Então,
Var( (n ~;)s~ ) = 2(n - 1) =? Var(s~) = 2CT 4l(n- 1).
limsupP(IX" Y, j >E)~ P(IXI > k ), pois X 11 ~X e Y,, !.o.
n-oo
Pela Desigualdade de Chebyshev, para qualquer t > 0:
Como k pode ser arbitrariamente grande, segue que P( IX, Y,,l > t) -... O para 2 2 20"4 .
n -... oo. Isto é, X , Y,, converge em probabilidade para zero. P (lsa - CT I2 E) $ E2 (n _
1) "-:::1: O,
Consideramos, agora, o caso geral. Temos
2 p 2
e, portanto, sa -+ O" •
X" Y,' = eX,+ (Y,,- c)X11 •
A variável aleatória T,,_ 1 definida por:
Observe que vale Y,, - c!. O. Da parte inicial, podemos concluir que
X - JL
(Y,, - c)X, !.o. Além disso, eX, ~eX pois produto por é uma função contínua. Tn-! = sal Vn'
Uma nova aplicação da parte inicial resulta em
tem distribuição t-Student com n - 1 graus de liberdade. Para o comportamento
X , Y,, =eX"+ (Y,- c)X, !. cx, limite temos
. )"1cando em X, Y,, -+
d cX. d
1mp T,,-1 -+ N(O, 1).
Prova de (iii): Note que g(y) = 1l y, com y =/= O, é uma função contínua. x-11 tem distribuição
Para a verificação desse resultado, observe que uffo
Dessa forma, segue que 11Y,!.11c. Para concluir a prova de (iii) , basta aplicar a
parte (ií). O N(O, 1), independente de n. Logo, ~:};; ~ N(O, 1) .
Exemplo 6.11: Considere X1 ,X2, ... X , variáveis aleatórias independentes com
Também temos ~ ! 1, por ser função contínua de uma quantidade
distribuição N(J.L , e1 2 ). Podemos pensar que essa seqüência constitui uma amostra
do modelo indicado. Relembremos que a média amostrai é dada por que converge em probabilidade.
Aplicando a parte (iii) do Teorema de Slutsky vem
X = X I +X2 + ·· · + XII
- x-Jl
~ n X - J.L -;;J"Tn d
Tn-1 = I r;: = J':2T.:2 -+ N(O, 1),
e a variância amostrai por Sa v n v sã!CT-
indicando que, para valores grandes de n , a distribuição t-Student pode ser
calculada, aproximadamente, pela distribuição Normal Padrão. O
322 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 323
Exercícios da Seção 6.2: 8. Seja { Xn : n :2: 1} uma seqüência de variáveis aleatórias simétricas ao redor
do zero. Suponha que Xn E. X, para alguma variável X. Então, X também é
1. Para n :2: 1, Xn"" Uc(O, 1) são variáveis i.i.d. Defina Yn = min(X1, ... Xn),
W n = max(X1, ... Xn), Un = nYn e Vn = n(1 - Wn )· Mostre que: simétrica ao redor do zero.
p
a. Yn-+0. 9. Sendo Xn !.x, r :2: 1, verifique que lim E(IXm- Xnn =O.
p m,n-+oo
b. Wn -+ 1.
d Sugestão: Mostre que IXm- Xnlr::::; 2r {IXm- Xlr + IXn- xn.
c. Un -+U, sendo U ""Exp(1).
d 10. Sejam Xn. n :2: 1, e X variáveis aleatórias.
d. Vn-+ V, sendo V"" Exp(1). ()()
a. Mostre que, se P(IXn -XI :2: En) ::S Ón com lim En = O e E Ón < oo,
( 2. Suponha que Xn, n :2: 1, sejam independentes e que Xn ~X. Mostre que, para n--+oo n=l
()() qc
qualquer€ > O temos E P(IXnl :2: E) < oo. então Xn -+X.
n=l
b. Se Xn!. X, então existe uma sub-seqüência de Xn que converge quase
3. Seja { Xn : n :2: 1} uma seqüência de variáveis alaetórias independentes com certamente para X.
(
P(Xn = ± 2") = 2-( 2n+l) e P(Xn =O) = 1 - 2- 2n, n :2: 1. Verifique se Sugestão para a parte (a): Use Borel-Cantelli.
n
(
~ EXn converge em probabilidade e indique qual seria o limite. 11. Prove que
( i=l
4. Considere Xn, n :2: 1, uma variável aleatória com função de distribuição F11 Xn!.X {::} VE >O, lim P(IXm- Xnl :2: E)= O.
( m,n-+oo
dada por
Sugestão: Mostre que {IX- Yl :2: E} C {IX- Zl :2: ~E} U {IY- Zl :2: ~E},
se x < n;
( sendo X, Y e Z variáveis quaisquer. Use também o Exercício JO(b).
se x :2: n.
12. Sejam Xn, n :2: 1, e X vetores aleatórios de dimensão k. A convergência do
Verifique que Fn(x),~ O, Vx E R Que conclusões podem ser tiradas sobre o vetor X" para X é definida pela convergência de IIX, -XII para zero, em
limite de uma seqüência de funções de distribuição? probabilidade ou quase certamente, conforme o caso. Denotando por XnJ a
5. Seja { Xn : n :2: 1} uma seqüência de variáveis i.i.d. assumindo os valores - 1 e coordenada j do vetor X 71 , mostre que:
1 com igual probabilidade. Mostre que f: f; X; E. Uc[-1 , 1].
i=l
a. X, !. x {:}XnJ!.xi,paraj= 1,2, ... ,k.
'•' Lembrete: cos x = sen( 2.r) ·
qc qc .
b. X 71 -+ X {:}Xnj-+Xj,paraJ= 1,2, ... ,k.
2 senx
6. Seja {Xn : n :2: 1} uma sequencia de variáveis aleatórias tais que 6.3 Leis dos Grandes Números
P(Xn = k/n) = 1/n, para 1 ::::; k ::::; n. Mostre que Xn converge em
O problema de obter empiricamente valores numéricos de probabilidades
distribuição e identifique o limite.
é um dos interesses da estatística. Inúmeras técnicas foram desenvolvidas para
7. Verifique que, se Xn!. X e Yn!. Y, então: que fossem obtidas estimativas da probabilidade de eventos. As Leis dos Grandes
a. aXn + bYn !.ax + bY, a e b constantes. Números fornecem a fundamentação teórica para a maioria dessas técnicas.
p Em um certo espaço de probabilidade, considere um experimento em que
b. XnYn -+ XY.
p o evento A tem probabilidade P(A) = p. A intuição, freqüentemente aceita,
c. Xn/Yr, -+ X/Y, desde que P(Yn =f. O)= 1. indica que em um grande número de repetições do experimento, a freqüência
324 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 325
relativa de ocorrência de A se aproxima de p, isto é ~ ;:::: p, em que nA é a Vamos retomar nossa discussão inicial sobre a convergência das
freqüência de A e n o total de repetições. Essa concepção intuitiva, importante freqüências relativas. Para tal, sejam X 1, X2, ... variáveis com distribuição de
para o método científico, foi tomada como definição de probabilidade por muitos Bernoulli(p) e independentes. Sendo A a ocorrência de sucesso, segue que
anos. De fato, essa definição pode ser considerada imprecisa, se o sentido do P(A) = p. Para n variáveis, ou n repetições do experimento sucesso-fracasso,
limite não é explicitado. temos nA = X1 + X2 + ··· + Xn e E( X;) = p, 'Vi = 1, 2, ....
A formalização axiomática de Kolmogorov em 1934, apresentada no Portanto, as Leis dos Grandes Números podem ser expressas da seguinte
Capítulo 1, permitiu colocar em bases matemáticas sólidas vários dos conceitos forma:
intuitivamente aceitos. Para experimentos aleatórios, a noção intuitiva de
probabilidade, como freqüência relativa para um grande número de repetições,
nA P
- - - + p, para a L.
et Fraca;
n
toma-se um resultado matemático rigoroso, através da aplicação de um caso nA qc .
especial da Lei dos Grandes Números.
- --+ p, para a Let Forte.
n
Definição 6.5: Leis dos Grandes Números Desse modo, verificando-se a obediência a uma das leis acima, teremos
Sejam X 1, X2,... variáveis aleatórias com esperanças finitas e seja estabelecido, de maneira rigorosa, a intuitiva convergência da freqüência relativa
S" = X1 + X2 + .. · + Xn. A seqüência {Xn : n;::: 1} satisfaz a Lei Fraca dos à probabilidade.
Grandes Números se: Para ajudar a esclarecer as diferenças entre as duas leis, detalhamos os
espaços de probabilidade que são apropriados para cada caso.
Para a Lei Fraca considere que, para cada n E N, o espaço amostrai n
consiste das 2" seqüências de n termos, em que cada um deles é Oou 1. Os pontos
de n podem ser pensados como sendo um vetor n-dimensional, em que xi é o
e a Lei Forte dos Grandes Números se: valor da i-ésima coordenada. A o--álgebra F pode ser o conjunto das partes de n.
Para a probabilidade P, a atribuição nos pontos de n envolve a independência e o
s" _ E(s, )~o. resultado das ocorrências, em cada realização. Assim, o ponto (1 , O, O, ... , 1, 1)
n n
teria probabilidade pqq . .. pp, com q = 1 - p.
o No espaço amostrai mencionado, considere o conjunto de seqüências tais
que, para E > O, I71,;4 - Pl ;::: E. Denotando por 0: 71 a probabilidade desse conjunto,
Como verificamos na seção anterior, a convergência quase certa implica
convergência em probabilidade. Logo, se a seqüência satisfaz a Lei Forte do temos
Grandes Números ela também satisfaz a Lei Fraca. A definição foi apresentada.
em termos mais gerais, pois existem diferentes condições sobre a seqüência de
variáveis {X, : n ;::: 1}, para que satisfaçam uma ou as duas Leis dos Grandes
Números. Assim, preferimos usar a notação 8 11 /n ao invés de X, pois esta última sendo a somatória para todos os r's tais que I~ - Pl ;::: E. Precisamos, então,
quantidade é, freqüentemente, utilizada no contexto de amostras aleatórias, em verificar se o: 71 vai a zero, quando n vai ao infinito. Apesar de eventuais
que as variáveis são independentes e identicamente distribuídas. Se o valor dificuldades computacionais, trata-se de estimar a soma de probabilidades
esperado de 811 /n for constante e não depender de n, digamos igual a f.,L, podemos binomiais.
~
escrever as convergenctas · S P s qc f.-l, conforme
como ,;· -+ f.-l ou ,;· -+ Para a Lei Forte dos Grandes Números, consideramos o espaço amostrai
o caso. Nessa
situação, fica ressaltada a interpretação usual da Lei dos Grandes Números como não enumerável consistindo de todas as seqüências infinitas de X/s. Assuma que
convergência, para o valor esperado, de médias parciais. podemos definir, de forma conveniente, uma a-álgebra F e uma probabilidade P.
Entre as características desejadas de P, requeremos que o conjunto de todas as
326 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 327
seqüências, que iniciam com 1, tenha probabilidade p. Também, o conjunto de Em constraste, a Lei Forte garante que o conjunto de todas as trajetórias,
todas as seqüências, que têm O e depois 1 no ínicio, precisa ter probabilidade qp. lim ~ existe e é igual a p, é um evento de probabilidade 1 no
Para as quais n~oo n.
E assim por diante, estabelecemos todos os cálculos probabilísticos espaço de probabilidade das seqüências infinitas de ensaios. Se fixamos f > O, o
correspondentes a um conjunto finito de termos iniciais fixados. Nesse espaço conjunto das trajetórias desses ensaios para os quais p - f < ~ < p + f, para n
amostrai, seja E o conjunto de todas as seqüências para as quais suficientemente grande, é um evento de probabilidade 1.
n.4
- ----. p, para n--. oo. Na realização de uma seqüência de ensaios, ao observar a freqüência
n relativa ~n
da ocorrência do evento A, estamos obtendo uma particular seqüência.
Precisamos verificar que E E F e que P(E) = 1. A Lei Forte assegura que, dado f > O, com probabilidade 1, os termos dessa
específica seqüência realmente estarão no intervalo (p - f, p + f).
Para tornar ainda mais clara a diferença entre as Leis Forte e Fraca dos Apresentamos, a seguir, um quadro com as principais Leis dos Grandes
Grandes Números, apresentamos o gráfico a seguir, que contém uma particular Números usualmente presentes em textos intermediários.
trajetória de resultados.
{Xn : n ~ 1} independentes,
Figura 6.2: Particular trajetória para a freqüência relativa nA/n. Primeira Lei Forte de Kolmogorov
média finita e
tVar(X,.)
A afirmação '~~ ~pé equivalente a dizer que, para todo f > O podemos ---<oc n2
n=l
encontrar um n suficientemente grande tal que, a probabilidade da ordenada ~
estar entre p- f e p + f, é tão próxima de 1 quanto desejarmos. Em outras Lei Forte de Kolmogorov {X,. : n 2: 1} i.i.d.
palavras, no n-ésimo ensaio muitas trajetórias de ~ estão próximas de p, mas não com média finita.
sabemos se uma específica trajetória se aproxima ou permanece próxima de p.
Isto é, a Lei Fraca dos Grandes Números não dá nenhuma informação sobre a
existência ou o valor do limite de nA
11
• Figura 6.3: Leis dos Grandes Números.
328 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 329
Note que, do ponto de vista formal, não é necessário provar uma lei fraca, Observe que
se provamos, com as mesmas hipóteses, a lei forte. Cabe ressaltar que as leis que
tinham variáveis de Bernoulli em suas hipóteses serviram como precursoras dos
outros resultados. Como usual em toda teoria, se aprende com casos especiais
e, portanto,
antes de se obter os resultados gerais. Em particular, observe que a Lei Fraca de
n n
Bernoulli foi publicada em 1713.
A apresentação das leis e suas respectivas hipóteses variam entre os E(S~)::::: LE(S~ IA.):::=: L{ E(SÍ IAk) + 2E [(Sn- Sk)SkiAJ}.
k=l k=l
autores. O quadro acima, bem como as demonstrações que se seguem, foram
baseadas em James [81]. A Lei Fraca de Chebyshev pode ser verificada com a Sendo (Sn- Sk) e Sk independentes e, ainda, E(Sn- Sk) = O, temos
aplicação da desigualdade do mesmo nome e é deixada como exercício ao leitor. n
As Leis Fracas de Bernoulli e de Khintchine, além da Lei Forte de Borel, ficam E(S~) ::::: L E(Sf IA.)·
válidas, se valer a Lei Forte de Kolmogorov. Assim, apresentaremos as leis de k=l
Kolmogorov, sendo que a chamada Primeira Lei ajudará na demonstração da Lei
Forte de Kolmogorov. Antes, precisamos de dois resultados preliminares. Em Ak temos Sf ::::: À2 e, após a substituição na desigualdade acima, vem
Lema 6.11: Desigualdade de Kolmogorov n
Seja { Xn : n ::::: 1} uma seqüência de variáveis aleatórias independentes E(S~)::::: LE(À2 IA.) = À
2
P(A);
k=l
com média zero e variância finita. Então, para todo À > O e com
sk = xl + x2 + .. . + xk temos, logo, a demonstração está completa, pois Var(Sn) = E(S~). o
Lema 6.12:
Seja X uma variável aleatória com esperança finita e função de
Demonstração: distribuição F. Então,
Seja A = { max Sf ::::: À2 } e defina os eventos Ak, 1 ~ k ~ n, da
seguinte forma:
15k5n
oo
~ n2
1 in 2
-nx dF(x) < oo.
2
A1 = {S? ::::: À }; Demonstração:
2
Ak = {S? < À , ••• ,S'fc_ 1 < À
2
,Sf::::: 2
À }, para 2 ~ k ~ n. A prova é omitida e a demonstração é feita no Lema 5.1 de James [81 ]. O
Assim, eles representam a primeira vez que Sf é maior ou igual a À e são dois a 2
Teorema 6.13: Primeira Lei Forte de Kolmogorov
n n
dois disjumos. Dessa forma, A = U Ak e, portanto IA = L: IA•· Sejam { Xn : n ::::: 1} variáveis aleatórias independentes com esperança
Então
k=l k=l
finita e f: va~f"l < oo. Então, {Xn: n ::::: 1} satisfaz a Lei Forte dos Grandes
n=l
n n Números, isto é, para Sn = X1 + X2 + ... + Xn temos,
s~ : : : s~ IA = I:s~ h. ::} E(S~) ::::: LE(S~ IAJ·
k=l k= l Sn E(Sn) ..!!.:... O.
n n
330 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 331
n
00
Bm {::} {Vm, Af11 ;::: -
1 para um numero
, m1to de n '}
f'. s
m=l m
{::} {Vm, O ~ M 11 < ~ para todo n suficientemente grande}
m
{::} {Mn-+ 0, quando n vai ao infinito} .
-+O e a demonstraçao
Portanto, Mn qc - esta, compIet a. D
- 332 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 333
Teorema 6.14: Lei Forte de Kolmogorov Segue, pelo Lema de Borel Cantelli, que
Sejam X 71 , n ~ 1, variáveis aleatórias i.i.d. e com esperança finita J.l. P ( Z 11 f. O infinitas vezes) = O;
Então {X11 : n ~ 1} satisfaz a Lei Forte dos Grandes Números, isto é, para '
,i
Bn = X r + X2 + .. . + X n temos, e, então
n n n n
Para demonstrar a parte (ii), seja F a função de distribuição comum às
Vamos provar os seguintes três resultados:
variáveis da seqüência { X 11 : n ~ 1}. As variáveis Y;, 's satisfazem a Primeira Lei
( i) Z 1+Z2+ ... +Z, ~O · Forte de Kolmogorov. Vamos verificar a hipótese que envolve a variância de Y;"
n '
pois as demais são imediatas. Temos
(ii) Y1 +l'2+ ... +Y,, _ E(Y,+Y.,+. ..+Y,,) ~O·
n
Uma vez demonstrados, o teorema será válido pois podemos somar as expressões Então, pelo Lema 6.12 vem
referentes às partes (i) e (ii), cujo conjunto intersecção também terá probabilidade
1, e usar a parte (iii) para definir o limite do valor esperado. oo v; (X11 )
"" ar
L... n2
oc
:::; " " -
L... n2
1 j" x dF(x) < oo;
2
P(Z" f. O) = P( X" - Y,, f. O) = P(X, tf. (- n, n]) :S P(JX,J ~ n). Jogo, pela Primeira Lei Forte de Kolmogorov,
334 Capítulo 6: Convergência de Variáveis Aleatórias 6.3 Leis dos Grandes Números 335
Como cada esperança é finita por hipótese, se tivermos E(Yn)-+ O, o Considere um x 0 E ~fixado. Então F,~(xo, w) é variável aleatória, pois é
resultado estará verificado. Temos uma função das variáveis X 1 ,X2 , . . . ,Xn. Isto fica mais claro, considerando a
variável indicadora, Y; = I{X;:SXo}• i= 1, 2, ... , n. Assim,
1 n
em que usamos que as variáveis são identicamente distribuídas e aplicamos o F~(xo,w) = - LYi(w).
Teorema da Convergência Dominada, pois IXl I{ -n<XJ~n}l:::; lXII e x l tem n i=l
esperança finita. Isto completa a verificação da parte (iii) e, como mencionamos As variáveis Y;'s são independentes como conseqüência de X17 X2, ... , Xn o
anteriormente, a demonstração do teorema é decorrente das três partes serem. Sempre com x 0 fixado, temos, ainda, que para cada i= 1, 2, ... , n,
verificadas. O
Y; "' Bernoulli (p) com
Uma conseqüência da Lei dos Grandes Números, importante na área de p = P(Y; = 1) = P(X;:::; xo) = F(xo).
Estatística Aplicada, é descrita a seguir.
Sejam X 1 ,X2, ... ,Xn variáveis aleatórias em (O, F, P), independentes Então,
e identicamente distribuídas com função de distribuição F. Essas variáveis podem n n
representar a amostra observada de uma certa quantidade de interesse. A função E(LYi ) = np = nF(xo) e Var(LYi) = np(1- p) = nF(xo)[1- F(xo)];
de distribuição empírica ou amostra/, denotada por F~, é definida para todo i=l i=l
x E ~ e w E f! por:
e, portanto,
1
F~(x, w) =-[número de i's tais que X;(w):::; x, i= 1, ... n]. 1
n E[F~(xo, w)] = -nF(xo) = F(xo).
n
Para uma particular trajetória Wo E n, obtemos um conjunto de valores fixados de
xl, ... 'Xn, digamos Xl, ... 'X" . Nesse caso, F,~(x, wo) é função de distribuição Concluímos que, pela Lei Forte de Kolmogorov, para cada valor xo E~ fixado,
com saltos de 1/n em cada um desses valores (ver gráfico a seguir). temos
F~(xo,w) ~F(xo);
e, portanto, daí também vale a convergência em probabilidade.
É importante notar que o resultado é válido para cada valor fixado Xo.
I . Para dizer algo sobre a convergência em geral, para todo x, precisamos levar em
conta que F~(x, w) é um Processo Estocástico. Dessa forma, a teoria
correspondente precisaria ser utilizada.
Entretanto, um resultado extraordinário pode ser apresentado, no contexto
•-- --<o deste capítulo: o Teorema de Glivenko-Cantelli que é algumas vezes mencionado
3111 ·...-.<> como o Teorema Fundamental da Estatística. Ele afirma que a função de
distribuição empírica construída das observações, converge para a função de
1/11 distribuição populacional, quase certamente em O e uniformente em IR.
X
•I
Figura 6.4: Função de Distribuição Empírica. I
336 Capítulo 6: Convergência de Variáveis Aleatórias 6.4 Teorema Central do Limite 337
Teorema 6.15: Teorema de Glivenko-Cantelli 7. Sejam Xn, n 2: 1, variáveis independentes com Xn "' Poisson(>.n). Suponha
n
Sejam XI , x2 , ... ' Xn variáveis aleatórias em (n, F, P), independentes e q ue 1"
nL..J
>.J· n--+x
---+ O, então a seqüência de variáveis obedece a Lei Fraca.
j=l
identicamente distribuídas com função de distribuição F . Seja F,~· a
correspondente função de distribuição empírica, então 8. Seja {Xn : n 2: 1} uma seqüência de variáveis aleatórias, não correlacionadas
duas a duas e com Var(Xn) = a 2 < oo. Mostre que vale a Lei Fraca dos
P( lim sup I F,~(x, w )- F(x)l =o) = 1;
7!--->oo xEIR
Grandes Números.
9. Sejam X 11 , n 2: 1, variáveis aleatórias, contínuas e independentes, todas com
ou, em outras palavras, função densidade f(x) = e-(x+a) I {x;:>:-a} (x ), para alguma constante a > O.
e qc Verifique se vale a Lei Forte para essas variáveis e identifique o limite.
F" --+F, uniformemente em x E R
10. Sejam X i, j = 1, 2, ... , n, variáveis aleatórias, não correlacionadas duas a
Demonstração:
duas, com E(Xi) = /.li e Var(Xi) = a] ::; M , ambos finitos para todo j.
~E l-li·
Pelos comentários anteriores ao teorema, a Lei Forte dos Grandes
Números garante, para cada fixado x E ~. a convergência quase certa. Trata-se Mostre que vale a seguinte Lei Fraca: X - iin !. O, com iin =
j=l
agora de estender o resultado, mostrando que essa convergência pode também ser
estabelecida uniformemente para todo x E R A prova usa quase que 11. Seja {X 11 : n 2: 1} uma seqüência de variáveis aleatórias independentes todas
essencialmente técnicas de Análise Matemática e será omitida. O leitor seguindo o modelo Uc[O, 1]. Denote por /.lg a média geométrica de n dessas
interessado pode consultar Neuts [73] ou Rao [84]. O variáveis, isto é, /.lg = (X1X2 ... X 11 ) 1/". Mostre que /.lg ~ c. para alguma
Exercícios da Seção 6.3: constante finita c.
1. Demonstre a Lei Fraca de Chebyshev. 12. Sejam Xn, n 2: 1, vanave1s aleatórias independentes e identicamente
distribuídas com média /.L e variância a 2 < oo.
2. Seja {X, : n 2: 1} uma seqüência de variáveis aleatórias independentes com a. Verifique que a seqüência de vetores aleatórios bidimensionais
P(Xn = n) = ~ e P(Xn =O) = 1 - ~ , n 2: 1. Verifique se vale a Lei dos
( ~ ~ ( Xj - /.L ) 2 , (X - /.L )) converge quase certamente para (a 2 , O).
Grandes Números.
" - qc
3. Sejam X i, j = 1, 2, ... , n , variáveis aleatórias não correlacionadas duas a duas b. Mostre que ~ L:(Xi- /.l) 2 - (X - /.l)2 -+ a
2
•
com P(Xi = -ai) = P(Xi = ai) = 1/2, O < a ::; 1. Mostre que vale a Lei j=l
Fraca dos Grandes Números.
6.4 Teorema Central do Limite
4. Seja {Xn : n 2: 1} uma seqüência de variáveis aleatórias, independentes
Nesta seção, vamos apresentar as principais versões do famoso Teorema
identicamente distribuídas, seguindo o modelo Cauchy Padrão (a= O, f3 = 1).
Central do Limite. Em essência, trata-se da convergência em distribuição para o
Mostre que não existe constante c tal que X 1 +X2 ~ ... +X" !. c. modelo Normal de uma soma de variáveis aleatórias independentes, após uma
5. Considere uma seqüência de variáveis independentes tais que Xn ,...., Exp(2"12 ), conveniente padronização. A independência entre as variáveis pode ser relaxada,
n 2: 1. Verifique se vale a Lei Fraca. mas esse tópico não será aprofundado neste texto.
As demonstrações dos primeiros resultados sobre limite com variáveis
6. Seja {X, : n 2: 1} uma seqüência de variáveis, independentes e identicamente Bernoulli eram baseadas na análise direta das funções de distribuição. Uma etapa
distribuídas, seguindo o modelo Qui-Quadrado com j graus de liberdade. importante, no avanço da teoria, foi a descoberta por Chebyshev da desigualdade,
Demonstre que a Lei Fraca está satisfeita.
338 Capítulo 6: Convergência de Variáveis Aleatórias 6.4 Teorema Central do Limite 339
que mais tarde levaria o seu nome. Ela permitiu uma prova mais simples da Lei Usando a definição de </J, obtemos </J(O) = 1, </J'(O) = Íf.L =O e
dos Grandes Números de Bernoulli, além de sua generalização. Chebyshev criou, </J"(O) = i 2a 2 = -a2 e, assim,
ainda, o método dos momentos, aperfeiçoado por Markov, que tomou possível
demonstrar o Teorema Central do Limite em condições mais gerais. Algum tempo t2 t2 t2 o ( ~) ]
depois, Liapunov usou a técnica de funções características para provar esse <jJ(tfa Jri) = 1 - -
2n
+o(-)
n
= 1 -2n
-[1-- .
t /n 2
mesmo teorema. Desde então, essa técnica tem se desenvolvido e mostrado ser
efetiva em várias situações.
Teorema 6.16: Teorema Central do Limite para variáveis i.i.d.
Observe que lim
n---+oc
[1 - ill
12111 ] = 1. Usaremos, ainda, o seguinte resultado:
podemos considerar que estamos aproximando uma B(n,p) por uma Normal com relativamente pequena à soma ~]X;- E(X;)], quando n é grande.
i=1
mesma média e variância, isto é, f-L = np e a 2 = np(1- p).
Em termos práticos, a aproximação é aceitável se np ~ 5 e Teorema 6.17: Teorema Central do Limite de Liapunov
np(1- p) ~ 5. Também, para um dado n, a aproximação é melhor para p ao Seja { Xn : n ~ 1} uma seqüência de variáveis aleatórias independentes,
redor de 1/2. com esperança f-Ln e variância a~, com a~ < oo e pelo menos um dos a~ 's maior
Tendo em vista que estamos aproximando uma variável discreta por uma n
contínua, podemos melhorar a aproximação, introduzindo a correção de que zero. Sejam Sn = X 1 + X2 + ... + Xn e s! =L: a~. Se a condição de
k=1
continuidade. Dessa forma, no cálculo feito pela Normal, acrescentamos ou Liapunov estiver satisfeita, isto é, se existir 6 > Otal que
subtraímos O, 5 da quantidade envolvida, conforme ela esteja, respectivamente,
incluída ou não na probabilidade desejada. Para ficar mais claro, sugerimos ao
leitor representar, num mesmo gráfico, um histograma da Binomial e a densidade
lim 2~ 6 tE(iXk - J-Lkl 2+6 ) =O,
n---+oo Sn k=l
da Normal correspondente. Com a correção de continuidade, teríamos
então
P(sn ~ b) ~ <~>(b + 0,5- np),
..jnp(1- p) Sn- E(Sn) ~ N(O, 1) .
Sn
e, também,
6.4 Teorema Central do Limite 343
342 Capítulo 6: Convergência de Variáveis Aleatórias
com ak = - 5_2.
2s,.
t2 + E(X}l
6s~
(it)3 + O [E(X3t)t3].
s,. Temos
n J=l J
log <Ps,fs, (t) = L log(1 + ak).
"" cJ,-2
k=l
2'"'( -1 )i+l_k_
=a~;+akL.., .
Inicialmente, vamos mostrar que lim ak = O para todo k, uniformemente j=2 J
n-+ao
emk. = Q/; + Q~ w(ak),
O termo que tem a função o(.) vai para zero, quando n-+ oo.
3../4 Capitulo 6: Con\'erRhlcia de Variâl·cis Alcat!Íria.1 6.4 Teorc111a Centml do Limite 3../5
L -:lfld
:X
llll(a.i)l 'S 1 2
- = .z=--lnd' 'S ;- Lln~.-1 1 =
J
j =2 Hl 2 + l 2 I= ti e, portanto, vale ~ ~ N( O. 1) pelo Teorema da Continuidade de Levy e a
... ,
1( -] 1 1 demonstração está completa. D
= -2 1 -la~.- I) < --- < 1,
21 - r Exemplo 6.14: Sejam X 11 • n 2: 1. variáveis aleatórias independentes definidas por
pois nk tende a zero, uniformemente em k.
com probabilidade 1/2;
- - { - 1/ Jll.11.
Então, .\11 - 1/ Jll, com probabilidade 1/ 2.
Temos
Portanto. ternos
Exemplo 6.15: Sejam Xk, k :2: 1, variáveis independentes com densidade dada e, então,
por Uc( -k, k). Vamos verificar que vale a condição de Liapunov para 8 = 1. n
Temos J-lk = E(Xk) =O e a~ = Var(Xk) = E(XD = k 2/3. Como usual, L:E(IXkl3 1 1 n 1
seja Sn = X1 + X2 + ... + Xn. Assim, lim ( - -4 Lk ) = -·
3
lim ( k=l
n-+oo
)
n4
=n-+oo 4 n k=l 16
Portanto, temos
1 n 3 27 . ( 1 )
hm ~ 12
Nesse caso, precisamos mostrar que lim - 3 "'E(IXkl ) = =O.
n-+oo s L-t 16 n--+00 n
1 n n k=l
lim 3 LE(IXkl )
3 =O.
n-+oo sn k=l Assim a condição de Liapunov está verificada e temos
'
§.,_.!!.
~
N(O, 1). D
Será necessário, nessa verificação, o seguinte resultado sobre convergência de Uma questão natural é perguntar sobre a existência de condições
séries: necessárias e suficientes para obter a convergência para a Normal. Isto é
respondido pelo importante Teorema de Lindeberg-Feller, cuja demonstração não
1 n
lim - +1 ""' k = 1/(a.
0
+ 1), será apresentada. Vale ressaltar que alguns autores apresentam esse resultado em
n--too n° ~ duas partes. Uma parte é o Teorema Central do Limite de Lindeberg que requer a
k=l li verificação de uma condição, denominada de condição de Lindeberg, para haver a
cuja demonstração pode ser encontrada na página 267 de James [81]. convergência para a Normal. A outra parte seria a recíproca desse teorema que foi
Observe que demonstrada por Feller.
Teorema 6.18: Teorema de Lindeberg-Feller
Seja { Xn : n ;::: 1} uma seqüência de variáveis aleatórias independentes,
com distribuição Fn, esperança J-ln e variância com a;,
< oo e pelo menos um a; n
o· segundo 1 1Pk+ts,.
seguir:
termo, envolve o terceiro momento, cujo cálculo é feito a
Vf. >O, lim 2
7!-+00 81!
L1!
k=l Jlk-ES,.
2
(x -J-Lk) dFk(x) = 1.
E(IXd 3 = -
2k
11k-k
lxl 3 dx = - 11k
2k o
k3
x3 dx = -•
4
Demonstração:
A prova pode ser encontrada em Chow e Teicher [88]. Em James [81] a
condição de Lindeberg é apresentada separadamente através de teorema. Veja,
também, Feller [66]. D
3-18 Copirulo 6: Colll 'crghwio de Variti1 ·cis Afc•llfr •riu 1 6.-1 TcoreiiUI Cenrml do Li111i!e 3-19
Exemplo 6.16: Vamos verificar que a condição de Lindcberg está satiskita par; 1 leis esUÍ\'cis. As distribuições Normal e Cauchy são membros dessa família . mas a
variáveis independentes .\ 11 .11 ;:= 1. com P (.\11 = - n) = P(.\ 11 = nl _ 1 :! . Poisson não é. Como a distribuição de Poisson é uma distribuiçfto limite para a
Binomial, é desejável generalizar algumas hipóteses para incluir essa situação.
Temos E(.\") =O e Vor ( X 11 ) = !T~ = nê c. portanto
Nessa direção, são considerados os arranjos triangulares de variáveis aleatórias:
11
1 2n :1 1( 1
11
., ., .,
s ~ = "'!T~ ='\'f..'- = -;11(11 + 1)(211 + 1 ) > Xtt·XI 2:··· Xt n,
h h (J () 3 .\c1 , X2·2, ... X~ ":
Então. para todo t > O, vem
I
( 11 ; :3
--n ;::: para todo >
fi 11. 11
,:!
em que n, -+ :x.. para k-+ X · e. em cada linha. as variáveis são independentes. Em
11;
As.-;im. para todo j. 1 :::; j:::; 11. e 11 > ~ temos diferentes linhas. pode haver qualquer tipo de dependência. Seja S,, = L X 1.;.
.I I
1 ,, ;· 1
}in~.~:!
11
L
1.-
·.,.êdF,(.r)
I o'-" ..
= }in~.~:! L
., 1:
11
I .
/ ' " ; (>.•,.
.' 1 1'-"·-
"'
!I )
.r:!dFi(.r)
desejamos perguntar sobre a existência de constantes 111. e /1t. > O. tais que
( S'" - 11 , ) / /1 11 te nha convergência em distribuição para alguma distribuição limite
L " não degenerada . Existem muita s situações em que esse problema já foi resolvido.
= lim --:-;- "'ITf ~ I. As distribui<;iics limite que ate ndem essas condições formam a família das
s- L-
'' /,· I distrilmicrles infinitilmentc di1 ·ish·eis. Pode-se verificar que a Poisson pertence a
Portanto. a condi~·ão de Lindeberg cstü satisfeita e vale essa família.
As discussões . envolvendo condiç<ies de convergência em distribuição.
para a Normal Padrão, são mencionadas na literatura especializada como sendo
) s, prohlemas rc/(l{i\'Os ({()Teorema Central do Limite . Muitos desses problemas têm
1: I--
- ti " ( ( l .
--+!V 1).
."'i/,
retlexos importantes na teoria estatística e auxiliam a obten~·ão de melhores
estimadores. Para o leitor interessado em aprofundar esse tópico, recomendamos
que correspondc a um Teorema Central do Limite para essas variáveis. O consultar Ash [72], Chow e Teic her [88]. Feller [66]. Gnedenko 1761. Neuts 1731 e
L1m próximo níYel de generaliZ<H,·ão seria buscar condi\·ôc~ ~uhrL· Tucker 16 7] entre outros textos de Probabilidade Avançada. Para aplicações em
constantes positivas u 11 e h., tai~ que . para S , sendo a soma parcial de Yarí;iiL'Í~ estatística dos resultados de convergência consulte Leite e Singer [90] .
independentes. tenhamos Exercícios da Seção 6.4:
..'-,',, - (/1/ d . 1. Sejam X,. n ;:= l. variáveis aleatórias i.i.d. seguindo o modelo Bernoulli com
--+ ll ; 11111
I1,,
parâmetro 11 = O, -l. Determine um valor aproximado para P(LXi =50).
para alguma dí s tribui~·ão limite ll' não degenerada (isto é. não constantcl. <.)uL' 1~ I
funçôes de distrihuiçfto podem ser distribuições limite'? Nesta seção. os rcsult;ld(h 2. Suponha que retiramos. com reposição, I 000 cartas de um baralho com 52
I'
3. Use o Teorema Central do Limite para verificar que lim e-" f, f, = ~- variáveis X,, n 2 1, tais que, com j =O, 1, ... , 2m em= 1, 2, ... ,
n-'X k=ll . -
111, ) < __l±_1_.
X '"'+.i ( 11') = { se 2111+1 - 11 ' < 2ul+l'
4. Seja { X 11 : n 2 1} uma seqüência de variáveis contínuas, independentes, com o,. caso contrário.
11
f " (x ) -_ I .-1-rl/n w
"};;( Tlll
, v.r E 11">.. SeJam
· 2 _ "' 2
5 11 - ~ak e
S" _ v + X" 2 + ...
- AJ +XII.
k= I Mostre que:
. - de L'1apunov para demonstrar que -"-.
U se a con d1çao d N(O , 1) .
_._, -+
s-EIS) a.xll!.o.
b. X (w) f
.'i li
7. Seja {X" : n 2 1} uma seqüência de variáveis i.i.d. com média JI, variância a~ 6. Sejam X n 2 1, variáveis seguindo o modelo B(n, Pn ). Se np" =
11 • Àn 11~ À
e, para n 2 1, E(X p )~ = a 4 + 1. Use o Teorema Central do Limite e
11 - para À > O, entao
- ·"" d \'' , em que .\" e' p msson
v -+. 11
. ( /\') .
11
Var(Xn) =a~ e P(a:::; X":::; b) = 1, com a< b. sendo constantes finitas. 8. As variáveis X", n 2 1, são independentes e todas têm distribuição
Exponencial de parâmetro À. Mostre que a seqüência {X~ : n 2 1} satisfaz a
a. Prove que, se X 11 ~X então X 11 _::.X para todo r > O.
Lei Forte dos Grandes Números.
11
b. Mostre que, se I: a~-+ :x, então a condição de Liapunov está satisfeita. 9. Seja {X" : n 2 1} uma seqüência de variáveis aleatórias i.i.d. com função
!=I - ji
característica 9 tal que <P'(O) = 11. Prove que X -+ JL.
6.5 Exercícios
10. Sejam X 1, X 2 , ••. , X 11 variáveis aleatórias i.i.d. com "--"'" ""' Poisson ( /)!),
1. Sejam X". n 2 1, vanaveis aleatórias independentes, tais que
para cada n 2 1. Indique as possíveis convergências de X.
X" ""'Bernoul!i(p11 ). Estude as condições sobre Ji 11 • para que X" ~O.
11. Sejam X 1 , X 2 , .. ·, X 11 variáveis aleatórias i.i.d. com densidade Uniforme
2. Sejam n = [0, 1), B([O, 1)) a correspondente a-álgebra de Borel e P a função Contínua em [-1, 1]. Defina a variável 1;, = min([XJ[, [X2[, · · ·, [Xnf).
de probabilidade que atribui, a cada intervalo, seu comprimento. Defina as Mostre que 1;,-+ O em probabilidade.
352 Capítulo 6: Con vergência de Variáveis Aleatórias 6.5 Exercícios 353
12. Suponha que X , , para n ~ 1, tem a seguinte função de distribuição: 21. Seja {X, : n ~ 1} uma seqüência de variáveis aleatórias não correlacionadas
o, se x ~ O;
com média Oe variância uniformemente limitada. Mostre que X .3. O.
F71 (x) = x", se O < x ~ 1; 22. Para k ~ 1, Xk ""' Bernoulli(Pk ) são variáveis aleatórias independentes.
{ 1, se x > 1. Defina Y,, como o número de sucessos, nas primeiras n realizações.
Demonstre que
Determine o limite em distribuição para a seqüência {X" : n ~ 1}. n ) p
a. -;;1 ( Y,, - l:P; -+O.
13. Sejam X ,, n ~ 1, variáveis independentes tais que X, ""'Bernoulli(p ). 1=1
11
a. Calcule P(Y,, > O) e E(Y,,). 23. As variáveis X 11 , n ~ 1, têm vananc1a comum a 2 e o coeficiente de
b. Verifique se Y,, converge em probabilidade. correlação entre X i e X j é não positivo para i =/= j. Demonstre que vale a
14. Considere uma função f : ~-+ ~. tal que seguinte convergência: ~ "t[X;- E(X ;)f .!.o.
i=1
f(t) = {t-t + 1, 1,
se t < O;
se t ~ O.
24. Seja X uma variável aleatória finita e defina X 11 como o truncamento de X da
.
segumte forma: X, =
~
X J{IXI~n }· Mostre que X, -+ X.
Sejam X 11 , n ~ 1, variáveis aleatórias com P(X, = - 1/ n) = 1. Seja X 25. Seja { X, : n ~ 1} uma seqüência de variáveis aleatórias independentes, tal
igual a O com probabilidade 1. Mostre que X , !x, mas f(Xn) não converge que cada variável seja Poisson de parâmetro À.
em probabilidade para f(X). a. Sendo X a média amostrai, verifique que J7i (X - Ã)/ ..[>. !!:. N(O, 1).
11 p
15. Para n ~ 1, sejam X 11 e Y,, variáveis tais que E[(X 11 - Y,,)2],;-=-t O. Mostre b. Determine c, tal que ~'L: X? -+ c.
que se E[ (X , - X?L;-::-t O, então Y,, ..:..x, para alguma variável X . i=1
d p - Y. d
16. Sejam {X, : n ~ 1} variáveis i.i.d. com média p e variância a 2, ambas 26. Se X, -+ X e X, - Y,, -+ O, entao , -+X.
qr qc qc
finitas. Prove que ~"t(X; - X) 2 !. a2 • 27. Se X, -+ X e Y,, -+ Y , verifique se X 11 Y,, -+ XY . Essa implicação vale para
i=1 convergência em distribuição?
17. Prove que X , ..::.x se, e somente se, E[( X,- X ,,)2] -+0, param e n-+ oc. 28. Seja { X , : n ~ 1} uma seqüência de variáveis aleatórias i.i.d., seguindo o
18. Demonstre que, se X , ! X e X 11 ! Y, então X = Y, quase certamente. modelo Uniforme Contínuo em (0, 1). Calcule o limite, em probabilidade,
11
Sugestão: Prove por absurdo. para ~"l:(- log X~.).
k=1
19. Seja {a, :" n ~ 1} uma seqüência de números reais, com a"-+ a para a finito.
29. Seja {X, : n ~ 1} uma seqüência de variáveis aleatórias i.i.d. com função de
Se X 11 .!!.N(O, 1), então X 11 +a 11 !!:.N(a, 1).
probabilidade Uniforme Discreta em {0, 1, ... , 9} . Defina, para n ~ 1,
20. Considere n ensaios de Bernoulli independentes com probabilidade p de 11 •
30. Uma amostra é constituída de X 1, X 2 , ... , X 11 • variáveis aleatórias i.i.d. com 42. Sejam X 11 , n ;::- 1, variáveis independentes tais que Xn "'Bernoulli (1ln).
média 11 e variância a 2 , ambas finitas. Prove que o coeficiente de variação Defina a variável }~, como o número de sucessos nas primeiras n realizações.
n d
amostrai converge, em probabilidade, para o coeficiente de variação Mostre que *'(L xk- log n) -+N(O, 1).
populacional, isto é, ( 5 11 I .X) ! (a I IL). " k=!
11
Sugestão: Note que (L 1I k - log n) tende a uma constante para n-+ CXJ e
31. Seja {X, : n ;::- 1} uma seqüência de variáveis aleatórias i.i.d., com média O e k=!
í=l ambas finitas. Sendo X a média amostrai, prove que X 2.. 11·
X= log(1 + Y).
qc 45. Sejam X 11 , n ;::- 1, variáveis aleatórias i.i.d. com média e variância iguais a 1.
33. Prove que vale X, -+X, sempre que LE(IX, -XI") < oo, para algum Mostre que
n
r> O.
34. Se X, rv N(n, a~). as variáveis X 11 's convergem em distribuição?
35. Sejam X,, n ;::- 1, variáveis i.i.d. seguindo o modelo Cauchy Padrão. 46. Para n > 1, as variáveis aleatórias X 11 são contínuas e têm densidade
Verifique se ~(X 1 + X 2 + ... + X 11 ) converge em distribuição. j,,(1.·) = nl1r(l + n 2:r 2 ) para todo x E R Verifique se a seqüência de
variáveis aleatórias { X 11 : n ;::- 1}, converge em média r para algum r ;::- 1
36. Sendo a E IR. e 7l ::::- 1, determine o limite em distribuição de X, rv N( a' 1I 11 ).
e/ou converge em probabilidade.
37. Demonstre que se x,'~x e IX, I s; Y com E(}" 2 ) < x. então X, 2.x. 47. As variáveis X,, n ;::- 1, são i.i.d. seguindo o modelo Cauchy Padrão. Defina:
38. Sejam X 11 , n 2 1, variáveis aleatórias i.i.d. com média JI e variância rr~'. X1+X2+ ... +X" ,. X1 +XL+··· +Xn
ambas finitas. Com o uso do Teorema Central do Limite, determine o }~ 1 = fo e 1In n
tamanho da amostra n para que P( IX, - Jtl s; ff;) ::: O. 9G.
a. Mostre que }~, não converge em distribuição.
39. Um dado equilibrado é lançado 1200 vezes. Calcule, aproximadamente. a
b. Verifique que lF11 converge em distribuição para o modelo Cauchy.
probabilidade de obtermos o valor seis pelo menos 180, mas não mais de :220 ' ,,,.
vezes. c. E verdade que H"11 -+O?
48. Sejam X" e } ;, variáveis aleatórias independentes para todo n ;::- 1. Se temos
40. Sejam X 1 •... , X, variáveis i.i.d. com quarto momento finito e variância rrc..
X 11 :!. X e } ~~ :!. }·, identifique o limite em distribuição de X + } ;, .
Para uma amostra de tamanho n, seJ·a u:.> = i!..::l
11
sf2i ' com s ll2 sendo a variância
(I
11
' '' _. •)
amostrai, 1st o e . .s-(/ = -11- 1 ""'()~
~
1
,·
11 r
-
-,... 2
.X ) . Mostre que
.
•) }J
r"(/ -+(r.
') 49. Se X 11 ..:.x e 1;, .:_.}",mostre que:
i~ I
a. lim E(X 11 1;") = E(XY).
!11.11--·---..._
41. Sejam XI' x._,, ... , X, variáveis com Xn rv Gama(n, (:!), 11 ::::- 1. Verifique
b. limE(X~)=E(X 2 ).
I - Jl 11--x.
que ;; .:X, -+c, para alguma constante c e obtenha seu valor.
c. lim E(Xn) = E( X).
u~:..._
- - ------
50. A seqüência de variáveis aleatórias {X 11 : 11 2: 1} é tal que cada.\, scgul· ,, 60. Para 11 2: 1, as variáveis aleatórias X 11 assumem somente os valores O ou 1.
modelo Geométrico de parâmetro Ji / 17. para algum O < f! < l. Verifique '-L' Suponha que. para todo (.r 1, .r 2 •... , .1' 11 ) e 11 2: 1, vale
1 X para alguma variável X e obtenha sua distribuição.
ocorre l X, P(Xt = 1) = 1/ 2 e P(X11,1 = X~~IXt = .rJ ..... XII =.r")= 1 - o,,.
"
51. Sendo X, _::.x prove que. para 1:::; s <r, temos X ~X. Vale a recíproca·.> 11 Discuta a convergência de ~(X 1 +X 2 + ... +X11 ) para 1/2, quase
certamente ou em probabilidade, nas seguintes condições:
11 : n 2: 1} uma seqüência de
52. Seja { X variáveis aleatórias. não correlacionada-,
duas a duas, com P ( X ,, = -n) = P(X 11 = 11 ) = 1/ 2. Prove que não vale a a. n = 1/ 2, para todo 11 > 1.
11
Lei Fraca dos Grandes Números, mas a seqüência satisfaz o Teorema Centr;li ·X
I li
11 1
358 Capítulo 6: Convergência de Variáveis Aleatórias
359
Distribuição Normal 361
..·=
E!
'i
2,3
2,4
2,5
0,4893
0,4918
0,4938
0,4896
0,4920
0,4940
0,4898
0,4922
0,4941
0,4901
0,4925
0,4943
0,4904
0,4927
0,4945
0,4906
0,4929
0,4946
0,4909
0,4931
0,4948
0,4911
0,4932
0,4949
0,4913
0,4934
0,4951
0,4916
0,4936
0,4952
2,3
2,4
2,5
CD 2,6 0,4953 0,4955 0,4956 0,4957 0,4959 0,4960 0,4961 0,4962 0,4963 0,4964 2,6
t
2,7 0,4965 0,4966 0,4967 0,4968 0,4969 0,4970 0,4971 0,4972 0,4973 0,4974 2,7
2. 2,8 0,4974 0,4975 0,4976 0,4977 0,4977 0,4978 0,4979 0,4979 0,4980 0,4981 2,8
2,9 0,4981 0,4982 0,4982 0,4983 0,4984 0,4984 0,4985 0,4985 0,4986 0,4986 2,9
3,0 0,4987 0,4987 0,4987 0,4988 0,4988 0,4989 0,4989 0,4989 0,4990 0,4990 3,0
3,1 0,4990 0,4991 0,4991 0,4991 0,4992 0,4992 0,4992 0,4992 0,4993 0,4993 3,1
3,2 0,4993 0,4993 0,4994 0,4994 0,4994 0,4994 0,4994 0,4995 0,4995 0,4995 3,2
1,3 0,4995 0,4995 0,4995 0,4996 0,4996 0,4996 0,4996 0,4996 0,4996 0,4997 3,3
3,4 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4997 0,4998 3,4
3,5 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 0,4998 3,5
3,6 0,4998 0,4998 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 3,6
3,7 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 3,7
3,8 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 0,4999 3,8
3,9 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 0,5000 3,9
.....
~
Distribuições Discretas Funçio de Probabilidade Média Variincia F. Caracterfstica
Bemoulli(p)
pE (0,1)
·pq
fl 1-•
1% ""0, l;q"" 1- p p pq q+pe •
Binomial(n1 p) (") .
., p·q.-. 1 :t=0,1, ... ,n np npq (q + pe")"
Poisson(À) -~,.~ .
>.>O
L;r-,z = 0,1, .... À À exp(À(e" - 1)]
Geométrica(p) 1
i de fncassos anteriores
pq 9 %=0,1, ... !l
p l 1-!.n
Geométrica(p)
jj de ensaios para -·
pq ·-· ,:c= 1,2, ... l
p ;
u
l!"qea
~
~·
Bin. Negativa(r 1 p) c•-1) ......... r1p (1-qe
,;'. y
~
r-l pq ,z=r1 r+1, ... r-!
i de ensaios para ... p
--- ::....
Apêndice A
tr'
Normol(f.l, u')
>0. -oo<iJ<oo ~
1 (~) f.l O'
. exp(i,..t- •;') ~
.(:;•
&ponllncial(>.) 1
~·
.\>0
>.e-"',"' >O 1
l ),'! ~,t<.\
GdlnD(0<,,8) ~
e.. _, ,:.:>0
~ <A>",t<ll
'
~
a ,8>0
Qui-quadrado( k)
1:•1,2, ...
m 4 :~:•-·'*P(--!z)/I'(lJ.% >o k 2k (~)l, I< i
~
À0%.-1 exp(-
WeibJdi{>.,O<)
>.,O<>O 0<%<00
>.:t")
l
!:lt+2•l'l-I"(t+•l'l
J..'i"'
>.~r(l + *> .....
~~-
~
. ......
1. Desigualdades
E(IXYI) $ y'E(X2)E(Y2);
com a igualdade valendo se, e só se, Y = aX, para alguma constante a.
, V >.>0.
(1) Êi = n(n2+1).
i=l
{ 2) f/ = n(n+l){2n+l).
6
i=1
g) Hõlder
Sejam X e Y variáveis aleatórias não-negativas e suponha que
{3)t/ = (n(nt))2·
~ + ! = 1, p > 1, q > 1. Então, ~ •4 2
n(n+1)(2n+l){3n +3n-l)
(4) L..' = 30 •
E{IXYI) :5 E~ (IXI")E1(IYI'). i=l
Observação: Elas podem ser provadas usando indução matemática.
n
-
(3) lim An = n U Ak.
00
n=lk=n
00
(5) (a~b) = Ê(~)(n~J (expandir(1+x)"(1+x)& = (1+x(\ (3) Série de Taylor para f (x) em tomo de x = a:
i=O
(10)
i=l
Ê(~)
i=l
2
= (~). r(t) = 1 00
n=l
Apêndice B
Respostas de Exercícios
Observações:
1. Nos exercícios de seção a resposta será, na maioria das vezes, acompanhada de
indicações da resolução.
2. Para os exercícios de fim de· capítulo serão apresentadas as respostas para os
exercícios ímpares.
3. Em geral, os exercícios de demonstração não terão suas respostas completas
apresentadas, mas apenas as principais etapas da resolução.
4. Pequenas diferenças, em algumas respostas, poderão refletir diferentes
aproximações e casas decimais utilizadas.
371
372 Apêndice 8: Respostas de Exercícios Respostas: Capítulo I 373
pertence a :F. Por (A:!J seu complementar, A;, pertence à :F. (/ Jj;l./J 1/3 (2- :!!J )I(;ah I
8. Seja :F1 a rT-álgebra gerada por [.. . .11). ;· $ y . .r , y E IR e seja :F2 a rT-álgebra gerada por x, ), (/ 1 :!, !J 1/3 (2- :Ja )lfla/J
.r E IR. Observe que - 11, .1/) ( - x. y} e, portanto ( -oc. y) E :F1• Logo :F~ C :F1. Por outro a < 1/:l, IJ 1/3.a+IJ 1;:1 1
lado. pru1indo 4e (- ::x:. .. r também obtemos [:r, y ), :r S y. :r, y E lR:. Note que (- x." a 1 1:3.!. 1/3, a + IJ 1/:l 1- ~
:l(ll+fll
( -oo, a·+~) e sua intersecção com ( -x. y), .11 2': .r, produz o intervalo desejado. Então :F1 :F;
c a prova está completa. 4. Condições: ( I J P( AD) O: (21 Se P(A n IJ ) O. P(A) 11 c P(D) > O precisamos t.:r
9. Seja :F a intersecção das rT-álgebras que contém C. Verifique que essa intersecção tamhém é c P(A ) = P(B ); {3) Se P(A) O é preciso P(/3 ) O: (4l Análoga a (3). se P(Dl = O é preciso
;ilgebra. Assim é a menor rT-álgebra que contém a coleção C. Suponha que exista outra menor. P(A ) O.
digamos Ç. Por definição de :F temos :F C Ç pois Ç contém a colcçao C. Por outro lado. sendo 9 5. Considere P(JJ) > O. temos P(ADJ /'!.;~; 1 ~' 11 P(Aj!J)P(D Isto é igual ao produto
a menor temos 9 c :F pois :F também contém C. Logo Ç :F e a unicidade está verificada.
P(A)P(n) se. c somente se. P(A jB) P(:l) . Sc P(ll) O. temos P(AjB) P(A) c também
10. a. 1- J,, b. 1 - l u c. l.,Iu d. 2- I 1 - l u c. '2 + I ..tlu- l A- l u 1. P(AB) O. As implicações ficam trivialmente verificadas.
374 Apêndice B: Respostas de Exercícios Respostas: Capítulo I 375
6. a. P(ABr) = P(A)- P(AB) = P(A)(1- P(B )) = P(A)P(B<) logo A e Br independentes. g = {A : A E ;:1 u F 2} não é o--álgebra. Segue um contra-exemplo. Tome F1 como a o--álgebra
b. Análogo a (a). gerada pelo intervalo [0, ~) e F 2 a gerada por [~, 1]. O conjunto [0, ~) U [~, 1] E F1 UF2.
c. Escreva P(A' B r) = P(Ar) - P(ArB) e proceda como em (a). entretanto, seu complementar não pertence.
7. a. O, 084. b. O, 48. 11. a. Se w E A U B então lAuB(w) = 1. Esse mesmo w estará em um dos três conjuntos disjuntos
8. Temos P(limsup A,.)= P( () UAk) =
r1=l k=n
lim P(
n-oo k=n
UAk) ~ lim P(An )
n-oo
~c. ABr,AcB ou AB. Se w E ABc então IA(w) = 1, IB(w) =O e lAnB(w) =O e as expressões do
lado direito dão todas o valor 1. De modo análogo para Ar B. Para w E AB temos IA(w) = 1,
oo oo 2n
I 8 (w) = 1 e lAnn(w) = 1 e, de novo, todas as expressões do lado direito são iguais a 1. Se
9. Temos para n ~ 1, P(A,.) =L: 1/k(k + 1) ~ E 1/2k2 ~ E 1/2k2 ~ n/8n 2 = 1/8n. Logo
w f/: A U B então lAun(w) = O. Assim, IA(w) =O, In(w) = O e lAnB(w) = O e as expressões do
k=n k=n km:n
00 00 00 00
EP(An) = oo. Por outro lado, observe que limsup An =
n=l
n U A~.= n An. Assim,
n=l k=fl n=l
lado direito dão todas zero.
b. Similar ao item (a).
P(limsup An) = P( n
=I
An) $ P( nA,.)= P(Am) =E 1/k(k + 1)
=I ~rn
----+o, para m -+ 00.
13. Só assume os valores O ou 1 para todo w E !1. É indicador do conjunto A~B.
15. Vamos verificar os Axiomas de Kolmogorov.
Entretanto, isto não contradiz o Lema de Borel-Cantelli pois os A,. não são independentes. (Axl): f(!1) = n(fl)/n = 1, pois são n ocorrências todas em !1.
10. Os eventos An são imediatamente precedidos e sucedidos por coroa. Assim P(A 1 ) = 1/16, (Ax2): f(A) = nA/n é não negativo para qualquer A E F.
P(An) = 1/32 para n ~ 2. Os eventos A1, A2, A3 , • • • não são independentes, no entanto (Ax3): Sendo A 1, A 2 , ••• E F, disjuntos, precisamos verificar que: f CQA;)1
= ~f(A;). O
Ai> A_a, An, · · · são. Como a soma das probabilidades desses eventos diverge, temos pelo Lema de
Borel-Cantelli que eles ocorrem infinitas vezes. Logo também temos P(A,. infinitas vezes)= 1. número de ocorrências satisfaz claramente essa propriedade pois advém da contagem de
ocorrências de cada conjunto disjunto.
Seção 1.4 17. Da verificação dos axiomas, obtém-se que estarão satisfeitos se, para i = 1, 2, · · ·, 6, O $ p; $ 1 e
P1 + P2 + · ·· + Jil; = 1.
1. a. Se w E A# w E A n !1 # w E A n (B U Br) # w E (A n B) U (A n B<). 19. (Axl): /(!1) =In! dx =I:~ dx = 1.
b. Se w E A U B # w E (A U B) n !1 # w E A U B n (A U Ar) (Ax2): f(A) é não negativa para qualquer A E F, pois a integral representa uma área.
(Ax3): Sendo A~, A 2 , ... E F, disjuntos, precisamos verificar que: f (.Q
A;) = ~f(A;). Isto
# w E (A U B nA) U (A U B nA<) # w E A U (Ar n B).
c. Se A C B então Vw E A => w E B. Supomos que v E Br =>v f/: B =>v f/: A, pois se t' 1
pertencesse a A implicaria v E B, o que seria contraditório com a suposição. Logo B r C A". segue da aditividade da integral de Riemman.
3. Provamos para seqüência não decrescentes, o outro caso é análogo. Seja An, n ~ 1, uma seqüência 21. (AI): !1 n B = B => P( !1 n B) = P(B) => !1 E F B·
não decrescente de conjuntos. Então para todo k ~ 1,
k=n
n Ak = An e UAk= UAk.
k'""n k=l
(A2): Se A E F 8 então P(A n B) é zero ou P(B). Como P(A' n B) = P(B)- P(A n B),
temos P(A' n B) = P(B) ou P(A' n B) = O; em qualquer caso, a conclusão é de que
Logo lim sup An = rl UAk = rl UAk = UA~. e lim in f An = U nA~. = 0 An. Então Ar E Fn.
r~=l k=n n=l k=l k=l n=l k=ri n=l
(A3): Sendo A 1, A 2 , ... E F 8 , precisamos verificar que OA; E f B· Observe que temos que
o limite existe e é igual a ÜA~.. i=l
k=l
avaliar a seguinte probabilidade: P[( LJA;) n B] = P[ L)(A; n B)]. Se todos os A;'s são tais que
i=l i=l
S. F= {!1, 0, [0, ~), [~, 1].
P(A; n B) =O, então P[ LJ(A; n B)] $ EP(A; n B) = O => lJA; E F B. Por outro lado, se
7. Vamos verificar as condições de o--álgebra. (AI) !1 E F pois f!< = 0, que é enumerável. (A2) Se i=l i=l 1=1
A E F então, ele ou Ar é enumerável. Em qualquer caso Ar estará em F pois ou o próprio A" é existir pelo menos um dos A;'s, digamos Aj. tal que P(Aj n B) = P(B) temos
enumerável ou seu complementar, que é A, é enumerável. (A3) Se temos A 1, A 2 , • • · todos em F Ai n B c 0<A n B) c B
i~l
=> P(Ai n B) s P[U(A; n B)] s P(B)
t=l
considere as duas situações possíveis. Todos os A; 's são enumeráveis e, nesse caso, a união infinita
deles também será e, portanto, está em F . Se existir pelo menos um dos conjuntos, digamos Am, => P[U(A; n B)] = P(B) => LJA; E F n.
i=l i=l
que não é enumerável, mas seu complementar A~, precisa ser. Então temos: ( OA,.Y =
n=l
23. 0.832.
25. a. nl = {vA,PA,VB,bB}· b. !12 = {v,p, b} . c. Em n], P(vA) = ... = P(bB) = 1/4. Em n2.
nA~ c A;n. Logo o complementar da união é enumerável e, portanto, também está em F. P(v) = 1/2 e P(p) = P(b) = 1/4. d. 5/6. e. 13/18.
fl=l
9. F = {A : A E F1 n F2} é uma o--álgebra. A verificação de (Ax I) e (Ax2) é simples. Para (Ax3 ): 27. a. 1/2. b. 1/4. c. 1/2.
sendo A~, A2, ... E F, temos A 1 , A 2 , ••• E F 1 e A 1, A 2 , ••• E F 2, por definição. Logo como são 29. a. 1/4. b. 1/4. c. 1/2. d. 1/2. e. 5/12. r. 1/18. g. 5/12.
o--álgebras temos, UA,. E F 1 e, também OA,. E F
n=l n=l
2 • Então a união estará em F = F1 n F2. 31. 1/2.
33. a. 1/3. b. 1/3.
376 Apc?ndice R: Respostas de Exercício.\ Respostas: Capítulo 2 377
1 (u 2
35. Observe a contradição entre independ.!ncia. P( Al3 ) O e P( A )P! 13) O. 113. a. - - . b. Se o casal se encontra. ficará junto na fila:
37. Note que. para qualquer A, P(A 0) O e J>(A )J>(0J O. 115.a. 11 1Ifi. b. 114.
39. 1/2. 117. a. Sendo P (A,I B, )- P(A,.) ::=:; P (A,}- -·-, passe ao limite. b. Propriedade do limite.
41. P(.4 U B) = P(A } + P (IJ)- P( A JJ) _ L Daí segue o re~ultado. 119. Seja H {dois P( JJ IB)
dos três testes independentes deram positivos}: (i /2:!.
43. Desenvolva as condicionais c use a independência.
P( D~I H R/23 e P(D:IIB) = 9/2:3.
45. a. Verdadeira. b. Não em geral. Verdadeira se houver indcpcndêm:ia condirional ou C JJ. li lhos obtenha P(A) - (2" I - I )/2" 1, P(B)
121. Para /I (11 + 1)/2" c P(A n B ) ll 2". Para
47. Use a Lei de Morgan e a Regra da Adição.
existir independência é preciso 11 - 3.
49. 3/5. 123. J'(ini<.:iantc vencer. sendo escolhido por moeda honesta) 33/ !il.
51. a. 1/3. b. 1/ 10. c. I / 4. 125. [p( l p)" 1 '[I (1 p )"], k = 1,2, .. , n .
53. a. 17/ 35. b. 101 /2RO.
127. a. 27 1{) I. b. XJ/5 12.
55• m;a (11,:: +·1-11 < P(AIB) :S min (o.l}.
57. Para os dois itens use a definição de probabilidade condicional c propriedades. Capítulo 2
59. 1/ 2.
61. 7/ 12. Scção2.2
63. P(AB) = o. 2 Oll O. :3.
65. Mostre que vale a independêm:ia doi'> a doi,, EntrcHtnto. J>(L' 1 E 1 E:d J. Precisamo' mostrar que D( w) { w: / .4 (w) ::=:; J'} está em :F para todo .1· R Inicialmente
P(E1 )P(E1 )P(E:l) 1/8. observe que A r :F pois é união de eventos. Se .r é negativo então B = 0 E :F. Se O .r I.
67. 27720/12 lfl. JJ A'. :F c para .r 1. JJ - A E :F. Logo /.~ é variável aleatória.
69. 1/2. 2. Se .r é negativo cntii11 { u•: X 2 ( w) .I:} é o conjunto vazio. portanto em :F. Se :r _O.
71. O jogador que inicia tem prohahilidade de 1·itória igu al a (111 11 (111 211) { u•:X~( 111 ) .r} {u•; ,J:i...o X (u•) .J:i}= {w:-.J:i X (w)}n { u•;X(w):SJ:f}. nms
73. 18/35. esses ültimos estão em :F pois X é variável aleatória e, portanto, n intersecção também c x~
75. (2"
IJ
)( 2"')
UI
/ (211+2"'
11+111
). também é variü1·el aleatória.
77. (n - 1.: + 1 )/(~ ) . Minimizamos fa1.cndo o denominador ticar maior: tome k (n ~ 1)/2 para'' 3. () (/ b. b 1 4.
ímpar e 1.: = 11 j2 para 11 par. 4. (/ ,.
1 5. (/
79 • a • 1 - ( -'-'
,_., - · -- -t- - · ) h•
~~~-+~~~+--~2~<~x~·~<~-~~~~~~--i-=T,.,-1--n~~~-~~~
(n+m I\
81. ww - 2 (~)111 + ww. 6.a.
0,2
83. a. 16/33. h. 17 j3:t ().(i.
85. Não são independentes .
.87. P(A, i.v. ) = O e P(B, i.v.) I.
89. I / 2.
91. Seja A; = {em i se inicia urna seqliência S}. Aplique Bord-C'antdli em . 11. A
93. P(lim in f A,) O. S<· o~ A, 's são indepcnde ntes então. 1 ia Bon:l-Cantclli. I ( lim 'up. \,
95.a. ( I -7i.r)". h. Usequc lin1 J
97.11Hi.
2u
99. ( )2" L: ( 2~·).
l· I •
I OI. O máximo para .r é l 2.
103. a. ~ ( [ ~] + '* .,]). sendo [o n maior inteiro contido. h. Para 11 I :W. 7 1:;, Passando a1•
limite, para 11 -+ 'X. , a solução apn:sentada em (a), obtemos também 7 11!).
105. o. 2ufi<i. O, !í n'" e n' O. Temos F(.r) = nd F'1(l:) + n "' F'" (.r) com
107. a. O, 33a:J. b. 0, :3071'. c. O. 91<7X.
109. a. Moeda equilibrada. P(Joiio ganhar) :2j:l. Com /'(car<J !1. I; P( João ganhar 10/ HJ.
;·E IR
F'"'(.r)
.r<3
11
I:! <2(.r-
.r < 3J· I .r> 3.5
3)
b. O, :11'1 c. C'akulc a~ probabilidades de vitcíria em cada caso. o j ogo não é cqui1alentL'.
111. a. 11 ;::: 12. b. :J/4.
378 Respostas: Capítulo 2 379
Apêndice B: Respostas de Exercícios
Seção 2.3 3. a. a+ x E lR para a e x reais. b. {w; -X(w)::; x} = {w; X(w) 2:: -x} = {w; X:(w) < -x_Y;
este último pertence a F. Escreva { w; X(w) < -x} como inters~cção infinita de co~Juntos do ~I~o
1. a. Para a Binomial use o Binômio de Newton e para a Geométrica a soma de PG infinita. Na {w; X(w) ::; -x- ~ }, n 2:: 1, que estão cada um em :F. c. Imedmto. d. Ver a soluçao do ExercicJO
verificação de soma 1 na Hipergeométrica, o seguinte resultado (ver Apêndice A) será usado : I na Seção 2.2.
r
5. Observe que o conjunto {w; [(w)]::; x} é igual a {w;X(w)::; [x]} unido com
E (';') (r~i) = ( m~n). Para Poisson, use a expansão em série de Taylor de eÁ.
{w; [x] ::; X(w) < [x] + 1}. Sendo X variável aleatória esses conjuntos estã~ em :F.
í=O
2. a. X"' Binomial (3, ~). b. , X o I 1 I 2 ~c. Temos um modelo "quase" 7. É variável aleatória pois todos os conjuntos estão em :F, conforme tabela abaixo:
. p(x) 5/9 . 15/36 . 1/36 . x x< O O< x< 1 1::;x<2 x2::2.
Geométrico (ver exercício 4 abaixo). Assim, p(x) = ~(~)x 1, x 2:: 1. d. A retirada da face sorteada {w;X(w)<x} 0 (ABYnC' AB!:::.C ABC
é equivalente a desprezá-la nos próximos sorteios ou, ainda, iniciar um jogo com 3 números pares e 9. Use que F(x ) = P(X < x). As respostas de (a), (b) e (c) são imediatas.
3 ímpares e fazer sorteios sem reposição. Assim, temos uma Hipergeométrica com parâmetros 11. a. F-x(x) = P( -X::; x) = P(X 2:: -x) = 1- P(X < -x) = 1- Fx( -x-).
(m = 3, n = 3, r= 3). b. F1x1(x) = P(IXI ::; x) = P( -x::; X ::; x) = Fx(x)- Fx(-x-). .
3. Y "'Binomial (n, 1- p) e conta o número de fracassos em n ensaios independentes. 13. Se X é simétrica ao redor de O temos, por definição P(X::; x) = P( -X::; x), 'ilx E lR. Assim,
4. Y não tem o valor zero. Corresponde a uma translação da Geométrica (aqui o sentido do "quase" Fx( -x) = P(X::; -x) = P( -X 2:: x) = 1 - P( -X< x) = 1- Fx(x-). Supomos agora que
mencionado acima). Temos p(x) = p(1- p)X- 1, x 2:: 1. Alguns autores definem o Modelo vale Fx( -x) = 1 - Fx(x-) e vamos provar a simetria de X. Temos para todo x E lR,
Geométrico dessa forma. Fx(-x) = 1- Fx( x-) = 1- P(X < x) = 1- P(-X > . -x) .= P(-X::; -x) = F-x(-x).
5.a. 32/243. b. 32/81. Portanto, X e -X têm a mesma distribuição e, assim, X é simétnca ao redor de O. _
6. a . (~)0, 23 0,8 17 b. Usando a amostra de 20 crianças, um critério seria a proximidade da proporção 15. Verifique facilmente as propriedades referentes aos limites. Para mostrar que é nao decrescente:
de imunizados da amostra com os 80% indicados pelo fabricante. seja x::; y, a:F(x) + (1 - a:)G(x) ::; a:F(y) + (_1- a:)G(y) pois F e G têm ess~ p~opriedade e os
7. a. 0,8647. b. 0,2857. coeficientes são não negativos. A continuidade à ilireita é demonstrada de modo smular. .
1
8. a. Não. b. Não. c. Sim. 17. Temos F(x) < ~ para x < ml> logo P(X 2:: mi) 2:: P(X > mr) 2:: 1- F(x) > 2· Assim,
9. a.0,8571. b. 0,1954. P(X 2:: mr) 2:: ~·Resta prova que P(X::; m 1 ) 2:: ~· Suponha por absurdo que.F(mr) < ~ e~tã~,
10. a. O, 8647. b. ~ 1. c. Binomial com n = 5 e p =O, 8647. pela continuidade à direita de F, existiria a> m 1 tal que F(a) < ~, o. que sena uma .contradiçao
pois m é o supremo desses números. Conclusão mi satisfaz as propnedades de mediana. Para a
Seção 2.4
segund~ parte, note que F(x) > ~ para x > m 2 e, assim, F(m2) 2:: ~· Se F(m2) > então, pela
4
continuidade à direita de F, existiria b < m 2 tal que F(b) > ~, o que seria uma contradição pois
1. a. a: = 2. b. a: = 3.
m 2 é o ínfimo desses números. Por outro lado, pela definição de ínfimo, F(m2- €) ::; ~e fazendo
2. a . O, 3114. b. O, 2835. c. i = 41, 59.
3. Imediato com o uso da função Gama. f lO vem P(X < m2) ::; ~· Portanto, P(X 2:: m2) 2:: ~·
f
4. a. Aplique integração por partes em 0"'xa-le-xdx para obter f( a:+ 1) = a:r(a:). b. Use 19. a. {w;X+(w)::; x} é igual a 0 se x <O e, para x >O, é igual a {w;X(w)::; x}. Ambos os
a: == n - 1 na expressão obtida em (a). Partindo do cálculo de r{1) obtenha o resultado desejado conjuntos estão em :F. Para x-a verificação é similar.
por indução. c. Considere a equação <I>( O) = 1/2 e faça a troca de variável t = x 2/2. O se x < O; { O se x < O;
b. Fx+(x) = { F(x) se x 2:: O. e Fx-(x) = 1 - F(-x-) se x 2:: O.
5. Verifique que é positiva e que a integral de a até infinito é 1. Use a função f( a:).
6. a. Imediato. b. Temos r(a)r(b) = Jtx•-le-xdxf0""yb-le-Ydy. Faça sucessivas substituições 21. a. c= 1 -a:. b. Temos c= (2 ± ,fi.)/2 e, assim, c~ O, 293 ou c~ 1, 707.
conforme indicado: (x, y) -+ (u2 , v2 ); (u, v) -+ (r sen li, r cos li); (r2, sen 2 ll)-+ (t, w). Não esqueça de 23. c= 2/3, P(A) = 1/4 e P(B) = 3/13.
incluir os Jacobianos em cada transformação. Conclua que f(a)r(b) = B(a, b) f(a + b). 25. a. X E JR X <0 0 ::; T < 3
7. O cálculo é simples, basta substituir o valor da densidade e da função de distribuição. F(x) O
8. a. O, 5- <I>( -2JJ/a). b. 1. c. <I>( -1) =O, 1587. d. 2[<1>(2)- <1>(1)] =O, 2718.
9. a. Com p = P(X 2:: O, 98), use Binomial (n = 3, p =O, 9772) para obter O, 9331. b. O, 998.!.
10. a. O, 0456. b. Nove dias sob controle e no décimo não: O, 0300. c. Geométrica com p = O, O.t5G.
27. a. Verifique as propriedades: lim F(x) -O, lim F(x) - 1; F é contínua à direita e basta checar
Seção 2.5
nos limites dos interv:~~oc de sua .rd~finição: F(O+) =!~F( O+ h) =O= F( O),
1. Considere o conjunto { w; X(w) ::; x }, 'ilx E R Se x < c ele será vazio. Se x 2:: c ele será í!. Logo F(l +) = limF(l +h)= l = F(l) e F(1+) = limF(1 +h)= 1 = F(1). F é não decrescente
X = c será variável aleatória em qualquer a-álgebra pois 0 e í! estão em todas elas. 2 h-O 2 8 2 11-0
pois as funções em cada intervalo de sua definição são claramente não decrescentes.
380 Apêndice B: Respostas de Exercícios Respostas: Capítulo 3 38/
b. 1
5. a. e } sao
E. . Também com um pouco de
c. - (t.
3I. ar---~.,--~~~~--~--~~~~r-~~~
xER
c. Cuidado com o valor de 1. Para outros valores de x·
8. 4;. 1/9. c ~c 11 se y 2;
33. a. ) 2a(a 2 - ''(a . b.O. F(.q se (I se -2 y -O;
35. a. X é do tipo mista. O gráfico é omitido. l 2,L {1 1. se y >O.
b. I X > 1) 1/h e P(X 4IX O) 1 -f . o. 9817 6. a. X ~Poi. Para y _ r. inteiro, .r) P(W y r), sendo
x)
r r-R r2: <
2 f'd(•·) +!f 0 (x) com
.i! f i .... X <.. ol > o J
e t- E [ 2 2 o > J J ~~~)I (y)
<x>
37. a. N-o~Ac~rtos é
39. a. P(X 3IX _
o
Btn -3,(, o
4/5 e P(X
L
+
1 _j F"'
(1- a)tl:-
3IX 1}
h.
u
1. c. Ele tem razão.
_t 'J I!. a.
u:(:1~ o o ~U-,<..qy:~ l
b. ) lF11 F'"(J)COm b. I c. /1o,2 ( ~ 110.2 (y)
r 111. o n ---=-~~- _ _ :• i _ j l y) é a expressão de uma Poisson(y). b. ·, y) ", ~O (inteiro) e
D_ _!___ J O, inteiro.
e [ n: i : x ~2T2'"'<.r. o o"-;";. T
F""( 1 - {-
-
A(_ t r t 2)" !!!.(
f 3
t :r 1) ~--1
L::.::: U
10. a. Temos F!J· y
se x < Oou y -: O;
se x O, O y "" 1;
4 I. Estude o quociente da aplicaçã• da função de probabilidade nos pontos x e ~ 1. Se \ n I IP se .> O. y > 1.
não for inteiro, o máximo ocorre em [ I)pl (maior inteiro contido). Se (n t 1)p for mte1ro h. X é a constante O, logo sua função de distribuição tem um salto no zero. c. } ~ U (0, 1) logo é
terno> dua.'> respostas: n 1 JP e {11 I) - L contínua. d. Não r \;c. y) induz probabilidade zero em todo~ os pontos de 2 rnao, tem
43. Do gráfico :r I' é o ponto de máximo. De modo analítico, resolva f' O e estude o sinal de discontinuidades.
.) F( :r .b.FaH- :r)-F(7).c.Se1 1
Seção 3.2
I
I
1. Precisamos mostrar que [min(X, Y) ::; t] e [max(X, Y) ::; t] pertencem a :F, 'v't E R Para o I Fw(Y) I - o I ~ I !f 1 I
mm1mo trabalhe com [min(X, Y) > t] = [X> t] n [Y > t]. Para máximo use que
[max(X, Y) ::; t] = [X::; t] n [Y::; t].
3. Note que Ai = {w: IA.( w) = 1}. Verifique o resultado para a intersecção dos A;·, e correspondente
intersecção dos [IA;s = 1]. Os outros casos seguem similarmente.
S. a. Fx.v(x,y) = P[X::; x,h(X)::; y)] = P(X::; x,X::; h- 1 (y)) = min{Fx(x) , Fx(h- 1 (y)}
= min{Fx(x) ,Fh(X)(y)}. b. Fx,v(x,y) = P[X::; x,h(X)::; y)J = P(X::; x,X ~ h 1 (y))
Temos dois casos a considerar. Se .r::; h - 1 (y) então a probabilidade é zero. Se x > h 1 (y) então a
probabilidade é igual a Fx(x)- Fx{[(h- 1 (y)] } = Fx(x)- (1- F11 (x)(y)). Daí segue o
41. a. fy,.l" (y1 , y2 ) = 2>. 2 e >.(y,+y,) Ico,11,j(yt)I(o,oc)(Y2)· b. h;-v,[Y, (w) =
2
>.e->.w Ico,oo)(w).
resultado.
7. Note que P(X::; x) = P(X::; x, Y::; y) + P(X::; x, Y > y). Desenvolvendo obtenha que
43. Conjunta: Ju,v(u, v)= ~e-l!!P 1(-u,u)(v)I(o,oo)(u ). As margi~ais são as seguintes:
Fx.v(x, y) ~ Fx(x) + h(y)- 1. Por outro lado, Fx,v(x, y) ::; Fx(x ) e também fu(u) = e-~ (1 _ e-~)l(o,oo)( u) e fv( v) = Se''Ic-oo,o)(v) + Se-;''I[o,oo)(v). Não são
Fu (x, y)::; Fv(y). Daí Fx.v(x, y)::; JFx(x)F)-(y). independentes.
9. , Y_ E lit I y < o Io < y < 1 11 < y ;: 21 y> 2 ,. 45. fw,,w,(w 1 ,w2 ) = 4wlw2l[o,1J(wl)I[o,1](w2)·
2 1 (11)
. h·(y) . O . <.
2
. 3c • . 1 . 47. Conjunta: Ju,v(u, y) = ~ o' e- l!!:t!ll
• (0,1) (u )I(o,oo) (Y) . M argma1s:
. . ~" ( )
JU u = (ii+I)2 (0,1)
e
li. a. I
7
I 1}32 I ;;;2 I 25~32 I 1;;2 1· Jy(y) = !e-~ (1- e-!)I(o.oo)(y). Não são independentes.
a
49.a. Jw,z(w,z)=FA(w,z),A= {(
w,z; ) w+· 1,- 1 <z-w
-1 <'"2"< 2 < 1}·
b. 2 < y < 5/2 5/2 < y < 3 3 < y < 7/2 2
O
Fl"(y) 1/32 3/16 31/32
b. fw(w) = 2
1w
I(-2,o)(w) + 4"'I(o,2)(w) i
1
13. X e X Y têm a mesma distribuição: -1 e 1 com probabilidade 1/2. A conjunta (X,XY) tem /z[w(z\w) = 2 c2 ~w/C-2-w,2+w)(z) + 2(2-w/H+w,2-wj(z).
probabilidade 1/4 em cada um dos pares possíveis. Então X e XY são independentes.
1S. p/2- p.
384 Apêndtce B. Respostas dt E. -rt n wu Respostas: Capítulo 4
Assim.
51. Sejam['
r E
(ú)
li< fu
.\
-
1 e\
, ou u , 2
Õ -
IX.
1
D~
1 b1._ /
conjunta
•< o f
~
I)
f , (1•
u
:ln.l
< ,
,)
"" 11
+-=•[in(u) _T",2)'
I
?
11 )/ '' vem a ma1~ 11
E(X;
I
l:)P(X k)
k-0
53. Via Jacobiano, obtemos a conjunta abaixo e daí segue a verificação dos itens (a), (b) e (c).
n_ll(" "')
fu (w.t) [ w' (1-wJ' 1
/ (u•'"( t' 1
r 11
/ 11 10] TTIIL I
1 j r· I J
(~ !-)- 1l
7!
55. a. Use o método do Jacobiano com separação de domínio. Como as variáveis são contí lUa~.
independente' e identicamente distribuídas. vem fx x. x (.r., r 2 , ,) f(xJ)f< 2 )/\ <om
2. A variável IA as;ume os valores 1 e O com probabilidade P(A) e 1 - P(A), respectivamente. Daí.
a b. i - 1. 2, 3 c todos o~ .r diferentes. Entretanto, a transformação com as estatística; de
ordem não é bijetora. Por exemplo, com valores hipotéticos, se (Y1 } 1' (O, 1. 2), a amoM a o resultado segue.
poderia ter sido (X 1 X2. X ) (0. 2,1) ou. ainda, (X1 , X 2 , X 3 ) = (2, O, 1) ou · · . Portanto. pma 3. O quadrado tem área 1 e a região A corresponde a um círculo de raio 1/3. Logo
obter bijeção, precisamos particionar o domínio em conjuntos s.,J.< definidos por: E(A) P(A) Tr/9.
4. A variável X é discreta com ___:X~+:-,.;2;;.-~0::,.--i-1-;;:;--i2iln_e E(X)
s,J.~ {'tt.,J;}. l~;tl .r 2· 1 r; • b, todos diferentes}. p(x) 1 2 1/8 2/8 1/8
Por exemplo. para 82 1 temos a transformação: Y1 d·?, .ll• J' • Existem :l! (i de 5. A variável X é mista. Temo> E( X; - J; ~ d:r 2 >( ~
conjuntos, cujos correspondentes Jacobianos são iguais a 1 ou Daí o resultado segue, t.tzcndt a 6. X~ Gama( a, f]), temos
soma da> aplicações da transformação em cada subconjunto da partição.
"
h. n! TI!
E(XJ r v
r(o)
d:r
1
ir(o) lo
r J
f(a 1)
'T(n \
(} ' J.
i- 1
I (y 1 .... y lo
,, ~ 7.Par~X ~ Weibu//( n,A) calculeE(X) ft;xo>..r" 1
c d:r À f(1 ~';).
57. a. P(1í t) P (X 1 t, X t ... • "\, f) TIP(.\ t'' ' > }' "
~Exp(L,>..
o >
i-1
(
'
f I 8. A variável X é mi,ta. Temos E( X ) t\x( --) dx 1. J;x( ) d.c + 2 ~
min(X 1•• ·,X,) X,' min(X . . . X Note que essas duas variáveis ,;,o 9. Passe ao limite para obter as funções de distribuição marginais. Fx( ) = lim F( a·. y) e
ii-k
independentes. U~e a expressão da diferença para achar a densidade de Fl ,:r lim F( :r, y). Obtemos X e Y identicamente distribuídas seguindo o modelo U, (O, 1;
X k .min (:Y· · · Xn ). Integre na região ; oc, O) para obter a probabilidade de intere,,e. c. E(Y) 1/2.
1/k Logo, E(X)
10. Sendo E([X) a esperança de X existe. Como X é simétrica e contínua temos:
P(},. TI (1-c ').
P(X o ·1 P(X < a ·E =>;(a f(o-a·,
59. /J .1/; y 1.
Assim,
61. 2c l1rn
Capítulo4
E( X 1 :r j(l') r/r l X f(:r) d:r +1o:x. .r f(:<') dr
IH
171 1) c 1l
11
1)
1 . ar~ f(y+a)dy ar"f(ll+a)dy
( k-1 ( I
~
Note que (, ) O se k O ou k , 1. Para facilitar a demonstração, com.ideramos o valor de /,
entre O e 7", desprezando os termo> que serão zerado!>. Enfatizamos que os valorc!> de k rs• .. n
aj" -0<.
f(z)d· al Q
J:ll•)dw
•• Seção4.3
Oe lXI, segue pela Proposição 4.4 que o valor esperado de ambas é finito. Logo E( X ) é finito por
definição.
'
t J .
vem que E( X) < oo .
• Logo, como são uniões de conjuntos disjuntos, P(Bj) = tP( A; n Bi ) e P(A;) = tP(
•-1 }=I
Seção 4.4
• BJ n A; ) . Conseqüentemente
f-
1. a. UseTeorema4.5. E(X ) = J~[1- Ct + fu + ~~~)]dx- 2 to(x+2)dx = 41/20.
• r
f;YJP(BJ ) =
r k k
~Yi~P(A;n BJ) e ~x;P(A;) = ~x;~P( BJnA; ).
k r b. Use Teorema 4.7. Por derivação obtemos f(x) = toi(-2,o)(x) + (to+ ~;5 )J(o,s)(x). Então
E(X 2 ) = f~2 x2to dx + f;x 2 ( to+ f;;;)
dx = 491/60 .
'• Note que, para todo i e j, temos o resultado:
x;P(A; n BJ ) = Yi P( A; n BJ)·
c. Via definição, seja W = X 2 • Temos Fw(w) = F( .jW} -F(- y'w) (F é contínua).
Derivando e fazendo o cálculo para E(W) obtemos o mesmo valor de (b). Atenção com os
valores para w, que precisam ser repartidos em intervalos w < O, O ~ w < 4, 4 ~ w < 25 e
I
w > 25.
•
I
Pois se A; n Bi = 0 o resultado é imediato. Se A;
em que w E A; n B j.
Então
n BJ # 0, precisamos ter a· = b·- X(w )
I J
2. Temo-;; f(x, y) = !(x + y)J(o,2)(x)I(o,t)(Y)· Então pelo Teorema 4.7:
E( X + Y- 2XY) = J; J;(x + y- 2xy)i(x + y) dxdy = 4/9 .
3. Seja X ; = 1 ou O se a i-ésima carta foi colocada no envelope correto ou não, respectivamente.
Assim, P(X; = 1) = ~,\fi= 1, 2, .. ·, n. Então E;( X;)= ~· Seja X o número de cartas que foram
• k r
:Ex;P(A;) = LYi P(Bj), colocadas nos envelopes corretos. Temos X = X 1 + X2 + · · · + Xn e, portanto, E( X) = 1.
• i=l j=l 4. a. X simétrica ao redor do zero pois f(x) =f( -x) (ver solução do Exercício 4.2.10) .
b. E( X)= O. c. E( ex)= f~00 tf' (!~~~~)2dx = oo (use integração por partes).
•
I
e o valor de E( X ) não depende da representação.
2. Con~deran~o as várias possibili~ades de sinal de X e Y em pontos de f!, temos x+ > y~ e
X .~ Y em f!. Pela Propos1ção 4.4, E(X+) 2:: E(Y+) e E(X-) ~ E(Y-). Se E(X+) = oc
5. Temos E[(X- d) 2J = E(X 2) - 2dE(X) + d 2, que é uma função quadrática de d. Via derivação
obtemos o ponto de mínimo em d =E( X).
(assim, E(X) = oo) ou se E(Y-) = oo (assim, E(Y) = -oo), o resultado é imediato. Se não for 6. Não são verdadeiras as afirmações. a Tome X ~ Uc(1,2) então para 1/X temos F(z) = 2 - (D.
í esse o caso, de novo pela Proposição 4.4, E(X+), E(Y+), E(X- ) e E(Y-) são todas finitas e 1< W < 2 e f(z) = z- 2 , ~ < z < 1. Logo E(t) = -ln ~ ,que é diferente de E( X)=~-
va1e b. E( ~) = E(X)E( ~) #E( X) E(\-) a menos que E( X) = O ou Y = oo em f!. Para um contra-
•
!I
exemplo tome X~ Uc(O, 2) e Y ~ Uc(1, 2) independentes. Obtemos E(~) = In 2, enquanto
11
e o resultado está verificado.
3. Mostremos para n = 2. Temos
E(X)
que E(Y) = ã·
*
2
•
il
De modo similar E( X+ Y )- < oo.
Use que (X + Yt + x- + y- = (X + Y)- + x+ + Y . De novo pela Proposição 4.4 vem Monótona,
i=1
lim
n-+oc
í=l
E[(X + YtJ - E[(X + Y)- = [E( X+)- E(Xn + [E(Y+)- E(Y- )];
E(f:x;) => f;E(X; )= E(Exi)·
-
iil e o resultado vale. O caso geral segue por indução.
4. Se E(X) < oc então E(X+) < oo .e E(X-) < oo. C orno lXI = x+ +X - , segue pela Propos1çao · -
t=l t=l t=l
• 4.4 que E( lXI) < 00. Para a outra Implicação, considere E( lXI) < oc. Como x+ ex- estão entre
•
'• 388 Apêndice B: Respostas de Exercícios Respostas: Capítulo 5 389
•
•
I
Seção4.5
1. 3.
Capítulo 5
Seção5.2.
•I 3. E( X ) = r(l;r).
5. 5/3.
7. a. Via densidade conjunta f(x, y), E( X + Y) = I~00 (x + y)f(x, y) dx dy = 1. Via marginais,
1. a. Do Capítulo 4, E(X) = (1- p)fp. Aplicando duas vezes a operação de troca entre derivação e
soma obtemos E(X2 ) = [(1- p)(2- p)]/r . Daí segue Var(X ) = (1 - p)/r.
b. A média foi obtida no Capítulo 4 e temos E(X) = z:;;r. É mais fácil calcular E(X(X -1)) e,
•
I
calcule E( X) e E(Y) e faça a soma delas. b. O.
9. Se E( lXI) = ao então E( IX - ai) = ao e o resultado vale trivialmente. Para E( lXI) < ao, separe
em casos a > m e a < m. Estude as posições relativas de X , a e m . Para a > m, temos que
então, obter a variância. Temos E(X(X -1)) =r( r -1)';:/~N· Assim,
(I X - ai - IX- mi) = m - a em [X $ m] e (IX - ai- IX- mi) 2: -(m - a) em [X > m]. Var( X)= E(X(X - 1)) + E( X) - E2(X ) = rm (n- m)(n- r).
n n(n -1)
• Conclua que E{( IX- ai-IX- ml)} 2: O, usando a definição de mediana. O caso a < m é
similar. Se a = m, o resultado é imediato.
c. Sendo X ~ Ganw(a:, /3), seu valor esperado é E(X) = a//3. (ver Exercício 7 na seção 4.2-
11. Use que [X > O] = U[X 2: ~]
n=l
e, portanto, pela monotonicidade desses conjuntos e pela Capítulo 4). Via integral vem E(X 2 ) = a(ptl J e, então, Var(X) = E(X 2 ) - &(X)= a/{32 •
continuidade da probabilidade P(X >O) = lim P(X 2: 1 ). Use Chebyshev para mostrar que d. Para Weibull: f(x) = >..o.x<>-le-.l.x", x > O. Via integral, com a conveniente troca de variáveis
(t)~r(1 + ~).
n-oo n
P( X 2: ~) = O. Logo, toda massa de probabilidade de X precisa estar em O.
x" = y e depois >..y = z obtenha E(X) = De modo similar,
13. E(X) = C oox dF(x) =I:- xdF(x ) $ bi:- dF(x) = b. De modo análogo, para f> O, E(X 2
) = (l}•r(1
1 +~ ). Então Var(X) = (l} ;;' [ r(1 + ~) - r 2 (1 + ~)] .
I:- xdF(x ) 2: (a- !)J:-
dF(x) = a - f. Como f pode ser arbitrariamente pequeno, o resultado 2. E(x k) = (k+l)(b-aJ
b'+1-a>+ 1 E -
. ntao Var
(X) = (b-a) 2 ·
12
segue. 3. E( X) = p,, Var( X) = 2/ >.. 2 •
15. Sendo X o número de jogadas até acabar e q = 1 - p , E(X ) = r+Ki~jl + l'f~~l.
2
4. Para o cálculo da covariância, obtemos E(X) = 15/8; E(Y) = 25/8 e E(XY) = 25/4. Assim,
17. E(X) = O,E(Y) = 1- 2p e E(XY) = O. Não são independentes, por exemplo: Cov(X, Y) = E(XY) - E(X)E(Y) = 25/64. Para o cálculo da correlação, precisamos obter
p(1, 1) =O f px(1)py(1) = p(1 - 2p). Var( X) e Var(Y). Temos Var( X)= 55/64; Var(Y) = 55/64 e, então, p(X, Y) = 5/11.
19 (Ào+.l.,)'->.,>.,
' -'o.l.,(.l.o+.l.,) • 5. Var[(X1 + X2)Xa] = 6.
21. E( X) = A/2, E(Y) = 3>../2 e E(XY ) = 2>.. 2 • 6. Aplique Cauchy-Schwarz com Y = 1 e X = Z~ para concluir o resultado.
23. E(W) = 1/4. 7. Para o cálculo da covariância, obtemos E( X)= 1/3; E(Y) = 2/3 e E(X Y ) = 1/4.Assim,
25. E(X) = O, E(Y) = 4/3 e E(XY) = O. Vale E(XY) = E(X)E(Y) mas X e Y não são Cov(X, Y) = E(XY)- E(X)E(Y) = 1/36. Para o cálculo da correlação, precisamos obter
independentes. Var( X) e Var(Y). Temos Var( X)= 1/18; Var(Y) = 1/18 e, então, p(X, Y) = 1/2. Não são
27. a. Via densidade conjunta, E[(X 2 + y2)] = J0 Jt(x 2 + y2 ) 2 dxdy = 2/3. Via marginais,
1
independentes.
obtenha E(X 2 ) = 1/ 6 e E(Y2 ) = 1/2 e faça a soma delas. b. E(X) = 1/3, E(Y) = 2/3 e 8. Desenvolva o quadrado, aplique propriedades da esperança e use que as médias são iguais.
E(XY) = 1/4. Assim, E(XY ) f E(X)E(Y). 9. Se p(X, Y) = Oentão a expressão da densidade da Normal Bivariada fatora em duas Normais
29.E[min(X, Y)] = 1/3eE[max(X, Y)] = 2/3. (univariadas). Por outro lado se X e Y são indepedntes então covariância é zero e
31. a. E(XY) = 5. b. a= -1/2. conseqüentemente p(X, Y) = O.
33. Sendo Xn a posição após a n-ésima etapa: E(Xn) = n [ap- b(1- p)]. 10. Seja A = [l X I $ t] e escreva X 2 = X 2 IA + X 2h . Portanto, X 2 $ t 2h+ M 2 IA'· Aplique
35. Se Yn = inf Xk então E(Y,, ) $E( inf Xk )· Use o Teorema da Convergência Monótona em 1~,. esperança dos dois lados da desigualdade. Lembre que O < t < 1 e M 2 2: 1 = E(X 2 ) logo
k >n k>n M 2 - t 2 > O. Daí segue o resultado.
r(n)r(!+l) - -
37
• rU+nl 11. Para O < s < t vale lXI' $ 1 + IXI 1• Aplique esperança dos dois lados.
39. a. E( X )= 19/20. b. E(Bônus) = 31b/20.
Seção5.3
1. Use Teorema 4.7 para escrever E(XIY = y) = I~00 (ax + b) dF(xiY = y). Aplique as
propriedades da integral para concluir.
2. Via propriedade básica da esperança condicional: E( X ) = 1 + p.
3. E(XIY = y) = CxxdF(xiY = y) = f:'ocxdF(x) pela independência. Logo E(XIY) = E( X).
4. E(XY ) = E[YE(XIY)] = E[Y(aY + b)] = aE(y2) + bE(Y).
Respostas: Capítulo 5 391
390 Apêndice B: Respostas de Exercfcios
'
5. Calcule as densidades condicionais. Então "
a. Poisson(E>..;). " p). c. BN(n, p).
b. B(En;,
E(XIY = y) = J:C,xf(xiY = y) dx = 3~2:!vl) => E(XjY) = a{2VJ1) · De modo similar
i=l i=l
10. Use a Proposição 5.12 em todos os itens.
.
E(YjX) = 3 &-+J:
1) ·
n n n
I 6. Contra exemplo. Tome X discreta qualquer e Y = 1 (constante com probabilidade 1). Elas são
a. Gama(Ea;,fJ). b. N(Ep.;, Eu!).
i=l â=l i=l
independentes e E(XjY) =E( X). Seja W = Y + 1. A variável W é constante igual a 2 e
'•
I
E(XjW) =E( X). Entretanto, E(XjY) + E(Xj1) =E( X)+ E( X)= 2E(X).
=
.
7. Da conjunta obtemos fy(y) 4ye-211Jco,oc)(Y) e fxJY(xjy) = Fco,11)(x). Segue que E(2XjY) = Y
e E(X 2 jY) = Y 2/3. Pelas propriedades, E(YjY = y) = y e então E[E(YjY)] = E(Y) = 1.
Seção5.5
j=l
J-l J-l • Jogo
use os limites -oo e O na integral e obtenha novamente que Mx(t) = oo. Pela definição de função
geradora de momentos, concluímos que Mx(t) só existe em t =O. a soma é N( ÊfL;, ÊuJ).
5. Mx-zv(t) = ..,;; . Então por derivação vem E( X- 2Y) = O e Var( X- 2Y) = ÍI· j=l j=l
1
6. U = X- Y "'N(O, 2), logo para W = W vem Mw(t) = .i-' efti''-li;-Jie -
2 f du = C ~21 ) ! , 10. Usando Exercício 4 da Seção 5.4 vem 1/Jx>(t) = ( 1 _~ 1 ) ' . A variável X 2 é Qui-quadrado com I
• !·
t < A vari~vel W é Qui-quadrado com I grau de liberdade.
00
grau de liberdade. Como forma alternativa, pode-se desenvolver a integral de modo similar ao que
foi feito no exercício mencionado. Nesse caso, assumimos, de modo informal, que i é uma
f 7. a. Mv.,v,(tJ, t2) = E(elít,H2t') = E(e(X,+X,Jt,+CX:+X1Jt, ) = E(eX•'•+X:t•) E(ex,t,+Xjt'). constante (real).
Como as variáveis X 1 e X 2 têm a mesma distribuição basta calcular um dos termos acima. Via
• • X X'
mtegral, obtemos E(e •1•+ •'') = ~. -oo
f•'f2(1-2l,)J
(l-2t,)!
< t 1 < oo, -oo < t 2 < 2I , e o resultado segue Seção5.6
'
I
elevando-se ao quadrado essa quantidade.
b. Temos Cov(Yh Y2) =O e, portanto, p(Y11 Y2 ) =O.
I
1. E(U) = O, E(V) = O e E(UV) =O. Logo Cov(U, V) = O e, portanto, Pu. v =O.
3. E(Sn) = (n- 1)#, Var(Sn) = (n- 1)#(1 - p)[1 + (n + l)p}.
8. Mxv(t) = (~) ' , -1 < t < 1. 5. Var(X) = E(X2 ) - ~(X)= O. Logo E[(X- a) ] =O. Mas (X- a) ~ O e pelo Exercício 11
2 2
~
• 9. Use a Proposição 5.12 em todos os itens. da seção 4.5, temos X = a.
•i
I
392 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 393
7. PX.Y = -0, 8.
9. Cov(X, Y) = I 6/225. As variáveis não são independentes.
1/iv(t) = I+~
63. a. </>u(t) = ( )-2n
. b. f/iu.v(t" t2) = (I +(~) 2) -n ( I +(~) 2) -n .
11. a. A independência implica que não são correlacionados. Para a outra implicação, impomos c. Cov(U.V) = O. Não são independentes.
covariância igual a zero e obtemos que P( X =I, Y =I)= pq. Daí segue que a conjunta (para
todos os valores) é fatorada pelo produto das marginais. Capítulo 6
13.1/ 36.
Seção 6.2
15. P(IX -~JI <f)~ <f)~ I- B(nn~~, 2 • Para n = 4, ll' e X tem o mesmo
I -.;;;, e P(IW -~JI
limite inferior. Para qualquer outro valor n > 2 e n -f 4, W terá limite mais baixo e, portanto, é 1. a. Mostre que, para f> O, P(IYnl >f)= (1- f)" e daí conclua.
pior estimador. b. Para f > O, obtenha P(IWn- l i ~f)= I n e passe ao limite.
17· a. E(xly) -- 4+9Y
6(1+31") •
b V. (XIY) -
• ar -
(1+2Y)
2(1+3Y) -
( 4+9Y ) 2
6(1+3Y) •
c. Vx E .IR, P(U,. ~ x) = P(Yn ~ xfn) = 1 - (I - ;J" ..
-::::;-&,I - e-x, que é a função de
distribuição da exponencial de parâmetro 1.
2
19• a • E(XIY -- y) -- (l-y)( +y) ·
3(l+y) b • E(XYIY -- y) -- Y l-u
2
< +u> · c •
3 l+y) Var(XIY -- l)
2 -- 89/I296 . d.Comoem(c), P(Vn ~ x) = P(n(I- Wn) ~ x) = 1 -P(Wn > I -;)= 1 - (I-;)".
21. a. E(XIY) = ~· b. Var(XIY) = fs· 2. Defina, para qualquer f > O, An = { w : IXn I < f}.
Por hipótese P( lim An) = 1, logo P ( lim sup A.. ) = 1 e também P( lim sup .4:;) = O. Os An's
23. E(XIY) = I - ,v_.:.-_'; e E(YIX ) = X + 1. n~oo
25. Px.z = O. As variáveis X e Z não são independentes. são independentes e pela 2a. parte do Lema de Borei-Cantelli (a negativa da tese implica a negativa
00 00
27. ad3. da hipótese), temos EP(A:;) = EP(IXnl ~f)< oo.
29. Temos XIS~ B(s,"'~",). Então E(XIS) = x~~l, e Var(XI S) = (:,~~~>,. n=l n=l
I
394 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 395
9. Temos Para a implicação reversa, suponha que Xn; !. X; , para cada j = 1, 2, ... k. Assim,
IXm - Xnl = IXm- X - (Xn +X) I k
2 2 2
~ IXm -XI +IXn +XI P(II Xn- XI I?: f)= P(IIX..- Xll ?: f 2 ) = P (L)X,;- X;) ?: f ) =
~ 2 max{IXm- XI, IXn- XI}. :i=I
k k
Então = P( i}.)Xn;- X;) 1?: 2 2
E ) ~ P( EI(Xn;- X;)2 1?: t:2 ) ~
j=l J=l
IXm - x . r ~ 2rmax {IXm- xr, IXn- xn ~ 2r {IXm- X Ir+ IXn- xn
Aplicando esperança vem E(IXm- Xni') ~ 2'. {E(IXm- xn + E(IXn- X Ir)}. ~ tP[(Xn;-X;) 2
?: f]= tP(IX,;-X;I?: ~);
Passando ao limite para m e n indo ao infinito segue, por hipótese, que lim E(I Xm - Xnlr) = O.
m,n~oo e, este último termo vai a zero, para n -+ oo, por hipótese.
00 00
10. a. Seja An ={UI: IXn- XI?: t,}. Como }:P(An) ~ L:bn < oo, segue pelo Lema de Borel- qc
b. Suponha que Xn-+ X. Temos IIXn -XII =
( k
~(Xn;- X;) 2
)1/2 -+O, num conjunto de
n=l n=l J=l
Cantelli que P(An infinitas vezes) = O. Assim, se UI f/. A,. então IXn(UI)- X(UI)I < t'n para probabilidade 1. Isto implica que, em cada coordenada, Xn; - X;-+ O com probabilidade 1.
todo n > n(UI). Isto implica que Xn(w) -+ X(w) pois lim t'n = O. Mas o conjunto dessa
n-:x: Logo Xn;!;X;, para cada j = 1, 2, ... k.
convergência tem probabilidade 1 e então Xn !; X . Suponha agora que Xn; ~ X; , para cada j = 1, 2, ... k. Considere o conjunto intersecção definido
b. Definimos a sub-seqüência de X,. tomando os índices {nl·: k?: 1}, recursivamente, da k
seguinte forma: nk+! é qualquer n > nk tal que P(IXk+!- XI?: 1/k) ~ 1/2k. Por hipótese por A=n{UI :Xn; -+ Xj}· Temos P(A)=1 e como A C{UI:IIXn - XII-+ 0}, segue que
j=l
lim P(IXn - XI ?: t:) =O e, portanto, essa seqüência pode ser construída. Segue da parte (a)
n-oo
que Xn, ~X.
11. Este exercício é a versão para a convergência em probabilidade do critério de Cauchy para Seção 6.3
convergência de séries numéricas.
. p n
Suponha inicialmente que Xn !. X. Considere X, Y e Z variáveis quaisquer, temos: 1. Precisamos verificar que ~-E(~) -+ 0. Temos Var(Sn) = L: Var(Xk ) ~ nc, para alguma
UI E {IX- Yl?: t:} => w E {IX- z- (Y- Z)l?: t:} =>UI E {IX- Zl + IY- Zl?: f}. k=!
Istoimplicaque Ui estánaunião {IX- Zl?: ~f} U {IY- Zl?: ~€}.Assim, para € >O, constante c finita. Pela Desigualdade Clássica de Chebyshev vem, para f > O,
P(IXm- X. I ?: f) ~ P(IXm -XI ?: ~t:) + P(IX,.- XI ?: ~t:)m,n::.+ ocO.
Suponha agora que P(IXm - Xn I ?: t:) m,n-:::t oc O. Para todo inteiro positivo k, escolha inteiros
P(ISn- E(Sn)l ?: f)= P(IS.- E(S.)j?: m)
n
~ Va~(~n) ~
f n
+
E n
-+0.
positivos mk, com mk+ 1 > mk ..'r/k, tais que
oc V. r(f) n
2. Temos que E(Xn) = 1/n e Var(X,) = 1-1/n2 • Assim, L: • n " =L:(~-~)< oo. Logo, a
P(IXm - Xnl ?: 2-k) < 2-k, para m, n?: mk. n=l k=l
oc Primeira Lei Forte de Kolmogorov está satisfeita.
Para inteiros nk?: mk, k ?: 1, temos X:P(IXn,+,- Xn,l?: 2-k) < oo. Logo por Borel-Cantelli. s s p 2'
3. Vamos verificar que ::-E(':)-+0. Temos E(X;)= O e Var(Xj)=a: 1 • Ass1m, como a
o
k=!
com Ak = {!Xnw- Xn,l?: 2-k}, temos limsup P(A.) = O. Então Xn, ~X. para alguma covariância entre X; e X;. para i-# j é zero, temos Var(Sn) = f:var(X;) = a't:;"l. Pela
j=!
variável X e, conseqüentemente, X., !. X . Assim, concluímos, Desigualdade Clássica de Chebyshev vem, para f > O,
.P(IX.- XI> €) ~ P(IXn- x., l ?: 2) + P(IX.,- XI?: 2)n,k::+oc o.
{ {
ISn- E(Sn)l _ Var(Sn) _ a 2 (1- a 2")
P( ?: f) - P(IS" - E(Sn)l ?: m) ~ 2 2 - 2 2( 2) -+ 0.
n t:n fn 1 -o:
12. a. Suponha que X" !.x. Para todo real f> Oe j = 1, 2, ... k,
Logo vale a Lei Fraca.
4. Se a constante c existisse ela seria a média pela Lei Fraca de Khintchine. Como não existe a média
da Cauchy, a convergência não ocorre para nenhum c.
Então, Xn;!.Xi , para cada j = 1, 2, ... k.
I
c
396 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 397
•
S. Temos E(Xn) = 2-n/2 e Var(X.. ) = 2-". Com S .. = 'ÊX; temos Var( ~) = ~(1- 2-"). Pela
Seção 6.4
i=l
Desigualdade Clássica de Chebyshev vem: P(l~ - E( ~ )I 2': f) ::; va~!Jf) ..~O. Portanto vale a 100
Lei Fraca. 1. Temos EX; "'Binomial (n = 100; p = O, 4) e, portanto, com média 40 e variância 24. Pelo
j=l
6. Temos E( X;) = j e Var(Xj) = 2j. Com Sn = 'ÊX; temos Var(~) = ~ n(~+ll. Teorema Central do Limite vem
j=l
P(l~- E( ~ )12': f)::; va~!J:-J "J~i;P ..~O.
= 50) ~ P( '~ ::; Z ::; ·~ ) = O, 01;
Pela Desigualdade Clássica de Chebyshev: = 49 40 50 40
P(f:X;
Portanto, vale a Lei Fraca. j=l 24 24
n S I n
7. Temos E( X .. ) = Àn e Var(Xn) = Àn. Com Sn = EX; temos Var(~ ) = RI E .X;.
j=l j=l em que Z é a Normal Padrão.
Pela Desigualdade Clássica de Chebyshev vem, para f > O, 2. A probabilidade de retirar um ás é dada por 1/13. Seja X o número de azes obtidos em 1000
retiradas, independentes e com reposição. Temos que X é Binomial com n = 1000 e p = 1/13.
P(i§.. -E(§..)i >f)< Var!,fl ==I ~À-- O·
n n - - t tn L...! Jn-oo ' Sua média é 1 ~ e a variância ~~~~~J. Pelo Teorema Central do Limite vem:
j=l
n
1000 90 5 - 1000
pois, por hipótese ~E .X; ..~ O. Logo, vale a Lei Fraca. 64 5 -
j=l P(65
- < 90) ~ P( ' ~--
< X- 13
<Z < ' /lii.iJ13 ) =O 8755·
''
8. Vamos verificar que ~ -E(~) !. O. Temos Var(X;) = u 2 < oo e, como a covariância entre X; e V169 V 169
n
X; é zero, para i =I j, temos Var(Sn) = EVar(X;) = nu2 • Pela Desigualdade Clássica de em que Z é a Normal Padrão.
i=! 3. Tome X;. j 2': 1, variáveis i.i.d. Poisson de parâmetro 1. A variável Sn = X1 + X2 + ... + Xn tem
Chebyshev vem, para f > O, distribuição Poisson de parâmetro n, com média e variância iguais a n. Pelo Teorema Central do
. . vem S,-E S,) d N(O 1) A .
P( ISn- E( S.. ) i 2': f)= P(IS,.- E(S,.)i 2': m)::; Va~(~.. ) = ~2 -+0.
L urute Var(S,)-+ , • ss1m,
n fn fn
1
11. Temos log(f1 ~k) l/n = ~ ílogX~:. Note que P(-logX~:::; x) = 1- e-z e, portanto,
Teorema Central do Limite de Liapunov.
{
S. Obtenha E(X.. ) = O, E( X~) = 1. defina Yn = Xnl{lx.l=l}·
-log X~: ~ Exp (1 ). V amos aplicar a Lei Forte de Kolmogorov na seqüência ( -log X~: )k?:l para
concluir que ( =;!- 'ÊiogX~:- 1) ~0. Daí obtemos c= e- 1. --h'Ê(Xn- Y.. ) !. O(via Borel-Cantelli). Aplique Slustky.
k=l V"j=l
12. Os X .. 's são variáveis i.i.d. com média finita igual a J.t. Pela Lei Forte de Kolmogorov, temos
6. Temos -j;;'ÊX;.!!. N(O, 1) (TCL para variáveis i.i.d.). Mostre que -}.;f:Y;!. Oe aplique Slustky
X- J.t~O. Considere, agora, a seqüência (Xn- J.t) 2• Ela é de variáveis i.i.d. com média finita H ~
igual a u 2 • Pela Lei Forte de Kolmogorov vale (X,.- J.t) 2 ~u 2 • O item (a) segue pois a para concluir Tn .!!.N(O, 1). Mostre que não vale a condição de Lindeberg com f= 1/2.
convergência quase certa vale em cada coordenada do vetor. Para (b), aplicamos ao vetor de (a) a
função g(x, y) = x - y2, que é contínua.
398 Apêndice B: Respostas de Exercícios Respostas: Capítulo 6 399
7. Pelo TCL: -jn L~ (X~r -~J.d 2 - nu2] !!. N(O, 1). Rearranje o limite a ser calculado de modo que podemos considerar uma sub-seqüência Xn, que converge quase certamente para X. Assim,
E[(IX,.- Xl) 2] = E[liminf(IX. - Xn,l) 2]::; Iiminf E[(IX,.- X,.,I) 2]-+0, para n -+ oo.
fique P{IZI::; 1) com Z ~ N(O, 1). k-+OO k...-x.
8. a. E(IXIr) :5 max(lalr, lbl'). Seja An = (Xn- X 2': f] e aplique esperança em 19. Usando função característica vem: if>x.+a,.(t) = eit(X.+a..) = eitX.eito.,.n~eitZeita = e-í'f2eit•,
IXn -X Ir = IX,. -XI' lA. + IXn - Xlr [Ai· que corresponde à função característica da N(a, 1).
b. Para n 2': 1, como IXn - JLnl ::; b- a, temos
-2
21. Se Var(Xj) ::; M, temos E( X ) = Var( X) = ~ ~Var(Xj) ::;
- n
,FI
* n~ O, lembrando que as
E(IX. -~J.nl ) = E(IXn -~J..I(X,. -~J.n) ) ::; (b- a)u~.
3 2
variáveis Xj's são não correlacionadas.
Então, 23. Temos
O :5 E(~Ê(X;- E(X;)J2) = ~tE{(X; - E(X;)j2} + *EÊcov(X;,Xi) :5 ~ .-::;-t,O.
•=1 •=1 i=lf=l
iyfj
8
25. a. Temos E(Xn) = À e Var(Xn) =À. Segue que ·~.~~:~ = );f;,!!. N(O, 1), pelo Teorema
logo a condição de Liapunov está satisfeita com {j = 1. Central do Limite para variáveis i.i.d.
b. A seqüência X~ é de variáveis i.i.d. com E( X~)= À + À2 • Logo pela Lei Forte de
Seção6.5 ÊX'f-E(ÊX'fl p n p
Kolmogorov vem ;~• n ·~• -+O, portanto ~Xl-+ À + À2 •
1. É necessário p,.-+ 0 quando n-+ DO. i= I
3. Lembre que E(IA.) = P(A,.). Temos, para f> O, P(IIA.I2': t:)::; P<:·> .... o, para P(An)-+0. Por 27. Tome a função contínua g(x, y) = xy. Não vale para convergência em distribuição. Por exemplo:
outro lado, com f > O, {liA. I 2': f} é equivalente à ocorrência de A,.. Assim, tomando se Xn !!. X, X simétrica temos - Xn !!. X mas não é verdade que -X~ !!. X 2 •
probabilidade e passando ao limite a implicação segue. 29. a. Usando função característica vem:
5. Via funções características temos: E(eit(aX.+b}) = eitbif>x. (at) -+ eitbl/>x(at) = E(eit(aX+bl). O f1
11
A. ( ) - iiX;/lol _ rr" (.1. 1-e"/toi-l ) _ 1 eu 1-e;'.
'I'Yn t - . e - . 10 1-eU/tol - lll"(J-eMII') n~ it '
resultado segue pelo Teorema da Continuidade. ;=! ;=!
7. E((X -11-) 2] = ~ ,.-::t, o. que é a função característica da Uc(O, 1).
f:x· b. Temos Yn ::; Yn+! ::; 1, para todo n. Assim lim Y,. existe para todo w. Logo Yn converge
9. Usando função característica vem: E(eit~)=[4>(~)]"= (1+~+o(n- 1 ))-+ei~'~;que é a
n~oo
quase certamente para esse limite e, conseqüentemente também converge em distribuição. Como
função característica correspondente à função constante JL.Assim, X converge em distribuição pela parte (a) o limite em distribuição é a Y"' Uc(O, 1), o mesmo precisa ocorrer com o limte
para 11- e, nesse caso, isto implica convergência em probabilidade. quase certo.
ll.Parat: > O, P(IYn l >f)= P(IX1I >f, IX2I > f, ... IXnl > t:) = (1- f)". A convergência segue
tomando o limite para n indo ao infinito.
31. Sendo S. = EX; temos pela Desigualdade de Markov, para f> O, P(ISnl2': nf)::; ~·
13. a. P(Y.. >O)= P[C~1 X~rr'" >o)= flt(X~r = 1) = p";
i=l
Usando que X; tem média zero vem E(S~) = nE(Xt) + (;)E(X~ G) xn. em que os índices
são arbitrários pois as variáveis são i.i.d. Logo existe c tal que
35. Use que a função característica da Cauchy Padrão é e-111. Logo t/J _~_. (t) = e-ltlfn. Então c. Não. Caso houvesse essa convergência, também teríamos W,. convergindo em distribuição
;;yt\X; para a constante zero, o que é contraditório com (b).
49. a. Temos E(XmY,.) - E(XY) = E[(Xm - X)Y] + E(Xm(Y,. - Y)J. Da Desigualdade de
lim t/J i
n-+oo
•
.,~xJ
(t) = f/Jx(t) = { ~·, set =O;
set #O.
Schwartz vem IE((Xm- X)Y]I 2 ::; E(y2)E((Xm- X) 2 j ... para m ... oo. Também vale o,
IE!Xm(Y,.- Y)]i2 ::; E(X!)E((Y,.- Y)2] ... o, param, n ... oo, se E{X!,) é limitada. Mas esse é
caso pois E( X!) ::; 2 E[{Xm - X) 2] + 2 E(X2) e lim E[(X,.- X) 2] =O. Concluímos que
m-oo
Como t/Jx não é contínua em O, logo ;;\(X1 + X 2 + ... +X,.) não converge em distribuição.
lim E(XmYn) = E(XY).
37. Desde que X,. ~X segue que IX,.- XI~O e, portanto (IX,.- Xl) 2 ~0. Se IX,. I::; Y para todo m,n-+oo
n então lXI::; Y. Assim (IX,.- Xl) 2 ::; 4y2, Pelo Teorema da Convergencia Dominada o b. Em (a) tome Y,. = X,..
resultado segue. c. Em (a) tome Y,. = 1.
39. Através do Teorema Central do Limite, aproxime para a Normal obtendo O, 8788. 51. Para 1 ::; s <r, temos pela Desigualdade de Uapunov: E(IX11 - Xj•) 11• ::; E(IX,. - Xl•) 11•. Daí
41. Sendo X,."' Gama (n, fJ), n ~ 1, com o uso de função característica vem: o resultado segue. A recíproca não vale. Como exemplo, sejam X,., n ;::: 1, uma seqüência de
variáveis independentes tais que P(X,. = n) = n-(r+•)/2 e P(X,. =O)= 1- n-<•+•l/2 •
Á-
'I' 1
(t) = E(eitX.fn) = E(e'~x.) = (~)" = (~)" _ eitf{J.
.X. {1-itfn 1-= n..., oo ' Verifique que E( IX~ I) = n<•-r)/2,.-::t,O mas E(IX;I) = n<•-•l/2,.-::t,oo.
que corresponde à variável constante igual a 1/fJ. Po~to, da convergência em distribuição para 53. As seqüências {X1: k;::: 1} e {(X,. -1) 2 : k ~ 1} são formadas por variáveis i.i.d. Temos
1/fJ temos ~X,. !.11fJ. · E(X:) = 1 e E[(Xt- 1)2) = 2 e podemos aplicar a Lei Forte de Kolmogorov em cada termo e
43. Note que g(x) = x/(1 + x) é uma função crescente em (0, oo). Para f >O vem depois tomar o quociente.
jX,.I f 1 +f ( IX.. I )
P(IX.. I>f)=P(1+jX,.I > 1 +f)::;-f-E 1+1Xnl I
55. a. Aplique o Teorema Central do Limite para obter -+
v•n
Êx,.2.N(O, 1). Pela Lei Forte de
lc=l
n qc • n qcrn
Kolmogorov temos ~ Ex: ... 2 e, portanto, -!.; ~ E X1 ... v 2 • Como esta última convergência
V2 Al=l
pela Desigualdade de Markov. Se a esperança tende a zero então X,. !o. k=l
também vale em probabilidade, aplicamos o Teorema de Slutsky para concluir sobre a
Supomos agora que X,. !. O. Então, para f > O,
convergência em distribuição para N(O, 1/2).
Como f é arbitrário, e pode ser feito tão pequeno quanto desejamos, o limite da esperança é O. 57. Verifique que E(Y~o) = O e Var(Y,.) = 1/2, para qualquer k. Temos Ê V1Yt) < oo, pois
k=l
45. Note que R R qc
E b < oo. Pela la. Lei de Kolmogorov ~EYt ... o.
1~x A:~l lc=l
59. Os X,. são i.i.d. e pela Lei Forte de Kolmogorov X ~1-'· Logo pela continuidade da função
..
nL.J J
j=l
2
y'n(Xf +X~+ ... +~) quadrática, temos g(X) = X !;"'2 • Considere, agora, {X:: k;::: 1}. Essa seqüência também é
de variáveis i.i.d. e, de novo pela Lei Forte de Kolmogorov, temos ~EX: ~o-2
.. +·p,2• Portanto,
k=l
pela Lei Forte de Kolmogorov, o numerador converge quase certamente para E(Xj) = 1, "
~E(X,- X)2 =~EX:-
- "
x-2 ...qc 112 + ,_,2 _,_,2 = 112.
enquanto o denominador converge quase certamente para ../2 ,
pois E(X'j) = 2. O quociente vai k=l k=l
para 1/ ../2, quase certamente, por ser intersecção de conjuntos de probabilidade 1.
R
Logo ~E (X~o - X) 2
- ) ·qc
... 1. Como seno é função contínua o resultado segue.
47. A função característica da Cauchy Padrão é e-ltl. k=l
a. c/Jy, (t) = e-ltlnl. Então 61. Pela Lei Forte de Kolmogorov temos ~Ê Yt !; p, e, portanto, também em probabilidade. Aplique
k=l
lim t/JY. (t) = { 1, se t =O; o Teorema Central do Limite para obter -L Êx,.2.N(O, 1). O resultado segue através do
......ao • O, se t # O, "v" k=l
Teorema de Slutsky após conveniente rearranjo dos termos.
que não é contínua em O, logo -j;;(X1 + X 2 + ... +X,.) não converge em distribuição.
b. t/Jw. {t) = e-111, que é a função característica da Cauchy. Pelo Teorema da Continuidade W,.
converge em distribuição para a Cauchy.
402 Apêndice B: Respostas de Exerc{cios
63. Precisamos verificar que ~-E(~ ).!'.O. Sendo Var(X,.) 5 c< oo, temos pela Desigualdade '
Clássica de Olebyshev que, para r; > O,
iJ:-U
Cov{X;,X;) +E
iJ-1
"
Cov(X~>X;) }·
li-JI~m li-J1<m Ash [72] Robert B. Ash, Real Analysis and Probability,
Academic Press, New York, 1972.
Note que Cov(X;, X;) 5 jp(X;, X;)IJVar{X;)Vaí"(X;), assim
Bhat [85] Ramdas Bhat, Modem Probability Theory- An
1 n 1
2VarCLX;) 5 2(2nmc+n2 6c),.-::::-tc,6c-+0; Introductory Text Book, John Wiley &
n i=l n Sons,New Delhi,1985.
desde que 6 > O~ arbitrário. Peter 1: Bickel e Kjell A. Doksun, Mathematical
Bickel e Doksun [01]
65. Seja Umn = {(X,.- n) - (Ym - m)JI Jm + n. Temos Statistics- Basic ldeas and Selested Topics vol.
log~u-(t) = n(eii/Jiii+ft- 1) + m(e•t/Jiii+ft- 1) + 'j;;.~: .,.,..,..-::t ""--!t2,; /, 3a. edição, Prentice Hall, Upper Saddle River,
d
Logo Um,.-+N(O, 1), param e n-+ oo. New Jersey, 2001.
Observe, agora, que X,. + Ym ~ Poisson de parâmetro m + n. Aplicando a Lei dos Grandes
Números verifique que X;,~~" ..!'. 1 e também Vmn = J
X;.!• ..!'. 1. Aplicando Slutsky em Billingsley [91] Patrick Billingsley, Probability and Measure, 2a.
edição, Jonh Wiley & Sons, Singapure, 1991.
tl.,.,./Vmn o resultado segue.
Bois [61] G. Petit Bois, Table of lndefinite Integrais,
Dover Publications Inc., New York, 1961.
Breiman [68] Leo Breiman, Probability, Addison Wesley,
Reading, 1968.
Brémaud [88] Pierre Brémaud, An Introduction to
Probabilistic Modeling, Springer-Verlag, New
York, 1988.
Cacoullos [89] Teophilos Cacoullos, Exercises in Probability,
Springer-Verlag, New York, 1989.
Chae [80] Soo Bong Chae, Lebesgue Integration,
Mareei Dekker, New York, 1980.
Chow e Teicher [88] Yuan Shih Chow e Henry Teicher, Probability
Theory- lndependence, Interchangeability,
403
404 Bibliografia Bibliografia 405
Martingales, 2a. edição, Springer-Verlag, New James [81] Barry R. James, Probabilidade: um curso em
York, 1988. nível intermediário, CNPq-IMPA Projeto
Chung [74] Kai Lai Chung, A course in Probability Theory, Euclides, Rio de Janeiro, 1981.
2a. edição, Acadernic Press, New York, 1974. Leite e Singer [90] José Galvão Leite e Julio da Motta Singer,
Clarke [75] L. E. Clarke, Random Variables, Longman Inc., Métodos Assintóticos em Estatística-
New York, 1975. Fundamentos e Aplicações, 9o. Simpósio
Brasileiro de Probabilidade e Estatística, ABE-
Dudewicz e Mishra [88] Edward J. Dudewicz e Satya N. Mishra, Modem Associação Brasileira de Estatística, São Paulo,
Mathematical Statistics, John Wiley & Sons, 1990.
New York, 1988.
Magalhães e Lima [05] Marcos N. Magalhães e Antônio Carlos P. de
( DeGroot e Schervich [02] Morris DeGroot e Mark J. Schervich, Probability Lima, Noções de Probabilidade e Estatística,
(I and Statistics, Addison Wesley, Boston, 2002. Edusp- Editora da Universidade de São Paulo, 6a.
( ~ Feldman e Fox [91] Dorian Feldman e Martin Fox, Probability- The edição revista, São Paulo, 2005.
Mathematics of the Uncertainty, Mareei Dekker, Miraglia [02] Francisco Miraglia Neto, Tópicos de Análise,
New York, 1991. USP (versão preliminar), São Paulo, 2002.
(
Feller [68] Willian Feller, An Introduction to Probability Mood, Graybill e Boes [74] Alexander M. Mood, Franklin A. Graybill e
I I Theory and /ts Applications vol. /, 3a. edição, Duane C. Boes, Introduction to the Theory
( I John Wiley & Sons, New York, 1968. of Statistics, 3a. edição, McGraw-Hill
I Feller [66] Willian Feller, An .Introduction to Probability Kogakusha, Tokio, 1974.
I Theory and Its Applications vol. li, John Wiley Neuts [73] Mareei Neuts, Probability, Allyn and Bacon Inc.,
& Sons, New York, 1966. Boston, 1973.
Gnedenko [76] Boris V. Gnedenko, The Theory of Probability, Pfeiffer [65] Paul E. Pfeiffer, Concepts of
I Mir Publishers, Moscow, 1976.
( Probability Theory, McGraw-Hill, New York,
I Grimmett e Stir~er [93] G. R. Grimmett e D. R. Stirzaker, Probability 1965.
(
I and Random Processes, 2nd edition, Oxford Rahman [83] N.A. Rahman, Theoretical Exercises in
(
UÔiversity Press Inc., New York, 1993 Probability and Statistics, 2a. edição, Charles
( Griffin, London, 1983.
Hoel, Port e Stone [71] Paul G. Hoel, Sidney C. Porte Charles J. Stone,
I
( lntroduction to Probability Theory, Houghton Rahman [72] N.A. Rahman, Practical Exercises in
I Mifflin Co., Boston, 1971. Probability and Statistics, Charles Griffin,
Hõnig [77] Chain S. Hõnig, A Integral de Lebesgue e suas London, 1972.
I Aplicações, 11° Colóquio Brasileiro de Rao [65] C. Radhakrishna Rao, Linear Statistical
( Matemática, Poços de Caldas, 1977. Inference and /ts Applications, John Wiley &
I
( Sons, New York, 1965.
I
I
(
I
.,
t: 406 Bibliografia
f
'
~
~
Rao [84] Malempati M. Rao, Probability Theory with
Applications, Academic Press, Londom, 1984. ,
lndice Remissivo
~ Ross [98] Sheldon Ross, A first course in Probability, 5a.
edição, Prentice Hall, Upper Saddle River, New
I Jersey, 1988. Convergência
t A em distribuição, 305
Roussas [73] George G. Roussas, A First Course in em lei, 305
l • Mathematical Statistics, Addison Wesley Pub . Absolutamente contínua, 70
Álgebra, 5
em média r, 303
Co., Reading, 1973. em probabilidade, 302
l Amostra aleatória, 181 quase certa, 30 I
Royden [68] H. L. Royden, Real Analysis, MacMillan Aproximação Normal p/ Binomial, 105, 339 uniforme, 300
'
I
I
Rudin [64]
Publishing Co., 2a. edição, New York, 1968.
Walter Rudin, Principies of Mathematical
Analysis, 2a. edição, MCGraw-Hill, New York,
Axiomas de probabilidade, 11
B
Convolução, I55
Covariância, 249
condicional, 264
Cramér-Wold, 315
1964. Critério
407
li
!! 408 Índice Remissivo Índice Remissivo 409
.I
I
Desvio-padrão, 243 como integral de Riemann-Stieltjes; 195 L
Distribuição de função, 219
Beta, 107 de variável discreta, 180
G
Laplace, ver De Moivre-Laplace
Binomial, 83 de variável contínua, 186 Lebesgue, ver integral de
Gama, ver disuibuição gama
Binomial Negativa, 85 de variáveis não-negativas, 208 Lebesgue-Stieltjes, ver integral de
Gauss, 102
condicional, 128 do produto de v.a. independentes, 227
Geométrica, ver disuibuição geoméuica Lei
conjunta, 116 propriedades, 213 da Prob. Total, 31
probabilidade geométrica, I O
propriedades, 117 Estatísticas de ordem, ver máximo e mínimo de Morgan, 3
Glivenko, ver teorema
de Cauchy, 110 Eventos dos Grandes Números, 324
de Laplace, 111 aleatórios, 1 Fraca, 324
de Poisson, 89 disjuntos, 3
de Rayleigh, 111 independentes, 35
H Forte,324
( Forte dos Grandes Números, 324
de um vetor aleatório, 116 mutuamente exclusivos, 3 de Borel, 327
o--álgebra de, 5 Helly-Bray, Teorema de, 306
( de uma variável aleatória, 65 de Kolmogorov, 327
Experimento Hipergeométrica, ver distribuição
de Weibull, 111 primeira, 327
( de Erlang, lO I aleatório, 1 Fraca dos Grandes Números, 324
exponencial, 96 Exponencial, ver disuibuição exponencial
falta de memória, 98 I de Kbintchine, 327
de Chebyshev, 327
exponencial dupla, 111 Lema de Borel-Cantelli, 43
F-Snedecor, 177 F Independência
Levy-Paul, Teorema da Continuidade de, 308
( gama, 100 entre varios eventos, 35
de variáveis e vetores, 133 Liapunov, Teorema Central do Limite de, 338
geométrica, 83 Feller, Limite
( hipergeoméuica, 88 Lindeberg, teorema, 347 Indicador
de união e intersecção, 7 inferior, 4
logística, 111 Fórmula da inversão, 282 superior, 4
Maxwell, 111 Frequência relativa, 11 Infinitas vezes, 4
Integral Lindeberg, ver Feller, teorema
multinomial, 137 Função
( de Lebesgue, 199
normal, 102 absolutamente contínua, 192
( bivariada, 138 característica, 276 de Lebesgue-Stieltjes, 199 M
Pareto, 111 multidimensional, 288 de Riemann, 191
( Triangular, 11 O de Cantor, 72 de Riemann-Stieltjes, 179 Markov, ver desigualdade de
qui-quadrado, 101 de densidade de probabilidade, 70 Máximo, 159
siméuica, 199
t de Student, 177
de disuibuição, 65 J Média
amostrai, 287
condicional, 129
Uniforme de um vetor aleatório, 129 Jacobiano mediana, I 09
( discreta, 81 de uma variável aleatória, 77 método do, 161 Medida
contínua, 94 conjunta, 116 Jensen, desigualdade de, 224 de Lebesgue, 74
( propriedades, 117 Mensurável, 64
de um vetor aleatório, 116 Método do Jacobiano, 161
E Mínimo, 158
empírica, 334 K Modelo Probabilístico, 24
marginal, 119
Ensaios de Bernoulli, 82 Momento
de probabilidade, 11, 68 Kbintchine, Lei Fraca de, 327
Erro quadrático médio, 234 absoluto, 241
de variávei aleatória, 141 ver Bochner-Kbintchine, 288
Espaço central, 241
gama, 101 Kolmogorov
amostrai, 1 de variáveis aleatórias, 241
geradora de momentos, 266 desigualdade de, 328
de probabilidade, 11 Multinomial, ver distribuição Multinomial
multidimensional, 270, 272, 273 Lei Forte de, 332
( produto, 26 Mutuamente exclusivos, 3
indicadora, 7 Primeira Lei Forte de, 329
Esperança .
mista, 74, 126
( condicional, 260
I
' 410
• fndice Remissivo fndice Remissivo 411
N s v
(
Não-correlacionadas, 258 a--álgebra, 5 Valor esperado
( Normal, ver distribuição normal das partes de !1, 6 caso geral, 209
Números pseudo-aleatórios, !52 de Borel, 7 da função indicadora, 20 I
( Singular, 145 Integral de Lebesgue-Stieltjes, 199
( o Slutsky, Teorema de, 319
Stieltjes, ver integral de
Integral de Riemann-Stieltjes, 195
para variáveis discretas, 180
( para variáveis contínuas, 186
Observada,
para variáveis não-negativas, 208
freqüência, 90
( T propriedades, 213
Variância, 243
( p Taxa de falha, 107 amostrai, 320
Teorema condicional, 264
( Central do Limite, 337 de uma constante, 244
Partição do espaço amostrai, 3 de uma soma, 252
de De Moivre-Laplace, 339
Permutações, 9 propriedades, 243
de Liapunov, 341
Poisson, ver distribuição de Poisson Variável aleatória, 63
de Lindeberg-Feller, 347
Princípio contínua, 70
para variáveis i.i.d., 338
( fundamental da contagem, 9 discreta, 68
da Continuidade de Paul Lévy, 308
Probabilidade função de distribuição, 65
da Convergência Dominada, 232
( axiomas de, li
da Convergência Monótona, 230 independentes, 133
condicional, 30 mista, 74, 126
( da Extensão de Carathéodory, 11
geométrica, I O n-dimensional, 115
da Probabilidade Total, 29
propriedades, 20 não-correlacionadas, ver correlação
( da Unicidade, 286
total, lei da, 31 partes positiva e negativa, 209
de Bayes, 30
de Bochner-Khintchine, 288 simétrica, 199, 242
Q de Crarnér-Wold, 315 singular, 72
( de Glivenko-Cantelli, 336 V:etor aleatório
Quase de Kolmogorov contínuo, 123
( Lei Forte de, 332 discreto, 120
certamente, 301
( toda parte, 74, 301 Primeira Lei Forte de, 329 distribuição conjunta, 116
Qui-quadrado, ver distribuição qui-quadrado de Helly-Bray, 306
de Lindeberg-Feller, 347
de Polya, 310
( R de Radon-Nikodym, 260
de Slutsky, 319
(
Radon-Nikodyn, 260
( Resultados
equiprováveis, 18
u
( Riemann, ver integral de uniforme, ver distribuição uniforme
Riemann-Stieltjes, ver integral de
(