Você está na página 1de 28

8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos.

Após o trabalho fundamental de Kolmogorov, Lévy

Página 1

1.6 - História 15

areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de


Kolmogorov, Lévy (1886-1971), define o tom das probabilidades modernas com seus
trabalhar em processos estocásticos, bem como nas funções características e
teoremas de limite. Vamos mencionar aqui o papel essencial desempenhado pelas escolas e
Japonês e, em particular, por Itô (Prêmio Gauss de 2006), que define uma noção de integral
com respeito ao movimento browniano e, graças a ele, leva à criação de um cálculo
integral, chamado cálculo estocástico, para certas famílias de processos estocásticos.
Esses resultados foram, em parte e completamente independentes, descobertos
pelo matemático francês Doeblin durante a Segunda Guerra Mundial. Esse
sentindo seu fim próximo (ele morreu em 1940 nas Ardenas) enviou suas descobertas
na forma de uma "dobra selada" na Academia de Ciências. Essa dobra foi descoberta e
abriu apenas alguns anos atrás e despertou grande emoção.

Atualmente, a Escola Francesa de Probabilidade é muito ativa. Medalha de campo


foi concedido em agosto de 2006 à Werner (Universidade Paris 11, ENS). "Comunicado de imprensa
: O trabalho de Wendelin Werner é sobre a interação da física e
de matemática. Eles introduzem novas idéias e conceitos combinando
teoria das probabilidades e análises complexas, para entender fenômenos
crítico de certas transições de fase (por exemplo, transição líquido / gás) ".
Desde 2006, vários prêmios e premiações destacaram a grande empolgação
probabilidades e suas aplicações.

As probabilidades se desenvolvem cada vez mais, alimentadas em particular por


essencial através da física, o desenvolvimento de redes de telecomunicações
finanças, e mais recentemente biologia e medicina. Eles permitem
para construir modelos matemáticos, que podem ser validados por dados
de acordo com a teoria estatística, e também oferecem oportunidades para experimentação
fictícias em várias áreas de aplicação.

Página
Page 3 2

https://translate.googleusercontent.com/translate_f 1/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

Capítulo 2

Espaço de probabilidade

Dificilmente se pode dar uma definição satisfatória de probabilidade. A definição


A probabilidade completa é, portanto, uma espécie de petição de princípio.

Henri Poincaré (1854-1912) - Cálculo de Probabilidades.

2.1 A linguagem da probabilidade

2.1.1 Experiências e eventos aleatórios

a) Experiência aleatória

Definição 2.1.1 Chamamos de experiência aleatória uma experiência E que, reproduzida


condições idênticas, pode levar a vários resultados possíveis e quais
pode prever o resultado com antecedência. O espaço de todos os resultados possíveis, chamado espaço
de estados (associados ao experimento), será observado Ω. Um possível resultado do experimento é observado
convencionalmente ω. Então, ω ∈ Ω.

Jogos de sorte, como moeda ou moeda, jogos de cartas, loteria, fornecem exemplos
de experimentos aleatórios para os quais Ω é finito, mas Ω pode ser muito espaço
mais complicado.

17

Page 4

18 Capítulo 2 - Espaço de probabilidade

• Exemplo 1. Jogado de duas moedas ou moedas:: = {PP, PF, FP, FF}.

• Exemplo 2. Rolagem de um dado: Ω = {1, 2, 3, 4, 5, 6}.

• Exemplo 3. Enviando um dardo em um alvo circular com 30 cm de diâmetro.


O experimento consiste em descrever o impacto da flecha em uma referência ortonormal
do centro do centro do alvo: Ω = {(x, y), √x 2 + y 2 ≤ 15}.

• Exemplo 4. Vida útil de uma lâmpada: Ω = [0, + ∞ [.

https://translate.googleusercontent.com/translate_f 2/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

- Exemplo 5: Romeu espera Juliette, que prometeu chegar entre meia-noite e


uma hora Qual será o tempo de espera dele? Ω = [0, 1].

• Exemplo tempo de passagem 6. Veículo de um terminal de portagem: Ω = (R + ) N .

• Exemplo 7. A observação de um preço de ativo financeiro durante um intervalo de tempo


[t 1 , t 2 ] leva a for o conjunto C ([t 1 , t 2 ], R + ) do conteúdo
nu em [t 1 , t 2 ], com valores reais positivos.

• Exemplo 8. O estudo da velocidade de uma molécula em um gás rarefeito em um


intervalo de tempo [t 1 , t 2 ] leva a assumir Ω o conjunto de funções
contínua à direita e com limites à esquerda em [t 1 , t 2 ], com valores em R 3 .

Esta longa lista de exemplos mostra que o espaço vary pode variar enormemente
estrutura, de uma experiência para outra. Isso torna possível perceber a riqueza da teoria
precisa ser criado para criar um modelo que cubra todos esses casos.

Veremos também mais tarde que o modelo abstrato que vamos


O construto superará o fato de que Ω descreve com precisão todos os resultados
possível a partir da experiência.

b) Eventos aleatórios

Definição 2.1.2 Chamamos um evento aleatório (associado à experiência E) de


subconjunto de Ω que pode ser visto a partir da experiência, realizado ou não. Um
O evento é, portanto, parte de Ω.
Então, se a experiência é um lançamento de dois dados,

A = {a soma dos dois dados é menor que 4}

Page 5

2.1 - A linguagem da probabilidade 19

é um evento aleatório, mas o todo

B = {o resultado do primeiro dado rolado é um número menor que 4}

não é um se Ω contém apenas os resultados não ordenados dos sorteios.

Para o nosso Romeu, toda a "Juliette está esperando mais de 3/4 de hora" é
o evento aleatório] 3/4, 1].

Se estivermos interessados no preço de um ativo financeiro ao longo do tempo [t 1 , t 2 ], o conjunto

A = {o preço é inferior ao limite α} = ®ω ® C ([t 1 , t 2 ], R), sup


t∈ [t 1 , t 2 ] | ω (t) | ≤ α´

é um evento aleatório.

Então, eventos aleatórios são conjuntos. Vamos usar o


formalismo da teoria dos conjuntos, em particular operações elementares
os conjuntos, para descrever várias possibilidades de realização de eventos.

c) Lembretes em conjuntos

https://translate.googleusercontent.com/translate_f 3/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
Considere um conjunto Ω, ou seja, uma coleção de objetos chamados elementos de
Ω ou pontos de Ω. A participação de um ponto ω no conjunto Ω é anotada w ∈ Ω, e
ω / ∈ Ω significa que o ponto ω não pertence a Ω.

Uma parte A de Ω também é um conjunto, chamado subconjunto de Ω. Nesse caso, A


é dito estar incluído em Ω, que está escrito A ⊂ Ω.

Vamos relembrar as operações elementares nas partes de um conjunto.

Interseção: A ∩ B é a interseção dos conjuntos A e B, ou seja, o conjunto


pontos pertencentes a A e B.

Reunião: A ∪ B é a reunião dos conjuntos A e B, ou seja, o conjunto de


pontos pertencentes a pelo menos um dos dois conjuntos.

Conjunto vazio: este é o conjunto que não contém pontos. É observado.

Conjuntos disjuntos: Os conjuntos A e B são considerados disjuntos se A ∩ B = ∅.

Complementar: Se A ∈ Ω, seu complementar (em Ω) é o conjunto de pontos

Page 6

20 Capítulo 2 - Espaço de probabilidade

de Ω não pertencente a A. Note-se A c ou às vezes Ω \ A. Os conjuntos A e A c


são disjuntos.

Diferença: Se A e B são dois subconjuntos de Ω, A \ B indica o conjunto


pontos que estão em A, mas não em B. Assim, A \ B = A ∩ B c .

A reunião e o cruzamento são operações comutativas e associativas. Nós


temos A ∪ B = B ∪ A e A ∩ B = B ∩ A, e também A ∪ (B ∪ C) = (A ∪ B) ∪ C e
A ∩ (B ∩ C) = (A ∩ B) ∩ C, conjuntos que denotamos naturalmente A ∪ B ∪ C e
A ∩ B ∩ C.

De maneira mais geral, para uma família (A i ) i∈I de conjuntos, indexados por um conjunto
qualquer I ∪ i ∈ A i denota a reunião desta família, isto é, o conjunto de
pontos pertencentes a pelo menos um de A i . Da mesma forma ,, i∈I A i denota a intersec-
da família, isto é, o conjunto de pontos pertencentes a todos os A i . Nestes
em dois casos, a ordem de indexação de A i não importa.

Uma partição de Ω é uma família (A i ) i∈I de modo que os conjuntos A i sejam disjuntos
dois a dois (A i ∩ A j = ∅, ,i, j), e que ∪ i∈I A i = Ω.

d) Definir modelagem de eventos aleatórios

Eventos aleatórios sendo conjuntos (lembre-se de que parte de Ω


descreve um subconjunto de possíveis resultados do experimento), podemos realizar
as operações do conjunto descritas anteriormente, com a seguinte interpretação.

Correspondência entre operações definidas e eventos aleatórios:

Se A e B são dois eventos,

• NÃO: a ocorrência do evento contrário a A é representada por A c : a


O resultado do experimento não pertence a A.

• AND: o evento “A e B são realizados” é representado por A∩B: o resultado de


experiência é encontrada em A e B.

https://translate.googleusercontent.com/translate_f 4/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

• OU: o evento "A ou B são realizados" é representado pelo evento A ∪ B:


o resultado do experimento é encontrado em A ou em B.

• IMPLICAÇÃO: o fato de que a realização do evento A leva à realização


A tradução de B é traduzida por A ⊂ B.

Page 7

2.1 - A linguagem da probabilidade 21

• INCOMPATIBILIDADE: se A∩B = ∅, A e B são considerados incompatíveis. Um resultado


a experiência não pode estar em A e B.

• SEMPRE VERDADEIRO: o evento is é o evento certo (todos os resultados


experiência assumem seus valores em Ω).

• IMPOSSÍVEL: ∅ é o evento impossível.

Denotamos por A o conjunto de todos os eventos. Ele modela as informações que podem
ser obtido a partir dos resultados do experimento. Podemos tomar A = P (Ω),
conjunto de todas as partes de Ω, mas nem sempre e veremos o porquê no
continuação deste curso.

Observação fundamental: para que a modelagem seja coerente com a intuição


A deve ser estável pelas operações definidas acima: se A, B ∈ A,
A ∩ B ∈ A, A ∪ B ∈ A, A c ∈ A, mas também ∈ ∈ A, ∅∈A.

2.1.2 Probabilidade - Primeiras propriedades

Procuramos definir, para um possível conjunto de realizações do experimento


A ∈ A, a probabilidade dada a priori a A (antes do resultado do experimento).
Portanto, queremos associar a cada evento A um número P (A) entre 0
e 1, que representa a chance de que esse evento seja realizado após o experimento.

Abordagem intuitiva: vamos pensar em um jogo de cara ou coroa. Se jogarmos 3 vezes, um


os 3 resultados seguintes quase não oferecem informações. Por outro lado, se jogarmos
10.000 vezes e se recebermos 5.003 Stack e 4.997 Face, é tentador dizer que o
a probabilidade de a moeda cair na pilha é a mesma que cai na face,
ou seja 1/2.

Essa ideia intuitiva é a base do raciocínio probabilístico.

Vamos considerar um evento A vinculado a uma dada experiência aleatória E. Repetimos


n vezes o experimento E, em condições semelhantes. Denotar por n A o número de vezes
A é realizado, e vamos definir
nA
f n (A) = ,
n
a frequência de realização de A nesses n tiros. Temos as seguintes propriedades:

f n (A) ∈ [0, 1]; f n (Ω) = 1;


Se A e B são disjuntos, f n (A ∪ B) = f n (A) + f n (B).

Page 8
https://translate.googleusercontent.com/translate_f 5/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

22 Capítulo 2 - Espaço de probabilidade

A abordagem intuitiva e natural é definir P (A) como o limite quando


n tende para o infinito das frequências de realização f n (A). Daremos mais tarde
justificativa e significado precisos para esse limite, graças à lei do grande número,
que é um dos teoremas fundamentais da teoria, justificando toda a construção
matemática.

Intuitivamente,

P (A) = limite de f n (A) quando n ↑ + ∞. (2.1.1)

Das propriedades óbvias das frequências, deduzimos imediatamente que

Proposição 2.1.3 Uma probabilidade é definida nos conjuntos aleatórios vinculados à


experiência e verifica as seguintes propriedades essenciais:

• 0 ≤ P (A) ≤ 1, (2.1.2)
• P (Ω) = 1 (2.1.3)
• P (A ∪ B) = P (A) + P (B) se A ∩ B = ∅, (2.1.4)

e segue-se que

Corolário 2.1.4 Uma probabilidade também verifica:

• P (∅) = 0 (2.1.5)
• P (A) + P (A c ) = 1, (2.1.6)
n

• P (∪ n ∑ P (A i ), se A i for dois a dois disjuntos, (2.1.7)


i=1Ai) =
i=1

• P (A ∪ B) + P (A ∩ B) = P (A) + P (B), (2.1.8)

• P (A) ≤ P (B) se A ⊂ B. (2.1.9)

Prova. A propriedade (2.1.5) é mostrada aplicando (2.1.4) com A = B = ∅, e


(2.1.6) é obtido da mesma maneira com A e A c . Para provar (2.1.8), decompomos
soa o conjunto A na união dos dois conjuntos disjuntos A∩B e seus complementares
A \ B e da mesma forma para B, como mostra a Figura 4.8. Desigualdade
(2.1.9) é deduzido de (2.1.4) com B = A ∪ (B \ A). D

Definição 2.1.5 Um modelo probabilístico é um trigêmeo (Ω, A, P) que consiste em es


ritmo Ω, do conjunto de eventos A e da família de P (A) para A ∈ A.
podemos considerar P como uma aplicação de A em [0, 1], que satisfaz pelo menos
as propriedades (2.1.3) e (2.1.4) fornecidas acima. (Veremos mais tarde que
deve satisfazer uma propriedade adicional necessária assim que Ω não seja um espaço finito).

Page 9

2.2 - Probabilidade sobre um espaço finito - Cálculo combinatório 23

Um

B
UC

BA
U C
U
AB AB

https://translate.googleusercontent.com/translate_f 6/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
Fig. 2.1: A, B, A ∩ B c , A ∩ B, B ∩ A c e A ∪ B

Daremos agora definições matemáticas rigorosas desses objetivos.


jatos.

2.2 Probabilidade em um espaço finito - Cálculo combinado-


telhado

2.2.1 Definição

Neste parágrafo, assumimos que o espaço de probabilidade Ω é um conjunto


terminado. Nesse caso, sempre escolheremos A = P (Ω).

Definição 2.2.1 Uma probabilidade em ite finito é um mapa P: P (Ω) → [0, 1]


que verifica (2.1.3) e (2.1.4). Assim, é caracterizado por:

• 0 ≤ P (A) ≤ 1,
• P (Ω) = 1
• P (A ∪ B) = P (A) + P (B) se A ∩ B = ∅.

A probabilidade P também satisfaz as propriedades (2.1.5) - (2.1.9).

Como o conjunto de singletons {ω}, para ω ∈ Ω, é uma partição finita de Ω, nós


terá a seguinte proposição básica.

Proposição 2.2.2 Suponha que Ω = {w 1 , ..., w n }.

i) Uma probabilidade P em Ω é inteiramente caracterizada por seus valores no


tons, isto é, pela família {p ω i = P ({ω i }), ω i ∈ Ω}.

Page 10

24 Capítulo 2 - Espaço de probabilidade

ii) Dada uma família (p i ) 1≤i≤n de números reais, corresponde a um único


probabilidade P tal para todos ω i ∈ p, p i = P ({ω i }), se e somente se
n

0 ≤ p i ≤ 1, ∑ p i = 1. (2.2.1)
i=1

Temos então

∀A ∈ P (Ω), P (A) = ∑ pω. (2.2.2)


ω∈A P ({ω}) = ∑ ω∈A

Observe que as somas em (2.2.2) são somas finitas, pois Ω e, portanto,


A, são de cardeal finito.

Prova. Seja P uma probabilidade em Ω, e seja p ω = P ({ω}). É então óbvio que


0 ≤ p ω ≤ 1 e (2.2.2) segue de (2.1.7) uma vez que qualquer parte A de Ω é unida
separado (e finito) dos singletons {ω}, para o ω ∈ A. Portanto, deduzimos (i) e
a condição necessária de (ii). De fato, a segunda parte de (2.2.1) segue de (2.2.2)
aplicado a A = Ω e P (Ω) = 1.

Por outro lado, considere n números (p i ) 1≤i≤n verificação (2.2.1). Pedimos

https://translate.googleusercontent.com/translate_f 7/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
P ({ω i })
(2.1.2), = p i e para
(2.1.3) todos
(2.1.4) os A ⊂ Ω, definimos P (A) por (2.2.2). A verificação
é imediata. D

Exemplo 2.2.3 Lei de Bernoulli com parâmetro p ∈ [0, 1].


O espaço has possui dois elementos:

Ω = {w 1 , w 2 } e p ω 1 = p; p ω 2 = 1 - p.

Essa probabilidade, em particular, modela a chance de uma moeda cair em uma pilha
(ou cara) em um jogo de cara ou coroa. Nesse caso, Ω = {P, F} pode ser assimilado
mais simplesmente em {0, 1}. Se a peça estiver equilibrada, p será igual a 1/2. Mas isso
probabilidade também pode modelar a probabilidade de alcançar um dos resultados, por
qualquer experimento aleatório com dois resultados possíveis (meu primeiro filho será
uma menina ou um menino?).

2.2.2 Probabilidade uniforme

Um exemplo importante de probabilidade em um espaço finito de estados Ω é o de probabilidades


bilidade uniforme, para a qual cada singleton de Ω tem a mesma chance de realização.
Assim, a seguinte definição segue de (2.2.1).

Page 11

2.2 - Probabilidade sobre um espaço finito - Cálculo combinatório 25

Definição 2.2.4 Diremos que a probabilidade P no espaço finito Ω é uniforme se


p ω = P ({ω}) não depende de ω. Então, temos para tudo ω:

1
pω= ,
cartão (Ω)

onde card (Ω) designa a cardinalidade de Ω, ou seja, seu número de elementos.

Se P é uma probabilidade uniforme, deduzimos de (2.2.2) que

cartão (A)
P (A) = , (2.2.3)
cartão (Ω)

para que o cálculo das probabilidades seja reduzido, neste caso, para:
estamos no quadro da computação combinatória.

Observe que em um determinado espaço finito Ω, existe uma e apenas uma probabilidade
uniforme.
Essa probabilidade descreve matematicamente a expressão intuitiva de “aleatoriamente”
raiva aleatória em um cartão, rolada aleatoriamente em um dado, escolha aleatória de uma amostra
em uma população).

2.2.3 Modelos de urna

Nos cálculos de probabilidades uniformes em conjuntos finitos, é fundamental


tenha muito cuidado para especificar o espaço de probabilidade subjacente. Esta observação
abrange toda a extensão deste parágrafo, onde desenvolveremos diferentes
"Modelos de urna", que também podem ser vistos como modelos de amostragem
amostras em uma população durante uma pesquisa. Esses modelos estão envolvidos
também no controle de fabricação ou em várias outras situações. Se o leitor
não se inspira nas cores das bolas de uma urna, ele pode transcrever a análise
seguintes no contexto de opiniões políticas na população francesa ou que

https://translate.googleusercontent.com/translate_f 8/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
o nível de perfeição de um objeto em uma linha de produção.
O modelo geral é o seguinte: uma urna contém N bolas de k cores diferentes,
distribuído em N 1 bolas coloridas 1, N 2 bolas coloridas 2, ..., N k bolas coloridas
k) Chamamos p i = N i
N a proporção de bolas coloridas i. Desenhe aleatoriamente n
bolas desta urna, n ≤ N, e vejamos a distribuição de cores em
a amostra obtida. Denotamos por P n 1 n 2 ... n k a probabilidade de obter n 1 bolas de
cor 1, n 2 bolas de cor 2, ..., n k bolas de cor k, com claro n 1 + n 2 +
... + n k = n.

Page 12

26 Capítulo 2 - Espaço de probabilidade

Vamos considerar três maneiras de desenhar as bolas aleatoriamente: empate com desconto,
sorteio sem desconto, sorteio simultâneo. Veremos que cada sorteio dará origem a
um cálculo de probabilidade e um resultado diferente.

Nota: O problema de escolher o sorteio da amostra surge constantemente assim que


queremos coletar dados estatísticos.

Observação 2.2.5: Para k e n dois números inteiros, como k ≤ n, frequentemente


use, a seguir, o número de peças ( n
k ) para k elementos em um conjunto para n
elementos, que vale a pena:

Çnkå = n!
= n (n - 1) ... (n - k + 1) .
k! (n - k)! k!

Desenho abrangente ou simultâneo - A lei hipergeométrica

Atiramos todas as bolas ao mesmo tempo. O conjunto Ω é então o conjunto de


todas as partes possíveis de n elementos distintos e o número de resultados possíveis
é(N
n ) O número de casos favoráveis que distribuem corretamente as cores é
então igual a ( N 1
n 1 ) ... ( N k n k ). A probabilidade procurada vale, portanto, a

#1
ˆP n 1 n 2 ... n k = ( n 1) ... ( N k n k) . (2.2.4)
(N
n)

Essa distribuição é chamada de distribuição poligométrica. No caso de dois


cores, valerá a pena
#1
ˆP n 1 , n - n 1 = ( n 1) ( N n- N- n1 1 ) ,
(N
n)

que é chamado de distribuição hipergeométrica (ou lei).

Assim, se na produção em massa, sabemos que entre N peças usinadas, M são


para ser descartado, e se escolhermos aleatoriamente e simultaneamente uma amostra
de n partes, a probabilidade de que esta amostra contenha k partes defeituosas
(M )
vai
n-k
k) (N-M .
(N
n)

Empate com desconto - A lei binomial

Os sorteios são sucessivos. Substituímos a bola sorteada nas urnas antes do sorteio
próximo. Para que possamos atirar a mesma bola várias vezes. O conjunto Ω é

https://translate.googleusercontent.com/translate_f 9/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

Page 13

2.2 - Probabilidade sobre um espaço finito - Cálculo combinatório 27

então o conjunto de todas as n-tuplas de elementos da urna. Todos os ensaios sendo


possível, cartão (Ω) = N n . Nós fornecemos its com sua probabilidade uniforme. O número de
maneiras de determinar os lugares das k cores entre n é igual ao número de maneiras de
compartilhe n em k partes de tamanhos n i , a saber n!
n 1 ! n 2 ! ... n k ! . Uma vez que o lugar das cores
escolhido, temos N i possibilidades para cada bola de cor i. O número de
n!
distribuição n-tuplas n 1 , n 2 , ..., n k é então igual a N N1
n 1 ! n 2 ! ... n k ! 1 ... n n k k . Nós temos
então finalmente

n! N N1
P n 1 n 2 ... n k = 1 ... n n k k
. (2.2.5)
n 1 ! n 2 ! ... n k ! Nn

Essa probabilidade é chamada de distribuição multinomial. No caso particular


onde k = 2, p 1 = p = N 1 ep 2 = 1 - p, a probabilidade definida por
N

n
P n 1, n - n 1 = Ç (2.2.6)
n 1 åp n 1 (1 - p) n - n 1

será chamado lei binomial dos parâmetros n e p. (Envolve os coeficientes


binomial, daí seu nome). Observe que os parâmetros não são intercambiáveis:
n ∈ N e p ∈ [0, 1]. Observe também que essa probabilidade é definida no espaço
Ω = {0, 1, 2, ..., n} contendo n + 1 elementos.

Nota: o leitor poderá verificar se


i = 0 Çniåp i (1 - p) n - i = 1.

Empate sem desconto

Agora, atiramos sucessivamente nas bolas da urna, mas sem substituí-las


na urna após o desenho. O conjunto Ω é então o conjunto de sequências de n elementos
distinto entre N e o número de casos possíveis será N (N - 1) ... (N - n + 1) = A n
N.
Ao raciocinar como no caso de desconto, podemos mostrar que o número
n!
casos favoráveis n 1 ! n 2 ! ... n k ! A N
n1 Nk
, o que em última análise fornece probabilidade
1 ... A n k
o mesmo que no caso de desenho simultâneo.

Assim, há equivalência do sorteio sem desconto e do sorteio simultâneo, do ponto de vista


vista da composição da amostra, e podemos dar ao luxo de não
conta a ordem dos indivíduos no sorteio.

Page 14

28. Capítulo 2 - Espaço de probabilidade

Caso de uma urna com um número infinito de bolas

Nos colocamos nas hipóteses de impressão simultânea, com 2 cores, além de


colocando que N e N 1 tendem ao infinito de tal maneira que N 1 converge para p <1.
N
É muito fácil mostrar que então,

https://translate.googleusercontent.com/translate_f 10/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
#1
ˆP n 1 , n - n 1 = ( n 1) ( N n- N- n1 1 ) n
converge para P n 1 , n - n 1 = Ç
(N n 1 åp n 1 (1 - p) n - n 1 .
n)

Esse resultado é intuitivamente óbvio, porque se o número de bolas se tornar infinito, o tempo
gaiolas com ou sem desconto se tornam quase equivalentes: temos uma chance
muito pequeno para cair duas vezes na mesma bola.

Observação 2.2.6 Obtivemos a lei binomial como limite de hipergeo-


métricas. Essa convergência de uma sequência de probabilidades para uma dada probabilidade
será desenvolvido no capítulo 6.3. (Convergência na lei)

Exemplo 2.2.7: De olhos vendados, você manipula 7 cartões onde as letras são escritas
E, E, T, B, R, L, I. Qual é a probabilidade de você escrever a palavra
LIBERDADE
Solução: 2
7! = 1 2520 .

Exemplo 2.2.8: Quatro cartas são sorteadas aleatoriamente a partir de um baralho de 52 cartas.
Qual é a probabilidade de que, entre essas quatro cartas, haja exatamente duas
reis?

Solução: A hipótese aleatória leva a modelar essa experiência como empate


uniforme em um determinado conjunto Ω que deve ser especificado. Aqui, levamos para a aula Ω
Jogos de 4 partes do conjunto de 52 cartas. A cardinalidade de Ω é ( 52
4) ePé
a probabilidade uniforme em Ω. Os resultados favoráveis são as impressões que contêm
exatamente 2 reis, ou seja, 2 reis e 2 cartas entre as 48 cartas que não sejam reis.
(4
Assim, a probabilidade procurada vale a pena 2 ) ( 482 ) .
( 52
4)

Exemplo 2.2.9: Três dados perfeitamente equilibrados são lançados. Mostre que o pro-
A probabilidade de a soma dos pontos trazidos exceder dez é igual à probabilidade de
essa soma não excede dez. (Isso permitirá que você construa um jogo perfeitamente
justo ...)

Page 15

2.2 - Probabilidade sobre um espaço finito - Cálculo combinatório 29

Solução: O conjunto Ω aqui é o conjunto de sequências (a 1 , a 2 , a 3 ) de 3 números incluídos


entre 1 e 6, fornecida com a probabilidade uniforme P. Note que

a 1 + a 2 + a 3 > 10 ⇔ (7 - a 1 ) + (7 - a 2 ) + (7 - a 3 ) ≤ 10.

Assim, se A designar o evento ", a soma dos pontos obtidos é estritamente maior que
menor que 10 ", notamos que o mapa (a 1 , a 2 , a 3 ) ↦ → (7 - a 1 , 7 - a 2 , 7 - a 3 )
é uma bijeção de A a A c . Os eventos A e A c têm, portanto, a mesma cardinalidade, e
portanto, a mesma probabilidade de realização.

Uma grande dificuldade nesse estilo de cálculo combinatório é especificar claramente o


modelo probabilístico. Paradoxos famosos surgiram dessa dificuldade.

Exemplo 2.2.10 Recordemos o problema do Chevalier de Méré. Esse personagem mar-


quanto à corte de Luís XIV que “tinha uma mente muito boa, mas não era muito boa
agrimensor "(cf. carta de Pascal a Fermat de 29 de julho de 1654) foi um impenetrável
sempre tentando encontrar regras ocultas, permitindo que ele tenha uma vantagem sobre
seus oponentes. Aqui estão duas de suas regras.

1) É vantajoso apostar na aparência de pelo menos um 6 rolando um dado 4


https://translate.googleusercontent.com/translate_f 11/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

vezes seguidas.

Essa regra é boa, pois vale a probabilidade do evento que nos interessa

4
5 1
1-Å ≃ 0,5177> .
6ã 2

A diferença com 1
2 é fraco, mas capaz de proporcionar ganhos segurados a longo prazo: o
cavaleiro teve que jogar muitas vezes ...

2) É vantajoso apostar na aparência de pelo menos um duplo e seis jogando


dois dados 24 vezes seguidas.

Essa regra é ruim, pois vale a probabilidade do evento procurado:

24
35 1
1-Å ≃ 0,4914 < .
36ã 2

O Cavaleiro estava, portanto, menos feliz com esta regra do que com a anterior. De fato,
ele se deixou enganar por um chamado argumento de homotetia: rolando um dado,
existem 6 resultados possíveis, ao jogar dois dados, existem 6 2 = 36, ou 6 vezes mais.
Como é vantajoso apostar na aparência de pelo menos um 6 rolando um dado
4 vezes seguidas, deve ser vantajoso apostar na aparência de um duplo-seis em
jogando dois dados 4 × 6 = 24 vezes seguidas. Paradoxo!

Page 16

30 Capítulo 2 - Espaço de probabilidade

2.3 Definição geral de probabilidades

2.3.1 Por que a definição acima não é suficiente?

Quando o espaço de estados Ω não é finito, a definição 2.2.1 não é suficiente.

Vamos perceber isso no próximo set. Vamos tocar cara ou coroa.

Se tocarmos n vezes, o espaço natural Ω é o conjunto {P, F} n (conjunto de palavras de


n letras com um alfabeto de duas letras P e F). É um conjunto finito de cardeal
2 n . Se assumirmos que a moeda não é falsificada, a probabilidade de cada sorteio
é uniforme e nos encontramos na estrutura da combinatória. Então, para
tudo A ⊂ Ω,

cartão (A)
P n (A) = . (2.3.1)
2n
Suponha agora que o jogo continue indefinidamente. O espaço dos estados
torna-se Ω = {P, F} N ∗ , ou seja, o conjunto de palavras de comprimento infinito
ou seja, com o mesmo alfabeto P e F. É um conjunto infinito. Vamos tentar avaliar
leia a probabilidade P (A) do evento A = "Você nunca atira em pilha". Ou
A n = "Você nunca desenha uma pilha durante os primeiros n empates". De acordo com (2.3.1), nós
temos P (A n ) = P n (A n ) = 2 −n . Observe que A é o limite natural da
Um parecem n , no sentido de que A n estão a diminuir (ou seja, um n + 1 ⊂ Um n ) e em que A = ∩ n A n . Ele
então é natural escrever isso

P (A) = lim P (A n ) = 0. (2.3.2)


n→∞

Para que isso seja verdade, as propriedades (2.1.2), (2.1.3), (2.1.4) são insuficientes
saúde. É necessário adicionar um axioma adicional que permita a passagem
o limite em (2.3.2).

Para esse fim, devemos primeiro caracterizar as propriedades que a classe deve satisfazer
Em eventos. De fato, se em um conjunto finito, é natural tomar A = P (Ω),
não é mais o mesmo quando Ω é infinito, isso por razões matemáticas e

https://translate.googleusercontent.com/translate_f 12/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
razões de modelagem que serão explicadas abaixo. A classe A deve, no entanto
satisfazer um certo número de axiomas e, para defini-los, lembre-se de que
contáveis juntos.

2.3.2 Conjuntos contáveis

Um conjunto E é contável se estiver em bijeção com N, ou seja, se seus pontos


pode ser listado em uma sequência (x n ) n∈N . É o caso do próprio conjunto N,

Page 17

2.3 - Definição geral de probabilidades 31

de Z, de Q, números inteiros pares ou de qualquer sequência estritamente crescente de números inteiros. Isto
este não é o caso de {0, 1} N ∗ , para R, nem para os intervalos [a, b] quando a <b.

Vamos indicar algumas propriedades dos conjuntos contáveis.

• Qualquer conjunto contável é infinito. (Mas o inverso é falso, como


vimos acima.)
• Qualquer parte de um conjunto contável é ela mesma finalizada ou contável.
• A reunião de uma família finita ou contável de conjuntos terminou ou
countable é um conjunto finito ou contável.

• Se A não for finito nem contável, é o mesmo para A \ B, para todos os B ⊂ A


que é finito ou contável.

2.3.3 Tribo

Definição 2.3.1 A classe A é uma tribo se satisfizer as seguintes propriedades:

• (A1): ∅∈A e ∈ A.

• (A2): A é estável alternando para o complementar: A ∈A⇒ A c ∈ A.

• (A3): A é estável por reunião e interseção contáveis, ou seja, se (A n ) n∈N é


uma sequência de elementos de A, então ∪ n∈N A n e ∩ n∈N A n estão em A.

Observe que A é então estável por reunião e interseção finita: se A, B ∈ A, então


A ∪ B ∈ A e A ∩ B ∈ A. Basta tomar A 0 = A e A n = B para n ≥ 1.

Observe também que (A3) não faz com que A seja estável por reunião ou interseção
infinito não contável.

Observação fundamental: Na modelagem de nosso fenômeno aleatório, o


tribo representa um conjunto de partes de Ω (partes compostas de certos resultados
experiência) que poderemos medir a chance de realização. É para um
elemento A desta tribo que poderemos definir sua probabilidade de realização
P (A), enquanto P (A) não terá significado, pois A não pertence à tribo A.

Como esses conjuntos A são subconjuntos de resultados possíveis do experimento


a tribo modela as informações que essa experiência nos fornece.

https://translate.googleusercontent.com/translate_f 13/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

Page 18

32. Capítulo 2 - Espaço de probabilidade

Exemplo 2.3.2 A = {∅, Ω} é a tribo grosseira ou trivial: é a mais


pequena tribo de Ω.

(ii) O conjunto P (Ω) das partes de Ω é uma tribo em Ω. Este é o que nós
escolherá sistematicamente se Ω é um conjunto finito ou contável. No entanto
No entanto, por razões fundamentais que indicaremos brevemente
mais tarde, essa tribo será muito grande assim que Ω for infinito incontável
para que possamos definir a probabilidade de todos os seus elementos de maneira não
trivial.

Definição 2.3.3 Se C ⊂ P (Ω), chamamos tribo gerada por C a menor tribo


contendo C. Ele sempre existe, porque por um lado P (Ω) é uma tribo que contém C, e
por outro lado, a interseção de qualquer família de tribos é uma tribo. Então a tribo
gerado por C é a interseção de todas as tribos que contêm C.

Exemplo 2.3.4 • A tribo gerada pelo conjunto A é {∅, A, A c , Ω}.

• Se (A i ) i∈I é uma partição finita ou contável de Ω (ou seja, A i são dois


dois disjuntos e sua reunião é Ω), a tribo gerada por {A i , i ∈ I} é
todas as reuniões B J = ∪ i∈J A i , onde J descreve a classe de todas as partes
de I.

Definição 2.3.5 Se Ω = R, chamamos a tribo Borel de tribo gerada pela classe


intervalos abertos de R.

Como um exercício para lidar com as tribos, vamos fazer uma demonstração detalhada da
seguinte resultado:

Proposição 2.3.6 A tribo Borel de R é a tribo gerada pelos intervalos


do formulário] - ∞, a] para um ∈ Q.
Prova. Lembre-se de que qualquer tribo é estável mudando para complementar,
reunião contável ou interseção.

Como] - ∞, a] é o complemento do intervalo aberto] a, + ∞ [, pertence a


a tribo Borel e, portanto, a tribo C gerada por esses intervalos está incluída no
a tribo boreliana. Inversamente, deixe] x, y [um intervalo aberto de R. Let (x n ) n
uma sequência de racionais decrescendo em direção x e (y n ) n uma sequência de racionais aumentando
estritamente para y.Ona:

] x, y [= n (] - ∞, y n ] ∩] - ∞, x n ] c ).

Deduzimos que qualquer intervalo aberto pertence a C, daí o resultado. D

Page 19

2.3 - Definição geral de probabilidades 33

2.3.4 Definição de probabilidade

Agora somos capazes de dar a definição geral de probabilidade.

https://translate.googleusercontent.com/translate_f 14/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
Definição 2.3.7 Uma probabilidade no espaço (Ω, A) é uma aplicação de A em
[0, 1], observou P, de modo que:
• temos

P (Ω) = 1. (2.3.3)

• Para qualquer sequência (contável) (A n ) n de elementos de A dois para dois disjuntos,


a

P (∪ n A n ) = Σ n P (A n ). (2.3.4)

Nota: A probabilidade P (também chamada de medida de probabilidade) é uma medida abstrata


da massa 1 no espaço mensurável (Ω, A). A estrutura em que trabalhamos é
matematicamente desenvolvido pela teoria da medida, mas não invocaremos
nenhum resultado geral dessa teoria.

O axioma (2.3.4), chamado “axioma da aditividade σ”, implica em particular que a série de
termo geral P ( n ) é convergente (e P total (∪ n A n )). Ele é mais forte que
(2.1.4) Para vê-lo, começamos aplicando (2.3.4) com A n = ∅ para todos
n ∈ N: se a = P (∅), obtemos ∑ n a = a, o que resulta em a = 0. Então, se
A, B ∈ A são disjuntos, aplicamos (2.3.4) com A 0 = A, A 1 = B e A n = ∅ para
todos n ≥ 2, que fornece P (A ∪ B) = P (A) + P (B) + ≥ n P2 (∅) = P (A) + P (B), portanto
(2.1.4)

Observe que toda a probabilidade verifica as propriedades (2.1.5) - (2.1.9).

O resultado a seguir é muito útil na prática e responde ao problema de modelagem.


afirmação apresentada na Seção 2.3.1. Para esse resultado, usamos o
seguintes notações. Se (A n ) é uma sequência decrescente de partes de Ω, ou seja, A n + 1 ⊂ A n
para todos n e se A = A n A n , escrevemos A n ↓ A. Da mesma forma, se a sequência (A n ) for
crescimento, ou seja, A n ⊂ A n + 1 para todo n e se A = ∪ n A n , escrevemos A n ↑ A.
Proposição 2.3.8 Suponha que P: A → [0, 1] satisfaça (2.3.3) e (2.1.4). Existe
equivalência entre:
(i) A propriedade da aditividade σ (2.3.4).
(ii) Para qualquer sequência crescente (A n ) n ,

P (∪ n A n ) = lim (2.3.5)
n↑ P (A n ).

Page 20

34 Capítulo 2 - Espaço de probabilidade

(iii) Para qualquer sequência decrescente (A n ) n ,

P (∩ n A n ) = lim (2.3.6)
n↓ P (A n ).

Este resultado implica, em particular, que se (A n ) n for uma sequência crescente ou decrescente
de eventos, a sequência (P (A n )) n admite um limite quando n tende ao infinito.

Prova. Dado (2.1.6), temos (ii) ⇔ (iii). Vamos mostrar que (i) ⇔ (ii).

Primeiro suponha (ii). Considere uma sequência (A n ) n de elementos de A dois por dois
disjuntar e definir B n = ≤ p≤n Um p e B = ∪ n A n . Como P verifica (2.1.4), verifica
(2.1.7) e P (B n ) = ∑ p≤n P (A p ) aumenta em direção a P n P (A n ) e também em direção a P (B) em (ii). Nós
então nós temos (i).

Agora suponha (i). Seja A n ∈ A para n ≥ 0, com A n ↑ A. Seja também B 0 = A 0 ,


e defina pela indução B n = A n \ B n - 1 , para n ≥ 1. Como ∪ n B n = A e
como os B n são dois a dois disjuntos, temos

https://translate.googleusercontent.com/translate_f 15/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
P (A) = ∑ n P (B n ) = lim n ∑ P (B p ) = lim n P (A n ),
p=0

o último empate de (2.1.7). Então, obtemos o resultado. D

A propriedade (2.3.4) fornece a probabilidade da união ∪ n A n em função da probabilidade


P (A n ), quando os eventos A n são dois a dois disjuntos. Se não
Nesse caso, ainda temos a seguinte marcação, muito útil na prática:

Proposição 2.3.9 Seja P uma probabilidade e seja (A n ) n∈I uma família acabada ou um
número de eventos. Temos então

P (∪ n∈I A n ) ≤ ∑ P (A n ). (2.3.7)
n∈I

Prova. a) Suponha primeiro o conjunto finito I. Isso é para mostrar que, para todos os k
inteiro

P (A 1 ∪ ··· ∪ A k ) ≤ P (A 1 ) + ··· + P (A k ). (2.3.8)

Mostramos essa propriedade por indução em k: é óbvio para k = 1.


Suponha que a propriedade seja verdadeira para k −1, com k ≥ 2, e defina B = A 1 ∪ ··· ∪A k - 1 e
C = B ∪A k . Em virtude de (2.1.8), temos P (C) + P (B ∩A k ) = P (B) + P (A k ), portanto
P (C) ≤ P (B) + P (A k ), e deduzimos imediatamente que (2.3.8) é satisfeito
para k.

Page 21

2.3 - Definição geral de probabilidades 35

b) Vamos agora considerar o caso em que sou contável. Podemos assumir sem
restrição que I = N ∗ . Vamos definir B n = ∪ n An.
i=1Ai, que aumenta em direção ao conjunto C = ∪ n∈I
De acordo com (a), temos
n

P (B n ) ≤ ∑ P (A i ).
i=1

Mas o membro da esquerda acima cresce em direção a P (C) em virtude da proposição anterior.
dente, enquanto o membro da direita cresce em direção a ∑ n∈I P (A n ). Indo ao limite,
então chegamos (2.3.7). D

Conseguimos, assim, construir em toda a sua generalidade um espaço abstrato Ω, um


tribo neste espaço e definir a noção de probabilidade nesta tribo. É isso
idéia brilhante que Kolmogorov introduziu em 1933: colocando as probabilidades no coração
um novo objeto, uma medida de probabilidade, e não estar interessado nas causas de
experiência genericamente representada por ω ∈ Ω.

Definição 2.3.10 Chamamos o trigêmeo (Ω, A, P) de espaço de probabilidade. É


um espaço medido no sentido da teoria da medida.

A modelagem probabilística, portanto, consiste em descrever uma experiência aleatória


telhado pelos dados de um espaço de probabilidade.

Uma questão fundamental será, portanto, descrever e caracterizar as medidas


de probabilidade definida para espaços de probabilidade cada vez maiores:
N, Q, R, R n , C ([t 1 , t 2 ], R). O último exemplo, que trata de trajetórias aleatórias, não
não pode ser coberto neste curso básico.

Observe que podemos criar muitas probabilidades distintas no


mesmo espaço (Ω, A). Veremos muitos exemplos mais tarde, mas nós
https://translate.googleusercontent.com/translate_f 16/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
podemos rapidamente nos convencer disso no jogo de cara ou coroa, seguindo
se a moeda é manipulada ou não. Podemos definir em {0, 1} diferentes
As leis de Bernoulli, dependendo do parâmetro p ∈ [0, 1] escolhido.

A seguinte definição é fundamental na teoria das probabilidades. Introduz um


noção de "verdadeiro ou falso", que depende da probabilidade escolhida no espaço de estados.

Definição 2.3.11 Seja (Ω, A, P) um espaço de probabilidade.

Um evento de probabilidade zero é considerado insignificante.

Page 22

36. Capítulo 2 - Espaço de probabilidade

Uma propriedade é verdadeira com quase certeza (Pp.s. abreviada), se o conjunto de ω ∈ ∈


para o qual é verdade tem probabilidade igual a 1. Nesse caso, o conjunto de ω para
qual propriedade é falsa é insignificante.

2.3.5 Probabilidades em um espaço contável

Suponha que Ω é contável. Podemos então numerar seus elementos por


{w 0 , w 1 , ···, w n , ···}, n ∈ N. A proposição a seguir generaliza para o caso contável
Proposição 2.2.2 vista no caso finito. Aqui, a tribo considerada é o conjunto P (Ω)
partes de Ω.

Proposição 2.3.12 Uma probabilidade em um conjunto contável é inteiramente


caracterizado por seus valores nos singletons.

Dada uma sequência (p n ) n de números reais tais que

0 ≤ p n ≤ 1, ∑ n p n = 1,

corresponde a uma única probabilidade P tal que para todos os A ⊂ E,

P (A) = ∑ P ({ω n }) = ∑ pn. (2.3.9)


ω n ∈A ω n ∈A

Prova. Quando Ω é finito, esse resultado não é outro senão a Proposição 2.2.2. Quando
Ω é contável, a prova é análoga, exceto para provar que P
definido pelas verificações (2.3.9) (2.3.4), use a propriedade de soma de pacotes
para a série. (Veja a Seção 3.1 abaixo.) D

Exemplo 2.3.13 Let θ> 0 e p n = e -θ θ n


n! . É fácil verificar se 0 ≤ p n ≤ 1
θn
e Σ n w n = e -θ Σ n = 1. A sequência (p n ) n define uma probabilidade em N, chamada
n!
Lei de Poisson do parâmetro θ. Esta lei foi introduzida por Siméon Denis Poisson, em
seu livro "Pesquisa sobre a probabilidade de sentenças em matéria penal e
matéria civil "(1837).

Exemplo 2.3.14 1) Considere um espaço mensurável (Ω, A) e um ponto ω 0 fixo em


Ω Podemos então definir a probabilidade δ ω 0 , chamada medida Dirac em ω 0 , de
da seguinte forma: para A ∈ A,

δ ω 0 (A) = 1 se ω 0 ∈ A; δ ω 0 (A) = 0 se ω 0 / ∈ A.

Uma propriedade é então verdadeira δ ω 0 - quase certamente se for satisfeita por ω 0 , e


o conjunto Ω \ {ω 0 } é um conjunto δ ω 0 - não obrigatório.

https://translate.googleusercontent.com/translate_f 17/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

Page 23

2.4 - Lei de uma variável aleatória 37.

2) Seja P uma probabilidade definida em Ω = {w 0 , w 1 , ···, w n , ···}, e p n = P ({w n }).


Então, para todos A ∈ A, temos

P (A) = ∑ n p n δ w n (A).

A probabilidade P pode, portanto, ser escrita

P=n p n δ wn .

2.4 Lei de uma variável aleatória

Na teoria moderna das probabilidades, preferimos ter um ponto de vista funcional


em vez de cenógrafo, e use variáveis aleatórias em vez de eventos. Isto
ponto de vista será desenvolvido mais adiante neste curso. Vamos dar aqui apenas o
idéias básicas.

Uma variável aleatória é uma quantidade que depende do resultado do experimento. Por
exemplo,
• o número de 6 obtido em um lançamento de 3 dados,
• o número de chamadas para uma central telefônica durante uma hora,
• a distância do ponto em que uma flecha atinge o centro do alvo,
• o valor máximo de um preço de ativo durante um determinado intervalo de tempo,
são variáveis aleatórias.

Em termos matemáticos, consideramos um espaço de probabilidade (Ω, A, P). A va-


O mapa aleatório X é uma aplicação de (Ω, A) em um conjunto F,

ω ∈ Ω ↦ → X (ω) ∈ F.

Na prática, o conjunto F pode ser um conjunto finito ou contável ou R ou R d


ou um espaço mais sofisticado, como o conjunto C (R + , R d ) de funções contínuas
de R + para R d .

Observe: A terminologia, consagrada pelo uso, é muito infeliz e


gerar uma dificuldade relacionada ao vocabulário usado. Uma variável aleatória, apesar de
nome, não é uma variável (no sentido da análise), mas uma função da variável
ω ∈ Ω.

Interesse fundamental: como o espaço F é conhecido na prática,


preferem se concentrar nas chances de atingir os valores de X em vez das chances

Page 24

38. Capítulo 2 - Espaço de probabilidade

dos resultados do experimento. Então, graças a uma variável aleatória X, nós


podemos transportar a estrutura abstrata do modelo probabilístico (Ω, A, P) sobre o espaço
de chegada F (cuja estrutura é mais conhecida), posando para B ⊂ F

https://translate.googleusercontent.com/translate_f 18/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

P X (B) = P (X −1 (B)) = P ({ω, X (ω) ∈ B}). (2.4.1)

NOTA: É comum observar o conjunto X −1 (B) = {ω, X (ω) ∈ B} por {X ∈


B}, que clareia as gravações. Lembre-se, no entanto, que esta notação simplificada
denota um subconjunto de Ω.

Como P (A) é definido apenas para o A pertencente a A, a fórmula (2.4.1) não


permite definir P X (B) apenas para os conjuntos B, de modo que X −1 (B) = {X ∈ B} ∈A,
daí a importância da seguinte proposição.

Proposição 2.4.1 a) A família F das partes B de F de forma que X −1 (B) ∈ A seja


uma tribo de F.

b) O mapa P X definido para B ∈ F por

P X (B) = P (X −1 (B)) = P (X ∈ B)

define uma probabilidade na tribo F de F.

Prova. Propriedades (A1), (A2) e (A3) para F, bem como (2.1.3) e (2.3.4) para
P X segue imediatamente as propriedades de mesmo nome para A e P, uma vez
observou as seguintes propriedades elementares:

X −1 (∅) = ∅ , X −1 (F) = Ω, X −1 (B c ) = (X −1 (B)) c ,

X -1 (∩ i A i ) = ∩ i X -1 (A i ), X -1 (∪ i A i ) = ∪ i X -1 (A i ). (2.4.2)

Definição 2.4.2 A probabilidade P X , definida em (F, F) por (2.4.1), é chamada lei de


a variável X, ou distribuição de X. É a medida da imagem de P pela aplicação
X mensurável

Será mais fácil caracterizar que P, pois F é um conjunto conhecido (podemos


em particular para usar suas propriedades topológicas) enquanto Ω é um espaço abstrato.
Notaremos que, em geral, F = P (F), mesmo que tenhamos A = P (Ω). Como P X faz

Page 25

2.5 - Condicionamento e independência 39.

pode-se definir que em F isso constitui uma primeira razão, de natureza matemática,
de modo que uma probabilidade é definida em uma tribo que pode ser estritamente menor
do que o conjunto de todas as partes.

As variáveis que encontraremos neste curso serão valores em um conjunto


contável, com valores em R ou em R d . Nós os chamaremos respectivamente
variáveis aleatórias reais discretas ou vetores aleatórios. Suas leis serão então
probabilidades respectivamente em um conjunto contável, em R ou em R d . Vimos
acima das caracterizações simples das probabilidades em um espaço finito ou contável.
Por outro lado, descrever as probabilidades em R ou em R d é muito mais delicado. Nós
desenvolveremos isso no contexto de variáveis e vetores aleatórios no Capítulo 4.

Exemplo 2.4.3 Vamos estudar um lançamento de dois dados que supomos estar bem equilibrados. Em
neste caso, o espaço de estados é igual a Ω = {(i, j): 1 ≤ i ≤ 6; 1 ≤ j ≤ 6}, e é natural
pegue aqui A = P (Ω). Vamos considerar um evento aleatório A Ω Ω. Desde os dados

https://translate.googleusercontent.com/translate_f 19/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
são balanceados, definimos a probabilidade de A por P (A) = cartão (A) 36. onde cartão (A)
é a cardinalidade de A e designa o número de elementos de A. É a unidade
forma em Ω, e temos P ({ω}) = 1
36 para cada singleton {ω}.

A aplicação X: Ω → {1, 2, ···, 12} definida por X (i, j) = i + j é a variável aleatória


"soma dos resultados dos dois dados". Sua lei

P X (B) = número de casais (i, j) de forma que i + j ∈ B .


36.

Por exemplo, P X ({2}) = P X ({12}) = 1


36 , P X ({3}) = 2 36 , etc.

EXERCÍCIO 2.4.4 Desenhe o diagrama da lei P X de X e observe


que é muito diferente da probabilidade uniforme P definida anteriormente em Ω.

2.5 Condicionamento e independência

2.5.1 Probabilidades condicionais

A noção de condicionamento é uma das mais bem-sucedidas na teoria da pro-


diferenciais e fundamentalmente da teoria da medição. A ideia de
A base para a compreensão desse conceito é a seguinte: informações
experiência adicional muda a probabilidade de que um
bolsas para o evento estudado.

Page 26

40. Capítulo 2 - Espaço de probabilidade

Por exemplo (e seria bom meditar neste exemplo muito simples), vamos procurar um
rolada com dois dados, a probabilidade do evento “a soma é maior ou igual a 10”.
Vale a pena 1 6 sem informações adicionais, 1 2
se sabemos que o resultado de um dos dados
é 6, 0 se sabemos a priori que o resultado de um dado é 2. Para obter esses resultados,
em cada caso, calculamos a razão entre o número de resultados favoráveis ao longo do
número de casos possíveis. Observamos que é essencial definir bem o espaço
probabilidade associada à experiência fornecida com informações a priori. Observe também
que as informações a priori alteraram o valor da probabilidade do evento aleatório.

A abordagem intuitiva para formalizar essa noção é voltar à noção de


frequência empírica. A frequência de ocorrência do evento A sabendo que o evento
o desempenho B é realizado, em n experiências, é igual ao número de realizações de A
entre aqueles para os quais B é feito. Então vale a pena

n A∩B f n (A ∩ B)
= ,
nB f n (B)

e fazendo n tender ao infinito, chegamos à seguinte definição.

Definição 2.5.1 Sejam A e B dois eventos, com P (B)> 0. A probabilidade condicional


opcional de A sabendo B é o número

P (A ∩ B)
P (A | B) = . (2.5.1)
P (B)

Isso define claramente uma probabilidade conforme declarado na proposição a seguir.

Proposição 2.5.2 1) Seja (Ω, A, P) um espaço de probabilidade e B um evento de


Tem uma probabilidade estritamente positiva. Então, a aplicação de A em [0, 1], que A tem

https://translate.googleusercontent.com/translate_f 20/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
A sociedade P (A | B) define uma nova probabilidade em Ω, chamada probabilidade condicional
conhecendo B.

2) Se P (A)> 0 e P (B)> 0, temos

P (A | B) P (B) = P (A ∩ B) = P (B | A) P (A).

Prova. É claro que 0 ≤ P (A | B) ≤ 1. Além disso, as propriedades (2.3.3) e (2.3.4)


para P (· | B) provém das mesmas propriedades para P e das seguintes observações:
∩ = B = B e ( A n A n ) ∩ B = ∪ n (A n ∩ B). Além disso, se A e C são disjuntos, é
o mesmo vale para A ∩ B e C ∩ B. A afirmação (2) é óbvia. D

Page 27

2.5 - Condicionamento e independência 41.

Proposição 2.5.3 Fórmula de probabilidades compostas. Se A 1 , ..., A n são


eventos de Ω tais que P (A 1 ∩ A 2 ∩ ... ∩ A n - 1 )> 0, então

P (A 1 ∩ A 2 ∩ ... ∩ A n ) = P (A 1 ) P (A 2 | A 1 ) P (A 3 | A 1 ∩ A 2 ) ... P (A n | A 1 ∩ A 2 ∩ ... ∩ A n - 1 ).

(2.5.2)

Prova. A demonstração é feita por recorrência. Se n = 2, as fórmulas (2.5.1)


e (2.5.2) são os mesmos. Suponha que (2.5.2) seja verdadeiro para n - 1, e
B = A 1 ∩ A 2 ∩ ... ∩ A n - 1 . De acordo com (2.5.1), temos P (B ∩ A n ) = P (B) P (A n | B). Em
substituindo P (B) pelo seu valor dado por (2.5.2) por n - 1, obtemos (2.5.2)
para n. D

Proposição 2.5.4 Fórmula de probabilidades totais. Let (B i ) i∈N uma pontuação


finitos ou contáveis de eventos de such, de modo que P (B i )> 0 para cada i. Para tudo
A ∈ A, então temos

P (A) = ∑ i P (A ∩ B i ) = ∑ i P (A | B i ) P (B i ). (2.5.3)

Prova. Temos A = ∪ i∈I (A ∩ B i ). Por suposição, os conjuntos (A ∩ B i ) são


dois a dois disjuntos, e também P (A ∩ B i ) = P (A | B i ) P (B i ). Então você só precisa
dobra (2.3.4). D

Teorema 2.5.5 Fórmula de Bayes. Sob as mesmas premissas do procedimento


posição 2.5.4 e se P (A)> 0,

P (A | B i ) P (B i )
∈i ∈ N, P (B i | A) = . (2.5.4)
Σ j P (A | B j ) P (B j )

Prova. O denominador de (2.5.4) é P (A) de acordo com (2.5.3), enquanto (2.5.1)


implica
P (A ∩ B i )
P (B i | A) = = P (A | B i ) P (B i ) .
P (A) P (A)
D

Exemplo 2.5.6 Um indivíduo é sorteado aleatoriamente de uma população onde há


uma proporção de 10 a 4 do HIV positivo. Ele é submetido a um teste para detectar a
HIV positivo. Além disso, experimentos anteriores mostraram que
as probabilidades de obter um resultado positivo ao aplicar o teste se o indivíduo estiver

https://translate.googleusercontent.com/translate_f 21/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

Page 28

42. Capítulo 2 - Espaço de probabilidade

HIV positivo, ou se não for, são respectivamente iguais a 0, 99 (esta é a sensibilidade


do teste) e em 0,001 (0, 999 = 1 - 0,001 é a especificidade do teste). Sabendo que o teste
dá um resultado positivo, qual é a probabilidade de o indivíduo estar realmente
Seropositivo?

Solução: Considere os eventos A “o indivíduo é HIV positivo” e B “o teste


detecção dá um resultado positivo ”. Os dados fornecem P (A) = 10 -4 onde
P (A c ) = 0, 9999, P (B | A) = 0, 99 e P (B | A c ) = 0, 001. Encontramos então

P (A ∩ B)
P (A | B) = =
P (B)
P (B | A) P (A)
=
P (B | A) P (A) + P (B | A c ) P (A c )
0, 99 × 10 −4
= 0,09.
0, 99 × 10 −4 + 0,001 × 0, 9999

Observe que, diferentemente da intuição, essa probabilidade é pequena.

Exemplo 2.5.7 Classificamos os gerentes de portfólio em duas categorias,


treinados e outros. Quando um gerente experiente compra um valor de mercado para
seu cliente, podemos mostrar por um estudo preliminar que a probabilidade de que o curso
desse valor sobe é 0, 8. Se o gerente estiver mal informado, a probabilidade de que o
o curso desce é 0, 6. Também sabemos que se escolhermos aleatoriamente um gigante
Como gerente de portfólio, há 1 em 10 chances de ele ser um gerente experiente.
Um cliente escolhe aleatoriamente um gerente do diretório e pede que ele compre um
valor. Sabendo que o preço desse valor subiu, vamos procurar a probabilidade de
que o gerente está mal informado.

Solução: deixe M denotar o evento "o valor sobe" e eu o evento "o gerente é bom
informado ”. Pela fórmula das probabilidades totais, a probabilidade de o valor subir
vale a pena

P (M) = P (M | I) P (I) + P (M | I c ) P (I c ) = 0, 8 × 0, 1 + 0, 4 × 0, 9 = 0,44.

A fórmula de Bayes então dá

P (M | I c ) P (I c )
P (I c | M) = = 0,4 × 0,9 = 0,818.
P (M) 0,44

2.5.2 Independência

A noção de independência é absolutamente fundamental em probabilidade e veremos


a partir de todas as suas implicações na modelagem da aleatoriedade.

Page 29

2.5 - Condicionamento e independência 43

Eventos independentes

https://translate.googleusercontent.com/translate_f 22/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

Intuitivamente, dois eventos A e B são independentes se soubermos que A é


realizado não fornece nenhuma informação sobre a realização de B e vice-versa.

Suponha que a realização do evento B não tenha influência na realização


de A. Então, após n experimentos, a frequência empírica de realização de A será
aproximadamente o mesmo, sabendo ou não que B é realizado. Então, portanto,
f n (A | B) = f n (A∩B)fn (B) deve ser aproximadamente igual a f n (A). (O condicionamento
não altera as informações que temos sobre a experiência). Ao cruzar o limite em
o número de experiências, deduzimos as seguintes definições.

Se B é um evento de probabilidade estritamente positivo, A será considerado independente


de B se
P (A ∩ B)
P (A | B) = P (A) =
P (B)
Percebemos que essa fórmula é simétrica e a noção de independência é definida
finalmente da seguinte maneira.

Definição 2.5.8 Dois eventos aleatórios A e B de probabilidade estritamente positiva


são independentes se e somente se

P (A ∩ B) = P (A) P (B). (2.5.5)

A probabilidade de ver A realizado não depende da realização de B e vice-versa.

Observação 2.5.9 1) Esta noção é uma noção ligada à escolha da probabilidade P e


não é um conceito definido. Em particular, isso não tem nada a ver com o fato de que A
e B são disjuntos ou não. (Veja o Exemplo 2.5.10 2) abaixo).

2) Se P (A)> 0 e P (B)> 0, então

P (A ∩ B) = P (A) P (B) P⇒ P (A | B) = P (A) ⇐⇒ P (B | A) = P (B).

Exemplo 2.5.10 1. Um dado é jogado 3 vezes. Se A i é um evento que não depende


que o i-ésimo lançado, em seguida, A 1 , A 2 , A 3 são independentes.
2. Uma carta é sorteada aleatoriamente a partir de um baralho de 52 cartas. A = {o cartão é uma dama};
B = {o cartão é um coração}. É fácil ver que P (A) = 4 , P (B) = 13 ,
52 52
e P (A ∩ B) = P (a carta é a rainha de copas) = 1
52 = P (A) P (B). Então o
os eventos A e B são independentes para a probabilidade uniforme P.
3. Agora, suponha que o baralho de cartas seja adulterado. Seja Q o novo
probabilidade correspondente ao sorteio de cartas. Suponha que

1 1 1 1
Q (espadas) = , Q (outro cartão) = = .
2 2× 51 102

Page 30

44 Capítulo 2 - Espaço de probabilidade

Então
1 2 13
Q (A ∩ B) = = Q (A) Q (B) = .
102 51 × 102
Os eventos A e B não são independentes sob a probabilidade Q.

Deixamos em exercício (muito simples de verificar) a demonstração da proposta


a seguir, cujo resultado é completamente intuitivo.

Proposição 2.5.11 Se os eventos A e B são independentes, então o são


mesmo de A e B c , A c e B, A c e B c .

A noção de independência é generalizada para uma série finita ou infinita de eventos no


próximo caminho.

Definição 2.5.12 Uma sequência (A n ) n de eventos de (Ω, A, P) é considerada independente


se

https://translate.googleusercontent.com/translate_f 23/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
P (A i 1 ∩ ... ∩ A i k ) = P (A i 1 ) ... P (A i k )
para qualquer sequência finita (i 1 , ..., i k ) de números inteiros dois a dois distintos.

Essa definição é delicada. Por exemplo, para que a sequência (A, B, C) seja independente
dante, a propriedade deve ser verificada para todas as interseções de dois conjuntos e
a interseção dos 3 conjuntos. Não basta ter P (A∩B ∩C) = P (A) P (B) P (C).
Por exemplo, vamos fazer uma rolagem de dados com A = {1, 2, 3}, B = {2, 4, 6} e C =
{1, 2, 4, 5}. Temos P (A) = 1 2
, P (B) = 1 2
, P (C) = 2 3
. Então, nós temos bem
P (A ∩ B ∩ C) = P (A) P (B) P (C) mas P (A ∩ B) = P (A) P (B).

Nem é suficiente que os eventos sejam independentes dois a dois. Nós jogamos
Duas vezes em cara e coroa e consideramos os eventos A = {Face ao primeiro arremesso},
B = {Diante do segundo arremesso} e C = {ambos empates dão o mesmo resultado}.
Verificamos que esses eventos são dois a dois independentes, mas que a probabilidade
de sua interseção não é igual ao produto das probabilidades.

Experimentos aleatórios independentes e espaço de probabilidade produzido

Vamos considerar uma série de espaços de probabilidade ( , n , A n , P n ). Vimos que esses


espaços modelam experiências aleatórias. Gostaríamos de construir um espaço
probabilidade de contabilizar todas essas experiências independentes
outros.

Se tivermos apenas dois espaços (Ω 1 , A 1 , P 1 ) e (Ω 2 , A 2 , P 2 ), tomaremos


Ω = Ω 1 × Ω 2 , que forneceremos com a tribo do produto A = A 1 ⊗ A 2 . Essa tribo
Um produto 1 e A 2 é definida como o campo gerado pelos blocos A 1 × a 2 ,
A 1 ∈ A 1 , A 2 ∈ A 2 (consulte a definição 2.3.3). Definimos P nos blocos de A por

Page 31

2.5 - Condicionamento e independência 45

P (A 1 × Um 2 ) = P 1 (A 1 ) P 2 (O 2 ). Podemos mostrar que isso é suficiente para caracterizar um


probabilidade em A, que é chamada de probabilidade do produto, denotada P 1 ⊗ P 2 .

Podemos generalizar essa noção de espaço de probabilidade do produto e considerar


o produto (contáveis) cartesiano Π = Ω n Ω n , ⊗ A = N A N onde ⊗ n A n indica o mais
pequena tribo de Ω gerada pelos produtos cartesianos finitos de elementos das tribos
coordenadas, contendo todos os conjuntos do formulário

A 1 × A 2 × ... × A k × Ω k + 1 × Ω k + 2 × ..., A i ∈ A i , k = 1, 2, 3, ...

É possível mostrar por um teorema geral da teoria das medidas que existe
uma única probabilidade P em (Ω, A) que satisfaça

P (A 1 × A 2 × ... × A k × Ω k + 1 × Ω k + 2 × ...) = Π k
i = 1 P i (A i )

para todos k = 1, 2, ... e A i ∈ A i . Essa probabilidade torna, assim, a


experiências aleatórias correspondentes a cada espaço ( , n , A n , P n ).

Em particular, ocupando todos os espaços de coordenadas iguais, isso nos permitirá


modelar a mesma experiência repetida um número infinito (contável) de vezes, então
independente e nas mesmas condições.

Exemplo 2.5.13 Considere lançamentos sucessivos e independentes da mesma moeda


de dinheiro, de modo que a probabilidade de desenhar Face seja igual a p ∈] 0, 1 [. Seja F n
o evento “Diante do n-ésimo lançamento” e P n o evento “Pilha no n-ésimo lançamento”. Let T
a variável aleatória que descreve o primeiro rolo para o qual uma pilha é obtida. Então
pela independência dos arremessos, temos para k ∈ N,

https://translate.googleusercontent.com/translate_f 24/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
P (T = k) = P (F 1 ∩ F 2 ∩ ... ∩ F k - 1 ∩ P k )
= P (Face) k - 1 P (Pilha) = p k - 1 (1 - p).

Note que

P (T <+ ∞) = ∑ P (T = k) = 1,
k≥1

portanto P (T = + ∞) = 0. A lei de T é chamada lei geométrica do parâmetro p.

Veremos agora um famoso teorema, no qual fundamentalmente


a noção de independência, que será muito importante, especialmente para
teoremas de convergência (cf. capítulo 5).

Page 32

46. Capítulo 2 - Espaço de probabilidade

2.5.3 O lema de Borel-Cantelli

Vamos considerar uma sequência (A n ) n de eventos aleatórios. Nós definimos o todo


lim sup n A n como o conjunto

lim sup A n = ∩ p ∪ n≥p An.


n

Note que

ω ∈ lim sup An ∀p, ∃n ≥ p, de modo que ω ∈ A n


n

Belongs ω pertence a um infinito de A n


∑n 1 A n (ω) = + ∞.

Da mesma forma,

ω / ∈ lim sup An Belongs ω pertence a no máximo um número finito de A n .


n

Teorema 2.5.14 Seja (A n ) n uma sequência de eventos de A.


• Se a série ∑ n P (A n ) <+ ∞, então P (lim sup n A n ) = 0, ou seja, P-
quase certamente, há no máximo um número finito de An que são realizados.
• Se além disso a sequência (A n ) n for independente, então

∑ n P (A n ) = + ∞ = ⇒ P (lim A n ) = 1. (2.5.6)
n

Nesse caso, P - quase certamente, um infinito de A n é realizado.

É claro que essa última propriedade não é mais verdadeira no caso em que a sequência não é
não é independente. Basta convencer-se de que todos os A n são iguais a um
mesmo evento A de probabilidade P (A) 0] 0, 1 [.

A primeira parte deste lema é uma ferramenta valiosa para demonstrar que uma propriedade
é verdade P-quase certamente. Veremos um exemplo na prova da lei
forte número grande, indicado no ponto 4.2. A segunda parte do lema
caracteriza totalmente, no caso independente, o fato de que P (lim sup n A n ) vale 0 ou
1 de acordo com a convergência ou divergência da série do termo geral P (A n ).

Prova. Antes de tudo, observe que

P (lim sup A n ) = lim A n ) ≤ lim p ↓ ∑ P (A n ), (2.5.7)

https://translate.googleusercontent.com/translate_f 25/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
n p↓ P ( ≥ n≥p n≥p

Page 33

2.6 - Exercícios no capítulo 2 47

onde lim ↓ indica o limite de uma sequência decrescente.

Se a série ∑ n P (A n ) for convergente, o restante desta série tenderá a 0 e (2.5.7)


implica que P (lim sup n A n ) = 0.

Suponha agora que A n são independentes e que as séries ∑ n P (A n )


diverge. Seja m um número inteiro. Nós temos

P (∪ mi= p A i ) = 1 - P (∩ m graças a independência


i = p A ci ) = 1 - Πm i=pP (A c i )
-∑ m P (A i )
=1-Πm i=p

i = p (1 - P (A i )) ≥ 1 - e

graças à desigualdade 1 - x ≤ e −x para x ≥ 0. Assim,

-∑ P (A i )
P (∪ ∞ ∞ i=p
=1
i=pAi) ≥1-e

e finalmente concluímos que para todos os p, P (∪ ∞


i=pAi) = 1, o que implica em última análise
que P (lim sup n A n ) = 1. D

Aplicação impactante: considere uma série de partes independentes do Pile


ou Face, a probabilidade da aparência de uma pilha ser igual a p ∈] 0, 1 [. Seja A uma "palavra"
de comprimento que escolhi a priori, ou seja, uma sequência de termos em que cada letra é P
ou F. Deixe A 1 denotar o evento que consiste no fato de que a palavra é realizada no
as primeiras partes, por 2 a eventos com o fato de que a palavra é cumprida em
as seguintes peças, etc. Os eventos A 1 , A 2 , ..., são independentes e para tudo
n ≥ 1, temos P (A n ) = P (A 1 )> 0, portanto, ∑ n P (A n ) = + ∞. Segue-se do lema
de Borel-Cantelli (segunda asserção), que com uma probabilidade igual a 1, a palavra A é
executa um número infinito de vezes durante o jogo.O mesmo raciocínio mostra que, se um
tipos de macaco aleatoriamente em uma máquina de escrever, então, com uma probabilidade igual a 1,
a palavra ABRACADABRA ocorrerá um número infinito de vezes durante a digitação. É
true para qualquer texto, por isso também digitará "A LA
PESQUISA POR TEMPO PERDIDO ".

2.6 Capítulo 2 Exercícios

EXERCÍCIO 2.6.1 1) Entre n pessoas presentes (n ≤ 365), qual é a probabilidade


para que pelo menos duas pessoas tenham nascido no mesmo dia? (Vamos concordar em
não leve em consideração as pessoas nascidas em 29 de fevereiro). Quanto vale essa probabilidade
para n = 4, n = 16, n = 22, n = 40, n = 64?

Page 34

48. Capítulo 2 - Espaço de probabilidade

https://translate.googleusercontent.com/translate_f 26/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy
2) Determine n min para que a probabilidade de nascer pelo menos duas pessoas
o mesmo dia é maior que 0, 5. Podemos usar a fórmula de Stirling m! ~ H → ∞
√2πm m + 1
2e - m .

EXERCÍCIO 2.6.2 Mostre a fórmula de Poincaré:


n

P (∪ n ∑ (−1) k - 1 p k (2.6.1)
m=1Am) = p 1 - p 2 + ... + (−1) n - 1 p n =
k=1

onde

pk= ∑ P (A i 1 ∩ ... ∩ A i k ). (2.6.2)


1≤i 1 <... <i k ≤n

EXERCÍCIO 2.6.3 Um portador de cartas possui n cartas endereçadas a n destinatários separados.


Ele está completamente bêbado e aleatoriamente publica uma letra por caixa.

Qual é a probabilidade de obter a distribuição correta?

Qual a probabilidade de que pelo menos uma carta chegue ao endereço certo?

Qual a probabilidade de que nenhuma carta chegue ao destino correto?

Qual é o número d n de diferentes maneiras de postar as letras para


que ninguém chega ao destino?

EXERCÍCIO 2.6.4 Let a 0] 0, 1 [. Mostre que a sequência de números definida por p n =


(1 - a) a n - 1 caracteriza uma probabilidade em N ∗ .

EXERCÍCIO 2.6.5 O Sr. e a Sra. Barbétipoil têm dois filhos, meninos ou meninas, os
4 configurações são equivalentes. Qual é a probabilidade de os dois filhos
Barbétipoil sejam meninas,
1. sem mais informações,
2. sabendo que o mais velho é uma menina,
3. saber que um dos dois filhos é uma menina.

EXERCÍCIO 2.6.6 Modelo Hardy-Weinberg. Os caracteres hereditários em certos


certos organismos, como os humanos, são transportados por pares de genes. No
No caso mais simples, cada gene pode assumir duas formas chamadas alelos, A e a. Estes
alelos são encontrados em uma população parental com as proporções peq. Como
Aa e aA não são discerníveis, existem três possíveis genótipos, AA, aa, Aa. Supomos
postulam que a reprodução pode ocorrer entre dois indivíduos da
população, independentemente dos genes considerados. Cada pai transmite um gene

Page 35

2.6 - Exercícios no capítulo 2 49.

do seu genótipo de maneira equiprobável, os dois genes assim obtidos constituindo a


genótipo descendente.

Calcule a probabilidade dos diferentes genótipos na próxima geração. Mostrar


que a proporção de cada um dos alelos permanece a mesma na segunda geração.

EXERCÍCIO 2.6.7 A hemofilia é transmitida pela mãe. A rainha carrega o gene


hemofilia com probabilidade de 0, 5. Se ela é portadora, cada príncipe terá
uma em duas chances de sofrer desta doença. A rainha teve 3 filhos não hemofílicos.
Qual a probabilidade de transportar o gene? Se um quarto príncipe nascer,
qual a probabilidade de ele ter hemofilia?

EXERCÍCIO 2.6.8 O Jogo de 3 Portas é um game show popular (Vamos fazer uma
transmissão) nos anos 70 nos EUA. Três portas A, B, C estão fechadas. Atrás
https://translate.googleusercontent.com/translate_f 27/28
8/3/2020 1.6 - História 15 areia no estudo de todos os modelos dinâmicos. Após o trabalho fundamental de Kolmogorov, Lévy

um deles é uma Ferrari, atrás dos outros uma cabra.


• O jogador escolhe uma porta, diga A.
• O apresentador, que sabe onde está o carro, informa que ele não é
atrás da porta B e oferece a ele a possibilidade de revisar sua escolha (ou seja, escolher
porta C).
O jogador tem interesse em revisar sua escolha?

EXERCÍCIO 2.6.9 Um simples problema demográfico. Seja ∈] 0, 1 [. Seja p k o


probabilidade de uma família ter k filhos. Assumimos que

p 0 = p 1 = a; p k = (1 - 2a) 2 - (k - 1) , ∀k ≥ 2,

e que P (menina) = P (menino) = 1


2.

Colocamos: E n : “família e filhos”, F n : “n meninas”, G n : “n meninos”.

1) Qual a probabilidade de uma família com duas filhas ter dois filhos
somente?

2) Qual é a probabilidade de uma família ter dois filhos sabendo que eles têm dois
meninas?

EXERCÍCIO 2.6.10 Uma moeda é lançada indefinidamente, a probabilidade


aparência de um rosto igual a p. Seja A k , para k inteiro, o evento de acordo com
que pelo menos "k Faces" consecutivos aparecem durante 2 k lançamentos numerados ,
2 k + 1, ···, 2 k + 1 - 1.

Mostre que P (lim sup k A k ) vale 0 ou 1, dependendo de p < 1 . Como


2 ou que p ≥ 1 2
você interpreta esse resultado?

Page 36

50. Capítulo 2 - Espaço de probabilidade

EXERCÍCIO 2.6.11 Mostre que não há probabilidade de P (N, P (N))


que P (kN) = 1
k para qualquer número inteiro k, em que kN indica o conjunto de vários números inteiros
de k.

https://translate.googleusercontent.com/translate_f 28/28