Escolar Documentos
Profissional Documentos
Cultura Documentos
3
Variáveis aleatórias e suas distribuições
Neste capítulo, apresentamos variáveis aleatórias, um conceito extremamente útil que simplifica a
notação e expande nossa capacidade de quantificar incertezas e resumir os resultados de experimentos.
As variáveis aleatórias são essenciais ao longo do restante deste livro e em toda a estatística, por isso
é crucial pensar no que elas significam, tanto intuitivamente quanto matematicamente.
Para ver por que razão a nossa notação actual pode rapidamente tornar-se difícil de manejar, considere
novamente o problema da ruína do jogador do Capítulo 2. Neste problema, podemos estar muito
interessados em quanta riqueza cada jogador possui num determinado momento. Portanto, poderíamos
criar uma notação como deixar Ajk ser o evento em que o jogador A tem exatamente j dólares após k
rodadas e, de forma semelhante, definir um evento Bjk para o jogador B, para todos j e k.
Isso já é muito complicado. Além disso, também podemos estar interessados em outras quantidades,
como a diferença em suas riquezas (o jogador A menos o jogador B) após k rodadas, ou a duração do
jogo (o número de rodadas até que um jogador vá à falência). Expressar o evento “a duração do jogo
é de r rodadas” em termos de Ajk e Bjk envolveria uma longa e estranha sequência de uniões e
interseções.
E então, e se quisermos expressar a riqueza do jogador A como o montante equivalente em euros e
não em dólares? Podemos multiplicar um número em dólares por uma taxa de câmbio, mas não
podemos multiplicar um evento por uma taxa de câmbio.
Em vez de ter uma notação complicada que obscurece a forma como as quantidades de interesse
estão relacionadas, não seria bom se pudéssemos dizer algo como o seguinte?
A noção de variável aleatória nos permitirá fazer exatamente isso! Porém, precisa ser introduzido com
cuidado, para torná-lo conceitual e tecnicamente correto.
Às vezes é dada uma definição de “variável aleatória” que é apenas parafraseada
103
Machine Translated by Google
versão de “uma variável aleatória é uma variável que assume valores aleatórios”, mas uma tentativa tão
débil de definição falha em dizer de onde vem a aleatoriedade. Nem nos ajuda a derivar propriedades
de variáveis aleatórias: estamos familiarizados com o trabalho com equações algébricas como x = 1,
2
mas quais são as operações matemáticas 2válidas
+e se x e y são variáveis aleatórias? Para tornar precisa
a noção de variável aleatória, definimos-a como uma função que mapeia o espaço amostral para a reta
real. (Veja o apêndice matemático para revisão de alguns conceitos sobre funções.)
s1 s2 s3
X
s4 s5 s6 0 1 4
variável aleatória mapeia o espaço amostral na reta real. O rv X representado aqui é definido em um espaço amostral
com 6 elementos e tem valores possíveis 0, 1 e 4. A aleatoriedade vem da escolha de uma pedra aleatória de acordo
com a função de probabilidade P para o espaço amostral.
Definição 3.1.1 (Variável aleatória). Dado um experimento com espaço amostral S, uma variável aleatória
(rv) é uma função do espaço amostral S para os números reais R. É comum, mas não obrigatório,
denotar variáveis aleatórias por letras maiúsculas.
Assim, uma variável aleatória X atribui um valor numérico X(s) a cada resultado possível s do
experimento. A aleatoriedade vem do fato de termos um experimento aleatório (com probabilidades
descritas pela função de probabilidade P); o mapeamento em si é determinístico, conforme ilustrado na
Figura 3.1. O mesmo rv é mostrado de forma mais simples no painel esquerdo da Figura 3.2, onde
inscrevemos os valores dentro das pedras.
Esta definição é abstrata mas fundamental; uma das habilidades mais importantes a serem desenvolvidas
ao estudar probabilidade e estatística é a capacidade de alternar entre ideias abstratas e exemplos
concretos. Da mesma forma, é importante trabalhar no reconhecimento do padrão ou estrutura essencial
de um problema e como ele se conecta
Machine Translated by Google
para problemas que você estudou anteriormente. Discutiremos frequentemente histórias que envolvem
atirar moedas ou tirar bolas de urnas porque são cenários simples e convenientes de trabalhar, mas
muitos outros problemas são isomórficos: têm a mesma estrutura essencial, mas sob uma aparência
diferente.
Exemplo 3.1.2 (Lançamento de moeda). Considere um experimento em que lançamos duas vezes
uma moeda honesta. O espaço amostral consiste em quatro resultados possíveis: S = {HH, HT, TH,
TT}. Aqui estão algumas variáveis aleatórias neste espaço (para praticar, você pode pensar em
algumas de sua preferência). Cada RV é um resumo numérico de algum aspecto do experimento.
• Seja X o número de Caras. Esta é uma variável aleatória com valores possíveis 0, 1 e 2. Vista como
uma função, X atribui o valor 2 ao resultado HH, 1 aos resultados HT e TH e 0 ao resultado T T. Ou
seja,
• Seja I 1 se o primeiro lançamento der Cara e 0 caso contrário. Em seguida, atribuo o valor 1 aos resultados
HH e HT e 0 aos resultados TH e T T. Este rv é um exemplo do que é chamado de variável aleatória
indicadora, pois indica se o primeiro lançamento dá cara, usando 1 para significar “ sim” e 0 para significar
“não”.
Também podemos codificar o espaço amostral como {(1, 1),(1, 0),(0, 1),(0, 0)}, onde 1 é o código para
Cara e 0 é o código para Coroa. Então podemos fornecer fórmulas explícitas para X, Y, I:
onde, para simplificar, escrevemos X(s1, s2) como significando X((s1, s2)), etc.
Para a maioria das RVs que consideraremos, é tedioso ou inviável escrever uma fórmula explícita dessa
maneira. Felizmente, geralmente é desnecessário fazer isso, já que (como vimos neste exemplo) existem
outras maneiras de definir um rv, e (como veremos ao longo deste livro) existem muitas maneiras de estudar
as propriedades de um rv a não ser fazendo cálculos com uma fórmula explícita para o que ele mapeia cada
resultado.
Como nos capítulos anteriores, para um espaço amostral com um número finito de resultados
podemos visualizar os resultados como seixos, com a massa de um seixo correspondendo à sua
probabilidade, de modo que a massa total dos seixos seja 1. Uma variável aleatória simplesmente
rotula cada pedra com um número. A Figura 3.2 mostra duas variáveis aleatórias
Machine Translated by Google
1 0 1 5.3 -2 2
s1 s2 s3 s1 s2 s3
0 4 1 9 3 0
s4 s5 s6 s4 s5 s6
FIGURA 3.2
Duas variáveis aleatórias definidas no mesmo espaço amostral.
Existem dois tipos principais de variáveis aleatórias usadas na prática: rvs discretas e
rvs contínuos Neste capítulo e no próximo, nosso foco está nos rvs discretos. Os rvs contínuos são
apresentados no Capítulo 5.
Definição 3.2.1 (Variável aleatória discreta). Dizemos que uma variável aleatória X é
discreto se houver uma lista finita de valores a1, a2, . . . , uma ou uma lista infinita de valores
a1, a2, . . . tal que P(X = aj para algum j) = 1. Se X é um rv discreto, então o
Machine Translated by Google
conjunto finito ou contável infinito de valores x tal que P(X = x) > 0 é chamado de suporte de X.
Dada uma variável aleatória, gostaríamos de poder descrever seu comportamento usando a linguagem da
probabilidade. Por exemplo, podemos querer responder a questões sobre a probabilidade de que o VR caia
num determinado intervalo: se L é o rendimento vitalício de um graduado universitário dos EUA escolhido
aleatoriamente, qual é a probabilidade de que L exceda um milhão de dólares? Se M for o número de grandes
terremotos na Califórnia nos próximos cinco anos, qual é a probabilidade de M ser igual a 0?
A distribuição de uma variável aleatória fornece as respostas a estas questões; ela especifica as
probabilidades de todos os eventos associados ao rv, como a probabilidade de ser igual a 3 e a probabilidade
de ser pelo menos 110. Veremos que existem várias maneiras equivalentes de expressar a distribuição de
um rv Para um rv discreto, a maneira mais natural de fazer isso é com uma função de massa de probabilidade,
que definimos agora.
3.2.3. Ao escrever P(X = x), estamos usando X = x para denotar um evento, consistindo em todos os
resultados s aos quais X atribui o número x. Este evento também é escrito como {X = x}; formalmente, {X =
x} é definido como {s ÿ S : X(s) = x}, mas escrever {X = x} é mais curto e mais intuitivo. Voltando ao Exemplo
3.1.2, se X é o número de caras em dois lançamentos justos de moeda, então {X = 1} consiste nos resultados
amostrais HT e TH, que são os dois resultados aos quais X atribui o número 1. Uma vez que {HT, TH} é um
subconjunto do espaço amostral, é um evento. Portanto, faz sentido falar sobre P(X = 1), ou mais
genericamente, P(X = x). Se {X = x} fosse outra coisa senão um evento, não faria sentido calcular sua
probabilidade! Não faz sentido escrever “P(X)”; só podemos calcular a probabilidade de um evento, não de
um RV
Exemplo 3.2.4 (Continuação do lançamento da moeda). Neste exemplo, encontraremos os PMFs de todas
as variáveis aleatórias no Exemplo 3.1.2, o exemplo com dois lançamentos justos de moeda.
Aqui estão os RVs que definimos, juntamente com seus PMFs:
o PMF de Y é
Observe que X e Y têm o mesmo PMF (ou seja, pX e pY são a mesma função)
mesmo que X e Y não sejam o mesmo rv (ou seja, X e Y são dois valores diferentes
funções de {HH, HT, TH, TT} para a linha real).
1,0
1,0
PMF
PMF
PMF
0,5
0,5
0,5
0,0
0,0
0,0
ÿ1 0 1 2 3 ÿ1 0 1 2 3 ÿ1 0 11 2 3
x e eu
FIGURA 3.3
Da esquerda para a direita: PMFs , e eu, com X o número de caras em duas moedas justas
de X, Y lançamentos, Y o número de Coroas e I o indicador de Caras no primeiro lançamento.
Os PMFs de X, Y , e I estão representados na Figura 3.3. Barras verticais são desenhadas para
facilitam a comparação das alturas de diferentes pontos.
Machine Translated by Google
Exemplo 3.2.5 (Soma dos lançamentos de dados). Lançamos dois dados justos de 6 lados. Seja T = X + Y
será o total dos dois lançamentos, onde X e Y são os lançamentos individuais. A amostra
O espaço deste experimento tem 36 resultados igualmente prováveis:
Por exemplo, 7 dos 36 resultados são mostrados na tabela abaixo, juntamente com os
valores correspondentes de X, Y e T. Após a realização do experimento, observamos
valores para X e Y e então
, o valor observado de T é a soma desses valores.
s XYX + Y
(1, 2) 1 (1, 2 3
6) 1 6 (2, 5) 2 (3, 1) 7
3 1 (4, 3) 4 5 7
3 (5, 4) 5 4 (6, 6) 6 4
6 7
9
12
P(X = j) = 1/6,
distribuição de 6 (e P(X = j) = 0 caso contrário); dizemos que X tem uma Uni-discreta para j = 1, 2,. . . ,
formulário em 1, 2,. . . , 6. Da mesma forma, Y também é uniforme discreto em 1, 2,. . . , 6.
Observe que Y tem a mesma distribuição que X, mas não é a mesma variável aleatória
como X. Na verdade, temos
P(X = Y) = 6/36 = 1/6.
Para todos os outros valores de t, P(T = t) = 0. Podemos ver diretamente que o suporte de T
Machine Translated by Google
é {2, 3,. . . , 12} apenas olhando os totais possíveis para dois dados, mas como verificação,
Observe que
•
0,15
• •
• •
PMF
0,10
• •
• •
0,05
• •
0,00
2 3 4 5 6 7 8 9 10 11 12
t
FIGURA 3.4
PMF da soma de dois lançamentos de dados.
O PMF de T está representado graficamente na Figura 3.4; tem uma forma triangular e a simetria
mencionado acima é muito visível.
Exemplo 3.2.6 (Crianças num agregado familiar nos EUA). Suponha que escolhemos uma família
aleatoriamente nos Estados Unidos. Seja X o número de filhos no escolhido
doméstico. Como X só pode assumir valores inteiros, é um rv discreto. A probabilidade de X assumir o
valor x é proporcional ao número de domicílios em
os Estados Unidos com x filhos.
Utilizando dados do Inquérito Social Geral de 2010 [23], podemos aproximar a proporção de agregados
familiares com 0 filhos, 1 filho, 2 filhos, etc., e assim aproximar o PMF de X, que está representado na
Figura 3.5. .
Teorema 3.2.7 (PMFs válidos). Seja X um rv discreto com suporte x1, x2, . . .
(suponha que esses valores sejam distintos e, para simplificar a notação, que o suporte seja
contávelmente infinito; os resultados análogos são válidos se o suporte for finito). O PMF pX
de X deve satisfazer os dois critérios a seguir:
0,5
0,4
0,3 •
PMF
0,2
•
• •
0,1
•
• • • •
0,0
0 1 2 3 4 5 6 7 8
x
FIGURA 3.5
PMF do número de crianças em um domicílio nos EUA selecionado aleatoriamente.
Prova. O primeiro critério é verdadeiro, pois a probabilidade não é negativa. A segunda é verdade
já que X deve assumir algum valor, e os eventos {X = xj} são disjuntos, então
ÿ
ÿ ÿ
ÿ
P(X = xj ) = P {X = xj} = P(X = x1 ou X = x2 ou. . .) = 1.
j=1
ÿj=1 ÿ
Por outro lado, se valores distintos x1, x2, . . . são especificados e temos uma função que
satisfaz os dois critérios acima, então esta função é o PMF de algum rv; nós vamos mostrar
como construir tal RV no Capítulo 5.
Exemplo 3.2.8. Voltando ao Exemplo 3.2.5, seja T a soma de dois lançamentos justos de dados.
Já calculamos o PMF de T. Agora suponha que estamos interessados no
probabilidade de que T esteja no intervalo [1, 4]. Existem apenas três valores no intervalo
[1, 4] que T pode assumir, ou seja, 2, 3 e 4. Conhecemos a probabilidade de cada um dos
esses valores do PMF de T, então
Algumas distribuições são tão onipresentes em probabilidade e estatística que têm seus próprios nomes.
Apresentaremos essas distribuições nomeadas ao longo do livro, começando com um caso muito simples,
mas útil: um rv que pode assumir apenas dois valores possíveis, 0 e 1.
Definição 3.3.1 (distribuição Bernoulli). Diz-se que um rv X tem a distribuição de Bernoulli com parâmetro p
se P(X = 1) = p e P(X = 0) = 1 ÿ p, onde 0 < p < 1. Escrevemos isso como X ÿ Bern(p ). O símbolo ÿ é lido
como “é distribuído como”.
Qualquer rv cujos valores possíveis são 0 e 1 tem uma distribuição Bern(p), com p a probabilidade de o rv
ser igual a 1. Este número p em Bern(p) é chamado de parâmetro da distribuição; determina qual
distribuição específica de Bernoulli temos.
Assim, não existe apenas uma distribuição de Bernoulli, mas sim uma família de distribuições de Bernoulli,
indexadas por p. Por exemplo, se X ÿ Bern(1/3), seria correto, mas incompleto, dizer “X é Bernoulli”; para
especificar completamente a distribuição de X, devemos dizer seu nome (Bernoulli) e seu valor de
parâmetro (1/3), que é o ponto da notação X ÿ Bern(1/3).
Qualquer evento tem um rv de Bernoulli que está naturalmente associado a ele, igual a 1 se o evento
acontecer e 0 caso contrário. Isso é chamado de variável aleatória indicadora do evento; veremos que tais
RVs são extremamente úteis.
Definição 3.3.2 (Variável aleatória indicadora). A variável aleatória indicadora de um evento A é o rv que é
igual a 1 se A ocorrer e 0 caso contrário. Denotaremos o indicador rv de A por IA ou I(A). Observe que IA
ÿ Bern(p) com p = P(A).
Muitas vezes imaginamos os RVs de Bernoulli usando o lançamento de moeda, mas esta é apenas uma
linguagem conveniente para discutir a seguinte história geral.
História 3.3.3 (julgamento de Bernoulli). Um experimento que pode resultar em “sucesso” ou “fracasso”
(mas não em ambos) é chamado de ensaio de Bernoulli. Uma variável aleatória de Bernoulli pode ser
considerada o indicador de sucesso em uma tentativa de Bernoulli: ela é igual a 1 se ocorrer sucesso e 0
se ocorrer falha na tentativa.
História 3.3.4 (distribuição binomial). Suponha que sejam realizadas n tentativas de Bernoulli independentes,
cada uma com a mesma probabilidade de sucesso p. Seja X o número de sucessos. A distribuição de X é
chamada de distribuição binomial com parâmetros n e p. Escrevemos X ÿ Bin(n, p) para significar que X
tem a distribuição Binomial com parâmetros n e p, onde n é um número inteiro positivo e 0 < p < 1.
Observe que definimos a distribuição Binomial não pelo seu PMF, mas por uma história
Machine Translated by Google
sobre o tipo de experimento que poderia dar origem a uma variável aleatória com distribuição binomial. Todas
as distribuições mais famosas em estatística têm histórias que explicam por que são tão frequentemente
usadas como modelos de dados ou como blocos de construção para distribuições mais complicadas.
Pensar nas distribuições nomeadas antes de mais nada em termos de suas histórias traz muitos benefícios.
Facilita o reconhecimento de padrões, permitindo-nos ver quando dois problemas são essencialmente
idênticos em estrutura; muitas vezes leva a soluções mais limpas que evitam completamente os cálculos de
PMF; e nos ajuda a entender como as distribuições nomeadas estão conectadas entre si. Aqui fica claro que
Bern(p) é a mesma distribuição que Bin(1, p): o Bernoulli é um caso especial do Binomial.
n k Aproximadamente
P(X = k) = p (1 ÿ p)
k
3.3.6. Para economizar escrita, muitas vezes fica implícito que um PMF é zero sempre que não for
especificado como diferente de zero, mas em qualquer caso é importante entender qual é o suporte de uma
variável aleatória e uma boa prática para verificar se os PMFs são válidos . Se dois RVs discretos tiverem o
mesmo PMF, eles também deverão ter o mesmo suporte.
Portanto, às vezes nos referimos ao suporte de uma distribuição discreta; este é o suporte de qualquer RV
com essa distribuição.
Prova. Um experimento que consiste em n tentativas independentes de Bernoulli produz uma sequência de
sucessos e fracassos. A probabilidade de qualquer sequência específica de k suceder
k n-k .
(1 ÿ p) pois só Há
processos e n ÿ k falhas são p tais sequências, precisamos selecionar
como onde estão os sucessos.
Portanto, sendo X o número de
sucessos,
n k Aproximadamente
P(X = k) = p (1 ÿ p)
k
para k = 0, 1,. . . , n e P(X = k) = 0 caso contrário. Este é um PMF válido porque não é negativo e soma 1 pelo
teorema binomial.
A Figura 3.6 mostra gráficos do PMF Binomial para vários valores de n e p. Observe que o PMF da distribuição
Bin(10, 1/2) é simétrico em relação a 5, mas quando a probabilidade de sucesso não é 1/2, o PMF é distorcido.
Para um número fixo de tentativas n, X tende a ser maior quando a probabilidade de sucesso é alta e menor
quando a probabilidade de sucesso é baixa, como seria de esperar da história da distribuição Binomial.
Lembre-se também de que em qualquer gráfico PMF, a soma das alturas das barras verticais deve ser 1.
Usamos a História 3.3.4 para encontrar o Bin(n, p) PMF. A história também nos dá uma prova direta do fato
de que se X é binomial, então n ÿ X também é binomial.
Machine Translated by Google
0,4
•
0,3
0,3
•
• •
PMF
PMF
• •
0,2
• • 0,2
0,1
0,1
•
• •
• • •
0,0
0,0
• • ••••••
0 2 4 6 8 10 0 2 4 6 8 10
x x
0,4
0,3
0,3
••
••
PMF
PMF
0,2
0,2
• •
• •
0,1
0,1
•
•
• •
• •
0,0
0,0
••• ••••
0 2 4 6 8 10 0 2 4 6 8 10
x x
FIGURA 3.6
Alguns PMFs binomiais. No canto inferior esquerdo, plotamos o Bin(100, 0.03) PMF entre 0
e apenas 10, pois a probabilidade de mais de 10 sucessos é próxima de 0.
Machine Translated by Google
Prova. Usando a história do Binômio, interprete X como o número de sucessos em n tentativas independentes
de Bernoulli. Então n ÿ X é o número de falhas nessas tentativas. Trocando os papéis de sucesso e fracasso,
temos n ÿ X ÿ Bin(n, q).
Alternativamente, podemos verificar que nÿX tem o PMF Bin(n, q). Seja Y = n ÿ X. O PMF de Y é
n n-kk pq n kn-k qp
= ,
P(Y = k) = P(X = n ÿ k) =
n-k k
para k = 0, 1,. . . , n.
Corolário 3.3.8. Seja X ÿ Bin(n, p) com p = 1/2 e n par. Então a distribuição de X é simétrica em relação a n/2,
no sentido de que P(X = n/2 + j) = P(X = n/2 ÿ j) para todos os inteiros não negativos j.
para todos os inteiros não negativos k. Deixando k = n/2 + j, segue-se o resultado desejado. Isso explica por
que o PMF Bin(10, 1/2) é simétrico em relação a 5 na Figura 3.6.
Exemplo 3.3.9 (continuação do lançamento da moeda). Voltando ao Exemplo 3.1.2, agora sabemos que X ÿ
Bin(2, 1/2), Y ÿ Bin(2, 1/2) e I ÿ Bern(1/2). Consistente com o Teorema 3.3.7, X e Y = 2 ÿ X têm a mesma
distribuição, e consistente com o Corolário 3.3.8, a distribuição de X (e de Y ) é simétrica em relação a 1.
3.4 Hipergeométrico
Se tivermos uma urna cheia com w bolas brancas e b bolas pretas, então retirar n bolas da urna com reposição
produz uma distribuição Bin(n, w/(w + b)) para o número de bolas brancas obtidas em n tentativas, já que os
sorteios são tentativas de Bernoulli independentes, cada uma com probabilidade w/(w+b) de sucesso. Se, em
vez disso, amostrarmos sem reposição, como ilustrado na Figura 3.7, então o número de bolas brancas segue
uma distribuição hipergeométrica.
História 3.4.1 (Distribuição hipergeométrica). Considere uma urna com w bolas brancas e b bolas pretas.
Retiramos aleatoriamente n bolas da urna sem reposição, de modo que todas as amostras sejam igualmente
prováveis. Seja X ow+b
número de bolas brancas na amostra. Então diz-se que X tem a distribuição hipergeométrica
n
com parâmetros w, b e n; denotamos isso por X ÿ HGeom(w, b, n).
Machine Translated by Google
hipergeométrica. Uma urna contém w = 6 bolas brancas e b = 4 bolas pretas. Amostramos n = 5 sem reposição. O
número X de bolas brancas na amostra é hipergeométrico; aqui observamos X = 3.
Tal como acontece com a distribuição binomial, podemos obter o PMF da distribuição
hipergeométrica a partir da história.
bknÿk w+b
P(X = k) = ,
n
Prova. Para obter P(X = k), primeiro contamos o número de maneiras possíveis de retirar
exatamente k bolas brancas e n ÿ k bolas pretas da urna (sem distinguir entre diferentes ordenações
para obter o mesmo conjunto de bolas). Se k > w ou n ÿ k > b, então o empate é impossível. Caso
b
contrário, existem n ÿ k maneiras de desenhar k branco eEm
k
w+b
n ÿ k bolas pretas pela regra da multiplicação, e há um total de maneirasn
de tirar n bolas. Como
todas as amostras são igualmente prováveis, a definição ingénua de probabilidade dá
Em
bknÿk w+b
P(X = k) =
n
para inteiros k satisfazendo 0 ÿ k ÿ w e 0 ÿ nÿk ÿ b. Este PMF é válido porque pela identidade de
w+b
somado a todos os k, é igual a 1.5.3), então n
Vandermonde (numerador do exemplo,
o PMF soma 1.
A distribuição hipergeométrica surge em muitos cenários que, superficialmente, têm pouco em comum com as
bolas brancas e pretas numa urna. A estrutura essencial da história hipergeométrica é que os itens de uma
população são classificados usando dois conjuntos de etiquetas: na história da urna, cada bola é branca ou
preta (este é o primeiro conjunto de etiquetas), e cada bola é amostrada ou não amostrado (este é o segundo
conjunto de tags).
Além disso, pelo menos um desses conjuntos de etiquetas é atribuído de forma completamente
aleatória (na história da urna, as bolas são amostradas aleatoriamente, com todos os conjuntos do
tamanho correto igualmente prováveis). Então X ÿ HGeom(w, b, n) representa o número de itens
marcados duas vezes: na história da urna, bolas que são brancas e amostradas.
Machine Translated by Google
Os próximos dois exemplos mostram cenários aparentemente diferentes que, no entanto, são
isomórfico à história da urna.
Exemplo 3.4.3 (captura-recaptura de alces). Uma floresta tem N alces. Hoje, muitos dos alces são
capturado, marcado e solto na natureza. Posteriormente, todos os alces são recapturados
aleatoriamente. Suponha que os alces recapturados tenham a mesma probabilidade de ser qualquer conjunto de n
do alce, por exemplo, um alce que foi capturado não aprende como evitar ser
capturado novamente.
Exemplo 3.4.4 (Ases numa mão de pôquer). Em uma mão de cinco cartas sorteadas aleatoriamente de um
baralho padrão bem embaralhado, o número de ases na mão tem o HGeom(4, 48, 5)
distribuição, que pode ser vista pensando nos ases como bolas brancas e nos não ases como bolas
pretas. Usando o PMF hipergeométrico, a probabilidade de a mão
tem exatamente três ases é
4 48
3 2 ÿ 0,0017.
52
5
A tabela a seguir resume como os exemplos acima podem ser pensados em termos
de dois conjuntos de tags. Em cada exemplo, o rv de interesse é o número de itens
caindo na segunda e na quarta colunas: branco e amostrado, marcado
e recapturado, ás e na mão.
o segundo conjunto de tags. Tanto X quanto Y contam o número de bolas brancas amostradas,
portanto têm a mesma distribuição.
Em
n w+bÿnwÿk
k w+b = w!b!n!(w + b ÿ n)! k!
P(S = k) =
(w + b)!(w ÿ k)!(n ÿ k)!(b ÿ n + k)!.
Em
Uma história muito simples, intimamente ligada à definição ingénua de probabilidade, descreve
a escolha de um número aleatório de um conjunto finito de possibilidades.
História 3.5.1 (distribuição uniforme discreta). Seja C um conjunto finito e não vazio de números.
Escolha um desses números uniformemente e aleatoriamente (isto é, todos os valores em C
são igualmente prováveis). Chame o número escolhido de X. Então diz-se que X tem a
distribuição Uniforme Discreta com parâmetro C; denotamos isso por X ÿ DUnif(C).
O PMF de X ÿ DUnif(C) é
1
P(X = x) =
|C|
para x ÿ C (e 0 caso contrário), uma vez que um PMF deve somar 1. Tal como acontece com as
questões baseadas na definição ingénua de probabilidade, as questões baseadas numa distribuição
uniforme discreta reduzem-se a problemas de contagem. Especificamente, para X ÿ DUnif(C) e
qualquer A ÿ C, temos
|A|
P(X ÿ UMA) = .
|C|
Machine Translated by Google
Exemplo 3.5.2 (Pedaços de papel aleatórios). Há 100 tiras de papel em um chapéu, cada uma
com um dos números 1, 2, . . . , 100 escrito nele, sem nenhum número aparecendo mais de uma
vez. Cinco dos boletos são sorteados, um de cada vez.
(a) Qual é a distribuição de quantas cartas sorteadas têm um valor de pelo menos 80 escrito nelas?
(c) Qual é a probabilidade de o número 100 ser sorteado pelo menos uma vez?
Agora considere a amostragem aleatória sem reposição (com todos os conjuntos de cinco tiras com igual
probabilidade de serem escolhidos).
(d) Qual é a distribuição de quantas cartas sorteadas têm um valor de pelo menos 80 escrito nelas?
Solução:
1 ÿ (99/100)5 ÿ 0,049.
Esta solução utiliza apenas a nova notação para os conceitos do Capítulo 1. É útil ter esta nova notação,
uma vez que é compacta e flexível. No cálculo acima, é importante ver por que
Isto decorre da definição ingénua neste caso, mas uma forma mais geral de pensar sobre tais declarações
é através da independência de RVs, um conceito discutido em detalhe na Secção 3.8.
Aprender qualquer Yi fornece informações sobre os outros valores (portanto, Y1, ..., Y5 não são
independentes, conforme definido na Seção 3.8), mas a simetria ainda é válida, pois, incondicionalmente, a j-
ésima tira desenhada tem a mesma probabilidade de ser qualquer um dos os deslizamentos. Esta é a
distribuição incondicional de Yj : estamos trabalhando a partir de um ponto de vista vantajoso antes de retirar
qualquer uma das tiras.
Para obter mais informações sobre por que cada um dos Y1, . . . , Y5 é uniforme discreto e como pensar em Yj
incondicionalmente, imagine que em vez de uma pessoa tirar cinco tiras, uma de cada vez, há cinco pessoas que
tiram uma tira cada, todas enfiando a mão no chapéu simultaneamente, com todas as possibilidades igualmente
prováveis para quem recebe qual recibo. Esta formulação não altera o problema de forma importante e ajuda a
evitar a distração com detalhes cronológicos irrelevantes. Rotule as cinco pessoas como 1, 2, . . . , 5 de alguma
forma, por exemplo, do mais novo para o mais velho, e seja Zj o valor sorteado pela pessoa j. Por simetria, Zj ÿ
DUnif(1, 2, . . . , 100) para cada j; os Zj são dependentes, mas, observados individualmente, cada pessoa está
sorteando uma tira uniformemente aleatória.
(f) Os eventos Y1 = 100, . . . , Y5 = 100 são disjuntos, pois agora estamos amostrando sem reposição, então
Verificação de sanidade: Esta resposta faz sentido intuitivamente, pois podemos muito bem pensar em
primeiro escolher cinco tiras aleatórias entre 100 tiras em branco e depois escrever aleatoriamente os
números de 1 a 100 nas tiras, o que dá uma chance de 5/100 de que o número 100 está em um dos cinco
boletos escolhidos.
Seria bizarro se a resposta de (c) fosse maior ou igual à resposta de (f), uma vez que a amostragem sem
reposição torna mais fácil encontrar o número 100.
(Pela mesma razão, ao procurar um bem perdido, faz mais sentido amostrar locais sem reposição do que
com reposição.) Mas faz sentido que a resposta de (c) seja apenas um pouco menor que a resposta de (f),
uma vez que é improvável em (c) que o mesmo boletim seja amostrado mais de uma vez (embora pelo
problema do aniversário seja menos improvável do que muitas pessoas poderiam imaginar).
De forma mais geral, se k tiragens forem sorteadas sem reposição, onde 0 ÿ k ÿ 100, então o mesmo
raciocínio dá que a probabilidade de tirar o número 100 é k/100.
Observe que isso faz sentido no caso extremo k = 100, pois nesse caso desenhamos todos os boletos.
Outra função que descreve a distribuição de um VR é a função de distribuição cumulativa (CDF). Ao contrário
do PMF, que apenas RVs discretos possuem, o CDF é definido para todos os RVs
Machine Translated by Google
O próximo exemplo demonstra que para rvs discretos, podemos converter livremente entre
CDF e PMF.
Exemplo 3.6.2. Seja X ÿ Bin(4, 1/2). A Figura 3.8 mostra o PMF e o CDF de X.
1,0
1,0
•
• •
0,8
• •
0,6
PMF
CDF
P(X = 2)
0,4
P(X = 2)
•
• •
• •
0,2
• • • •
0,8
0,6
0,4
0,2
0,0
•
0,0
0 1 2 3 4 0 1 2 3 4
x x
FIGURA 3.8
• De PMF para CDF: Para encontrar P(X ÿ 1,5), que é o CDF avaliado em 1,5, nós
somar o PMF sobre todos os valores do apoio que sejam menores ou iguais a 1,5:
4 4
1 1 5
P(X ÿ 1,5) = P(X = 0) + P(X = 1) = +4 = .
2 2 16
• Contínuo à direita: Como na Figura 3.8, o CDF é contínuo, exceto possivelmente por ter
alguns saltos. Onde quer que haja um salto, o CDF é contínuo da direita. Ou seja, para
qualquer a, temos
limão
xÿÿÿ F(x) = 0 e limxÿÿ F(x) = 1.
Prova. Os critérios acima são verdadeiros para todos os CDFs, mas por simplicidade só o
provaremos para o caso em que F é o CDF de um rv X discreto cujos valores possíveis
são 0, 1, 2, . . . . Como exemplo de como visualizar os critérios, considere a Figura 3.8: o
CDF mostrado ali é crescente (com algumas regiões planas), contínuo a partir da direita (é
contínuo exceto nos saltos, e cada salto tem um ponto aberto na parte inferior e um ponto
fechado no topo) e converge para 0 quando x ÿ ÿÿ e para 1 como x ÿ ÿ (neste exemplo,
atinge 0 e 1; em alguns exemplos, um ou ambos os valores podem ser aproximados, mas
nunca alcançado).
onde x é o maior número inteiro menor ou igual a x. Por exemplo, P(X ÿ 4,9) = P(X ÿ 4) já
que X tem valor inteiro. Então F(a + b) = F(a) para qualquer b > 0 que seja pequeno o
suficiente para que a + b < a + 1, por exemplo, para a = 4,9, isso vale para 0 < b < 0,1. Isso
implica F(a) = limxÿa+ F(x) (na verdade, é muito mais forte, pois diz que F(x) é igual a F(a)
quando x está próximo o suficiente de a e à direita).
Para recapitular, vimos agora três maneiras equivalentes de expressar a distribuição de uma variável
aleatória. Duas delas são o PMF e o CDF: sabemos que estas duas funções contêm a mesma informação,
pois sempre podemos calcular o CDF a partir do PMF e vice-versa. Geralmente o PMF é mais fácil de
trabalhar para RVs discretos, uma vez que a avaliação do CDF requer um somatório.
Machine Translated by Google
Uma terceira maneira de descrever uma distribuição é com uma história que explique (de forma
precisa) como a distribuição pode surgir. Usamos as histórias das distribuições Binomial e
Hipergeométrica para derivar os PMFs correspondentes. Assim, a história e o PMF também
contêm a mesma informação, embora muitas vezes possamos obter provas mais intuitivas com
a história do que com os cálculos do PMF.
Nesta seção discutiremos o que significa assumir uma função de uma variável aleatória e
construiremos uma compreensão de por que uma função de uma variável aleatória é uma
variável aleatória. Ou seja, se X é uma variável aleatória, então
, X2 e X, e sin(X) também são
variáveis aleatórias, assim como g(X) para qualquer função g : R ÿ R.
Por exemplo, imagine que dois times de basquete (A e B) estão jogando uma partida de sete
jogos, e seja X o número de vitórias do time A (então X ÿ Bin(7, 1/2) se os times estiverem
empatados e os jogos são independentes). Seja g(x) = 7 ÿ x, e seja h(x) = 1 se x ÿ 4 e h(x) = 0
se x <4. Então g(X) = 7 ÿ X é o número de vitórias da equipe B, e h(X) é o indicador de que o
time A venceu a maioria dos jogos. Como X é um rv, tanto g(X) quanto h(X) também são rvs
Para ver como definir formalmente as funções de um RV, vamos retroceder um pouco. No início
deste capítulo, consideramos uma variável aleatória X definida em um espaço amostral com 6
elementos. A Figura 3.1 usou setas para ilustrar como X mapeia cada pedra no espaço amostral
para um número real, e a metade esquerda da Figura 3.2 mostrou como podemos imaginar X
escrevendo um número real dentro de cada pedra.
Agora podemos, se quisermos, aplicar a mesma função g a todos os números dentro das
pedras. Em vez dos números X(s1) a X(s6), agora temos os números g(X(s1)) a g(X(s6)), o que
fornece um novo mapeamento dos resultados da amostra para números reais – temos criou
uma nova variável aleatória, g(X).
Definição 3.7.1 (Função de um RV). Para um experimento com espaço amostral S, um rv X e uma função
g : R ÿ R, g(X) é o rv que mapeia s para g(X(s)) para todo s ÿ S.
Tomando g(x) = ÿ x para concretude, a Figura 3.9 mostra que g(X) é a composição das funções
X e g, dizendo “primeiro aplique X, depois aplique g”. A Figura 3.10 representa g(X) de forma
mais sucinta, rotulando diretamente os resultados da amostra. Ambas as figuras nos mostram
que g(X) é um rv; se X cristaliza em 4, então g(X) cristaliza em 2.
Dado um rv X discreto com um PMF conhecido, como podemos encontrar o PMF de Y = g(X)?
No caso em que g é uma função injetiva, a resposta é direta: o suporte de Y é o conjunto de
todos os g(x) com x no suporte de X, e
s1 s2 s3
X g
s4 s5 s6 0 1 4 0 1 2
FIGURA 3.9
O rv X é definido em um espaço amostral com 6 elementos e possui valores possíveis 0,
1 e 4. A função g é a função raiz quadrada. Compor X e g dá o
variável aleatória g(X) = ÿ X, que tem valores possíveis 0, 1 e 2.
1 0 1
s1 s2 s3
0 2 1
s4 s5 s6
FIGURA 3.10
Como g(X) = ÿ X rotula cada pedra com um número, é um rv
Machine Translated by Google
x P(X = x) e P(S = y)
x1 p1 g(x1) p1
x2 p2 g(x2) p2
x3 pág.3 g(x3) pág.3
.. .. .. ..
. . . .
Isto sugere uma estratégia para encontrar o PMF de um rv com uma distribuição desconhecida:
tente expressar o rv como uma função biunívoca de um rv com uma distribuição conhecida.
distribuição. O próximo exemplo ilustra esse método.
Exemplo 3.7.2 (caminhada aleatória). Uma partícula move n passos em uma reta numérica. O
partícula começa em 0 e a cada passo ela se move 1 unidade para a direita ou para a esquerda,
com probabilidades iguais. Suponha que todas as etapas sejam independentes. Seja Y o da partícula
posição após n etapas. Encontre o PMF de Y .
Solução:
Considere cada passo como um julgamento de Bernoulli, onde o certo é considerado um sucesso e
esquerda é considerada um fracasso. Então, o número de passos que a partícula dá até o
direita é uma variável aleatória Bin (n, 1/2), que podemos nomear X. Se X = j, então o
partícula deu j passos para a direita en - j passos para a esquerda, dando um final
posição de j ÿ (n ÿ j) = 2j ÿ n. Portanto, podemos expressar Y como uma função injetora de
X, ou seja, Y = 2X ÿ n. Como X assume valores em {0, 1, 2, . . . , n}, Y assume valores em
{ÿn, 2 ÿ n, 4 ÿ n, . . . , n}.
Se g não for injetivo, então, para um dado y, pode haver vários valores de x, tais
que g(x) = y. Para calcular P(g(X) = y), precisamos somar as probabilidades de X
assumindo qualquer um desses valores candidatos de x.
Exemplo 3.7.4. Continuando como no exemplo anterior, seja D a distância da partícula à origem
após n passos. Suponha que n seja par. Encontre o PMF de D.
Solução:
Podemos escrever D = |Y |; esta é uma função de YD , mas não é um para um. O evento
= 0 é igual ao evento Y = 0. Para k = 2, 4,. . . , n, o evento D = k é igual ao evento {Y = k} ÿ {Y =
ÿk}. Então o PMF de D é
n
n 1
P(D = 0) = ,
nº
2
2
n
n 1
P(D = k) = P(Y = k) + P(Y = ÿk) = 2 n+k 2
,
2
para k = 2, 4,. . . , n. Na etapa final, usamos simetria (imagine um novo passeio aleatório que se
move para a esquerda cada vez que nosso passeio aleatório se move para a direita e vice-versa)
para ver que P(Y = k) = P(Y = ÿk).
O mesmo raciocínio que usamos para lidar com funções de uma variável aleatória pode ser
estendido para lidar com funções de múltiplas variáveis aleatórias. Já vimos um exemplo disso
com a função de adição (que mapeia dois números x, y à sua soma x + y): no Exemplo 3.2.5,
vimos como visualizar T = X + Y como um rv por si só. à direita, onde X e Y são obtidos jogando
dados.
Definição 3.7.5 (Função de dois RVs). Dado um experimento com espaço amostral S, se X e Y
são rvs que mapeiam s ÿ S para X(s) e Y (s) respectivamente, então g(X, Y ) é o rv que mapeia
s para g(X(s ), S(s)).
Observe que estamos assumindo que X e Y estão definidos no mesmo espaço amostral S.
Normalmente assumimos que S é escolhido para ser rico o suficiente para abranger quaisquer RVs
com os quais desejamos trabalhar. Por exemplo, se X é baseado em um lançamento de moeda e Y
é baseado em um lançamento de dados, e inicialmente estávamos usando o espaço amostral S1 =
{H, T} para X e o espaço amostral S2 = {1, 2, 3, ,4, 5, 6} para Y podemos facilmente redefinir X e Y
para que ambos sejam definidos no espaço mais rico S = S1 × S2 = {(s1, s2) : s1 ÿ S1, s2 ÿ S2}.
Uma maneira de entender o mapeamento de S para R representado pelo rv g(X, Y ) é com uma
, resultados possíveis. Interpretar X +Y
tabela exibindo os valores de X, Y e g(X, Y ) sob vários
como um rv é intuitivo: se observarmos X = x e Y = y, então X +Y cristaliza em x+y. Para um
exemplo menos familiar como max(X, Y ), os alunos muitas vezes não têm certeza de como
interpretá-lo como um rv Mas a ideia é a mesma: se observarmos X = x e Y = y, então max(X,
Y ) cristaliza para máximo (x, y).
Exemplo 3.7.6 (Máximo de dois lançamentos de dados). Lançamos dois dados justos de 6 lados.
Seja X o número do primeiro dado e Y o número do segundo dado. O seguinte e max(X, Y ) em
espaço amostral X, Y, de forma , 7 dos 36 resultados da tabela fornecem os valores do
análoga à tabela do Exemplo 3.2.5.
Machine Translated by Google
s XY máx(X, Y )
(1, 2) 1 2 2
(1, 6) 1 6 6
(2, 5) 2 5 5
(3, 1) 3 1 3
(4, 3) 3 (5, 4
4) 5 4 4
(6, 6) 5
6 6 6
P(máx(X, Y) = 1) = 1/36,
P(máx(X, Y) = 2) = 3/36,
P(máx(X, Y) = 3) = 5/36,
P (máx (X, Y) = 4) = 7/36,
P (máx (X, Y) = 5) = 9/36,
P(máx(X, Y) = 6) = 11/36.
Um erro de categoria especialmente comum é confundir uma variável aleatória com a sua distribuição.
Chamamos esse erro de magia simpática; este termo vem da antropologia,
onde é usado para a crença de que se pode influenciar um objeto manipulando um
representação desse objeto. O seguinte ditado esclarece a distinção
entre uma variável aleatória e sua distribuição:
Podemos pensar na distribuição de uma variável aleatória como um mapa ou planta que descreve
o RV Assim como diferentes casas podem compartilhar o mesmo projeto, diferentes RVs
podem ter a mesma distribuição, mesmo que os experimentos que eles resumem, e o
os espaços amostrais a partir dos quais eles mapeiam não são iguais.
0,4
X
0,2
0,0
0 1 2 3 4 5 6 7 8 9 10
x
1,0
0,8
0,6
PMF
0,4
2X
de
0,2
0,0
0 1 2 3 4 5 6 7 8 9 10
x
FIGURA 3.11
PMF de X (acima) e PMF de 2X (abaixo).
Machine Translated by Google
• Afirmar que porque X e Y têm a mesma distribuição, X deve ser sempre igual, ou seja, P(X = Y ) = 1. Só porque
dois rvs têm a mesma distribuição, Y não significa que eles são sempre iguais, ou nunca serão iguais. Vimos
isso no Exemplo 3.2.5.
Como outro exemplo, considere jogar uma moeda justa uma vez. Seja X o indicador de Cara e Y = 1ÿX o
indicador de Coroa. Tanto X quanto Y têm a distribuição Bern(1/2), mas o evento X = Y é impossível. Os
PMFs de X e Y são a mesma função, mas X e Y são mapeamentos diferentes do espaço amostral para os
números reais.
Assim como tínhamos a noção de independência de eventos, podemos definir independência de variáveis
aleatórias. Intuitivamente, se dois rvs X e Y são independentes, então saber o valor de X não fornece nenhuma
informação sobre o valor de Y e vice-versa. A definição formaliza essa ideia. ,
Definição 3.8.1 (Independência de dois RVs). As variáveis aleatórias X e Y são ditas independentes
se
para todo x, y ÿ R.
Definição 3.8.2 (Independência de muitos RVs). Variáveis aleatórias X1, . . . , Xn são independentes
se
para todo x1, . . . , xn ÿ R. Para um número infinito de rvs, dizemos que eles são independentes se
todo subconjunto finito dos rvs for independente.
Comparando isto com os critérios de independência de n eventos, pode parecer estranho que a
independência de X1, . . . , Xn requer apenas uma igualdade, enquanto para eventos nós
Machine Translated by Google
n
necessário para verificar a independência dos pares para todos2os pares, independência de três vias para
n
todos os trigêmeos e assim por diante. No entanto, examinando mais de perto a definição, vemos
3
que a independência de rvs exige que a igualdade seja válida para todos os possíveis x1, . . . , xn—
infinitas condições! Se pudermos encontrar pelo menos uma única lista de valores x1 ,. . . , xn para
que a igualdade acima não é válida, então X1, . . . , Xn não são independentes.
3.8.3. Se X1, . . . , Xn são independentes, então eles são independentes aos pares, ou seja,
Xi é independente de Xj para i = j. A ideia por trás da prova de que Xi e Xj são
independente é deixar todos os xk diferentes de xi , xj vai para ÿ na definição de independência,
uma vez que já sabemos que Xk < ÿ é verdadeiro (embora seja necessário algum trabalho para dar
uma justificativa completa para o limite). Mas a independência entre pares não implica
independência em geral, como vimos no Capítulo 2 para eventos.
Exemplo 3.8.4. No lançamento de dois dados honestos, se X for o número do primeiro dado e
Y é o número no segundo dado, então X + Y não é independente de X - Y, pois
1 5
· .
0 = P(X + Y = 12, X - Y = 1) = P(X + Y = 12)P(X - Y = 1) =
36 36
Saber que o total é 12 nos diz que a diferença deve ser 0, então os rvs fornecem informações um sobre o
outro.
4
Se X e Y são independentes então também é verdade, por exemplo, que X2 é independente de Y ,
4
já que se X2 fornecesse informações sobre Y , então X daria informações sobre Y
4
(usando X2 e Y como intermediários: X determina X2 , que daria informações
sobre Y 4 , que por sua vez daria informações sobre Y ). De forma mais geral, temos
o seguinte resultado (para o qual omitimos uma prova formal).
Definição 3.8.6 (iid). Freqüentemente trabalharemos com variáveis aleatórias que são independentes
e têm a mesma distribuição. Chamamos esses rvs de independentes e distribuídos de forma idêntica,
ou iid, para abreviar.
3.8.7 (i. vs. id). “Independente” e “distribuído de forma idêntica” são dois conceitos frequentemente
confundidos, mas completamente diferentes. Variáveis aleatórias são independentes se
eles não fornecem informações um sobre o outro; eles são distribuídos de forma idêntica se
eles têm o mesmo PMF (ou equivalentemente, o mesmo CDF). Se dois trailers são
independente não tem nada a ver com o fato de eles terem a mesma distribuição. Nós
pode ter RVs que são:
• dependente e não distribuído de forma idêntica. Seja X o indicador de se o partido maioritário mantém o
controlo da Câmara dos Representantes nos EUA após a próxima eleição, e seja Y a classificação média de
favorabilidade do partido maioritário nas sondagens realizadas um mês após as eleições. Então X e Y são
dependentes e X e Y não têm a mesma distribuição.
Tomando a soma de iid Bernoulli rvs, podemos escrever a história da distribuição binomial de forma algébrica.
Prova. Seja Xi = 1 se a i-ésima tentativa foi um sucesso e 0 se a i-ésima tentativa foi um fracasso.
É como se tivéssemos uma pessoa designada para cada teste e pedíssemos a cada pessoa que levantasse a mão se o teste
fosse um sucesso. Se contarmos o número de mãos levantadas (que é o mesmo que somar o Xi), obtemos o número total de
sucessos.
Um fato importante sobre a distribuição Binomial é que a soma dos rvs Binomiais
independentes com a mesma probabilidade de sucesso também é Binomial.
Teorema 3.8.9. Se X ÿ Bin(n, p), Y ÿ Bin(m, p) e X for independente de Y então X + Y ÿ Bin(n + m, p). ,
Prova. Apresentamos três provas, pois cada uma ilustra uma técnica útil.
k-j j
j=0
n+m kn+mÿk pq
= .
k
Machine Translated by Google
k
eu n n + mk
=
k-j j
j=0
2. Representação: Uma prova muito mais simples é representar X e Y como a soma de iid
Bern(p) rvs: X = X1 + · · · + Xn e Y = Y1 + · · · + Ym, onde Xi e Yj são todos iid Bern(p). Então X
+ Y é a soma de n + m iid Bern(p) rvs, então sua distribuição, pelo teorema anterior, é Bin(n + m,
p).
É claro que, se tivermos uma definição para a independência dos RVs, deveremos ter uma definição
análoga para a independência condicional dos RVs.
Definição 3.8.11 (PMF Condicional). Para quaisquer rvs X e Z discretos, a função P(X = x|Z = z),
quando considerada como uma função de x para z fixo, é chamada de PMF condicional de X
dado Z = z.
Exemplo 3.8.13 (Dois amigos). Considere novamente a frase “Tenho apenas dois amigos que
ever call me” do Exemplo 2.5.11, exceto agora com notação rv. Seja X
o indicador de Alice me ligando na próxima sexta-feira, Y é o indicador de Bob me ligando
próxima sexta-feira, e Z será o indicador de exatamente um deles me ligando na próxima sexta-feira.
Então X e Y são independentes (por suposição). Mas dado Z = 1, temos que
X e Y são completamente dependentes: dado que Z = 1, temos Y = 1 ÿ X.
Os jogos passados dão-nos informações que nos ajudam a inferir quem é o nosso adversário, o que
por sua vez, nos ajuda a prever jogos futuros! Observe que este exemplo é isomórfico ao
Cenário de “moeda aleatória” do Exemplo 2.3.7.
os homens têm maior probabilidade de ter uma determinada doença ou se têm a mesma probabilidade.
Uma amostra aleatória de n mulheres e m homens é coletada e cada pessoa é testada para a doença
(suponha, para este problema, que o teste seja totalmente preciso). Os números de mulheres e homens na
amostra que têm a doença são X e Y respectivamente, com X ÿ Bin(n, p1) e Y ÿ Bin(m, p2),
independentemente. Aqui p1 e p2 são desconhecidos e estamos interessados em testar se p1 = p2 (isto é
conhecido como hipótese nula em estatística).
Considere uma tabela 2 × 2 com linhas correspondentes ao estado da doença e colunas correspondentes
ao sexo. Cada entrada é a contagem de quantas pessoas têm aquele estado de doença e sexo, então n +
m é a soma de todas as 4 entradas. Suponha que se observe que X + Y = r.
O teste exato de Fisher é baseado no condicionamento nas somas das linhas e colunas, de modo que n,
m, r são todos tratados como fixos e, em seguida, verificando se o valor observado de X é “extremo” em
comparação com esta distribuição condicional. Assumindo a hipótese nula, encontre o PMF condicional de
X dado X + Y = r.
Solução:
Doença x rÿx R
Nenhuma doença n ÿ xm ÿ r + xn + m ÿ r
Total n eu n+m
A seguir, vamos calcular o PMF condicional P(X = x|X + Y = r). Pela regra de Bayes,
= P(Y = r ÿ x)P(X = x) .
P(X + Y = r)
O passo P(X +Y = r|X = x) = P(Y = rÿx) é justificado pela independência de X e Y . Assumindo a hipótese
nula e deixando p = p1 = p2, temos X ÿ Bin(n, p) e Y ÿ Bin(m, p), independentemente, então X + Y ÿ Bin(n
+ m, p). Por isso,
eu mÿr+xnx
r-x
p rÿx (1 ÿ p) p x (1 ÿ p) n ÿ x
P(X = x|X + Y = r) = n+m
R
p r(1 ÿ p) n+mÿr
n eu
= x r-x .
n+m
R
Para entender por que a Hipergeométrica apareceu, aparentemente do nada, vamos conectar esse
problema à história do alce para a Hipergeométrica. Na história do alce, somos
Machine Translated by Google
Um fato interessante, que acaba sendo útil em estatística, é que a distribuição condicional de X não
depende de p: incondicionalmente, X ÿ Bin(n, p), mas p desaparece dos parâmetros da distribuição
condicional! Isto faz sentido após reflexão, pois uma vez que sabemos X + Y = r, podemos trabalhar
diretamente com o fato de que temos uma população com r doentes e n + m ÿ r pessoas saudáveis, sem
nos preocuparmos com o valor de p que originalmente gerou a população.
Teorema 3.9.2. Se X ÿ Bin(n, p), Y ÿ Bin(m, p) e X for independente de Y então a distribuição condicional ,
de X dado X + Y = r é HGeom(n, m, r).
Teorema 3.9.3. Se X ÿ HGeom(w, b, n) e N = w + b ÿ ÿ tal que p = w/(w + b) permanece fixo, então o PMF
de X converge para o Bin(n, p) PMF.
Em
k bnÿk
P(X = k) = w+b
n
w+bÿnwÿk
n w+b
= pelo Teorema 3.4.5
k
Em
n b! (w ÿ k)! (b ÿ (w + b - n)! c!
=
k n + k)! (w + b)! C(C - 1). . .(w ÿ k + 1)b(b
n ÿ 1). . .(b ÿ n + k + 1) (w + b)(w + b ÿ 1). . .(w + b - n + 1)
=
k
1 kÿ1 1 n-k-1
n pp ÿ N . . . p - N qq ÿ N . . . q ÿ n ÿ 1 N N
= .
k 1 2
1- 1- N. . . 1 -
N
sabe .
Como N ÿ ÿ, o denominador vai para 1 e o numerador vai para p Assim q
n kn-k pq
P(X = k) ÿ ,
k
As histórias do Binomial e do Hipergeométrico fornecem intuição para este resultado: dada uma urna com
w bolas brancas e b bolas pretas, surge a distribuição Binomial
Machine Translated by Google
da amostragem de n bolas da urna com reposição, enquanto a Hipergeométrica surge da amostragem sem
reposição. À medida que o número de bolas na urna aumenta muito em relação ao número de bolas sorteadas, a
amostragem com reposição e a amostragem sem reposição tornam-se essencialmente equivalentes. Em termos
práticos, este teorema nos diz que se N = w + b for grande em relação a n, podemos aproximar o HGeom(w, b, n)
PMF pelo Bin(n, w/(w + b)) PMF.
O problema do aniversário implica que é surpreendentemente provável que alguma bola seja amostrada mais de
uma vez se for amostrada com reposição; por exemplo, se 1.200 de 1.000.000 bolas forem sorteadas aleatoriamente
com reposição, então há cerca de 51% de chance de que alguma bola seja sorteada mais de uma vez! Mas isso
se torna cada vez menos provável à medida que N cresce, e mesmo que seja provável que haja algumas
coincidências, a aproximação ainda pode ser razoável se for muito provável que a grande maioria das bolas na
amostra seja amostrada apenas uma vez cada. .
3.10 Recapitulação
Uma variável aleatória (rv) é uma função que atribui um número real a cada resultado possível de um experimento.
A distribuição de um rv X é uma especificação completa das probabilidades para os eventos associados a X, como
{X = 3} e {1 ÿ X ÿ 5}.
A distribuição de um rv discreto pode ser definida usando um PMF, um CDF ou uma história.
O PMF de X é a função P(X = x) para x ÿ R. O CDF de X é a função P(X ÿ x) para x ÿ R. Uma história para X
descreve um experimento que poderia dar origem a um aleatório variável com a mesma distribuição de X.
Para que um PMF seja válido, ele deve ser não negativo e somar 1. Para que um CDF seja válido, ele deve ser
crescente, contínuo à direita, convergir para 0 como x ÿ ÿÿ e convergir para 1 como x ÿ ÿ.
É importante distinguir entre uma variável aleatória e a sua distribuição: a distribuição é um modelo para a
construção do RV, mas diferentes RV podem ter a mesma distribuição, tal como diferentes casas podem ser
construídas a partir do mesmo projeto.
Quatro distribuições discretas nomeadas são Bernoulli, Binomial, Hipergeométrica e Uniforme Discreta. Cada uma
delas é na verdade uma família de distribuições, indexadas por parâmetros; para especificar completamente uma
dessas distribuições, precisamos fornecer o nome e os valores dos parâmetros.
• A HGeom(w, b, n) rv é o número de bolas brancas obtidas em uma amostra de tamanho n retirada sem
reposição de uma urna de w bolas brancas e b bolas pretas.
Uma função de uma variável aleatória ainda é uma variável aleatória. Se conhecermos o PMF de X, podemos
encontrar P(g(X) = k), o PMF de g(X), traduzindo o evento {g(X) = k} em um evento equivalente envolvendo
X, então usando o PMF de X.
Duas variáveis aleatórias são independentes se o conhecimento do valor de uma rv não fornece nenhuma
informação sobre o valor da outra. Isso não está relacionado ao fato de os dois RVs estarem distribuídos de
forma idêntica. No Capítulo 7, aprenderemos como lidar com variáveis aleatórias dependentes considerando-
as em conjunto e não separadamente.
Vimos agora quatro tipos fundamentais de objetos em probabilidade: distribuições, variáveis aleatórias,
eventos e números. A Figura 3.12 mostra as conexões entre esses quatro objetos fundamentais. Um CDF
pode ser usado como modelo para gerar um rv, e então existem vários eventos que descrevem o
comportamento do rv, como os eventos X ÿ x para todo x. Conhecer as probabilidades desses eventos
determina o CDF, fechando o círculo. Para um RV discreto, também podemos usar o PMF como modelo e ir
da distribuição ao RV, aos eventos e vice-versa.
O que pode
acontecer?
gerar
X
Xÿx P P(X ÿ x) = F(x)
CDF -F X=x P(X = x)
PMF
história
nome, parâmetros
função
RV
de
g(X)
FIGURA 3.12
Quatro objetos fundamentais em probabilidade: distribuições (projetos), variáveis aleatórias, eventos e
números. A partir de um CDF F podemos gerar um rv X. A partir de X, podemos gerar muitos outros rvs
assumindo funções de X. Existem vários eventos que descrevem o comportamento de X. Mais notavelmente,
para qualquer constante x os eventos X ÿ x e X = x são de interesse. Conhecer as probabilidades desses
eventos para todo x nos dá o CDF e (no caso discreto) o PMF, completando o círculo.
Machine Translated by Google
3.11R
Distribuições em R
Todas as distribuições nomeadas que encontraremos neste livro foram implementadas em R. Nesta seção
explicaremos como trabalhar com as distribuições Binomial e Hipergeométrica em R. Também explicaremos
em geral como gerar rvs de qualquer distribuição discreta com suporte finito. Digitar help(distributions)
fornece uma lista útil de distribuições integradas; muitos outros estão disponíveis através de pacotes R que
podem ser carregados.
Em geral, para muitas distribuições discretas nomeadas, três funções começando com d, p e r fornecerão
PMF, CDF e geração aleatória, respectivamente. Observe que a função que começa com p não é o PMF,
mas sim o CDF.
Distribuição binomial
A distribuição binomial está associada às três funções R a seguir: dbinom, pbinom e rbinom. Para a
distribuição de Bernoulli podemos apenas usar as funções binomiais com n = 1.
• dbinom é o PMF Binomial. São necessárias três entradas: a primeira é o valor de x no qual avaliar o PMF, e
a segunda e a terceira são os parâmetros n e p. Por exemplo, dbinom(3,5,0,2) retorna a probabilidade P(X
= 3) onde X ÿ Bin(5, 0,2). Em outras palavras,
5
dbinom(3,5,0,2) = (0,2)3 (0,8)2 = 0,0512.
3
• pbinom é o CDF binomial. São necessárias três entradas: a primeira é o valor de x no qual avaliar o CDF, e
a segunda e a terceira são os parâmetros. pbinom(3,5,0,2) é a probabilidade P(X ÿ 3) onde X ÿ Bin(5, 0,2).
Então
3
5
pbinom(3,5,0,2) = (0,2)k (0,8)5ÿk = 0,9933.
k
k=0
• rbinom é uma função para gerar variáveis aleatórias binomiais. Para rbinom, a primeira entrada é quantos
rvs queremos gerar, e a segunda e terceira entradas ainda são os parâmetros. Assim, o comando
rbinom(7,5,0.2) produz realizações de sete iid Bin(5, 0.2) rvs. Quando executamos este comando, obtivemos
2100100
Também podemos avaliar PMFs e CDFs em um vetor inteiro de valores. Por exemplo, lembre-se que 0:n é uma
maneira rápida de listar os inteiros de 0 a n. O comando dbinom(0:5,5,0.2) retorna 6 números, P(X = 0), P(X =
1), . . . , P(X = 5), onde X ÿ Bin(5, 0,2).
Distribuição hipergeométrica
A distribuição hipergeométrica também possui três funções: dhyper, phyper e rhyper. Como seria de esperar,
dhyper é o PMF hipergeométrico, phyper é o CDF hipergeométrico e rhyper gera rvs hipergeométricos. Como a
distribuição hipergeométrica tem três parâmetros, cada uma dessas funções recebe quatro entradas. Para dhyper
e phyper, a primeira entrada é o valor no qual desejamos avaliar o PMF ou CDF, e as demais entradas são os
parâmetros da distribuição.
Assim, dhyper(k,w,b,n) retorna P(X = k) onde X ÿ HGeom(w, b, n) e phyper(k,w,b,n) retorna P(X ÿ k). Para o rhyper,
a primeira entrada é o número de rvs que queremos gerar, e as entradas restantes são os parâmetros;
rhyper(100,w,b,n) gera 100 iid HGeom(w, b, n) rvs
Podemos gerar rvs a partir de qualquer distribuição discreta com suporte finito usando o comando sample. Quando
introduzimos pela primeira vez o comando sample, dissemos que ele pode ser usado na forma sample(n,k) ou
sample(n,k,replace=TRUE) para amostrar k vezes dos inteiros 1 a n, sem ou com substituição. Por exemplo, para
gerar 5 rvs DUnif(1, 2, . . . , 100) independentes, podemos usar o comando sample(100,5,replace=TRUE).
Acontece que essa amostra é muito mais versátil. Se quisermos fazer uma amostragem dos valores xn com probabilidades
em p1, . . . , pn, simplesmente criamos um vetor x contendo todos x1, . . . , o xi e um vetor p contendo todos os pi e,
seguida, insira-os na amostra. Suponha que queiramos realizações de iidrvs X1, . . . , X100 cujo PMF é
1) = 0,5, P(Xj = 5) =
e P(Xj = x) = 0 para todos os outros valores de x. Primeiro, usamos a função c para criar vetores com o suporte da
distribuição e das probabilidades correspondentes.
A seguir, usamos amostra. Veja como conseguir 100 sorteios do PMF acima:
amostra(x,100,prob=p,substituir=TRUE)
As entradas são o vetor x do qual amostrar, o tamanho da amostra (100 neste caso), as
probabilidades p a serem usadas ao amostrar de x (se isso for omitido, as probabilidades
são consideradas iguais) e se deve-se amostrar com reposição.
3.12 Exercícios
PMF e CDF
1. As pessoas chegam à festa, uma de cada vez. Enquanto esperam a chegada de mais pessoas, eles se
divertem comparando seus aniversários. Seja X o número de pessoas necessárias para obter uma
correspondência de aniversário, ou seja, antes da chegada da pessoa X não há duas pessoas que façam
aniversário no mesmo dia, mas quando a pessoa X chega há uma correspondência. Encontre o PMF de X.
2. (a) Tentativas independentes de Bernoulli são realizadas, com probabilidade 1/2 de sucesso, até que haja
pelo menos um sucesso. Encontre o PMF do número de tentativas realizadas.
(b) Tentativas independentes de Bernoulli são realizadas, com probabilidade 1/2 de sucesso, até que haja pelo
menos um sucesso e pelo menos uma falha. Encontre o PMF do número de tentativas realizadas.
3. Seja X um rv com CDF F, e Y = µ + ÿX, onde µ e ÿ são números reais com ÿ > 0. (Então Y é chamado de
transformação em escala de localização de X; encontraremos esse conceito muitas vezes no Capítulo 5
e além.) Encontre o CDF de Y , em termos de F.
n+1
5. (a) Mostre que p(n) = 12
para n = 0, 1, 2,. . . é um PMF válido para um RV discreto
d+1
P(D = j) = log10 , para j ÿ {1, 2, 3, . . . , 9},
d
onde D é o primeiro dígito de um elemento escolhido aleatoriamente. Verifique se este é um PMF válido
(usando propriedades de logs, não com uma calculadora).
7. Bob está jogando um videogame com 7 níveis. Ele começa no nível 1 e tem probabilidade p1 de atingir o
nível 2. Em geral, dado que atinge o nível j, ele tem probabilidade pj de atingir o nível j + 1, para 1 ÿ j ÿ 6.
Seja X o nível mais alto que ele alcança. Encontre o PMF de X (em termos de p1, . . . , p6).
Machine Translated by Google
8. São 100 prêmios, sendo um no valor de $ 1, outro no valor de $ 2, . . . e um no valor de $ 100. São 100 caixas, cada uma
contendo um dos prêmios. Você ganha 5 prêmios escolhendo caixas aleatórias, uma de cada vez, sem reposição.
Encontre o PMF de quanto vale o seu prêmio mais valioso (como uma expressão simples em termos de coeficientes
binomiais).
(a) Mostre diretamente que F possui as propriedades de uma CDF válida (ver Teorema 3.6.3). A distribuição definida
por F é chamada de mistura das distribuições definidas por F1 e F2.
(b) Considere criar um RV da seguinte maneira. Jogue uma moeda com probabilidade p de cara. Se a moeda cair
Cara, gere um rv de acordo com F1; se a moeda cair coroa, gere um rv de acordo com F2. Mostre que o rv obtido
desta forma tem CDF F.
10. (a) Existe uma distribuição discreta com suporte 1, 2, 3,. . . , de modo que o valor do PMF em n seja proporcional a 1/n?
Dica: veja o apêndice matemático para uma revisão de alguns fatos sobre séries.
(b) Existe uma distribuição discreta com suporte 1, 2, 3,. . . , de modo que o valor do PMF em n seja proporcional a 1/
n2 ?
11. s Seja X um rv cujos valores possíveis são 0, 1, 2, . . . , com CDF F. Em alguns países, em vez de usar um CDF, a
convenção é usar a função G definida por G(x) = P(X < x) para especificar uma distribuição. Encontre uma maneira
de converter de F para G, ou seja, se F for uma função conhecida, mostre como obter G(x) para todo x real.
12. (a) Dê um exemplo de rvs X e Y tais que FX(x) ÿ FY (x) para todo x, onde a desigualdade é estrita para algum x. Aqui FX
é o CDF de X e FY é o CDF de Y. Para o exemplo que você deu, esboce os CDFs de X e Y nos mesmos eixos. Em
seguida, esboce seus PMFs em um segundo conjunto de eixos.
(b) Na Parte (a), você encontrou um exemplo de dois CDFs diferentes onde o primeiro é menor ou igual ao segundo
em todos os lugares. É possível encontrar dois PMFs diferentes onde o primeiro é menor ou igual ao segundo em
todos os lugares? Em outras palavras, encontre rvs X e Y discretos tais que P(X = x) ÿ P(Y = x) para todo x, onde a
desigualdade é estrita para algum x, ou mostre que é impossível encontrar tais rvs
13. Sejam X, Y, Z rvs discretos tais que X e Y têm a mesma distribuição condicional dado Z, ou seja, para todos a e z temos
Mostre que X e Y têm a mesma distribuição (incondicionalmente, não apenas quando dado Z).
14. Seja X o número de compras que Fred fará no site online de uma determinada empresa (em algum período de tempo
especificado). Suponha que o PMF de X seja P(X = k) = e ÿÿÿ k /k! para k = 0, 1, 2,. . . . Essa distribuição é chamada
de distribuição de Poisson com parâmetro ÿ e será estudada extensivamente em capítulos posteriores.
(b) Suponha que a empresa conheça apenas pessoas que fizeram pelo menos uma compra em seu site (um usuário
cria uma conta para fazer uma compra, mas alguém que nunca fez uma compra lá não aparece no banco de dados
de clientes ). Se a empresa computa o número de compras de todos em seu banco de dados, então esses dados são
extraídos da distribuição condicional do número de compras, desde que pelo menos uma compra seja realizada.
Encontre o PMF condicional de X dado X ÿ 1. (Essa distribuição condicional é chamada de distribuição de Poisson
truncada.)
Machine Translated by Google
Distribuições nomeadas
(b) Dê uma explicação clara e intuitiva sobre se a resposta para (a) depende de os times sempre
jogarem 7 partidas (e quem vencer a maioria vence a série) ou de os times pararem de jogar mais
partidas assim que um time vencer 4 jogos (como acontece na prática: uma vez decidido o jogo, as
duas equipas não continuam a jogar mais jogos).
19. Num torneio de xadrez, são disputadas n partidas, de forma independente. Cada jogo termina com
vitória de um jogador com probabilidade 0,4 e termina em empate (empate) com probabilidade 0,6.
Encontre os PMFs do número de jogos que terminaram empatados e do número de jogadores cujos
jogos terminaram empatados.
20. Suponha que um bilhete de loteria tenha probabilidade p de ser um bilhete premiado, independentemente
de outros bilhetes. Um jogador compra 3 bilhetes, esperando que isso triplique a chance de ter pelo
menos um bilhete vencedor.
(c) Mostre que as chances do jogador de ter pelo menos um bilhete vencedor não triplicam (em
comparação com a compra de apenas um bilhete), mas triplicam aproximadamente se p for pequeno.
21. s Sejam X ÿ Bin(n, p) e Y ÿ Bin(m, p), independentes de X. Mostre que X ÿ Y não é Binomial.
22. Existem duas moedas, uma com probabilidade p1 de Cara e outra com probabilidade p2 de Cara. Uma
das moedas é escolhida aleatoriamente (com probabilidades iguais para as duas moedas). Em
seguida, é invertido n ÿ 2 vezes. Seja X o número de vezes que dá cara.
(c) Dê uma explicação intuitiva de por que X não é binomial para p1 = p2 (sua distribuição é chamada
de mistura de dois binômios). Você pode assumir que n é grande para sua explicação, de modo que
a interpretação frequentista da probabilidade possa ser aplicada.
23. Existem n pessoas elegíveis para votar numa determinada eleição. A votação requer registro.
As decisões são tomadas de forma independente. Cada uma das n pessoas se registrará com
probabilidade p1. Dado que uma pessoa se regista, votará com probabilidade p2. Dado que uma
pessoa vota, ela votará em Kodos (que é um dos candidatos) com probabilidade p3. Qual é a
distribuição do número de votos para Kodos (indicar o PMF, totalmente simplificado, ou o nome da
distribuição, incluindo seus parâmetros)?
Machine Translated by Google
(a) Encontre o PMF condicional de X, dado que os dois primeiros lançamentos têm cara.
(b) Encontre o PMF condicional de X, dado que pelo menos dois lançamentos dão cara. s
25. Alice joga uma moeda honesta n vezes e Bob joga outra moeda honesta n + 1 vezes, resultando
1 1
em X ÿ Bin(n, 2 ) e Y ÿ Bin(n + 1, 2 ).
(a) Suponha para esta parte que a empresa decida promover t funcionários, onde 1 ÿ t ÿ n + m,
escolhendo t funcionários aleatórios (com probabilidades iguais para cada conjunto de t funcionários).
Qual é a distribuição do número de mulheres promovidas?
(b) Suponha agora que, em vez de ter um número predeterminado de promoções para oferecer, a
empresa decida independentemente para cada funcionário, promovendo o funcionário com
probabilidade p. Encontre as distribuições do número de mulheres que são promovidas, do número
de mulheres que não são promovidas e do número de funcionários que são promovidos.
(c) No cenário de (b), encontre a distribuição condicional do número de mulheres que são
promovidas, dado que exatamente t funcionários são promovidos.
31. Era uma vez um famoso estatístico que ofereceu chá a uma senhora. A senhora afirmou saber se o
leite foi adicionado à xícara antes ou depois do chá. A estatística decidiu realizar alguns experimentos
para testar sua afirmação.
(a) A senhora recebe 6 xícaras de chá, onde se sabe de antemão que 3 serão o leite primeiro e 3
serão o chá, em uma ordem completamente aleatória. A senhora prova cada um e depois adivinha
quais são os três que eram leite primeiro. Suponha, para esta parte, que ela não tem nenhuma
capacidade de distinguir xícaras de chá com leite e chá. Encontre a probabilidade de que pelo
menos 2 de suas 3 suposições estejam corretas.
(b) Agora a senhora recebe uma xícara de chá, com probabilidade de 1/2 de ser leite primeiro.
Ela precisa dizer se acha que foi o leite primeiro. Seja p1 a probabilidade de a senhora estar correta,
dado que o leite foi primeiro, e p2 a probabilidade de ela estar correta, dado que o chá foi primeiro.
Ela afirma que o copo veio primeiro com leite. Encontre as probabilidades posteriores de que o copo
receba primeiro o leite, com base nesta informação.
Machine Translated by Google
32. Na aula de história de Evan, 10 dos 100 termos-chave serão selecionados aleatoriamente para aparecer no exame
final; Evan deve então escolher 7 desses 10 para definir. Como conhece antecipadamente o formato do exame,
Evan está tentando decidir quantos termos-chave deve estudar.
(a) Suponha que Evan decida estudar os termos-chave de s, onde s é um número inteiro entre 0 e 100. Seja X o
número de termos-chave que aparecem no exame que ele estudou.
Qual é a distribuição de X? Dê o nome e os parâmetros, em termos de s.
(b) Usando R ou outro software, calcule a probabilidade de Evan conhecer pelo menos 7 dos 10 termos-chave
que aparecem no exame, supondo que ele estude s = 75 termos-chave.
33. Um livro contém n erros de digitação. Duas revisoras, Prue e Frida, leram o livro de forma independente.
Prue pega cada erro de digitação com probabilidade p1 e erra com probabilidade q1 = 1 ÿ p1, de forma
independente, e da mesma forma para Frida, que tem probabilidades p2 de pegar e q2 = 1ÿp2 de errar cada erro
de digitação. Seja X1 o número de erros de digitação detectados por Prue, X2 o número detectado por Frida e X
o número detectado por pelo menos um dos dois revisores.
(b) Somente para esta parte, suponha que p1 = p2. Encontre a distribuição condicional de X1 dado que X1 + X2
= t.
34. Existem n alunos em uma determinada escola, dos quais X ÿ Bin(n, p) são graduados em Estatística.
Uma amostra aleatória simples de tamanho m é extraída (“amostra aleatória simples” significa amostragem sem
reposição, com todos os subconjuntos de um determinado tamanho igualmente prováveis).
(a) Encontre o PMF do número de formandos em Estatística na amostra, usando a lei da probabilidade total (não
se esqueça de dizer qual é o suporte). Você pode deixar sua resposta como uma soma (embora com alguma
álgebra ela possa ser simplificada, escrevendo os coeficientes binomiais em termos de fatoriais e usando o
teorema binomial).
(b) Forneça uma derivação comprovativa da distribuição do número de formandos em Estatística na amostra;
simplificar totalmente.
Dica: Faz diferença se os alunos declaram suas especialidades antes ou depois do sorteio da amostra aleatória?
35. s Os jogadores A e B se revezam respondendo perguntas triviais, começando com o jogador A respondendo à
primeira pergunta. Cada vez que A responde a uma pergunta, ela tem probabilidade p1 de acertar. Cada vez que
B joga, ele tem probabilidade p2 de acertar.
(a) Se A responde m perguntas, qual é o PMF do número de perguntas que ela acerta?
(b) Se A responde m vezes e B responde n vezes, qual é o PMF do número total de questões que eles acertam
(você pode deixar sua resposta como uma soma)? Descreva exatamente quando/se esta é uma distribuição
binomial.
(c) Suponha que o primeiro jogador a responder corretamente ganhe o jogo (sem um número máximo
predeterminado de perguntas que podem ser feitas). Encontre a probabilidade de A ganhar o jogo.
36. Há n eleitores nas próximas eleições num determinado país, onde n é um número grande e par. Existem dois
candidatos: Candidato A (do Partido Unite) e Candidato B (do Partido Untie). Seja X o número de pessoas que
votam no Candidato A.
Suponha que cada eleitor escolha aleatoriamente em quem votar, de forma independente e com probabilidades
iguais.
(a) Encontre uma expressão exata para a probabilidade de empate na eleição (para que os candidatos tenham
o mesmo número de votos).
Machine Translated by Google
para encontrar uma aproximação simples para a probabilidade de empate. Sua resposta deve estar no
formato 1/ ÿ cn, com ca constante (que você deve especificar).
37. s Uma mensagem é enviada por um canal com ruído. A mensagem é uma sequência x1, x2, . . . ,xn de
n bits (xi ÿ {0, 1}). Como o canal é barulhento, existe a possibilidade de qualquer bit estar corrompido,
resultando em erro (um 0 vira 1 ou vice-versa). Suponha que os eventos de erro sejam independentes.
Seja p a probabilidade de um bit individual ter um erro (0 < p < 1/2). Seja y1, y2, . . . , yn é a mensagem
recebida (então yi = xi se não houver erro naquele bit, mas yi = 1 ÿ xi se houver erro ali).
Para ajudar a detectar erros, o enésimo bit é reservado para uma verificação de paridade: xn é definido
como 0 se x1 + x2 + · · · + xnÿ1 for par, e 1 se x1 + x2 + · · · + xnÿ1 é estranho. Quando a mensagem é
recebida, o destinatário verifica se yn tem a mesma paridade que y1 + y2 + · · · + ynÿ1. Se a paridade
estiver errada, o destinatário sabe que ocorreu pelo menos um erro; caso contrário, o destinatário
assume que não houve erros.
(a) Para n = 5, p = 0,1, qual é a probabilidade de a mensagem recebida conter erros que não foram
detectados?
(b) Para n e p gerais, escreva uma expressão (como uma soma) para a probabilidade de que a
mensagem recebida contenha erros que não sejam detectados.
(c) Forneça uma expressão simplificada, que não envolva a soma de um grande número de termos,
para a probabilidade de a mensagem recebida conter erros que não foram detectados.
n k n k
eb=
Aproximadamente Aproximadamente
uma = p (1 ÿ p) p (1 ÿ p) ,
k k
k par, kÿ0 k ímpar, kÿ1
o teorema binomial permite encontrar expressões simples para a + b e a ÿ b, o que permite então obter
a e b.
Independência de trailers
38. (a) Dê um exemplo de rvs X e Y dependentes tais que P(X < Y ) = 1.
39. Dê um exemplo de duas variáveis aleatórias discretas X e Y no mesmo espaço amostral, de modo que X e
Y tenham a mesma distribuição, com suporte {1, 2,. . . , 10}, mas o evento X = Y nunca ocorre. Se X e Y
são independentes, ainda é possível construir tal exemplo?
40. Suponha que X e Y sejam rvs discretos tais que P(X = Y ) = 1. Isso significa que X e Y sempre assumem o
mesmo valor.
42. s Seja X um dia aleatório da semana, codificado de modo que segunda-feira seja 1, terça-feira seja 2,
etc. (então X assume os valores 1, 2,..., 7, com probabilidades iguais). Seja Y o dia seguinte após X
(novamente representado como um número inteiro entre 1 e 7). X e Y têm a mesma distribuição?
O que é P(X <Y)?
43. (a) É possível ter dois rvs X e Y tais que X e Y tenham a mesma distribuição
mas P(X < Y ) ÿ p, onde: • p =
0,9? • p =
0,99? • p =
0,9999999999999? • p = 1?
Para cada um, dê um exemplo mostrando que é possível ou prove que é impossível.
Dica: Faça a pergunta anterior primeiro.
(b) Considere a mesma questão da Parte (a), mas agora assuma que X e Y são independentes. Suas
respostas mudam?
44. Para dígitos binários x e y (0 ou 1), sejam x ÿ y 0 se x = y e 1 se x = y (esta operação é chamada de exclusiva
ou (frequentemente abreviada para XOR), ou mod de adição 2). (a) Sejam X ÿ Bern(p)
(c) Seja X1, . . . , Xn seja iid Bern(1/2). Para cada subconjunto não vazio J de {1, 2,. . . , n}, deixe
YJ = Xj ,
jÿJ
onde a notação significa “adicionar” no sentido ÿ todos os elementos de J; a ordem em que isso é feito
não importa, pois x ÿ y = y ÿ x e (x ÿ y) ÿ z = x ÿ (y ÿ z).
Mostre que YJ ÿ Bern(1/2) e que esses 2n ÿ 1 rvs são independentes aos pares, mas não independentes.
Por exemplo, podemos usar isso para simular 1.023 lançamentos de moeda justos independentes entre
pares usando apenas 10 lançamentos de moeda justos independentes.
Dica: Aplique as partes anteriores com p = 1/2. Mostre que se J e K são dois subconjuntos não vazios diferentes de
{1, 2, . . . , n}, então podemos escrever YJ = AÿB, YK = AÿC, onde A consiste no Xi com i ÿ J ÿK, B consiste no Xi
com i ÿ J ÿKc o Xi com i ÿ J ÿ K. Então A, B, C são independentes, pois são baseados em , e C consiste em
c
conjuntos disjuntos de Xi. Além disso, no máximo um desses conjuntos de Xi pode estar vazio. Se J ÿ K = ÿ, então
YJ = B, YK = C. Caso contrário, calcule P(YJ = y, YK = z) condicionando se A = 1.
Prática mista
45. s Está a ser testado um novo tratamento para uma doença, para ver se é melhor do que o tratamento
padrão. O tratamento existente é eficaz em 50% dos pacientes. Acredita-se inicialmente que haja 2/3 de
chance de o novo tratamento ser eficaz em 60% dos pacientes e 1/3 de chance de que o novo tratamento
seja eficaz em 50% dos pacientes. Num estudo piloto, o novo tratamento é administrado a 20 pacientes
aleatórios e é eficaz em 15 deles.
(a) Dada esta informação, qual é a probabilidade de o novo tratamento ser melhor que o tratamento padrão?
(b) Um segundo estudo é feito posteriormente, administrando o novo tratamento a 20 novos pacientes aleatórios.
Dados os resultados do primeiro estudo, qual é o PMF para quantos dos novos pacientes o novo
tratamento é eficaz? (Deixando p ser a resposta para (a), sua resposta pode ser deixada em termos de p.)
Machine Translated by Google
46. São realizadas tentativas independentes de Bernoulli, com probabilidade de sucesso 1/2 para cada tentativa.
Uma questão importante que frequentemente surge em tais ambientes é quantas tentativas realizar. Muitas
controvérsias surgiram nas estatísticas sobre a questão de como analisar os dados provenientes de um experimento
onde o número de ensaios pode depender dos dados coletados até o momento.
Por exemplo, se pudermos seguir a regra “continuar realizando testes até que haja mais que o dobro de fracassos
do que sucessos, e então parar”, então olhar ingenuamente para a proporção de fracassos para sucessos (se e
quando o processo parar) nos dará mais de 2:1 em vez da verdadeira proporção teórica de 1:1; este pode ser um
resultado muito enganador! No entanto, poderá nunca acontecer que haja mais do que o dobro de fracassos do que
de sucessos; neste problema, você encontrará a probabilidade de isso acontecer.
(a) Dois jogadores, A e B, fazem uma série de apostas, onde cada um tem probabilidade 1/2 de ganhar uma aposta,
mas A recebe $2 por cada vitória e perde $1 por cada derrota (um jogo muito favorável para A!) . Suponha que os
jogadores possam pedir dinheiro emprestado, para que possam jogar e joguem para sempre. Seja pk a probabilidade
de A, começando com $k, chegar a $0, para cada k ÿ 0. Explique como esta história se relaciona com o problema
original e como o problema original pode ser resolvido se conseguirmos encontrar pk.
Dica: como na ruína do jogador, estabeleça e resolva uma equação diferencial para pk. Temos pk ÿ 0 como k ÿ ÿ
(você não precisa provar isso, mas deve fazer sentido, já que o jogo é tão favorável a A, o que resultará na fortuna
de A indo para ÿ; uma prova formal, não exigida aqui , poderia ser feito usando a lei dos grandes números, um
importante teorema do Capítulo 10). A solução pode ser escrita claramente em termos da proporção áurea.
(c) Encontre a probabilidade de haver mais que o dobro de fracassos do que sucessos com tentativas independentes
de Bern(1/2), conforme originalmente desejado.
47. Uma copiadora é usada para fazer n páginas de cópias por dia. A máquina possui duas bandejas nas quais o papel é
carregado, e cada página utilizada é retirada de forma aleatória e independente de uma das bandejas. No início do
dia, as bandejas são recarregadas para que cada uma delas tenha m páginas.
(a) Seja pbinom(x, n, p) o CDF da distribuição Bin(n, p), avaliada em x. Em termos de pbinom, encontre uma
expressão simples para a probabilidade de que ambas as bandejas tenham papel suficiente em qualquer dia
específico, quando essa probabilidade estiver estritamente entre 0 e 1 (especifique também os valores de m para os
quais a probabilidade é 0 e os valores para os quais é 1).
(b) Usando um computador, encontre o menor valor de m para o qual há pelo menos 95% de chance de que ambas
as bandejas tenham papel suficiente em um determinado dia, para n = 10, n = 100, n = 1.000 e n = 10.000.
Dica: Se você usar R, poderá achar úteis os seguintes comandos: g <- function(m,n)
[sua resposta de (a)] define uma função g tal que g(m, n) é sua resposta de (a) ), g(1:100,100) fornece o vetor (g(1,
100), . . . , g(100, 100)), que(v>0,95) fornece os índices dos componentes do vetor v que excedem 0,95, e min(w)
fornece o mínimo de um vetor w.
Machine Translated by Google