Escolar Documentos
Profissional Documentos
Cultura Documentos
UNIPAMPA
APOSTILA DE PROBABILIDADES E
ESTATÍSTICA - v0.9
Dezembro - 2022
Alegrete - RS
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2
Conteúdo
1 Preliminares 5
P
1.1 O somatório Sigma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Conjuntos finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Cardinalidade e distribuição dos subconjuntos em P(A) . . . . . . . . . . . . 9
1.2.3 Conjuntos infinitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Técnicas de contagem para conjuntos finitos . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Fatorial n! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 n-uplas, arranjos e combinações . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3 Cálculo de permutações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.4 Cálculo de combinações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.5 Exemplos de aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Probabilidades 15
2.1 Experimento Aleatório, Espaço Amostral e Eventos . . . . . . . . . . . . . . . . . . . 15
2.2 Regra da Adição e Probabilidade condicional . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Independência de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4 Probabilidade Total e Regra de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.5 Outros Exemplos Importantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5.1 Análise completa de um canal binário através de um experimento . . . . . . . 26
2.5.2 Extração de três bolas sem reposição . . . . . . . . . . . . . . . . . . . . . . . 29
2.5.3 Extração de bolas com reposição . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
6 Estatı́stica descritiva 87
6.1 Parâmetros que resumem os dados amostrais . . . . . . . . . . . . . . . . . . . . . . 87
6.2 Organização e apresentação gráfica dos dados amostrais . . . . . . . . . . . . . . . . 89
2
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
3
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
4
Capı́tulo 1
Preliminares
P
1.1 O somatório Sigma
Suponha que temos os números {x1 , x2 , x3 } então a somatória dos três elementos é dado por
3
X
xi = x1 + x2 + x3
i=1
i = 8(8+1) = (8)(9)
P8
= 36
Pi=1 2
9(9+1)(18+1)
2
9 2
i = = (9)(10)(19) = 285
Pi=1
7 3
2
7 (7+1)
6
2 (49)(64)
6
i=1 i = 4 = 4 = 784
(12)2 (13)2
− 3 (12)(13)(25)
P12 3 2
P 12 3
P12 2 P12 P12
k=1 (2k − 3k + k − 3) = 2 k=1 k − 3 k=1 k + k=1 k − k=1 3 = 2 4 6 +
12(13)
2 − 12(3) =2(6084) − 3(650) + 78 − 36 = 10260
5
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
8 4.6 -7.1 0 3.4 3.7 -6.1 5 7 4
y1 y2 y3 y4 y5 y6 y7 y8 y9 y10
1 4.1 4.1 -3 -2.4 -6.7 5.2 -0.2 0.3 7
então calcular
P10
1. i=1 xi ,
P10
2. i=1 yi ,
P10
3. i=3 xi ,
P10
4. i=2 (xi + yi ),
P10 2
5. i=1 (xi − 2yi2 ),
P10 3
6. j=2 (xj + 5yj2 + 1),
P4
7. k=3 (2xk + k 2 + 2),
P4 3
8. i=1 (xi + 3x2i − 3k),
P10 3
9. i=1 (xi − 21x2i + 3xi − i2 ),
P10 4
10. i=1 (yi − 32yi2 + 5yi − 9 + i3 − 2)
P10 3
11. i=1 (xi − 3yi + 7i2 + i − 2),
P10 5
12. i=1 (xi − 21x2i yi3 + 3xi yi2 − 2)
P10 3
13. + i2 − i − 2)
i=1 (xi
P10 P10
i=1 xi + 3 yi x2i
14. P10
i=1 cos(xi )
6
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Organizamos os dados conforme os requerimentos de potências n nas Tabelas 1.3 e 1.4 para
depois usar as propriedades do somatório.
P
P10A seguir usando as propriedades do somatório resolveremos
3 2
i=1 (xi − 21xi + 3xi − 2). Os outros somatórios deixamos para o leitor.
P10 3
P10 3 P10 2 P10 P10
i=1 (xi − 21x2i + 3xi − 2) = i=1 xi − 21 i=1 xi + 3 i=1 xi − i=1 2
= 646.401 − 21(288.03) + 3(22.5) − 10(2)
= −5354.7
Todos estes somatórios podem ser ser resolvidos usando planilhas eletrônicas. Nesse caso as pro-
priedades de somatório não tem muita utilidade.
1.2 Conjuntos
Conjunto é uma coleção de objetos com a única restrição de que o conjunto não pode ser elemento
dele mesmo. Cada objeto é chamado de elemento do conjunto. Cardinalidade de um conjunto é
7
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
o número de elementos que possui o mesmo. Ela pode ser finita ou infinita. Alguns exemplos de
conjuntos são:
• C={x ∈ A tal que x nasceu em SC}, conjunto com cardinalidade não determinada mas finita
|A|=cardinalidade de A
ou também
#A=cardinalidade de A
Exemplo 1.3 Seja A = {a, b, c}, então P(A) = {φ, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, A}
Exemplo 1.4 Seja A = {a, b, c, d}, então P(A) = {φ, {a}, {b}, {c}, {d}, {a, b}, {a, c}, {a, d},
{b, c}, {b, d}, {c, d}, {a, b, c}, {a, b, d}, {a, c, d}, {b, c, d}, A}
8
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 1.5 Um exemplo importante de aplicação são as strings binárias a1 a2 . . . an , ai ∈ {0, 1},
de comprimento n
Definindo como peso de uma string como sendo o número de uns que possui, isto é w(a1 a2 . . . an )=
número de uns. Por exemplo w(10001) = 2, w(1111111) = 7,etc. Temos que os pesos estão dis-
tribuı́dos obedecendo os coeficientes combinatórios. Para o caso n = 4, teremos 16 palavras binárias
de comprimento 4, distribuidas assim
C(4, 0)=1 palavra de peso 0: 0000
C(4, 1)= 4 palavras de peso 1: 1000, 0100, 0010, 0001,
C(4, 2)= 6 palavras de peso 2: 1100, 0110, 0011, 1001, 1010, 0101,
C(4, 3)= 4 palavras de peso 3: 1110, 0111, 1011, 1101,
C(4, 4) =1 palavra de peso 4: 1111.
9
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
n! = n × (n − 1) × (n − 2) × . . . × 2 × 1
Alguns exemplos:
• 1! = 1
• 2! = 2 × 1 = 2
• 3! = 3 × 2 × 1 = 6
• 5! = 5 × 4 × 3 × 2 × 1 = 120
0! = 1
10
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 1.6 Suponha o seguinte conjunto de quatro letras A = {a, b, c, d} Calculamos o número
de duplas, permutações e combinações de dois elementos
aa ba ca da
ab bb cb db
ac bc cc dc
ad bd cd dd
m! 4!
b) Temos (m−n)! = (4−2)! = 12 permutações de dois elementos (sem repetições).
ba ca da
ab cb db
ac bc dc
ad bd cd
4!
Tabela 1.6: (4−2)! = 12 permutações
m! 4!
c) Temos (m−n)!n! = (4−2)!2! = 06 combinações de dois elementos (não admitem repetições nem
permutações).
ab
ac bc
ad bd cd
4!
Tabela 1.7: 6 = (4−2)!2!
11
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
n! n!
nm ≥ ≥ (1.1)
(n − m)! (m!)(n − m)!
12
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
e n = 6. Se o sorteio dos números fosse com reposição, os 06 número sorteados seriam inde-
pendentes, neste caso o número total de 6-uplas seria 606 = 46.656.000.000 ≈ 46.7 bilhões.
O problema deste tipo de sorteio é haveria confusão pelas repetições e permutações. Por
exemplo {01,02,02,03,17,28} e {01,02,03,02,17,28} são duas 6-uplas diferentes qual o critério
para decidir um ganhador?
Então o sorteio da Megasena é feito sem reposição, com isto os 06 números sorteados não são
independentes e o número de possibilidades é:
60 × 59 × 58 × 57 × 56 × 55 = 50.063.860
60!
C(60, 6) = = 50.063.860
54!6!
13
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
simples Para o jogo quádruplo teremos C(9, 6) = 84 apostas simples E para o jogo quı́ntuplo
teremos C(10, 6) = 210 apostas simples
Portanto a a probabilidade de ganhar na Sena, por exemplo, no jogo quı́ntuplo é
1 3 1
210 × = = 4.1946426024681 × 10−6 ≈ ,
50.063.860 715198 238399.3
aproximadamente “uma em 238 mil”.
Para o caso de aceitar cartela com 30 números teremos
C(30, 6) 593775
= = 0.01186
C(60, 6) 50063860
n β a1 a2 a3 . . . a6
Então a quantidade máxima de senhas da UNIPAMPA é é 10 × 15 × 256 = 3.6621 × 1010
aproximadamente umas 36.6 bilhões de senhas diferentes.
14
Capı́tulo 2
Probabilidades
O espaço amostral que é o conjunto de resultados deste experimento é S = {c, k}, onde c=“cara”
e k=“coroa”.
Neste caso S = {1, 2, 3, 4, 5, 6} e um exemplo de evento é A=“resultado par”, que é A = {2, 4, 6}.
O evento complementar de resultado par é A′ = {1, 2, 3}.
Neste caso
S = {cc, ck, kc, kk}
e um evento é A = {cc} ou seja A=“obter duas caras”. O evento complementar de A é “não obter
duas caras”: A′ = {ck, kc, kk}.
Neste caso pequeno podemos mostrar a lista completa de eventos
15
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
O espaço amostral é
cccc kkkk ccck kkkc
cckc kkck cckk kkcc
S=
ckcc kckk ckck kckc
ckkc kcck ckkk kccc
• B=”obter duas caras“= {cckk, ckck, ckkc, kcck, kckc, kkcc}, evento com 06 elementos.
Neste caso mostrar a lista completa de eventos seria tedioso e quase impossı́vel pois em total o
espaço amostral tem 216 = 65536 eventos.
Definição 2.1 Dado um espaço amostral S a função probabilidade é uma função matemática
definida nos eventos A ⊂ S tal que
• P (S)=1
16
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
• 0 ≤ P (A) ≤ 1
P (A ∪ B) = P (A) + P (B)
• P (∅) = 0
Prova.-
• A ∩ A′ = ∅ e A ∪ A′ = S donde
Daı́
P (A′ ) = 1 − P (A)
• ∅ = S ′ donde
P (∅) = P (S ′ ) = 1 − P (S) = 1 − 1 = 0
Exemplo 2.5 Considere o experimento de lançar duas vezes uma moeda. Calcular a probabilidade
do evento A=“Obter cara e coroa” se (a) A moeda é honesta e (b) A moeda esta carregada com
probabilidade de cara=0.6.
O espaço amostral é S = {cc, ck, kc, kk}. O evento “obter cara e coroa” é A = {ck, kc}
Caso (a): moeda honesta
P (c) = 0.5, P (k) = 0.5 daı́ P (ck) = P (c)P (k) = (0.5)(0.5) = 0.25. Também teremos P (kc) =
P (k)P (c) = (0.5)(0.5) = 0.25. Portanto
17
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
como é bastante usual. Esta formula “numero de resultados favoráveis” dividido pelo total de
resultados nem sempre é correto como veremos no caso da moeda carregada.
Caso (b): moeda carregada
P (c) = 0.6, P (k) = 0.4 daı́ P (ck) = P (c)P (k) = (0.6)(0.4) = 0.24. Também teremos P (kc) =
P (k)P (c) = (0.4)(0.6) = 0.24. Portanto
P (A) = P ({ck, kc}) = P (ck) + P (kc) = 0.24 + 0.24 = 0.48,
|A|
que é diferente de |S| .
Exemplo 2.6 Um lote de 400 Pendrives são classificados de acordo a dois critérios “Pendrives
com trincos” e “Pendrives operativos” de acordo com a seguinte Tabela
Pendrives operativos
sim não
sim 10 30
Pendrives com trincos
não 342 18
Solução-̇
Pendrives operativos
sim não Total Trincados
sim 10 30 40
Pendrives com trincos
não 342 18 360
Total Operativos 352 48 Total=400
18
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
|O|
• P (O) = |S| = 352
400 = 0.88.
|T |
• P (T ) = |S| = 40
400 = 0.1.
|O∩T |
• P (O ∩ T ) = |S| = 10
400 = 0.025.
• P (O ∪ T ) = |O∪T |
|S| =
10+30+342
400 = 382
400 = 0.955. Esta mesma probabilidade pode ser calculada
coma regra da adição
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
P (O ∪ T ) = P (O) + P (T ) − P (O ∩ T ) = 0.88 + 0.1 − 0.025 = 0.955.
• P (O|T ) = |O∩T | 10
|T | = 40 = 0.25. O evento neste caso é “o pendrive funciona mesmo trincado”=
“O pendrive esta operativo dado que esta trincado”= O|T .
• P (T |O) = |O∩T | 10
|O| = 352 = 0.028409. O evento neste caso é “o pendrive esta trincado embora
operativo”= “O pendrive esta trincado dado que esta operativo”= T |O.
Exemplo 2.7 Extração de duas bolas sem reposição de uma única urna
Uma urna contem 24 bolas brancas e 6 bolas pretas. Da urna são extraı́das aleatoriamente, sem
reposição, duas bolas.
1. Qual é a probabilidade da segunda bola ser branca quando a primeira foi branca
2. Qual é a probabilidade da segunda bola ser branca quando a primeira foi preta
5. Quais são as probabilidades da primeira ser branca e a segunda preta? e ao contrário primeira
ser preta e a segunda branca?
Solução.-
Uma ferramenta gráfica de ajuda para resolver problemas de probabilidades condicionais é o
diagrama da arvore, que para o caso deste problema é representada na seguinte figura:
19
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
1era
Extração
2da
Extração
Onde os eventos são representados assim PP =“primeira bola preta”, PB =“primeira bola branca”,
SB =“segunda bola branca” e SP =“segunda bola preta”. Com isto temos
24 6
P (PB ) = , P (PP ) =
30 30
Por outro lado as probabilidades dos eventos SP e SB precisam de cálculos preliminares.
1.
23
P (SB |PB ) = ,
29
6
O que significa que P (SP |PB ) = 29 .
2.
24
P (SB |PP ) = ,
29
5
O que significa que P (SP |PP ) = 29 .
3.
5 6 5 1
P (SP , PP ) = P (SP |PP )P (PP ) = = =
29 30 145 29
4.
23 24 92
P (SB , PB ) = P (SB |PB )P (PB ) = =
29 30 145
5.
6 24 24
P (PB , SP ) = P (SP |PB )P (PB ) = =
29 30 145
20
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2da extração
brancas pretas
brancas 92/145 24/145
1era extração
pretas 24/145 5/145
Por outro lado os 870 = 30 × 29 pares do espaço amostral de pares S = P × S estão organizados
na seguinte Tabela
2da extração
brancas pretas
brancas 552 144
1era extração
pretas 144 30
Que tem a seguinte interpretação: “Existem 552+144=696 pares com a primeira bola branca”,
“Existem 144+30=174 pares com a primeira bola preta”, “Existem 552+144=696 pares com a
segunda bola branca” e “Existem 144+30=174 pares com a segunda bola preta”.
P (A|B) = P (A)
Isto é a ocorrência de B não altera as probabilidades de A. Pode se mostrar que quando os eventos
A e B são independentes então
• P (A ∩ B) = P (A)P (B)
Exemplo 2.8 As falhas de diferentes máquinas são independentes umas das outras. Se as quatro
máquinas e suas respectivas probabilidades de falha são 1%, 2%, 5% e 10% em determinado dia.
Calcule a probabilidade de:
2. De nenhuma falhar
21
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 2.9 Considere duas urnas A e B com 10 fichas cada uma. A urna A tem oito fichas
vermelhas e duas fichas brancas. A urna B tem quatro vermelhas e seis brancas. Extraem-se duas
fichas, uma de cada urna.
Assim temos, por exemplo, P (F V |A)=“probabilidade de extrair ficha vermelha da urna A”.
Então
8
P (F V |A) = 10
2
P (F B|A) = 10
4
P (F V |B) = 10
6
P (F B|B) = 10
Como as urnas são independentes, temos:
8 6 48
1. P (F V ∩ F B) = P (F V |A)P (F B|B) = 10 × 10 = 100 = 0.48
2 6 12
2. P (F B ∩ F B) = P (F B|A)P (F B|B) = 10 × 10 = 100 = 0.12
8 4 32
3. P (F V ∩ F V ) = P (F V |A)P (F V |B) = 10 × 10 = 100 = 0.32
A = A ∩ S = A ∩ (B ∪ B ′ ) = (A ∩ B) ∪ (A ∩ B ′ )
22
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
P (A|B)P (B)
P (B|A) =
P (A|B)P (B) + P (A|B ′ )P (B ′ )
que é conhecida como a formula a regra de de Bayes ou (Teorema de Bayes).
Exemplo 2.10 Um jovem suspeita que esta com uma doença rara e para tirar suas dúvidas ele se
submete a uma exame de sangue. Os resultados destes exames não são 100% certeiros, tem uma
pequena probabilidade de falha. Quando uma pessoa não esta com a doença e o resultado é positivo,
este resultado é chamado de falso positivo. Quando uma pessoa esta com a doença e o resultado é
negativo, este resultado é chamado de falso negativo. Sabe-se que 4.8% da população está infectada
com essa doença rara enquanto que a probabilidade de falso positivo é 0.005 e a probabilidade de
falso negativo é 0.003. Se o resultado do exame é positivo qual é a probabilidade do jovem estar
livre da doença?
Sejam
D=“Pessoa com a doença rara”
P =“Resultado do exame é positivo”
Temos então P (D′ |P )=“Probabilidade do jovem estar sadio mesmo que o resultado do seu exame
seja positivo”
P(D) P(D')
D D'
P(P|D) P(P'|D')
P(P'|D)
P(P|D')
P P' P P'
23
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 2.11 Considere o Exemplo 2.7 da extração de duas bolas sem reposição de uma urna,
então calcular
2. Probabilidade da primeira bola ser branca sendo que a segunda foi preta
3. Probabilidade da primeira bola ser preta sendo que a segunda foi preta
Solução.-
3.
5 6
P (SP |PP )P (PP ) 29 30 5
P (PP |SP ) = = 5
6
6 24
=
P (SP |PP )P (PP ) + P (SP |PB )P (PB ) 29 30 + 29 30
24
• Qual é a probabilidade de ter transmitido o bit “1” quando foi recepcionado o bit “0”? (com-
parar com a probabilidade a priori)
• Qual é a probabilidade de ter transmitido o bit “0” quando foi recepcionado o bit “1”? (com-
parar com a probabilidade a priori)
• Qual é a probabilidade de ter transmitido o bit “0” quando foi recepcionado o bit “0”? (com-
parar com a probabilidade a priori)
• Qual é a probabilidade de ter transmitido o bit “1” quando foi recepcionado o bit “1”? (com-
parar com a probabilidade a priori)
24
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Solução.- Seja T1 o simbolo que denota o evento “bit 1 é transmitido”, R0 =“bit 0 é recepcionado”,
analogamente T0 e R1 então o seguinte gráfico de arvore é uma ferramenta de visualização da solução
do problema:
• P (R1 ) = P (R1 |T1 )P (T1 ) + P (R1 |T0 )P (T0 ) = (0.05)(0.58) + (0.8)(0.42) = 0.365
• Probabilidade de erro quando foi transmitido o bit “1” é P (ǫ|T1 ) = P (R0 |T1 ) e a probabilidade
de erro quando foi transmitido o bit “0” é P (ǫ|T0 ) = P (R1 |T0 ). Logo a probabilidade de erro
25
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Bit recepcionado
“1” “0”
“1” 380 62
Bits transmitido
“0” 28 530
Bit recepcionado
“1” “0” Total Transmitidos
“1” 380 62 442
Bits transmitidos
“0” 28 530 558
Total recepcionados 408 592 Total=1000
Neste caso não é importante averiguar qual é o espaço amostral do processo. Os eventos T0 e T1 R1 ,
R0 , e são suficientes para responder as questões do problema. Começamos com as probabilidades
totais:
|T0 |
• P (T0 ) = |S| = 558
1000 = 0.558, “probabilidade de que o bit 0 seja transmitido”.
• P (R0 ∩ T0 ) = |R0|S|
∩T0 |
= 530
1000 = 0.530, “probabilidade de que o bit 0 é transmitido e o bit 0 é
recepcionado”
26
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
P (Ri |Tj )= “probabilidade de que o bit i será recepcionado quando é transmitido o bit j”,
que pode ser interpretado como a predição de recepção do bit i quando é transmitido o bit j.
27
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
P (Ti |Rj )= “probabilidade de que o bit i foi transmitido quando é recepcionado o bit j”,
que pode ser interpretado como a suspeita de transmissão do bit i quando é recepcionado o bit j.
• A probabilidade de erro é
Isto mostra que a cada 1000 bits, em média, 910 bits serão transmitidos corretamente.
28
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2.6 Exercı́cios
1. Joga-se um par de dados equilibrados e o resultado deste experimento é observado:
29
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
3. É escolhida uma amostra de 1000 estudantes da UNIPAMPA e os estudantes deste grupo são
classificados de acordo aos critérios “Sexo” e “Origem Gaúcho” de acordo a seguinte tabela
Origem Gaucho
sim não
Masculino 380 300
Sexo
Feminino 120 200
(a) Se o estudante tem origem gaucho, qual é a probabilidade de que seja de sexo femenino?
(b) Se o estudante é de sexo masculino, qual é a probabilidade de não tenha origem gaucho?
(c) Qual é a probabilidade de que o estudante seja gaucho e seja de sexo femenino?
4. Considere uma urna com 42 fichas, sendo 8 brancas e 34 amarelas. Extraem-se sem reposição
2 fichas.
5. Durante uma competição esportiva de primeiro nı́vel sabe-se que 98 % dos atletas são hones-
tos e não utilizam substancias proibidas para melhorar seus resultados. As provas anti-doping
identificam corretamente um caso de dopagem em um 99.2 % dos casos e identificam corre-
tamente os casos de não-dopagem em 98.3 % dos casos. Um atleta famoso é submetido ao
teste de dopagem e o resultado é positivo. Qual que probabilidade de que este famoso atleta
tinha utilizado efetivamente substancias proibidas?
Rpta.- 0.54356
30
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
31
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
32
Capı́tulo 3
3.1 Introdução
O espaço amostral S de alguns experimentos, tais como lançamentos de moedas, pode ser um
conjunto não-numérico. Por outro lado, a aplicação mais importante do cálculo de Probabilidades
é a Estatı́stica onde se lida com conjuntos de dados numéricos cujos parâmetros mais importantes
são as médias e as varianças. Para poder medir com médias e varianças conjuntos de dados não-
numéricos há a necessidade de associar os eventos do espaço amostral S a subconjuntos de números
reais. Assim define-se uma função X : S 7→ R, e define-se as probabilidades de U ⊂ Im(X) como
P (U ) = P (X −1 (U )). Em toda a literatura existente a este respeito a imagem Im(X) é denotado
simplesmente como X. A razão desta simplificação é que X é chamada de variável aleatória.
33
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
de maneira análoga
“quartetos de S com uma cara”= {s ∈ S ; X(s) = 1}={kkkc, kkck, kckk, ckkk},
etc. Conforme mencionado linhas acima, X classifica os quartetos de S em 05 subconjuntos
{X = 0} = {kkkk} = “quartetos com 0 caras”
{X = 1} = {ckkk, kckk, kkck, kkkc} = ”quartetos com 1 cara“
{X = 2} = {cckk, ckck, ckkc, kckc, kkcc, kcck} = “quartetos com 2 caras”
{X = 3} = {kccc, ckcc, cckc, ccck} = ”quartetos com 3 caras“
{X = 4} = {cccc} = “quartetos com 4 caras”
Observa-se, também a simplificação {X = i} = {s ∈ S . X(s) = i}, para i = 0, 1, 2, 3, 4. Esta
simplificação esta disseminada em todos os livros texto de Probabilidades e Estatı́stica. Nesta
linha de simplificação, a probabilidade do evento {X = i} é denotado por P (X = i) ao invés de
P ({X = i}). Finalmente, P (X = i) define uma função f (i) = P (X = i) que é chamada de função
massa de probabilidade pmf.
f (i) = P (X = i) = P ({X = i}) = P ({s ∈ S ; X(s) = i})
Se as 4 moedas são honestas então P (c) = P (k) = 12 . Pela independência das 04 moedas
P ({s}) = P ({s1 s2 s3 s4 }) = P (s1 s2 s3 s4 ) = P (s1 )P (s2 )P (s3 )P (s4 ), logo:
1
1 1 1 1
P (cccc) = P (c)P (c)P (c)P (c) = 2 2 2 2 = 16
1 1 1 1 1
P (ccck) = P (c)P (c)P (c)P (k) = 2 2 2 2 = 16
1 1 1 1 1
P (ckkc) = P (c)P (k)P (k)P (c) = 2 2 2 2 = 16 ,
etc.
1
A probabilidade de qualquer quarteto s1 s2 s3 s4 de S é sempre 16 . Neste caso teremos;
1
f (0) = P (X = 0) = 16
4 1
f (1) = P (X = 1) = 16 = 4
6 3
f (2) = P (X = 2) = 16 = 8
4 1
f (3) = P (X = 3) = 16 = 4
1
f (4) = P (X = 4) = 16
Suponha agora que as moedas não estivessem equilibradas. Por exemplo P (c) = 0.3 e P (k) =
0.7. Então, as probabilidades dos quartetos s1 s2 s3 s4 de S são diferentes do caso das moedas
honestas. Por exemplo, P (cccc) = 0.34 = 0.0081, P (ckkk) = (0.3)(0.73 ) = 0.1029, etc. Para este
caso, organizamos as probabilidades assim:
f (0) = P (X = 0) = P (kkkk) = 0.74 = 0.2401
f (1) = P (X = 1) = 4P (ckkk) = (4)(0.73 )(0.3) = 0.4116
f (2) = P (X = 2) = 6P (cckk) = (6)(0.72 )(0.32 ) = 0.2646
f (3) = P (X = 3) = 4P (ccck) = (4)(0.7)(0.33 ) = 0.0756
f (4) = P (X = 4) = P (cccc) = 0.34 = 0.0081
34
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Definição 3.1 Seja X uma variável aleatória finita que toma os valores {x1 , x2 , x3 , . . . , xn }. Uma
distribuição de probabilidades é uma função tal que
1. f (xi ) ≥ 0
n
P
2. f (xi ) = 1
i=1
3. f (xi ) = P (X = xi )
• Se A = {a ≤ X ≤ b} então P (a ≤ X ≤ b) =
P P
P (X = x) = f (x) com x ∈ [a, b] ∩ X
• Se A = {a ≤ X < b} então P (a ≤ X ≤ b) =
P P
P (X = x) = f (x) com x ∈ [a, b[∩X, etc.
35
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Temos que X tem 5 elementos X = {x1 , x2 , x3 , x4 , x5 } = {0, 1, 2, 3, 4}. Para o caso das moedas
equilibradas temos as probabilidades
ni
f (xi ) = P (X = xi ) = probabilidade do evento {X = xi } =
16
A variança
V AR(X) = E(X 2 ) − (E(X))2 = 5 − 22 = 1
E o desvio padrão é σX = 1.
Cálculo de Probabilidades
Calcularemos
Para o caso em que P (c) = 0.3 e P (k) = 0.7, com a ajuda de uma Planilha eletrônica podemos
montar a seguinte tabela
36
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
e
VAR(X) = E(X 2 ) − (E(X))2 = 2.28 − (1.2)2 = 0.84
Finalmente o desvio padrão é
σX = 0.9165
Exemplo 3.3 Considere o experimento de lançar 2 dados equilibrados.
O espaço amostral é dado por S= {11,12,13,14,15,16,21,22,23,24,25,26,31,32,33,34,35,36,41,42,43,44,
45,46,51,52,53,54,55,56,61,62,63,64,65,66} Seja X=“soma dos valores das caras”, então temos a se-
guinte tabela de distribuição
i xi ni f (xi ) xi f (xi ) x2i x2i f (xi )
1 1 4
1 2 1 36 18 4 36
1 1 9
2 3 2 18 6 9 18
1 1 16
3 4 3 12 3 16 12
1 5 25
4 5 4 9 9 25 9
5 5
5 6 5 36 6 36 5
1 7 49
6 7 6 6 6 49 6
5 10 80
7 8 5 36 9 64 9
1
8 9 4 9 1 81 9
1 5 100
9 10 3 12 6 100 12
1 11 121
10 11 2 18 18 121 18
1 1 144
11 12 1 144
P P36 P3 P 36
= 36 =1 =7 = 54.833
A esperança é
11
X
µX = E(X) = xi f (xi ) = 7
i=1
A variança
V AR(X) = 54.833 − 72 = 5.833 = 5.833
O desvio padrão é σX = 2.41.
Cálculo de Probabilidades
Neste caso fica pouco prático escrever uma função acumulada em 11 linhas, então o cálculo de
Probabilidades de intervalos é realizado com a definição original. Calculamos
P (4 ≤ X ≤ 6) = P (X = 4) + P (X = 5) + P (X = 6) = 1/12 + 1/9 + 5/36 = 1/3
37
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
P (−0.5 ≤ X ≤ 4.95) = f (0.5)+f (0.8)+f (1.5)+f (2.0)+f (2.8) = 0.15+0.02+0.16+0.150.12 = 0.60 = 60%
2. 0 ≤ F (x) ≤ 1
38
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
X
F (x) = P (X ≤ x) = f (xi )
xi ≤x
39
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
40
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
28
(xi − µX )2
P
i=0
V AR(X) =
29
Calculamos
xi − µX = (a + i∆) − (a + 14∆) = (i − 14)∆
Elevando ao quadrado temos
(xi − µX )2 = (i2 − 28i + 194)∆2
Fazendo o somatório
28 28 28
!
X X X
(i2 − 28i + 194)∆2 = ∆2 i2 − 28 i + 194(29)
i=0 i=0 i=0
2 (28)(29)(57) (28)(29) 2 28(57)
=∆ − 28 + 196(29) = 29∆ − 14(28) + 142
6 2 6
= (14)(29)∆2 (19 − 28 + 14) = 5(14)(29)∆2
41
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Portanto a variança é
35
V AR(X) = (5)(14)∆2 = = 17.5
2
No Apêndice é exibido a demonstração das formulas da esperança e variança para o caso de
distribuição de probabilidades de uma variável aleatória uniformemente espalhada.
P ({X = 0})
= P (evento com 0 caras)
P ({X = 1})
= P (evento com 1 cara)
P ({X = 2})
= P (evento com 2 caras)
P ({X = 3})
= P (evento com 3 caras)
.. .. ..
. . .
P ({X = 4}) = P (evento com n caras)
A única lista do “evento com 0 caras” é {k, k, . . . , k}, todas corôas, logo P (X = 0) = P (kk . . . k)=
P (k)P (k) . . . P (k) = (1 − p)n
O “evento com 1 cara” possui n listas, logo P (X = 1) = nP (ck . . . k)= P (c)P (k) . . . P (k) =
np(1 − p)n−1
n!
Por combinatória pode-se mostrar que o “evento com i caras” tem C(n, i) = (n−i)!(i)! listas, onde
C(n, i) é o coeficiente binomial da expansão (a + b)n . É por isso que esta distribuição é chamada
de distribuição binomial.
Portanto, a probabilidade do evento pontual {X = i} é dado por
n i
f (i) = P (X = i) = p (1 − p)n−i
i
µX = E(X) = µ = np (3.3)
42
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2
σX = V AR(X) = np(1 − p) (3.4)
Exemplo 3.8 Dada a distribuição binomial X(4, 0.1) calcular P (0 < X ≤ 3), P (−2 ≤ X < 2),
P (1 ≤ X < 5), E(X), σ.
Exemplo 3.9 Uma fabricante de mesas de bilhar suspeita que 2% do seu produto apresenta al-
gum defeito. Se tal suspeita é correta, para uma amostra de 9 mesas, determinar as seguintes
probabilidades:
1. Haja uma defeituosa
3. Haja 3 defeituosas
4. Haja 6 defeituosas
5. As 9 sejam defeituosas
43
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
probabilidade
x 0 1 2 3 4 5 ...
f (x) 0.83374 0.15314 0.01250 5.9529 × 10−4 1.82223 × 10−5 3.7189 × 10−7 . . .
... 6 7 8 9 x
... 5.0598 × 10−9 4.4255 × 10−11 2.2579 × 10−13 5.12 × 10−16 f (x)
Então;
1. Probabilidade de que haja uma defeituosa é P (x = 1) = f (1) = 0.15314
7. Probabilidade de “ao menos uma defeituosa” é P (X ≥ 1). Como as repetições são indepen-
dentes, temos P (X ≥ 1) = P (X = 1) + P (X = 2) + · · · + P (X = 9). Pela probabilidade
complementar temos
P (X ≥ 1) = 1 − P (X < 1) = 1 − P (X = 0)
Logo
P (X ≥ 1) = 1 − P (X = 0) = 0.16625
44
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
9. Temos
P (X > 4) = 1 − [P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)]
= 1 − (0.83375 + 0.15214 + 0.012501 + 5.9529 × 10−4 + 1.8223 × 10−5 )
= 1 − 0.99900 = 0.001
10.
P (X < 4) = P (X ≤ 3) = 0.99998
com isto √
σ= 0.1764 = 0.42
Os cálculos das probabilidades P (X = k) de uma distribuição binomial (n, p) podem ser reali-
zados de modo simples com o comando
distr.binom(k;n;p;0)
Exemplo 3.10 Doze por cento dos que reservam lugar num vôo, sistematicamente faltam ao em-
barque. O avião comporta 15 passageiros.
a) determinar a probabilidade de que todos os 15 que reservaram lugar compareçam ao embarque.
b) Se houve 16 pedidos de reserva determine a probabilidade;
45
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Solução.-
Se 12 % dos passageiro não comparece ao embarque, então 88% comparecem ao embarque seja X
a variável aleatória
X=“Numero de passageiros que comparecem ao embarque”.
88
a) n=15, p = 100 = 0.88, X(15, 0.88)
Todos os 15 passageiro comparecem ao embarque significa X = 15, logo
15
P (X = 15) = (0.88)15 (0.12)0 = 0.1470
15
88
b) n=16, p = 100 = 0.88, X(16, 0.88)
• Um passageiro ficar fora significa que todos comparecem ao embarque, pois no avião cabem
15: X = 16.
Logo
16
P (X = 16) = (0.88)16 (0.12)0 = 0.1293.
16
• Para nenhum ficar de fora devem comparecer 15 ou menos: X ≤ 15. Logo a probabilidade a
ser calculada é
P (X ≤ 15) = 1 − P (X = 16) = 1 − 0.1293 = 0.8707
• Mais de um ficar de fora significa X > 16 que é um evento impossı́vel com probabilidade zero
isto é P (X > 16) = 0.
• Avião decola com menos de 07 passageiros significa o número de passageiros que comparecem
ao embarque é menor ou igual a 07: X ≤ 7
16 0 16 16 1 15 16
P (X ≤ 7) = (0.88) (0.12) + (0.88) (0.12) + (0.88)2 (0.12)14 + . . .
0 1 2
16 6 10 16
··· + (0.88) (0.12) + (0.88)7 (0.12)9 .
6 7
46
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Aplicamos a distribuição binomial para fazer a análise da crença popular da existência de es-
trategias para ganhar o jogo mega-sena.
Seja n=“Número total de apostas” (ganhadoras ou perdedoras). Seja X=“Número de apostas ga-
nhadoras”. Então {X = 0}=“Ganhar nada em n tentativas” é complementar do evento G=“Ganhar
pelo menos uma vez em n tentativas”. Daı́;
P (G) = 1 − P (X = 0)
Como o mais importante para um apostador é ganhar, então podemos dizer que evento G pode
ser G=“ganhar na MegaSena em n tentativas”. Sabemos que a probabilidade de ganhar em uma
1 1
tentativa é p = C(60,6) = 50063860 .
47
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
n P (G)
10 1.99744688689218E-06
100 1.99744688689218E-06
1000 1.99742893294275E-05
10000 0.00019972494049969
100000 0.00199545530837375
106 0.0197763203476904
107 0.181060352386297
(α)k
f (k) = P (X = k) = e−α
k!
(α)k
Como ∞ α
P
k=0 k! = e , temos f (k), é uma distribuição de Probabilidade. Note-se que a média
α depende de t.
Pode-se mostrar que
E(X) = λ
e
V AR(X) = λ
Exemplo 3.11 Sabe-se que em média uma loja de sapatos recebe 4 clientes/hora. Qual é a proba-
bilidade da loja receber:
3. 30 clientes em 8 horas
48
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Sol.-
Como a média α depende do tempo t, cada item do Exercı́cio tem tempos diferentes que implica
αs diferentes.
1. Neste caso temos que α = λt= (4[clientes/hora])(1[hora]) = 4 clientes. Logo
(4)0
P (X = 0) = e−4 = e−4 = 0.018316
0!
(14)2
P (X = 2) = e−14 = 0.00008149
2!
(32)30
P (X = 30) = e−32 = 0.068142
30!
(8/3)2
P (X > 2) = 1 − P (X ≤ 2) = 1 − e−8/3 (1 + 8/3 + ) = 0.49818
2
3.4 Exercı́cios
1. Uma variável aleatória X tem a seguinte distribuição de Probabilidade
49
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2. Considere a VA do Exercı́cio anterior X = {−1.2, 0.0, 0.5, 1.2, 3.5, 5.0, 5.1} com distribuição
de probabilidade uniforme. Calcular E(X), VAR(X) e P (0 < X ≤ 5)
3. Se X = {0.4, 0.8, 1.2, . . . 6.4} é uma VA uniformemente espaçada com distribuição de proba-
bilidade uniforme, calcular E(X), VAR(X) e P (X ≤ 3).
Respostas: 3.4; 3.4; 7/16
4. Uma prova com respostas de múltipla escolha tem 25 questões, cada questão com 4 alterna-
tivas de resposta. Suponha que o estudante se limita a ”chutar“ as respostas.
Respostas: 0.99203; 1; 1
6. Uma famı́lia tem uma prole de 10 filhos entre homens e mulheres. Considerando que a
probabilidade de ser homem ou mulher é de 50%, para cada, calcular a probabilidade desta
famı́lia ter
50
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
7. Amostras de 20 peças de um processo de perfuração de metais são colhidas cada hora. Tipi-
camente 1% das peças precisa de refazer o trabalho. Seja X o número de peças das 20 que
precisam refazer o trabalho. Suspeita-se um problema de processo se X excede sua média em
mais de 3 desvios padrão.
(a) Se o percentual de peças que precisam refazer o trabalho se mantem em 1%, qual é a
probabilidade que X exceda sua média em mais de 3 desvios padrão?
(b) Se o percentual das peças para refazer aumenta para 4% qual é a probabilidade que X
exceda 1?
(c) Se o percentual das peças para refazer aumenta para 4% qual é a probabilidade que X
exceda 1 em pelo menos uma das 5 seguintes horas de amostras?
Respostas:
8. A média de falhas (quedas) por mes que sofre um usuário de uma empresa provedora de
internet é de 2 [quedas]/[mes]. Calcular as seguintes probabilidades
51
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
52
Capı́tulo 4
4.1 Introdução
Uma variável aleatória X é continua em algum intervalo [a, b] ⊂ R quando assume todos os valores
do intervalo. No entanto, neste caso, a probabilidade de um ponto isolado deve ser nula, pois
se P (X = x) > 0 então a probabilidade de todo o intervalo seria infinita, P ([a, b]) = ∞. Esta
dificuldade é superada com a introdução de densidade de probabilidade.
Definição 4.1 Seja X uma variável aleatória que toma valores num intervalo da reta [a, b] ⊂ R.
Uma densidade de probabilidade é uma função f : [a, b] 7→ R tal que
1. f (x) ≥ 0
Rb
2. a f (x)dx = 1
53
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Em muitas situações, especialmente quando a função densidade não possui uma integração
exata, o cálculo de probabilidades pode ser efetuado com a distribuição de probabilidade
acumulada
1. 0 ≤ F (x) ≤ 1
3. P (c ≤ X ≤ d) = F (d) − F (c)
4. P (X > x) = 1 − P (X ≤ x) = 1 − F (x)
Prova.- Suponha que X assume valores em [a, b] e que [c, d] ⊂ [a, b], então;
Rx
1. Se x ≤ a, então F (x) = −∞ f (t)dt = 0.
Rx Ra Rx Rx
Se a ≤ x ≤ b, F (x) = −∞ f (t)dt = −∞ f (t)dt + a f (t)dt = a f (t)dt ≤ 1.
Rx Ra Rb Rx
Se x > b, então F (x) = −∞ f (t)dt = −∞ f (t)dt + a f (t)dt + b f (t)dt = 0 + 1 + 0 = 1
Ry Rx Ry Ry
2. F (y) = −∞ f (t)dt = −∞ f (t)dt + x f (t)dt = F (x) + x f (t)dt ≥ F (x)
3.
Zd Zd Zc
P (c ≤ X ≤ d) = f (x)dx = f (x)dx − f (x)dx
c −∞ −∞
= P (X ≤ d) − P (X ≤ c)
= F (d) − F (c)
Exemplo 4.1 Seja X uma variável aleatória que toma valores no intervalo [0, 1].
54
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Solução.-
1. Temos que
1 1
x2
2 2
Z Z
1
f (x)dx = (x + 1)dx = +x =1
0 3 0 3 2 0
2.
Z0.8
x2
2 2 0.8
P (0.2 ≤ X ≤ 0.8) = (x + 1)dx = +x = 0.119999
3 3 2 0.2
0.2
Para calcular estas mesmas probabilidade com a distribuição acumulada, primeiramente cal-
culamos F (x):
Zx Zx
t2 x2
2 2 2 x 2
F (x) = (t + 1)dt = (t + 1)dt = +t = +x .
3 3 3 2 0 3 2
−∞ 0
55
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
•
1 1
x3 x2
2 2 5
Z Z 1
2
E(X) = xf (x)dx = (x + x)dx = + =
0 3 0 3 3 2 0 9
•
1 1
x4 x3
2 2 7
Z Z
1
2 2 3 2
E(X ) = x f (x)dx = (x + x )dx = + =
0 3 0 3 4 3 0 18
donde
2
7 2 2 5 13
V AR(X) = E(X ) − (E(X)) = − =
18 9 162
•
b b
1
Z Z
f (x)dx = dx = 1
a b−a a
•
b b
1 1 b2 − a 2 a+b
Z Z 1
E(X) = xf (x)dx = xdx = x2 = =
a b−a a 2(b − a) 0 2(b − a) 2
(b − a)2
V AR(X) =
12
d d
1 d−c
Z Z
P (c ≤ X ≤ d) = f (x)dx = dx =
c b−a c b−a
56
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Area =
2
Figura 4.1: f (x) = e−x
que é a área embaixo de e−x2 conforme pode ser observado na Figura 4.1.
2
Isto significa que f (x) = √1π e−x é uma densidade de probabilidade. Calculamos a média,
Z∞ Z∞ ∞
1 −x2 1 2
E(X) = xf (x)dx = √ xe dx = − √ e−x =0
π 2 π
−∞ −∞ −∞
57
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
1 1
Z Z
2 −x2 2 2
x e = e−x − xe−x ,
2 2
que pode ser obtida integrando por partes.
2 = V AR(X) = E(X 2 ) − (E(X))2 = E(X 2 ), donde:
Então σX
Z∞
2 1 2 1
σX =√ x2 e−x dx = .
π 2
−∞
Para obter uma função densidade Gaussiana que tenha média µ e variança σ 2 arbitrárias,
fazemos a substituição
y−µ
x= √
2σ
então temos
dy
dx = √
2σ
e
(y − µ)2
x2 = ,
2σ 2
com isto;
∞ ∞ (y−µ)2 ∞ (y−µ)2
1 1 dy 1
Z Z Z
−x2 −
1= √ e dx = √ e 2σ 2 √ =√ e− 2σ 2 dy
π −∞ π −∞ 2σ 2πσ −∞
• E(X) = µ e V AR(X) = σ 2
58
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
68.3%
95.5%
99.7%
Exemplo 4.3 Estudar a densidade Gaussiana X(0, 0.5), X(0, 1), e X(0, 1.5)
x -3 -2 -1 0 1 2 3
f (x) 0.0044318 0.053991 0.24197 0.39894 0.24197 0.053991 0.0044318
x -3 -2 -1 0 1 2 3
f (x) 0.035994 0.109340 0.212965 0.265962 0.212965 0.109340 0.035994
59
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Figura 4.3: Densidades Gaussianas X(0, 0.5), X(0, 1), e X(0, 1.5)
P (a ≤ X ≤ b) = P (X ≤ b) − P (X ≤ a) =
Zb Za Zb
1 (x−µ)2 1 (x−µ)2 1 (x−µ)2
− −
√ e 2σ 2 dx − √ e 2σ 2 dx = √ e− 2σ 2 dx
2πσ 2πσ 2πσ
−∞ −∞ a
Como foi dito linhas acima, nenhuma destas integrais pode ser calculada de maneira exata.
Então, estas integrais são calculadas com métodos de aproximação numéricos.
Para esta distribuição Gaussiana ou Normal, existe uma quantidade razoavelmente grande de
software livre ou pago, tanto para computadores, dispositivos móveis, ou online, que permite cal-
cular diretamente P (X ≤ a). Alguns destes softwares até possuem uma interface gráfica intuitiva.
60
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Software LibreOfficeCalc
Para calcular P (X ≤ x) da distribuição X(µ, σ) a sintaxe é:
dist.norm(x;µ;σ;1)
P (X ≤ 5) = dist.norm(5;3;1;1) = 0.97724
P (X ≤ 2) = dist.norm(2;3;1;1) = 0.15865
Portanto
P (2 ≤ X ≤ 5) = P (X ≤ 5) − P (X ≤ 2) = 0.97724-0.15865=0.81859
Por outro lado, o cálculo de x que resolve a = P (X ≤ x) = F (x) é factı́vel pois a probabilidade
acumulada F (x) = P (X ≤ x) é uma função estritamente crescente, portanto possui função inversa
F −1 . Daı́, a sintaxe para calcular x = F −1 (a) é;
inv.norm(a;µ;σ)
Por exemplo, em X(3, 1), se queremos saber qual é o valor x tal que P (X ≤ x) = 0.45 então
calculamos
Isto significa que P (X ≤ 2.8743) = 0.45 conforme podemos verificar novamente com norm.dist.
Na interface em lı́ngua inglesa o comando é norminv.
Software Octave
Para calcular P (X ≤ x) em X(µ, σ) é
normcdf(x, µ, σ)
P (1 ≤ X ≤ 4) = normcdf(4,6,2)-normcdf(1,6,2)= 0.1524
61
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
norminv(a, µ, σ).
Por exemplo para calcular o valor x em P (X ≤ x) = 0.8 em X(6, 2)
x=F −1 (0.8) = norminv(0.8,6,2)=7.6832
que significa que P (X ≤ 7.6832) = 0.8 conforme pode ser verificado com normcdf(7.6832,6,2).
Além disso, existem várias calculadoras web tais como shiny.leg.ufpr.br/hektor/calc dist/,
www.hackmath.net/en/calculator/normal-distribution etc. onde é possı́vel fazer estes cálculos
de maneira gráfica.
b−µ
b (x−µ)2
1 1
Z Z
σ z
−
P (a ≤ X ≤ b) = √ e 2σ 2 dx = √ e− 2 σdz =
2πσ a 2πσ a−µ
σ
b−µ
1 a−µ b−µ
Z
σ
− z2
√ e dz = P ≤Z≤
2π a−µ σ σ
σ
teremos que
P (z1 ≤ Z ≤ z2 ) = Φ(z2 ) − Φ(z1 ).
Portanto
b−µ a−µ
P (a ≤ X ≤ b) = Φ −Φ = Φ(z2 ) − Φ(z1 )
σ σ
62
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 4.4 Considere uma população que obedece uma distribuição normal de média µ = 6 e
desvio σ = 2, calcular a probabilidade de um elemento da população estar entre 1 e 4.
1−6
Transformamos os pontos x = 1 e x = 4 em pontos da distribuição padrão. z1 = 2 = −2.5 e
z2 = 4−6
2 = −1. Logo
• Φ(x) + Φ(−x) = 1
• Φ é crescente
Zx +∞
1 1
Z
−u2 /2 2
Q(x) = 1 − Φ(x) = 1 − √ e du = √ e−u /2 du
2π 2π
−∞ x
• Q( x) + Q(−x) = 1
63
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
• Q é decrescente
Por exemplo, mostraremos no seguinte Cap. 5 que, a probabilidade de erro per bit de transmissão
de um canal BPSK-AWGN é r !
2Eb
P (ǫ) = Q
N0
onde
Eb =“Energia per bit” em Joules/bit,
N0 =“Densidade Espectral de potencia do ruido Gaussiano” em Watts/Hertz.
Exemplo 4.5 Considere a distribuição binomial com parâmetros n = 30 e p = 0.4. Calcular pelo
método binomial P (X = 8). Aproximar esta estatı́stica pela distribuição normal
Logo
P (−1.6791 ≤ Z ≤ −1.3059) = 0.4530 − 0.4040 = 0.0490.
Que é uma aproximação com erro de 0.00148.
64
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
e variança
V AR(Y ) = E(Y 2 ) − E(X)2
Se g(X) é invertı́vel, isto é, X = g −1 (Y ), então
e portanto
fY (y) = fX (g −1 (y))
Para o caso Y = aX + b
Z∞ Z∞ Z∞
E(Y ) = E(aX + b) = (ax + b)f (x)dx = a xf (x)dx + f (x)dx = aE(X) + b
−∞ −∞ −∞
65
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Em particular, se b = 0 então
E(aX) = aE(X).
Para a Variança V AR(Y ) = E(Y 2 ) − (E(Y ))2 , calculamos
4.5 Exercı́cios
1. Dada a densidade de probabilidade f (x) = 61 (2x + 1), 0 ≤ x ≤ 2. Calcular E(X), VAR(X) e
P (X ≤ 1) e também calcular x tal que P (X ≤ x) = 0.7
Respostas: 11/9; 23/81; 1/3; 1.6095
2. Para a densidade de probabilidade uniforme no intervalo [−1, 2], calcular E(X), VAR(X),
P (0 ≤ X ≤ 1). Encontrar x tal que P (X ≤ x) = 0.9.
Respostas: 1/2; 3/4; 1/3; 1.7
3. Dada uma distribuição normal(Gaussiana) X(1.2, 0.8). Calcular P (0 ≤ X ≤ 1). Também
encontrar o valor de x tal que P (x ≤ X ≤ 2.5) = 0.5.
Respostas: 0.3345; 1.0952
4. A amplitude de um conjunto de sinais digitais recepcionados num canal de comunicações tem
distribuição gaussiana com média de 5 volts e desvio padrão de 0.1 volt. a) Que percentagem
deste sinais tera uma amplitude menor do que 5.12 volts? b) Qual é a amplitude x tal que o
conjuntos de sinais com amplitude superior a x tem probabilidade de 3% ?
Respostas: 88.49%, 5.1881
5. Sabe-se que o conteúdo de cerveja numa lata de 12 oz, de uma marca determinada, tem
distribuição aproximadamente normal com média 12 oz e desvio padrão de 0,25 oz.
(a) Que percentagem de latas terá menos de 11,6 oz?
(b) Que percentagem apresentará variação não superior a 0,3 oz em relação à média?
(c) Qual a probabilidade de, numa amostra de 4 latas, todas as quatro terem conteúdo
inferior a a 12 oz?
Respostas: a) P (X ≤ 11.6) = 0.054799; b) P (X ≤ µ + 0.3) = P (X ≤ 12.3)= 0.8849; c)
P (X ≤ 12)4 = (0.5)4 = 0.0625.
66
Capı́tulo 5
Distribuições de Probabilidade
Conjuntas
• fXY (x, y) ≥ 0
•
PP
fXY (x, y) = 1
X Y
• fXY (x, y) = P (X = x, Y = y)
67
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 5.1 Considere as variáveis aleatórias X = {1.2, 2.4, 3.1, 3.9, 4.6} e Y = {1, 3, 5, 7} com
a distribuição conjunta de probabilidade fXY (x, y) dada na Tabela 5.1
X
1.2 2.4 3.1 3.9 4.6
1 0.03 0.04 0.05 0.01 0.07
3 0.10 0.07 0.06 0.10 0.02
Y 5 0.09 0.05 0.08 0.02 0.01
7 0.07 0.01 0.08 0.02 0.02
Podemos fazer o gráfico das distribuições de duas VA discretas com o comando stem3(x,y,z) do
Octave. Para isto é necessário que X esteja ordenado de menor a maior.
0.06
0.04
0.02
0
7
6 5
5 4
4
3
3
2 2
1 1
Definição 5.2 Dado o par de variáveis aleatórias X, Y contı́nuas, uma densidade de probabilidade
conjunta sobre X, Y é uma função f que satisfaz
• fXY (x, y) ≥ 0
•
RR
fXY (x, y)dxdy = 1
R2
68
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2Z 1 2Z 1
1
Z Z
fXY (x, y)dydx = (x + y)dydx =
0 0 3 0 0
1 2 1 2
Z Z
2 y=1
[xy + y /2]y=0 dydx = (x + 1/2)dx = 1
3 0 3 0
Então fXY é uma distribuição conjunta de probabilidade.
(x + y) / 3
0.8
0.6
0.4
0.2
Volume embaixo
0
1 do Plano é 1
0.8
0.6
2
0.4 1.5
y
0.2 1
0.5 x
0 0
onde a = 10−3 , é umaRRdensidade de probabilidade pois fXY (x, y) ≥ 0 para todo (x, y) ∈ R2 . Para
provar que a integral fXY (x, y)dA = 1, considere a região
R = {(x, y) ∈ R2 ; 0 < x < y},
69
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
então
Z∞ Z∞
ZZ ZZ
fXY (x, y)dydx = 6a2 e−ax e−2ax dydx = 6a2 e−ax e−2ax dy dx =
R2 R 0 x
Z∞ Z∞ Z∞
2 −ax 1 −2ay ∞
−ax −2ax
6a e e dx = −3a e (0 − e )dx = 3a e−3ax dx = 1
−2a x
0 0 0
Definição 5.4 Dada uma distribuição de densidade conjunta fXY (x, y) as marginais fX e fY e
suas respectivas E(X), E(Y ), V AR(X), V AR(Y ) estão definidas por
R
fX (x) = fXY (x, y)dy
R
R
fY (y) = fXY (x, y)dx
RR RR
E(X) = xfX (x)dx = xfXY (x, y)dydx
R R 2
R RR
E(Y ) = yfY (y)dx = yfXY (x, y)dydx
R R2
V AR(X) = E(X 2 ) − (E(X))2
V AR(Y ) = E(Y 2 ) − (E(Y ))2
70
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
5
X
E[X] = xk fX (xk ) = 1.2(0.29) + 2.4(0.17) + 3.1(0.27) + 3.9(0.15) + 4.6(0.12) = 2.73
k=1
4
X
E[Y ] = xk fY (yk ) = 1(0.20) + 3(0.35) + 5(0.25) + 7(0.20) = 3.9
k=1
1 1
1 1 1
Z Z
fX (x) = fXY (x, y)dy = (x + y)dy = x+
0 3 0 3 2
2 2
1 2
Z Z
fY (y) = fXY (x, y)dx = (x + y)dy = (y + 1)
0 3 0 3
R2 R1
Claramente 0 fX (x)dx = 1 e 0 fY (y)dy = 1, com isto
71
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2 2
1
Z Z
E[X] = xfX (x)dx = x(x + 1/2)dx =
0 3 0
2 2
1 x3 x2
1 1 11
Z
2
= (x + x/2)dx = + = (8/3 + 1) = ≈ 1.222
3 0 3 3 4 0 3 9
1 1
2
Z Z
E[Y ] = yfY (y)dy = y(y + 1)dy =
0 3 0
2 1
2 y3 y2
2 2 5
Z
2
= (y + y)dy = + = (1/3 + 1/2) = ≈ 0.5555
3 0 3 3 2 0 3 9
72
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Z∞ Z ∞
2 −ax −2ay 2 −ax
fX (x) = 6a e e dy = 6a e e−2ay dy = 3ae−3ax x>0
x
x
Temos que fX (x) é uma distribuição do tipo exponencial f (x) = λe−λx , λ > 0, cuja média são
dadas por E(X) = λ1 e V AR(X) = λ12 , respectivamente.
Utilizando estas formulas da esperança e variança para a densidade exponencial, temos que
1
E[X] = 3a = 333.333,
2 1
σX = 2
9a
1
donde σX = 3a = 111.11
Z∞
2
E[Y ] = y 2 (6ae−2ay − 6ae−3ay )dy
0
Z∞ Z∞
2 −2ay
=3 y (2ae )−2 y 2 (3ae−3ay )dy
0 0
2 2 6 4 19
=3 −2 = − = .
(2a)2 (3a)2 4a2 9a2 18a2
Então 2
19 5 13
V AR[Y ] = σY2 = − =
18a2 6a 36a2
√
13
donde σY = 6a = 600.93.
73
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
X
1.2 2.4 3.1 3.9 4.6
1 0.036 0.096 0.155 0.039 0.322
3 0.360 0.504 0.558 1.170 0.276
Y 5 0.540 0.600 1.240 0.390 0.230
7 0.588 0.168 1.736 0.546 0.644
Portanto a correlação é
E[XY ] = 10.198
e a covariância
σXY = E[XY ] − E[X]E[Y ] = 10.198 − (2.73)(3.9) = −0.449
e o ı́ndice de correlação
σXY −0.449
ρXY = = = −0.18814
σX σY (1.1659)(2.0469)
Exemplo 5.8 (Continuação do Exemplo 5.2)
1Z 2
1 1 2 2
Z Z Z
E[XY ] = xyfXY (x, y)dydx = (x y + xy 2 )dydx
0 0 3 0 0
1
1 2 2 y2 y3 1 2 x2 x
Z Z
1 3 2 2
x +x dx = + dx = x + x2 0 = .
3 0 2 3 0 3 0 2 3 18 3
então
2 11 5 1
COV [X, Y ] = E[XY ] − E[X]E[Y ] = − =−
3 9 9 81
e o ı́ndice de correlação é:
σXY −1/81 1
ρXY = =p p = −p = −0.081786
σX σY 23/81 13/162 23(13/2)
74
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Calculo de
Z∞ Z∞
E[XY ] = xy6a2 e−ax e−2ay dxdy
0 x
Z∞
∞
Z
= 6a2 xe−ax dx ye−2ay dy
0 x
Z∞ ∞
(−2a)y − 1 −2ay
= 6a2 xe−ax dx e
(−2a)2 x
0
Z∞
−2ax − 1 −2ax
= 6a2 xe−ax dx 0 − e
4a2
0
Z∞ Z ∞ Z ∞
3 1
= (2ax + 1)xe−3ax dx = x2 (3ae−3ax )dx + x(3ae−3ax )dx
2 0 2a 0
0
2 1 1 7
= 2+ =
9a 2a 3a 18a2
Portanto
7 1 5 1
σXY = − = = 111111.111
18a2 3a 6a 9a2
enquanto que
1/9a2 2
ρXY = p p = √ = 0.5547
2
1/9a 13/36a 2 13
75
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
a probabilidade condicional P (X = x|Y = y) é denotada por fX|y (x) e também é uma distribuição
de probabilidade de X para cada y fixo:
fXY (x, y)
P (X = x|Y = y) = fX|y (x) =
fY (y)
Analogamente
fXY (x, y)
P (Y = y|X = x) = fY |x (y) =
fY (x)
X
1.2 2.4 3.1 3.9 4.6
1 0.03 0.04 0.05 0.01 0.07
3 0.10 0.07 0.06 0.10 0.02
Y 5 0.09 0.05 0.08 0.02 0.01
7 0.07 0.01 0.08 0.02 0.02
Calculamos
fXY (1.2, y) fXY (1.2, y)
fY |1.2 (y) = f (y|1.2) = =
fX (1.2) 0.29
Por exemplo para y = 3 temos
y 1 3 5 7
f (y|1.2) 0.10345 0.34483 0.31034 0.24138
4
X
E[Y |1.2] = yk f (yk |1.2) = 1(0.10345) + 3(0.34483) + 5(0.31034) + 7(0.24138) = 4.3793
1
76
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
fXY (x, y)
f (y|x) = .
fX (x)
Analogamente para a reciproca f (x|y) podemos obter
fXY (x, y)
f (x|y) = .
fY (y)
Exemplo 5.11 (Continuação do Exemplo 5.2)
Considere o exemplo
(
1
(x + y), (x, y) ∈ [0, 2] × [0, 1]
fXY (x, y) = 3
0, outro caso
Temos
fXY (0.6, y) 30 30 1 3 6 10
fX|0.6 (y) = f (y|0.6) = = fXY (0.6, y) = +y = + y, y ∈ [0, 1]
fX (0.6) 11 11 3 5 11 11
Observamos que
1 1
6 10y
Z Z
f (y|0.6)dy = + dy = 1
0 0 11 11
portanto f (y|0.6) é uma distribuição de probabilidade que tem esperança e variança.
Z 1 Z 1
6y 10y 2
19
E[Y |0.6] = yf (y|0.6)dy = + dy = ≈ 0.57576
0 0 11 11 33
77
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Portanto
A Variável soma aX + bY
78
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
1
Pn
5.4.3 A variável média amostral X̄ = n i=1 Xi
Seja {Xi } um conjunto IID ( independentes e identicamente distribuı́das). Isto significa X = Xi
para cada i = 1, 2, . . . n e os Xi são dois a dois independentes, com E(Xi ) = E(X) = µX e
V AR(Xi ) = V AR(X) = σX 2 .
temos
n n
!
1 X 1X nµX
µX̄ E(X̄) = E Xi = E(Xi ) = = µX
n n n
i=1 i=1
Por outro lado
n ! n 2 2
X 1 1 X nσX σX
V AR(X̄) = V AR Xi = V AR(X i ) = =
n n2 n2 n
i=1 i=1
ou seja
σX
σX̄ = √
n
esta fórmula será de FUNDAMENTAL importância em inferência Estatı́stica.
P [Z = z, X = xi ] P [X + Y = z, X = xi ]
fZ|xi (z) = f (z|xi ) = P [Z = z|X = xi ] = =
P [X = xi ] P [X = xi ]
P [Y = z − xi , X = xi ] fXY (xi , z − xi )
=
P [X = xi ] fX (xi )
Daı́
fXZ (xi , z) = f (z|xi )fX (xi ) = fXY (xi , z − xi )
Portanto X
fZ (z) = fXY (xi , z − xi )
i
Se X, Y são independentes então temos:
79
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
• a convolução X
fZ (z) = fX (xi )fY (z − xi )
i
•
f (z|x) = fY (z − xi )
P [Z ≤ z, X = xi ] P [X + Y ≤ z, X = xi ]
FZ|xi (z) = F (z|xi ) = P [Z ≤ z|X = xi ] = =
P [X = xi ] P [X = xi ]
R z−xi
P [Y ≤ z − xi , X = xi ] fXY (xi , y)dy
= −∞
P [X = xi ] fX (xi )
Derivando
∂F (z|xi ) fXY (xi , z − xi )
= f (z|xi ) =
∂z fX (xi )
Daı́
fXZ (xi , z) = f (z|xi )fX (xi ) = fXY (xi , z − xi )
Portanto X
fZ (z) = fXY (xi , z − xi )
i
• a convolução X
fZ (z) = fX (xi )fY (z − xi )
i
•
f (z|x) = fY (z − xi )
Caso X, Y contı́nuos
Para este caso utilizaremos o Teorema de Mudança de variáveis;
ZZ
F (z) = P [Z ≤ z] = P [X + Y ≤ z] = fXY (x, y)dA
R
onde R é a região
R = {(x, y) ; x ∈ R , −∞ ≤ y ≤ z − x}
80
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
x=u
y =v−u
S = {(u, v) ; u ∈ R , −∞ ≤ v ≤ z}
∂T
= (1, −1)
∂u
e
∂T
= (0, 1)
∂v
∂(x, y)
= det(DT ) = 1
∂(u, v)
Então pelo Teorema de mudança de variáveis
∂(x, y)
ZZ ZZ
F (z) = fXY (x, y)dAxy = fXY (x(u, v), y(u, v))) dAuv
∂(u, v)
R S
Z ∞ Z z
= fXY (u, v − u)dvdu
−∞ −∞
Dai ∞
∂F (z)
Z
fZ (z) = = fXY (u, z − u)du
∂z −∞
Para X, Y independentes temos
• a convolução Z ∞
fZ (z) = fX (x)fY (z − x)dx
−∞
R∞
• Também fZ (z) = −∞ fXZ (x, z)dx. Por comparação
e portanto
fXZ (x, z)
f (z|x) = = fY (z − x)
fX (x)
81
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
e o coeficiente de correlação
2
σX
COV (X, Z) σX σX 1
ρXZ = = = =q =r
σX σZ σX σZ σZ 2 + σ2
σX
2
σY
Y 1+ 2
σX
2
σZ
Quando 2
σX
→ 0, temos que Z e X estão fortemente correlacionados, pois ρXZ → 1.
2
σY
Quando 2
σX
→ ∞, Z e X estão fracamente correlacionados, pois ρXZ → 0.
82
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
donde
∂FY |a(y) 1 2 2
f (y|a) = =√ e−(y−a) /2σ
∂y 2πσ
Portanto em transmissão binária com ruido Gaussiano, a densidade de probabilidade condicio-
nada à transmissão do sinal X = a é:
1 2 2
f (y|a) = √ e−(y−a) /2σ
2πσ
e analogamente
1 2 2
f (y| − a) = √ e−(y+a) /2σ
2πσ
83
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Q(−x) = 1 − Q(x)
Com isto, podemos calcular P r[ǫ|a] em termos da função Q(x). Fazemos a mudança de variáveis
y−a
σ = u e na formula de P r[C|a] obtemos
a a
P r[C|a] = Q − =1−Q
σ σ
isto significa que a
P r[ǫ|a] = Q
σ
Analogamente pode-se mostrar que
a
P r[ǫ| − a] = Q
σ
Portanto a probabilidade de erro de detecção é
1 a a a
P r[ǫ] = P r[ǫ|a]p(a) + P r[ǫ| − a]p(−a) = Q +Q =Q
2 σ σ σ
84
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
√
A amplitude a é definida por a = Eb , onde Eb é a energia por bit em [Joules/bit] Com isto, o
quociente √ r
a Eb 2Eb
=p = ,
σ N0 /2 N0
Joules/bit
não tem unidades fı́sicas, pois na divisão as unidades fı́sicas são canceladas.
Watts/Hertz
r !
2Eb
P [ǫ] = Q
N0
5.6 Exercı́cios
1. Dada a distribuição conjunta de Probabilidades discreta
X
0.2 1.3 2.1 3.9 4.5
1.5 0.02 0.02 0.05 0.01 0.04
2.0 0.03 0.04 0.07 0.02 0.02
Y 2.5 0.05 0.08 0.01 0.02 0.06
3.0 0.01 0.10 0.06 0.03 0.04
3.5 0.04 0.07 0.03 0.04 0.04
calcular: E(Y |X = 3.9), E(X|Y = 2.0) e o coeficiente de correlação ρXY . Sugestão: fazer os
cálculos em Planilha Eletrônica (Ex. LibreOfficeCalc)
1
3. Considere a densidades de probabilidade conjunta continua fXY (x, y) = 39 (2x + y + 3), onde
0 ≤ x ≤ 2 e 0 ≤ y ≤ 3. Calcular E(Y |X = 1), VAR(X|Y = 2) e o coeficiente de correlação
85
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
ρXY .
Alguns resultados preliminares antes de chegar as respostas finais
fX (x) = 2x 9 2 1
13 + 26 ; fY (y) = 39 (x + 5); f (y|1) = fY (y); f (x|2) = 14 (2x + 5);
43 21 23 20 87
E(X) = 39 ; E(Y ) = 13 ; E(XY ) = 13 ; E(X 2 ) = 13 ; E(Y 2 ) = 26 . Com tudo isto temos as:
86
Capı́tulo 6
Estatı́stica descritiva
Definição 6.2 Ordenando os dados de menor a maior, a mediana amostral é o número tal que
a metade dos dados são menores e a outra metade são maiores. Se n é impar então a mediana é
o elemento na posição n+1 n n+1
2 . Se n é par a mediana é a media dos elementos nas posições 2 e 2 .
87
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Pn
Desenvolvendo o quadrado, e lembrando que nx̄ = i=1 xi , temos;
n
X n
X n
X n
X
(xi − x̄)2 = (x2i − 2x̄xi + x̄2 ) = x2i − 2x̄ xi + nx̄2 =
i=1 i=1 i=1 i=1
n n
! !
X X
x2i − 2x̄nx̄ + nx̄2 = x2i − nx̄2 ,
i=1 i=1
88
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
onde y11 = y12 = · · · = y1n1 . Por conveniência fazemos a mudança de variável x1 = y1 e assimx1
será o representante da classe Y1
De modo similar definimos a classe (subconjunto)
• Y = Y1 ∪ Y2 ∪ · · · ∪ Ym e Yi ∩ Yj = ∅ para i 6= j.
• n = n1 + n2 + · · · + nm .
89
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
A repetição dos preços dos 45 postos permite resumir estes dados a 8 valores
onde o preço mais barato é de 3.9 reais praticado por 3 postos, o mais caro é de 4.6 reais praticado
por um posto. O preço mais comum é de 4.3 reais praticado por 15 postos. Toda essa informação
pode ser organizada e melhor apresentada em na Tabela de Frequências 6.2.
Dados organizados da Tabela de frequências 6.2 podem ser facilmente representados nas Figuras
6.1 e 6.2 que são o gráfico de linhas e gráfico de barras dos preços de combustı́veis de 45 postos.
90
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
20
15
10
0
3.9 4 4.1 4.2 4.3 4.4 4.5 4.6
20
15
10
0
3.8 4 4.2 4.4 4.6 4.8 5
91
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
preço litro de gasolina xi 3.9 4.0 4.1 4.2 4.3 4.4 4.5 4.6
número de postos (frequência) ni 3 4 5 7 15 8 2 1
8
P
ni xi
i=1 3(3.9) + 4(4.0) + 5(4.1) + 7(4.2) + 15(4.3) + 8(4.4) + 2(4.5) + 4.6
x̄ = =
n 45
190.9
= 4.242222
45
Por outro lado a variança é
8
ni x2i ) − nx̄
P
(
i=1
s2 = =
n−1
[3(3.9)2 + 4(4.0)2 + 5(4.1)2 + 7(4.2)2 + 15(4.3)2 + 8(4.4)2 + 2(4.5)2 + 4.62 ] − 45(4.2422)2
44
811.05 − 89.8402
= 0.0275
44
92
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
onde x̄i é a média da classe Yi dada por x̄i = a + (2i − 1)∆/2, e fi é a frequência relativa fi = nni
da classe Yi .
Enquanto que a variância amostral aproximada pode ser calculada com
m
!
2 n X
2 2
saprox = ( x̄i fi ) − x̄ (6.6)
n−1
i=1
93
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 6.3 O conjunto de dados da Tabela 6.3 mostra o rendimento em km/litro de combustı́vel
de uma amostra de 40 veı́culos motorizados.
10
número de ocorrencias
3 8 13 18 23 28 33
consumo de combustivel de veiculos
94
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Então,
6
X
x̄aprox = fi x̄i = 14.875
i=1
e
6
!
40 X 40
s2aprox = fi x̄2i − x̄ 2
= (272.75 − 14.8752 ) = 51.4843
39 39
i=1
601.7
Por outro lado LibreOfficeCalc podemos calcular diretamente a média amostral x̄ = 40 =
15.0425 enquanto que a a variança amostral s2 = 2224
39 = 57.02609.
95
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 6.4 Consideremos o conjunto de 200 dados numéricos da Tabela 6.4 que representam o
número de horas que duram 200 lampadas.
Tempo de duração de lampadas (horas)
1067 919 1196 785 1126 936 918 1156 920 948
855 1092 1162 1170 929 950 905 972 1035 1045
1157 1195 1195 1340 1122 938 970 1237 956 1102
1022 978 832 1009 1157 1151 1009 765 958 902
923 1333 811 1217 1085 896 958 1311 1037 702
521 933 928 1153 946 858 1071 1069 830 1063
930 807 954 1063 1002 909 1077 1021 1062 1157
999 932 1035 944 1049 940 1122 1115 833 1320
901 1324 818 1250 1203 1078 890 1303 1011 1102
996 780 900 1106 704 621 854 1178 1138 951
1187 1067 1118 1037 958 760 1101 949 992 966
824 653 980 935 878 934 910 1058 730 980
844 814 1103 1000 788 1143 935 1069 1170 1067
1037 1151 863 990 1035 1112 931 970 932 904
1026 1147 883 867 990 1258 1192 922 1150 1091
1039 1083 1040 1289 699 1083 880 1029 658 912
1023 984 856 924 801 1122 1292 1116 880 1173
1134 932 938 1078 1180 1106 1184 954 824 529
998 996 1133 765 775 1105 1081 1171 705 1425
610 916 1001 895 709 860 1110 1149 972 1002
Pela natureza e volume de dados organizamos este conjunto em 10 classes detalhadas juntamente
co as suas frequências, frequências relativas e outros dados necessários para calcular x̄approx e s2aprox
na seguinte tabela
Ci ni
500-600 2
600-700 5
700-800 12
800-900 25
900-1000 58
1000-1100 41
1100-1200 43
1200-1300 7
1300-1400 6
1400-1500 1
96
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
60
50
número de ocorrencias
40
30
20
10
5 6 7 8 9 10 11 12 13 14 15
duração de lampadas em unidades de 100 horas
Por outro lado com uma planilha eletrônica podemos calcular que a verdadeira média amostral
é x̄ = 998.13 e o verdadeiro desvio padrão é s = 157.8624.
Desenvolvendo o produto (xi − x̄)(yi − ȳ) e utilizando os fatos ni=1 xi = nx̄ e ni=1 yi = nȳ
P P
temos
X X X X X
(xi − x̄)(yi − ȳ) = xi yi − nx̄ȳ = yi (xi − x̄) + yi x̄ − nx̄ȳ = yi (xi − x̄).
97
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 6.5 Considere o seguinte conjunto de dados de 10 pessoas com informações de número
de anos de escolaridade e número de batimentos por minuto do coração. Se X=“Numero de anos
Pessoa 1 2 3 4 5 6 7 8 9 10
Anos escolaridade 12 16 13 18 19 12 18 19 12 14
Batimentos 73 67 74 63 73 84 60 62 76 71
i 1 2 3 4 5 6 7 8 9 10
P
xi 12 16 13 18 19 12 18 19 12 14 = 153
P
yi 73 67 74 63 73 84 60 62 76 71 = 703
xi − x̄ -3.3 0.7 -2.3 2.7 3.7 -3.3 2.7 3.7 -3.3 -1.3
yi − ȳ 2.7 -3.3 3.7 -7.3 2.7 13.7 -10.3 -8.3 5.7 0.7
(xi − x̄)2
P
10.89 0.49 5.29 7.29 13.69 10.89 7.29 13.69 10.89 1.69 =82.1
(yi − ȳ)2
P
7.29 10.89 13.69 53.29 7.29 187.69 106.09 68.89 32.49 0.49 =488.1
P
yi (xi − x̄) -240.9 46.9 -170.2 170.1 270.1 -277.2 162.0 229.4 -250.8 -92.3 =-152.9
n
P
yi (xi − x̄)
i=1 −152.9 −152.9
rxy = s =p = = −0.76381
n n (82.1)(488.1) 200.18
(xi − x̄)2 (yi − ȳ)2
P P
i=1 i=1
6.4 Exercı́cios
1. Considere os conjuntos de dados X e Y da Tabela 6.5 e da Tabela 6.6, então calcular:
98
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
P10 3
(c) i=1 (xi − 3yi2 − 3)
P10
(x2 +yi2 )
(d) P10 i
i=1
i=1 xi
(e) rXY
x1 x2 x3 x4 x5 x6 x7 x8 x9 x10
5 4.6 -2.1 0 3.4 3.7 -3.1 1.2 5.6 4
y1 y2 y3 y4 y5 y6 y7 y8 y9 y10
1.3 2.8 4.1 -3.5 -2.4 -4.7 2.2 0.2 5.3 2.7
26.1 34.0 32.3 25.0 28.7 31.0 32.3 36.0 36.1 38.0
32.4 33.4 33.6 34.2 34.2 30.0 30.9 32.0 32.9 34.0
28.4 31.3 29.2 29.3 21.1 34.0 26.1 36.0 37.0 37.2
33.4 29.2 35.4 36.0 35.5 33.7 35.3 31.2 29.8 38.5
25.0 33.4 36.4 32.0 33.2 31.3 33.4 34.3 33.4 33.2
23.7 32.4 33.7 34.2 34.0 31.0 28.9 33.0 32.0 35.0
27.3 33.3 29.3 29.2 21.1 34.0 27.1 34.0 38.6 27.2
31.4 28.2 35.7 36.8 35.0 29.7 35.6 37.2 28.8 24.5
27.0 34.4 36.8 32.0 33.2 31.3 33.4 31.3 34.4 29.2
então
(a) Organizar os dados numa Tabela de frequências de classes, com 5 classes. Desenhar o
histograma.
(b) Organizar os dados numa Tabela de frequências de classes, com 8 classes. Desenhar o
histograma.
99
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
6.3 4.1 5.2 7.3 7.9 6.8 1.1 7.3 6.2 3.5
7.3 6.8 0.0 8.6 7.3 5.1 8.6 5.5 6.0 6.0
6.5 9.0 8.7 5.5 4.5 7.8 7.8 5.3 5.3 4.8
10.0 3.8 6.1 9.3 9 9.8 9.5 8.6 8.3 3.2
7.2 7.3 5.1 7.5 6.1 5.3 9.7 2.0 2.1 4.7
8.1 3.8 9.3 9.3 9.0 8.9 5.5 6.8 3.8 3.2
5.0 7.3 5.1 4.9 6.1 5.3 5.7 2.0 1.3 7.1
então
então
5. Considere as seguintes temperaturas medidas numa região do Brasil durante 50 dias conse-
cutivos de um verão, no perı́odo da tarde.
36.1 34.0 32.3 25.0 28.7 31.0 32.3 36.0 36.1 38.0
32.4 33.4 33.6 34.2 34.2 30.0 30.9 32.0 32.9 34.0
28.0 31.3 29.2 29.3 32.1 27.0 26.1 36.0 37.0 37.2
33.4 34.2 35.4 36.0 35.5 33.7 35.3 31.2 29.8 29.5
25.0 33.4 36.4 32.0 33.2 31.3 33.4 34.3 33.4 33.2
Organizar os dados em 05 classes que correspondam com as condições “bem agradável”,
“agradável”, “quente”, “muito quente”, e “sufocante”.
100
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
(a)
P100 2
i=1 (xi + 3yi − i + 1)
P P
100 100
i=1 (xi − x̄) i=1 (yi − ȳ)
P100 √ √
(b) i=1 [sin( xi ) cos( yi )]
(c) Para o conjunto de dados X, construir uma distribuição de frequências com 12 classes.
101
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
102
Capı́tulo 7
Estimação de parâmetros
Dada uma variável aleatória X os parâmetros mais importantes a serem estimados são a média µ,
a variança σ 2 e alguma proporção P (A), onde A é um evento de X. Esta estimação é realizada via
a repetição do experimento que determina X. O resultado deste experimento é um vetor aleatório
X1 , X2 , . . . , Xn do tipo IID (identically independent distributions) e o estimador ou estatı́stica é
uma função
Θ̂ = g(X1 , X2 , . . . , Xn ),
que é também uma variável aleatória. Esta função deve satisfazer a condição
E(Θ̂) = E(g(X1 , X2 , . . . , Xn )) = θ,
o parâmetro que se esta estimando.
Exemplo 7.1 O estimador mais importante da média µ é a média amostral
n
P
Xi
i=1
X̄ =
n
Temos que
n
P
E(Xi )
i=1 nµ
E(X̄) = = = µ,
n n
que prova que este estimador é não-tendencioso.
Exemplo 7.2 O estimador mais importante de variância σ 2 é
n
(Xi − x̄)2
P
i=1
s2 = ,
n−1
que na seguinte seção mostramos é um estimador não-tendencioso. Isto é E(s2 ) = σ 2 .
103
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
n
(Xi − X̄)2
P
i=1
S2 =
n
mostramos que este estimador é tendencioso, isto significa que não é bom estimador. Para isto
n n
(Xi − X̄)2 (Xi − µ + µ − X̄)2
P P
2 i=1 i=1
S = =
n n
n
(Xi − µ)2 + 2(Xi − µ)(µ − X̄) + (µ − X̄)2
P
i=1
=
n
n n
!
1 X 1X
= (Xi − µ)2 + 2(µ − X̄) (Xi − µ) + (µ − X̄)2
n n
i=1 i=1
n
1X
= (Xi − µ)2 + 2(µ − X̄)(X̄ − µ) + (µ − X̄)2
n
i=1
n
1X
= (Xi − µ)2 − (µ − X̄)2
n
i=1
n n
1X 1X
(Xi − µ)2 = (Xi − 2µXi + µ2 )
n n
i=1 i=1
n n
!
1X 2 1X
= Xi − 2µ Xi + µ2
n n
i=1 i=1
n
!
1X 2
= Xi − µ2 .
n
i=1
Portanto
n
!
2 1X 2
S = Xi − µ2 − (X̄ − µ)2
n
i=1
104
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Como as Xi são do tipo IID então P r(x1 , x2 , . . . , xn |θ) = Πni=1 P r(xi |θ). Por outro lado, a
propriedade injetora da função logaritmo faz com que
105
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Que pode ser calculada derivando a função f (θ) = ni=1 log(P r(xi )|θ) e resolvendo para θ a
P
equação
Xn ∂P r(xi |θ)
∂θ
=0
P r(xi |θ)
i=1
106
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
n
1
P
7.3 Propriedades da média amostral X̄ = n Xi
i=1
Por outro lado a variança não é linear, mas têm a seguinte propriedade
Dado um numero natural n e uma variável aleatória X com média µ e desvio σ, considere a
repetição independente de X por n vezes. O resultado deste experimento repetido é o vetor
aleatório X1 , X2 , . . . , Xn , onde cada Xi é a variável aleatória X.
A média amostral definida por
X1 + X2 + · · · + Xn
X̄ = (7.1)
n
tem as seguintes propriedades;
•
E(X̄) = µ
•
σ2
V AR(X̄) =
n
Isto significa que quanto maior o tamanho de n, maior será o grau de confiança de que a
média amostral se aproxime da média verdadeira.
107
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
X¯n − µ
Yn = √
σ/ n
Exemplo 7.4 Considere a variável aleatória X = {0, 2, 4} com probabilidades {0.5, 0.25, 0.25}
respectivamente. Estudar a média amostral
A media de X é
n
X
µX = pi xi = (0.5)(0) + (0.25)(2) + (0.25)(4) = 1.5
i=1
–
P (0.75838 ≤ X̄ ≤ 2.2416) = 0.68,
que pode ser interpretado assim “Uma média amostral de tamanho n = 5 esta no inter-
valo [0.75838,2.2416] com un 68% de confiança.
–
P (0.016760 ≤ X̄ ≤ 2.9832) = 0.955,
que pode ser interpretado assim “Uma média amostral de tamanho n = 5 esta no inter-
valo [0.016760,2.9832] com un 95.5% de confiança.
–
P (−0.72486 ≤ X̄ ≤ 3.7249) = 0.997,
que pode ser interpretado assim “Uma média amostral de tamanho n = 5 esta no inter-
valo [-0.72486,3.7249] com un 99.7% de confiança.
108
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
q
σX
• Se n = 10, temos que √
n
= 2.75
10 = 0.52440, então X̄ é uma Gaussiana X̄(1.5, 0.52440).
Logo
–
P (0.97560 ≤ X̄ ≤ 2.0244) = 0.68,
que pode ser interpretado assim “Uma média amostral de tamanho n = 10 esta no
intervalo [0.97560,2.0244] com un 68% de confiança.
–
P (0.45119 ≤ X̄ ≤ 2.5488) = 0.955,
que pode ser interpretado assim “Uma média amostral de tamanho n = 10 esta no
intervalo [0.45119,2.5488] com un 95.5% de confiança.
–
P (−0.073213 ≤ X̄ ≤ 3.0732) = 0.997,
que pode ser interpretado assim “Uma média amostral de tamanho n = 10 esta no
intervalo [-0.073213, 3.0732] com un 99.7% de confiança.
q
σX
• Se n = 20, temos que √ n
= 2.75
20 = 0.37081, então X̄ é uma Gaussiana X̄(1.5, 0.37081).
Logo
–
P (1.1292 ≤ X̄ ≤ 1.8708) = 0.68,
que pode ser interpretado assim “Uma média amostral de tamanho n = 20 esta no
intervalo [1.1292,1.8708] com un 68% de confiança.
–
P (0.75838 ≤ X̄ ≤ 2.2416) = 0.955,
que pode ser interpretado assim “Uma média amostral de tamanho n = 20 esta no
intervalo [0.75838,2.2416] com un 95.5% de confiança.
–
P (0.38757 ≤ X̄ ≤ 2.6124) = 0.997,
que pode ser interpretado assim “Uma média amostral de tamanho n = 20 esta no
intervalo [0.38757, 2.6124] com un 99.7% de confiança.
Exemplo 7.5 Considere a variável aleatória X = {0, 2, 4} com probabilidades {1/3, 1/3, 1/3} res-
pectivamente. Estudar a média amostral para os mesmos tamanhos amostrais n = 5, 10, 20.
Neste caso temos que a µX = 2 e σX 2 = E(X 2 ) − µ2 = 20 − 22 = 8 = 2.6666. Para as amostras
√ X 3 3
de tamanhos 5,10 e 20 teremos os desvios σX / n = 0.73030, 0.51640, e 0.36515 respectivamente
que mostra que a estimação da média amostral será mais precisa do que no caso anterior.
109
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
110
Capı́tulo 8
Intervalos de Confiança
1-
/2 /2
x- x x +
Dada a média amostral x̄, obtida de uma amostra de tamanho n de uma VA com variança
σ 2 , queremos determinar o intervalo = [x̄ − ǫ, x̄ + ǫ] onde esteja a verdadeira média µ com um
nı́vel de confiança 1 − α. Este intervalo que depende do número positivo ǫ, é chamado “Intervalo
de confiança” (IC) e o número positivo ǫ, algumas vezes é chamado de “margem de erro”. A
dependência do IC de ǫ é estabelecida pela fórmula
111
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
{X̄ − ǫ ≤ µ ≤ X̄ + ǫ} ⇔ {−ǫ ≤ µ − X̄ ≤ ǫ}
⇔ {−ǫ ≤ X̄ − µ ≤ ǫ}
ǫ ǫ
⇔ − √ ≤Z≤ √ ,
σ/ n σ/ n
Então
ǫ ǫ ǫ
P (X̄ − ǫ ≤ µ ≤ X̄ + ǫ) = P − √ ≤Z≤ √ = 2Φ √ −1
σ/ n σ/ n σ/ n
Fazendo
ǫ
z α2 = √
σ/ n
e impondo a condição do nı́vel de confiança do IC, P (X̄ − ǫ ≤ µ ≤ X̄ + ǫ) = 1 − α temos que
1 − α = 2Φ(z α2 ) − 1
norminv(1- α2 ; 0; 1) ou norm.s.inv(1- α2 ).
1-α
α/2 α/2
-z α/2 0 zα/2
Exemplo 8.1 Seja X uma variável aleatória normal com variança 32. Considere uma amostra de
tamanho 25 cuja média amostral é 63.5. Determinar o IC para um nı́vel de confiança de 85 % ?
112
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Solução.-
Como 1−α = 0.85 temos que α = 0.15. Logo obtemos Φ(z α2 ) = 1−0.075 = 0.925, donde z α2 = 1.44.
Com isto √
(1.44) 32
ǫ= = 1.6292
5
e o intervalo com um 85% de confiança é
Exemplo 8.2 No IC [x̄ − z α2 √σn , x̄ + z α2 √σn ], qual é o valor de z α2 que fornece 92 % de confiança?
Sol.-
Temos que para o nı́vel de confiança de 92 % o valor de α é 8 %, ou seja α = 0.08 e α/2 = 0.04.
Com isto, Φ(z α2 ) = 1 − 0.04 = 0.96 donde, da Tabela Φ, obtemos z α2 = 1.75068.
Sol.- zα σ
O erro é dado por ǫ = √2
n
donde
z 2α σ 2
2
n=
ǫ2
Para o IC de 90 % temos que α = 0.1 e α/2 = 0.05, logo Φ(z α2 ) = 1 − 0.05 = 0.95. Disto
z α2 = 1.64485
Por outro lado, se o comprimento do intervalo é 12 então ǫ = 6.
Portanto
(1.64485)2 (25)
n= = 1.8788,
62
que significa n = 2.
Sol.- zα σ
O erro é dado por ǫ = √2
n
donde
ǫ2 n
σ2 =
z 2α
2
Para o IC de 98 % temos que α = 0.02 e α/2 = 0.01, logo Φ(z α2 ) = 1 − 0.01 = 0.99. Disto
z α2 = 2.326
113
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Intervalos Unilaterais
• Para um IC inferior é considerada a “probabilidade de µ estar no intervalo (−∞, x̄ + ǫ]”.
ǫ
P (µ ≤ X̄ + ǫ) = P (X̄ − µ ≥ −ǫ) = P (Z ≥ − √ )
σ/ n
= P (Z ≥ −zα ) = 1 − Φ(−zα ) = Φ(zα ) = 1 − α.
Exemplo 8.5 O tempo de duração de uma lampada tem uma distribuição Gaussiana com σ = 25
horas. Uma amostra de 20 lampadas têm uma duração média de 1014 horas.
1. Construir um IC bilateral com um nı́vel de confiança de 95 %
2. Construir um IC unilateral inferior com um nı́vel de confiança de 95 %.
Solução.-
1. Como 1 − α = 0.95 temos que α = 0.05. Logo obtemos Φ(z α2 ) = 1 − 0.025 = 0.975, donde
z α2 = 1.96.
Com isto
(1.96)(25)
ǫ= √ = 10.957
20
e o intervalo bilateral com um 95% de confiança é
IC = [1014 − 10.957, 1014 + 10.957] = [1003.0, 1025.0]
114
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
X̄ − µ
T = √
s/ n
A densidade desta variável aleatória é
n+1
! − n+1
1 Γ 2 x2 2
fn (x) = √ +1 ,
πn Γ( n2 ) n
E(X) = 0
n
V AR(X) =
n−2
Observe que para n grande V AR(X) ≈ 1 e assim esta distribuição T se aproxima da distribuição
Z. Por outro lado, denotando por ΦT (t) = P (T ≤ t) também observamos que ΦT (t) tem um
comportamento semelhante a Φ(z). Em particular
Os cálculos de s = ΦT (t) e sua inversa t = Φ−1T (s) podem ser realizados com software e tabelas.
No LibreOfficeCalc: s=t.dist(t;n-1;1) e para a inversa t=t.inv(s;n-1)
No Octave: s=tcdf(t,n-1) e para sua inversa t=tinv(s,n-1)
. Para o cálculo com Tabelas, é necessário considerar a função complementar QT (t) = 1 − ΦT (t) =
P (T ≥ t). Os valores das áreas s implementadas nas Tabelas tradicionais são s = QT (t, n − 1) e a
inversa é t = Q−1
T (s, n − 1).
A construção do IC onde a média µ possa estar é semelhante ao caso da variança σ 2 conhecida.
P (X̄ − ǫ ≤ µ ≤ X̄ + ǫ) = P (−ǫ ≤ µ − X̄ ≤ ǫ) =
ǫ ǫ
= P (−ǫ ≤ X̄ − µ ≤ ǫ) = P − √ ≤T ≤ √
s/ n s/ n
Definindo
ǫ
t α2 ,n−1 = √
s/ n
temos a margem de erro
s
ǫ = t α2 ,n−1 √
n
115
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Donde
1 − α = P (X̄ − ǫ ≤ µ ≤ X̄ + ǫ) = 2ΦT (t α2 ,n−1 ) − 1.
O cálculo de
t α2 ,n−1 = Φ−1
T (1 − α/2)
Exemplo 8.6 A media de uma amostra de notas de 40 alunos é 7.6 com uma variança amostral
de s2 = 8. Construir um intervalo de confiança de 98 %.
Solução.-
α
1 − α = 0.98, donde α = 0.02 e 1 − 2 = 0.99. Logo:
t α2 ,39 = t.inv(0.99; 39) = 2.42584
Com isto √
s 2.42584 8
ǫ = t α2 ,39 √ = √ = 1.084868
n 40
e portanto a média populacional µ esta no intervalo [6.51513137149238, 8.68486862850762] com um
98 % de confiança
Os casos Unilaterais são tratados semelhantemente aos da variança conhecida, com a substi-
tuição de zα por tα,n−1 .
Note-se que diferente das densidades Gaussiana e t-student esta densidade de χ2 não é simétrica. A
probabilidade acumulada y = Φχ2 (x) = P (χ2 ≤ x) e sua inversa x = Φ−1 χ2
(y) podem ser calculados
com software e tabelas.
No LibreOfficeCalc: y=chisq.dist(x;n-1;1) e para a inversa x=chisq.inv(y;n-1)
No Octave: y=chi2cdf(x,n-1) e para sua inversa x=chi2inv(y,n-1).
Para o cálculo com Tabelas, é necessário considerar a função complementar Qχ2 (x) = 1 − Φχ2 (x) =
116
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
P (χ2 ≥ x). Os valores das áreas y implementadas nas Tabelas tradicionais são y = Qχ2 (x, n − 1) e
a inversa é x = Q−1
χ2
(y, n − 1).
Caso bilateral
Desta vez o intervalo é determinado da seguinte maneira;
(n − 1)s2
2 2 2 2 2
{χ α ,n−1 ≤ χ ≤ χ1− α ,n−1 } ⇔ χ α ,n−1 ≤ ≤ χ1− α ,n−1
2 2 2 σ2 2
( )
1 σ2 1
⇔ ≥ ≥ 2
χ2α ,n−1 (n − 1)s2 χ1− α ,n−1
( 2 2
)
(n − 1)s 2 (n − 1)s 2
⇔ ≤ σ2 ≤
χ21− α ,n−1 χ2α ,n−1
2 2
Exemplo 8.7 A variança amostral de 40 notas de alunos é 8. Com um 90% de confiança, calcular
o intervalo onde esta a variança populacional σ 2 .
α
Solução α = 0.1, então 2 = 0.05. Com isto:
(n−1)s2 39(8)
χ2
α
,39 =chisq.inv(0.05; 39)=25.69539; que implica χ2α ,n−1
= 54.57223 = 5.7172.
2
2
(n−1)s2 39(8)
Por outro lado, χ21− α ,39 =chisq.inv(0.95; 39)=54.57223 que implica χ21− α ,n−1
= 25.69539 =
2
2
12.14225
Portanto, com um 90 % de confiança, a variança populacional σ 2 está entre 5.7172 e 12.14225.
Caso unilateral
2 2 2 (n−1)s2
Para o caso unilateral consideramos a equivalencia de eventos {χ ≥ χα,n−1 } ⇔ σ ≤ χ2
α,n−1
(n−1)s2
para afirmar que o limite superior da variança σ2, com um nı́vel de confiança de 1-α, é χ2α,n−1
.
Mais precisamente; !
(n − 1)s2
P σ2 ≤ = P (χ2 ≥ χ2α,n−1 ) = 1 − α
χ2α,n−1
Exemplo 8.8 Considere o Exemplo anterior das notas de 40 alunos. Calcular o limite superior
da variança sigma com o mesmo 90 % de confiança.
117
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Solução
Calculamos
χα,n−1 = chisq.inv(0.1;39)=28.1957851824004
39(8)
Portanto, o limite superior de σ 2 com um 90 % de confiança é 28.195786 = 11.06548
1 − α = 2Φ(z α2 ) − 1,
determinando z α2 com:
α
z α2 = Φ−1 (1 − ).
2
Exemplo 8.9 O IBOPE anuncia que um candidato tem 48 % das intenções de voto com uma
margem de erro de 2 pontos percentuais. As intenções de voto tem um desvio padrão σ de 50 pon-
tos percentuais. Qual deve ser a tamanho da amostra para os seguintes nı́veis de confiança 99%,
95% e 90%?
8.4 Exercı́cios
1. No IC [x̄ − z α2 √σn , x̄ + z α2 √σn ], qual é o valor de z α2 que fornece 91 % de confiança?
Resposta: 1.6953
118
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
2. A amostra X = {1.89, 0.30, 1.53, 4.08, 3.10, −1.98, 3.2, 5.4, −0.39 − 2.51} foi obtida de uma
população com distribuição Gaussiana com σ = 3. Encontrar um IC para a média µ com um
99 % de confiança.
Resposta: [-0.9816, 3.9056]
3. Está sendo estudado a altura média da espuma produzido por um shampoo de uma certa
marca, em mm. Suponha que esta altura esteja normalmente distribuı́da com variança
σ 2 = 18. Calcular o tamanho da amostra para que o comprimento do IC seja de 4 mm,
com um nı́vel de confiança de 95 %.
Resposta: n=18
119
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
120
Capı́tulo 9
Testes de Hipóteses
• Aceitar H0 se x̄ ∈ R0
• Rejeitar H0 se x̄ ∈ R0c
121
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 9.1 Existe um estimado que os ônibus de Alegrete que servem a linha Praça Central -
UNIPAMPA realizam esse trajeto em um tempo médio de 8.5 minutos com um desvio de 4 minutos.
Um grupo de estudantes da UNIPAMPA suspeita que esse tempo é maior. Para testar sua suspeita
eles vão realizar sua pesquisa com amostras de tamanhos 5, 10 e 30. Quais devem ser os limiares
γ para que erro do tipo I da sua conclusão (decisão) seja igual a 5%?
Solução.-
De α = 1 − Φ(zα ) obtemos
zα = Φ−1 (1 − α).
Para α = 0.05 obtemos com o LibreOfficeCalc
zα =norm.inv(0.95,0,1)
que fornece zα = 1.644853.
γ−µ
√0
Por outro lado, da fórmula zα = σ/ n
obtemos que
σ
γ = µ0 + zα √ .
n
(1.644853)(4)
Para n = 5 teremos γ = 8.5 + √
5
= 11.4424
(1.644853)(4)
Para n = 10 teremos γ = 8.5 + √
10
= 10.58
(1.644853)(4)
Para n = 30 teremos γ = 8.5 + √
30
= 9.70.
122
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Exemplo 9.2 Um fabricante de azulejos quer testar a hipótese de que em média a área das peças
é 230 cm2 com um desvio de 4 cm2 . Devido a reclamações de clientes, ele suspeita que a verdadeira
área média seja menor e testa sua suspeita, utilizando o limiar γ = 229. Calcular o erro do tipo I
para os casos em que n = 5, n = 10 e n = 30.
Solução.-
Para n = 5 temos
γ − µ0 229 − 230
zα = √ = √ = −0.5590
σ/ n 2/ 5
Do mesmo modo para n = 10, obtemos zα = −0.79055 e para n = 30 temos zα = −1.3650. Com
isto a probabilidade de rejeitar H0 , mesmo quando H0 está correto, para n = 5 é
α = Φ(−0.559) = 0.287740
enquanto que para n = 10 e n = 30 esses erros de tipo I são 0.214764 e 0.086915 respectivamente.
Exemplo 9.3 Uma companhia de produtos de limpeza esta produzindo um novo shampoo e tem
interesse na altura da espuma em mm. A altura da espuma esta normalmente distribuı́da e tem um
desvio padrão de 15 mm. A companhia testa H0 : µ = 96 mm contra H1 : µ > 96 mm utilizando a
média de de uma amostra de tamanho 10.
Sol.-
1.
102 − 96
α = P (X̄ > 102) = P Z > √ = P (Z > 1.264911) = 1 − Φ(1.264911),
15/ 10
donde α = 0.1029.
2.
102 − 105
β = P (X̄ ≤ 102 | µ1 ) = P Z ≤ √ = Φ(−0.6324),
15/ 10
donde β = 0.2635.
1. α = 0.01 e n = 10
2. α = 0.05 e n = 10
123
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Sol.-
1.
α = P (X̄ > γ) = P (Z > zα ) = 1 − Φ(zα )
donde Φ(zα ) = 1 − α = 0.99. Portanto, zα = 2.34634. Finalmente
σ (2.32634)(15)
γ = µ0 + zα √ = 96 + √ = 107.0348
n 10
2.
α = P (X̄ > γ) = P (Z > zα ) = 1 − Φ(zα )
donde Φ(zα ) = 1 − α = 0.95. Portanto, zα = 1.644. Finalmente
σ (1.644)(15)
γ = µ0 + zα √ = 96 + √ = 103.8022
n 10
β = Φ(zβ )
Se a hipótese alternativa H1 : µ = µ1 é tal que µ1 < µ0 então γ < µ0 e assim
β = 1 − Φ(zβ )
Exemplo 9.5 É conhecido que o desvio padrão da variável aleatória X=“preço de uma cesta básica
familiar com 60 itens” é de 42 reais. Dois grupos de pesquisa, A e B, fizeram dois levantamentos
independentes do custo médio desta cesta básica. Para o grupo A o preço médio foi de 256.2 reais
enquanto que para o grupo B este preço foi de 275 reais. Sabe-se que somente um dos grupos tem
o resultado correto. Um estudante decide testar qual deles esta correto e para isso trabalha com 3
amostras de tamanhos 5, 10 e 30. Calcular as probabilidade do estudante cometer ambos tipos de
erros, I e II, para cada uma dessas amostras.
124
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Solução.-
Para n = 5 temos
γ − µ0 260 − 256.2
zα = √ = √ = 0.20231
σ/ n 42/ 5
donde
α = 1 − Φ(zα ) = 1 − Φ(0.20231) = 1 − 0.579260 = 0.42074
Por outro lado;
γ − µ1 260 − 275
zβ = √ = √ = −0.7986
σ/ n 42/ 5
donde
β = Φ(zβ ) = Φ(−0.7986) = 0.211855
Para n = 10 calculamos que zα = 0.28611 donde α = 1 − Φ(0.28611) = 0.38974. Enquanto que
zβ = −1.1294 que implica que β = Φ(−1.1294) = 0.131357.
Para n = 30 calculamos que zα = 0.49556 donde α = 1 − Φ(0.49556) = 0.31207. Enquanto que
zβ = −1.9562 que implica que β = Φ(−1.9562) = 0.025588.
µ0 < γ < µ1
Portanto √
d n
β = Φ zα − .
σ
Caso bilateral
É testada a hipótese nula H0 : µ = µ0 contra a hipótese H1 : µ 6= µ0 . Para isto é estabelecido dois
valores crı́ticos (limiares) γ1 , γ2 ,com γ1 < γ2 e simétricos respeito de µ0 , isto é
γ1 + γ2
µ0 = .
2
A reta real R é dividida em três regiões (intervalos) L1 = {x ; x < γ1 }, L2 = {x ; x > γ2 } e
R0 = {x ; γ1 ≤ x ≤ γ2 }. Temos que R0c = L1 ∪ L2 . A toma de decisão é feita com os seguinte
critérios:
125
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
O erro de decisão Tipo I acontece quando x̄ ∈ R0c , mesmo H0 correto, isto é x̄ < γ1 ou x̄ > γ2 .
A probabilidade deste erro é
donde
α
Φ(z α2 ) = 1 −
2
Exemplo 9.6 A prefeitura de uma cidade tem uma estatı́stica antiga ao respeito do gasto em
transporte dos seus moradores. Segundo essa estatı́stica um morador, em média gasta 9.8 reais
com um desvio de 5 reais. A atual gestão dessa cidade decide testar se essa média de gastos ainda
tem validade.
• Se vai ser usado uma amostra de tamanho n = 30, quais devem ser os limiares para obter
uma probabilidade erro Tipo I de 0.1 %?
• Se no teste são utilizados os limiares 11 e 8.6 reais, de que tamanho deve ser a amostra para
que α seja igual a 0.15 %?
Solução.-
zα σ (3.3)(5)
γ2 = µ0 + √2 = 9.8 + √ = 12.812
n 30
γ1 +γ2
Finalmente de µ0 = 2 obtemos que
126
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
O erro de Tipo II é cometido quando se aceita H0 mesmo que H0 esteja incorreto (falso
positivo). Neste caso é necessária uma hipótese alternativa especı́fica H1 : µ = µ1 6= µ0 , suponha
µ1 > µ0 . Esta decisão equivocada acontece quando x̄ ∈ R0 , isto é, γ1 ≤ x̄ ≤ γ2 quando H1 é
verdadeira. A probabilidade deste erro é denotado por β e:
γ 1 − µ1 γ 2 − µ1
β = P (γ1 ≤ X̄ ≤ γ2 | µ1 ) = P √ ≤Z≤ √
σ/ n σ/ n
Chamando
γ 1 − µ1
zβ1 = √
σ/ n
e
γ 2 − µ1
zβ2 = √
σ/ n
temos que
β = Φ(zβ1 ) − Φ(zβ2 )
De modo semelhante ao caso unilateral, fazendo d = µ1 − µ0 , podemos calcular zβ1 e zβ2 em
função de µ0 e obter; √ √
d n d n
β = Φ z α2 − − Φ −z α2 −
σ σ
Desta formula observamos que
√
d n
zβ1 = −z α2 − <0
σ
e Φ(zβ1 ) → 0 conforme α → 0. Por exemplo se α < 0.1 então z α2 > 1.64, donde zβ1 < −3 se
√
d n
σ > 1.36, ou seja para α < 0.1 é suficiente que
σ 2
n > 1.84
d
d 2
Em aplicações na área de Telecomunicações a relaçãoé chamada de relação sinal-ruido
σ
2
(SNR) e normalmente seu valor em deciveis (dB) é positivo o que significa σd ≥ 1. Portanto,
para qualquer n ≥ 2 e α < 0.1 teremos Φ(zβ1 ) ≈ 0.
127
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
√
Então podemos supor Φ(zβ1 ) = Φ(−z α2 − d σ n ) ≈ 0 e com isto
√
d n
β ≈ Φ z α2 − = Φ(zβ2 ).
σ
Nestes casos é possı́vel aproximar β, para como se fosse unilateral, por
√
d n
zβ ≈ zβ2 = z α2 −
σ
Exemplo 9.7 No exemplo anterior dos gastos de transporte de uma cidade, suponha que o setor
de Estatı́sticas da atual gestão da Prefeitura suspeite que a média de gastos em transporte atual
seja de 12.5 reais.
• Se vai ser usado uma amostra de tamanho n = 30, com α = 0.001, qual é o erro de tipo II?
• Se no teste são utilizados os limiares 11 e 8.6 reais, de que tamanho deve ser a amostra para
que β seja igual a 0.15 %? Neste caso qual é o valor de α?
Solução.-
128
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
donde
γ 1 − µ1
zβ = z1 = √
σ/ n
é calculada com
1 − β = Φ(zβ ).
Solução.-
Para n = 5 temos
γ − µ1 66 − 65
zβ = √ = √ = 0.089443
σ/ n 25/ 5
donde
β = 1 − Φ(zβ ) = 1 − Φ(0.089443) = 1 − 0.464148 = 0.53585
Para n = 10 e n = 30 temos zβ = 0.12649 e zβ = 0.21909, respectivamente. Os erros de tipo II
para esse casos são
β = 1 − Φ(0.12649) = 1 − 0.547758 = 0.45224
e
β = 1 − Φ(0.21909) = 1 − 0.587064 = 0.41294.
Exemplo 9.9 Amplitudes, em volts, de sinais recepcionados num sistema de comunicações tem
distribuição Gaussiana. A amplitude do sinal 1 tem média -2 volt e desvio 1.8 volts. A amplitude
do sinal 2 tem média +2 volt e 1.8 de desvio. Estamos interessados em determinar se um pacote
de amplitudes de sinais recepcionados corresponde ao sinal 1 (Hipótese nula: H0 ). Se a região de
aceitação é {x ; x ≤ 0}
Sol.-
129
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
130
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
9.3 Exercı́cios
1. Startups da área da informática produzem aplicativos para smartphones que reportam inci-
dentes policiais a uma central da prefeitura de uma grande cidade. Devido a problemas de
segurança e melhorias nos algoritmos, novas versões destes aplicativos (upgrades) devem ser
lançadas a cada certo tempo. Suponha, esse tempo inter-versões dos aplicativos está nor-
malmente distribuı́do com um desvio padrão de 1.8 semanas. A prefeitura interessada nestes
aplicativos testa H0 : µ = 3.2 semanas contra H1 : µ > 3.2 semanas, utilizando uma amostra
de 10 versões.
(a) α = 0.01 e n = 10
(b) α = 0.05 e n = 10
131
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
132
Capı́tulo 10
•
Γ(x + 1) = xΓ(x)
um consequência disto é que Γ(n + 1) = n!
•
√
1
Γ = π
2
A função Γ permite definir a distribuição Gamma cuja densidade é
λ(λx)α−1 e−λx
f (x) = , 0≤x≤∞
Γ(α)
R∞
Integramos o numerador de f (x) fazendo a mudança t = λx então obteremos 0 λ(λx)α−1 e−λx dx =
Γ(α), que mostra que f (x) é uma densidade de probabilidade.
133
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
α(α + 1)
E(X 2 ) =
λ2
α
V AR(X) = 2
λ
E(X) = k
E(X 2 ) = k(k + 2)
V AR(X) = 2k
134
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
onde as Xi são independentes e cada Xi é gaussiana Z(0, 1) (média zero e variância um). Mos-
traremos que que U tem uma densidade de probabilidade chi-quadrado com n-graus de liberdade.
Começamos esta prova indutiva com o caso n = 1, onde U = X 2
√
Zu
√ √ 1 t2
F (u) = P (U ≤ u) ⇔ P (X 2 ≤ u) ⇔ P (− u ≤ X ≤ u) = √ e− 2 dt
√ 2π
− u
√ √
= Φ( u) − Φ(− u))
∂F (u)
Logo, a densidade f (u) = ∂u é
u
e− 2
′ √ 1 ′ √ −1
f (u) = Φ ( y) √ − Φ (− y) √ =√ ,
2 u 2 u 2πu
∂F (u)
Logo, a densidade f (u) = ∂u é
√ −u
−u √ ′ ue 2 1 u
= e− 2 ,
p
f (u) = (u)e 2 ( u) = √
2 u 2
135
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
√
Para n = 3 onde U = X 2 + Y 2 + Z 2 , seja Su a esfera de raio u, isto é, Su = {x2 + y 2 + z 2 ≤ u}
ZZZ
2 2 2 1 x2 1 − y2 1 − z2
F (u) = P (U ≤ u) ⇔ P (X +Y +Z ≤ u) ⇔ √ e− 2 √ e 2 √ e 2 dzdydx
2π 2π 2π
Su
1
ZZZ 2 2 2
− x +y2 +z
= e dzdydx
(2π)3/2
Su
∂F (u)
Logo, a densidade f (u) = ∂u é
√ −u
√ √
2 u 2 u 1 ue 2
f (u) = √ (ue− 2 )( u)′ = √ (ue− 2 )( u)′ √ = √ ,
2π 2π 2 u 2π
136
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
k k
X λi t i X λi ti
F (t) = P (T2 ≤ t) = 1 − e−λt ) = 1 − e−λt )
i! i!
i=0 i=0
λk+1 tk −λt
cuja densidade é F ′ (t) = f (t) = k! e .
Mas uma maneira simples de verificar isto é reconhecendo que a VA Tk é um caso particular da VA
Gamma de parâmetros α, λ que tem densidade
λ(λx)α−1 e−λx
f (x) = ,
Γ(α)
onde para Tk , o parâmetro α = k + 1.
137
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
normcdf(4,6,2)-normcdf(1,6,2)
normcdf(-1,0,1)-normcdf(-2.5,0,1)
• Calcular x tal que P (x ≤ X ≤ 7) = 0.8 para X(2, 3) com o comando norminv Temos que
0.8 = P (X ≤ 7) − P (X ≤ x) donde P (X ≤ x) = F (x) = P (X ≤ 7) − 0.8 = normcdf(7,2,3)-0.8
0.9522-0.8= 0.1522. Logo
x = F −1 (0.1522) = norminv(0.1522,2,3) = -1.0811.
R4 2 /8
• Calculando a integral P (1 ≤ X ≤ 4) = √1
2 2π
e−(x−6) dx
1
f=@(x) (1/sqrt(8*pi))*exp(-(x-6).^2/8);
I=quad(f,1,4)
−1
2 /2
• Calculando a integral P (−2.5 ≤ Z ≤ −1) = √1 e−z
R
2π
dz
−2.5
f=@(z) (1/sqrt(2*pi))*exp(-z.^2/2);
I=quad(f,-2.5,-1)
Rx
• Calculando com a função erro erf(x)= √2π 0 exp(−t2 )dt que corresponde a distribuição Gaus-
siana X(0, √12 ). Pela simetria erro erf(x) = P (−x ≤ X ≤ x). O comando erf e seu comple-
mentar erfc aparecem ainda em muitos softwares. A equação que justifica a formula de erf
é
1 x 1
Φ(x) = erf √ +
2 2 2
onde Φ(x) é o acumulado da distribuição Gaussiana padronizada.
0.5*erf(-1/sqrt(2))-0.5*erf(-2.5/sqrt(2))
138
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Para o caso geral de uma variável aleatória X = {a, a + ∆, a + 2∆, . . . , a + n∆} com n + 1
pontos e igualmente espaçadas e que tenha distribuição de probabilidade uniforme, teremos
que b = a + n∆ que é equivalente a dizer b − a = n∆.
Temos
Pn
(a + i∆)
i=0
E(X) =
n+1
Calculamos
n
X n(n + 1) b−a a+b
(a + i∆) = a(n + 1) + ∆ = (n + 1) a + = (n + 1)
2 2 2
i=0
donde
a+b
E(X) = .
2
Para obter uma formula da variança E((X − µX )2 ) consideremos
a+b b−a n
xi − µX = a + i∆ − = i∆ − = ∆(i − )
2 2 2
Disto
n2
2 2 2
(xi − µX ) = ∆ i − in +
4
e o somatório
n
n(n + 1)(2n + 1) n(n)(n + 1) n2 (n + 1)
X
2 2 2 n+2
(xi − µX ) = ∆ − + = ∆ n(n + 1)
6 2 2 12
i=0
portanto a variança
n
(xi − µX )2
P
i=0 ∆2 (n)(n + 2) (∆n)2 + 2n∆2 (b − a)2 + 2(b − a)∆
VAR(X) = = = =
n+1 12 12 12
Alguns autores preferem escrever
(b − a + ∆)2 − ∆2
VAR(X) =
12
139
Jorge P Arpasi: Material de apoio Probabilidades e Estatı́stica
Poderı́amos também ter obtido esta formula partindo de VAR(X) = E(X 2 )−µ2X . Finalmente,
note-se que neste caso de distribuição uniforme com dados xi igualmente espaçados:
A Esperança é o ponto médio de a e b, e no depende do número de pontos n
A variança depende se a, b e o espaçamento ∆, e também não depende do número de pontos
n.
140