Escolar Documentos
Profissional Documentos
Cultura Documentos
probabilidade e complementos
1 / 45
Capı́tulo 5 - Distribuições conjuntas de probabilidade e
complementos
Em muitas situações, está-se interessado em estudar
simultaneamente mais de uma caracterı́stica numa experiência
aleatória. Suponha-se que a experiência é selecionar
aleatoriamente alunos de um certo curso, e o interesse é estudar o
perfil “biológico” desses alunos. Pode-se, então considerar que o
perfil é composto de:
— peso
— altura
— pressão arterial
— frequência cardı́aca
— capacidade respiratória
Ou seja, está-se interessado em cinco variáveis aleatórias que
devem ser estudadas simultaneamente. Isto motiva a seguinte
definição de um vector aleatório.
2 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
(X , Y ) é um vector aleatório:
— discreto se X e Y forem variáveis aleatórias discretas;
— contı́nuo se X e Y forem variáveis aleatórias contı́nuas.
3 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
que verifica
i) fX ,Y (x, y ) ≥ 0, ∀(x,y )∈R2
XX
ii) fX ,Y (x, y ) = 1
x y
4 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
X \Y y1 y2 ··· ys ···
pij = P(X = xi , Y = yj )
... ··· ···
I pij ≥ 0
I
P P
i j pij = 1
5 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Exemplo 5.1: Considere o lançamento de dois dados perfeitos.
Seja
X - v.a. que indica o n.o de vezes que saiu a face 5
Y - v.a. que indica o n.o de vezes que saiu a face 6
Valores possı́veis: RX = {0, 1, 2} e RY = {0, 1, 2}
X ∼ Bin(2, 1/6) e que Y ∼ Bin(2, 1/6).
Nota: Isto quer dizer que X e Y têm o mesmo comportamento
em termos de valores possı́veis e respectivas probabilidades.
Não quer dizer X = Y ! O que se pode dizer é
P(X = 1, Y = 0) = P(X = 0, Y = 1)
1 1
P(X = 1, Y = 1) =) = 6 × 6 ×2
P(X = 1, Y = 2) = 0
P(X = 2, Y = 0) = P(X = 0, Y = 2)
P(X = 2, Y = 1) = 0
P(X = 2, Y = 2) = 0
7 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
fX,Y (x, y)
4/9
X \Y 0 1 2
16 8 1
x
0 36 36 36
y
8 2
1 36 36
0 b
(1/36)
2
1
2 36
0 0 1 b
(2/9) b
(1/18)
8 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
9 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
10 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
e de Y são:
P
P(Y = y ) = x P(X = x, Y = y ), ∀y ∈R (discreto)
Z +∞
fY (y ) = f(X ,Y ) (x, y ) dx =, ∀y ∈R (contı́nuo)
−∞
11 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Exemplo 5.1 (cont.) - Funções de probabilidade marginais:
X \Y 0 1 2 P(X = x)
16 8 1 25
0
36 36 36 36
8 2 10
1 0
36 36 36
1 1
2 0 0
36 36
25 10 1
P(Y = y ) 1
36 36 36
por exemplo
P(X = 0) = P(X = 0, Y = 0) + P(X = 0, Y = 1) + P(X = 0, Y = 2) =
P2
= y =0 P(X = 0, Y = y ) (verificar que X e Y ∼ Bin(2, 1/6))
12 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
XX
F(X ,Y ) (x, y ) = P(X ≤ x, Y ≤ y ) = P(X = xi , Y = yj ), ∀(x,y )∈R2
xi ≤x yj ≤y
(discreto) Z x Z y
F(X ,Y ) (x, y ) = P(X ≤ x, Y ≤ y ) = fX ,Y (u, v )dvdu, ∀(x,y )∈R2
−∞ −∞
(contı́nuo)
Nota: As propriedades da função de distribuição são análogas às do caso
univariado.
13 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
XX
E [h(X , Y )] = h(x, y )P(X = x, Y = y ) (discreto)
x y
Z +∞ Z +∞
E [h(X , Y )] = h(x, y )fX ,Y (x, y )dydx (contı́nuo)
−∞ −∞
Casos particulares:
XX
I E (XY ) = x y P(X = x, Y = y ) (discreto)
x y
Z +∞ Z +∞
I E (XY ) = x y fX ,Y (x, y )dydx (contı́nuo)
−∞ −∞
XX
I E (X ) = x P(X = x, Y = y ) =
x y
!
X X X
x P(X = x, Y = y ) = x P(X = x) (discreto)
x y x
Z +∞ Z +∞ Z +∞
I E [X ] = xfX ,Y (x, y )dydx = xfX (x)dx
−∞ −∞ −∞
(contı́nuo)
14 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Exemplo 5.1 (cont.): X \Y 0 1 2 P(X = x)
0 16/36 8/36 1/36 25/36
1 8/36 2/36 0 10/36
2 1/36 0 0 1/36
P(Y = y ) 25/36 10/36 1/36 1
I E (XY ) =
P P
x y x y P(X = x, Y = y ) =
16 8 2 1
=0×0× 36 +0×1× 36 + ··· + 1 × 1 × 36 +2×2×0= 18
I E (X ) =
P P
x y x P(X = x, Y = y ) =
16 8 1 8 2 1 1
=0× 36 +0× 36 +0× 36 +1× 36 +1× 36 +2× 36 = 3
ou
25 10 1 1
P
E (X ) = x x P(X = x) = 0 × 36 +1× 36 +2× 36 = 3
ou ainda
1
E (X ) = 2 × 6 = 13 , dado que X ∼ Bin(2, 16 )
15 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Definição: Dado o par (X , Y ) discreto (contı́nuo), com função de proba-
bilidade conjunta P(X = x, Y = y ) (f.d.p conjunta fX ,Y (x, y ))), chama-
se função de probabilidade (f.d.p.) condicionada de Y dado x (se
P(X = x) > 0, fX (x) > 0) à função :
Caso discreto:
fX ,Y (x, y ) P(X = x, Y = y )
fY |x (y ) = P(Y = y |X = x) = =
fX (x) P(X = x)
que verifica
X
1) fY |x (y ) ≥ 0, ∀y e 2) fY |x (y ) = 1
y
Caso contı́nuo:
fX ,Y (x, y )
fY |x (y ) =
fX (x)
que verifica
Z
1) fY |x (y ) ≥ 0, ∀y e 2) fY |x (y )dy = 1
y
16 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
17 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
V (Y |X = x) = E (Y 2 |X = x) − E 2 (Y |X = x)
Caso contı́nuo: Z +∞
E (Y |X = x) = y fY |x (y )dy
−∞
V (Y |X = x) = E (Y 2 |X = x) − E 2 (Y |X = x)
18 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
19 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Representação gráfica de valores esperados condicionados:
E(X|Y = y)
2 +bbc
1 b
+bc b
E(Y |X = x) · bc
·bbc
0 b
+bc ·bbc x
0 1 2
Observações:
I Os E (X |Y ) e E (Y |X ) são v.a.(s) que tomam diferentes valores
consoantes os valores fixos para X e Y respectivamente.
I Propriedade destas v.a.(s) :
I E (E (X |Y )) = E (X ) se E (X ) existir e fY (y ) > 0.
I E (E (Y |X )) = E (Y ) se E (Y ) existir e fX (x) > 0.
20 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
21 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Se X ⊥⊥ Y então:
I fY |x (y ) = fY (y ), ∀(x,y ), com fX (x)>0
I fX |y (x) = fX (x), ∀(x,y ), com fY (y )>0
I E (XY ) = E (X )E (Y ).
22 / 45
5.3 Covariância e correlação. Propriedades
Objectivo: Duas medidas do grau de associação linear de duas variáveis
aleatórias:
I covariância;
I correlação.
Definição: A covariância de duas variáveis aleatórias X e Y , com valores
esperados E (X ) e E (Y ), respectivamente, representa-se por cov(X , Y ) ou
σXY , é definida por
e calcula-se por
XX
(x − E (X ))(y − E (Y ))P(X = x, Y = y )
x y
se X e Y forem contı́nuas.
23 / 45
5.3 Covariância e correlação. Propriedades
y
(x − µX ) < 0 (x − µX ) > 0
(y − µY ) > 0 (y − µY ) > 0
(µX , µY )
·
x
(x − µX ) < 0 (x − µX ) > 0
(y − µY ) < 0 (y − µY ) < 0
24 / 45
5.3 Covariância e correlação. Propriedades
25 / 45
5.3 Covariância e correlação. Propriedades
1. cov(X , Y ) = E (XY ) − E (X )E (Y )
2. cov (X , Y ) ∈ R e nas (unidX )×(unidY )
3. cov(X , Y ) = cov(Y , X )
4. cov(X , X ) = var(X )
5. cov(aX + b, cY + d) = a c cov(X , Y )
6. cov(X + Z , Y ) = cov(X , Y ) + cov(Z , Y )
7. Se X ⊥ ⊥ Y então cov(X , Y ) = 0 ... Muito importante: a proposição
inversa não é verdadeira, i.e.
cov(X , Y ) = 0 ⇒
/ X e Y são independentes
26 / 45
5.3 Covariância e correlação. Propriedades
1 1
E (XY ) = E (X ) = E (Y ) = 3 (já calculados)
18
1 1 1
cov(X , Y ) = − =−
18 9 18
27 / 45
5.3 Covariância e correlação. Propriedades
cov(X , Y ) σXY
corr(X , Y ) = ρX ,Y = p =
V (X )V (Y ) σX σY
28 / 45
5.3 Covariância e correlação. Propriedades
O coeficiente de correlação não é alterado quando há mudanças de
escala e é adimensional:
y y
b b
4 b b
20 b b
3 b b b
15 b b b
2 b b b
10 b b b
1 b b
5 b b
b
x b
x
1 2 3 4 5 10 15 20
ρX ,Y = 0.81 ρX ,Y = 0.81
29 / 45
5.3 Covariância e correlação. Propriedades
Propriedades da correlação
1. −1 ≤ ρX ,Y ≤ 1
2. ρX ,Y = 1 se e só se Y = a + bX , com b > 0
ρX ,Y = −1 se e só se Y = a + bX , com b < 0
3. Se X e Y forem independentes então ρX ,Y = 0. a proposição
inversa não é necessariamente verdadeira, i.e.,
ρX ,Y = 0 ⇒
/ X e Y são independentes
30 / 45
5.3 Covariância e correlação. Propriedades
Demonstrações
1) Considere-se a variável aleatória σXX + σYY . Usando uma das
propriedades da variância vem:
" 2 # 2
X Y X Y X Y
V + ≥0 ⇔ E + − E + ⇔
σX σY σX σY σX σY
E (X 2 ) E (Y 2 ) E (XY ) E 2 (X ) E 2 (Y ) E (X )E (Y )
⇔ + +2 − − −2 ≥0 ⇔
σX2 σY2 σX σY σX2 σY2 σX σY
E (X 2 ) − E 2 (X ) E (Y 2 ) − E 2 (Y ) E (XY ) − E (X )E (Y )
⇔ 2 + 2 +2 ≥0 ⇔
σX σY σX σY
1 + 1 + 2 ρX ,Y ≥ 0 ⇔ ρX ,Y ≥ −1
X Y
De igual modo V − ≥ 0 ⇔ · · · ⇔ ρX ,Y ≤ 1
σX σY
31 / 45
5.3 Covariância e correlação. Propriedades
Demonstrações (cont.)
X Y X Y
2) ρX ,Y = 1 ⇔ V − =0 ⇔ − = constante
σX σY σX σY
X Y X Y
ρX ,Y = −1 ⇔ V + =0 ⇔ + = constante
σX σY σX σY
Z Z Z Z
⇒ E (XY ) = x y fX ,Y (x, y )dxdy = x y fX (x) fY (y )dxdy =
Z Z
= x fX (x)dx y fY (y )dy = E (X ) E (Y )
isto é:
cov(X , Y ) = 0 ⇔ ρX ,Y = 0
32 / 45
5.3 Covariância e correlação. Propriedades
Para mostrar que
cov(X , Y ) = corr(X , Y ) = 0 ⇒
/ X e Y são independentes
basta dar um contra-exemplo:
X \Y −1 0 1 P(X = x)
−1 0 1/6 0 1/6
0 1/12 1/12 1/12 2/3
1 0 1/6 0 1/6
P(Y = y ) 1/12 5/6 1/12 1
33 / 45
5.3 Covariância e correlação. Propriedades
Vimos antes que cov(X , Y ) = −1/18, o que significa que há uma tendência
para Y decrescer quando X cresce e vice-versa, e podemos agora responder à
questão: essa tendência é “forte” ou “fraca”?
34 / 45
5.4 Combinações lineares de variáveis aleatórias
Definição: Dadas p variáveis aleatórias, X1 , X2 , . . . , Xp e p cons-
tantes reais, c1 , c2 , . . . , cp , diz-se que a variável aleatória Y , definida
como
Y = c1 X1 + c2 X2 + · · · + cp Xp
é uma combinação linear de X1 , X2 , . . . , Xp .
Valor esperado de uma combinação linear
I E (c1 X1 + c2 X2 ) = c1 E (X1 ) + c2 E (X2 )
Z Z
Demonstração: (c1 x1 + c2 x2 )f (x1 , x2 )dx1 dx2 =
Z Z Z Z
= c1 x1 f (x1 , x2 )dx1 dx2 + c2 x2 f (x1 , x2 )dx1 dx2
I E (c1 X1 + c2 X2 + · · · + cp Xp ) =
c1 E (X1 ) + c2 E (X2 ) + · · · + cp E (Xp )
35 / 45
5.4 Combinações lineares de variáveis aleatórias
2
Dem.: V (c1 X1 + c2 X2 ) = E (c1 X1 + c2 X2 )2 − [E (c1 X1 + c2 X2 )] =
2
= E (c12 X12 + c22 X22 + 2c1 c2 X1 X2 ) − (c1 E (X1 ) + c2 E (X2 )) =
= c12 E (X12 ) − E 2 (X1 ) + c22 E (X22 ) − E 2 (X2 ) +
+2c1 c2 (E (X1 X2 ) − E (X1 )E (X2 ))
36 / 45
5.4 Combinações lineares de variáveis aleatórias
37 / 45
5.4 Combinações lineares de variáveis aleatórias
Casos especiais de somas/combinações lineares de variáveis
aleatórias
P
k
Xi ∼ Bin(ni , p) independentes ⇒ X1 +· · ·+Xk ∼ Bin i=1 ni , p
Caso especial:
X1 ∼ Poisson(λ1 )
X2 ∼ Poisson(λ2 ) ⇒ X1 + X2 ∼ Poisson(λ1 + λ2 )
X1 e X2 independentes
P
k
Xi ∼ Poisson(λi ) independentes ⇒ X1 +· · ·+Xk ∼ Poisson i=1 λi
39 / 45
5.4 Combinações lineares de variáveis aleatórias
X1 ∼ N(µ1 , σ12 )
X2 ∼ N(µ2 , σ22 ) ⇒ aX1 +bX2 ∼ N(aµ1 +bµ2 , a2 σ12 +b 2 σ22 )
X1 e X2 independentes
40 / 45
5.6 Teorema do Limite Central. Aplicações às distribuições
binomial e de Poisson
Na maioria das situações é difı́cil determinar a distribuição da soma
de variáveis (mesmo que sejam independentes!). O teorema
seguinte justifica a grande utilidade e importância da distribuição
normal (quer em probabilidades quer em estatı́stica).
Sn − E (Sn ) Sn − nµ a
p = √ ∼ N (0, 1) ,
V (Sn ) nσ 2
ou seja, !
Sn − E (Sn )
lim P p ≤z = Φ(z)
n→+∞ V (Sn )
41 / 45
5.6 Teorema do Limite Central. Aplicações às distribuições
binomial e de Poisson
Observações:
I A demonstração do teorema exige algumas ferramentas
matemáticas avançadas.
I Observar que,
n
! n
X X
E (Sn ) = E Xi = E (Xi ) = nE (X1 ) = nµ
i=1 i=1
e como X1 , X2 · · · Xn são v.a. independentes tem-se
n
! n
X X
V (Sn ) = V Xi = V (Xi ) = nV (X1 ) = nσ 2
i=1 i=1
E (S) = E ( 50
P P50
i=1 Xi ) = i=1 E (Xi ) = 50E (X ) = 50 × 75 = 3750 (porque são
identicamente distribuı́dos (i.d.) a X )
V (X ) = V ( 50
P P50 2
i=1 Xi ) = i=1 V (Xi ) = 50V (X ) = 50 × 8 = 3200 porque são
independentes e identicamente distribuı́dos (i.d.) a X .
S ∼ N(3700, 3200) porque é a combinação linear de v.a.’s normais
independentes
P(S > 3800) = 1 − P(S ≤ 3800) = 1 − P( S−3750
√
3200
≤ 3800−3750
√
3200
)=
3800−3750
1 − Φ( √3200 ) = 1 − Φ(0.88) = 1 − 0.8106 = 0.1894.
43 / 45
Exemplo 2. Teorema do limite central (T.L.C.)
Uma empresa de chocolates embala caixas com 100 pacotes de bombons. Os
pesos por pacote são v.a.’s Xi , onde Xi q Xj , com média 0.5kg e variância
0.1kg2 .São colocadas 10 caixas numa palete. Qual é a probabilidade
aproximada do peso dos bombons da palete ser superior a 510kg?
Xi − ‘v.a. peso do i−ésimo pacote (kg)’
E (Xi ) = 0.5 V (Xi ) = 0.1 , ∀i e Xi q Xj para i 6= j
S = 1000
P
i=1 Xi ‘v.a. peso dos bombons colocados na palete (kg)’
E (S) = E ( 1000
P P1000
i=1 Xi ) = i=1 E (Xi ) = 1000E (X ) = 1000 × 0.5 = 500 (porque
são identicamente distribuı́dos (i.d.) a X )
V (X ) = V ( 1000
P P1000
i=1 Xi ) = i=1 V (Xi ) = 1000V (X ) = 1000 × 0.1 = 100 porque
são independentes e identicamente distribuı́dos (i.d.) a X .
a
Pelo T.L.C. tem-se que: S−E
√ (S) = S−500
√
100
∼N (0, 1) ,
V (S)
≈ 1 − Φ(1) ≈ 0.1587.
T .L.C .
44 / 45
5.6 Teorema do Limite Central. Aplicações às distribuições
binomial e de Poisson
Aproximações Binomial/Normal e Poisson/Normal:
I X ∼ Bin(n, p) pode ser aproximada a X̃ ∼ N(np, np(1 − p)) quando
np > 5 e n(1 − p) > 5