Você está na página 1de 45

Capı́tulo 5 - Distribuições conjuntas de

probabilidade e complementos

Conceição Amado e Ana M. Pires e Isabel M. Rodrigues

1 / 45
Capı́tulo 5 - Distribuições conjuntas de probabilidade e
complementos
Em muitas situações, está-se interessado em estudar
simultaneamente mais de uma caracterı́stica numa experiência
aleatória. Suponha-se que a experiência é selecionar
aleatoriamente alunos de um certo curso, e o interesse é estudar o
perfil “biológico” desses alunos. Pode-se, então considerar que o
perfil é composto de:
— peso
— altura
— pressão arterial
— frequência cardı́aca
— capacidade respiratória
Ou seja, está-se interessado em cinco variáveis aleatórias que
devem ser estudadas simultaneamente. Isto motiva a seguinte
definição de um vector aleatório.
2 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Definição: Considere-se uma experiência aleatória e o seu espaço


de resultados Ω. Diz-se que (X , Y ) é um vector aleatório, par
aleatório ou variável aleatória bidimensional se X e Y forem variáveis
aleatórias.

(X , Y ) é um vector aleatório:
— discreto se X e Y forem variáveis aleatórias discretas;
— contı́nuo se X e Y forem variáveis aleatórias contı́nuas.

3 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Dadas duas ou mais v.a. o seu comportamento simultâneo é


estudado usando as chamadas distribuições conjuntas.

Definição: Dadas duas variáveis aleatórias discretas, X e Y , chama-


se função de (massa de) probabilidade conjunta à função

fX ,Y (x, y ) = P(X = x, Y = y ), ∀(x,y )∈R2 ,

que verifica
i) fX ,Y (x, y ) ≥ 0, ∀(x,y )∈R2
XX
ii) fX ,Y (x, y ) = 1
x y

4 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Esta função em tabela de dupla entrada:

X \Y y1 y2 ··· ys ···

x1 p11 p12 ··· p1s ···

x2 p21 p22 ··· p2s ···

pij = P(X = xi , Y = yj )
... ··· ···

xr pr 1 pr 2 ··· prs ···

... ··· ···

I pij ≥ 0
I
P P
i j pij = 1

5 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Exemplo 5.1: Considere o lançamento de dois dados perfeitos.
Seja
X - v.a. que indica o n.o de vezes que saiu a face 5
Y - v.a. que indica o n.o de vezes que saiu a face 6
Valores possı́veis: RX = {0, 1, 2} e RY = {0, 1, 2}
X ∼ Bin(2, 1/6) e que Y ∼ Bin(2, 1/6).
Nota: Isto quer dizer que X e Y têm o mesmo comportamento
em termos de valores possı́veis e respectivas probabilidades.
Não quer dizer X = Y ! O que se pode dizer é

X e Y são identicamente distribuı́das

Qual é o comportamento conjunto das duas variáveis, em


termos de probabilidades dos pares de valores (x, y ), com
x = 0, 1, 2 e y = 0, 1, 2?
6 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Verificar que
4 4
P(X = 0, Y = 0) = 6 × 6 2 X
2
X
P(X = 0, Y = 1) = 1
× 4
×2 P(X = x, Y = y ) = 1
6 6
x=0 y =0
1 1
P(X = 0, Y = 2) = 6 × 6

P(X = 1, Y = 0) = P(X = 0, Y = 1)
1 1
P(X = 1, Y = 1) =) = 6 × 6 ×2

P(X = 1, Y = 2) = 0

P(X = 2, Y = 0) = P(X = 0, Y = 2)

P(X = 2, Y = 1) = 0

P(X = 2, Y = 2) = 0

7 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

fX,Y (x, y)

4/9

X \Y 0 1 2
16 8 1
x
0 36 36 36
y

8 2
1 36 36
0 b
(1/36)
2

1
2 36
0 0 1 b
(2/9) b
(1/18)

(4/9) (2/9) (1/36)


0 b b b
x
0 1 2

8 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Definição: Seja (X , Y ) um v.a. contı́nuo. Se existir uma função


fX ,Y (x, y ) tal que:
Z x Z y
F(X ,Y ) (x, y ) = f(X ,Y ) (u, v ) dvdu, ∀(x,y )∈R2
−∞ −∞

então ela diz-se a função de densidade de probabilidade conjunta do v.a.


contı́nuo (X , Y ) e satisfaz:

1) fX ,Y (x, y ) ≥ 0, ∀(x,y )∈R2


Z +∞ Z +∞
2) fX ,Y (x, y )dxdy = 1
−∞ −∞

9 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Nota: Qualquer que seja a região R ∈ R2


Z Z
P((X , Y ) ∈ R) = fX ,Y (x, y )dxdy .
R

Exemplo 5.2: Seja a f.d.p conjunta do par aleatório (X , Y ),


 1
f(X ,Y ) (x, y ) = 2 , 0 < x < 1, 0 < y < 2
0, c.c.

É fácil de verificar que é, de facto, uma f.d.p, pois:


(i) f(X ,Y ) (x, y ) ≥ 0, ∀(x,y )∈R2 ;
R +∞ R +∞ R1R2
(ii) −∞ −∞ f(X ,Y ) (x, y ) dydx = 0 0 21 dydx =
R 1  2 R1
= 0 12 y 0 dx = 0 1dx = [x]10 = 1

10 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Definição: Dado o par (X , Y ) discreto (contı́nuo), com função de pro-


babilidade conjunta P(X = x, Y = y ) (f.d.p. conjunta fX ,Y (x, y )), as
funções de probabilidade (f.d.p.) marginais de X são:
X
P(X = x) = P(X = x, Y = y ) ∀x∈R (discreto)
y
Z +∞
fX (x) = f(X ,Y ) (x, y ) dy =, ∀x∈R (contı́nuo)
−∞

e de Y são:
P
P(Y = y ) = x P(X = x, Y = y ), ∀y ∈R (discreto)
Z +∞
fY (y ) = f(X ,Y ) (x, y ) dx =, ∀y ∈R (contı́nuo)
−∞

11 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Exemplo 5.1 (cont.) - Funções de probabilidade marginais:
X \Y 0 1 2 P(X = x)
16 8 1 25
0
36 36 36 36
8 2 10
1 0
36 36 36
1 1
2 0 0
36 36
25 10 1
P(Y = y ) 1
36 36 36
por exemplo
P(X = 0) = P(X = 0, Y = 0) + P(X = 0, Y = 1) + P(X = 0, Y = 2) =
P2
= y =0 P(X = 0, Y = y ) (verificar que X e Y ∼ Bin(2, 1/6))

12 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
XX
F(X ,Y ) (x, y ) = P(X ≤ x, Y ≤ y ) = P(X = xi , Y = yj ), ∀(x,y )∈R2
xi ≤x yj ≤y
(discreto) Z x Z y
F(X ,Y ) (x, y ) = P(X ≤ x, Y ≤ y ) = fX ,Y (u, v )dvdu, ∀(x,y )∈R2
−∞ −∞
(contı́nuo)
Nota: As propriedades da função de distribuição são análogas às do caso
univariado.

Exemplo 5.1 (cont.)


O valor da função distribuição no ponto (0, 1):
24
F(X ,Y ) (0, 1) = P(X ≤ 0, Y ≤ 1) = P(X = 0, Y = 0) + P(X = 0, Y = 1) = 36

Exemplo 5.2 (cont.)


Cálculo da seguinte probabilidade:
Z 1Z 1
1 1 3 1 1
P(X ≤ , Y ≤ 1) = F(X ,Y ) ( , 1) = dydx =
3 3 0 0 2 6

13 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
XX
E [h(X , Y )] = h(x, y )P(X = x, Y = y ) (discreto)
x y
Z +∞ Z +∞
E [h(X , Y )] = h(x, y )fX ,Y (x, y )dydx (contı́nuo)
−∞ −∞

Casos particulares:
XX
I E (XY ) = x y P(X = x, Y = y ) (discreto)
x y
Z +∞ Z +∞
I E (XY ) = x y fX ,Y (x, y )dydx (contı́nuo)
−∞ −∞
XX
I E (X ) = x P(X = x, Y = y ) =
x y
!
X X X
x P(X = x, Y = y ) = x P(X = x) (discreto)
x y x
Z +∞ Z +∞ Z +∞
I E [X ] = xfX ,Y (x, y )dydx = xfX (x)dx
−∞ −∞ −∞
(contı́nuo)
14 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Exemplo 5.1 (cont.): X \Y 0 1 2 P(X = x)
0 16/36 8/36 1/36 25/36
1 8/36 2/36 0 10/36
2 1/36 0 0 1/36
P(Y = y ) 25/36 10/36 1/36 1
I E (XY ) =
P P
x y x y P(X = x, Y = y ) =
16 8 2 1
=0×0× 36 +0×1× 36 + ··· + 1 × 1 × 36 +2×2×0= 18

I E (X ) =
P P
x y x P(X = x, Y = y ) =
16 8 1 8 2 1 1
=0× 36 +0× 36 +0× 36 +1× 36 +1× 36 +2× 36 = 3

ou
25 10 1 1
P
E (X ) = x x P(X = x) = 0 × 36 +1× 36 +2× 36 = 3

ou ainda
1
E (X ) = 2 × 6 = 13 , dado que X ∼ Bin(2, 16 )

15 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Definição: Dado o par (X , Y ) discreto (contı́nuo), com função de proba-
bilidade conjunta P(X = x, Y = y ) (f.d.p conjunta fX ,Y (x, y ))), chama-
se função de probabilidade (f.d.p.) condicionada de Y dado x (se
P(X = x) > 0, fX (x) > 0) à função :
Caso discreto:
fX ,Y (x, y ) P(X = x, Y = y )
fY |x (y ) = P(Y = y |X = x) = =
fX (x) P(X = x)

que verifica
X
1) fY |x (y ) ≥ 0, ∀y e 2) fY |x (y ) = 1
y
Caso contı́nuo:
fX ,Y (x, y )
fY |x (y ) =
fX (x)
que verifica
Z
1) fY |x (y ) ≥ 0, ∀y e 2) fY |x (y )dy = 1
y

16 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

I Para cada x fixo, fY |x (y ), tem as propriedades de uma função


de probabilidade (é a f.p. da v.a. Y |X = x)
I Analogamente define-se fX |y (x) = P(X = x|Y = y ).
I E as funções de distribuições condicionadas de Y |X = x e
X |Y = y definem-se como usualmente.

17 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Definição: O valor e esperado condicionado e a variância condicionada de


Y dado x (tal que fX (x) > 0) são respectivamente:
Caso discreto:
X
E (Y |X = x) = y P(Y = y |X = x)
y

V (Y |X = x) = E (Y 2 |X = x) − E 2 (Y |X = x)
Caso contı́nuo: Z +∞
E (Y |X = x) = y fY |x (y )dy
−∞

V (Y |X = x) = E (Y 2 |X = x) − E 2 (Y |X = x)

18 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Exemplo 5.1 (cont.): X \Y 0 1 2 P(X = x)


0 16/36 8/36 1/36 25/36
1 8/36 2/36 0 10/36
2 1/36 0 0 1/36
P(Y = y ) 25/36 10/36 1/36 1
Y |X = 0 Y |X = 1
16/36 8/36
P(Y = 0|X = 0) = 25/36
= 16/25 P(Y = 0|X = 1) = 10/36
= 8/10
8/36 2/36
P(Y = 1|X = 0) = 25/36
= 8/25 P(Y = 1|X = 1) = 10/36
= 2/10
1/36 0
P(Y = 2|X = 0) = 25/36
= 1/25 P(Y = 2|X = 1) = 10/36
=0
8 1 2
E (Y |X = 0) = 1 × 25
+2× 25
= 10/25 E (Y |X = 1) = 1 × 10
= 2/10

O que acontece com Y |X = 2?

19 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.
Representação gráfica de valores esperados condicionados:

E(X|Y = y)
2 +bbc

1 b
+bc b

E(Y |X = x) · bc
·bbc
0 b
+bc ·bbc x
0 1 2

Observações:
I Os E (X |Y ) e E (Y |X ) são v.a.(s) que tomam diferentes valores
consoantes os valores fixos para X e Y respectivamente.
I Propriedade destas v.a.(s) :
I E (E (X |Y )) = E (X ) se E (X ) existir e fY (y ) > 0.
I E (E (Y |X )) = E (Y ) se E (Y ) existir e fX (x) > 0.

20 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Definição: Seja (X , Y ) um vector aleatório. As variáveis aleatórias


X e Y (contı́nuas ou discretas), dizem-se independentes, simbolica-
mente X ⊥⊥ Y , sse:

FX ,Y (x, y ) = FX (x) FY (y ), ∀(x,y )∈R2 (1)

A equação (1) é equivalente a:


I P(X = x, Y = y ) = P(X = x)P(Y = y ), ∀(x,y )∈R2 , se
(X , Y ) for um vector aleatório discreto;
I fX ,Y (x, y ) = fX (x) fY (y ), ∀(x,y )∈R2 , se (X , Y ) for um vector
aleatório contı́nuo.

21 / 45
5.1 + 5.2 - Duas v.a. discretas ou contı́nuas.

Observação: Podemos dizer, em geral, que as variáveis aleatórias


são independentes sse:

P(X ∈ A, Y ∈ B) = P(X ∈ A) P(Y ∈ B)

para quaisquer acontecimentos A e B definidos no eixo dos xx e no


eixo dos yy , respectivamente.

Se X ⊥⊥ Y então:
I fY |x (y ) = fY (y ), ∀(x,y ), com fX (x)>0
I fX |y (x) = fX (x), ∀(x,y ), com fY (y )>0
I E (XY ) = E (X )E (Y ).

No Exemplo 5.1 X e Y serão independentes? E no Exemplo 5.2?

22 / 45
5.3 Covariância e correlação. Propriedades
Objectivo: Duas medidas do grau de associação linear de duas variáveis
aleatórias:
I covariância;
I correlação.
Definição: A covariância de duas variáveis aleatórias X e Y , com valores
esperados E (X ) e E (Y ), respectivamente, representa-se por cov(X , Y ) ou
σXY , é definida por

cov(X , Y ) = E [(X − E (X ))(Y − E (Y ))]

e calcula-se por
XX
(x − E (X ))(y − E (Y ))P(X = x, Y = y )
x y

se X e Y forem discretas, ou por


Z +∞ Z +∞
(x − E (X ))(y − E (Y ))fX ,Y (x, y )dxdy
−∞ −∞

se X e Y forem contı́nuas.
23 / 45
5.3 Covariância e correlação. Propriedades

y
(x − µX ) < 0 (x − µX ) > 0
(y − µY ) > 0 (y − µY ) > 0

(µX , µY )
·

x
(x − µX ) < 0 (x − µX ) > 0
(y − µY ) < 0 (y − µY ) < 0

24 / 45
5.3 Covariância e correlação. Propriedades

Interpretação do valor e sinal covariância:

Mede a variação conjunta de duas variáveis, podendo ser


interpretada do modo seguinte:
I se for positiva, as duas variáveis variam em média no mesmo
sentido;
I se for negativa, as duas variáveis variam em média em
sentidos contrários;
I se for nula, não se verifica nenhuma das tendências anteriores
e as duas variáveis aleatórias não estão linearmente associadas

25 / 45
5.3 Covariância e correlação. Propriedades

1. cov(X , Y ) = E (XY ) − E (X )E (Y )
2. cov (X , Y ) ∈ R e nas (unidX )×(unidY )
3. cov(X , Y ) = cov(Y , X )
4. cov(X , X ) = var(X )
5. cov(aX + b, cY + d) = a c cov(X , Y )
6. cov(X + Z , Y ) = cov(X , Y ) + cov(Z , Y )
7. Se X ⊥ ⊥ Y então cov(X , Y ) = 0 ... Muito importante: a proposição
inversa não é verdadeira, i.e.

cov(X , Y ) = 0 ⇒
/ X e Y são independentes

26 / 45
5.3 Covariância e correlação. Propriedades

Exemplo 5.1 (cont.): X \Y 0 1 2 P(X = x)


0 16/36 8/36 1/36 25/36
1 8/36 2/36 0 10/36
2 1/36 0 0 1/36
P(Y = y ) 25/36 10/36 1/36 1

1 1
E (XY ) = E (X ) = E (Y ) = 3 (já calculados)
18
1 1 1
cov(X , Y ) = − =−
18 9 18

Significa que há uma tendência para Y decrescer quando X cresce e


vice-versa.
Podemos saber se essa tendência é “forte” ou “fraca”?

27 / 45
5.3 Covariância e correlação. Propriedades

Definição: A correlação ou coeficiente de correlação (linear)


entre duas variáveis aleatórias, X e Y , representa-se por corr(X , Y )
ou ρX ,Y e é definida por

cov(X , Y ) σXY
corr(X , Y ) = ρX ,Y = p =
V (X )V (Y ) σX σY

28 / 45
5.3 Covariância e correlação. Propriedades
O coeficiente de correlação não é alterado quando há mudanças de
escala e é adimensional:

y y
b b

4 b b
20 b b

3 b b b
15 b b b

2 b b b
10 b b b

1 b b
5 b b

b
x b
x
1 2 3 4 5 10 15 20

ρX ,Y = 0.81 ρX ,Y = 0.81
29 / 45
5.3 Covariância e correlação. Propriedades

Propriedades da correlação
1. −1 ≤ ρX ,Y ≤ 1
2. ρX ,Y = 1 se e só se Y = a + bX , com b > 0
ρX ,Y = −1 se e só se Y = a + bX , com b < 0
3. Se X e Y forem independentes então ρX ,Y = 0. a proposição
inversa não é necessariamente verdadeira, i.e.,

ρX ,Y = 0 ⇒
/ X e Y são independentes

30 / 45
5.3 Covariância e correlação. Propriedades
Demonstrações
1) Considere-se a variável aleatória σXX + σYY . Usando uma das
propriedades da variância vem:
  " 2 #   2
X Y X Y X Y
V + ≥0 ⇔ E + − E + ⇔
σX σY σX σY σX σY

E (X 2 ) E (Y 2 ) E (XY ) E 2 (X ) E 2 (Y ) E (X )E (Y )
⇔ + +2 − − −2 ≥0 ⇔
σX2 σY2 σX σY σX2 σY2 σX σY

E (X 2 ) − E 2 (X ) E (Y 2 ) − E 2 (Y ) E (XY ) − E (X )E (Y )
⇔ 2 + 2 +2 ≥0 ⇔
σX σY σX σY
1 + 1 + 2 ρX ,Y ≥ 0 ⇔ ρX ,Y ≥ −1

 
X Y
De igual modo V − ≥ 0 ⇔ · · · ⇔ ρX ,Y ≤ 1
σX σY

31 / 45
5.3 Covariância e correlação. Propriedades
Demonstrações (cont.)
 
X Y X Y
2) ρX ,Y = 1 ⇔ V − =0 ⇔ − = constante
σX σY σX σY
 
X Y X Y
ρX ,Y = −1 ⇔ V + =0 ⇔ + = constante
σX σY σX σY

3) X e Y independentes ⇔ fX ,Y (x, y ) = fX (x) fY (y ), ⇒

Z Z Z Z
⇒ E (XY ) = x y fX ,Y (x, y )dxdy = x y fX (x) fY (y )dxdy =

Z  Z 
= x fX (x)dx y fY (y )dy = E (X ) E (Y )

isto é:
cov(X , Y ) = 0 ⇔ ρX ,Y = 0

32 / 45
5.3 Covariância e correlação. Propriedades
Para mostrar que
cov(X , Y ) = corr(X , Y ) = 0 ⇒
/ X e Y são independentes
basta dar um contra-exemplo:

X \Y −1 0 1 P(X = x)

−1 0 1/6 0 1/6
0 1/12 1/12 1/12 2/3
1 0 1/6 0 1/6
P(Y = y ) 1/12 5/6 1/12 1

I. E (XY ) = 0, E (X ) = E (Y ) = 0, logo cov(X , Y ) = 0

II. No entanto, X e Y não são independentes


(por exemplo, P(X = −1, Y = −1) 6= P(X = −1) × P(Y = −1)

33 / 45
5.3 Covariância e correlação. Propriedades

Exemplo 5.1 (cont.): X \Y 0 1 2 P(X = x)


0 16/36 8/36 1/36 25/36
1 8/36 2/36 0 10/36
2 1/36 0 0 1/36
P(Y = y ) 25/36 10/36 1/36 1

Vimos antes que cov(X , Y ) = −1/18, o que significa que há uma tendência
para Y decrescer quando X cresce e vice-versa, e podemos agora responder à
questão: essa tendência é “forte” ou “fraca”?

Como X e Y ∼ Bin(2, 1/6), tem-se que V (X ) = V (Y ) = np(1 − p) = 5/18,


logo
−1/18 1
corr(X , Y ) = p =−
5/18 × 5/18 5
o que permite concluir que a sua tendência/relação é “fraca” (por o seu valor
estar bastante mais próximo de 0 do que de -1), para além de que as variáveis
estão correlacionados linearmente no sentido negativo.

34 / 45
5.4 Combinações lineares de variáveis aleatórias
Definição: Dadas p variáveis aleatórias, X1 , X2 , . . . , Xp e p cons-
tantes reais, c1 , c2 , . . . , cp , diz-se que a variável aleatória Y , definida
como
Y = c1 X1 + c2 X2 + · · · + cp Xp
é uma combinação linear de X1 , X2 , . . . , Xp .
Valor esperado de uma combinação linear
I E (c1 X1 + c2 X2 ) = c1 E (X1 ) + c2 E (X2 )
Z Z
Demonstração: (c1 x1 + c2 x2 )f (x1 , x2 )dx1 dx2 =
Z Z Z Z
= c1 x1 f (x1 , x2 )dx1 dx2 + c2 x2 f (x1 , x2 )dx1 dx2

I E (c1 X1 + c2 X2 + · · · + cp Xp ) =
c1 E (X1 ) + c2 E (X2 ) + · · · + cp E (Xp )

35 / 45
5.4 Combinações lineares de variáveis aleatórias

Variância de uma combinação linear


I V (c1 X1 + c2 X2 ) = c12 V (X1 ) + c22 V (X2 ) + 2 c1 c2 cov(X1 , X2 )

2
Dem.: V (c1 X1 + c2 X2 ) = E (c1 X1 + c2 X2 )2 − [E (c1 X1 + c2 X2 )] =
 

2
= E (c12 X12 + c22 X22 + 2c1 c2 X1 X2 ) − (c1 E (X1 ) + c2 E (X2 )) =

= c12 E (X12 ) + c22 E (X22 ) + 2c1 c2 E (X1 X2 )−


c12 E 2 (X1 ) − c22 E 2 (X2 ) − 2c1 c2 E (X1 )E (X2 ) =

 
= c12 E (X12 ) − E 2 (X1 ) + c22 E (X22 ) − E 2 (X2 ) +
+2c1 c2 (E (X1 X2 ) − E (X1 )E (X2 ))

36 / 45
5.4 Combinações lineares de variáveis aleatórias

Variância de uma combinação linear (cont.)


I V (c1 X1 + · · · + cp Xp ) =
Xp p
X Xp
2
ci V (Xi ) + 2 ci cj cov(Xi , Xj )
i=1 i=1 j=1,j>i

I Se cov(Xi , Xj ) = 0, para qualquer i 6= j, ou seja, se as


variáveis aleatórias forem não correlacionadas duas a duas,
então
Xp
V (c1 X1 + · · · + cp Xp ) = ci2 V (Xi )
i=1
I O mesmo acontece se as variáveis aleatórias forem
independentes duas a duas, pois como se viu, independência
⇒ covariância (e correlação) nula.

37 / 45
5.4 Combinações lineares de variáveis aleatórias
Casos especiais de somas/combinações lineares de variáveis
aleatórias

1. Soma de binomiais independentes com a mesma


probabilidade de sucesso

X1 ∼ Bin(n1 , p) 
X2 ∼ Bin(n2 , p) ⇒ X1 + X2 ∼ Bin(n1 + n2 , p)
X1 e X2 independentes

P 
k
Xi ∼ Bin(ni , p) independentes ⇒ X1 +· · ·+Xk ∼ Bin i=1 ni , p

Caso especial:

Xi ∼ Ber (p) ≡ Bin(1, p) independentes ⇒ X1 +· · ·+Xn ∼ Bin (n, p)


38 / 45
5.4 Combinações lineares de variáveis aleatórias

2. Soma de Poisson’s independentes


X1 ∼ Poisson(λ1 ) 
X2 ∼ Poisson(λ2 ) ⇒ X1 + X2 ∼ Poisson(λ1 + λ2 )
X1 e X2 independentes

P 
k
Xi ∼ Poisson(λi ) independentes ⇒ X1 +· · ·+Xk ∼ Poisson i=1 λi

39 / 45
5.4 Combinações lineares de variáveis aleatórias

3. Combinação linear de normais independentes

X1 ∼ N(µ1 , σ12 )


X2 ∼ N(µ2 , σ22 ) ⇒ aX1 +bX2 ∼ N(aµ1 +bµ2 , a2 σ12 +b 2 σ22 )
X1 e X2 independentes

Xi ∼ N(µi , σi2 ) independentes ⇒


P 
k Pk 2 2
⇒ c1 X1 + · · · + ck Xk ∼ N i=1 ci µi , i=1 ci σi

40 / 45
5.6 Teorema do Limite Central. Aplicações às distribuições
binomial e de Poisson
Na maioria das situações é difı́cil determinar a distribuição da soma
de variáveis (mesmo que sejam independentes!). O teorema
seguinte justifica a grande utilidade e importância da distribuição
normal (quer em probabilidades quer em estatı́stica).

Teorema do Limite Central: Seja X1 , . . . , Xn uma sucessão de


v.a. independentes e identicamente distribuı́das comPvalor esperado
µ < ∞ e variância σ 2 < ∞. Considere-se Sn = ni=1 Xi , então
quando n → +∞

Sn − E (Sn ) Sn − nµ a
p = √ ∼ N (0, 1) ,
V (Sn ) nσ 2

ou seja, !
Sn − E (Sn )
lim P p ≤z = Φ(z)
n→+∞ V (Sn )
41 / 45
5.6 Teorema do Limite Central. Aplicações às distribuições
binomial e de Poisson
Observações:
I A demonstração do teorema exige algumas ferramentas
matemáticas avançadas.
I Observar que,
n
! n
X X
E (Sn ) = E Xi = E (Xi ) = nE (X1 ) = nµ
i=1 i=1
e como X1 , X2 · · · Xn são v.a. independentes tem-se
n
! n
X X
V (Sn ) = V Xi = V (Xi ) = nV (X1 ) = nσ 2
i=1 i=1

I As v.a. X1 , . . . , Xn podem ser discretas ou contı́nuas.


I Geralmente considera-se n grande se n ≥ 30
I As distribuições Binomial e de Poisson podem ser aproximadas pela
distribuição normal (na secção anterior vimos que podem ser
escritas como somas de variáveis aleatórias).
42 / 45
Exemplo 1. Combinação linear de normais independentes
Um elevador de acesso à galeria de uma mina tem capacidade nominal de
3800kg. Admita que a v.a. Xi peso do i−ésimo mineiro que usa o elevador tem
distribuição normal com valor esperado 75kg e desvio padrão 8kg. Qual é a
probabilidade de ser excedida a capacidade nominal do elevador quando nele se
encontram 50 mineiros?
Xi − ‘v.a. peso do i−ésimo mineiro (kg)’ , i = 1, . . . , 50, Xi ∼ N(75; 82 ) , ∀i
Vamos admitir que Xi q Xj para i 6= j
S = 50
P
i=1 Xi ‘v.a. peso dos 50 mineiros (kg)’

E (S) = E ( 50
P P50
i=1 Xi ) = i=1 E (Xi ) = 50E (X ) = 50 × 75 = 3750 (porque são
identicamente distribuı́dos (i.d.) a X )
V (X ) = V ( 50
P P50 2
i=1 Xi ) = i=1 V (Xi ) = 50V (X ) = 50 × 8 = 3200 porque são
independentes e identicamente distribuı́dos (i.d.) a X .
S ∼ N(3700, 3200) porque é a combinação linear de v.a.’s normais
independentes
P(S > 3800) = 1 − P(S ≤ 3800) = 1 − P( S−3750

3200
≤ 3800−3750

3200
)=
3800−3750
1 − Φ( √3200 ) = 1 − Φ(0.88) = 1 − 0.8106 = 0.1894.

43 / 45
Exemplo 2. Teorema do limite central (T.L.C.)
Uma empresa de chocolates embala caixas com 100 pacotes de bombons. Os
pesos por pacote são v.a.’s Xi , onde Xi q Xj , com média 0.5kg e variância
0.1kg2 .São colocadas 10 caixas numa palete. Qual é a probabilidade
aproximada do peso dos bombons da palete ser superior a 510kg?
Xi − ‘v.a. peso do i−ésimo pacote (kg)’
E (Xi ) = 0.5 V (Xi ) = 0.1 , ∀i e Xi q Xj para i 6= j
S = 1000
P
i=1 Xi ‘v.a. peso dos bombons colocados na palete (kg)’

E (S) = E ( 1000
P P1000
i=1 Xi ) = i=1 E (Xi ) = 1000E (X ) = 1000 × 0.5 = 500 (porque
são identicamente distribuı́dos (i.d.) a X )
V (X ) = V ( 1000
P P1000
i=1 Xi ) = i=1 V (Xi ) = 1000V (X ) = 1000 × 0.1 = 100 porque
são independentes e identicamente distribuı́dos (i.d.) a X .
a
Pelo T.L.C. tem-se que: S−E
√ (S) = S−500

100
∼N (0, 1) ,
V (S)

S − 500 510 − 500


 
P(S > 510) = 1 − P(S ≤ 510) = 1 − P √ ≤ √ ≈
100 100 T .L.C .

≈ 1 − Φ(1) ≈ 0.1587.
T .L.C .

44 / 45
5.6 Teorema do Limite Central. Aplicações às distribuições
binomial e de Poisson
Aproximações Binomial/Normal e Poisson/Normal:
I X ∼ Bin(n, p) pode ser aproximada a X̃ ∼ N(np, np(1 − p)) quando
np > 5 e n(1 − p) > 5

I X ∼ Poisson(λ) pode ser aproximada a X̃ ∼ N(λ, λ) quando λ > 5

I Correcção de continuidade: em geral a aproximação é melhor se


fizermos
P(a ≤ X ≤ b) ' P(a − 0.5 ≤ X̃ ≤ b + 0.5)
Exemplo: O número de chamadas de telemóvel registadas a partir de certa
“zona” numa hora tem, em condições estacionárias, distribuição de Poisson de
parâmetro 1500. Calcule a probabilidade de ocorrerem mais de 1600 chamadas
na próxima hora.
X ∼ Poi(1500) pode ser aproximado a X̃ ∼ N(1500, 1500)
P(X > 1600) = 1 − P(X ≤ 1600) = 1 − P(X ≤ 1600 + 0.5) '
 
X̃ − 1500 1600.5 − 1500
' 1 − P(X̃ ≤ 1600.5) = 1 − P √ ≤ √ =
1500 1500
= 1 − Φ(2.59) ' 0.0048
45 / 45

Você também pode gostar