Você está na página 1de 20

5.

Distribuições conjuntas de probabilidade


e complementos
Por vezes, a observação de uma única variável não é suficiente para
explicar um fenómeno aleatório, sendo necessário observar mais do que
uma variável aleatória (caso multivariado) e, por conseguinte, definir as
funções de probabilidade conjunta.

Duas variáveis aleatórias discretas ou contínuas.


Exemplo 5.1: Sejam X e Y os números de cartas rei/dama e ás em 2
cartas retiradas (sem reposição) de um baralho com 52 cartas, respecti-
vamente. Quais as probabilidades conjuntas (não nulas) do par aleatório
(X, Y )?

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 57/207

8
 4 40
 52

P (X = 0, Y = 0) = 00 2
/ 2
= 780/1326 ≃ 0.589
8 4 40 52
P (X = 0, Y = 1) = 01 1
/ 2
= 160/1326 ≃ 0.121
8 4 40 52
P (X = 0, Y = 2) = 02 0
/ 2
= 6/1326 ≃ 0.004
8 4 40 52
P (X = 1, Y = 0) = 10 1
/ 2
= 320/1326 ≃ 0.241
8 4 40 52
P (X = 1, Y = 1) = 11 0
/ 2
= 32/1326 ≃ 0.024
8 4 40 52
P (X = 2, Y = 0) = 2 0 0
/ 2
= 28/1326 ≃ 0.021

X\Y 0 1 2
0 0.589 0.121 0.004 0.714
1 0.241 0.024 0 0.265
2 0.021 0 0 0.021
0.851 0.145 0.004 1

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 58/207


Distribuições conjuntas.
Definição 5.1: Se X e Y são duas v.a. discretas (contínuas), a sua
função massa (densidade) de probabilidade conjunta é uma função
fX,Y (x, y), satisfazendo as seguintes condições:
1. fX,Y (x, y) ≥ 0, ∀ (x, y).
P P
2. f (x, y) = 1 (caso discreto),
R xR y X,Y
f (x, y) dxdy = 1 (caso contínuo).
IR IR X,Y

Definição 5.2: Dado um par aleatório (X, Y ), a sua função de dis-


tribuição conjunta é dada por

FX,Y (x, y) = (
P (X ≤ x, Y ≤ y)
P P
fX,Y (u, v) (caso discreto),
= R xu≤xR y v≤y
f (u, v) dvdu
−∞ −∞ X,Y
(caso contínuo).
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 59/207

Propriedades da função de distribuição FX,Y (x, y) de um par aleatório


(X, Y ):
P1 : FX,Y (x, y) é uma função não decrescente em cada uma das var-
iáveis, e.g., ∀ x, y1 ≤ y2 , FX,Y (x, y1 ) ≤ FX,Y (x, y2 ).
P2 : FX,Y (x, y) é uma função contínua à direita em cada uma das var-
iáveis, e.g., se xn ↓ x (n → ∞), então FX,Y (xn , y) ↓ FX,Y (x, y).
P3 : lim FX,Y (x, y) = lim FX,Y (x, y) = lim FX,Y (x, y) = 0.
x,y→−∞ x→−∞ y→−∞

P4 : lim FX,Y (x, y) = 1.


x,y→∞

Note-se que a função densidade de probabilidade conjunta de (X, Y )


pode ser obtida a partir da respectiva função de distribuição por difer-
enciação, nos pontos (x, y) de diferenciabilidade desta, i.e.,
∂2
fX,Y (x, y) = FX,Y (x, y).
∂x∂y

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 60/207


Exemplo 5.2: Num sistema com 2 componentes electrónicas, seja X
(Y ) a duração (em horas) da sua primeira (segunda) componente. Será
fX,Y (x, y) abaixo uma f.d.p. conjunta do par aleatório (X, Y )?
(
e−x−y , x > 0, y > 0;
fX,Y (x, y) =
0, c.c.

• fX,Y (x, y) ≥ 0, ∀ (x, y) ∈ IR2 ,


Z ∞ Z ∞ Z ∞ Z ∞
−y
• fX,Y (x, y) dxdy = e−x dxdy
e
−∞ −∞
Z0 ∞ 0 ∞
−y

−x
= e [−e ] dy
0 0 ∞
Z ∞
−y

−y
= e dy = [−e ] = 1.
0 0

Sim, fX,Y (x, y) é uma f.d.p. conjunta.


NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 61/207

Qual a probabilidade de as duas componentes durarem no máximo 2


horas?
R2R2
P (X ≤ 2, Y ≤ 2) = FX,Y (2, 2) = 0 0 e−x−y dxdy
R2
= 0 e−y (−e−x )|20 dy = (1−e−2 )(−e−y )|20
= (1 − e−2 )2 ≃ 0.7477

Qual a probabilidade de a primeira componente durar mais do que a


segunda?
RR
y 6 P (X > Y ) = f (x, y) dxdy
R ∞AR ∞X,Y−x−y
= 0 y e dxdy
R ∞ −y
= 0 e (−e−x )|∞ y dy
R ∞ −2y
A = 0 e dy = 0.5(−e−z )|∞0
- x = 0.5

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 62/207


Distribuições marginais.
Definição 5.3: Dado um par aleatório (X, Y ) de v.a. discretas
(contínuas) com função massa (densidade) de probabilidade conjunta
fX,Y (x, y), as funções massa (densidade) de probabilidade marginais
de X e de Y são, respectivamente, dadas por
X Z 
fX (x) = fX,Y (x, y) fX,Y (x, y) dy ,
y IR
X Z 
fY (y) = fX,Y (x, y) fX,Y (x, y) dx .
x IR

Note-se que as funções fX (x) e fY (y) satisfazem as propriedades de


f.m.p (f.d.p.), estando associadas igualmente a funções de distribuição
R ∞ Por exemplo, se (X, Y ) é contínuo: i) fRX x(x) ≥ 0, ∀ x ∈
(marginais).
IR; ii) −∞ fX (x)dx = 1; iii) FX (x) = P (X ≤ x) = −∞ fX (u)du.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 63/207

Exemplo 5.2a: No sistema com duas componentes electrónicas, qual a


função de distribuição conjunta de (X, Y ), sendo X e Y as durações das
componentes?
Ry Rx x,y>0 R y R x
FX,Y (x, y) = −∞ −∞ fX,Y (u, v)dudv = 0 0 e−u−v dudv
Ry Ry
= (0 e−v (−e−u )|x0 dv = (1 − e−x ) 0 e−v dv,
(1 − e−x )(1 − e−y ), x, y > 0;
=
0, c.c.

E as funções densidade de probabilidade marginais de X eY?


(
x>0

R −x−y −x −y ∞ e−x , x > 0;
fX (x) = e dy = e (−e )|0 =
0 0, c.c.
(

y>0 R −x−y −y −x ∞ e−y , y > 0;
fY (y) = e dx = e (−e )|0 =
0 0, c.c.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 64/207


Distribuições condicionais.
Definição 5.4: Dado um par aleatório (X, Y ) de v.a. discretas
(contínuas) com função massa (densidade) de probabilidade conjunta
fX,Y (x, y), a função massa (densidade) de probabilidade condicional
de X dado Y = y é expressa por

fX|Y =y (x) = fX,Y (x, y)/fY (y), se fY (y) > 0.

Analogamente, a função massa (densidade) de probabilidade condi-


cional de Y dado X = x é

fY |X=x (y) = fX,Y (x, y)/fX (x), se fX (x) > 0.

Observe-se que as funções condicionais fX|Y =y (x) e fY |X=x (y) satis-


fazem as propriedades de f.m.p (f.d.p.), possuindo igualmente funções
de distribuição (condicionais).
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 65/207

Exemplo 5.1a: X e Y são os números de cartas rei/dama e ás em 2


cartas retiradas do baralho (sem reposição), respectivamente.
X\Y 0 1 2
0 0.589 0.121 0.004 0.714
1 0.241 0.024 0 0.265
2 0.021 0 0 0.021
0.851 0.145 0.004 1

A função massa de probabilidade condicional de Y dado X = 0 é


Y |X = 0 0 1 2
0.589 0.121 0.004
fY |X=0 (y) 0.714
= 0.825 0.714
= 0.169 0.714
= 0.006

Note-se que
X X fX,Y (0, y) 1 X
fY |X=0 (y) = = fX,Y (0, y) = 1
y y
f X (0) f X (0) y

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 66/207


Independência.
Teorema 5.1: Duas variáveis aleatórias X e Y são ditas independentes,
se para todo A e B, os eventos X ∈ A e Y ∈ B são independentes, i.e.,

P (X ∈ A, Y ∈ B) = P (X ∈ A)P (Y ∈ B).

Teorema 5.2: Duas variáveis aleatórias X e Y discretas (contínuas) são


independentes, se a função massa (densidade) de probabilidade con-
junta de (X, Y ) é dada por

fX,Y (x, y) = fX (x)fY (y), ∀ (x, y),

onde fX (x) e fY (y) são as funções massa (densidade) de probabilidade


marginal de X e Y , respectivamente.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 67/207

Teorema 5.3: Duas variáveis aleatórias X e Y são independentes, se a


função de distribuição conjunta de (X, Y ) é dada por

FX,Y (x, y) = FX (x)FY (y), ∀ (x, y),

onde FX (x) e FY (y) são as funções de distribuição marginal de X e Y ,


respectivamente.

Exemplo 5.2b: X e Y são as durações (em horas) de duas componentes


electrónicas do sistema.
(
e−(x+y) = e−x e−y , x, y > 0;
fX,Y (x, y) =
0, c.c.
= fX (x)fY (y), ∀ (x, y).

∴ X e Y são variáveis aleatórias independentes.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 68/207


Valor esperado e variância.
Definição 5.5: Dado um par aleatório (X, Y ) com f.m.p. ou f.d.p. con-
junta fX,Y (x, y), o valor esperado de uma função g(X, Y ) é dado por
(P P
g(x, y)fX,Y (x, y) (caso discreto),
E(g(X, Y )) = R xR y
IR IR
g(x, y)fX,Y (x, y) dxdy (caso contínuo).

Exemplo 5.3: Seja (X, Y ) um par aleatório com f.d.p. conjunta


fX,Y (x, y) e marginais fX (x) e fY (y). Qual o valor esperado de X +Y ?
R∞ R∞
E(X + Y ) = −∞ −∞ (x + y)fX,Y (x, y)dxdy
R∞ R∞ R∞ R∞
= −∞ x −∞ fX,Y (x, y)dydx + −∞ y −∞ fX,Y (x, y)dxdy
R∞ R∞
= −∞ xfX (x)dx + −∞ yfY (y)dy
= E(X) + E(Y ).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 69/207

E a variância de X + Y ?

R∞ R∞
E((X + Y )2 ) = −∞ −∞ (x + y)2 fX,Y (x, y)dxdy
R∞ R∞
= −∞ x2 −∞ fX,Y (x, y)dy dx

R∞ R∞
+2 −∞ −∞ xyfX,Y (x, y)dxdy
R∞ R∞
+ −∞ y 2 −∞ fX,Y (x, y)dx dy

R∞ R∞
= −∞ x2 fX (x)dx + 2E(XY ) + −∞ y 2 fY (y)dy
= E(X 2 ) + 2E(XY ) + E(Y 2 )

∴ V ar(X + Y ) = E((X + Y )2 ) − (E(X + Y ))2


= E(X 2 ) + 2E(XY ) + E(Y 2 )
−(E(X))2 − 2E(X)E(Y ) − (E(Y ))2
= V ar(X) + V ar(Y ) + 2(E(XY ) − E(X)E(Y )).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 70/207


Teorema 5.4: Se X e Y são variáveis aleatórias independentes com
f.m.p. (f.d.p.) conjunta fX,Y (x, y) e marginais fX (x) e fY (y), então
E(X Y ) = E(X)E(Y ).
P P
E(X Y ) = x y x yfX,Y (x, y) (caso discreto)
P P
= x y x yfX (x)fY (y)
P P
= x xfX (x) y yfY (y)
= E(X)E(Y ).

Exemplo 5.2c: X e Y são durações de 2 componentes electrónicas.


R∞ R ∞ −x
E(X) = 0 xe−x dx = −xe−x |∞
0 + 0
e dx = 0 − e−x |∞
0 = 1
R ∞ −y
E(Y ) = 0 ye dy = 1, visto que Y ∼ Exponencial(λ = 1)
R ∞R ∞ R∞ R∞
E(XY ) = 0 0 xy e−(x+y) dxdy = 0 xe−x dx 0 ye−y dy = 1
∴ E(XY ) = E(X)E(Y ).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 71/207

Definição 5.6: Dado um par aleatório (X, Y ) discreto (contínuo) com


f.m.p. (f.d.p.) condicional de X dado Y = y denotada por fX|Y =y (x),
o valor esperado condicional de X dado Y = y é dado por
(P
xfX|Y =y (x) (caso discreto),
E(X|Y = y) = R x
IR
xfX|Y =y (x) dx (caso contínuo).

Enquanto a variância condicional de X dado Y = y é dada por


X

 (x − E(X|Y = y))2 fX|Y =y (x)



 x
 (caso discreto),
V ar(X|Y = y) = Z



 (x − E(X|Y = y))2 fX|Y =y (x)dx
 IR


(caso contínuo).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 72/207


Propriedades do valor esperado condicional: Se (X, Y ) um par aleatório
com f.m.p. (f.d.p.) conjunta fX,Y (x, y) e marginais fX (x) e fY (y),
1. E(E(X|Y )) = E(X), caso E(X) < ∞ e fY (y) > 0.
2. E(E(Y |X)) = E(Y ), caso E(Y ) < ∞ e fX (x) > 0.

Denotando ψ(y) como o valor esperado condicional de X dado Y = y


(caso contínuo), i.e.,
fX,Y (x, y)
Z Z
ψ(y) = E(X|Y = y) = xfX|Y =y (x)dx = x dx,
IR IR f Y (y)
R
E(E(X|Y )) = E(ψ(Y )) = IR ψ(y)fY (y)dy
R R fX,Y (x,y) 
= IR IR x fY (y) dx fY (y)dy
R R 
= IR x IR fX,Y (x, y)dy dx
R
= IR xfX (x)dx
= E(X)
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 73/207

Covariância.
Definição 5.7: Dadas duas v.a. X e Y , a covariância de X e Y é o valor
esperado do produto dos desvios de X e Y em relação aos seus valores
esperados, i.e.,

Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))].

Propriedades da covariância: Dado um par aleatório (X, Y ) com f.m.p.


(f.d.p.) conjunta fX,Y (x, y),
P P
1. Cov(X, Y ) = x y (x − E(X))(y − E(Y ))fX,Y (x, y)
(caso discreto).
R R
2. Cov(X, Y ) = IR IR (x − E(X))(y − E(Y ))fX,Y (x, y)dxdy
(caso contínuo).
3. Cov(X, X) = V ar(X).
4. Cov(X, Y ) = E(XY ) − E(X)E(Y ).
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 74/207
Teorema 5.5: Se X e Y são v.a. independentes, então a covariância de
X e Y é nula.

Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0,

visto que E(XY ) = E(X)E(Y ), quando X e Y são independentes.

Exemplo 5.4: Sejam X e Y duas v.a. contínuas com f.d.p. conjunta


fX,Y (x, y) = 1, se 0 ≤ x, y ≤ 1, e 0, c.c..
2
• E(XY ) = 1 1 xy × 1 dxdy = ( x )|10 × ( y )|10 = 1 .
R R 2
0 0 2 2 4
R1R1 R 1 x2 1
• E(X) =
0 0
x × 1 dxdy = 0 ( 2 )|0 dy = 21 (y)|10 = 21 .
R 2
• E(Y ) = 1 1 y × 1 dxdy = 1 ( y )|10 dx = 1 (x)|10 = 1 .
R R
0 0 0 2 2 2

1 11
∴ Cov(X, Y ) = 4
− 22
= 0.
Resultado previsível pois X e Y são v.a. independentes.
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 75/207

Exemplo 5.5: Sejam X, Y e Z variáveis aleatórias. Qual a covariância


de X + Z e Y ?

Cov(X + Z, Y ) = E((X + Z)Y ) − E(X + Z)E(Y )


= E(XY ) + E(ZY ) − E(X)E(Y ) − E(Z)E(Y )
= Cov(X, Y ) + Cov(Z, Y )

E a variância de X − Y , se X e Y são independentes?

V ar(X − Y ) = E((X − Y )2 ) − (E(X − Y ))2


= E(X 2 ) − 2 E(XY ) + E(X)2
−(E(X))2 + 2 E(X)E(Y ) − (E(Y ))2
= V ar(X) + V ar(Y ) − 2 Cov(X, Y )

Se X e Y são independentes, V ar(X − Y ) = V ar(X) + V ar(Y ).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 76/207


Correlação.
Definição 5.8: Dado um par aleatório (X, Y ), o coeficiente de corre-
lação de X e Y é dado por

Cov(X, Y )
Corr(X, Y ) = p .
V ar(X) V ar(Y )

Propriedades do coeficiente de correlação: Sejam (X, Y ) um par


aleatório e a 6= 0 e b constantes reais.
1. −1 ≤ Corr(X, Y ) ≤ 1.
a
2. Corr(a X, Y + b) = |a|
Corr(X, Y ).
3. Se Y = a X + b, Corr(X, Y ) = ±1 (correlação linear perfeita).
Note-se que Corr(X, Y ) = 0 (i.e., Cov(X, Y ) = 0) não implica inde-
pendência entre X e Y .
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 77/207

Exemplo 5.1b: X e Y são os números de cartas rei/dama e ás em 2


cartas retiradas do baralho (sem reposição), respectivamente. Qual o
coeficiente de correlação de X e Y ?

X\Y 0 1 2
0 0.589 0.121 0.004 0.714
1 0.241 0.024 0 0.265
2 0.021 0 0 0.021
0.851 0.145 0.004 1

• E(X) = 0 × 0.714 + 1 × 0.265 + 2 × 0.021 = 0.307.


• E(X 2 ) = 02 × 0.714 + 12 × 0.265 + 22 × 0.021 = 0.349.
• E(Y ) = 0 × 0.851 + 1 × 0.145 + 2 × 0.004 = 0.153.
• E(Y 2 ) = 02 × 0.851 + 12 × 0.145 + 22 × 0.004 = 0.161.
• E(XY ) = 0×0×0.589+· · ·+1×1×0.024+· · ·+2×2×0 = 0.024.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 78/207


• V ar(X) = E(X 2 ) − E(X)2 = 0.349 − 0.3072 = 0.2547.
• V ar(Y ) = E(Y 2 ) − E(Y )2 = 0.161 − 0.1532 = 0.1376.
• Cov(X, Y ) = E(XY ) − E(X)E(Y )
= 0.024 − 0.307 × 0.153
= −0.023.

−0.023 −0.023
Corr(X, Y ) = √ = = −0.123.
0.2547 × 0.1376 0.1872

• As variáveis X e Y estão fracamente correlacionadas linearmente


e de uma forma negativa (quando uma variável cresce a outra de-
cresce).
• Note-se que Corr(X, Y ) 6= 0 ⇒ X e Y não são independentes.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 79/207

Definição 5.9: Dadas n v.a. X1 , . . . , Xn e n constantes reais c1 , . . . , cn ,


uma combinação linear das variáveis aleatórias é uma v.a. Y tal que
n
X
Y = ci Xi .
i=1

Algumas de suas propriedades:


1. E(Y ) = E( ni=1 ci Xi ) = ni=1 ci E(Xi ).
P P

2. V ar(Y ) = V ar( ni=1 ci Xi ) = ni=1 c2i V ar(Xi ), assumindo que


P P
X1 , . . . , Xn são v.a. independentes.

Teorema 5.6: Se X1 , . . . , Xn são v.a. independentes tais que Xi ∼


N (µi , σi2 ), i = 1, . . . , n, então para c1 , . . . , cn constantes reais
n
X n
X n
X 
Y = ci Xi ∼ N ci µ i , c2i σi2 .
i=1 i=1 i=1

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 80/207


Teorema 5.7: Se X1 , . . . , Xn são v.a. independentes tais que Xi ∼
Bernoulli(p), i = 1, . . . , n, então
n
X
Y = Xi ∼ Binomial(n, p),
i=1

e, por conseguinte,
Pn Pn
• E(Y ) = E(X ) =
i=1 i i=1 p = np,
Pn Pn
• V ar(Y ) = V ar(X ) =
i=1 i i=1 p(1 − p) = np(1 − p).

Teorema 5.8: Se X1 , . . . , Xn são v.a. independentes tais que Xi ∼


Poisson(λi ), i = 1, . . . , n, então
n
X  n
X 
Y = Xi ∼ Poisson λ = λi .
i=1 i=1

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 81/207

Exemplo 5.6: Suponha que X1 e X2 são v.a. independentes com dis-


tribuição de Poisson com parâmetros λ1 e λ2 , respectivamente. Qual a
distribuição de X1 + X2 ?

Seja Z = X1 + X2 uma v.a. com f.m.p. fZ (z), i.e.,


P
fZ (z) ≡ P (Z = z) = x1 P (X1 = x1 , Z = z)
P
= x1 P (X1 = x1 )P (Z = z|X1 = x1 )
P
= x1 P (X1 = x1 )P (X2 = z − x1 |X1 = x1 )
P
= x1 P (X1 = x1 )P (X2 = z − x1 )
z z
e−λ1 λ1 x1 e−λ2 λ2 z−x1 e−(λ1 +λ2 )
X X
= x1 ! (z−x1 )!
= z!
z!
λx1 λ2z−x1
x1 ! (z−x1 )! 1
x1 =0 x1 =0
e−(λ1 +λ2 ) z
= z!
(λ1 + λ2 )

Consequentemente, Z = X1 + X2 ∼ Poisson(λ = λ1 + λ2 ).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 82/207


Proposição 5.1: Sejam X1 , . . . , Xn e Y1 , . . . , Ym variáveis aleatórias.
n
X m
X  n X
X m
Cov Xi , Yj = Cov(Xi , Yj ).
i=1 j=1 i=1 j=1

Corolário 5.1: Sejam X1 , . . . , Xn variáveis aleatórias.


n
X  n
X X n
n X
V ar Xi = V ar(Xi ) + Cov(Xi , Xj ).
i=1 i=1 i=1 j6=i=1

Teorema 5.9: Se X1 , . . . , Xn são variáveis aleatórias independentes,


n
X  n
X
V ar Xi = V ar(Xi ).
i=1 i=1

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 83/207

Vector aleatório.
X = (X1 , . . . , Xn ) diz-se um vector aleatório em IRn , se Xi ,
1, . . . , n, são variáveis aleatórias. Consequentemente, se E(Xi ) = µi ,
V ar(Xi ) = σi2 e Cov(Xi , Xj ) = σij , j 6= i, então o valor esperado e a
matriz de covariâncias de X são, respectivamente,

E(X) = µ = (µ1 , . . . , µn )T
 
σ12 σ12 · · · σ1n
 21 σ22 · · · σ2n 
σ 
T
V ar(X) = E((X−µ)(X−µ) ) = 
. . . . . . . . . . . . . . . . . .

σn1 σn2 · · · σn2

Note-se que, se X1 , . . . , Xn são v.a. independentes com E(Xi ) = µ e


V ar(Xi ) = σ 2 , então V ar(X) = σ 2 I, onde I é a matriz identidade de
ordem n.
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 84/207
Distribuição multinomial.
Definição 5.10: Considere uma experiência aleatória com n ensaios in-
dependentes de k acontecimentos possíveis tais que pi é a probabili-
dade do acontecimento i e ki=1 pi = 1. Sejam X1 , X2 , . . . , Xn as v.a.
P
que designam o número de vezes em que cada um dos acontecimen-
tos se realiza nos n ensaios com xi = 0, 1, . . . , n e ki=1 xi = n. O
P
vector aleatório X = (X1 , . . . , Xn ) tem distribuição multinomial com
parâmetros n e p = (p1 , . . . , pn ), com f.m.p. conjunta
(
n!
p x1 p2 x2 . . . pk xk , xi ∈ {0, 1, . . . , n};
x1 !x2 !...xk ! 1
fX (x) =
0, c.c.

com pk = 1−p1 . . .−pk−1 e xk = n−x1 . . .−xk−1 .


Pode-se provar que Xi ∼ Binomial(n, pi ), E(Xi ) = npi , V ar(Xi ) =
npi (1−pi ) e Cov(Xi , Xj ) = −npi pj , j 6= i = 1, . . . , k.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 85/207

Aproximações entre distribuições.


Teorema 5.10: Se X é uma v.a. com distribuição binomial de parâmet-
ros n e p, X tem aproximadamente distribuição de Poisson com
parâmetro λ = np, quando n → ∞ e p → 0.

n
 x
fX (x) = x
p (1 − p)n−x
n!
= ( λ )x (1
x!(n−x)! n
− nλ )n−x , onde p = λ/n
n(n−1)...(n−x+1) λx (1−λ/n)n
= nx
× x!
× (1−λ/n)x
λx e−λ
⇒1× x!
× 1
, quando n → ∞, p → 0
e−λ λx
= x!
.

a
Ou seja, X ∼ Poisson(λ = np), quando n → ∞ e p → 0.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 86/207


Teorema 5.11: Se X é uma v.a. com distribuição hipergeométrica de
parâmetros N , M e n, X tem aproximadamente distribuição binomial
com parâmetros n e p = M/N , quando N, M → ∞ simultaneamente.

fX (x) = [ M
 N −M  N 
x n−x
]/ n
M! (N −M )! n!(N −n)!
= x!(M −x)!
× (n−x)!(N −M −n+x)!
× N!
n! M! (N −M )! (N −n)!
= x!(n−x)!
× (M −x)!
× (N −M −(n−x))!
× N!

×M (M −1)...(M −x+1)
n (N −M )(N −M −1)...(N −M −(n−x)+1)

= x
N (N −1)...(N −x+1)
× (N −x)(N −x−1)...(N −n+1)

⇒ nx × [ M M
··· M ] × [ N −M N −M
· · · N −M

N N N N N N
], M, N → ∞
n
(M x N −M n−x

= x N) ( N )
n

= x px (1 − p)n−x , x = 0, 1, . . . , n e p = M/N .

a
Ou seja, X ∼ Binomial(n, p = M
N
), quando N, M→∞ simultaneamente.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 87/207

Convergência em distribuição
Definição 5.11: Sejam X, X1 , X2 . . . v.a. com respectivas funções de
distribuição FX , FX1 , FX2 , . . .. Diz-se que Xn converge em distribuição
D
para X (Xn → X), se FXn (x) → FX (x), quando n → ∞, ∀ x ponto de
continuidade de FX . Ou seja,

lim FXn (x) = FX (x).


n→∞

Exemplo 5.7: Sejam (Xn ) e X v.a. degeneradas em 1/n e 0, respectiva-


mente, i.e.,

P (Xn = 1/n) = 1 e P (X = 0) = 1.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 88/207


• A função de distribuição de Xn é
(
1, x ≥ 1/n;
FXn (x) =
0, x < 1/n.

• A função de distribuição de X é
(
1, x ≥ 0;
FX (x) =
0, x < 0.

D
Portanto, Xn → X para todos os pontos de continuidade, i.e.,
• x > 0 ⇒ FXn (x) → 1 = FX (x), quando n → ∞.
• x < 0 ⇒ FXn (x) → 0 = FX (x), quando n → ∞.

Entretanto, para o ponto de descontinuidade x = 0, FXn (x) → 0 6= 1 =


FX (0).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 89/207

Teorema do Limite Central


Teorema 5.12 (T.L.C.): Seja X1 , X2 . . . uma sucessão de v.a. indepen-
com valor esperado µ e variância σ 2 , onde 0 < σ 2 < ∞. Para
dentesP
Sn = ni=1 Xi , tem-se

Sn − E(Sn ) Sn − nµ D
p = √ → N (0, 1).
V ar(Sn ) σ n

Ou seja, para n razoavelmente grande,


 
Sn − nµ
P √ ≤ x ≈ Φ(x),
σ n

onde Φ(·) é a função de distribuição da normal reduzida, i.e., N (0, 1).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 90/207


Distribuição de Poisson (lambda=5 x 0.5) Distribuição de Poisson (lambda=10 x 0.5)

0.30

0.30
0.20

0.20
f(x)

f(x)
0.10

0.10
0.00

0.00
0 10 20 30 40 50 0 10 20 30 40 50

x x

Distribuição de Poisson (lambda=20 x 0.5) Distribuição de Poisson (lambda=50 x 0.5)


0.30

0.30
0.20

0.20
f(x)

f(x)
0.10

0.10
0.00

0.00

0 10 20 30 40 50 0 10 20 30 40 50

x x

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 91/207

Exemplo 5.8: Suponha que Xi é o tempo de atendimento (em minutos)


do cliente i num caixa de banco. Considere ainda que Xi , i = 1, . . . , n,
são v.a. independentes com distribuição Uniforme (0, 5). Havendo 60
clientes no momento da abertura do banco às 9 horas, qual a probabili-
dade de a caixa do banco antender todos os clientes até às 12 horas?
Se Xi ∼ Uniforme(0, 5), i = 1, . . . , 60, e S60 = 60
P
i=1 Xi , então

• E(Xi ) = (5+0)
2
= 2.5 ⇒ E(S60 ) = 60 × 2.5 = 150.
• V ar(Xi ) = (5−0)2 25 25
12
= 12
⇒ V ar(S60 ) = 60 × 12
= 125.

Como n = 60 (grande) e Xi são v.a. independentes e identicamente


distribuídas, pode-se usar o T.L.C. (S60 ≈ N (150, 125)), i.e.,
 
P (S60 ≤ 180) ≈ P S√60 −E(S60 ) ≤ 180−150

125 V ar(S60 )

= P (Z ≤ 2.68)
= 0.9963.
NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 92/207
Aplicação à distribuição Binomial.
Corolário 5.2: Seja X1 , X2 . . . uma sucessão de v.a. associadas a en-
saios de Bernoulli independentes com probabilidade de sucesso p, i.e.,
Xi ∼ Bernoulli(p), i = 1, . . . , n, independentes com valor esperado
µ = E(Xi ) = p e variância σ 2 P = V ar(Xi ) = p(1 − p), onde
p = P (Xi = 1) ∈ (0, 1). Para Sn = ni=1 Xi ,

S − np D
p n → N (0, 1).
np(1 − p)

Observe-se que Sn ∼ Binomial(n, p) com valor esperado e variância


dados, respectivamente, por
• E(Sn ) = np.
• V ar(Sn ) = np(1 − p).

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 93/207

Distribuição Binomial (n=5,p=0.5) Distribuição Binomial (n=10,p=0.5)


0.4

0.4
0.3

0.3
f(x)

f(x)
0.2

0.2
0.1

0.1
0.0

0.0

0 1 2 3 4 5 0 2 4 6 8 10

x x

Distribuição Binomial (n=20,p=0.5) Distribuição Binomial (n=50,p=0.5)


0.4

0.4
0.3

0.3
f(x)

f(x)
0.2

0.2
0.1

0.1
0.0

0.0

0 5 10 15 20 0 10 20 30 40 50

x x

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 94/207


Exemplo 5.9: Se X = ni=1 Xi ∼ Binomial(n = 12, p = 0.5), qual a
P
probabilidade de X ser pelo menos 7?
P12 12
 x
• P (X ≥ 7) =
x=7 0.5 (1 − 0.5)12−x = 0.3872.
x
 
• P (X ≥ 7) ≈ P Z ≥ √7−12 0.5 , onde Z ∼ N (0, 1)
12 0.5 0.5

= P (Z ≥ 0.58)
= 1 − FZ (0.58) = 1 − 0.719
= 0.281.
• (com correcção de continuidade)
 
7−12 0.5−1/2
P (X ≥ 7) ≈ P Z ≥ √
12 0.5 0.5

= P (Z ≥ 0.29)
= 1 − FZ (0.29) = 1 − 0.6141
= 0.3859.

NOTAS DE PROBABILIDADES E ESTATÍSTICA - GS – 95/207

Você também pode gostar