Você está na página 1de 7

Departamento de Estatística e Matemática Aplicada DEMA

Universidade Federal do Ceará Semestre 2020.2

Vamos aproveitar o exercício 20 do Élcio para introduzir o conceito de distribuição bivariada:


1. Uma urna contem 5 bolas numeradas de 1 a 5. Duas bolas são retiradas simultaneamente.
Sejam X o número da primeira bola sorteada e Y o número da segunda bola sorteada,

a. Qual a lei de probabilidade do vetor (X,Y)?

Solução: O espaço amostral associado é equiprovável e tem 20 elementos . por:


(x,y) p x y (x,y) p x y
(1,2) 0,05 1 2 (3,4) 0,05 3 4
(1,3) 0,05 1 3 (3,5) 0,05 3 5
(1,4) 0,05 1 4 (4,1) 0,05 4 1
(1,5) 0,05 1 5 (4,2) 0,05 4 2
(2,1) 0,05 2 1 (4,3) 0,05 4 3
(2,3) 0,05 2 3 (4,5) 0,05 4 5
(2,4) 0,05 2 2 (5,1) 0,05 5 1
(2,5) 0,05 2 5 (5,2) 0,05 5 2
(3,1) 0,05 3 1 (5,3) 0,05 5 3
(3,2) 0,05 3 2 (5,4) 0,05 5 4
O suporte da conjunta de (X, Y ) é dado por:

A = {(x, y) ∈ N2 |1 ≤ x, y ≤ 5, x 6= y}.
A função de probabilidade conjunta de (X, Y ) é dada por:
1
f (x, y) = P (X = x, Y = y) = IA (x, y).
20
Ela também pode ser dada em uma tabela de dupla entrada:
HH X
H
1 2 3 4 5 P(Y=y)
Y HHH
1 0 0,05 0,05 0,05 0,05 0,2
2 0,05 0 0,05 0,05 0,05 0,2
3 0,05 0,05 0 0,05 0,05 0,2
4 0,05 0,05 0,05 0 0,05 0,2
5 0,05 0,05 0,05 0,05 0 0,2
P(X=x) 0,2 0,2 0,2 0,2 0,2 1

Além da conjunta a tabela apresenta as leis de probabilidades de X e Y conhecidas como


distribuições marginais.
Note que tanto X quanto Y tem a mesma lei uniforme de parâmetro N = 5.
N +1 6
E(X) = E(Y ) = = = 3.
2 2

N2 − 1 24
V (X) = V (Y ) = = = 2.
12 12
> N=5
>
> x=1:N;x
[1] 1 2 3 4 5

1
Departamento de Estatística e Matemática Aplicada DEMA
Universidade Federal do Ceará Semestre 2020.2

> px=rep(1/N,N);px
[1] 0.2 0.2 0.2 0.2 0.2
> EX=sum(x*px);EX; (N+1)/2
[1] 3
[1] 3
> EX2=sum(x^2*px);EX2
[1] 11
> VX=EX2-EX^2;VX;sum((x-EX)^2*px);(N^2-1)/12
[1] 2
[1] 2
[1] 2
>
>

b. Qual a lei de S = X + Y , a soma dos números retirados. Calcule sua média e variância.

E(S) = E(X + Y ) = E(X) + E(Y )? e V (S) = V (X + Y ) = V (X) + V (Y )?

Solução S = X + Y a soma dos números retirados.


Para trabalhar menos vamos condensar a tabela anterior:
(x,y) p s=x+y
(1,2) 0,1 3
(1,3) 0,1 4
(1,4) 0,1 5
(1,5) 0,1 6
(2,3) 0,1 5
(2,4) 0,1 6
(2,5) 0,1 7
(3,4) 0,1 7
(3,5) 0,1 8
(4,5) 0,1 9
A função de probabilidade de S é dada por:
s 3 4 5 6 7 8 9
P(S=s) 0,1 0,1 0,2 0,2 0,2 0,1 0,1

>
> s=3:9;s
[1] 3 4 5 6 7 8 9
> ps=c(1,1,2,2,2,1,1)/10
>
> tab=rbind(s,ps);tab
[,1] [,2] [,3] [,4] [,5] [,6] [,7]
s 3.0 4.0 5.0 6.0 7.0 8.0 9.0
ps 0.1 0.1 0.2 0.2 0.2 0.1 0.1
>
> ES=sum(s*ps);ES
[1] 6

2
Departamento de Estatística e Matemática Aplicada DEMA
Universidade Federal do Ceará Semestre 2020.2

> ES2=sum(s^2*ps);ES2
[1] 39
> VS=ES2-ES^2;VS
[1] 3
>
> EX=3;EY=3;VX=2;VY=2
>
> EX+EY;VX+VY
[1] 6
[1] 4
>
> ES==EX+EY
[1] TRUE
> VS==VX+VY
[1] FALSE
>

Sempre teremos :

E(S) = E(X + Y ) = E(X) + E(Y ),

mas nem sempre

V (S) = V (X + Y ) = V (X) + V (Y ).

Como explicar?

A primeira causa é devida a não independência entre as variáveis aleatórias X e Y .

Independência entre X e Y.

Dizemos que X e Y são independentes se e só se a conjunta puder ser fatorada no produto


das marginais, isto é,

f (x, y) = fX (x) × fY (y), ∀(x, y) ∈ R2 .

A segunda causa é devida ao fato que X e Y são não correlacionadas. isto será explicado
mais adiante.

Valor Esperado de g(X,Y).

Seja g(x, y) uma função do R2 em R com esperança nita, então

3
Departamento de Estatística e Matemática Aplicada DEMA
Universidade Federal do Ceará Semestre 2020.2

X
E(g(X, Y )) = g(x, y) × f (x, y).
(x,y)∈A

Assim se g(X, Y ) = XY
X
E(XY ) = xy × f (x, y).
(x,y)∈A

Covariância e Correlação

Sejam X e Y variáveis aleatórias com momentos de segunda ordem nitos, isto é,


E(X 2 ) < ∞, E(Y 2 ) < ∞ e E(XY ) < ∞. Para calcularmos a variância de S = X + Y temos:

V (S) = E(S 2 ) − E 2 (S)


= E((X + Y )2 ) − [E(X + Y )]2
= E(X 2 + Y 2 + 2XY ) − [E(X) + E(Y )]2
= E(X 2 ) + E(Y 2 ) + 2E(XY ) − E 2 (X) − E 2 (Y ) − 2E(X)E(Y )
= E(X 2 ) − E 2 (X) + E(Y 2 ) − E 2 (Y ) + 2 [E(XY ) − E(X)E(Y )]
= V (X) + V (Y ) + 2 Cov(X, Y ).

Vamos denir covariância:


Sejam X e Y duas variáveis aleatórias denidas no mesmo espaço de probabilidade. A cova-
riância entre X e Y , denotada por Cov(X, Y ) denida por:

Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))] .

Dessa denição surge uma fórmula mais operacional:

Cov(X, Y ) = E(XY ) − E(X)E(Y ).

Prova:

Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))]


= E [XY − XE(Y ) − E(X)Y + E(X)E(Y )]
= E(XY ) − E(XE(Y )) − E(E(X)Y ) + E[E(X)E(Y )]
= E(XY ) − E(X)E(Y ) − E(X)E(Y ) + E(X)E(Y )
= E(XY ) − E(X)E(Y ).

4
Departamento de Estatística e Matemática Aplicada DEMA
Universidade Federal do Ceará Semestre 2020.2

Propriedades da Covariância:

a. Cov(X,X)=V(X).
.
Prova.

Cov(X, X) = E(X × X) − E(X) × E(X)


= E(X 2 ) − E 2 (X)
= V (X).

b. Cov(X,a)=0, a constante.
. Prova.

Cov(X, a) = E(X × a) − E(X) × E(a)


= aE(X) − aE(X)
= 0.

c. Cov(aX,bY)=ab Cov(X,Y) a e b constantes.


.
Prova. Sejam U = aX , V = bY temos que:

E(U ) = aE(X) E(V ) = bE(Y ) E(U V ) = E(abXY ) = abE(XY )

Cov(aX, bY ) = Cov(U, V )
= E(U V ) − E(U )E(V )
= abE(XY ) − aE(X) bE(Y )
= ab (E(XY ) − E(X)E(Y ))
= ab Cov(X, Y ).

d. Cov(X,Y+Z)=Cov(X,Y)+ Cov(X,Z).
Prova.

.
Seja S = Y + Z assim

Cov(X, Y + Z) = Cov(X, S)
= E(XS) − E(X) × E(S)
= E(X(Y + Z)) − E(X) E(Y + Z)
= E(XY + XZ) − E(X) (E(Y ) + E(Z))
= E(XY ) + E(XZ) − E(X)E(Y ) − E(X)E(Z)
= E(XY ) − E(X)E(Y ) + E(XZ) − E(X)E(Z)
= Cov(X, Y ) + Cov(X, Z).

5
Departamento de Estatística e Matemática Aplicada DEMA
Universidade Federal do Ceará Semestre 2020.2

A covariância entre X e Y mede o grau da associação linear das variáveis e é expresso nas
unidades medidas das variáveis. Uma medida de associação linear adimensional é o coeciente
de correlação que é denido por:

Cov(X, Y )
ρ = Cor(X, Y ) = p .
V (X)V (Y )

Fato: Se X e Y forem independentes a correlação é nula.


Prova:

ρ = E(XY ) − E(X)E(Y )
= E(X)E(Y ) − E(X)E(Y )
= 0.

Fato: Cov(X,Y)=0 não implica independência. Neste caso as variáveis são ditas não correla-
cionadas.

Fato O coeciente de correlação varia no intervalo [−1, 1].

Prova: Sejam X uma variável com média µ1 e variância σ12 e .

Y uma variável com média µ2 e variância σ22 . Seja ρ o coeciente de correlação entre X e Y .
.

Considere
U = X − E(X) e V = Y − E(Y ).

Logo
E(U ) = E(V ) = 0, E(U 2 ) = V ar(U ) = V ar(X).
. E(V 2 ) = V ar(V ) = V ar(Y ) e E(U V ) = E [(X − E(X))(Y − E(Y ))] = Cov(X, Y ).

. Considere a função
g(t) = E (tU + V )2 ≥ 0.
 

g(t) = E(U 2 )t2 + 2 E(U V )t + E(V 2 ) = a t2 + t + c ≥ 0.

Para uma função quadrática ser não negativa é preciso que seu discriminante seja menor ou
igual a zero. Assim,

∆ = b2 − 4ac
= 4E 2 (U V ) − 4E(U 2 )E(V 2 ) ≤ 0
= E 2 (U V ) − E(U 2 )E(V 2 ) ≤ 0.

6
Departamento de Estatística e Matemática Aplicada DEMA
Universidade Federal do Ceará Semestre 2020.2

Assim
E 2 (U V ) ≤ E(U 2 )E(V 2 )

[Cov(X, Y )]2 ≤ V (X)V (Y ),

extraindo a raiz quadrada


p
|Cov(X, Y )| ≤ V (X)V (Y ),

e nalmente,

|Cov(X, Y )|
|ρ| = p ≤ 1,
V (X)V (Y )
mostrando assim que:

−1 ≤ ρ ≤ 1.

Exemplo: Mostre através do exemplo que covariância nula não implica independência.

HH X
H
-1 0 1 P(Y=y)
Y HHH
-1 1/8 1/8 1/8 3/8
0 1/8 0 1/8 2/8
1 1/8 1/8 1/8 3/8
P(X=x) 3/8 2/8 3/8 1

Solução: As variáveis são dependentes pois:

1
P (X = 0, Y = 0) = 0 6= = P (X = 0) × P (Y = 0).
16
Note que:

3 3 3
E(X) = E(Y ) = (−1) × + (0) × + (1) × = 0.
8 8 8

1 1 1
E(XY ) = (−1) × (−1) × + (−1) × (0) × + (−1) × (1) × + .
8 8 8

1 1 1
+(0) × (−1) × + (0) × (0) × + (0) × (1) × ,
8 8 8

1 1 1
(1) × (−1) × + (1) × (0) × + (1 − 1) × (1) × = 0
8 8 8
Logo,

Cov(X, Y ) − E(XY ) − E(X)E(Y ) = 0.

Assim covariância nula não implica independência.!!!!!

Você também pode gostar