Você está na página 1de 4

2.8 Convolução

É sempre importante saber calcular a distribuição de X + Y a partir das distribuições de X e de Y , quando tais

v.a.’s são independentes.

Suponha que X e Y sejam v.a.’s independentes, contínuas, tendo funções de densidades marginais f X ( x) e f Y ( y ) , respectivamente. A função de dsitribuição acumulada de X + Y é obtida da seguinte forma:

F X +Y (z ) = P (X + Y z ) = Z Z f X ( x)f Y (y )dxdy =

ou seja,

=

z y

Z

Z

−∞ −∞

f X ( x)f Y ( y ) dxdy =

z y

Z

Z

−∞ −∞

x+y z

f X ( x)dxf Y (y )dy =

Z F X ( z y )f Y (y )dy,

−∞

F X +Y ( z ) =

Z

−∞

F X (z y ) f Y ( y ) dy.

(8)

A expressão em (8) é chamada de convolução das funções de distribuição acumuladas F X ( x) e F Y (y ) .

Diferenciando (8), obtemos a função densidade de probabilidade de X + Y (f X +Y (z ), a convolução das densidades marginais de X e Y , f X ( x) e f Y ( y ) respectivamente) que é dada por:

f X +Y (z ) = dz d

Z

−∞

F X (z y ) f Y ( y ) dy =

Z

−∞

d

dz F X (z y ) f Y ( y )dy =

Z

−∞

f X ( z y )f Y (y ) dy.

(9)

As expressões apresentadas a seguir, obtidas de forma análoga àquela usada para encontrar (8) e (9) , também representam convolução de F X ( x) e F Y ( y ) e de f X ( x) e f Y ( y ) , respectivamente:

F X +Y (z ) =

Z F Y ( z x) f X (x) dx

−∞

e

f X +Y (z ) =

Z f Y ( z x) f X ( x)dx.

−∞

Exemplo 12 Suponha que X e Y sejam v.a.’s iid com função densidade de probabilidade dada por

f X ( x) = ½

e x para x 0 0, caso contrário.

Determinemos a densidade de Z = X + Y.

7

2.9

Esperança de uma função de duas Variáveis

Considere as v.a.’s X e Y , com função de densidade conjunta f XY (ou função de probabilidade conjunta p XY ) . Seja Z = g (X, Y ). Pode ser mostrado que o valor esperado de Z pode ser determinado diretamente da relação:

ou,

E (Z ) =

∞ ∞

Z

Z

−∞ −∞

g ( x, y ) f XY (x, y ) dxdy.

E ( Z ) =

∞ ∞

X

X

i=1 j =1

g (x i , y j )p XY (x i , y j ) .

(Caso contnuo)

(Caso discreto)

Neste caso é desnecessário determinar a distribuição de Z, a m de se calcular o valor de E (Z ) .

Exemplo 13 Suponha que um ponto de coordenadas X e Y seja escolhido aleatoriamente no quadrado Q contendo todos os pontos (x,y) do plano, tais que 0 x 1 e 0 y 1. Determinemos o valor esperado de X 2 + Y 2 .

Exemplo 14 Determinemos E(XY) no exemplo 1.

Teorema 1 Se X e Y são v.a.’s independentes, então E ( XY ) = E (X ) E (Y ).

Prova 1 Deixada como exercicio.

2.10 Esperança Condicional

2.10.1 Caso discreto

Seja ( X, Y ) o vetor bivariado de variáveis aleatórias discretas. De posse da distribuição condicional da variável aleatória Y , dado um valor especíco da variável aleatória X , como observado por exemplo na expressão (5) da Seção (2.5.1) , é possível calcular a esperança condicional de Y dado que X = x 0 .

No exemplo 1, temos que:

p (y |0) = ½ 0, c.c.

1, se y = 0

,

p(y |1) =

1

2 , se y = 0

  0, c.c.

1

2 , se y = 1

e

p( y |2) = ½

1, se y = 0

0, c.c.

,

e portanto:

E (Y |X = 0) = 0 ,

1

E ( Y |X = 1) = 2

e

E ( Y |X = 2) = 0.

1

Assim, Z = E (Y |X ) é uma v.a. que assume os valores 0, 2 ou 2 com as probabilidades Ou seja, Z = E (Y |X ) é uma v.a. tal que:

P ( Z = z ) =


, se z = 0

14 , se z = 1

3

14 8

3

2

14 se z = 2

.

14 , 14 e

3

8

Note que

14 , 14 e

3

8

14 3 são, respectivamente, as probabilidades de X = 0, 1, 2.

14 3 , respectivamente.

Temos, portanto, que E ( Y |X ) é uma v.a. que assume o valor E ( Y |X = x) com probabilidade P (X = x) .

Analogamente, E (X |Y ) é uma v.a. que assume o valor E (X |Y = y ) com probabilidade P (Y = y ) .

Além disso, E ( Y ) = E ( E (Y |X )) Prova:

E ( Y ) = X yP ( Y = y ) = X y X P ( Y = y,X = x) = X y X P ( Y = y |X = x) P ( X = x) =

= X

x

y

y

x

y

x

yP (Y = y |X = x) # P ( X = x) = X [E (Y |X = x)] P ( X = x) = E (E ( Y |X )).

"

X

y

|

{z

}

x

|

{z

}

funç ao˜ de x

funç ao˜ de x =E (Y | X =x )

8

2.10.2

Caso continuo

Suponha que X e Y sejam v.a.’s com distribuição contínua conjunta. Seja f XY ( x, y ) a função de densidade do vetor ( X, Y ) , seja f X (x) a função de densidade marginal de X e, para qualquer valor de X tal que f X ( x) > 0, seja f Y |X =x ( y ) a função de densidade condicional de Y dado que X = x.

A esperança condicional de Y dado X é denotada por E (Y |X ) e é denida como uma função da v.a. X que

assume o valor E ( Y |x) quando X = x e é especi cada por:

E ( Y |x) =

Z yf Y |X =x (y ) dy.

−∞

Ou seja, E ( Y |x) é a média da distribuição condicional de Y dado que X = x.

Sendo E ( Y |X ) uma função da v.a. X, ela própria e uma variável aleatória com sua própria função distribuição de probabilidade, que pode ser deduzida a partir de X. Vejamos então como encontrar E [E (Y |X )].

Teorema 2 Para quaisquer variáveis aleatórias X e Y,

E [E (Y | X )] = E ( Y ) .

Prova 2 Assuma, por conveniência, que X e Y tenham uma distribuição conjunta contínua, então:

E [E ( Y |X )] =

Z E (Y |x)f X (x) dx =

−∞

∞ ∞

Z Z

−∞ −∞

yf Y |X =x (y )f X ( x)dydx.

como

f Y |X =x ( y ) = f Y X (x,y )

f X (x)

, temos que

E [E ( Y |X )] =

∞ ∞

Z

Z

−∞ −∞

yf Y X (x, y )dydx = E (Y ).

A prova para o caso discreto sai de forma similar.

2.11 Variância Condicional

Seja ( X, Y ) um vetor bivariado de variáveis aleatórias. Dado um valor especíco da variável aleatória X , a variância condicional de Y dado que X = x, é denida por:

V ar ( Y |X = x) = E {[Y E (Y |X = x)] 2 |X = x},

ou, mais geralmente:

V ar (Y | X ) = E {[Y E (Y |X )] 2 |X }.

Note que a denição de V ar (Y |X ) e análoga à denição de variância usual já conhecida, mas agora todas as esperanças estão condicionadas no fato de X ser conhecida.

Exemplo 15 Calcule V ar (Y | X = 0) para o exemplo 1.

Exemplo 16 Encontre V ar ( Y |X ) no exemplo 2.

9

2.12

O Coeciente de Correlação

Até aqui estivemos tratando de parâmetros que tinham princípios semelhantes aos relacionados com a distribuição de variáveis aleatórias unidimensionais, tais como esperança e variância. Estes parâmetros medem certas características da distribuição. No caso de uma v.a. bidimensional ( X, Y ) surge a questão de como medir o grau de associação entre as variaveis X e Y.

O coeciente de correlação ρ xy é um parâmetro que mede a associação entre X e Y e é denido por:

ρ xy = E {[X E (X )][Y E ( Y )] }

p V ar ( X ) V ar (Y )

(10)

desde que as variâncias de X e de Y, respectivamente, sejam não nulas.

Obs.:

1. O coeciente de correlação ρ é um número adimensional entre -1 e 1.

2. O numerador de ρ xy é chamado de covariância entre X e Y e será denotado por Cov ( X, Y ) = σ xy

3. Cov (X, Y ) = E (XY ) E (X ) E (Y )

Prova: E {[X E (X )][Y E ( Y )]} = E {XY XE (Y ) Y E (X ) + E ( X )E ( Y ) } =

= E (XY ) E ( X ) E (Y ) E ( Y ) E ( X ) + E (X ) E (Y ) =

= E (XY ) E ( X ) E (Y ).

IMPORTANTE! Se X e Y forem independentes, então ρ = 0, mas a recíproca não é verdadeira. Veja o exemplo a seguir.

Exemplo 17 Considere o lançamento independente de dois dados. Sejam X e Y, respectivamente, os números que aparecem no primeiro e no segundo dados. Obviamente X e Y são independentes e têm a mesma distribuição, com E ( X ) = E (Y ) e E ( X 2 ) = E ( Y 2 ). De na as v.a.’s U = X Y e V = X + Y Assim, Cov (U, V ) = E [( X Y )( X + Y )] = E [X 2 Y 2 ]=0, ou seja, U e V são não correlacionadas. Por outro lado, U e V não são independentes, pois, por exemplo, P ( V = 4|U = 3) 6= P (V = 4)

2.12.1 Propriedades de Covariância, Correlação e Variância

Considere as variáveis aleatórias X e Y e as constantes a e b.

1. Cov (X,X ) = V ar ( X ) = σ

2. Se X e Y são tais que Y = aX + b, com a 6= 0. Se a > 0, então ρ xy = 1. Se a < 0 então ρ xy = 1.

3. V ar ( X ± Y ) = V ar (X ) + V ar ( Y ) ± 2Cov ( X, Y )

4. Cov (aX, bY ) = abCov ( X, Y )

2

x

10