Você está na página 1de 26

DEFINIÇÃO

Apresentação das variáveis aleatórias múltiplas. Principais propriedades de variáveis aleatórias múltiplas e tipos de distribuição de probabilidade
(conjunta, marginal e condicional) para variáveis multidimensionais discretas e contínuas. Funções de densidade para variáveis multidimensionais
contínuas. Propriedade do operador de esperança matemática no contexto de variáveis multidimensionais.

PROPÓSITO
Reconhecer as propriedades e aplicações práticas de variáveis aleatórias múltiplas, como funções de probabilidade e densidade conjuntas, marginais
e condicionais, bem como o operador de esperança e seu papel no estabelecimento de independência estatística.

PREPARAÇÃO
Antes de iniciar o conteúdo deste tema, certifique-se de ter papel e lápis por perto para acompanhar os exemplos e demonstrações. É necessário ter
um conhecimento prévio de fundamentos de probabilidade e de variáveis aleatórias simples, além de cálculo diferencial e integral.

OBJETIVOS

MÓDULO 1

Identificar as propriedades de variáveis aleatórias múltiplas discretas

MÓDULO 2

Identificar as propriedades de variáveis aleatórias múltiplas contínuas


MÓDULO 3

Descrever o operador esperança e suas propriedades

INTRODUÇÃO
Apresentaremos agora as definições e propriedades relevantes para a compreensão de variáveis aleatórias multidimensionais. Trata-se de uma
extensão natural, com grande aplicação prática, das variáveis aleatórias unidimensionais. Começaremos com o estudo de variáveis aleatórias
múltiplas discretas, mais especificamente com o caso bivariado (i.e. com duas variáveis aleatórias).

Depois passaremos para as aleatórias contínuas. A estrutura é semelhante, e precisaremos apenas usar as ferramentas matemáticas adequadas. Por
último, veremos a esperança de variáveis aleatórias múltiplas.

MÓDULO 1

 Identificar as propriedades de variáveis aleatórias múltiplas discretas

VETORES ALEATÓRIOS DISCRETOS


Situações em que profissionais ou pesquisadores estão preocupados apenas com uma variável aleatória são raras.

Imagine um grupo de pesquisadores da área de saúde pesquisando a cura para uma nova doença. Eles estão interessados em fazer um experimento
com um grupo de voluntários e para isso precisam saber a idade dessas pessoas.

Fonte: Gorodenkoff/ Shutterstock


É natural imaginar que serão registradas a idade de cada indivíduo, e não somente a de um único. Nesse caso, teremos uma variável aleatória
representando a idade para cada indivíduo. Além disso, fatores como peso e altura podem ser relevantes para a doença e os pesquisadores podem
coletar mais informações para esses indivíduos. Nesse caso, para cada indivíduo teremos múltiplas variáveis aleatórias, cada uma associada a uma
dessas características.

Idade de cada indivíduo participante Variável aleatória representando a idade de cada indivíduo

Fatores relevantes para o estudo (peso, altura) Variáveis aleatórias para cada um dos fatores

 Atenção! Para visualização completa da tabela utilize a rolagem horizontal

DEFINIÇÃO (VETOR ALEATÓRIO):

Formalmente, para um dado espaço amostral de n-dimensões, um vetor aleatório X é uma função X : Ω → ℝ η, ou seja, para cada uma das n
variáveis aleatórias nesse vetor X atribuímos um valor real.

Imaginem que lançamos dois dados honestos de três faces cada um. Nesse caso, nosso espaço amostral Ω é dado por todas as combinações
possíveis de valores desses dois dados, ou seja:

Ω = {(1, 1), …, (1, 3), (2, 1), …(3, 3)}

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Assim, podemos definir duas variáveis aleatórias, S e D, dentro do vetor aleatório (S,D) em que:

S = Soma dos duas faces dos dados = {2,3,4,5,6}

Fonte: Dn Br / Shutterstock

D = Diferença em módulo dos dados = {0,1,2}

Fonte: Dn Br / Shutterstock

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Logo:

Caso lançássemos os dados e o ponto amostral encontrado, ou seja, os valores sorteados pelas faces dos dados, fossem (1,3), teríamos S = 1 + 3 = 4
e D = |1 – 3| = 2. Para o ponto amostral (2,3) teríamos S = 5 e D = 1. Para cada um dos nove pontos amostrais possíveis em Ω, podemos calcular os
valores de S e D. Desse modo, definimos o vetor aleatório bivariado (S,D).

Uma vez definido (S,D) podemos discutir a probabilidade dos eventos desse vetor aleatório.

Por exemplo, qual a probabilidade de termos um valor S = 4 e D = 2?


Nesse caso, apenas os pontos amostrais (1,3) e (3,1). Assim, o evento “S = 4 e D = 2” ocorrerá se, e somente se, o evento {(1,3),(3,1)} ocorrer. Uma
vez que a probabilidade de cada um dos pontos em Ω é igual, temos:

P (S = 4, D = 2) = P (( 1, 3 ), ( 3, 1 )) = 2 / 9.

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

A notação acima, P(S=4,D=2), simplesmente quer dizer “a probabilidade de S ser igual a 2 e a probabilidade de D ser igual a 2”. Assim, a notação
P(X=x,Y=y) quer dizer “a probabilidade de a variável aleatória X ser igual a x e Y ser igual a y”.

 ATENÇÃO

Note também que esse vetor é um vetor aleatório discreto, por ter um número contável (nesse caso finito) de valores possíveis. Para vetores desse
tipo definimos a função fXY (x,y)= P(X=x,Y=y) para calcular a probabilidade de quaisquer eventos definidos em termos de (X,Y).

DEFINIÇÃO (FUNÇÃO DE PROBABILIDADE CONJUNTA BIVARIADA):

Seja (X,Y) um vetor aleatório discreto bivariado (i.e. com duas variáveis aleatórias). A função que define completamente a distribuição de probabilidade
desse vetor é dada por fXY (x,y)= P(X=x,Y=y) e chamada de função de probabilidade conjunta (fp conjunta). Essa função possui as seguintes

propriedades:

Não negatividade: fXY ≥ 0 para todo (x,y) ∈ ℝ 2


Fonte: Dn
Br /
Shutterstock

( )
Soma unitária: Σ x ∈ ℝΣ y ∈ ℝf x, y = 1

Σx∈R Σy∈R f (x, y) = 1


Fonte: Dn
Br /
Shutterstock

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal


Ollie The Designer/ Shutterstock

A primeira propriedade apenas diz que os valores das fp conjuntas para um dado vetor aleatório têm de ser não-negativos, pois não faz sentido falar
em probabilidade menor do que zero.

Ollie The Designer/ Shutterstock

A segunda propriedade diz que o valor da soma de todas elas deve ser igual a um, ou seja, há 100% de chance de algum resultado ocorrer (nem mais,
nem menos).

Voltando ao exemplo dos dados de três faces, podemos ilustrar os possíveis valores das variáveis aleatórias S e D pela seguinte tabela:

ω ∈ Ω S(ω) D(ω)

{1,1} 2 0

{1,2} 3 1

{1,3} 4 2

{2,1} 3 1

{2,2} 4 0

{2,3} 5 1
{3,1} 4 2

{3,2} 5 1

{3,3} 6 0

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Com essas informações podemos agora coletar todas os valores possíveis para a função de probabilidade conjunta fSD(s,d)=P(S=s,D=d):

s 0 1 2

1
2 0 0
9

2
3 0 0
9

1 2
4 0
9 9

2
5 0 0
9

1
6 0 0
9

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

 COMENTÁRIO

Fica claro que nenhum dos valores de fSD é menor do que zero e que a soma de todos eles é igual a um, obedecendo, respectivamente, as

propriedades de não-negatividade e soma unitária definidas anteriormente.

E se quisermos saber a função de probabilidade conjunta para P (S ≤ 4, D = 1)?

Nesse caso, o evento ({1,2},{2,1}) é o único do nosso espaço amostral que satisfaz as duas desigualdades.

ASSIM, TEMOS QUE:

( ) ( )
P S ≤ 4, D = 1 = F SD 2, 1 + F SD 3, 1 + F SD 4, 1 = 0 +
( ) ( ) 2
9
+0=
2
9
.

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Note que poderíamos ter trabalhado diretamente com os valores possíveis do vetor aleatório, sabendo que apenas duas combinações das nove
possíveis satisfazem os intervalos de valores especificados. Geralmente, porém, será mais fácil lidar com a função de probabilidade conjunta.
DISTRIBUIÇÕES MARGINAL E CONDICIONAL: O CASO DISCRETO
Mesmo que possamos tirar a função de probabilidade conjunta de um vetor aleatório, muitas vezes estamos interessados em saber apenas as
probabilidades relacionadas a variáveis aleatórias específicas dentro desse vetor.

 EXEMPLO

Por exemplo, caso estivéssemos interessados em saber somente a função de probabilidade da variável S do exemplo anterior, gostaríamos de saber
sua distribuição de probabilidade fS(s)=P(S=s).

No contexto de variáveis aleatórias múltiplas, essa distribuição recebe o nome de função de probabilidade marginal de S, para enfatizar que essa é a
função de probabilidade apenas de S. Podemos obter facilmente a função de probabilidade marginal a partir da função de probabilidade conjunta por
meio do teorema a seguir.

DEFINIÇÃO (FUNÇÃO DE PROBABILIDADE MARGINAL):

Seja (X,Y) um vetor aleatório discreto, com função de probabilidade conjunta fXY(x,y). As funções de probabilidade marginal desse vetor aleatório são

dadas por:

FX X() = Σ Y ∈ ℝ F XY X, Y ( )
E
FY(Y) = ΣX∈ℝ FXY(X,Y)

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Para ficar mais claro, vamos pensar no exemplo dos dados. Podemos calcular a função de probabilidade marginal de apenas o módulo da diferença
dos valores dos dados ser igual a zero. Formalmente, queremos saber fD(0).

Pela definição acima, o que precisamos fazer é somar o valor de fSD(s,d=0) para cada valor possível de s.

Desse modo, temos:

FD 0
() = Σ
S∈ℝ (
F SD S, D = 0
) ( )
= F SD 2, 0 + F SD 3, 0
( ) + . . . + F SD 6, 0
( ) =
3
9
=
1
3

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Agora, vamos expandir a tabela da função de probabilidade conjunta para obter as marginais:

d
s 0 1 2 ()
fs s

1 1
2 0 0
9 9

2 2
3 0 0
9 9

1 2 1
4 0
9 9 3

2 2
5 0 0
9 9

1 1
6 0 0
9 9

()
1 4 2
fD d
3 9 9

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

() ()
Se somarmos f D d para todos os valores possíveis de d, obtemos o total 1. O mesmo total vale para f S s .Isso é razoável de se esperar porque

estamos somando todos os valores possíveis para essas variáveis aleatórias. A probabilidade de acontecer alguma delas é 1, pois alguma, com
certeza, irá acontecer.

Nem sempre, porém, as variáveis aleatórias estão relacionadas. Vamos voltar por um instante ao exemplo inicial, em que uma equipe de
pesquisadores quer investigar a cura para uma doença. Vamos supor que eles coletam a altura A e o peso K de uma amostra da população. É
razoável esperar que essas duas variáveis estejam relacionadas. Um jogador de basquete é, na média, mais pesado do que um jóquei.

Fonte: OSTILL isFranckCamhi / Shutterstock

Desse modo, é de interesse saber a probabilidade condicional P(K = k | A = a).


Para obter esse valor basta calcular (P(K = k, A = a)) ⁄ (P(A = a)). Esse cálculo pode ser simplificado observando-o em termos das funções de
probabilidade conjunta e marginal de:

( ) (
K, A , P K = K A = A = F K | ) A ( )
K, A

E
P(A=A)=FA(A)
 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Isso leva à definição a seguir.

DEFINIÇÃO (FUNÇÃO DE PROBABILIDADE CONDICIONAL)

( )
Seja (X,Y) um vetor aleatório bivariado discreto, com função de probabilidade conjunta f XY x, y e funções de probabilidade marginal f X x e f Y y . () ()
()
Para qualquer x tal que f X x > 0, a função de probabilidade condicional de Ydado X=x é definida por:

(|) ( | ) ( )
F XY X , Y
FY | X Y X = P Y=Y X=X =
FX ( X )

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

(|)
De maneira análoga, f Y | X x y =
fXY ( x , y )
fY ( x )
. Essa função possui as seguintes propriedades:

( )
Não negatividade: f X | Y x│y ≥ 0

Fonte: Dn Br / Shutterstock

(|)
Soma unitária: Σ yf X | Y x y
( ) ()
= Σ xf XY x, y / f Y y =
fY ( y )
fY ( y )
=1

Fonte: Dn Br / Shutterstock

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

( )
A primeira propriedade segue da definição da função de probabilidade conjunta e dos fatos que f XY x, y ≥ 0 e f Y y > 0. ()
Vamos ver como calcular no seguinte exemplo:

 EXEMPLO

Primeiro definimos a função de probabilidade conjunta de um vetor aleatório (X, Y) por f XY 0, 10


( ) ( )
= f XY 0, 20
2
= 18 ,

( )
f XY 1, 10
( )
= f XY 1, 30
3
( )
= 18 , f XY 1, 20
4
( )
= 18 e f XY 2, 30
4
= 18 .

Utilizando as definições de função de probabilidade marginal, temos f X 0 () ( )


= f XY 0, 10 ( )
+ f XY 0, 20
4
= 18 , f X 1 () 10
()
= 18 e f X 2
4
= 18 .

( ) ( | )
Para x = 0, f XY 0, y é positivo somente para y = 10 e y = 20. Desse modo f Y | X y 0 é positivo somente para y = 10 e y = 20.
( |)
Assim, f Y | X 10 0 =
fXY ( 0 , 10 )
fX ( 0 )
1
( |)
= 2 e, seguindo o mesmo raciocínio, f Y | X 20 0
1
= 2 . Isso significa que, sabendo que X=0, a função de

probabilidade condicional para Y é a distribuição discreta que atribui probabilidade 1/2 a cada um dos dois pontos y=10 e y=20.

 DICA

Para a segunda atividade ao final deste módulo você deverá calcular, com base nas informações acima, os valores para as funções de probabilidade

( ) ( | )
condicional f Y | X y│1 , f Y | X y 2 para chegar às probabilidades condicionais pedidas.

Nesse vídeo o especialista Raphael trará a resolução de um exercício para ampliar a compreensão do módulo.

VERIFICANDO O APRENDIZADO

1. O PAR ALEATÓRIO (X,Y) TEM A DISTRIBUIÇÃO:


AS DISTRIBUIÇÕES MARGINAIS FX(3), FY(2) E A DISTRIBUIÇÃO CONJUNTA FXY(2,3) SÃO, RESPECTIVAMENTE:

A) 1/2, 1/3, 0

B) 1/4, 2/3, 2/6

C) 1/4, 1/3, 0

D) 1/2, 2/3, 2/6

2. UTILIZANDO AS INFORMAÇÕES DADAS NO EXEMPLO AO FINAL DESSE CAPÍTULO, ENCONTRE OS VALORES


PARA P(Y>10|X=1) E P(Y≤10|X=2):

7
A) e 1, respectivamente.
10
3
B) e 1, respectivamente.
10

7
C) e 0, respectivamente.
10
3
D) e 0, respectivamente.
10

GABARITO

1. O par aleatório (X,Y) tem a distribuição:

As distribuições marginais fX(3), fY(2) e a distribuição conjunta fXY(2,3) são, respectivamente:

A alternativa "C " está correta.

Como as informações já estão tabeladas, é imediato ver que fXY(2,3) = P(X=2, Y=3) = 0. Temos que fX(3) = fXY(x=3, y=2) + fXY(x=3, y=3) + fXY(x=3,

y=4) = 1/4. Seguindo o mesmo raciocínio, é fácil ver que fY(2) = 1/3.

2. Utilizando as informações dadas no exemplo ao final desse capítulo, encontre os valores para P(Y>10|X=1) e P(Y≤10|X=2):

A alternativa "C " está correta.

Para achar os resultados pedidos o aluno precisa finalizar o exemplo dado no final desse módulo. Para isso, iremos prosseguir calculando as

()
3
fXY ( 1 , 10 ) 18 3
distribuições marginais de Y para x=1 e x=2. Primeiramente, para x=1, temos que f Y | X 10│1 = = 10 = 10 . De maneira semelhante,
fX ( 1 )
18
( )
obtemos f Y | X 20│1 =
4
10 ( )
e f Y | X 30│1 =
3
10
.Para x=2 temos fY|X(30│2)= 1. Assim, podemos encontrar as probabilidades pedidas no enunciado. A

primeira, P(Y>10|X=1) é dada por fY|X(20│1) + fY|X(30│1) que é igual a 7/10. A segunda, P(Y≤10|X=2) é igual a 1 - fY|X(30│2), ou seja, 0.

MÓDULO 2

 Identificar as propriedades de variáveis aleatórias múltiplas contínuas

VETORES ALEATÓRIOS CONTÍNUOS


Assim como no módulo anterior, iniciaremos com a introdução da função de densidade conjunta, ou função de distribuição conjunta, de (X,Y).

Essa função é o análogo da função de probabilidade que vimos no módulo anterior, aplicada a variáveis aleatórias contínuas.

Uma vez que a probabilidade pontual para um espaço amostral contínuo possui probabilidade zero, não podemos mais definir a distribuição conjunta
como fXY(x,y)= P(X=x,Y=y).

Definimos, então, em analogia ao caso unidimensional, a função de densidade de probabilidade do vetor aleatório do nosso interesse em termos da
sua função de distribuição acumulada, i.e., FXY(x,y)=P(X≤x,Y≤y). Assim, podemos definir implicitamente a função de densidade de probabilidade

conjunta. Logo, temos:

FX
Y ( ) X
X, Y = ∫ - ∞ ∫ - ∞ F X
Y
Y ( )
S, T DT DS

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Como fazemos para obter fXY agora?

Basta lembrarmos do Teorema Fundamental do Cálculo para o caso de duas variáveis. A função de densidade de probabilidade conjunta para o caso
contínuo é dada por:

F XY X, Y
( ) =
(
∂ 2F XY X , Y

∂X∂Y
)

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Assim como no caso discreto, podemos escrever a função de distribuição de probabilidade marginal de X (ou Y) como a “soma” de todos os valores de
Y(ou X):

FY Y ()=∫ ∞
F
- ∞ XY (X, Y ) DX
 Atenção! Para visualização completa da equação utilize a rolagem horizontal
FX X()=∫ ∞
- ∞ F XY (X, Y ) DY
 Atenção! Para visualização completa da equação utilize a rolagem horizontal

∞ ∞
( )
Qualquer função fXY(x,y), com fXY(x,y)≥0 para todo (x,y)∈ R2 e ∫ - ∞ ∫ - ∞ f XY x, y dx dy = 1 é a distribuição conjunta de um vetor aleatório (X,Y).

Vamos fixar esses conceitos com um exemplo. Definimos a função de densidade conjunta:

( ) {
F XY X, Y =
6XY 2, 0 < X < 1 E 0 < Y < 1
0, CASO CONTRÁRIO

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Vamos primeiro verificar se fXY(x,y) é de fato uma distribuição conjunta. A condição de não-negatividade é fácil de verificar: fXY(x,y)≥0, uma vez que

6xy2 toma sempre valores positivos para o domínio definido (0 < x < 1 e 0 < y < 1), e fXY(x,y) = 0 fora desse domínio. Para saber se a função satisfaz a

condição de soma unitária, precisamos integrar fXY(x,y) no plano todo. Note que fXY(x,y) é igual 0 para todos os valores fora do quadrado definido pelo

intervalo 0 < x < 1 e 0 < y < 1.

Portanto, temos:

( )
∫ -∞∞ ∫ -∞∞ F XY X, Y DX DY = ∫ 10 ∫ 10 6XY 2 DX DY = ∫ 10 3X 2 Y 2 | 10 DY = ∫ 10 3Y 2 DY = Y 3 | 10 = 1

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Ou seja, fXY(x,y) é realmente uma distribuição conjunta.

Agora considere calcular P(X+Y≥1). Considerando que a área Aque vamos integrar para obter essa probabilidade é definida pelo conjunto A = {(x,y) ∶ x
+ y ≥ 1}, podemos demonstrar isso como P((X,Y) ∈ A). Ou seja, queremos saber a probabilidade de os valores encontrados para as variáveis aleatórias
estarem dentro desse conjunto.

Para calcular essa probabilidade integramos a função densidade de probabilidade conjunta ao conjunto A.

 ATENÇÃO

Note que a nossa função de densidade conjunta é igual a zero, exceto no quadrado unitário definido pelo intervalo 0 < x < 1 e 0 < y < 1. Assim, nossa
integração em A é igual à integração somente sobre a parte de A que está dentro do quadrado unitário, uma vez que qualquer valor fora dele é igual a
zero.

Podemos escrever nossa área de integração como:

A = {(X,Y) ∶ X + Y ≥ 1,0 < X < 1,0 < Y < 1}


= {(X,Y) ∶ X ≥ 1 - Y,0 < X < 1,0 < Y < 1}
= {(X,Y) ∶ 1 - Y ≤ X < 1,0 < Y < 1}

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

O que fizemos acima foi tão-somente achar a intersecção entre a área que queremos integrar e o quadrado unitário. Com esses novos limites de
integração definidos, podemos, então, calcular a probabilidade que desejamos:
(
P X + Y ≥ 1
) □
= ∬A
( )
FXY X, Y DX DY = ∫ 10 ∫ 1 1- Y 6XY 2 DX DY =
9
10

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

DISTRIBUIÇÕES MARGINAL E CONDICIONAL: O CASO CONTÍNUO


E se quisermos agora calcular a função densidade de probabilidade marginal de X ou Y?

Basta aplicarmos a definição considerada previamente. Como visto, a intuição é a mesma do caso discreto. Apenas substituímos o somatório (um
operador discreto) pela integral (um operador contínuo).

Desse modo, observe que para qualquer valor x ≥ 1 ou x ≤ 0, temos fXY(x,y) = 0 para todos os valores de y. Então, se x ≥ 1 ou x ≤ 0 temos:

FX X ()=∫ ∞
-∞ ( )
F XY X, Y DX = 0

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Para 0 < x < 1, fXY(x,y) é diferente de zero somente se 0 < y < 1. Assim, para 0 < x < 1 temos:

FX X ()=∫ ∞
-∞ ( )
F XY X, Y DY = ∫ 10 6XY 2 DY = 2XY 3 | 10 = 2X

FY (Y ) = ∫ ∞
-∞
F XY (X, Y )DX = ∫ 1
0
6XY 2 DX = 3X 2Y 2 | 10 = 3X 2

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Essa função de distribuição marginal pode ser usada para calcular probabilidades envolvendo somente X, como:

P
( 1
2
< X <
3
4 ) = ∫ 31 // 42 2X DX = X 2 | 31 // 42 =
9
16
-
1
4
=
5
16

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Por fim, a definição para obter a função densidade de probabilidade condicional é idêntica ao caso discreto. Se quisermos obter fY|X(y|x),

basta aplicar a fórmula fY|X(y│x) = fXY(x,y)/fX(x).

Uma vez que tanto a distribuição conjunta quanto a distribuição marginal estão definidas apenas para o dentro do quadrado unitário, podemos
simplesmente substituir os valores obtidos anteriormente na fórmula:

FY | X Y
(|) X =
( )
F XY X , Y

FX ( X )
=
6XY 2
2X
= 3Y 2

 Atenção! Para visualização completa da equação utilize a rolagem horizontal


Do mesmo modo:

FY | X X
(|) Y =
( )
F XY X , Y

FX ( X )
=
6XY 2
3Y 2
= 2X

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

 COMENTÁRIO

Note que, nesse exemplo, fY|X(y│x) = fY(y) e fX|Y(x│y) = fX(x). Isso é consequência das variáveis aleatórias (X,Y) serem independentes.

Vamos introduzir agora uma nova definição.

DEFINIÇÃO (INDEPENDÊNCIA)

Seja (X,Y) um vetor aleatório bivariado, com função de densidade (ou probabilidade) conjunta fXY(x,y) e função de densidade (ou probabilidade)

marginais fX(x) e fY(y). Então X e Y são chamadas independentes se, para cada x ∈ ℝ e y ∈ ℝ temos:

FX
Y ( ) () ()
X, Y = F X X F Y Y .

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Ou seja, a função de probabilidade ou de densidade conjunta é igual ao produto das marginais. Poderíamos ter verificado a independência logo que
obtivemos as funções de densidade marginais pois:

Para 0 < x < 1 e 0 < y < 1, temos que fX(x)fY(y) = (2x)(3y2) = 6xy2 = fXY(x,y).

A independência também facilita a obtenção das densidades condicionais, uma vez que, se (X,Y) são independentes, temos:

FY | X Y
(|) X =
( )
F XY X , Y

FX ( X )
=
( ) ( )
FX X FY Y

FX ( X )
= FY Y
()
 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Percebe-se que, quando as variáveis são independentes, imediatamente ao obtermos a densidade marginal ganhamos “de brinde” a densidade
condicional.
Nesse vídeo o especialista Raphael trará a resolução de um exercício para ampliar a compreensão do módulo.

VERIFICANDO O APRENDIZADO

1. UMA FUNÇÃO DENSIDADE DE PROBABILIDADE É DEFINIDA POR:

F XY X, Y
( ) {
=
C(X + 2Y), X ∈ (0, 2) E Y ∈ (0, 1)
0, X ≥ 0

ENCONTRE O VALOR DE C E ASSINALE A ALTERNATIVA QUE CORRESPONDE A ELE:

1
A)
2

1
B)
4
3
C)
4
3
D) -
4

2. UMA FUNÇÃO DENSIDADE DE PROBABILIDADE É DEFINIDA POR:

( ){ ( ) ( ) ( )
1
4
X + 2Y , X ∈ 0, 2 E Y ∈ 0, 1
F XY X, Y =
0, X ≥ 0
ASSINALE A ALTERNATIVA QUE CONTÉM O VALOR CORRETO PARA FX(1), E O JULGAMENTO CORRETO A
RESPEITO DA INDEPENDÊNCIA DAS VARIÁVEIS ALEATÓRIAS X E Y:

A) fX(1), = 1/2, X e Y são independentes.

B) fX(1), = 1, X e Y não são independentes.

C) fX(1), = 1/2, X e Y não são independentes.

D) fX(1), = 1, X e Y são independentes.

GABARITO

1. Uma função densidade de probabilidade é definida por:

( ) {
f XY x, y =
C(x + 2y), x ∈ (0, 2) e y ∈ (0, 1)
0, x ≥ 0

Encontre o valor de C e assinale a alternativa que corresponde a ele:

A alternativa "B " está correta.

Para obter o valor de C devemos usar a propriedade de soma unitária da densidade de probabilidade:

1 2
( )
∫ 0∫ 0 C x + 2y dx dy = 1

( )
∫ 10∫ 20 C x + 2y dx dy

= ∫ 10
(
Cx 2
2
+ 2Cxy
) ( ) (
| 20 dy = ∫ 10 2C + 4Cy dy = 2Cy + 2Cy 2
) | 10

= 2C + 2C = 4C = 1

1
Segue que C = 4 e a resposta certa é o item “b”.

2. Uma função densidade de probabilidade é definida por:

( ){( ) ( ) ( )
1
x + 2y , x ∈ 0, 2 e y ∈ 0, 1
f XY x, y = 4

0, x ≥ 0

Assinale a alternativa que contém o valor correto para fX(1), e o julgamento correto a respeito da independência das variáveis aleatórias X e

Y:

A alternativa "C " está correta.

Para obter a função marginal fX(x) precisamos integrar a distribuição de probabilidade sobre todo o intervalo em quey é diferente de zero. Temos,

então:

() ( ) 1
f X x = ∫ 10 x + 2y dy =
4
1
4 (
xy + y 2 | 10 =
1
4 ) ( ) x+1

, para todo x ∈ (0,2). Assim, basta substituirmos o valor x = 1 dentro dessa densidade: f X 1 () ( )
=
1
4
1+1 =
1
2
.

A segunda parte da resposta requer que seja verificado se fXY(x,y) = fX(x)fY(y). Para isso, precisamos obter fY(y):

fY y
() ( ) 1 1 x2
( 1
) ( ) ( )
= ∫ 20 4 x + 2y dx = 4 2 + 2xy | 20 = 4 2 + 4y
1
= 2 1 + 2y
para todo x ∈ (0,1). Para verificar independência, multiplicamos as densidades marginais:

( ) ( ) [ ( )][ ( )] ( )( ) ( )
fX x fY y =
1
4
x+1
1
2
1 + 2y =
1
8
x+1 1 + 2y ≠ f X x, y
Y

Ou seja, (X,Y) não são independentes.

MÓDULO 3

 Descrever o operador esperança e suas propriedades

ESPERANÇA MATEMÁTICA
Seja (X,Y) um vetor aleatório (discreto ou contínuo). Todas as funções de probabilidade e densidades que definimos anteriormente (conjunta, marginal
ou condicional) são, do ponto de vista estatístico, distribuições de probabilidade. Portanto, podemos tomar a esperança desse vetor sob quaisquer uma
dessas distribuições.

Em particular, chamamos de esperança condicional quanto tomamos a esperança com relação a uma distribuição condicional. Em contrapartida,
chamamos de esperança incondicional quando tomamos com relação a distribuição conjunta.

O termo esperança marginal é menos utilizado, mas, por analogia, seria a esperança tomada em termos das distribuições marginais.

Esperanças de vetores aleatórios são calculadas do mesmo modo que as variáveis aleatórias univariadas. Segue que a definição do uso da função
esperança para uma variável aleatória bivariada é similar ao caso de uma variável múltipla univariada:

DEFINIÇÃO (ESPERANÇA DE V.A. BIVARIADA DISCRETA)

Seja g(x,y) uma função que nos dá um valor real para cada valor possível (x,y) do vetor aleatório discreto (X,Y), então g(X,Y) é ela própria uma variável
aleatória e seu valor esperado é:

[ ]
E XY [ ( )]
= E G XY X, Y = Σ
(X,Y ) ∈ℝ 2 ( ) ( )
G XY X, Y F XY X, Y

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

 COMENTÁRIO

Na definição acima, usamos o fato de que uma função de uma variável aleatória é também uma variável aleatória.

Vamos retornar ao exemplo dos dados de três faces do Módulo 1. Naquele exemplo definimos o vetor aleatório (S,D) que representa, respectivamente,
a soma dos valores das faces dos dados e a diferença desses valores em módulo. Podemos definir para esse exemplo uma função g(s,d)=sd , ou seja,
a função g(.), que nos dá o produto dos valores s e d obtidos para as variáveis aleatórias (S,D). Nesse caso, temos:
[ ] ( )( ) ( )( )
E SD = 2 0
1
9
+ 3 1
2
9
+ ... +
( )( )
6 0
1
9
=
32
9

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Vamos agora definir a função esperança para o caso contínuo. Note a similaridade com a definição anterior para o caso discreto.

DEFINIÇÃO (ESPERANÇA DE V.A. BIVARIADA CONTÍNUA)

Seja g(x,y) uma função que nos dá um valor real para cada valor possível(x,y) do vetor aleatório contínuo(X,Y), então g(X,Y) é ela própria uma variável
aleatória e seu valor esperado é:

[ ] = E [G (X, Y )] = ∫
E XY XY
∞ ∞

-∞ -∞ ( ) ( )
G XY X, Y F XY X, Y DX DY

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Essencialmente, o que fizemos acima foi substituir o operador somatório do caso discreto por integrais. A intuição, porém, é a mesma: estamos
multiplicando o valor da função gXY(x,y) pela distribuição conjunta fXY(x,y) para cada valor de (X,Y).

 DICA

Como mencionamos no começo do módulo, podemos usar funções de probabilidade e densidade condicionais para calcular esperanças. Basta
lembrar-se de que fY|X(y│x), como uma função de y, é uma função de probabilidade ou densidade e deve-se utilizá-la da mesma maneira de acordo

com a definição de esperança incondicional apresentada anteriormente.

Assim, seja g(Y) uma função de Y, o valor esperado condicional de g(Y) dado que X=x é definido por:

()( | ) ( )
[ ( | )] {
∑ G Y F Y X , PARA X, Y DISCRETO
Y
E G Y X =
()( | )
∫ -∞∞ G Y F Y X DY, PARA X, Y CONTÍNUO ( )
 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Vamos agora discutir algumas propriedades do operador esperança. As primeiras quatro são exatamente iguais àquelas da esperança univariada,
aplicadas a funções do tipo g(x,y) em vez de funções g(x):

[ ( ) + bhXY (X, Y ) + c )]
i. E ag XY X, Y [ ( )] + bE [hXY (X, Y )] + c
= aE g XY X, Y

( )
ii. Se g XY x, y ( ) [ ( )]
≥ 0 para todo x. y , então E g XY x, y ≥ 0

( )≥
iii. Se g XY x, y ( ) ( ) [ ( )]
h XY x, y para todo x, y , então E g XY x, y [ ( )]
≥ E h XY x, y
( )
iv. Se a ≤ g XY x, y ( ) [ ( )] ≤
≤ b, para todo x, y , então a ≤ E g XY x, y b

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

Existem também consequências da independência de variáveis aleatórias para o operador esperança:

() () ( ) [ ( ) ( )]
i. Sejam g X x e h Y y funções somente de x e y, respectivamente, e X, Y variáveis aleatórias independentes. Temos : E g X X h Y Y [ ( )]E
= E gX X

() ( )
ii. Seja h Y y uma função somente de y e X, Y variáveis aleatórias independentes. Temos : E h Y Y[ ( ) | X = x] [ ( )]
= E hY Y

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

COVARIÂNCIA E CORRELAÇÃO
Dois conceitos importantes para distribuições conjuntas (X,Y) são o de covariância e correlação. Definiremos a seguir os dois.

DEFINIÇÃO (COVARIÂNCIA)

Se as variáveis aleatórias X e Y possuem variância finita, a covariância entre X e Y é dada por:

COV(X, Y) = E[(X - E[X])(Y - E[Y])] = E[XY] - E[X]E[Y]

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

DEFINIÇÃO (CORRELAÇÃO)

Se as variáveis aleatórias X e Y possuem variância finita, a correlação entre X e Y é dada por:

CORR X, Y
( ) =
COV ( X , Y )

√VAR [ X ] VAR [ Y ]

 Atenção! Para visualização completa da equação utilize a rolagem horizontal

Note que, se cov(X,Y) = 0, então corr(X,Y) = 0. Nesse caso, dizemos que as variáveis X e Y não são correlacionadas. A partir dessas duas definições e
da definição de independência dada no módulo anterior, temos o seguinte resultado:

TEOREMA
Se as variáveis aleatórias X e Y possuem variância finita e são independentes,
então essas variáveis não são correlacionadas.

 ATENÇÃO

Note que a afirmação contrária (“corr(X,Y) = 0 ⇒ independência”) não é verdadeira. Para verificar isso, suponha que X segue uma distribuição

uniforme U[-1,1]. Como essa distribuição é simétrica ao redor de zero, temos que E[X]= 0 e E[X3]= 0. Se definimos Y=X2, temos que cov(X,Y)=E[X3] -
E[X]E[X]= 0. Nesse caso, X e Y têm correlação igual a zero e, ao mesmo tempo, são dependentes.

Isso mostra que variáveis não correlacionadas podem ser dependentes, mas toda variável independente é não correlacionada.

Temos também o resultado a seguir, bastante útil em diversas situações e exercícios.

TEOREMA

Se as variáveis aleatórias X e Y possuem variância finita,


então var[X+Y] = var[X] + var[Y] + 2cov(X,Y).

Se as variáveis não são correlacionadas (i.e. cov(X,Y) = 0), temos que var[X,Y] = var[X] + var[Y]. O mesmo raciocínio vale caso X e Y sejam
independentes, pois independência implica covariância zero (lembre-se que o contrário não vale, necessariamente). Para a covariância e a correlação
temos as seguintes propriedades.

PROPRIEDADES DA COVARIÂNCIA

1. cov(X, X) = var[X], pois :

( ) = E[X ] - E [X] = var[x ]


cov X, X 2 2

2. cov(X, Y) = cov(Y, X), pois :


cov(X, Y) = E[XY] - E[X]E[Y] = E[YX] - E[Y]E[X] = cov(Y, X)

3. cov(aX, bY) = ab cov(X, Y), onde " a " é uma constante, pois :
cov(aX, bY) = E[abXY] - E[aX]E[bY] = ab(E[XY] - E[X]E[Y]) =
ab cov(X, Y)

4. cov(X + c, Y) = cov(X, Y), onde " c " é uma constante, pois :


cov(X + c, Y) = E[(X + c)Y] - E[X + c]E[Y]
= E[XY] + cE[Y] - E[X]E[Y] - cE[Y] = E[XY] - E[X]E[Y]
= cov(X, Y)

5. cov(X + Y, Z) = cov(X, Z) + cov(Y, Z), onde Z também é uma variável aleatória, pois :
cov(X + Y, Z) = E[(X + Y)Z] - E[X + Y]E[Z]
= E[XZ] + E[YZ] - E[X]E[Z] - E[Y]E[Z]
= (E[XZ] - E[X]E[Z]) + (E[YZ] - E[Y]E[Z])
= cov(X, Z) + cov(Y, Z)
(
6. De maneira geral podemos dizer que : cov ∑ i =m1 a i X i, ∑ j =n1 b j Y j )= (
∑ i =m1 ∑ j =n1 a ib jcov X i, Y j )
 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

PROPRIEDADES DA CORRELAÇÃO

1. - 1 ≤ corr(X, Y) ≤ 1

2. Se corr(X, Y) = 1, então Y = aX + b, onde a > 0

3. Se corr(X, Y) = - 1, entãoY = aX + b, onde a < 0

4. corr(aX + b, cY + d) = corr(X, Y), para a, c > 0

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal

As propriedades obtidas anteriormente podem ser obtidas diretamente pela definição de covariância e correlação. Precisamos, porém, enfatizar a
intuição por trás de algumas dessas propriedades, especialmente as da correlação.

A primeira propriedade nos diz que o valor da correlação está entre -1 e 1.

Fonte: Dn Br /
Shutterstock

A segunda e a terceira dizem que variáveis perfeitamente correlacionadas (i.e. corr(X,Y) = 1), ou perfeitamente
negativamente correlacionadas (i.e. corr(X,Y) = -1), são combinações lineares uma da outra.
Fonte: Dn Br /
Shutterstock

Por fim, a quarta propriedade indica que a correlação entre duas variáveis aX + b e cY + d quaisquer depende
somente do seu componente aleatório, isto é, das variáveis aleatórias X e Y.
Fonte: Dn Br /
Shutterstock

 Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal


Nesse vídeo o especialista Raphael trará a resolução de um exercício para ampliar a compreensão do módulo.

VERIFICANDO O APRENDIZADO

1. O PAR ALEATÓRIO (X,Y) TEM A DISTRIBUIÇÃO:

[ ] [] ] ( )
3
√Π
ENCONTRE OS VALORES PARA E XY , E Y X = 2 E CORR 7X, Y + LOG 1023
E ASSINALE A ALTERNATIVA

CORRESPONDENTE:

A) 6,5/3 e 0, respectivamente.

1
B) 6, 5/6, e 2 , respectivamente.

C) 4,5/3, e 1, respectivamente.

D) 4,5/6, e -1, respectivamente.


2. CONSIDERE A SEGUINTE FUNÇÃO DE DENSIDADE CONJUNTA PARA DUAS VARIÁVEIS ALEATÓRIAS
CONTÍNUAS X E Y DADA POR:

( ) {
F XY X, Y =
6X 2Y, 0 ≤ Y ≤ 1 E 0 ≤ X ≤ 1
0, CASO CONTRÁRIO

ENCONTRE O VALOR PARA E[Y2+2X│X] + E[XY] + 10CORR(X,Y):

A) 3

B) 1/2

C) 7/4

D) 7

GABARITO

1. O par aleatório (X,Y) tem a distribuição:

[ ] [] ] ( )
3
√π
Encontre os valores para E XY , E Y X = 2 e corr 7X, Y + log 23 e assinale a alternativa correspondente:
10

A alternativa "A " está correta.

Aplicando a definição de esperança para variáveis discretas no começo deste módulo, temos

[ ] ( )( ) ( )( ) ( )( ) ( )( ) ( )( )
E XY = 1 2
1
12
+ 2 2
1
6
+ 3 2
1
12
+ 3 1
1
6
+ 4 2
1
3 [| ] [| ] 1
= 6. Para obtermos E Y X = 2 , temos E Y X = 2 = 2 + 4
6
1
3
=
5
3
.

( )
3
√π
Por fim, precisamos achar corr 7X, Y + . Note que as constantes podem ser ignoradas, como vimos nas propriedades da correlação. Desse
log 1023

modo, precisamos somente calcular corr(X,Y).

Para isso, precisamos obter cov(X,Y), var[X] e var[Y]. Primeiramente, vamos obter E[X] e E[Y]:

[] (
E X =1
1
12
+
1
6 ) ( ) ( )
+2
1
6
+
1
3
+3
1
12
+
1
6
=
3
12
+
12
12
+
9
12
=2

[] ( 1
E Y = 2 12 + 6 + 12
1
) ( ) ()
1
+3 6 + 6
1 1
+4 3
1 4 6
= 6+6+6 =3
8

Assim, podemos simplesmente substituir os valores na fórmula da covariância:


cov(X,Y)=E[XY]-E[X]E[Y]=6-(2)(3)=0

Logo, temos:

( )
corr X, Y =
cov ( X , Y )

√var [ X ] var [ Y ]
=0

2. Considere a seguinte função de densidade conjunta para duas variáveis aleatórias contínuas X e Y dada por:

( ) {
f XY x, y =
6x 2y, 0 ≤ y ≤ 1 e 0 ≤ x ≤ 1
0, caso contrário

Encontre o valor para E[Y2+2X│X] + E[XY] + 10corr(X,Y):

A alternativa "D " está correta.

Pelas propriedades do operador esperança temos E[Y2 + 2X│X] + E[XY] + 10corr(X,Y) = E[Y2│X] + 2E[X] + E[XY] + 10corr(X,Y). Vamos primeiro obter
as distribuições marginais de X e Y.

()
fY y = ∫ 10 6x 2y dx = (2x y ) |
3 1
0 =
{ 2y, 0 ≤ y ≤ 1
0, caso contrário

()
fX x = ∫ 10 6x 2y dx = (3x y ) |
2 2 1
0
=
{ 3y 2, 0 ≤ y ≤ 1
0, caso contrário

Primeiramente, vamos obter E[X]:

[]=∫
E X 1
0 ()
xf X x dx = 3x 3 | 10 = 3

Em segundo lugar vamos obter E[XY]:

[]
E X
( ) ( ) x 4 1
= ∫ 10 ∫ 10xy f XY x, y dydx = ∫ 10∫ 106x 3y 2 dydx = ∫ 10 2x 3y 3 | 10 dx = ∫ 10 2x 3 dx = 2 | 10 = 2

Por último, vamos calcular E[Y2│X]. Para isso precisamos obter a distribuição condicional fY|X(y|x):

(|)
fY | X y x =
( )
f XY x , y

fX ( x )
=
6x 2y
3x 2
= 2y

Note que fY|X(y│x) = fY(y), ou seja, Y é independente de X; logo, corr(X,Y) = 0. Por fim, vamos obter E[Y2│X]:

[ |]
E Y2 X
(|) ()
y 1
= ∫ 10 y 2 f Y | X y x dy = ∫ 10 y 2 f Y y dy = ∫ 10 2y 3 dy = 2 | 10 = 2
4

1 1
Desse modo, temos E[Y2 + 2X│X] + E[XY] + 10corr(X,Y) = E[Y2│X] + 2E[X] + E[XY] + 10corr(X,Y) = + (2)(3) + + (10)(0) = 7.
2 2

CONCLUSÃO

CONSIDERAÇÕES FINAIS
Vimos neste tema as variáveis aleatórias múltiplas, tanto discretas quanto contínuas, e analisamos o conceito e aplicações da esperança matemática
dessas variáveis. Com esse material, você poderá estudar as relações entre diferentes variáveis aleatórias.

Observe que elas estão presentes no próprio cotidiano: qual é a relação entre crescimento econômico e desemprego? Entre investimento em pesquisa
e desenvolvimento de novas vacinas? Se duas grandezas numéricas podem ser relacionadas (e elas admitem algum grau de incerteza), então é
possível aplicar o instrumental desenvolvido aqui.
AVALIAÇÃO DO TEMA:

REFERÊNCIAS
CASELLA, G.; BERGER, R. L. Inferência estatística. 2. ed. São Paulo: Cengage Learning, 2011. 588 p.

MEYER, P. L. Probabilidade: aplicações à Estatística. 2. ed. Rio de Janeiro: Livros Técnicos e Científicos, 1983.

ROSS, S. Probabilidade: um curso moderno com aplicações. 8. ed. Porto Alegre: Bookman, 2009.

EXPLORE+
Essas notas baseiam-se em grande parte no livro Inferência Estatística (2ª edição), de Casella e Berger, especificamente no Capítulo 4 sobre
variáveis aleatórias múltiplas.

Para fixar os conceitos, recomenda-se a leitura do capítulo 6 do livro Probabilidade: um curso moderno com aplicações (8ª edição), de
Sheldon Ross. Este capítulo abrange, com riqueza de exemplos e uma grande variedade de exercícios, os conteúdos pertinentes para a
compreensão das propriedades de variáveis aleatórias múltiplas.

Para uma apresentação matematicamente rigorosa do conteúdo, com diversas provas e demonstrações que auxiliam a fixação dos fundamentos
por trás de cada conceito, recomenda-se a leitura do Capítulo 2, com destaque para as subseções de 2.4 a 2.8, do livro Probabilidade: um
curso em nível intermediário, de Barry R. James.

CONTEUDISTA
Raphael Guinâncio Bruce

 CURRÍCULO LATTES

Você também pode gostar