Escolar Documentos
Profissional Documentos
Cultura Documentos
Apresentação das variáveis aleatórias múltiplas. Principais propriedades de variáveis aleatórias múltiplas e tipos de distribuição de probabilidade
(conjunta, marginal e condicional) para variáveis multidimensionais discretas e contínuas. Funções de densidade para variáveis multidimensionais
contínuas. Propriedade do operador de esperança matemática no contexto de variáveis multidimensionais.
PROPÓSITO
Reconhecer as propriedades e aplicações práticas de variáveis aleatórias múltiplas, como funções de probabilidade e densidade conjuntas, marginais
e condicionais, bem como o operador de esperança e seu papel no estabelecimento de independência estatística.
PREPARAÇÃO
Antes de iniciar o conteúdo deste tema, certifique-se de ter papel e lápis por perto para acompanhar os exemplos e demonstrações. É necessário ter
um conhecimento prévio de fundamentos de probabilidade e de variáveis aleatórias simples, além de cálculo diferencial e integral.
OBJETIVOS
MÓDULO 1
MÓDULO 2
INTRODUÇÃO
Apresentaremos agora as definições e propriedades relevantes para a compreensão de variáveis aleatórias multidimensionais. Trata-se de uma
extensão natural, com grande aplicação prática, das variáveis aleatórias unidimensionais. Começaremos com o estudo de variáveis aleatórias
múltiplas discretas, mais especificamente com o caso bivariado (i.e. com duas variáveis aleatórias).
Depois passaremos para as aleatórias contínuas. A estrutura é semelhante, e precisaremos apenas usar as ferramentas matemáticas adequadas. Por
último, veremos a esperança de variáveis aleatórias múltiplas.
MÓDULO 1
Imagine um grupo de pesquisadores da área de saúde pesquisando a cura para uma nova doença. Eles estão interessados em fazer um experimento
com um grupo de voluntários e para isso precisam saber a idade dessas pessoas.
Idade de cada indivíduo participante Variável aleatória representando a idade de cada indivíduo
Fatores relevantes para o estudo (peso, altura) Variáveis aleatórias para cada um dos fatores
Formalmente, para um dado espaço amostral de n-dimensões, um vetor aleatório X é uma função X : Ω → ℝ η, ou seja, para cada uma das n
variáveis aleatórias nesse vetor X atribuímos um valor real.
Imaginem que lançamos dois dados honestos de três faces cada um. Nesse caso, nosso espaço amostral Ω é dado por todas as combinações
possíveis de valores desses dois dados, ou seja:
Assim, podemos definir duas variáveis aleatórias, S e D, dentro do vetor aleatório (S,D) em que:
Fonte: Dn Br / Shutterstock
Fonte: Dn Br / Shutterstock
Logo:
Caso lançássemos os dados e o ponto amostral encontrado, ou seja, os valores sorteados pelas faces dos dados, fossem (1,3), teríamos S = 1 + 3 = 4
e D = |1 – 3| = 2. Para o ponto amostral (2,3) teríamos S = 5 e D = 1. Para cada um dos nove pontos amostrais possíveis em Ω, podemos calcular os
valores de S e D. Desse modo, definimos o vetor aleatório bivariado (S,D).
Uma vez definido (S,D) podemos discutir a probabilidade dos eventos desse vetor aleatório.
P (S = 4, D = 2) = P (( 1, 3 ), ( 3, 1 )) = 2 / 9.
A notação acima, P(S=4,D=2), simplesmente quer dizer “a probabilidade de S ser igual a 2 e a probabilidade de D ser igual a 2”. Assim, a notação
P(X=x,Y=y) quer dizer “a probabilidade de a variável aleatória X ser igual a x e Y ser igual a y”.
ATENÇÃO
Note também que esse vetor é um vetor aleatório discreto, por ter um número contável (nesse caso finito) de valores possíveis. Para vetores desse
tipo definimos a função fXY (x,y)= P(X=x,Y=y) para calcular a probabilidade de quaisquer eventos definidos em termos de (X,Y).
Seja (X,Y) um vetor aleatório discreto bivariado (i.e. com duas variáveis aleatórias). A função que define completamente a distribuição de probabilidade
desse vetor é dada por fXY (x,y)= P(X=x,Y=y) e chamada de função de probabilidade conjunta (fp conjunta). Essa função possui as seguintes
propriedades:
( )
Soma unitária: Σ x ∈ ℝΣ y ∈ ℝf x, y = 1
A primeira propriedade apenas diz que os valores das fp conjuntas para um dado vetor aleatório têm de ser não-negativos, pois não faz sentido falar
em probabilidade menor do que zero.
A segunda propriedade diz que o valor da soma de todas elas deve ser igual a um, ou seja, há 100% de chance de algum resultado ocorrer (nem mais,
nem menos).
Voltando ao exemplo dos dados de três faces, podemos ilustrar os possíveis valores das variáveis aleatórias S e D pela seguinte tabela:
ω ∈ Ω S(ω) D(ω)
{1,1} 2 0
{1,2} 3 1
{1,3} 4 2
{2,1} 3 1
{2,2} 4 0
{2,3} 5 1
{3,1} 4 2
{3,2} 5 1
{3,3} 6 0
Com essas informações podemos agora coletar todas os valores possíveis para a função de probabilidade conjunta fSD(s,d)=P(S=s,D=d):
s 0 1 2
1
2 0 0
9
2
3 0 0
9
1 2
4 0
9 9
2
5 0 0
9
1
6 0 0
9
COMENTÁRIO
Fica claro que nenhum dos valores de fSD é menor do que zero e que a soma de todos eles é igual a um, obedecendo, respectivamente, as
Nesse caso, o evento ({1,2},{2,1}) é o único do nosso espaço amostral que satisfaz as duas desigualdades.
( ) ( )
P S ≤ 4, D = 1 = F SD 2, 1 + F SD 3, 1 + F SD 4, 1 = 0 +
( ) ( ) 2
9
+0=
2
9
.
Note que poderíamos ter trabalhado diretamente com os valores possíveis do vetor aleatório, sabendo que apenas duas combinações das nove
possíveis satisfazem os intervalos de valores especificados. Geralmente, porém, será mais fácil lidar com a função de probabilidade conjunta.
DISTRIBUIÇÕES MARGINAL E CONDICIONAL: O CASO DISCRETO
Mesmo que possamos tirar a função de probabilidade conjunta de um vetor aleatório, muitas vezes estamos interessados em saber apenas as
probabilidades relacionadas a variáveis aleatórias específicas dentro desse vetor.
EXEMPLO
Por exemplo, caso estivéssemos interessados em saber somente a função de probabilidade da variável S do exemplo anterior, gostaríamos de saber
sua distribuição de probabilidade fS(s)=P(S=s).
No contexto de variáveis aleatórias múltiplas, essa distribuição recebe o nome de função de probabilidade marginal de S, para enfatizar que essa é a
função de probabilidade apenas de S. Podemos obter facilmente a função de probabilidade marginal a partir da função de probabilidade conjunta por
meio do teorema a seguir.
Seja (X,Y) um vetor aleatório discreto, com função de probabilidade conjunta fXY(x,y). As funções de probabilidade marginal desse vetor aleatório são
dadas por:
FX X() = Σ Y ∈ ℝ F XY X, Y ( )
E
FY(Y) = ΣX∈ℝ FXY(X,Y)
Para ficar mais claro, vamos pensar no exemplo dos dados. Podemos calcular a função de probabilidade marginal de apenas o módulo da diferença
dos valores dos dados ser igual a zero. Formalmente, queremos saber fD(0).
Pela definição acima, o que precisamos fazer é somar o valor de fSD(s,d=0) para cada valor possível de s.
FD 0
() = Σ
S∈ℝ (
F SD S, D = 0
) ( )
= F SD 2, 0 + F SD 3, 0
( ) + . . . + F SD 6, 0
( ) =
3
9
=
1
3
Agora, vamos expandir a tabela da função de probabilidade conjunta para obter as marginais:
d
s 0 1 2 ()
fs s
1 1
2 0 0
9 9
2 2
3 0 0
9 9
1 2 1
4 0
9 9 3
2 2
5 0 0
9 9
1 1
6 0 0
9 9
()
1 4 2
fD d
3 9 9
() ()
Se somarmos f D d para todos os valores possíveis de d, obtemos o total 1. O mesmo total vale para f S s .Isso é razoável de se esperar porque
estamos somando todos os valores possíveis para essas variáveis aleatórias. A probabilidade de acontecer alguma delas é 1, pois alguma, com
certeza, irá acontecer.
Nem sempre, porém, as variáveis aleatórias estão relacionadas. Vamos voltar por um instante ao exemplo inicial, em que uma equipe de
pesquisadores quer investigar a cura para uma doença. Vamos supor que eles coletam a altura A e o peso K de uma amostra da população. É
razoável esperar que essas duas variáveis estejam relacionadas. Um jogador de basquete é, na média, mais pesado do que um jóquei.
( ) (
K, A , P K = K A = A = F K | ) A ( )
K, A
E
P(A=A)=FA(A)
Atenção! Para visualização completa da equação utilize a rolagem horizontal
( )
Seja (X,Y) um vetor aleatório bivariado discreto, com função de probabilidade conjunta f XY x, y e funções de probabilidade marginal f X x e f Y y . () ()
()
Para qualquer x tal que f X x > 0, a função de probabilidade condicional de Ydado X=x é definida por:
(|) ( | ) ( )
F XY X , Y
FY | X Y X = P Y=Y X=X =
FX ( X )
(|)
De maneira análoga, f Y | X x y =
fXY ( x , y )
fY ( x )
. Essa função possui as seguintes propriedades:
( )
Não negatividade: f X | Y x│y ≥ 0
Fonte: Dn Br / Shutterstock
(|)
Soma unitária: Σ yf X | Y x y
( ) ()
= Σ xf XY x, y / f Y y =
fY ( y )
fY ( y )
=1
Fonte: Dn Br / Shutterstock
( )
A primeira propriedade segue da definição da função de probabilidade conjunta e dos fatos que f XY x, y ≥ 0 e f Y y > 0. ()
Vamos ver como calcular no seguinte exemplo:
EXEMPLO
( )
f XY 1, 10
( )
= f XY 1, 30
3
( )
= 18 , f XY 1, 20
4
( )
= 18 e f XY 2, 30
4
= 18 .
( ) ( | )
Para x = 0, f XY 0, y é positivo somente para y = 10 e y = 20. Desse modo f Y | X y 0 é positivo somente para y = 10 e y = 20.
( |)
Assim, f Y | X 10 0 =
fXY ( 0 , 10 )
fX ( 0 )
1
( |)
= 2 e, seguindo o mesmo raciocínio, f Y | X 20 0
1
= 2 . Isso significa que, sabendo que X=0, a função de
probabilidade condicional para Y é a distribuição discreta que atribui probabilidade 1/2 a cada um dos dois pontos y=10 e y=20.
DICA
Para a segunda atividade ao final deste módulo você deverá calcular, com base nas informações acima, os valores para as funções de probabilidade
( ) ( | )
condicional f Y | X y│1 , f Y | X y 2 para chegar às probabilidades condicionais pedidas.
Nesse vídeo o especialista Raphael trará a resolução de um exercício para ampliar a compreensão do módulo.
VERIFICANDO O APRENDIZADO
A) 1/2, 1/3, 0
C) 1/4, 1/3, 0
7
A) e 1, respectivamente.
10
3
B) e 1, respectivamente.
10
7
C) e 0, respectivamente.
10
3
D) e 0, respectivamente.
10
GABARITO
Como as informações já estão tabeladas, é imediato ver que fXY(2,3) = P(X=2, Y=3) = 0. Temos que fX(3) = fXY(x=3, y=2) + fXY(x=3, y=3) + fXY(x=3,
y=4) = 1/4. Seguindo o mesmo raciocínio, é fácil ver que fY(2) = 1/3.
2. Utilizando as informações dadas no exemplo ao final desse capítulo, encontre os valores para P(Y>10|X=1) e P(Y≤10|X=2):
Para achar os resultados pedidos o aluno precisa finalizar o exemplo dado no final desse módulo. Para isso, iremos prosseguir calculando as
()
3
fXY ( 1 , 10 ) 18 3
distribuições marginais de Y para x=1 e x=2. Primeiramente, para x=1, temos que f Y | X 10│1 = = 10 = 10 . De maneira semelhante,
fX ( 1 )
18
( )
obtemos f Y | X 20│1 =
4
10 ( )
e f Y | X 30│1 =
3
10
.Para x=2 temos fY|X(30│2)= 1. Assim, podemos encontrar as probabilidades pedidas no enunciado. A
primeira, P(Y>10|X=1) é dada por fY|X(20│1) + fY|X(30│1) que é igual a 7/10. A segunda, P(Y≤10|X=2) é igual a 1 - fY|X(30│2), ou seja, 0.
MÓDULO 2
Essa função é o análogo da função de probabilidade que vimos no módulo anterior, aplicada a variáveis aleatórias contínuas.
Uma vez que a probabilidade pontual para um espaço amostral contínuo possui probabilidade zero, não podemos mais definir a distribuição conjunta
como fXY(x,y)= P(X=x,Y=y).
Definimos, então, em analogia ao caso unidimensional, a função de densidade de probabilidade do vetor aleatório do nosso interesse em termos da
sua função de distribuição acumulada, i.e., FXY(x,y)=P(X≤x,Y≤y). Assim, podemos definir implicitamente a função de densidade de probabilidade
FX
Y ( ) X
X, Y = ∫ - ∞ ∫ - ∞ F X
Y
Y ( )
S, T DT DS
Basta lembrarmos do Teorema Fundamental do Cálculo para o caso de duas variáveis. A função de densidade de probabilidade conjunta para o caso
contínuo é dada por:
F XY X, Y
( ) =
(
∂ 2F XY X , Y
∂X∂Y
)
Assim como no caso discreto, podemos escrever a função de distribuição de probabilidade marginal de X (ou Y) como a “soma” de todos os valores de
Y(ou X):
FY Y ()=∫ ∞
F
- ∞ XY (X, Y ) DX
Atenção! Para visualização completa da equação utilize a rolagem horizontal
FX X()=∫ ∞
- ∞ F XY (X, Y ) DY
Atenção! Para visualização completa da equação utilize a rolagem horizontal
∞ ∞
( )
Qualquer função fXY(x,y), com fXY(x,y)≥0 para todo (x,y)∈ R2 e ∫ - ∞ ∫ - ∞ f XY x, y dx dy = 1 é a distribuição conjunta de um vetor aleatório (X,Y).
Vamos fixar esses conceitos com um exemplo. Definimos a função de densidade conjunta:
( ) {
F XY X, Y =
6XY 2, 0 < X < 1 E 0 < Y < 1
0, CASO CONTRÁRIO
Vamos primeiro verificar se fXY(x,y) é de fato uma distribuição conjunta. A condição de não-negatividade é fácil de verificar: fXY(x,y)≥0, uma vez que
6xy2 toma sempre valores positivos para o domínio definido (0 < x < 1 e 0 < y < 1), e fXY(x,y) = 0 fora desse domínio. Para saber se a função satisfaz a
condição de soma unitária, precisamos integrar fXY(x,y) no plano todo. Note que fXY(x,y) é igual 0 para todos os valores fora do quadrado definido pelo
Portanto, temos:
( )
∫ -∞∞ ∫ -∞∞ F XY X, Y DX DY = ∫ 10 ∫ 10 6XY 2 DX DY = ∫ 10 3X 2 Y 2 | 10 DY = ∫ 10 3Y 2 DY = Y 3 | 10 = 1
Agora considere calcular P(X+Y≥1). Considerando que a área Aque vamos integrar para obter essa probabilidade é definida pelo conjunto A = {(x,y) ∶ x
+ y ≥ 1}, podemos demonstrar isso como P((X,Y) ∈ A). Ou seja, queremos saber a probabilidade de os valores encontrados para as variáveis aleatórias
estarem dentro desse conjunto.
Para calcular essa probabilidade integramos a função densidade de probabilidade conjunta ao conjunto A.
ATENÇÃO
Note que a nossa função de densidade conjunta é igual a zero, exceto no quadrado unitário definido pelo intervalo 0 < x < 1 e 0 < y < 1. Assim, nossa
integração em A é igual à integração somente sobre a parte de A que está dentro do quadrado unitário, uma vez que qualquer valor fora dele é igual a
zero.
O que fizemos acima foi tão-somente achar a intersecção entre a área que queremos integrar e o quadrado unitário. Com esses novos limites de
integração definidos, podemos, então, calcular a probabilidade que desejamos:
(
P X + Y ≥ 1
) □
= ∬A
( )
FXY X, Y DX DY = ∫ 10 ∫ 1 1- Y 6XY 2 DX DY =
9
10
Basta aplicarmos a definição considerada previamente. Como visto, a intuição é a mesma do caso discreto. Apenas substituímos o somatório (um
operador discreto) pela integral (um operador contínuo).
Desse modo, observe que para qualquer valor x ≥ 1 ou x ≤ 0, temos fXY(x,y) = 0 para todos os valores de y. Então, se x ≥ 1 ou x ≤ 0 temos:
FX X ()=∫ ∞
-∞ ( )
F XY X, Y DX = 0
Para 0 < x < 1, fXY(x,y) é diferente de zero somente se 0 < y < 1. Assim, para 0 < x < 1 temos:
FX X ()=∫ ∞
-∞ ( )
F XY X, Y DY = ∫ 10 6XY 2 DY = 2XY 3 | 10 = 2X
FY (Y ) = ∫ ∞
-∞
F XY (X, Y )DX = ∫ 1
0
6XY 2 DX = 3X 2Y 2 | 10 = 3X 2
Essa função de distribuição marginal pode ser usada para calcular probabilidades envolvendo somente X, como:
P
( 1
2
< X <
3
4 ) = ∫ 31 // 42 2X DX = X 2 | 31 // 42 =
9
16
-
1
4
=
5
16
Por fim, a definição para obter a função densidade de probabilidade condicional é idêntica ao caso discreto. Se quisermos obter fY|X(y|x),
Uma vez que tanto a distribuição conjunta quanto a distribuição marginal estão definidas apenas para o dentro do quadrado unitário, podemos
simplesmente substituir os valores obtidos anteriormente na fórmula:
FY | X Y
(|) X =
( )
F XY X , Y
FX ( X )
=
6XY 2
2X
= 3Y 2
FY | X X
(|) Y =
( )
F XY X , Y
FX ( X )
=
6XY 2
3Y 2
= 2X
COMENTÁRIO
Note que, nesse exemplo, fY|X(y│x) = fY(y) e fX|Y(x│y) = fX(x). Isso é consequência das variáveis aleatórias (X,Y) serem independentes.
DEFINIÇÃO (INDEPENDÊNCIA)
Seja (X,Y) um vetor aleatório bivariado, com função de densidade (ou probabilidade) conjunta fXY(x,y) e função de densidade (ou probabilidade)
marginais fX(x) e fY(y). Então X e Y são chamadas independentes se, para cada x ∈ ℝ e y ∈ ℝ temos:
FX
Y ( ) () ()
X, Y = F X X F Y Y .
Ou seja, a função de probabilidade ou de densidade conjunta é igual ao produto das marginais. Poderíamos ter verificado a independência logo que
obtivemos as funções de densidade marginais pois:
Para 0 < x < 1 e 0 < y < 1, temos que fX(x)fY(y) = (2x)(3y2) = 6xy2 = fXY(x,y).
A independência também facilita a obtenção das densidades condicionais, uma vez que, se (X,Y) são independentes, temos:
FY | X Y
(|) X =
( )
F XY X , Y
FX ( X )
=
( ) ( )
FX X FY Y
FX ( X )
= FY Y
()
Atenção! Para visualização completa da equação utilize a rolagem horizontal
Percebe-se que, quando as variáveis são independentes, imediatamente ao obtermos a densidade marginal ganhamos “de brinde” a densidade
condicional.
Nesse vídeo o especialista Raphael trará a resolução de um exercício para ampliar a compreensão do módulo.
VERIFICANDO O APRENDIZADO
F XY X, Y
( ) {
=
C(X + 2Y), X ∈ (0, 2) E Y ∈ (0, 1)
0, X ≥ 0
1
A)
2
1
B)
4
3
C)
4
3
D) -
4
( ){ ( ) ( ) ( )
1
4
X + 2Y , X ∈ 0, 2 E Y ∈ 0, 1
F XY X, Y =
0, X ≥ 0
ASSINALE A ALTERNATIVA QUE CONTÉM O VALOR CORRETO PARA FX(1), E O JULGAMENTO CORRETO A
RESPEITO DA INDEPENDÊNCIA DAS VARIÁVEIS ALEATÓRIAS X E Y:
GABARITO
( ) {
f XY x, y =
C(x + 2y), x ∈ (0, 2) e y ∈ (0, 1)
0, x ≥ 0
Para obter o valor de C devemos usar a propriedade de soma unitária da densidade de probabilidade:
1 2
( )
∫ 0∫ 0 C x + 2y dx dy = 1
( )
∫ 10∫ 20 C x + 2y dx dy
= ∫ 10
(
Cx 2
2
+ 2Cxy
) ( ) (
| 20 dy = ∫ 10 2C + 4Cy dy = 2Cy + 2Cy 2
) | 10
= 2C + 2C = 4C = 1
1
Segue que C = 4 e a resposta certa é o item “b”.
( ){( ) ( ) ( )
1
x + 2y , x ∈ 0, 2 e y ∈ 0, 1
f XY x, y = 4
0, x ≥ 0
Assinale a alternativa que contém o valor correto para fX(1), e o julgamento correto a respeito da independência das variáveis aleatórias X e
Y:
Para obter a função marginal fX(x) precisamos integrar a distribuição de probabilidade sobre todo o intervalo em quey é diferente de zero. Temos,
então:
() ( ) 1
f X x = ∫ 10 x + 2y dy =
4
1
4 (
xy + y 2 | 10 =
1
4 ) ( ) x+1
, para todo x ∈ (0,2). Assim, basta substituirmos o valor x = 1 dentro dessa densidade: f X 1 () ( )
=
1
4
1+1 =
1
2
.
A segunda parte da resposta requer que seja verificado se fXY(x,y) = fX(x)fY(y). Para isso, precisamos obter fY(y):
fY y
() ( ) 1 1 x2
( 1
) ( ) ( )
= ∫ 20 4 x + 2y dx = 4 2 + 2xy | 20 = 4 2 + 4y
1
= 2 1 + 2y
para todo x ∈ (0,1). Para verificar independência, multiplicamos as densidades marginais:
( ) ( ) [ ( )][ ( )] ( )( ) ( )
fX x fY y =
1
4
x+1
1
2
1 + 2y =
1
8
x+1 1 + 2y ≠ f X x, y
Y
MÓDULO 3
ESPERANÇA MATEMÁTICA
Seja (X,Y) um vetor aleatório (discreto ou contínuo). Todas as funções de probabilidade e densidades que definimos anteriormente (conjunta, marginal
ou condicional) são, do ponto de vista estatístico, distribuições de probabilidade. Portanto, podemos tomar a esperança desse vetor sob quaisquer uma
dessas distribuições.
Em particular, chamamos de esperança condicional quanto tomamos a esperança com relação a uma distribuição condicional. Em contrapartida,
chamamos de esperança incondicional quando tomamos com relação a distribuição conjunta.
O termo esperança marginal é menos utilizado, mas, por analogia, seria a esperança tomada em termos das distribuições marginais.
Esperanças de vetores aleatórios são calculadas do mesmo modo que as variáveis aleatórias univariadas. Segue que a definição do uso da função
esperança para uma variável aleatória bivariada é similar ao caso de uma variável múltipla univariada:
Seja g(x,y) uma função que nos dá um valor real para cada valor possível (x,y) do vetor aleatório discreto (X,Y), então g(X,Y) é ela própria uma variável
aleatória e seu valor esperado é:
[ ]
E XY [ ( )]
= E G XY X, Y = Σ
(X,Y ) ∈ℝ 2 ( ) ( )
G XY X, Y F XY X, Y
COMENTÁRIO
Na definição acima, usamos o fato de que uma função de uma variável aleatória é também uma variável aleatória.
Vamos retornar ao exemplo dos dados de três faces do Módulo 1. Naquele exemplo definimos o vetor aleatório (S,D) que representa, respectivamente,
a soma dos valores das faces dos dados e a diferença desses valores em módulo. Podemos definir para esse exemplo uma função g(s,d)=sd , ou seja,
a função g(.), que nos dá o produto dos valores s e d obtidos para as variáveis aleatórias (S,D). Nesse caso, temos:
[ ] ( )( ) ( )( )
E SD = 2 0
1
9
+ 3 1
2
9
+ ... +
( )( )
6 0
1
9
=
32
9
Vamos agora definir a função esperança para o caso contínuo. Note a similaridade com a definição anterior para o caso discreto.
Seja g(x,y) uma função que nos dá um valor real para cada valor possível(x,y) do vetor aleatório contínuo(X,Y), então g(X,Y) é ela própria uma variável
aleatória e seu valor esperado é:
[ ] = E [G (X, Y )] = ∫
E XY XY
∞ ∞
∫
-∞ -∞ ( ) ( )
G XY X, Y F XY X, Y DX DY
Essencialmente, o que fizemos acima foi substituir o operador somatório do caso discreto por integrais. A intuição, porém, é a mesma: estamos
multiplicando o valor da função gXY(x,y) pela distribuição conjunta fXY(x,y) para cada valor de (X,Y).
DICA
Como mencionamos no começo do módulo, podemos usar funções de probabilidade e densidade condicionais para calcular esperanças. Basta
lembrar-se de que fY|X(y│x), como uma função de y, é uma função de probabilidade ou densidade e deve-se utilizá-la da mesma maneira de acordo
Assim, seja g(Y) uma função de Y, o valor esperado condicional de g(Y) dado que X=x é definido por:
()( | ) ( )
[ ( | )] {
∑ G Y F Y X , PARA X, Y DISCRETO
Y
E G Y X =
()( | )
∫ -∞∞ G Y F Y X DY, PARA X, Y CONTÍNUO ( )
Atenção! Para visualização completa da equação utilize a rolagem horizontal
Vamos agora discutir algumas propriedades do operador esperança. As primeiras quatro são exatamente iguais àquelas da esperança univariada,
aplicadas a funções do tipo g(x,y) em vez de funções g(x):
[ ( ) + bhXY (X, Y ) + c )]
i. E ag XY X, Y [ ( )] + bE [hXY (X, Y )] + c
= aE g XY X, Y
( )
ii. Se g XY x, y ( ) [ ( )]
≥ 0 para todo x. y , então E g XY x, y ≥ 0
( )≥
iii. Se g XY x, y ( ) ( ) [ ( )]
h XY x, y para todo x, y , então E g XY x, y [ ( )]
≥ E h XY x, y
( )
iv. Se a ≤ g XY x, y ( ) [ ( )] ≤
≤ b, para todo x, y , então a ≤ E g XY x, y b
() () ( ) [ ( ) ( )]
i. Sejam g X x e h Y y funções somente de x e y, respectivamente, e X, Y variáveis aleatórias independentes. Temos : E g X X h Y Y [ ( )]E
= E gX X
() ( )
ii. Seja h Y y uma função somente de y e X, Y variáveis aleatórias independentes. Temos : E h Y Y[ ( ) | X = x] [ ( )]
= E hY Y
COVARIÂNCIA E CORRELAÇÃO
Dois conceitos importantes para distribuições conjuntas (X,Y) são o de covariância e correlação. Definiremos a seguir os dois.
DEFINIÇÃO (COVARIÂNCIA)
DEFINIÇÃO (CORRELAÇÃO)
CORR X, Y
( ) =
COV ( X , Y )
√VAR [ X ] VAR [ Y ]
Note que, se cov(X,Y) = 0, então corr(X,Y) = 0. Nesse caso, dizemos que as variáveis X e Y não são correlacionadas. A partir dessas duas definições e
da definição de independência dada no módulo anterior, temos o seguinte resultado:
TEOREMA
Se as variáveis aleatórias X e Y possuem variância finita e são independentes,
então essas variáveis não são correlacionadas.
ATENÇÃO
Note que a afirmação contrária (“corr(X,Y) = 0 ⇒ independência”) não é verdadeira. Para verificar isso, suponha que X segue uma distribuição
uniforme U[-1,1]. Como essa distribuição é simétrica ao redor de zero, temos que E[X]= 0 e E[X3]= 0. Se definimos Y=X2, temos que cov(X,Y)=E[X3] -
E[X]E[X]= 0. Nesse caso, X e Y têm correlação igual a zero e, ao mesmo tempo, são dependentes.
Isso mostra que variáveis não correlacionadas podem ser dependentes, mas toda variável independente é não correlacionada.
TEOREMA
Se as variáveis não são correlacionadas (i.e. cov(X,Y) = 0), temos que var[X,Y] = var[X] + var[Y]. O mesmo raciocínio vale caso X e Y sejam
independentes, pois independência implica covariância zero (lembre-se que o contrário não vale, necessariamente). Para a covariância e a correlação
temos as seguintes propriedades.
PROPRIEDADES DA COVARIÂNCIA
3. cov(aX, bY) = ab cov(X, Y), onde " a " é uma constante, pois :
cov(aX, bY) = E[abXY] - E[aX]E[bY] = ab(E[XY] - E[X]E[Y]) =
ab cov(X, Y)
5. cov(X + Y, Z) = cov(X, Z) + cov(Y, Z), onde Z também é uma variável aleatória, pois :
cov(X + Y, Z) = E[(X + Y)Z] - E[X + Y]E[Z]
= E[XZ] + E[YZ] - E[X]E[Z] - E[Y]E[Z]
= (E[XZ] - E[X]E[Z]) + (E[YZ] - E[Y]E[Z])
= cov(X, Z) + cov(Y, Z)
(
6. De maneira geral podemos dizer que : cov ∑ i =m1 a i X i, ∑ j =n1 b j Y j )= (
∑ i =m1 ∑ j =n1 a ib jcov X i, Y j )
Atenção! Para visualizaçãocompleta da tabela utilize a rolagem horizontal
PROPRIEDADES DA CORRELAÇÃO
1. - 1 ≤ corr(X, Y) ≤ 1
As propriedades obtidas anteriormente podem ser obtidas diretamente pela definição de covariância e correlação. Precisamos, porém, enfatizar a
intuição por trás de algumas dessas propriedades, especialmente as da correlação.
Fonte: Dn Br /
Shutterstock
A segunda e a terceira dizem que variáveis perfeitamente correlacionadas (i.e. corr(X,Y) = 1), ou perfeitamente
negativamente correlacionadas (i.e. corr(X,Y) = -1), são combinações lineares uma da outra.
Fonte: Dn Br /
Shutterstock
Por fim, a quarta propriedade indica que a correlação entre duas variáveis aX + b e cY + d quaisquer depende
somente do seu componente aleatório, isto é, das variáveis aleatórias X e Y.
Fonte: Dn Br /
Shutterstock
VERIFICANDO O APRENDIZADO
[ ] [] ] ( )
3
√Π
ENCONTRE OS VALORES PARA E XY , E Y X = 2 E CORR 7X, Y + LOG 1023
E ASSINALE A ALTERNATIVA
CORRESPONDENTE:
A) 6,5/3 e 0, respectivamente.
1
B) 6, 5/6, e 2 , respectivamente.
C) 4,5/3, e 1, respectivamente.
( ) {
F XY X, Y =
6X 2Y, 0 ≤ Y ≤ 1 E 0 ≤ X ≤ 1
0, CASO CONTRÁRIO
A) 3
B) 1/2
C) 7/4
D) 7
GABARITO
[ ] [] ] ( )
3
√π
Encontre os valores para E XY , E Y X = 2 e corr 7X, Y + log 23 e assinale a alternativa correspondente:
10
Aplicando a definição de esperança para variáveis discretas no começo deste módulo, temos
[ ] ( )( ) ( )( ) ( )( ) ( )( ) ( )( )
E XY = 1 2
1
12
+ 2 2
1
6
+ 3 2
1
12
+ 3 1
1
6
+ 4 2
1
3 [| ] [| ] 1
= 6. Para obtermos E Y X = 2 , temos E Y X = 2 = 2 + 4
6
1
3
=
5
3
.
( )
3
√π
Por fim, precisamos achar corr 7X, Y + . Note que as constantes podem ser ignoradas, como vimos nas propriedades da correlação. Desse
log 1023
Para isso, precisamos obter cov(X,Y), var[X] e var[Y]. Primeiramente, vamos obter E[X] e E[Y]:
[] (
E X =1
1
12
+
1
6 ) ( ) ( )
+2
1
6
+
1
3
+3
1
12
+
1
6
=
3
12
+
12
12
+
9
12
=2
[] ( 1
E Y = 2 12 + 6 + 12
1
) ( ) ()
1
+3 6 + 6
1 1
+4 3
1 4 6
= 6+6+6 =3
8
Logo, temos:
( )
corr X, Y =
cov ( X , Y )
√var [ X ] var [ Y ]
=0
2. Considere a seguinte função de densidade conjunta para duas variáveis aleatórias contínuas X e Y dada por:
( ) {
f XY x, y =
6x 2y, 0 ≤ y ≤ 1 e 0 ≤ x ≤ 1
0, caso contrário
Pelas propriedades do operador esperança temos E[Y2 + 2X│X] + E[XY] + 10corr(X,Y) = E[Y2│X] + 2E[X] + E[XY] + 10corr(X,Y). Vamos primeiro obter
as distribuições marginais de X e Y.
()
fY y = ∫ 10 6x 2y dx = (2x y ) |
3 1
0 =
{ 2y, 0 ≤ y ≤ 1
0, caso contrário
()
fX x = ∫ 10 6x 2y dx = (3x y ) |
2 2 1
0
=
{ 3y 2, 0 ≤ y ≤ 1
0, caso contrário
[]=∫
E X 1
0 ()
xf X x dx = 3x 3 | 10 = 3
[]
E X
( ) ( ) x 4 1
= ∫ 10 ∫ 10xy f XY x, y dydx = ∫ 10∫ 106x 3y 2 dydx = ∫ 10 2x 3y 3 | 10 dx = ∫ 10 2x 3 dx = 2 | 10 = 2
Por último, vamos calcular E[Y2│X]. Para isso precisamos obter a distribuição condicional fY|X(y|x):
(|)
fY | X y x =
( )
f XY x , y
fX ( x )
=
6x 2y
3x 2
= 2y
Note que fY|X(y│x) = fY(y), ou seja, Y é independente de X; logo, corr(X,Y) = 0. Por fim, vamos obter E[Y2│X]:
[ |]
E Y2 X
(|) ()
y 1
= ∫ 10 y 2 f Y | X y x dy = ∫ 10 y 2 f Y y dy = ∫ 10 2y 3 dy = 2 | 10 = 2
4
1 1
Desse modo, temos E[Y2 + 2X│X] + E[XY] + 10corr(X,Y) = E[Y2│X] + 2E[X] + E[XY] + 10corr(X,Y) = + (2)(3) + + (10)(0) = 7.
2 2
CONCLUSÃO
CONSIDERAÇÕES FINAIS
Vimos neste tema as variáveis aleatórias múltiplas, tanto discretas quanto contínuas, e analisamos o conceito e aplicações da esperança matemática
dessas variáveis. Com esse material, você poderá estudar as relações entre diferentes variáveis aleatórias.
Observe que elas estão presentes no próprio cotidiano: qual é a relação entre crescimento econômico e desemprego? Entre investimento em pesquisa
e desenvolvimento de novas vacinas? Se duas grandezas numéricas podem ser relacionadas (e elas admitem algum grau de incerteza), então é
possível aplicar o instrumental desenvolvido aqui.
AVALIAÇÃO DO TEMA:
REFERÊNCIAS
CASELLA, G.; BERGER, R. L. Inferência estatística. 2. ed. São Paulo: Cengage Learning, 2011. 588 p.
MEYER, P. L. Probabilidade: aplicações à Estatística. 2. ed. Rio de Janeiro: Livros Técnicos e Científicos, 1983.
ROSS, S. Probabilidade: um curso moderno com aplicações. 8. ed. Porto Alegre: Bookman, 2009.
EXPLORE+
Essas notas baseiam-se em grande parte no livro Inferência Estatística (2ª edição), de Casella e Berger, especificamente no Capítulo 4 sobre
variáveis aleatórias múltiplas.
Para fixar os conceitos, recomenda-se a leitura do capítulo 6 do livro Probabilidade: um curso moderno com aplicações (8ª edição), de
Sheldon Ross. Este capítulo abrange, com riqueza de exemplos e uma grande variedade de exercícios, os conteúdos pertinentes para a
compreensão das propriedades de variáveis aleatórias múltiplas.
Para uma apresentação matematicamente rigorosa do conteúdo, com diversas provas e demonstrações que auxiliam a fixação dos fundamentos
por trás de cada conceito, recomenda-se a leitura do Capítulo 2, com destaque para as subseções de 2.4 a 2.8, do livro Probabilidade: um
curso em nível intermediário, de Barry R. James.
CONTEUDISTA
Raphael Guinâncio Bruce
CURRÍCULO LATTES