Você está na página 1de 30

Distribuciones de probabilidad

bidimensionales o conjuntas
Si disponemos de dos variables aleatorias podemos
definir distribuciones bidimensionales de forma
semejante al caso unidimensional. Para el caso
discreto tendremos:

. y) x, Y P(X p(x, y) = = =
. 0 ) , ( , 1 ) , ( > =

y x p y x p
x y
Con:
1
Podemos encontrar la probabilidad marginal de
la variable aleatoria X sumando sobre todos los
posibles valores de la variable aleatoria Y:
y x p (x) p
y
X
= ) , (
Igualmente, podemos encontrar probabilidad
marginal de la variable aleatoria Y sumando
sobre todos los posibles valores de la variable
aleatoria Y:
y x p (y) p
x
Y
= ) , (
2
Y la funcin de probabilidad condicional de Y dado X = x es:
Funcin de probabilidad condicional
La funcin de probabilidad condicional de X dado Y = y es:
(y) p
p(x,y)
p(x|y)
Y
=
(x) p
p(x,y)
p(y|x)
X
=
3
La definicin para dos variables aleatorias continuas es
semejante: F(x,y) = P(X s x, Ys y).
La densidad de probabilidad f(x,y) se obtiene derivando la
funcin de probabilidad con respecto a sus argumentos:
} }


=
>
1 ) , (
, 0 ) , (
dxdy y x f
y x f
Por supuesto:
) , (
) , ( ) , (
2 2
y x f
x y
y x F
y x
y x F
=
c c
c
=
c c
c
4
}


= dx y x f y f
Y
) , ( ) (
}


= dy y x f x f
X
) , ( ) (
Las densidades de probabilidad marginales y las
probabilidades condicionales se definen de forma
semejante al caso bidimensional discreto sin ms que
sustituir sumatorios por integrales. As:
(y) f
f(x,y)
f(x|y)
Y
=
(x) f
f(x,y)
f(y|x)
X
=
5
(y) P (x) P P(x, y)
Y X
=
Distribuciones bidimensionales
e independencia
Los sucesos aleatorios {X = x} e {Y = y} son independientes
si:
Y entonces, dos variables aleatorias sern independientes
si la relacin anterior se cumple para todos los posibles
pares (x,y).
(y) p p(y|x) (x) p p(x|y)
Y X
= = y
Podremos entonces escribir:
6
El teorema de Bayes se expresa como:
(x) p
(y) p(x|y) p
p(y|x)
y p
(x) p(y|x) p
p(x|y)
X
Y
Y
X
=
=
) (
7
8
Transformacin de variables
aleatorias bidimensionales
Dada una variable bidimensional (X, Y), con funcin densidad
de probabilidad conjunta f(x, y) y una transformacin biunvoca:

U = u(X, Y), V = v(X, Y)

la funcin de densidad de probabilidad conjunta de la nueva
variable aleatoria bidimensional (U, V) ser:

g(u, v) = f(x(u,v), y(u,v)) |J|

con:
1
c
c
c
c
c
c
c
c
=
c
c
c
c
c
c
c
c
=
y
v
x
v
y
u
x
u
v
y
u
y
v
x
u
x
J
9
Ejemplo de transformacin bidimensional
Sean x,y dos nmeros aleatorios generados por distribuciones
normales tipificadas N(0,1). Si son independientes, su distribucin
sobre un plano ser:

)
`

+
=
|
|
.
|

\
|

|
|
.
|

\
|
=
2
) (
2
1
2
2
1
2
2
1
) , (
2 2 2 2
y x
Exp
y
Exp
x
Exp y x P
t
t t
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
Hagamos una transformacin a coordenadas polares (R,).
Con d = R
2
= x
2
+ y
2
:
) 2 / (
2
1
2
1
) , (
) , (
) , (
) , ( d Exp y x P
d
y x
d P =
c
c
=
t u
u
que es equivalente al producto de una distribucin exponencial de
vida media 2, y una distribucin uniforme definida en el intervalo
[0,2].
(Press et al., Numerical Recipes)
10
Transformacin de Box-Mller:
Cmo conseguir una distribucin normal bidimensional
a partir de una uniforme?
demuestra que nos llevan a dos nmeros aleatorios x,y
cuya probabilidad sigue una distribucin normal.

Puesto que las transformaciones dependen de funciones
trigonomtricas, no son muy eficientes para el clculo
computacional.

2
1
2
2
ln 2
u
u R
t u =
=
) sin(2 ln 2 sin
) cos(2 ln 2 cos
2 1
2 1
u u R y
u u R x
t u
t u
= =
= =
(Press et al., Numerical Recipes)
Sean dos nmeros aleatorios u
1
, u
2
derivados de una
distribucin uniforme. Se realizan las transformaciones:
11
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
Para hacer el algoritmo de Box-Mller
ms rpido se definen las variables:
v
1
=2u
1
1
v
2
=2u
2
1
Se generan nmeros hasta que
(v
1
,v
2
) se encuentre dentro del
crculo de radio R = 1.
2 / 1
2 / 1
ln 2

ln 2
|
.
|

\
|

=
|
.
|

\
|

=
d
d
y
d
d
x
2
1
v
v
2 / 1
2 2
2 / 1
1 1
) (
sin
) (
cos
2
2
2
1
2
2
2
1
v v
v v
v v
v v
+
= =
+
= =
R
R
u
u
v
1

v
2

R

(1,1)
(1,1) (1,1)
(1,1)
para d 1.
(Press et al., Numerical Recipes)
Estas transformaciones modificadas
son ms eficientes en el clculo.
12
La covarianza mide la manera en que dos variables
aleatorias X e Y varan juntas. Por ejemplo, si cuando
una variable aleatoria X se acerca a su media,
entonces es de esperar que la variable Y est
cercana a la suya, la covarianza es positiva. Si es de
esperar que la variable Y est lejana a su media,
entonces la covarianza es negativa.

Covarianza
( ) ) )( ( ) , cov( v = Y X E Y X
( ) ( ) Y E X E = = v Con:
13
Se cumple que:
( ) v = Y X E Y X ) , cov(
Si X e Y son variables independientes, su covarianza
es cero. Observa que en este caso:
( ) ( ) ( ) 0 ) , cov( = = = = v v v v Y E X E Y X E Y X
Puesto que X e Y son variables independientes
Si la covarianza de X e Y es cero, no necesariamente
X e Y son variables independientes.
14
Propiedades de la covarianza
Si a y b son constantes:
( )
( )
( ) Y X ab bY aX
X Y Y X
X X X
, var ) , cov(
, var ) , cov(
var ) , cov(
=
=
=
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

Você também pode gostar