Escolar Documentos
Profissional Documentos
Cultura Documentos
Resumen
En este documento presentamos la deducción de la expresión de la función
densidad de probabilidad (f.d.p.) Gaussiana multivariable. También se mues-
tran ejemplos de variables aleatorias conjuntamente Gaussianas y de otras
variables aleatorias que no lo son. Para terminar mostramos una interpreta-
ción gráfica de la distribución Gaussiana multivariable.
X = [X1 , ..., XN ]T
1
La matriz de covarianza de Z es una matriz diagonal de dimensión N × N :
CZ = σ 2 IN , ya que las componentes de Z son independientes, y por lo tanto, no
correlacionadas o descorrelacionadas.
Ahora definimos la siguiente transformación lineal,
X = AZ, (2)
y la f.d.p. de X queda
1 1 T −1
fX (x) = exp − x CX x . (3)
(2π)N/2 (det CX )1/2 2
X = AZ + mX . (4)
2
2. Independencia y Correlación
En esta sección abordaremos el tema de correlación e independencia estadı́stica2
de variables aleatorias. De manera general, dos o más variables aleatorias indepen-
dientes entre sı́ están descorrelacionadas. Esto se cumple para variables aleatorias
con cualquier tipo de distribución. Para demostrarlo, definimos N variables aleato-
rias A1 , A2 , . . . , AN independientes y nos proponemos calcular la covarianza de dos
variables aleatorias cualesquiera. Sea mAi = E[Ai ], la covarianza de Ai y Aj es
Independencia ⇒ Descorrelación
3
2 2
f.d.p. de X es (5) con CX = diag[σX 1
, . . . , σX N
]. Entonces,
N
!
1 1 X x20i
fX (x) = Q exp − 2
(12)
(2π) N/2 N 2 i=1 σX
i=1 σXi i
N
1 x20i
Y 1
= √ exp − 2 (13)
i=1
2πσXi 2 σX i
N
Y
= fXi (xi ) (14)
i=1
La última igualdad implica que las Xi ’s son independientes. Entonces, para el caso
de variables aleatorias conjuntamente Gaussianas,
Independencia ⇔ Descorrelación
3. Interpretación Geométrica
Es conveniente interpretar esta expresión para un vector bidimensional X =
[X1 , X2 ]T de media nula y matriz de covarianza
σ12 ρσ1 σ2
CX = ,
ρσ1 σ2 σ22
xT C−1
X x−K = 0 (15)
4
0.4
0.3
fX (x1 , x2 )
0.2
0.1
0
4
2 4
0 2
0
−2 −2
x2 −4 −4
x1
1
x2
−1
−2
−3
−4
−4 −2 0 2 4
x1
5
y X2 son dependientes. Por ejemplo,
0.2
0.15
fX (x1 , x2 )
0.1
0.05
0
10
5 10
0 5
0
−5 −5
x2 −10 −10
x1
2
x2
−2
−4
−6
−6 −4 −2 0 2 4 6
x1
6
Condicionar una variable sobre otra no cambia la distribución de probabilidades.
Las curvas de nivel de la f.d.p. mostradas en la Fig. 2(b) son elipses centradas en el
origen cuyos ejes coinciden con los ejes de x1 y x2 , algo que se debe cumplir para
que X1 y X2 sean independientes. El hecho de que sus varianzas sean distintas sólo
modifica la excentricidad de las elipses de concentración pero no la relación entre
las variables.
4. Casos Particulares
En esta sección analizamos varios ejemplos para los cuales las f.d.p. marginales
son Gaussianas pero la conjunta no es la Gaussiana multivariable, es decir, que
las variables aleatorias no son conjuntamente Gaussianas. No alcanza con que las
distribuciones marginales sean Gaussianas para que las variables aleatorias sean
conjuntamente Gaussianas.
Ejemplo 1. Sea X una variable aleatoria Gaussiana de media nula y varianza
unitaria, definimos otra variable aleatoria Y tal que,
X si |X| > c
Y = (16)
−X si |X| ≤ c
Es claro que Y es Gaussiana debido a la simetrı́a de la f.d.p. alrededor de 0. Sin
embargo, como puede apreciarse en la Figura 3 a través de varias realizaciones de
(X, Y ), la conjunta no es la Gaussiana multivariable.
0
y
−1
−2
−3
−3 −2 −1 0 1 2 3
x
Figura 3: (Ejemplo 1) 500 realizaciones de (X, Y ) definidas por (16) para c ≃ 1,54.
7
Ejemplo 2. Sea X una variable aleatoria Gaussiana de media nula y varianza
unitaria. Sea W una variable aleatoria Bernoulli equiprobable e independiente de
X,
1 p = 0,5
W = (17)
−1 p = 0,5
Definimos una nueva variable aleatoria
Y = W X. (18)
De manera similar al caso anterior y debido a la simetrı́a de la f.d.p. Gaussiana, Y
es Gaussiana. Sin embargo, como puede apreciarse en la Fig. 4 a través de varias
realizaciones de (X, Y ), la conjunta no es la Gaussiana multivariable.
0
y
−1
−2
−3
−4
−4 −2 0 2 4
x
8
5. Diagonalización de la Matriz de Covarianza
Buscamos la matriz de transformación P tal que el vector aleatorio Y = PX
tenga una matriz de covarianza CY diagonal:
σ12 . . . 0
CY = ... . . . ..
.
2
0 . . . σN
6. Ejercicios
Ejercicio
√ 1. Demostrar que los ejes principales del elipsoide de concentración miden
2σi K, donde K es la constante de la ecuación (15).
9
x2
y2
a
ax 2
y1
a y2
a y1
q2 q1
ax 1 x1
10