Escolar Documentos
Profissional Documentos
Cultura Documentos
DIVISIÓN ECONÓMICA
DEPARTAMENTO DE INVESTIGACIONES ECONÓMICAS
DIE-NT-01-95
ENERO, 1995
TÉCNICAS DE ANÁLISIS MULTIVARIANTE1
INTRODUCCIÓN
El análisis multivariable tiene una historia que data desde el uso de la regresión lineal por parte
de Gauss en 1809 y, posteriormente, por otros estadísticos como Markov en 1900. Las
técnicas más recientes datan desde los años de 1930. En la actualidad, los paquetes
estadísticos y econométricos incluyen procedimientos para aplicar estas otras técnicas del
análisis de datos. A continuación se resumen las principales características de estas técnicas.
EL ANÁLISIS MULTIVARIABLE
γ 1 y 1i + γ 2 y 2i + . . . + γ k 1 y k1 i + φ1 x1i + φ2 x 2i +. . . + φk 2 x k2 i + ui = 0 1
1
Autorizado por Lic. Hermógenes Arguedas Troyo.
1
Sin embargo, la discusión de estas técnicas se tornaría relativamente difícil si se trabajara
directamente con la ecuación (1). Es por ello que el enfoque matricial permitiría un manejo de
las relaciones estadísticas más adecuado. En este sentido defínanse las siguientes matrices:2
y 1 1
y 2 1
⋅ ⋅ ⋅ y k 1 ,1
y y ⋅ ⋅ ⋅ y
1 2 2 2 k 1 ,2
y = ⋅ ⋅ ⋅ ⋅ ⋅ ⋅
⋅ ⋅ ⋅ ⋅ ⋅ ⋅
⋅ ⋅ ⋅ ⋅ ⋅ ⋅
y 1 N
y 2 N
⋅ ⋅ ⋅ y k 1 , N
Orden : (Nxk1)
y 1 1
y 2 1
⋅ ⋅ ⋅ y k 1 ,1
y y ⋅ ⋅ ⋅ y
1 2 2 2 k 1 , 2
x = ⋅ ⋅ ⋅ ⋅ ⋅ ⋅
⋅ ⋅ ⋅ ⋅ ⋅ ⋅
⋅ ⋅ ⋅ ⋅ ⋅ ⋅
y y ⋅ ⋅ ⋅ y
1 N 2 N k 1 ,N
Orden: (Nxk2)
Γ'= γ 1 γ 2 ⋅ ⋅ ⋅ γ
k 1
Orden: (k1xN)
Φ '= φ1 φ 2 ⋅ ⋅ ⋅ φ
k2
Orden: (k2xN)
U'= u1 u2 ⋅ ⋅ ⋅ u N
Orden: (NxN)
2
En notación matricial, el signo de comilla (') denota la transposición de una matriz.
2
Los componentes de las matrices de coeficientes Γ y Φ corresponden a vectores de orden
(1xN). Con esta definición matricial, las relaciones algebraicas de la ecuación (1) se pueden
especificar como:
YΓ + X Φ + U = 0 2
N N 1
(2π )- 2 | Σ |- 2 e- 2 [U - E(U)] ′ Σ
-1[U - E(U)]
3
En su aplicación más sencilla, la regresión lineal sólo considera una variable y, por lo que la
matriz Y se convierte en un vector de orden (Nx1), mientras que el vector de los coeficientes γ
corresponde a un escalar. En términos matriciales, la regresión lineal transforma a la ecuación
(2) de la siguiente manera:
yi = X (-Φ γ -11 ) + U γ 1
-1
4
yi = X β + ε 5
3
Los coeficientes β representan el efecto de la variabilidad de las x sobre la variabilidad de la y.
Para obtener estos coeficientes β se recurre, generalmente, a los estimadores mínimo
cuadráticos ordinarios definidos por:
$ = (x ′x )-1 x ′y
β 6
La teoría de los mínimos cuadrados permite evaluar la calidad de los estimadores en términos
de su insesgamiento y eficiencia, así como también el cumplimiento de los supuestos de la
regresión lineal.
Bajo el supuesto de que las utilidades de los bancos no ejercen influencia entre ellas mismas y
que los términos aleatorios son independientes de una ecuación a la otra, el método de
mínimos cuadrados ordinarios es el recomendable para analizar el comportamiento de las
utilidades bancarias. Sin embargo, si existiera un efecto cruzado de utilidades bancarias, en el
sentido de que las utilidades de un banco afectan las de otros bancos (una ecuación tiene dos o
más variables y), sería necesario aplicar un método como el de mínimos cuadrados en dos
etapas, por ejemplo. Aún más, si los componentes estocásticos de las ecuaciones están
relacionados entre ellos, sería indispensable aplicar un método como el de mínimos cuadrados
en tres etapas.
Para un conjunto de datos (x,y), como los de la ecuación (2), la técnica de componentes
principales permite obtener combinaciones lineales de aquellas variables (x,y) que aportan una
mayor contribución a la explicación de la variancia del conjunto de datos. Para obtener tales
combinaciones es necesario construir la matriz de variancias y covariancias de esas variables.
Por consiguiente, una de las técnicas recomendadas para evitar estos problemas de
multicolinealidad es la de construir una combinación de las variables linealmente dependientes y
para ello se usa la técnica de componentes principales.
4
mayor variancia y los que le siguen van disminuyendo su contribución a la variancia total.
Defínase entonces la combinación como:
z1i = a 11 x1i + a21 x 2i + . . . + a k 2i x k 2 i , i = 1,..., N 7
En forma matricial:
z1 = X a 1 8
donde z es un vector (Nx1), X es una matriz de orden (Nxk2) y a es un vector (k2x1). La suma
de cuadrados de la nueva variable z está dada por:
z ′1 z1 = a ′1 X ′X a1 9
Este proceso de maximización con restricción conduce a una solución de orden de la forma:
(X ′X)a 1 = λ1 a1 10
Si se supone que la matriz (X'X) contiene k raíces características, entonces los k componentes
principales, ortogonales entre ellos mismos, se especificarían como:
Z = XA 11
Z ′Z = A′ X ′XA= Λ 12
λ 1 0 ⋅ ⋅ ⋅ 0
0 λ 2
⋅ ⋅ ⋅ 0
⋅ ⋅ ⋅ ⋅ ⋅ ⋅
Λ =
⋅ ⋅ ⋅ ⋅ ⋅ ⋅
⋅ ⋅ ⋅ ⋅ ⋅ ⋅
0 0 ⋅ ⋅ ⋅ λ k
5
En otras palabras, los elementos de la diagonal de la matriz Λ proporcionan la ponderación que
tienen los componentes principales en la variancia total de (X'X) de forma tal que λ1 es mayor
que λ2 y así sucesivamente.
ANÁLISIS FACTORIAL
El análisis factorial, variante del análisis de componentes principales, consiste en extraer los
componentes principales de una matriz de correlación de las variables x y de las y. Se
diferencia del análisis de componentes principales en que las ponderaciones λi se transforman
de forma tal que su suma de cuadrados es igual al valor característico de la matriz Λ. El
análisis factorial permite seleccionar el número de factores retenidos en la solución final.
Considere que existen ciertos factores comunes F que influyen a las variables y y x
simultáneamente. De la misma forma, existen factores específicos G1 que sólo afectan a las
variables y y factores G2 que afectan exclusivamente a las x. Bajo estas condiciones, las
variables pueden ser expresadas como:
Y = A1 F + G1 13
X = A2 F + G2 14
El análisis factorial requiere que los factores F no estén relacionados con los factores G.
Tampoco se permite que haya covariancias entre los factores G. Adicionalmente, se supone
que los factores F poseen una matriz de variancias y covariancias igual a la matriz identidad (I).
Bajo estos supuestos, las variancias de las variables y y x están dadas por:
cov(Y, X) = Σ 12 = A1 A′ 2 17
6
La ecuación (17) significa que la correlación entre y y x se explica solamente por sus factores
comunes. El menor número de factores comunes está dado por:
m = R Σ12 18
Las correlaciones canónicas se definen como las correlaciones múltiples máximas entre unas
variables y varias funciones lineales de otras variables. Defínanse Σ 11, Σ 22 y Σ 12 como las
matrices de variancias y covariancias entre y y x. Defínanse también dos combinaciones
lineales de variancia unitaria de la forma L'Y y M'X. El análisis de correlación canónica escoge
los coeficientes de las matrices L y M tal que la correlación entre esas dos combinaciones
lineales es la máxima. En términos matemáticos, el problema consiste en maximizar la
covariancia de las combinaciones lineales:
L′ Σ 12 M 19
L′ Σ 11 L = 1 20
M ′ Σ 22 M = 1 21
λ1 = L ′ Σ 12 M 22
λ2 = M ′ Σ 21 L 23
En vista de que los multiplicadores de Lagrange son iguales, se puede decir que λ1 = λ2 = ρ.
Ello implica que ρ corresponde a la raíz característica de la ecuación determinante:
| Σ 21 Σ -111 Σ 12 - ρ2 Σ 22 | = 0 24
Para este caso de dos combinaciones lineales, λ1 y λ2 son las correlaciones canónicas.
Cuando se consideran más de dos combinaciones lineales se definen raíces características
7
ρ1...ρs para los correspondientes vectores M1...Ms. Al agrupar estos vectores en una matriz Φ =
[ M1. . . M2 ] tal que:
Φ ′ Σ 22 Φ = I 25
R = Φ ′ Σ 21 Σ -111 Σ 12 Φ 26
ANÁLISIS DISCRIMINANTE
(b)Conocer las probabilidades a priori π 1,...,π z para las poblaciones, las cuales son
frecuencias relativas de unidades estadísticas de los z grupos.
(c)Especificar valores rij que representen la pérdida por identificar una variable y en el
grupo i cuando en realidad pertenece a la población j.
A las variables y se les asocia un puntaje S que consiste en un promedio ponderado de las
probabilidades de que cada variable muestre los atributos que definen a una población en
particular. Es decir:
8
∑
Z
Si = πn Pn (y) r ni 27
n=1
1 1
S i = - ln| Σ i | - ( y - y i )′ Σ i ( y - y i ) + ln πi
-1
28
2 2
Cuando existen sólo dos poblaciones (bancos con utilidades altas o con utilidades bajas), la
regla de decisión para la asignación de un banco en un grupo o en el otro está dada por la
diferencia de dos puntajes discriminantes: S1 - S2. En términos de la verosimilitud normal, la
diferencia de los discriminantes sería:
1
( y ′1 - y ′ 2 ) Σ -1 Y - ( y ′1 Σ -1 y 1 - y ′2 Σ -1 y 2 ) + ln π1 - ln π2 29
2
Si se denota el primer sumando de la ecuación (29) como L(Y) y los dos últimos como c, la
regla de decisión es la siguiente: asigne el i-ésimo banco al grupo de bancos con utilidades
altas si L(Y)>c o, al contrario, al grupo con utilidades bajas si L(Y)<c.
ANÁLISIS DE CONGLOMERADOS
Los procedimientos de agrupación son los siguientes: (a) se escogen puntos iniciales contra los
cuales se comparan y aglomeran las siguientes observaciones; (b) se definen conglomerados
amplios a partir de los cuales se comienzan a extraer aquellas observaciones más diferentes.
Este último método consiste en los cálculos de distancias máximas y mínimas.
9
Para las restantes técnicas de análisis multivariante destaca el paquete SPSS, el cual contiene
una serie de comandos que permiten un uso flexible y rápido de las técnicas, con la ventaja de
el manual incorpora discusiones teóricas y prácticas de los resultados estadísticos. Otro
paquete avanzado es SAS, pero no contiene la discusión de los resultados. Como una última
opción se podría contar con STATGRAPHS, el cual tiene la limitación en cuanto al número de
variables y observaciones que permite manipular.
BIBLIOGRAFÍA
Johnston, J. (1984). Econometric Methods. Third Edition. New York: McGraw-Hill Book Co., 568
páginas.
Rao, C. Radhakrishna (1973). Linear Statistical Inference and Its Applications. Second Edition.
New York: John Wiley & Sons, 625 páginas.
F:\INVESTIG\DIE\NT\NT95\NT0195.DOC
10