Você está na página 1de 18

ESTADlST1CA ESPAÑOLA

Val, 30, Núm. 1 18, 1988, págs. 215 a 232

Análisis factorial por componentes


principales (Algunos aspectos interesantes)

por
FERNANDO GOMEZ BEZARES
Facultad de Ciencias Económicas y Empresariales
Universidad de Deusto-Bilbao
Apartado 20044 - 48080 Bilbao

RESUMEN

Este trabajo se refiere a la utifización de! análisis de compo-


nentes principales como un sistema de análisis factorial. En este
contexto estudio algunos problemas relacionados con 1a rotacián
y la tipificacián de los factores; por otro lada propongo un siste-
ma para mantener la posición de los puntos tras la rotación y
para interpretar los correspondientes factores, con un concepto
que yo denomino "variable pura".

Pa/abras c/ave: análisis de componentes principales; análisis fac-


torial; rotación; variable pura.

Clasificación A MS 19 8 5 6 2 H 2 5.

1. INTRODUCCION

Supongamos s variables ltipificadas) con mediciones para n individuos,


tal como vienen representadas en la matriz X.

X1t ............................................. x1n

X = • ^
X .............................................. xsn
sl
E^T ^t^i^r^^ ^, E^F^^^^^^i_-^^

Es bien cflnocido que el método de componentes principales consiste en


rotar los ejes, pasando a una nueva base ortonormal, de tal manera que en
1a nueva base el primer componente (primer eje) tenga la méxima varianza
posibfe, el segundo en segundo lugar, etc. Obtenemos asi los factores F.
Para Ilegar a ese resultado diagonalizamas !a matriz RXx de coeficientes de
correlación, donde Rx,,^XDpX' y Dp es una matriz diagonal de términos 1/n
(véase p. ej. J^ireskog y otros, 1976, pégs. 41 y ss. y desde otra perspecti-
va, Gómez Bezares, 1981, págs. 249-2 53i, Obteniendo la matriz diagona!
d, donde aparecen los valores propios ^., (que son !a varianza de los facto-
res), y la matriz U con los vectores propios tipificados.

Los factores resuitantes serán F=U'X y a! ser U ortogonal (1) X=UF. En !a


rnatriz U cada término u,^ es la proyección del componente j sobre la
variabfe i.

U„ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . U ^^„
. '
• 1
us, ............................................ usm

Puede suceder que m^ s aunque expliquemos el 100°1° de la varianza,


pero para mayor claridad, pensemos que m=s. La matriz F, con el valor que
toma cada individuo en cada factor, será de^ tipo:

f„ .............................................. f^^
F
f^, ..............................................fmn

INTERPRETACION Y MEDICIC)N DE LOS FACTORES AiVTES DE


LA ROTACION

Recordemos que estos factores son ortogonafes y de varianza ^.,:

F Dp ^F' = U' X DoX' U= U' RxxU = b

Para interpretar los factores se suelen tipificar:

F* = ^1-"2 F
X= U 1^' ^^ ^-' ^2 F

Ilamando A = Ut^"2
X = AF*
•^ti.^I ISIS f^^(^T^ORIAI PC)R ( C)MPC)tiF-^ T^f^^ F'ftl`^C 1f' ^l f^ ^ ^!

Es fécil demostrar que al estar X y F* tipificados, A son coeficíentes de


correlación:

RXF. = XDpF'0-^^2 = XDpX' UA-^^2 _ RxXUO^a^z i RXxAO-^

pero A'A = 0'^2 U"Ud12 = 0


AA'=U0'^2L1"2U'=U^iU'=Rxx
AL1-' _ (AA")-' AA'AO-' _ ( Rxx)-' A

luego RXf. = A
Puedo medir F*, tendré:

F* = 0-^^a U'X = 0-' A'X = A' { Rxx)-' X

Ha sido bastante usual interpretar y medir F*, normalmente sin agatar


todos los componentes sino sólo los más importantes {los primeros); es el
método de análisis factorial por componentes principales (véase p. ej. Nar-
vaiza, 1981). Nosotros vamos a supaner que utilizamos los m componen-
tes, estudiando ^o que pasa con las mediciones.
En muchas ocasiones se ha razonado en análisis factorial sobre el espa-
cio de los individuos, donde variables y factores son vectores de longítud
^
igual a su desviación típica por y n. Los éngulos que forman dichos vecto-
res, indican s^^s coeficientes de correlación (concretamente sus cosenos).
De ahí la costumbre de denominar ortogonales a los factores, cuando su
correlación es cero. Sin embargo, en dicho espacio, las mediciones de los
individuos se ven con menor claridad. Por esta razón, es conveniente en
nuestro caso, razonar sobre el espacia de las variables. En dicho espacio
tenemos la nube origina! de puntos, que tal como aparece en la matriz X,
representamos en la figura 1(con la limitación de sólo usar dos variables).

Figura 1
E.ST.^[)I^T ICA E^F' ^^iC)LA

La nube de la figura, alargada en sentido diagonal, indica una correlacián


entlr-e las variabCes. Haciendo el cambio que antes comentábamos, los
valores de X en la nueva base serán: U'X=F, y tipificando los factores, las
mediciones son: 0^"^U'X=F*, cuyos valores en la base de partida serán;

Y=UF'=Ut^^'^2U'X

En la figura 2 aparece la nube X y la Y {que es la más redondeada).

Figura 2

La nube Y, es una nube de variables tipificadas y con correlación cero:

Y DpY' = U t1-' ^2 U' X DP X' U 0^ "2 U' = I

De todo esto podemos sacar algunas consecuencias: Dado que los facto-
res se interpretan en base a la matriz A(de coeficientes de correlación
entre X y F*), parece que ia medicián correcta es F*, que no es sino ei
resultado de cambiar de base la nube deformada Y. Sin embargo este
sistema tiene como inconveniente que no mantiene la distancia (geométri-
ca) entre los individuos, al haberse deforrnado la nube de puntos, apare-
ciendo entre eilos la distancia de Mahalanobis (2). La utilización de estas
mediciones o puntuaciones, tiene las ventajas e inconvenientes de la antes
cornentado, en función de ia distancia que se considere más conveniente
utilizar.
Afortunadamente, también podemos usar como medicián la matriz F. En
efecto, la diferencia entre F y F* es sálo un cambio de escala (una para
cada factor) y así tenemos que:

RXF = XDPX' ULi-"2 = RXXALI-' = A


.AtiALISIS E=A(`TORIAL POR COMPC)tiEtiTE^S PRI^+( IF'ALE.S ?^9

Luego interpretando con A podemos medir F.


En consecuencia, y con la misma interpretación (dada por A}, se puede
escoger entre las dos formas de medición aquella que más convenga,
según las características del problema. En mi opinión la medición con F
resulta más clara para la utilización posterior de las puntuaciones, pero ésta
no es una afirmación absoluta.

3. INTERPRETACION Y MEDICION TRAS LA ROTACION

Podemos hacer una rotación ortogonal (p. ej. varimaxf en realidad una
segunda rotación, pues la primera ha consistido en pasar de los ejes
originales (variables} a los componentes (U} . Esto representa un nuevo
cambio de base. Sea T la matriz de proyecciones de los nuevos ejes, sobre
los preexistentes (U). Las proyecciones sobre los originales serán: UT.
Utilizando el cambio de base propiciado por la matriz T podemos medir
la nube original (X} o la deformada (Y}; Ilamando L al primer sistema de
mediciones y M* al segundo:

L=T'U'X
M*= T" U" Y= T" U" U o-' ^2 U" X= T' a-^ A" X= T' A' ( Rxx)-' X

Llamando B=A.T, M*=B'(Rxx)-' X, forma tradicional de medir los factores


tras la rotación. Estos factores tienen correlación cero y varianza igual a
uno.

M* DpM*' = B'(Rxx}-' XDp X' (Rxx}-^ B= T'A'(Rxx}-^ ÁT = I

La matriz B nos da los coeficientes de correlación variables-factores:

RxM. = X DP X' ( Rxx1-f g= B

También podemos ver que:

BB'=ATT'A'=AA'=R xx

además como M*=B'(Rxx}-' X, premultiplicando por B y por (BB'}-' --^


X=B M*. Pero también sucede que X=A F*=ATM *. Vemos en consecuencia
que la matriz B mantiene, tras la rotación, muchas de las propiedades de la
matriz A. Nos sirve para interpretar los factores M*, que al ser el resultado
de cambiar de base la nube deformada (Y), tienen los inconvenientes
asociados a ésta.
^ ^O E ^ 1^ ^^t)i^ [ Et -^ E ^;F'-^^lll ^^

Pero quiz^ sea conveniente e! detenernos un poco en la utilidad de la


rotación, antes de seguir adelante. EI método de componentes principales
pretende encontrar unos factores que, en orden decreciente, vayan expli-
cando el maximo de variabilidad posible del problema. Aquí hemos supues-
to que utilizamos todos los componentes y que éstos son tantos como las
variables (y así seguiremos actuando de momento para mayor claridad del
desarrollo^, pero en la pr^ctica lo normal es quedarse con los primeros
componentes (los que más varianza explican^ y despreciar los menos im-
portantes. De esta manera reducimos el número de dimensiones del pro-
blema, perdiendo el minimo posible de explicación. Los componentes rete-
nídos definen un espacio, pero en muchas ocasiones su interpretación no
es fácil, por lo que se pracede a una rotación, que sin variar la explicación
total, facilite la conceptualización de los factores.

Sin embargo, la rotación hace que se pierdan algunas de las propiedades


de los componentes originales, y así, la relación existente entre F y F* antes
de la rotación, no se da entre L y M*. En efecto:

RFF_ !^"^^^ U-XDp X'(Rxxl-^ A= L^^ "^^2 U^A = I

pero la matriz de varianzas y covarianzas de L es:

L Dp L` = T' U' X DpX' U T= T' U' RXX U T= T' dT

que ni es diagonal, ni tiene unos en la diagonal principal. Si Ilamamos G a


ia diagonal principal de T'^T, tendremos (3 ^ :

R^M. = G-^^z -1-• U-XppX• (Rxx}-^ A-T ` G-^^2 -T^ ^^^2 -T-

Se nos plantea, en consecuencia, el problema de interpretar los factores


L, resultado de medir sobre los ejes factoriales rotados ia nube original.
Entre las distintas posíbilidades se puede plantear la siguiente ( 4): calcule-
mos la matriz de covarianzas entre L e Y.

YDPb' = Ud""2U'XDpX'UT = U^1 "^U'R,^xUT = UL1^"2L1T = AT = B

Nos podemos preguntar si es posible interpretar con B. En primer lugar, el


que se trate de una matríz de covarianzas, en vez de una de coeficientes de
correlación, no es problema, pues la de coeficientes de correlación sería
B G""^, lo que implica dividir !as covarianzas correspondientes a cada factor
por su propia varianza; en definitiva, un cambio de escafa que no afecta a la
importancia relativa de las variables en los factores.
AtiAI_ISIS F^^^(°T^C)RIAL. POR (^O!^1P0;'^E^.ti^T^E^ PRIti(^I^'•1l,E^S

Con todo, es imprescindible aclarar el significado de Y para poder hacer


una interpretación correcta. En la figura 2 podemos ver que Y es una nube
deformada por la tipificación de los componentes F, al convertirlos en F*.
Vamos a raionar intuitivamente este proceso: los individuos cercanos al eje
del factor uno ^como I, en la figura 3j, se trasladarán a lo largo del eje,
variando su medición en una cantidad parecida en ambas variables. Estos
individuos los podemos denominar normales, pues tienen valores similares
en ambas variables, que est^n correlacionadas.

Figu ra 3 V
1

EI individuo 12, por el contrario, es un individuo "anormal", pues tiene un


alto vafor en V2 que no se corresponde con su bajo valor en V,; su trasiado
lo Ileva a mantener un valar relativamente alto en V2, pero negativo en V,.
Esto lo podemos interpretar como que hemos "depurado" los efectos de
las variables, y el individuo 12 se ha quedado con valores negativos en V,, al
quitarle el efecta de V2. En cansecuencia, las variables de la nube Y
podemos denominarlas variables puras. La matriz B da, en consecuencia,
las relaciones entre los factores L y las variables puras, lo que justifica
utilizarla para la interpretación.
Podemos tratar de Ilegar a la matriz Y por otro camino. Partiendo de que
tenemos una matriz X, si deseamos eliminar las influencias lineales que
unas variables tienen sobre otras, habremos de buscar una matriz cuadrada
Z que dé lugar a una transformación iineal tal que Y=ZX, y que consiga
que:

Y DPY' = Z X DpX' Z' = Z R XXZ' = I


r i i E=S T^f)I5T I( 1 E SP4`tiOL.A

Construyamos Q=ZU^l12 -^-^ Z=Q11^12U'; sustituyendo arriba llegamos


a Q! Q'=1 --^ que Q es ortogonal, luego es una matriz de cambio entre
bases ortonormales. Cuaiquier matriz ts.sl ortogonal Q, convertida en Z,
permite transformar X en Y, de manera que las nuevas variables no tengan
carrelación. Esto es lógico, pues tal como lo hemos expuesto parece indife-
rente la posición de Y, sin embargo esto no es cierto si deseamos que Y se
mida sobre las ejes sobre los que antes mediamos X. En 1a composicián de
Z tenemos una parte (1^^'^2U'} que rota y tipifica, luego para que Q consiga
que se vuelva a medir sobre los ejes iniciales haremos Q=U, luego
Z=Ut^^"?U`.
Puede ser interesante observar que la relación entre los factores medidos
antes de rotar y las variables puras da:

RYf = U^S-ri^U`XDpX'U1^-"2 _ U

y la matriz de covarianzas es A. Utilizar U para la interpretación na afecta a


la importancia relativa de las variables en el factor, pero dará mayor clari-
dad relativa a los factores menos importantes, al ser sus coeficientes
comparativamente mayores.

4. BREVE VISION EN EL ESPACIO DE LOS INDIVIDUOS

Hasta ahora hemos razonado en el espacio de las variables, donde los


individuos se su^len representar como una nube de puntos. Pero todo esto
se puede hacer en el denominado espacio de los individuos. En efecto, en
tal espacio podemos representar las variables como vectores, cuyo coseno
indica su coeficiente de correlación ( véase p. ej. Gámez Bezares, 1981,
pág. 255i y su longitud es ^n por su desviacián típica (en nuestro caso ^ ñ
al estar tipificadasj. ^a práctica habitual vista en este espacio es la siguien-
te: los componentes principales son vectores ortogonales que maximizan
las proyecciones de las variables al cuadrado, es decir, la variabilidad que
de ellas explican ( véase Gómez Bezares, 1981, pégs. 251-252}, obtenién-
dose también en orden decreciente de expiicación y Ilegando en conse-
cuencia a los mismos resultados que antes: F^U'X. Igualmente los pode-
mos tipificar, iiegando a F*. X=A F* nos permite representar las variables en
el espacio de los factores; A contiene los coeficientes de correlación, que
son cosenos y, en consecuencia, son las coordenadas de las variables en
los factores ( 5 ).
Si deseamos hacer una rotacián ortogonal, una vez tenemos los factores
tipificados, podemos definir sobre ellos una matriz de rotación T con las
proyecciones de los nuevos ejes sobre los anteriores, de manera que las
^NALISIS f^AC'TORIAL POR C'C7MPC1^lENTES PRIti('IP,ALfwS 2?i

coordenadas de las variables en los factores rotados serán AT=B. Los


métodos de rotación tratan de buscar una B que facilite la interpretación
de los factores. B nos da también los coeficientes de correlación, los
cosenos y las coordenadas de las variables en los nuevos factores M*;
luego, X=B M*. Podemos hacer: X=AT Atl *, T' (A' A1^' A' X=M * y operando se
Ilega a M*=B' 1RXX)^' X, lógicamente igual que antes.

La otra variante de rotacián que hemos planteado es mantener la nube .,-


original y rotar ortogonalmente los factores en el espacio de las variat^les,
es lo que hemos hecho con nuestra medición L^T' U' X, aunque al dar
factores correlacionados, la rotación no sea ortogona! en el espacio de los
individuos.
Existen otras posibilidades de rotación, como es el caso de rotar oblicua-
mente los factores tipificados F*. De esta rnanera se puede, algunas veces,
mejorar bastante la interpretaci©n, pero también tiene su ^ inconvenientes,
en cuyo estudio no entramos ahora.

5. CONCl.USIONES

Esquematicemos las posibilidades aquí estudiadas:


- En la medición podemos utilizar la nube original o la deformada, cada
una con sus características.
- Antes de rotar, la interpretación de los factore^ es igual con ambas
mediciones, tanto si utilizamos:

RxF = Rxf• A

que es la forma tradicional, como si Io hacemos con las variables puras:

R ,,F = R ,,F. = U ^

- Después de rotar, podemos medir la nube deformada, tendremos:

M* = T' U'Y

Rx,^,t.=B=AT

si deseamos interpretar respecto a las variables puras:

R,,M. = Y DPY' U T= UT
T^>U!ti l 1(:' ^ E^P> tiC^l 1

- También, después de rotar, se puede medir la nube origindl, así:

L = T^ U' X

para interpretar respecto a las variables originaies, haremos:

RxC = XDp^C' UTG-^^z = RXXuTG-^^^ _ RXXA^-f^^-TG-^^2


= AL^^i^?-^-^i2 _ BT'^ri^-TG-^i^ .

para hacerlo respecta a las variab^es puras:

R,,^ = U L1' ^2^ T^-' ^2 = B G-"^

A^a hora de la práctica, cada problema tendrá un método que resulte


más ventajoso, si bien en muchas ocasiones no es fácil optar por uno o por
otro. Intentaré, a pesar de la dicho y con el consiguiente riesgo de error,
dar algunas pautas que puedan orientar al lector.
Para medir, la nube original suele ser rnés útil que la deformada, por lo
que personalmente me inclino por usar principalmente la primera.
Respecto a la interpretacián, es importante resaltar que "no estamos
ante una ciencia exacta" y que el analista influye poderosamente, con sus
propias percepciones, en el nombre o contenido que se da a1 factor. Tradi-
cionalmente se ha usado la matriz de coeficientes de correlación con X,
pero puede ser también interesante, ver lo que sucede en la matriz de
correlaciones can Y.
En defínitíva, la ínterpretación que se haga respecto a las variables puras,
puede aclarar y mejorar fa conceptualízación de los factores. Si creo que es
importante observar que con !a nube original, los factores parece correcto
que tengan una claridad conceptual similar, después unos tendrán más
variabilidad que otros. Con la nube deformada, todos los factores tienen la
misma variabilidad, luego parece lógico que unos tengan correlaciones más
^mportantes que otros.

Antes de la rotación la interpretación es casi igual, pero aplicando lo


antedicho, yo me inclinaría por usar:
F* con A
F con U = At^-"2
Después de rotar, ya hay más diferencias y dependerá de las preferencias
del analista por usar variables puras u originales, pero dado que los progra-
,Ati ^t^ISIS f,^(^TC)RIAL. POR C'()ti1P()tiE^TE.S F'RIti( IP ^LE:^i

mas actuales de ordenador dan normalmente la matriz B y por el principio


antes comentado de diferencias en la interpretacián según se use nube
original o deformada, yo aconsejaría:
M* con B
L con BG-"2
La lógica de este sistema creo que es importante: antes de rotar, si mido
F`, donde todos los factores tienen igual varianza, !a diferente importancia
entre unos y otros vendr^á reflejada por la importancia de sus correlaciones
en A; si neutralizamos este efecto usando U, la diferente magnitud se verá
en sus varianzas. Después de rotar, además de lo dicho, aparece que si
usamos variables puras, habrá correlación entre los factores, en caso con-
trario no.
Puede ser interesante destacar que, si utilizamos sólo urios pocos facto-
res, la explicación que consigue cada factor de L del modelo de las varia-
bles puras queda bastante reducida al multiplicar B por G-"2, esto es lógico
al ser las variables puras ortogonales. Pero la explicación del modelo origi-
nal se mantiene (6).

Con todo esto he tratado de dar una visión sobre algunas posibilidades
que yo creo que existen para medir e interpretar los factores, sobre tado
tras una rotación.

6. EJEMPLO

Tal vez todo lo anterior pueda verse más claramente si añadimos un


ejemplo que, sin entrar en un análisis exhaustivo, permita ver las diferen-
cias de interpretación que se dan si usamos variables puras y originales.
Partimos de unos datos políticos y econámicos de la España de 1979,
cuando se celebraron las primeras elecciones tras la constitución de 1978.
Tomamos tales datos en 36 provincias ( eliminando aquellas en las que
fueron importantes los partidos nacionalistas), Realizando un análisis facto-
rial por componentes principales Ilegamos a la matriz A(véase el cuadro de
resultados). EI primer factor tiene un valor propio de 6,043 (explica el
46,48%), el segundo factor tiene un valor propio de 2,849 ( explica el
21,92 %1. Por ser sobradamente conocido no entramos en la interpretación
de estos factores. Si para rotar decidimos rnantener la nube original ha-
ciendo L=T' U' X, podemos interpretar en función de las variables puras
Imatriz B, ya hemos comentado que se puede suprimir G-'^2) 17 ) ó de las
originales (matriz BT'd"2TG-"2), vamos a comentar las diferencias rn^s
apreciables a la vista de los datos: En cualquiera de los dos casos el primer
?2b F.ST ^ f^ISTI(.':1, E:SPA'ti()t.,A

factor es agricola y pobre con fuerte rechazo a"otros izquierda" que es


b^sicamente la extrema izquierda; pero al analizarlo respecto a las variables
puras se aclaran los elementos políticos, así disminuye el centrisrno y
aumenta el rechazo a la derecha (alianza popular y otros, siendo estos
últimos básicaménte extrema derecha), desapareciendo el rechazo a socia-
listas y comunistas. Todo esto es lógico pues hay una asociacián r' zquierda-
centros industriales, que e! uso de variables puras permite aislar. P©r el
contrario el mantenimiento del rechazo a la extrema izquierda hace pensar
que realmente es un elemento característico dei factor. También pierden
importancia las variables de población, y se decanta como lo más determi-
nante del factor la pobreza, si bien asociada a una población agricola y
regresiva, y con un fuerte rechazo a la extrema izquierda.
EI segundo factor es, en ambos casos, un factor político de centro-
derecha con connotaciones de población rural y decreciente; pero al usar
variables puras se acentúa el contenido político del mismo, disminuyendo
la importancia de las variables de población e incluso, cambiando el signo
de algunas variables poco importantes ( las de riqueza) que antes se veían
arrastradas por su correlacián con las demás.

En conclusión vemos que si optamos por el uso de la nube original tras


la rotacián ( Lj, la utilización de B para la interpretación puede resultar más
clara y esto sin entrar en las propiedades interesantes que tiene B(algunas
ya hemos comentadoj y que no tiene BT`d"2TG^"2. Por lo tanto el uso de
las variables puras parece interesante.

CUADRO DE RESULTAD^S

V^4RIABLE N.^
% VOTOS CENTRO (UCDÍ 1
% VOTOS SOCIALI STAS 2
°1o VOTOS CO M U N I STAS 3
% VOTOS ALIANZA POPULAR 4
% VOTOS OTROS DERECHA 5
% VOTOS OTROS IZQUI ER DA 6
INCREMENTOS DE POBLACION ( 1968-1978) 7
DENSIDAD DE POBLACION 8
POBLACION URBANA/POBLACIOIV RURAL 9
% POBLACION ACTIVA EN LA AGRlCULTURA 10
% POB LACION ACTIVA EN LA I N DUSTR IA 11
RENTA PER CAPITA 12
INGRESOS MUNICIPALES 13
ANALISIS FAC'T()RIAL PC)R C'OMPONEtiTES PRIti( (P4C_ES 2?7

MATRIZ A MATRIZ B MATRIZ 6T' ^"? TG-'^2


0,7512 0,4671 0,2805 0,8389 0,4219 0,8764
-0,5399 -0,7186 0,042 6 -0,8978 -0,114 -0,8742
-0,5253 -0,7097 0,0482 -0,8816 -0,1(J58 -0,8573
0,2621 0,5853 -0,1715 0, 617 9 -0,0615 0,5753
-0,2177 0,3 592 -0,3967 0,1378 -0,3667 0, 0 617
-0,7434 0,388 -0,8199 -0,1754 -0,$377 -0,3246
-0,92 64 -0,0136 -0,7046 -0,6014 -0,7983 -0, 7 218
-0,7084 -0,0058 -0,5418 -0,4563 -0, 612 7 -0,549
-0,8924 -0,2203 -0,5466 -0,7389 -0,6666 -0,8276
0,9245 -0,095 0,7 724 0,5166 0,8503 0,651
-0,7238 0,3905 -O,S064 -0,161 -0,8219 -0,308
-0,6236 0,6689 -0,9068 0,1 17 3 -0,8724 -0,0531
-0,5644 0,5749 -0,8012 0,082 7 -0,7745 -0,0676
NOTAS
(1) Matriz ortogonal, es aquella matriz cuadrada Q tal que Q'Q = I, con sus correspondien-
tes propíedades. También se usa ^ el término ortogonal para indicar perpendicularidad geomé-
trica; en este sentido dos vectores son ortogonales cuando su producto escalar es cero. En
este último sentido los factores son ortogonales, pues FF' es una matriz diagonal. Finalmente
diremos que una rotacián es ortogonal cuando se hace entre bases ortonormales.
(2) F'=0`^^2U'X; la distancía (al cuadrado) entre dos puntos i y j será: D2 =(f;-fi)' (f;-f^^ ,
donde f; es la columna correspondiente al individuo i en 1a matriz F'. Operando: D^=
(X;-X^ ^ 'U^^rU'(X;-X^), donde X, es la correspondiente columna de la matriz X. Operando se
puede ver que U^`' U' _(U^U'}^' =(AA')^^ _ {Rxx)`', así DZ =(X;-X^)' (RXX)^1(X;-X^1, que es la
distancia de Mahalanobis con variables tipificadas.
(3) Respecto a lo que significa G, es fácíl ver que T'dT=B'B, en consecuencia tenemos en
la diagonal principal !as capacidades explicativas de los factores M', coincidentes con las
varianzas de L. De la misma manera que las capacidades explicativas de F^, que son A'A=L1,
coinciden con las varianzas de F.
(4) Esta solucián, como la propia medición de L, no la he visto tratada por otros autores,
por lo que creo que puede resultar novedosa. En consecuencia hay que asumir mayores
posibilidades de error, aunque creo que los razonamientos que siguen pueden resultar bastante
convincentes.
(5) En realidad habría que multiplicar por v' n, pero esto no afecta a los razonamientos.
. (6) Esto se puede ver claramente en el espacio de las varíables; si despreciamos los
componentes menos importantes, el problema pierde dimensiones, y no se explica el 100% de
la varianza. AI rotar la explicación no varía. También vimos que las varianzas de L(G) coinciden
con la diagonal principal de B'B {donde están las capacidades explicativas de M`) cuya traza
coincide con la de A'A -pues AA'=B B'--- en cuya diagonal principal están las capacidades
explicativas de F", que son varianzas de F. .
(7) AI multiplicar por G-r^2 se equilibran los coeficientes, bajando en los factores más
importantes y viceversa, ya hemos justificado esto. Pero al no afectar a los pesos relativos
dentro del factor, se puede suprimir, y basta con mantener ia idea. Además así sus coeficientes
son más comparables con los de BT'd^^2 TG^^^2.
F^^^ T^^C^IS^^{(^^ F^tiP:^^C)LA

7. APENDICE GRAFICO

Supongamos dos variables (para facilitar su representacián) y vamos a


presentar el problema tanto en el espacio de ias variables como en el de
los individuos. En la figura 4 hemos obtenido y medido los factores en el
espacio de las variables.

Figura 4

En la 5 tenemos lo mismo tipificado, por lo que F pasa a ser F* y las


variables se convierten en puras ( P1.

Figura 5
1
A^+,AI..ISIS F.AC^TC)RIAL POR C'OMPO^+EtiTES PRItiC^IPAL..E.S ?29

Estos dos planteamientos pueden verse también en el espacio de los


individuos, donde factores y variables son vectores y sus ángulos indican
los coeficientes de correlación (figura 6).

Figura 6

Aquí se puede confirmar lo dicho antes; en las figuras ^ y 5 tenemos las


dos posibles mediciones, la 6 nos puede orientar en la interpretación (se-
gún los cosenos de los ángulos que forman los vectores). F y F* tienen, en
este sentido, la misma interpretación; y ambos se pueden interpretar bien
respecto a V, bien respecto a P, en realidad es similar. Podemos decir que
el primer factor recoge la relacián positiva de V, y V2 (la más importantey y
el segundo la negativa ( menos importante) o que el factor uno recoge ese
efecto positivo ( P, con P2) y el dos el negativo ( P, contra P2), que son
igualmente claros. Parece bastante aceptable que usemos P, y P2 (con
correlaciones de igual dimensión en ambos factores) para interpretar F
(cuyas diferencias se dan en las varianzas de los factores) y al revés.
AI rotar los factores, supongamos que se identifican con las variabies. En
la figura 7 tenemos el resultado de rotar la situación de la figura 5 en
ambos espacios. En la 8, ef resultado de hacer lo propio con la 4.
?30 ES7 A[:)ISTICA ESPA!'^iOLA

Figura 7a Figura 7b

p^ c n^ ^
^

Figura 8a Figura 8b

V^ t L^ )
Ati,AI_tSfS F,4C`TUR1.4L Pt)R C^()!^1PO^•E=tiTES PRItiC^IP^^I E^ ^^^

En la figura 7 he rotado sobre la nube deformada, de manera que los


nuevos factores (M'), se confunden con las variables puras. En el espacio
de los individuos ocurre el mismo proceso. En la figura 8 el asunto es un
paco más complicado; en el espacio de las variables, simplemente hacemos
un cambio de base, confundíéndose los factores (L) con las variables (V1,
pero al no estar deformada la nube aparece la correlación entre los facto-
res, por lo que en el espacio de las individuos se da una rotación no
ortogonal (no se mantiene el caseno cero entre ambas), confundiéndose
también los factores con las variables (V).
Para interpretar, parece en principio indiferente el hablar de los efectos
puros o de los de las variables originales, con tal de hacerlo bien. Tenga en
cuenta el lector que, la identificación de variables y factores que se da en
este caso, se debe a su simplicidad, y no es general.

8. EPILOGO

De lo propuesto hasta aqu^, lo que resulta menos convencional es la


medición con L y su correspondiente interpretación, por lo que al lector
pueden quedarle algunas dudas sobre su lógica, por ello añadiré el siguien-
te razonamiento intuitivo: Pensernos que con B tradicionalmente se ha
interpretado M*, y esto no se discute. M* es el resultado de medir la nube
deformada sobre ios. factores rotados. Si ahora sobre los mismos factores
mido la nube original, no tiene por qué cambiar substancialmente su signifi-
cado, luego puedo seguir usando básicamente lo misrno.
En cualquier caso parece que lo que no ofrece dudas es la interpretación
y medición de los factores antes de la rotación. Por ello yo me inclino por
actuar así cuando sea posíble. AI rotar se cometen subjetivismos, que
aunque defendibles, siempre resultan discutibles y rnuch©s autores estén
en contra de esta posibilidad. Con todo, en ocasiones, la mejora en la
interpretabilidad de los factores justifica proceder a rotarlos.
En este artículo no me he parado en algunos aspectos interesantes de
tipo matemático, tal es el caso de la posibilidad de que RXX sea singular y
no se pueda invertir, en tal caso tendremos menos componentes que
variables... y otros temas similares. Pero esto no afecta a los razonamientos
y se sale del objetivo de este trabajo. Tampoco he tocado los aspectos
inductivos, manteniéndome a un nivel descriptivo, de simple anáiisis de
datos.
r ^r.^r^i5ric -^ r^^.^^r^t.n

REFERENCIAS

GOMEZ BEZARES , F. (1 981 j. Análisis Multivariante. Bo%trn de Estudios Econó-


micos, 1 13, 233-2 5 7.
HARMAIV, H. H. (1976^. Modern Factor Ana/ysis. Chicago: University of Chi-
cago Press.
JORESKOG, K. G., KLOvAN, .1. E. y REYMENT, R. A . { 1976}. Geo%gica/ Factor
Ana/ysis. Amsterdam: Elsevier Scientific Publishing COmpany.
NARVAIZA, J. L. (1981 }. EI Análisis Factorial. Exposición Gráfica e Intuitiva.
Boletin de Es tudios Econámicos, 1 1 3, 2 5 9-2 8 5.
TATSUOKA, M. M. (1971 ), Multivariate Analysis. New York: Wiley.

PRINCIPAL COMPONENTS ANALYSIS IN FACTOR


ANALYSIS (SOME INTERESTING ASPECTSj

SUMMARY

This paper refers to the utilization of principal components


analysís as a system of factor analysis. In this context I study
some problems related with rotation and standardization of fac-
tors; on the other hand I propose a system to maintain the
position of points after rotation and to interpret the correspon-
ding factors, with a concept that I call "pure variable".
l^ey words.• principal components analysis; factor analysis; rota-
tion; pure variable.

AMS 1985 Subject classification 62 H25.

Você também pode gostar