Você está na página 1de 40

Fundamentos matematicos de

la ingenieria I
Tema VI
Aplicaciones lineales
Valores y vectores propios
Pedro Garcia Ferrandez
Diciembre 2011
Captulo 6
Aplicaciones lineales. Valores y
vectores propios
En la primera parte de este capitulo se estudia un signicado importante de las matrices
y algunas de sus propiedades mas destacadas. En concreto, se asocian las matrices a
las aplicaciones lineales entre espacios vectoriales. Previamente es necesario establecer el
concepto de aplicacion lineal.
En la segunda parte del capitulo, se estudian los valores y vectores propios de las
aplicaciones lineales, y de las matrices asociadas, que permiten simplicar la expresion
matricial de una aplicacion lineal.
Debido a la utilizacion de los ordenadores como herramienta de calculo en multitud
de disciplinas, las matrices juegan un papel destacado en dichas herramientas de calculo.
6.1 Aplicaciones lineales
Funciones entre espacios vectoriales
El lector seguramente estara familiarizado con las funciones, para las que se utiliza habi-
tualmente la notacion f (x), por ejemplo f (x) = 3x
2
+5, en este caso es una funcion real
de variable real, lo que implicitamente signica que hay un conjunto que agrupa a todos
los valores de x posibles, variable real, y que f (x) toma un tipo de valor concreto, funcion
real. Formalmente quiere decir que debemos considerar un conjunto para los valores de
x y un conjunto para los valores de f (x), por ejemplo diremos que estamos estudiando
una funcion denida en el intervalo [0, 1] de modo que para cada valor de x entre 0 y 1 el
valor de la funcion f (x) vale el numero real 3x
2
+5, todo esto se resume con la siguiente
simbologia
[0, 1] R
x f (x) = 3x
2
+ 5
una funcion abstracta de este tipo se dene en un conjunto S de numeros reales y para
cada valor de x S la funcion toma un valor f (x) que es un numero real, la notacion
para esta funcion generica es
S R
x f (x)
1
En los ejemplos precedentes tanto x como f (x) son numeros reales, pero podriamos
imaginar que nos interesase trabajar con vectores, es decir que x fuese un vector de un
espacio vectorial V y f (x) fuese un vector de otro espacio vectorial W lo que se indica
con la notacion
V W
x f (x)
o si nos gusta mas, podriamos llamar u al vector, con lo que utilizariamos la notacion
V W
u f (u)
un ejemplo concreto de una funcion de este tipo podria ser el siguiente, consideremos
vectores u de R
3
de modo que dado u = (x
1
, x
2
, x
3
) el valor de f (u) es el vector
(x
1
+x
2
x
3
, x
2
1
+x
2
2
+x
2
3
) de R
2
la notacion utilizada en este caso es
R
3
R
2
u f (u)
con
u = (x
1
, x
2
, x
3
)
f (u) =

x
1
+x
2
x
3
, x
2
1
+x
2
2
+x
2
3

de modo que para u = (1, 1, 2) el vector



1 + (1) 2, 1
2
+ (1)
2
+ 2
2

es su imagen
f (u), es decir f (u) = (1, 6).
Cuando se considera una funcion abstracta cualquiera entre R
3
y R
2
se indica con la
notacion
R
3
R
2
u f (u)
y, como se vio mas arriba, cuando se considera una funcion abstracta entre dos espacios
vectoriales cualesquiera V y W se indica por
V W
u f (u)
que lo que nos dice es, que nos interesa trabajar con vectores de V y que los valores de la
funcion
1
son vectores de W.
1
Es importante recordar que para que f sea una funcion se deben de vericar dos condiciones
1.- para cualquier vector u de V debe poder obtenerse f (u)
2.- solo debe de haber un valor posible para f (u)
2
Aplicaciones lineales
Una funcion real muy simple, esta denida en todo R, es r (x) = ax que corresponde a
una recta que pasa por el origen, esta funcion tan simple tiene mas utilidad de la que a
primera vista parece, pues casi cualquier funcion que pase por el origen f (x) se puede
aproximar por dicha ecuacion lineal, como se aprecia en el graco siguiente



0
2
0
Aproximacion lineal de una funcion
x
y
funcion
aproximacion
en el que se han representado las funciones
f (x) =

1 cos x
r (x) =

2
2
x
si se representan las funciones en un intervalo mas pequeo, ambas gracas practicamente
coinciden



0
0.4
0 0.6
Aproximacion para valores pequeos de x
x
y
funcion
aproximacion
Cuando en matematicas o en sica se sustituye una funcion cualquiera f (x) por su apro-
ximacion lineal r (x) se dice que se ha linealizado el problema.
En sica hay multitud de casos en los cuales una funcion lineal sirve para describir un
fenomeno real, por ejemplo la ecuacion lineal
F = ma
sirve para describir la ley de aceleraciones que sigue una particula de masa m cuando se
ve sometida a una fuerza F que no cambia de direccion.
La ecuacion
= E
3
llamada ley de Hooke, es la linealizacion de la ecuacion = f () que describe el compor-
tamiento de una barra na sometida dos fuerzas iguales y de sentido contrario aplicadas
en sus extremos, que provoca que en la barra se produzca un alargamiento. Donde es la
tension a la que esta sometido el material, es igual a la fuerza dividida por la seccion de
la barra
2
y es la deformacion unitaria, alargamiento divido por la longitud de la barra
y E es el modulo de elasticidad longitudinal o modulo de Young que depende del mate-
rial del cual este realizada la barra. La linealizacion es solamente valida para pequeas
deformaciones.
Cuando se trabaja con funciones entre espacios vectoriales, tambien son extraordina-
riamente interesantes las funciones lineales, por motivos similares a los expuestos para el
caso de funciones escalares.
Cuando los vectores u y f (u) son elementos de R
n
y de R
m
respectivamente, la gene-
ralizacion natural de la ecuacion lineal y = ax en R, es la ecuacion matricial
Y = A X
donde X es la matriz columna con las componentes del vector u e Y es la matriz columna
con las componentes del vector f (u) y A es una matriz de orden m n que dene la
funcion.
Es decir, la funcion vectorial
R
n
R
m
u f (u)
llamando u = (x
1
, x
2
, . . . , x
n
) y f (u) = (y
1
, y
2
, . . . , y
m
), esta denida por la ecuacion
matricial
_

_
y
1
y
2
. . .
y
m
_

_
=
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
m1
a
m2
. . . a
mn
_

_
x
1
x
2
. . .
x
n
_

_
Los ejemplos concretos de funciones de este tipo, son tan simples como en el caso la recta
y = ax, la ecuacion matricial
_
_
y
1
y
2
y
3
_
_
=
_
_
1 2 3 1
4 1 2 1
5 2 7 3
_
_

_
x
1
x
2
x
3
x
4
_

_
dene una funcion lineal
R
4
R
3
u f (u)
el lector no deberia de tener dicultad en obtener las ecuaciones escalares que permiten
calcular y
1
, y
2
, y
3
en funcion de x
1
, x
2
, x
3
, x
4
.
En sica hay dos ejemplos muy importantes de funciones de este tipo, en ambos casos
son funciones
R
3
R
3
u f (u)
2
Supuesta una distribucion uniforme de tensiones en toda la seccion de la barra.
4
la primera de ellas esta denida por la ecuacion matricial
_
_
F
x
F
y
F
z
_
_
=
_
_
m 0 0
0 m 0
0 0 m
_
_

_
_
a
x
a
y
a
z
_
_
que describe el movimiento de una particula de masa m sometida a una fuerza (F
x
, F
y
, F
z
)
en el espacio que se mueve con una aceleracion (a
x
, a
y
, a
z
).
La segunda de ellas esta denida por la ecuacion
_
_
L
x
L
y
L
z
_
_
=
_
_
I
xx
I
xy
I
xz
I
xy
I
yy
I
yz
I
xz
I
yz
I
zz
_
_

_
_

x

z
_
_
que relaciona el momento cinetico o momento angular (L
x
, L
y
, L
z
) de un solido que gira en
el espacio con la velocidad angular (
x
,
y
,
z
) a la que gira. Como se vera mas adelante
escogiendo adecuadamente la base de referencia, en particular tomando como vectores
de la base los ejes principales de inercia, la ecuacion anterior admite una expresion muy
simple
_
_
L
x
L
y
L
z
_
_
=
_
_
I
xx
0 0
0 I
yy
0
0 0 I
zz
_
_

_
_

x

z
_
_
Es costumbre llamar aplicaciones lineales a las funciones lineales entre espacios vec-
toriales.
Teniendo en cuenta las propiedades del producto de matrices, similares a las del pro-
ducto de escalares, si llamamos
Y
1
= A X
1
Y
2
= A X
2
se verica
Y = A (X
1
+X
2
) = A X
1
+A X
2
= Y
1
+Y
2
Y = A (X
1
) = (A X
1
) = Y
1
lo que traducido a notacion vectorial se escribe
f (u
1
+u
2
) = f (u
1
) +f (u
2
)
f (u
1
) = f (u
1
)
las dos propiedades anteriores son la esencia de una aplicacion lineal entre espacios vec-
toriales, de hecho son los unicos requisitos que debe de cumplir una funcion o aplicacion
entre dos espacios vectoriales abstractos para que sea una aplicacion lineal, lo que se
recoge en la siguiente denicion.
Denicin 6.1 Sean dos espacios vectoriales V y W sobre un mismo cuerpo K, una
funcion o aplicacion
V W
u f (u)
5
se dice que es una aplicacion lineal entre los espacios vectoriales V y W si se verica
f (u +v) = f (u) +f (v)
para cualesquiera vectores u, v V y , K.
Dando a los escalares los valores = 1, = 1 de la denicion se deduce f (u +v) =
f (u) + f (v) y dando el valor = 0 se obtiene f (u) = f (u), que son las propiedades
mencionadas anteriormente.
Conjunto imagen de una aplicacion lineal
En general, no todos los vectores del espacio vectorial W son la imagen f (u) de algun
vector u del espacio V , por ejemplo, para la aplicacion lineal
R
2
R
3
(x
1
, x
2
) (2x
1
, x
1
+x
2
, 0)
cuya ecuacion matricial es
_
_
y
1
y
2
y
3
_
_
=
_
_
2 0
1 1
0 0
_
_

x
1
x
2

los vectores (1, 1, 1) y (3, 4, 2) no son la imagen de ningun vector (x


1
, x
2
) dado que la
tercera componente no es igual a cero.
Resulta interesante conocer cuales de los vectores de W son imagen de algun vector
de V , al conjunto de dichos vectores se llama imagen de la aplicacion lineal
Im(f) = {f (u) , u V }
Dada la linealidad de la aplicacion se verica, en general, que el conjunto imagen es un
subespacio vectorial de W, y cuando el espacio V es de dimension nita, ademas que, el
conjunto imagen Im(f) esta generado por el sistema formado por las imagenes de una
base cualquiera {e
1
, e
2
, . . . , e
n
} del espacio V , es decir,
El conjunto imagen Im(f) es el subespacio vectorial de W generado por
{f (e
1
) , f (e
2
) , . . . , f (e
n
)}
Es sencillo comprobar esta ultima armacion, dado que cualquier vector de u V se
puede expresar como combinacion lineal de los vectores de la base
u = x
1
e
1
+x
2
e
2
+. . . +x
n
e
n
por lo que cualquier vector w = f (u) de Im(f) se puede escribir como
f (u) = f (x
1
e
1
+x
2
e
2
+. . . +x
n
e
n
) = x
1
f (e
1
) +x
2
f (e
2
) +. . . +x
n
f (e
n
)
En el ejemplo anterior, el conjunto imagen de la aplicacion, lo forman los vectores
Im(f) =

(2x
1
, x
1
+x
2
, 0) , (x
1
, x
2
) R
2

6
es decir, los vectores de la forma
(2x
1
, x
1
+x
2
, 0) = (2x
1
, x
1
, 0) + (0, x
2
, 0) = x
1
(2, 1, 0) +x
2
(0, 1, 0)
o lo que es lo mismo, los vectores de R
3
que son combinacion lineal de {w
1
, w
2
}, con
w
1
= (2, 1, 0), y w
2
= (0, 1, 0), es decir Im(f) es el subespacio generado por los vectores
{w
1
, w
2
}.
Dado que e
1
= (1, 0) y e
2
= (0, 1) se verica
f (e
1
) = f (1, 0) = (2, 1, 0) = w
1
f (e
2
) = f (0, 1) = (0, 1, 0) = w
2
luego Im(f) es el subespacio generado por los vectores {f (e
1
) , f (e
2
)} como se vio en el
caso general.
En este ejemplo, los vectores {(2, 1, 0) , (0, 1, 0)} son linealmente independientes, luego
forman una base del conjunto imagen, que por lo tanto es de dimension 2. Como se vera
mas adelante, este numero aparece con frecuencia cuando se estudian aplicaciones lineales,
por lo que se da la siguiente denicion.
Denicin 6.2 Se llama rango de una aplicacion lineal a la dimension del conjunto ima-
gen de la aplicacion.
Puesto que el conjunto imagen es independiente de las bases que se esten considerando,
la dimension del conjunto imagen tambien lo es y por tanto, el rango de la aplicacion lineal
es independiente de las bases consideradas.
El anterior razonamiento quiere decir que si se considera una base {e
1
, e
2
, . . . , e
n
} de V ,
el rango de la aplicacion lineal es el numero r de vectores linealmente independientes que
hay en el sistema {f (e
1
) , f (e
2
) , . . . , f (e
n
)} de vectores de W, ahora bien si se considera
otra base cualquiera {e
0
1
, e
0
2
, . . . , e
0
n
} de V , como el rango de la aplicacion lineal es unico,
el sistema {f (e
0
1
) , f (e
0
2
) , . . . , f (e
0
n
)} tiene el mismo numero r de vectores linealmente
independientes.
Se llama la atencion, en el ejemplo precedente, sobre el hecho de que el conjunto imagen
esta generado por los vectores {(2, 1, 0) , (0, 1, 0)} que son las columnas de la matriz que
dene la aplicacion lineal respecto de las bases de referencia, en el ejemplo, las bases
canonicas de R
2
y R
3
. Por tanto, en este caso, el rango de la aplicacion lineal coincide
con el rango de la matriz que la dene.
Como se ve mas adelante, este resultado es valido para cualquier aplicacion lineal
sobre espacios de dimension nita, ademas como la dimension del conjunto imagen es
independiente de las bases escogidas, todas las matrices asociadas a una misma aplicacion
lineal respecto de distintas bases tienen el mismo rango e igual al rango de la aplicacion
lineal.
6.2 Matriz asociada a una aplicacion lineal
Como se ha visto mas arriba, una aplicacion lineal f : R
n
R
m
esta denida por una
matriz de orden mn, a continuacion vamos a comprobar que este resultado es aplicable
a cualquier aplicacion lineal abstracta denida entre espacios vectoriales de dimension
nita, es decir, que jadas unas bases de V y W cualquier aplicacion lineal f : V W
7
esta denida por una matriz de orden mn, siendo n y m las dimensiones de los espacios
V y W respectivamente.
Sean B
V
= {e
1
, e
2
, . . . , e
n
} y B
W
= {f
1
, f
2
, . . . , f
m
} dos bases respectivamente de V y
W, y sea una aplicacion lineal
V W
u f (u)
se puede escribir
u = x
1
e
1
+x
2
e
2
+. . . +x
n
e
n
f (u) = y
1
f
1
+y
2
f
2
+. . . +y
m
f
m
teniendo en cuenta la linealidad de la aplicacion resulta, como se vio con anterioridad,
que
f (u) = f (x
1
e
1
+x
2
e
2
+. . . +x
n
e
n
) = x
1
f (e
1
) +x
2
f (e
2
) +. . . +x
n
f (e
n
)
ahora bien los vectores f (e
1
) , f (e
2
) , . . . , f (e
n
) se pueden expresar como combinacion
lineal unica de los vectores de la base {f
1
, f
2
, . . . , f
m
}
f (e
1
) = a
11
f
1
+a
21
f
2
+. . . +a
m1
f
m
f (e
2
) = a
12
f
1
+a
22
f
2
+. . . +a
m2
f
m
. . .
f (e
n
) = a
1n
f
1
+a
2n
f
2
+. . . +a
mn
f
m
las coordenadas a
ij
denen una matriz de orden mn
A =
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
m1
a
m2
. . . a
mn
_

_
donde cada una de las n columnas son las m coordenadas de las imagenes de los vectores
de la base {e
1
, e
2
, . . . , e
n
} respecto de la base {f
1
, f
2
, . . . , f
m
}.
Con la notacion anterior, se tiene que
f (u) = x
1
f (e
1
) +x
2
f (e
2
) +. . . +x
n
f (e
n
)
= x
1
(a
11
f
1
+a
21
f
2
+. . . +a
m1
f
m
)
+x
2
(a
12
f
1
+a
22
f
2
+. . . +a
m2
f
m
)
+. . .
+x
n
(a
1n
f
1
+a
2n
f
2
+. . . +a
mn
f
m
)
= x
1
a
11
f
1
+x
1
a
21
f
2
+. . . +x
1
a
m1
f
m
+x
2
a
12
f
1
+x
2
a
22
f
2
+. . . +x
2
a
m2
f
m
+. . .
+x
n
a
1n
f
1
+x
n
a
2n
f
2
+. . . +x
n
a
mn
f
m
8
reordenando los sumandos se obtiene la siguiente expresion
f (u) = x
1
a
11
f
1
+x
2
a
12
f
1
+. . . +x
n
a
1n
f
1
+x
1
a
21
f
2
+x
2
a
22
f
2
+. . . +x
n
a
2n
f
2
+. . .
+x
1
a
m1
f
m
+x
2
a
m2
f
m
+. . . +x
n
a
mn
f
m
= (x
1
a
11
+x
2
a
12
+. . . +x
n
a
1n
) f
1
+(x
1
a
21
+x
2
a
22
+. . . +x
n
a
2n
) f
2
+. . .
+(x
1
a
m1
+x
2
a
m2
+. . . +x
n
a
mn
) f
m
identicando coordenadas para el vector f (u) = y
1
f
1
+y
2
f
2
+. . . +y
m
f
m
se tiene
y
1
= x
1
a
11
+x
2
a
12
+. . . +x
n
a
1n
y
2
= x
1
a
21
+x
2
a
22
+. . . +x
n
a
2n
. . .
y
m
= x
1
a
m1
+x
2
a
m2
+. . . +x
n
a
mn
son las m ecuaciones escalares de la aplicacion lineal, que se pueden escribir mediante una
ecuacion matricial para matrices de orden m 1
_

_
y
1
y
2
. . .
y
m
_

_
=
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
m1
a
m2
. . . a
mn
_

_
x
1
x
2
. . .
x
n
_

_
de forma resumida
Y = A X
donde X e Y son las matrices columna con las coordenadas de u y f (u) respecto de B
V
y
B
W
respectivamente, y la matriz A esta formada por n columnas cada una de las cuales
son las m coordenadas, respecto de B
W
, de las imagenes {f (e
1
) , f (e
2
) , . . . , f (e
n
)} de los
vectores de B
V
.
Hay una cuestion, practicamente obvia, que es importante resear. Como se acaba de
exponer, jadas unas bases B
V
y B
W
para los espacios vectoriales V y W respectivamente,
se verica que
1. dada una aplicacion lineal f : V W existe solo una matriz A de orden m n
asociada a f. Esto es asi puesto que las coordenadas de los vectores f (e
i
) son unicas
y por tanto las columnas de la matriz.
2. dada una matriz A de m n existe solo una aplicacion lineal f : V W denida
por la ecuacion matricial Y = A X. Esto es asi dado que para cualquier vector
u V sus coordenadas X respecto de B
V
son unicas, como consecuencia la columna
Y = A X existe siempre y es unica, la columna Y dene un unico vector f (u) de
W.
3. puesto que la ecuacion matricial es lineal, la aplicacion tambien lo es.
9
Como se acaba de exponer, el resultado que se adelanto cuando se hizo la introduccion
del concepto de aplicacion lineal para espacios de nuplas de numeros reales, es valido
para cualquier espacio vectorial abstracto de dimension nita. Es decir, la generalizacion
de la funcion lineal escalar y = ax para vectores es la ecuacion matricial Y = A X.
Otra cuestion pendiente de justicar, que se adelanto cuando se hablo del conjunto
imagen, es que el rango de la aplicacion es igual al rango de la matriz asociada, lo que se
hace a continuacion.
De considerar el signicado de las columnas de la matriz A, las coordenadas de los
vectores f (e
i
), se desprende que el rango
3
de A es igual al rango del sistema de vectores
{f (e
1
) , f (e
2
) , . . . , f (e
n
)}, que es por denicion el rango de la aplicacion lineal.
Aplicaciones lineales inyectivas
Como se acaba de ver, para espacios vectoriales de dimension nita, considerada una
aplicacion lineal f : V W y jada una base en cada espacio vectorial, es indistinto
trabajar con la ecuacion vectorial w = f (u) que con la ecuacion matricial Y = A X
correspondiente, por lo que, en lo que sigue a continuacion haremos un razonamiento
vectorial o matricial segun sea mas conveniente.
Para la ecuacion escalar 0 = ax, supuesto a 6= 0, la unica solucion es x = 0, sin
embargo la ecuacion matricial O = A X, tambien con A 6= O, puede tener soluciones X
distintas de la matriz columna cero. El lector recordara que la ecuacion matricial
A X = O
corresponde a un sistema de ecuaciones lineales homogeneo, estudiados en el tema dedi-
cado a determinantes y sistemas de ecuaciones. Los sistemas homogeneos pueden tener
solucion unica X = O o mas de una solucion, por tanto, soluciones X 6= O. En los
siguientes ejemplos mostramos las dos situaciones.
Sea la ecuacion matricial
_

_
0
0
0
0
_

_
=
_

_
1 5 3
1 1 1
2 6 2
1 3 1
_

_
_
x
1
x
2
x
3
_
_
el lector puede comprobar, efectuando los productos matriciales correspondientes, que los
vectores (2, 1, 1) y (4, 2, 2) son soluciones distintas de cero de la ecuacion anterior.
No obstante, hay ecuaciones matriciales O = A X para las cuales la unica solucion
es X = O, por ejemplo, la ecuacion matricial
_

_
0
0
0
0
_

_
=
_

_
1 1 3
1 2 1
2 1 2
1 1 1
_

_
_
x
1
x
2
x
3
_
_
solo admite la solucion X = O, lo que el lector puede comprobar resolviendo el sistema
de ecuaciones homogeneo correspondiente
x
1
x
2
+ 3x
3
= 0
3
El rango de A es el numero de columnas de A linealmente independientes.
10
x
1
+ 2x
2
+x
3
= 0
2x
1
+x
2
+ 2x
3
= 0
x
1
+x
2
+x
3
= 0
cuya unica solucion es x
1
= x
2
= x
3
= 0.
Como se ha podido apreciar, segun sea la matriz A, en unos casos la ecuacion matricial
O = A X solo tiene la solucion X = O y en otros casos tiene soluciones X 6= O.
Este es el resultado que se obtiene al estudiar un sistema de ecuaciones homogeneo
A X = O, si el rango de A es igual al numero de columnas de A, la solucion es unica
X = O, y si el rango es menor hay soluciones X 6= O. A continuacion llegaremos al mismo
resultado, pero haciendo una razonamiento basado en las propiedades de las aplicaciones
lineales.
En el caso vectorial, la ecuacion 0 = f (u) tendra como unica solucion u = 0 o tendra
soluciones u 6= 0, dependiendo de la aplicacion lineal f. Esta cuestion es lo sucientemente
importante para dar la siguiente denicion, valida
4
para aplicaciones lineales.
Denicin 6.3 Una aplicacion lineal f : V W es inyectiva si, y solo si, la ecuacion
vectorial en W
f (u) = 0 W
solamente admite la solucion u = 0 V .
A continuacion vamos a caracterizar las aplicaciones lineales inyectivas y por tanto las
matrices para las cuales la ecuacion O = A X solo admite la solucion X = O.
Una aplicacion lineal f : V W es inyectiva si, y solo si, cualquier sistema de
vectores {u
1
, u
2
, . . . , u
p
} de V linealmente independiente se transforma en un sistema de
vectores {f (u
1
) , f (u
2
) , . . . , f (u
p
)} de W linealmente independiente.
Comprobemos la armacion anterior,
(a) supongamos que f es inyectiva, entonces dado un sistema {u
1
, u
2
, . . . , u
p
} linealmente
independiente, de la relacion

1
f (u
1
) +
2
f (u
2
) +. . . +
p
f (u
p
) = 0
se deduce
f (
1
u
1
+
2
u
2
+. . . +
p
u
p
) = 0
puesto que f es inyectiva

1
u
1
+
2
u
2
+. . . +
p
u
p
= 0
por la independencia lineal de {u
1
, u
2
, . . . , u
p
} se tiene

1
=
2
= . . . =
p
= 0
4
Dada la linealidad de f son equivalentes las condiciones siguientes
(a) f (u) = 0 u = 0
(b) f (u
1
) = f (u
2
) u
1
= u
2
La condicion (b) es la denicion habitual de funcion inyectiva.
11
por lo que {f (u
1
) , f (u
2
) , . . . , f (u
p
)} es linealmente independiente.
(b) supongamos que cualquier sistema de vectores linealmente independiente, en particu-
lar una base {e
1
, e
2
, . . . , e
n
} de V , se transforma en un sistema de vectores linealmente
independiente, entonces dado un vector cualquiera u V de modo que
f (u) = 0
se tiene u = x
1
e
1
+x
2
e
2
+. . . +x
n
e
n
y por tanto
f (x
1
e
1
+x
2
e
2
+. . . +x
n
e
n
) = 0 x
1
f (e
1
) +x
2
f (e
2
) +. . . +x
n
f (e
n
) = 0
y de la independencia lineal de {f (e
1
) , f (e
2
) , . . . , f (e
n
)} se deduce
x
1
= x
2
= . . . = x
n
= 0 u = 0
por lo que f es inyectiva.
Como consecuencia del resultado anterior se tiene que
el rango de una aplicacion lineal inyectiva f : V W es igual a la dimension de V y el
rango de cualquier matriz asociada a f es igual al numero de columnas.
Por tanto, la ecuacion matricial O = A X solo admite la solucion X = O si el rango
de A es igual al numero de columnas, o lo que es lo mismo, todas las columnas de A son
linealmente independientes.
Que es el mismo resultado que se obtiene para los sistemas de ecuaciones homogeneos,
citado un poco mas arriba.
Cambio de base
Sean B
V
= {e
1
, e
2
, . . . , e
n
} y B
W
= {f
1
, f
2
, . . . , f
m
} dos bases respectivamente de V y W,
y sea una aplicacion lineal
V W
u f (u)
la ecuacion matricial de la aplicacion lineal es
Y = A X
donde X e Y son las matrices columna con las coordenadas de u y f (u) respecto de B
V
y
B
W
respectivamente, y las columnas de Ason las coordenadas de {f (e
1
) , f (e
2
) , . . . , f (e
n
)}
respecto de B
W
.
Si se consideran otras bases de los espacios vectoriales, por ejemplo B
0
V
= {e
0
1
, e
0
2
, . . . , e
0
n
}
y B
0
W
= {f
0
1
, f
0
2
, . . . , f
0
m
} se tendra otra ecuacion matricial con el mismo signicado
Y
0
= B X
0
donde X
0
e Y
0
son las matrices columna con las coordenadas de u y f (u) respecto de B
0
V
y
B
0
W
respectivamente, y las columnas de B son las coordenadas de {f (e
0
1
) , f (e
0
2
) , . . . , f (e
0
n
)}
respecto de B
0
W
.
12
Veamos la relacion entre las matrices A y B asociadas a la misma aplicacion lineal.
Cada cambio de base esta denido por la ecuacion matricial correspondiente. Para el
espacio V se tiene
X = P X
0
donde
P =
_
_
p
11
p
12
. . . p
1n
. . .
p
n1
p
n2
. . . p
nn
_
_
es la matriz cuyas columnas son las coordenadas de los vectores de la segunda base B
0
V
respecto a la primera base B
V
.
Para el espacio W se tiene
Y = Q Y
0
donde
Q =
_
_
q
11
q
12
. . . q
1m
. . .
q
m1
q
m2
. . . q
mm
_
_
es la matriz cuyas columnas son las coordenadas de los vectores de la segunda base B
0
W
respecto a la primera base B
W
. Ambas matrices P y Q por ser matrices de cambio de
base son regulares, es decir admiten inversa.
De las ecuaciones matriciales Y = A X, X = P X
0
e Y = Q Y
0
se obtiene
Q Y
0
= A (P X
0
) Q
1
Q Y
0
= Q
1
A P X
0
Y
0
= Q
1
A P X
0
teniendo en cuenta que Y
0
= B X
0
, se puede escribir
B X
0
= Q
1
A P X
0
dado que la relacion anterior se verica para cualquier columna X
0
se deduce
B = Q
1
A P
Endomorsmos. Matrices semejantes
Un caso muy interesante de aplicaciones lineales f : V W es aquel en el cual los dos
espacios vectoriales son el mismo, es decir V = W, este tipo de aplicaciones lineales se
llaman endomorsmos.
En este caso las matrices asociadas a la aplicacion lineal son matrices cuadradas de
tamao la dimension del espacio vectorial. Es habitual considerar una sola base B
V
para
referir las coordenadas de todos los vectores, es decir, en la ecuacion matricial
Y = A X
X e Y son las matrices columna con las coordenadas de u y f (u) respecto de una base
B
V
.
En el caso de que el rango de la aplicacion lineal sea igual a la dimension de V, entonces
el conjunto imagen coincide con V y ademas, como se vio anteriormente, la aplicacion es
inyectiva, a este tipo de aplicacion lineal se llama isomorsmo.
13
Las matrices asociadas a los isomorsmos tienen por tanto rango igual a su tamao, es
decir son regulares, o lo que es equivalente, admiten inversa.
Cuando, en una aplicacion lineal cualquiera, se hace un cambio de base,
Y = A X
Y
0
= B X
0
la ecuacion de cambio de base permite escribir
X = P X
0
Y = P Y
0
por lo que las matrices A y B asociadas a la aplicacion lineal guardan la relacion
B = P
1
A P
A las matrices A y B que guardan la relacion anterior se les llama matrices semejantes.
Todas las matrices asociadas a un mismo endomorsmo respecto de distintas bases son
semejantes entre si. El concepto de semejanza es generalizable a matrices cuadradas
independientemente de su signicado vectorial, dandose la siguiente denicion.
Denicin 6.4 Se dice que dos matrices A y B cuadradas son semejantes, si existe una
matriz regular P tal que B = P
1
A P.
Un asunto que tiene interes practico consiste en estudiar la posibilidad de encontrar
una base de V para la cual la matriz asociada a f sea diagonal, en este caso la ecuacion
matricial seria extraordinariamente sencilla
_

_
y
1
y
2
. . .
y
n
_

_
=
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_

_
x
1
x
2
. . .
x
n
_

_
Para lograrlo, dada una aplicacion lineal f : V V para la cual la ecuacion matricial,
respecto de una base B
V
, esta denida por una matriz A cualquiera, se debe de buscar
una nueva base B
0
V
con respecto de la cual la matriz asociada B sea diagonal. Como se
vio mas arriba, ambas matrices son semejantes B = P
1
A P. Las columnas de la matriz
P son las coordenadas de los vectores de la segunda base B
0
V
respecto a la primera base
B
V
.
Al proceso de obtener una base con respecto a la cual la matriz B sea diagonal, se le
llama diagonalizar A por semejanza.
Si se quiere desligar la diagonalizacion de una matriz del enfoque vectorial, diremos
que
Diagonalizar por semejanza una matriz cuadrada A es encontrar una matriz regular P
de modo que la matriz B = P
1
A P sea diagonal.
Veamos un ejemplo de lo expuesto. Sea
A =
_
_
6 1 2
4 2 4
0 1 4
_
_
14
la matriz asociada a una aplicacion lineal f : R
3
R
3
respecto de la base canonica de
R
3
.
Si consideramos la base B
0
V
= {(1, 2, 1) , (1, 2, 1) , (1, 0, 1)} de R
3
, la matriz de f
respecto de B
0
V
, viene dada por B = P
1
A P, donde P es la matriz de cambio de base,
cuyas columnas son las coordenadas de los vectores de B
0
V
respecto de la base canonica,
es decir
P =
_
_
1 1 1
2 2 0
1 1 1
_
_
la matriz inversa
5
, cuya existencia esta garantizada por ser las columnas de P vectores de
una base y por tanto linealmente independientes, vale
P
1
=
_
_
1
2
0
1
2
1
2
1
2
1
2
1
1
2
0
_
_
La matriz B se obtiene efectuando el producto matricial
_
_
1
2
0
1
2
1
2
1
2
1
2
1
1
2
0
_
_

_
_
6 1 2
4 2 4
0 1 4
_
_

_
_
1 1 1
2 2 0
1 1 1
_
_
=
_
_
6 0 0
0 2 0
0 0 4
_
_
como se puede apreciar la matriz B es diagonal, es decir, con la matriz P se ha diagona-
lizado la matriz A por semejanza.
Desgraciadamente no todas las matrices son diagonalizables por semejanza. En los
apartados siguientes se estudia este asunto.
6.3 Vectores y valores propios
En el ejemplo del apartado anterior, se mostro como la matriz asociada a una aplicacion
lineal podria ser diagonal escogiendo una base adecuada, veamos ahora que particularidad
presentan los vectores de esa base.
Llamemos u
1
= (1, 2, 1) , u
2
= (1, 2, 1) , u
3
= (1, 0, 1) a los tres vectores de la
base para la cual la matriz es diagonal, sus imagenes mediante la aplicacion lineal f se
obtienen utilizando la ecuacion matricial Y = A X correspondiente
f (u
1
) =
_
_
6 1 2
4 2 4
0 1 4
_
_

_
_
1
2
1
_
_
=
_
_
6
12
6
_
_
= 6u
1
f (u
2
) =
_
_
6 1 2
4 2 4
0 1 4
_
_

_
_
1
2
1
_
_
=
_
_
2
4
2
_
_
= 2u
2
f (u
3
) =
_
_
6 1 2
4 2 4
0 1 4
_
_

_
_
1
0
1
_
_
=
_
_
4
0
4
_
_
= 4u
3
5
Se puede obtener mediante el metodo de Gauss-Jordan. El lector puede comprobar que P
1
P = I.
15
se observa que la imagen f (u
i
) de cada uno de los vectores de la base es proporcional
dicho vector u
i
, es decir, existen tres escalares
1
= 6,
2
= 2 y
3
= 4, de modo que
f (u
1
) =
1
u
1
f (u
2
) =
2
u
2
f (u
3
) =
3
u
3
como se vera a continuacion, esta es la caracteristica que deben de tener los vectores de
una base, para que la matriz asociada a la aplicacion lineal respecto de dicha base sea
diagonal. Dada la importancia de este tipo de vectores, se da la siguiente denicion.
Denicin 6.5 Sea una aplicacion lineal f : V V denida en un espacio vectorial V
sobre un cuerpo K, se dice que un escalar K es un valor propio
6
de f si existe un
vector u 6= 0 de modo que
f (u) = u
al vector u se le llama vector propio asociado al valor propio .
A raiz de la denicion, se desprenden varias consecuencias elementales, que no obs-
tante, es importante tener presentes.
1. En la denicion se ha impuesto la condicion u 6= 0, pues si se admitiese el vector
cero, entonces se tendria f (0) = 0 = 0, por lo que cualquier escalar seria un
valor propio.
2. El escalar 0 puede ser un valor propio de alguna aplicacion lineal, en este caso se
tendria
Existe u 6= 0 de modo que f (u) = 0u = 0
lo que signica que la aplicacion lineal no es inyectiva. Es facil de ver que cualquier
aplicacion lineal no inyectiva admite el valor propio 0.
3. Los vectores propios no son unicos, dado que si u es un vector propio asociado
al valor propio , entonces considerando el vector w = au, con a 6= 0, se tiene
f (w) = f (au) = af (u) = au = au = w, es decir que w tambien es vector
propio.
4. Un mismo vector u no puede ser vector propio de dos valores propios distintos y .
En efecto, de suponer f (u) = u = u, se deduce uu = 0, y como consecuencia
= 0, es decir, los dos valores propios son el mismo.
Como se intuye de las dos ultimas propiedades, se verica la siguiente propiedad que
casi nos proporciona la solucion a nuestro problema de diagonalizacion una aplicacion
lineal.
Si el sistema de vectores {u
1
, u
2
, . . . , u
p
} esta formado por vectores propios asociados
cada uno de ellos a un valor propio
1
,
2
, . . . ,
p
y estos son todos distintos, entonces el
sistema es linealmente independiente.
La demostracion se hace de forma constructiva, en base a la siguiente propiedad que
se justica mas abajo,
si {u
1
, u
2
, . . . , u
r
} es linealmente independiente (LI) entonces {u
1
, u
2
, . . . , u
r
, u
r+1
} es LI.
6
A los valores propios tambien se les llama autovalores y a sus vectores propios asociados, autovectores.
16
En base a esta propiedad, a partir de {u
1
}, que por ser distinto del vector 0 es LI, se
amplia el sistema, primero a {u
1
, u
2
} que debe ser LI, despues a {u
1
, u
2
, u
3
} que debe ser
LI, hasta obtener que {u
1
, u
2
, . . . , u
p
} que debe ser LI.
Supuesto {u
1
, u
2
, . . . , u
r
} LI, veamos que ocurre con {u
1
, u
2
, . . . , u
r
, u
r+1
}, supongamos
que no es LI, lo que quiere decir que
u
r+1
=
1
u
1
+
2
u
2
+. . . +
r
u
r
, con algun
i
6= 0
la imagen de u
r+1
vale
f (u
r+1
) = f (
1
u
1
+
2
u
2
+. . . +
r
u
r
) =
1
f (u
1
) +
2
f (u
2
) +. . . +
r
f (u
r
)
teniendo en cuenta que los u
i
son vectores propios, se deduce

r+1
u
r+1
=
1

1
u
1
+
2

2
u
2
+. . . +
r

r
u
r
multiplicando la relacion u
r+1
=
1
u
1
+. . . +
r
u
r
por
r+1
se obtiene

r+1
u
r+1
=
1

r+1
u
1
+
2

r+1
u
2
+. . . +
r

r+1
u
r
restando las dos ultimas relaciones, se llega a
(
r+1

r+1
) u
r+1
= 0 =
1
(
1

r+1
) u
1
+
2
(
2

r+1
) u
2
+. . . +
r
(
r

r+1
) u
r
dado que
i

r+1
6= 0 se deduce
7
que
1
=
2
=
r
= 0 en contra de lo supuesto, por
lo que {u
1
, u
2
, . . . , u
r
, u
r+1
} debe ser LI.
Como consecuencia inmediata de la propiedad anterior, si una aplicacion lineal f :
V V , siendo n la dimension de V , tiene n valores propios distintos
8
entonces escogiendo
un vector propio asociado a cada valor propio se tendra un sistema {u
1
, u
2
, . . . , u
n
} de
vectores linealmente independientes, es decir una base de vectores propios.
Para completar el acercamiento a los valores/vectores propios veamos que
La matriz A asociada a una aplicacion lineal f : V V , respecto de una base
B
V
= {e
1
, e
2
, . . . , e
n
}, es diagonal si, y solo si, los vectores de la base son vectores propios.
La demostracion de esta importante propiedad es, no obstante sencilla
Supongamos que la base B
V
= {e
1
, e
2
, . . . , e
n
} esta formada por vectores propios, por
tanto
f (e
1
) =
1
e
1
f (e
2
) =
2
e
2
. . .
f (e
n
) =
n
e
n
y como consecuencia las coordenadas de los vectores f (e
i
) respecto de B
V
, que por de-
nicion son las columnas de A, son
f (e
1
) = (
1
, 0, . . . , 0)
f (e
2
) = (0,
2
, . . . , 0)
. . .
f (e
n
) = (0, 0, . . . ,
n
)
7
Por la independencia lineal de {u
1
, u
2
, . . . , u
r
}
8
Como veremos, mas adelante, en un ejemplo no siempre es posible encontrar n valores propios
distintos.
17
resultando
A =
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_

_
es decir, la matriz A es diagonal, siendo los elementos de la diagonal los valores propios
correspondientes.
Supongamos ahora que la matriz A es diagonal, la imagen de un vector u V se calcula
con la ecuacion matricial Y = A X, dado que las coordenadas de los vectores e
i
, respecto
de B
V
son
e
1
= (1, 0, . . . , 0)
e
2
= (0, 1, . . . , 0)
. . .
e
n
= (0, 0, . . . , 1)
las coordenadas de los vectores f (e
i
) respecto de B
V
vienen dadas por
f (e
1
) Y
1
=
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_

_
1
0
. . .
0
_

_
=
_

1
0
. . .
0
_

_
=
1
_

_
1
0
. . .
0
_

_
es decir f (e
1
) =
1
e
1
f (e
2
) Y
2
=
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_

_
0
1
. . .
0
_

_
=
_

_
0

2
. . .
0
_

_
=
2
_

_
0
1
. . .
0
_

_
es decir f (e
2
) =
2
e
2
, y asi hasta
f (e
n
) Y
n
=
_

1
0 . . . 0
0
2
. . . 0
. . .
0 0 . . .
n
_

_
0
0
. . .
1
_

_
=
_

_
0
0
. . .

n
_

_
=
n
_

_
0
0
. . .
1
_

_
es decir f (e
n
) =
n
e
n
, por lo que todos los vectores de la base son vectores propios de f.
Ademas, resulta evidente que los elementos de la diagonal de A son los valores propios
9
.
Como consecuencia,
Una aplicacion lineal f : V V , admite expresion diagonal Y = D X si, y solo si,
existe una base de vectores propios.
Siendo D una matriz diagonal cuyos elementos son los valores propios, iguales o no,
correspondientes a los vectores de la base de vectores propios, y X e Y las coordenadas
de u y f (u) respecto de la base de vectores propios.
9
Se llama la atencion del lector sobre el hecho de que en la diagonal de A podrian haber valores
i
repetidos sin que afecte para nada al resultado obtenido.
18
Un caso particular de aplicaciones lineales, o de las matrices asociadas, diagonalizables
es el siguiente.
Si una aplicacion lineal f : V V sobre un espacio V de dimension n, tiene n valores
propios distintos, entonces admite una expresion diagonal.
La justicacion es la siguiente, como se vio con anterioridad pag. 17, dado que f tiene n
valores propios distintos existe una base de vectores propios, lo que garantiza la existencia
de una expresion matricial diagonal.
Como se ha mencionado con anterioridad, no siempre es posible encontrar una base
de vectores propios, es decir, hay aplicaciones f : V V que admiten expresion diagonal
y otras que no la admiten.
Ejemplos
1. Sea una aplicacion lineal f : R
3
R
3
, denida por
A =
_
_
1 8 6
4 5 0
0 0 3
_
_
respecto de la base canonica de R
3
.
Si consideramos la base B
p
= {(2, 1, 0) , (1, 2, 3) , (1, 1, 0)} de R
3
, comprobaremos
facilmente que son vectores propios de f.
En efecto, la imagen f (u
i
) de cada uno de los vectores u
i
de B
p
se calcula mediante la
ecuacion matricial Y
i
= AX
i
, donde X
i
son las coordenadas de u
i
e Y
i
las coordenadas de
f (u
i
), en ambos casos respecto de la base canonica.
Y
1
= AX
1
=
_
_
1 8 6
4 5 0
0 0 3
_
_

_
_
2
1
0
_
_
=
_
_
6
3
0
_
_
= (3) X
1
Y
2
= AX
2
=
_
_
1 8 6
4 5 0
0 0 3
_
_

_
_
1
2
3
_
_
=
_
_
3
6
9
_
_
= 3X
2
Y
2
= AX
3
=
_
_
1 8 6
4 5 0
0 0 3
_
_

_
_
1
1
0
_
_
=
_
_
9
9
0
_
_
= 9X
3
La matriz de f respecto de la base B
p
, es la matriz diagonal D, formada por los valores
propios asociados a cada vector de la base B
p
D =
_
_
3 0 0
0 3 0
0 0 9
_
_
Las columnas de la matriz P de cambio de base son las coordenadas de los vectores de
B
p
respecto de la base canonica, es decir
P =
_
_
2 1 1
1 2 1
0 3 0
_
_
19
la matriz inversa vale
P
1
=
_
_
1
3
1
3
1
3
0 0
1
3

1
3
2
3
1
3
_
_
El resultado anterior se puede comprobar efectuando el producto matricial P
1
A P
_
_
1
3
1
3
1
3
0 0
1
3

1
3
2
3
1
3
_
_

_
_
1 8 6
4 5 0
0 0 3
_
_

_
_
2 1 1
1 2 1
0 3 0
_
_
=
_
_
3 0 0
0 3 0
0 0 9
_
_
2. En este ejemplo hay un valor propio repetido. Se sigue la misma notacion del ejemplo
precedente, la aplicacion lineal esta denida por la matriz
A =
_
_
10 1 1
0 6 4
0 1 9
_
_
Si consideramos la base B
p
= {(1, 4, 1) , (1, 6, 6) , (0, 1, 1)} de R
3
, comprobaremos fa-
cilmente que son vectores propios de f. En efecto
Y
1
= AX
1
=
_
_
10 1 1
0 6 4
0 1 9
_
_

_
_
1
4
1
_
_
=
_
_
5
20
5
_
_
= 5X
1
Y
2
= AX
2
=
_
_
10 1 1
0 6 4
0 1 9
_
_

_
_
1
6
6
_
_
=
_
_
10
60
60
_
_
= 10X
2
Y
2
= AX
3
=
_
_
10 1 1
0 6 4
0 1 9
_
_

_
_
0
1
1
_
_
=
_
_
0
10
10
_
_
= 10X
3
Por lo que la matriz asociada a la base de vectores propios B
p
es
D =
_
_
5 0 0
0 10 0
0 0 10
_
_
Se llama la atencion sobre el hecho de que la matriz diagonal D no es unica
10
, dado
que con cambiar el orden de los vectores de la base se obtiene una nueva matriz diagonal.
En el ejemplo precedente, cambiando adecuadamente el orden de los vectores de la
base B
p
se obtienen las matrices
D
2
=
_
_
10 0 0
0 10 0
0 0 5
_
_
y D
3
=
_
_
10 0 0
0 5 0
0 0 10
_
_
por tanto, las matrices D, D
2
y D
3
son matrices diagonales distintas asociadas a la
aplicacion lineal f. Se sugiere al lector que localice el orden en el que se deben considerar
10
Los valores propios de f, cuando existan, son unicos.
20
los vectores de B
p
para obtener las matrices D
2
y D
3
y como consecuencia compruebe lo
expuesto.
3. Veamos por ultimo, un ejemplo en el cual no se puede diagonalizar la matriz asociada
a aplicacion lineal. Se sigue la misma notacion de los ejemplos precedentes, la matriz
considerada en este caso es
A =
_
_
3 2 1
1 6 11
1 4 9
_
_
en este caso es, asi mismo, sencillo comprobar que los vectores u
1
= (1, 3, 1) y u
2
=
(1, 1, 1) son vectores propios de f. En efecto
Y
1
= AX
1
=
_
_
3 2 1
1 6 11
1 4 9
_
_

_
_
1
3
1
_
_
=
_
_
2
6
2
_
_
= (2) X
1
Y
2
= AX
2
=
_
_
3 2 1
1 6 11
1 4 9
_
_

_
_
1
1
1
_
_
=
_
_
4
4
4
_
_
= 4X
2
Del resultado obtenido se desprende que
1
= 2 es un valor propio que tiene asocia-
do el vector propio u
1
y que
2
= 4 es otro valor propio, siendo u
2
el vector propio
correspondiente.
En este caso, la aplicacion lineal no tiene mas valores propios, ademas, tanto
1
como

2
no tienen mas vectores propios asociados
11
, salvo cualquier vector proporcional a u
1
y u
2
respectivamente. Como consecuencia, no es posible obtener una base de vectores
propios y por tanto no es posible diagonalizar la matriz.
No obstante, buscando adecuadamente un tercer vector u
3
para formar una base, es
posible obtener una matriz casi diagonal
12
. Tomando, por ejemplo u
3
= (0, 1, 1), el sistema
S = {u
1
, u
2
, u
3
} forma una base respecto a la cual la matriz asociada a la aplicacion lineal
viene dada por J = P
1
A P, siendo P la matriz de cambio de base formada por las
coordenadas de la base S, obteniendose
P =
_
_
1 1 0
3 1 1
1 1 1
_
_
P
1
=
_
_
0
1
2
1
2
1
1
2

1
2
1 1 2
_
_
la matriz casi diagonal vale
J =
_
_
0
1
2
1
2
1
1
2

1
2
1 1 2
_
_

_
_
3 2 1
1 6 11
1 4 9
_
_

_
_
1 1 0
3 1 1
1 1 1
_
_
=
_
_
2 0 0
0 4 1
0 0 4
_
_
6.4 Diagonalizacion de matrices
En el apartado anterior se caracterizaron las aplicaciones lineales, y por tanto a las ma-
trices asociadas, que pueden ser diagonalizables, siendo la clave que se pueda encontrar
11
Mas adelante se estudia la forma de obtener los valores y vectores propios de una matriz, momento
en el cual se comprobaran estas dos armaciones.
12
A este tipo de matriz se le llama forma canonica de Jordan de la matriz A.
21
una base del espacio vectorial formada por vectores propios. Tambien se mostraron varios
ejemplos de ello, en dichos ejemplos, se proporcionaban directamente los vectores propios,
veamos ahora como se pueden obtener dichos vectores. Como veremos, en primer lugar,
es necesario obtener los valores propios.
Antes de entrar en el asunto que nos interesa, resulta conveniente hacer una puntuali-
zacion formal. El lector debe tener claro que una aplicacion lineal f : V V y una matriz
cuadrada A no son la misma cosa, sin embargo existe una relacion estrecha entre ambas.
Para evitar ambigedades jaremos un criterio que nos permita trabajar indistintamente
con aplicaciones lineales
13
o con matrices.
1. Si se ja una aplicacion lineal f : V V y una base B
V
en V , la matriz A
considerada es la unica matriz asociada a f respecto de B
V
.
2. Si se ja una matriz cuadrada A cuyos elementos sean escalares de un cuerpo
14
K, dado que dicha matriz puede estar asociada a cualquier aplicacion lineal, para
evitar la ambigedad, consideraremos por convenio que f es la unica aplicacion
lineal f : K
n
K
n
denida por la matriz A con respecto a la base canonica de K
n
.
Utilizando este convenio, siempre es posible trabajar con una aplicacion lineal f : V
V y una base B
V
en V , de modo que la ecuacion vectorial
w = f (u)
siempre lleva implicita la ecuacion matricial, y viceversa,
Y = AX
donde X e Y son las matrices columna con las coordenadas de u y w respecto de B
V
.
Por tanto si hablamos de diagonalizar, de valores o vectores propios de f estaremos
a su vez hablando, implicitamente, de diagonalizar por semejanza, de valores o vectores
propios de la matriz A y viceversa.
Obtencion de los valores propios
La denicion de valor propio de una aplicacion lineal f establece que un escalar es un
valor propio de f si, y solo si, existe un vector u 6= 0 de modo que f (u) = u o lo que es
lo mismo
f (u) u = 0
esta ecuacion sugiere denir una aplicacion lineal auxiliar de la siguiente forma
g : V V
u g (u) = f (u) u
Utilizando la aplicacion g podemos decir que un escalar es un valor propio de f si, y
solo si, existe un vector u 6= 0 de modo que
15
g (u) = 0. Dicho de otra manera,
13
Nos referimos a aplicaciones lineales entre espacios vectoriales de dimension nita.
14
El cuerpo de escalares K es R o C.
15
Se llama la atencion sobre el hecho de que en la denicion de g se utiliza el valor , es decir que g (u)
depende del valor de .
22
es un valor propio de f si, y solo si, la aplicacion g no es inyectiva
Veamos ahora que condicion se debe cumplir para que g no sea inyectiva. Para ello
recordemos, ver pag. 12, que una aplicacion es inyectiva si, y solo si, el rango de la matriz
asociada es igual a n, siendo n la dimension de V . Por tanto para que g no sea inyectiva
la matriz asociada a g debe ser singular
16
.
Veamos cual es la matriz asociada a g. Llamando X, Y y Z a las matrices columna con
las coordenadas de u, f (u) y g (u) respecto de B
V
, es sencillo comprobar que la ecuacion
matricial de g, respecto de B
V
, es
Z = Y X
puesto que Y = AX es la ecuacion matricial de f, se deduce
Z = AX X = AX IX = (AI) X
como consecuencia AI es la matriz asociada a g.
A I =
_

_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
n1
a
n2
. . . a
nn

_
Por tanto
es un valor propio de f si, y solo si, la matriz AI es singular.
El estudio del rango de la matriz AI en algunos casos sencillos se puede hacer direc-
tamente, como se muestra en el siguiente ejemplo.
Sea
A =
_
_
3 0 0
1 6 0
1 0 9
_
_
la matriz asociada a una aplicacion lineal f : V V respecto de una base B
V
de V . Los
valores propios de f, o de A, son los escalares que hacen que la matriz
AI =
_
_
3 0 0
1 6 0
1 0 9
_
_
sea singular. En este caso es facil de comprobar que los escalares
1
= 3,
2
= 6 y

3
= 9 son valores propios de A, en efecto, las matrices
A
1
I =
_
_
0 0 0
1 9 0
1 0 6
_
_
, A
2
I =
_
_
9 0 0
1 0 0
1 0 15
_
_
, A
3
I =
_
_
6 0 0
1 15 0
1 0 0
_
_
son singulares por tener una la o una columnas de ceros.
16
Se recuerda que matriz singular quiere decir no regular, lo que signica que su rango es menor
estrictamente que n.
23
Utilizacion del determinante para la obtencion de los valores propios
En el apartado anterior, se ha visto que la localizacion de los valores propios de una matriz
A, o de la aplicacion lineal f asociada, se traduce en la localizacion de los escalares que
hacen que la matriz M = AI sea singular.
Como vimos en el tema dedicado al estudio de los determinantes y sistemas de ecuacio-
nes, el determinante de la matriz permite caracterizar a las matrices regulares, por medio
de la siguiente propiedad, una matriz cuadrada M es regular si, y solo si, su determinante
|M| es distinto de cero, por lo que, si |M| = 0 entonces M es es singular, del razonamiento
anterior se deduce que
Un escalar es un valor propio de A si, y solo si, el determinante |AI| vale 0
Ecuacion caracteristica. Polinomio caracteristico
Como consecuencia, a nivel teorico, el problema de la localizacion de los valores propios se
reduce a encontrar escalares que hacen que el determinante de la matriz M = AI sea
cero lo que, como se acaba de ver, signica que la matriz M = AI es singular. Es decir
es un valor propio de A |AI| = 0
Por lo que los valores propios de una matriz A son las soluciones, o raices, de la ecuacion
|AI| = 0
a la que se llama ecuacion caracteristica.
El determinante |AI| es una funcion de de tipo polinomico, dado que en el
desarrollo de |AI| aparecen los elementos (a
ii
) de la diagonal principal de AI
multiplicados entre si, y por otros factores.
A dicha funcion, se le llama polinomio caracteristico, viene dado por
P () = |AI| =

a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
. . .
a
n1
a
n2
. . . a
nn

es un polinomio de grado n en , pues en el desarrollo de |AI| uno de los sumandos


es el producto de todos los elementos de la diagonal principal de AI
(a
11
) (a
22
) . . . (a
nn
)
el polinomio caracteristico se puede expresar, con la notacion habitual, en terminos de
sus coecientes
P () = |AI| = c
0

n
+c
1

n1
+c
2

n2
+. . . +c
n1
+c
n
pero como vamos a ver, los coecientes c
i
no se utilizan habitualmente salvo en casos muy
sencillos.
Veamos los casos n = 2 y n = 3

a
11
a
12
a
21
a
22

=
2
(a
11
+a
22
) + |A|
24

a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33

=
3
+ (a
11
+a
22
+a
33
)
2
+c
2
+ |A|
donde c
2
= a
11
a
22
a
11
a
33
a
22
a
33
+a
23
a
32
+a
21
a
12
+a
31
a
13
.
Para matrices de mayor tamao, utilizando programas de calculo simbolico, se pueden
obtener expresiones similares. Existe una expresion teorica para todos los coecientes del
polinomio caracteristico en funcion de los coecientes de A, pero dichas expresiones no
son de especial interes.
Hay tres coecientes relevantes, cuyos valores para una matriz A de tamao n son
c
0
= (1)
n
c
1
= (1)
n1
(a
11
+a
22
+a
33
+. . . +a
nn
)
c
n
= |A|
El valor del termino independiente se deduce de hacer las siguientes consideraciones (a)
el termino independiente de un polinomio p (x) es el valor del polinomio para x = 0, (b)
P(0) = |A0I| = |A|, por lo que
P (0) = c
n
= |A|
A continuacion mostramos el determinante y el polinomio caracteristico, de varias
matrices de ordenes 2, 3 y 4, obtenidos con la ayuda de herramientas de calculo simbolico
A =

2 1
1 3

|A| = 7 |A I| =
2
5 + 7
A =

0 2
5 9

|A| = 10 |A I| =
2
9 + 10
A =
_
_
2 3 4
1 5 2
6 1 2
_
_
|A| = 70 |A I| =
3
+ 9
2
+ 5 70
A =
_
_
1 2 1
3 1 4
1 5 2
_
_
|A| = 0 |A I| =
3
+ 2
2
12
A =
_

_
1 2 1 4
3 2 1 2
5 1 3 1
2 1 1 2
_

_
|A| = 28 |AI| =
4
18
2
20 28
A =
_

_
1 2 1 2
1 1 2 1
1 3 2 1
2 1 1 1
_

_
|A| = 4 |AI| =
4
5
3
6
2
+ 34 + 4
En la mayoria de los problemas relacionados con los valores propios, no interesa el polino-
mio caracteristico si no sus raices, es decir las soluciones de P () = 0. Por este motivo,
en ocasiones, se utiliza (1)
n
P () en vez de P (), de este modo el coeciente de
n
es 1
(1)
n
P () =
n
(a
11
+a
22
+a
33
+. . . +a
nn
)
n1
+. . . + (1)
n1
c
n1
+ (1)
n
|A|
25
Independientemente de que se trabaje en el campo real o en el campo complejo, las
raices del polinomio caracteristico se consideran en el campo complejo, que es un cuerpo
algebraicamente cerrado, lo que signica que se cumple el teorema fundamental del algebra
Todo polinomio de grado p > 0 tiene exactamente p raices, iguales o distintas.
Lo que se entiende mejor si se expresa el polinomio factorizado en funcion de sus raices
P (z) = c
0
z
p
+. . . +c
p1
z +c
p
= c
0
(z
1
) (z
2
) . . . (z
p
)
donde algun
i
puede ser igual a
j
siendo i 6= j.
Como consecuencia, dada una matriz A de orden n, real o compleja, su polinomio
caracteristico tiene siempre n raices en el campo complejo, es decir que hay n numeros
complejos
i
de modo que
P (
i
) = |A
i
I| = 0
Ademas, si la matriz es real, los coecientes del polinomio caracteristico son reales y las
raices complejas aparecen como pares de raices conjugadas.
El problema, cuando se trabaja en el campo real, es que los valores
i
que no son reales
no valen como valores propios.
Por ultimo remarcar que, en la practica, de forma similar a como ocurre con el deter-
minante de una matriz, para el calculo de los valores propios de una matriz, no se utiliza
una expresion explicita del polinomio caracteristico P (), a partir de la cual resolviendo
la ecuacion P () = 0 se obtengan de los valores propios. Habitualmente se utilizan tecni-
cas de transformacion de la matriz en otra que tenga los mismos valores propios, es decir
que sea semejante, y para la que sea mas sencillo obtener los valores propios.
De esta forma, es habitual que, para la obtencion de las raices de un polinomio cual-
quiera
p (z) = z
n
+c
1
z
n1
+c
2
z
n2
+. . . +c
n1
z +c
n
se calculen, utilizando tecnicas de transformacion de la matriz, los valores propios de
C =
_

_
c
1
c
2
. . . c
n1
c
n
1 0 . . . 0 0
. . .
0 0 . . . 0 0
0 0 . . . 1 0
_

_
llamada matriz de acompaamiento de p (z).
A continuacion, como ejemplo, mostramos la evolucion de las raices de una familia de
polinomios p
m
(z) , con m = 1, 2, . . . , P 1, de grado N + 1 de la forma
p
m
(z) = z
N+1
(1 +
m
) z
N

m
c
2
= 0, donde =
P
2
N
y
m
= 4 sen
2
m
2P
que aparecen en el estudio de algunas ecuaciones en diferencias, donde c
2
es un parametro
de la ecuacion en diferencias. En el ejemplo mostrado P = 40 y N = 6400. En cada linea
estan representadas las N +1 raices complejas
m,j
del polinomio p
m
(z) en forma modulo
y argumento.
26
9 9.5 10
x 10
3
3
2
1
0
1
2
3
Races de las ecuaciones caractersticas
c
2
= 0.5000 P = 40 = 0.25000
|
m,j
| 0.99
a
r
g

m
,
j
m= 1
m= 2
m= 3
m= 4
m= 5
8 8.5 9 9.5
x 10
5
3
2
1
0
1
2
3
Races de las ecuaciones caractersticas
c
2
= 0.5000 P = 40 = 0.25000
|
m,j
| 0.9998
a
r
g

m
,
j
m=35
m=36
m=37
m=38
m=39
Las raices se obtuvieron con MatLab que utiliza el metodo descrito de la matriz de
acompaamiento.
Algunas propiedades de los valores propios
Sea una matriz A cuadrada de orden n cuyos valores propios en el campo complejo son

1
,
2
, . . .,
n
, se verica que
1. Los valores propios de la traspuesta A
T
son
1
,
2
, . . .,
n
2. La suma y el producto de todos los valores propios, valen

1
+
2
+. . . +
n
= a
11
+a
22
+a
33
+. . . +a
nn

2
. . .
n
= |A|
3. Los valores propios de la matriz B = A son

1
,
2
, . . . ,
n
4. Si la matriz A es regular, entonces los valores propios de A
1
son
1

1
,
1

2
, . . . ,
1

n
5. Los valores propios de la matriz B = I +A son
1 +
1
, 1 +
2
, . . . , 1 +
n
6. Los valores propios de la matriz B = A
k
, siendo k = 1, 2, 3, . . . son

k
1
,
k
2
, . . . ,
k
n
En el caso de las propiedades 3, 4, 5 y 6 los vectores propios son los mismos que los
de A.
De la propiedad 2 se deduce de forma trivial, dado que |A| =
1

2
. . .
n
A es regular |A| 6= 0
i
6= 0 para todo i = 1, 2, . . . , n
La justicacion de estas propiedades son sencillas y se muestran a continuacion para
que sirvan de ilustracion del signicado de los valores y vectores propios.
27
1. Los valores propios de A
T
son las raices del polinomio

A
T
I

, por las propiedades


de la traspuesta tenemos
A
T
I = A
T
I
T
= (A I)
T

A
T
I

(A I)
T

= |AI|
dado que el polinomio caracteristico de A y de A
T
son el mismo, los valores propios
tambien.
2. Esta propiedad se deduce directamente de la factorizacion del polinomio en funcion de
sus raices
P () = c
0
(
1
) (
2
) . . . (
n
) , donde c
0
= (1)
n
de donde se pueden obtener los coecientes del polinomio en funcion de las raices, en
particular
(a) el coeciente de
n1
es c
0
(
1

2
. . .
n
) = (1)
n1
(
1
+
2
+. . . +
n
).
(b) el termino independiente es c
0
(1)
n

2
. . .
n
=
1

2
. . .
n
De igualarlos con los valores obtenidos, ver pag. 25, en funcion de los elementos de la
matriz c
1
= (1)
n1
(a
11
+a
22
+a
33
+. . . +a
nn
) y c
n
= |A|, se deduce la propiedad.
Supongamos que
i
es un valor propio de A, quiere decir que existe una matriz columna
X 6= O tal que
A X =
i
X
entonces
3. Si consideramos B = A, tenemos
B X = A X =
i
X
luego
i
es un valor propio y X es un vector propio de B.
4. Si consideramos B = A
1
, de
A X =
i
X A
1
A X = A
1

i
X X =
i
A
1
X
1

i
X =
1

i
A
1
X
por lo que
B X =
1

i
X
luego
1

i
es un valor propio y X es un vector propio de B.
5. Si consideramos B = I +A, tenemos
B X = (I +A) X = I X +A X = X +
i
X = (1 +
i
) X
luego 1 +
i
es un valor propio y X es un vector propio de B.
6. Si consideramos B = A
k
, tenemos
B X = A
k
X = A
k1
A X = A
k1

i
X =
i
A
k1
X = . . . =
k1
i
A X =
k
i
X
luego
k
i
es un valor propio y X es un vector propio de B.
28
Veamos algunos ejemplos de las propiedades anteriores, sean las matrices
A
1
=
_
_
3 2 0
1 4 4
1 1 1
_
_
y A
2
=
_
_
3 10 10
1 0 2
2 4 6
_
_
cuyos valores propios
17
son
A
1
{
1
= 5,
2
= 1,
3
= 2}
A
2
{
1
= 1,
2
= 2,
3
= 2}
los polinomios caracteristicos, en funcion de los coecientes y factorizados, son
|A
1
I| =
3
8
2
+ 17 10 = ( 5) ( 1) ( 2)
|A
2
I| =
3
3
2
+ 4 = ( + 1) ( 2) ( 2)
2. La suma de los elementos de la diagonal principal coincide con la suma de los valores
propios
A
1
a
11
+a
22
+a
33
= 3 + 4 + 1 = 8 =
1
+
2
+
3
A
2
a
0
11
+a
0
22
+a
0
33
= (3) + 0 + 6 = 3 =
1
+
2
+
3
El valor del determinante coincide con el producto de los valores propios
|A
1
| = 10 = 5 1 2 =
1

3
|A
2
| = 4 = (1) 2 2 =
1

3
3. Matriz producto por un escalar
B
1
= 4A
1
=
_
_
12 8 0
4 16 16
4 4 4
_
_
y B
2
=
1
2
A
2
=
_
_

3
2
5 5

1
2
0 1
1 2 3
_
_
los valores propios son
B
1
{
0
1
= 20,
0
2
= 8,
0
3
= 4}
B
2

0
1
=
1
2
,
0
2
= 1,
0
3
= 1

4. Matriz inversa
B
1
= A
1
1
=
1
10
_
_
0 2 8
5 3 12
5 1 14
_
_
y B
2
= A
1
2
=
1
2
_
_
4 10 10
1 1 2
2 4 5
_
_
los valores propios son
B
1

0
1
= 1,
0
2
=
1
2
,
0
3
=
1
5

B
2

0
1
= 1,
0
2
=
1
2
,
0
3
=
1
2

17
Obtenidos con la ayuda de una herramienta de calculo simbolico.
29
5. Suma de la matriz unidad
B
1
= I +A
1
=
_
_
4 2 0
1 5 4
1 1 2
_
_
y B
2
= I +A
2
=
_
_
2 10 10
1 1 2
2 4 7
_
_
los valores propios son
B
1
{
0
1
= 6,
0
2
= 2,
0
3
= 3}
B
2
{
0
1
= 0,
0
2
= 3,
0
3
= 3}
6. Potencias enteras de la matriz
B
1
= A
2
1
=
_
_
7 14 8
3 18 20
3 7 5
_
_
y B
2
= A
3
2
=
_
_
7 30 30
3 2 6
6 12 20
_
_
los valores propios son
B
1
{
0
1
= 25,
0
2
= 1,
0
3
= 4}
B
2
{
0
1
= 1,
0
2
= 8,
0
3
= 8}
El lector puede comprobar facilmente que los valores obtenidos son correctos, en cada
caso, sin mas que calcular los determinantes |B
1

0
i
I| y |B
2

0
i
I| con i = 1, 2, 3 y
vericar que valen cero. Por ejemplo en la propiedad 4, para B
2
= A
1
2
y
0
2
=
1

2
=
1
2
|B
2

0
2
I| =

2
1
2
5 5

1
2

1
2

1
2
1
1 2
5
2

1
2

= 0
Obtencion de los vectores propios
Recordemos, ver pag. 22, que un escalar es un valor propio de f si, y solo si, existe un
vector u 6= 0 de modo que g (u) = f (u) u = 0, el vector u es un vector propio asociado
a .
Una vez localizado un valor propio
i
de f, los vectores propios son aquellos que
verican
f (u)
i
u = 0
o considerada la matriz A asociada a f, respecto de una base del espacio vectorial, son
aquellos vectores u cuyas coordenadas (x
1
, x
2
, . . . , x
n
) respecto de la base satisfagan la
ecuacion matricial
(A
i
I) X = O, donde X es la columna con las coordenadas de u
Que es un sistema homogeneo, la matriz del sistema A
i
I es una matriz singular puesto
que
i
es un valor propio, por tanto el sistema tiene soluciones distintas de cero.
En resumen, localizar los vectores propios asociados a un valor propio
i
consiste en
resolver el sistema de ecuaciones homogeneo (A
i
I) X = O.
30
Veamos un ejemplo, sea la matriz
A =
_
_
15 1 5
3 11 5
6 2 2
_
_
los valores propios son las raices del polinomio caracteristico
|AI| =
3
28
2
+ 240 576 = 0
que valen
1
= 12,
2
= 12,
3
= 4, el valor propio 12 es una raiz doble
|AI| = ( 12)
2
( 4)
(1) los vectores propios asociados al valor propio
1
=
2
= 12 son las soluciones del
sistema homogeneo
(A
1
I) X =
_
_
_
_
15 1 5
3 11 5
6 2 2
_
_

_
_
12 0 0
0 12 0
0 0 12
_
_
_
_
X = 0
_
_
3 1 5
3 1 5
6 2 10
_
_

_
_
x
1
x
2
x
3
_
_
= 0
_
_
3 1 5
0 0 0
0 0 0
_
_

_
_
x
1
x
2
x
3
_
_
= 0
que es equivalente a la ecuacion 3x
1
x
2
5x
3
= 0 de la que se puede despejar x
2
x
1
= , x
2
= 3 5, x
3
=
el conjunto de soluciones depende de dos parametros
(x
1
, x
2
, x
3
) = (, 3 5, ) = (1, 3, 0) + (0, 5, 1)
por lo que forman un subespacio, que esta generado por e
1
= (1, 3, 0) y e
2
= (0, 5, 1).
Tanto e
1
como e
2
son vectores propios asociados al valor propio 12, dado que sus coor-
denadas son solucion del sistema homogeneo. Para ayudar a entender esta armacion
calculamos f (e
1
) y f (e
2
)
_
_
15 1 5
3 11 5
6 2 2
_
_

_
_
1
3
0
_
_
=
_
_
12
36
0
_
_
= 12
_
_
1
3
0
_
_
,
_
_
15 1 5
3 11 5
6 2 2
_
_

_
_
0
5
1
_
_
=
_
_
0
60
12
_
_
donde se comprueba que f (e
1
) = 12e
1
y f (e
2
) = 12e
2
.
(2) los vectores propios asociados al valor propio
3
= 4 son las soluciones del sistema
homogeneo
(A
3
I) X =
_
_
_
_
15 1 5
3 11 5
6 2 2
_
_

_
_
4 0 0
0 4 0
0 0 4
_
_
_
_
X = 0
_
_
11 1 5
3 7 5
6 2 2
_
_

_
_
x
1
x
2
x
3
_
_
= 0
_
_
3 7 5
0 16 8
0 0 0
_
_

_
_
x
1
x
2
x
3
_
_
= 0
31
que es equivalente a las ecuaciones
3x
1
+ 7x
2
5x
3
= 0
16x
2
+ 8x
3
= 0
de las que se obtiene x
1
y x
2
en funcion de x
3
x
1
=
1
2
, x
2
=
1
2
, x
3
=
el conjunto de soluciones depende de un parametro
(x
1
, x
2
, x
3
) =

1
2
,
1
2
,

=
1
2
(1, 1, 2)
por lo que forman un subespacio, que esta generado por e
3
= (1, 1, 2). En este caso e
3
es
un vector propio asociado al valor propio 4, dado que sus coordenadas son solucion del
sistema homogeneo. Calculamos f (e
3
)
_
_
15 1 5
3 11 5
6 2 2
_
_

_
_
1
1
2
_
_
=
_
_
4
4
8
_
_
= 4
_
_
1
1
2
_
_
El vector e
3
no puede ser combinacion lineal de {e
1
, e
2
} pues si lo fuera, perteneceria al
subespacio de vectores propios del valor propio 12 y como consecuencia f (e
3
) = 12e
3
lo
cual no puede ser, por lo que {e
1
, e
2
, e
3
} son linealmente independientes y forman una
base de vectores propios que diagonaliza la matriz A.
Las columnas de la matriz de cambio de base P son las coordenadas de los vectores de la
base. Mostramos P y su inversa
P =
_
_
1 0 1
3 5 1
0 1 2
_
_
, P
1
=
1
8
_
_
11 1 5
6 2 2
3 1 5
_
_
La base de valores propios, por medio de la matriz P, diagonaliza la matriz A, la matriz
diagonal la forman los valores propios
1
8
_
_
11 1 5
6 2 2
3 1 5
_
_
_
_
15 1 5
3 11 5
6 2 2
_
_
_
_
1 0 1
3 5 1
0 1 2
_
_
=
_
_
12 0 0
0 12 0
0 0 4
_
_
Valores propios de las matrices semejantes
Como hemos visto anteriormente, ver pag. 14, dos matrices A y B semejantes guardan
la siguiente relacion B = P
1
A P con alguna una matriz regular P. Desde el punto
de vista vectorial, dos matrices semejantes estan asociadas a la misma aplicacion lineal f
respecto de dos bases distintas. Por tanto
(a) si es un valor propio de f,
existe u 6= 0 de modo que f (u) = u
32
jando una base B
V
del espacio vectorial, llamando X a las coordenadas de u respecto
de B
V
y A a la matriz asociada a f, la ecuacion vectorial f (u) = u se escribe
A X = X
si escogemos otra base B
0
V
, llamando X
0
a las coordenadas de u respecto de B
0
V
y B a la
matriz asociada a f, se verica
B X
0
= X
0
por lo que lo es valor propio de las dos matrices. Si P es la matriz de cambio de base
X = P X
0
las matrices A y B asociadas a f, estan relacionadas por
B = P
1
A P
es decir son semejantes.
(b) si es un valor propio de A quiere decir que lo es de f y por tanto, en virtud de (a),
de cualquier matriz semejante B.
Cuando se trabaja matricialmente, sin considerar formalmente la aplicacion lineal f,
se llama vector propio de una matriz A, asociado a un valor propio , a un vector columna
X 6= O de modo que
A X = X
desde este punto de vista, para una matriz B semejante a la matriz A, los vectores propios
asociados al valor propio son los vectores columna X
0
6= O de modo que
B X
0
= X
0
en general X 6= X
0
, no obstante X y X
0
son las coordenadas del mismo vector u respecto
de las bases B
V
y B
0
V
. En resumen
Si A y B son matrices semejantes, B = P
1
A P, cualquier valor propio de A lo
es tambien de B. Si X es un vector propio de A, asociado al valor propio , entonces
X
0
= P
1
X es un vector propio de B, asociado al valor propio .
A este resultado se puede llegar directamente a traves del siguiente razonamiento
matricial.
Sean A y B matrices semejantes, es decir B = P
1
A P, veamos la relacion entre
las matrices B I y A I
B I = P
1
A P I = P
1
A P P
1
P
=

P
1
AP
1

P = P
1
(AI) P
como consecuencia, el polinomio caracteristico de B vale
|B I| =

P
1
(AI) P

P
1

|A I| |P| = |AI|
Es decir
Todas las matrices semejantes tienen el mismo polinomio caracteristico.
33
Por tanto los valores propios de dos matrices semejantes A y B, las raices del polinomio
caracteristico, son los mismos.
Un vector propio X de A satisface la ecuacion
(AI) X = O
de donde se deduce
(B I) X
0
=

P
1
(A I) P

P
1
X

= P
1
(AI) X = P
1
O = O
Por tanto X
0
= P
1
X es un vector propio de B.
Diagonalizacion de las matrices reales simetricas
Como se ha visto, pag. 21, no siempre es posible obtener una base de vectores propios,
por lo que no siempre es posible diagonalizar una matriz o una aplicacion lineal.
Sin embargo, las matrices reales simetricas siempre son diagonalizables por semejanza,
lo que se basa en las siguientes propiedades de sus valores y vectores propios, que no
demostramos.
Sea una matriz A real y simetrica de orden n, se verica que
1. La matriz A tiene n valores propios reales
i
con i = 1, 2, . . . , n, iguales o distintos.
2. Si X e Y son los vectores propios asociados a dos valores propios
i
6=
j
, entonces
X
T
Y = 0.
3. La dimension del subespacio, de vectores propios, asociados a cada valor propio
i
tiene dimension m
i
, siendo m
i
la multiplicidad
18
de
i
.
Dado que dos vectores propios asociados a dos valores propios distintos son lineal-
mente independientes y en base a la propiedad 3, tomando una base de cada uno de los
subespacios asociados a cada valor propio distinto, se obtienen m
1
+. . . +m
p
= n vectores
propios linealmente independientes, es decir una base de R
n
de vectores propios lo que,
como se vio pag. 18, garantiza la diagonalizacion de la matriz.
D = P
1
A P
donde D es la matriz diagonal formada por los valores propios y las columnas de P son
las coordenadas de los vectores de la base de vectores propios obtenida.
Ademas si se considera en R
n
el producto escalar canonico X
T
Y , en virtud de la
propiedad 2, y tomando las bases de los subespacios propios ortonormales, se obtiene un
sistema de n vectores ortonormales, por lo que la base obtenida es ortonormal. Como
consecuencia la matriz P es ortogonal es decir P
1
= P
T
. En este caso se dice que la
matriz A se ha diagonalizado ortogonalmente. Lo que podemos resumir por medio de la
siguiente propiedad
Toda matriz A real y simetrica es ortogonalmente diagonalizable, es decir existe una
matriz P ortogonal de modo que D = P
T
A P sea diagonal.
donde D esta formada por los valores propios de A y las columnas de P son los vectores
propios escogidos de forma que sean ortonormales.
Veamos unos ejemplos que ilustran las propiedades anteriores.
18
La multiplicidad de
i
es el exponente m
i
que aparece en la factorizacion del polinomio caracteristico
P () = c
0
(
1
)
m
1
. . . (
i
)
m
i
. . . (
p
)
m
p
, donde m
1
+ . . . + m
p
= n.
34
1. Sea la matriz simetrica
A =
_

_
1 2 21 2
2 19 2 9
21 2 1 2
2 9 2 19
_

_
su polinomio caracteristico es
|AI| =
4
40
3
100
2
+ 16000 120000
cuyas raices, los valores propios, son

1
= 30,
2
= 20,
3
= 20,
4
= 10
los vectores propios, para cada uno de los
i
, se obtienen resolviendo cada uno de
los cuatro sistemas homogeneos (A
i
I) X = O.
La solucion de cada uno de los sistemas dependera de un solo parametro, puesto
que, el conjunto de soluciones de cada uno de los sistemas debe de ser un subespacio
de dimension igual a uno.
(a) Vectores propios de
1
= 30
(A30I) X =
_

_
29 2 21 2
2 11 2 9
21 2 29 2
2 9 2 11
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
0
0
0
0
_

_
X =
_

_
1
2
1
2
_

_
El subespacio de vectores propios U
1
= {(1, 2, 1, 2) , con R} asociado al valor
propio
1
= 30 esta generado por e
1
= (1, 2, 1, 2) .
(b) Vectores propios de
2
= 20
(A (20) I) X =
_

_
21 2 21 2
2 39 2 9
21 2 21 2
2 9 2 39
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
0
0
0
0
_

_
X =
_

_
1
0
1
0
_

_
el subespacio U
2
de soluciones esta generado por e
2
= (1, 0, 1, 0).
(c) Vectores propios de
3
= 20
(A20I) X =
_

_
19 2 21 2
2 1 2 9
21 2 19 2
2 9 2 1
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
0
0
0
0
_

_
X =
_

_
2
1
2
1
_

_
en este caso el subespacio U
3
esta generado por e
3
= (2, 1, 2, 1).
(d) Vectores propios de
4
= 10
(A10I) X =
_

_
9 2 21 2
2 9 2 9
21 2 9 2
2 9 2 9
_

_
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
0
0
0
0
_

_
X =
_

_
0
1
0
1
_

_
35
por ultimo, el subespacio U
4
esta generado por e
4
= (0, 1, 0, 1).
El sistema {e
1
, e
2
, e
3
, e
4
} esta formado por vectores propios asociados, cada uno de
ellos, a un valor propio distinto, por tanto son linealmente independientes y forman
una base que diagonaliza la matriz A, la matriz de cambio de base esta formada por
las coordenadas de los vectores e
i
P =
_

_
1 1 2 0
2 0 1 1
1 1 2 0
2 0 1 1
_

_
P
1
=
1
10
_

_
1 2 1 2
5 0 5 0
2 1 2 1
0 5 0 5
_

_
lo que comprobamos a continuacion
P
1

_
1 2 21 2
2 19 2 9
21 2 1 2
2 9 2 19
_

_
P =
_

_
30 0 0 0
0 20 0 0
0 0 20 0
0 0 0 10
_

_
= D
el primer elemento de la diagonal de D es el valor propio que corresponde al vector
propio situado en la primera columna de P y asi sucesivamente. Por tanto, si
cambiamos el orden de las columnas de P obtenemos otra matriz diagonal diferente,
con los mismos elementos pero en distinto orden.
Puesto que la matriz A es real y simetrica, los vectores {e
1
, e
2
, e
3
, e
4
} son ortogonales
dos a dos, la matriz P esta formada por vectores ortogonales, pero al no ser normales,
la matriz P no es una matriz ortogonal, es decir, el producto P
T
P no es la matriz
unidad
P
T
P =
_

_
1 2 1 2
1 0 1 0
2 1 2 1
0 1 0 1
_

_
1 1 2 0
2 0 1 1
1 1 2 0
2 0 1 1
_

_
=
_

_
10 0 0 0
0 2 0 0
0 0 10 0
0 0 0 2
_

_
= N
no obstante, es una matriz diagonal cuyos elementos son el cuadrado de los modulos
de cada columna. De la ecuacion matricial P
T
P = N se deduce que
P
1
= N
1
P
T
=
_

_
1
10
0 0 0
0
1
2
0 0
0 0
1
10
0
0 0 0
1
2
_

_
1 2 1 2
1 0 1 0
2 1 2 1
0 1 0 1
_

_
=
1
10
_

_
1 2 1 2
5 0 5 0
2 1 2 1
0 5 0 5
_

_
que es el valor obtenido mas arriba, por calculo con los metodos habituales, de la
inversa.
Si se quiere diagonalizar la matriz A ortogonalmente, es necesario obtener una base
ortonormal, para lo cual solo hace falta normalizar los vectores de la base ortogonal
{e
1
, e
2
, e
3
, e
4
} lo cual se puede hacer matricialmente
19

N
1
=
_

_
1

10
0 0 0
0
1

2
0 0
0 0
1

10
0
0 0 0
1

2
_

_
P
N
= P

N
1
19
Teniendo en cuenta que, hacer operaciones elementales de columnas equivale a postmultiplicar la
matriz por una matriz elemental. En este caso queremos multiplicar cada columna por el inverso del
modulo de la columna.
36
lo que comprobamos a continuacion
P
N
=
_

_
1 1 2 0
2 0 1 1
1 1 2 0
2 0 1 1
_

_
1

10
0 0 0
0
1

2
0 0
0 0
1

10
0
0 0 0
1

2
_

_
=
_

_
1

10

1

2
2

10
0
2

10
0
1

10
1

2
1

10
1

2
2

10
0

10
0
1

10
1

2
_

_
las columnas de P
N
son unitarias, por tanto la matriz P
N
es una matriz ortogonal,
lo que comprobamos efectuando el producto P
T
N
P
N
_

_
1

10
2

10
1

10

2

10

2
0
1

2
0
2

10

1

10
2

10
1

10
0
1

2
0
1

2
_

_
1

10

1

2
2

10
0
2

10
0
1

10
1

2
1

10
1

2
2

10
0

10
0
1

10
1

2
_

_
=
_

_
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_

_
de P
T
N
P
N
= I se deduce que (P
N
)
1
= P
T
N
. La matriz P
N
diagonaliza ortogonal-
mente la matriz real simetrica A
P
T
N

_

_
1 2 21 2
2 19 2 9
21 2 1 2
2 9 2 19
_

_
P
N
=
_

_
30 0 0 0
0 20 0 0
0 0 20 0
0 0 0 10
_

_
2. Este ejemplo es similar al anterior, por lo que mostraremos los resultados obtenidos,
comentando unicamente las diferencias con el caso anterior.
Sea la matriz simetrica
A =
_

_
5 0 0 1
0 5 1 0
0 1 5 0
1 0 0 5
_

_
el polinomio caracteristico, los valores propios y el polinomio caracteristico factori-
zado son
|A I| =
4
20
3
+ 148
2
480 + 576

1
=
2
= 6 y
3
=
4
= 4
|A I| = ( 6)
2
( 4)
2
A continuacion vamos a calcular los subespacios de vectores propios, que por ser
una matriz real simetrica, seran de dimension 2 que es el orden de multiplicidad de
las raices del polinomio caracteristico.
(a) Subespacio de vectores propios asociado a
1
=
2
= 6
(A 6I)X =
_

_
1 0 0 1
0 1 1 0
0 1 1 0
1 0 0 1
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
0
0
0
0
_

_
X
1
=
_

_
2
1
1
2
_

_
, X
2
=
_

_
1
1
1
1
_

_
Puesto que e
1
= (2, 1, 1, 2) y e
2
= (1, 1, 1, 1) son vectores propios linealmente inde-
pendientes, seran una base del subespacio de vectores propios U
1
asociado al valor
37
propio repetido
1
=
2
= 6.
(b) Subespacio de vectores propios asociado a
3
=
4
= 4
(A 4I) X =
_

_
1 0 0 1
0 1 1 0
0 1 1 0
1 0 0 1
_

_
x
1
x
2
x
3
x
4
_

_
=
_

_
0
0
0
0
_

_
X
3
=
_

_
3
1
1
3
_

_
, X
4
=
_

_
0
2
2
0
_

_
Los vectores e
3
= (3, 1, 1, 3) y e
4
= (0, 2, 2, 0) son una base del subespacio de
vectores propios U
2
asociado al valor propio repetido
3
=
4
= 4.
Por lo que {e
1
, e
2
, e
3
, e
4
} es una base de vectores propios que diagonaliza la matriz
A
P =
_

_
2 1 3 0
1 1 1 2
1 1 1 2
2 1 3 0
_

_
, P
1
=
1
12
_

_
6 6 6 6
6 12 12 6
2 0 0 2
1 3 3 1
_

_
El producto P
1
A P es la matriz diagonal D de valores propios.
1
12
_

_
6 6 6 6
6 12 12 6
2 0 0 2
1 3 3 1
_

_
5 0 0 1
0 5 1 0
0 1 5 0
1 0 0 5
_

_
2 1 3 0
1 1 1 2
1 1 1 2
2 1 3 0
_

_
=
_

_
6 0 0 0
0 6 0 0
0 0 4 0
0 0 0 4
_

_
Los vectores {e
1
, e
2
, e
3
, e
4
} no forman un sistema ortogonal, dado e
1
y e
2
se eligieron
arbitrariamente, al igual que e
3
y e
4
, lo que comprobamos efectuando el producto
P
T
P
_

_
2 1 1 2
1 1 1 1
3 1 1 3
0 2 2 0
_

_
2 1 3 0
1 1 1 2
1 1 1 2
2 1 3 0
_

_
=
_

_
10 6 0 0
6 4 0 0
0 0 20 4
0 0 4 8
_

_
los ceros que aparecen en P
T
P indican que, e
1
es ortogonal a e
3
y e
4
, y e
2
tambien
es ortogonal a e
3
y e
4
. Pero e
1
y e
2
no son ortogonales entre si, como tampoco lo
son e
3
y e
4
.
Si se quiere diagonalizar A ortogonalmente, lo cual siempre es posible, hay que
localizar una base ortogonal de cada uno de los subespacios de vectores propios U
1
y U
2
.
Por ejemplo los vectores
(a) f
1
= (0, 1, 1, 0) y f
2
= (1, 0, 0, 1) para U
1
(b) f
3
= (0, 1, 1, 0) y f
4
= (1, 0, 0, 1) para U
2
La base formada por los vectores {f
1
, f
2
, f
3
, f
4
} es ortogonal, lo que comprobamos
efectuando el producto P
0T
P
0
_

_
0 1 1 0
1 0 0 1
0 1 1 0
1 0 0 1
_

_
0 1 0 1
1 0 1 0
1 0 1 0
0 1 0 1
_

_
=
_

_
2 0 0 0
0 2 0 0
0 0 2 0
0 0 0 2
_

_
La base ortonormal, que diagonaliza la matriz A ortogonalmente, la obtenemos a
partir de {f
1
, f
2
, f
3
, f
4
} multiplicando cada vector por el inverso de su modulo, en
38
este caso

2
P
N
=
1

2
P
0
=
1

2
_

_
0 1 0 1
1 0 1 0
1 0 1 0
0 1 0 1
_

_
La matriz P
N
es una matriz ortogonal, es decir, (P
N
)
1
= (P
N
)
T
. El producto
(P
N
)
T
A P
N
es la diagonal de valores propios
1

2
_

_
0 1 1 0
1 0 0 1
0 1 1 0
1 0 0 1
_

_
5 0 0 1
0 5 1 0
0 1 5 0
1 0 0 5
_

2
_

_
0 1 0 1
1 0 1 0
1 0 1 0
0 1 0 1
_

_
=
_

_
6 0 0 0
0 6 0 0
0 0 4 0
0 0 0 4
_

_
39

Você também pode gostar