Você está na página 1de 30

MA460: Algebra Lineal II 30

2 Estructura de Aplicaciones Lineales


El algebra lineal consiste mayormente en el estudio de las propiedades de aplicaciones lin-
eales. En este captulo se analizar a la estructura de una aplicaci on lineal de un espacio vecto-
rial V en s mismo. Mucho depende de si V posee alguna estructura extra, como por ejemplo
un producto escalar: el siguiente captulo abordar a ese caso. Por ahora, se considera la
situaci on en donde V es nitodimensional, sin usar un concepto de ortogonalidad. A cada
aplicaci on lineal se le asocia unos polinomios que sirven para revelar su estructura.
2.1 Autovalores y autovectores
Denici on 2.1. Sea V un espacio vectorial sobre un cuerpo F. Un operador lineal sobre V es
una aplicaci on lineal T : V V. El espacio vectorial L(V, V) de todos los operadores lineales
sobre V se denotar a por End
F
(V), o bien por End(V) cuando el cuerpo F es implcito del
contexto.
1
El espacio vectorial End(V) es tambi en un anillo, cuya operaci on multiplicativa es la
composici on de operadores. En efecto, si R, S, T End(V), entonces R(S T) = (RS )T (aso-
ciatividad); la aplicaci on identidad I : x x cumple IT = TI = T; y las leyes distributivas
T(R+S ) = TR+TS y (R+S )T = RT +S T tambi en se cumplen. Adem as, la composici on
de operadores es compatible con la multiplicaci on escalar: c(S T) = (cS )T = S (cT) para
S, T End(V) y c F, ya que estas tres expresiones llevan x V en cS (T(x)) V. En otras
palabras, End(V) es un algebra sobre F.
Denici on 2.2. Sea V un espacio vectorial sobre F y sea T End(V). Un autovalor de T es
un escalar F tal que la ecuaci on
T(x) = x (2.1)
tenga una soluci on x 0. Un vector no nulo
2
x V que cumple (2.1) se llama un autovector
asociado al autovalor .
Algunos autores dicen valor propio en vez de autovalor y vector propio en vez de
autovector.
3
Si B = x
1
, . . . , x
n
es una base (ordenada) de V, la expansi on x = c
1
x
1
+ +c
n
x
n
deter-
mina un isomorsmo lineal V F
n
: x c = [x]
B
dado por (1.3). A su vez, la f ormula (1.6)
1
Una aplicaci on lineal de V en s mismo recibe el nombre de endomorsmo de V. Hay que advertir que este
t ermino se vuelve ambiguo cuando el espacio vectorial V posee m as estructura (un producto, por ejemplo), en
cuyo caso se podra demandar que un endomorsmo de V en V preserva todas sus operaciones algebraicas. Para
evitar esa clase de discusiones, se emplea el t ermino operador lineal en vez de endomorsmo en este texto.
2
La ecuaci on T(x) = x tiene la soluci on trivial x =0 cualquiera que sea el coeciente . Se descarta siempre
la soluci on trivial: el vector 0 nunca puede ser autovector de un operador lineal.
3
La terminologa viene en primera instancia del alem an, donde David Hilbert emple o la palabra Eigenwert
en 1904 en un artculo sobre ecuaciones integrales: Eigen = auto, wert = valor. (Huyan de las malas traduc-
ciones que hablan de eigenvalores y eigenvectores.) La usanza moderna aparece en: John von Neumann,
Allgemeine Eigenwerttheorie Hermitescher Funktionaloperatoren, Mathematische Annalen 102 (1929), 49
131. Von Neumann declara: Ein Eigenwert ist eine Zahl , zu der es eine Funktion f 0 mit Rf = f gibt; f ist
dann Eigenfunktion.
MA460: Algebra Lineal II 31
es aplicable con la misma base en el dominio y el codominio de T, es decir,
T(x
j
) =:
n

i=1
a
i j
x
i
, A = [T]
B
B
. (2.2)
Por la discusi on despu es de la Denici on 1.27, se sabe que [T(x)]
B
= A[x]
B
, de modo que
las correspondencias T A T
A
establecen isomorsmos lineales entre End(V), M
n
(F)
y End(F
n
). Adem as, estas correspondencias convierten la composici on de operadores en
multiplicaci on de matrices y viceversa, de modo que estas tres F- algebras son isomorfos
como algebras sobre F.
As las cosas, cada propiedad de aplicaciones lineales induce una propiedad paralela de
matrices. Por ejemplo, las matrices pueden poseer autovalores y autovectores.
Denici on 2.3. Sea A M
n
(F) una matriz cuadrada. Un autovalor de A es un autovalor de
T
A
, es decir, un escalar F tal que la ecuaci on
Ax = x
tenga una soluci on x 0 en F
n
. Un vector no nulo x F
n
tal que Ax = x es un autovector
de A asociado al autovalor .
Lema 2.4. Sea V un espacio vectorial nitodimensional sobre F. Para un operador lineal
T End(V) y F, son equivalentes las siguientes condiciones:
(a) es un autovalor de T;
(b) el operador lineal (T I) no es inversible en End(V);
(c) ker(T I) 0.
Demostraci on. (a) (b): Un escalar es un autovalor de T si y s olo si hay x V con
x 0 y T(x) = x, si y s olo si hay x 0 tal que (T I)(x) = 0, si y s olo si (T I) no
es inyectivo, si y s olo si (T I) no es biyectivo. Esta ultima equivalencia se debe a que
n(T I) +r(T I) = dimV; por lo tanto, un operador lineal es inyectivo si y s olo si es
sobreyectivo.
4
(b) (c): Hay un vector x 0 tal que (T I)(x) = 0 si y s olo si hay x ker(T I)
con x 0.
Lema 2.5. Para una matriz cuadrada A M
n
(F) y F, son equivalentes las siguientes
condiciones:
(a) es un autovalor de A;
(b) la matriz (AI
n
) no es inversible en M
n
(F);
(c) det (AI
n
) = 0.
4
Esta conclusi on depende de la nitud de dimV, para que las igualdades n(T I) = 0 y r(T I) = dimV
sean equivalentes. Sobre espacios vectoriales de dimensi on innita, hay operadores lineales inyectivas pero no
sobreyectivas. V ease el Ejercicio 1.11, por ejemplo.
MA460: Algebra Lineal II 32
Demostraci on. La equivalencia (a) (b) sigue del lema anterior, para el caso T = T
A
. La
equivalencia (b) (c) sigue de la Proposici on 1.47.
Corolario 2.6. Si A M
n
(F) es una matriz triangular, sus autovalores son sus elementos
diagonales a
11
, a
22
, . . . , a
nn
.
Demostraci on. Sup ongase que A es triangular superior, es decir, a
i j
= 0 para i > j. Si es
un autovalor de A, entonces det (AI
n
) = 0 o bien, lo que es lo mismo, det (I
n
A) = 0.
Explcitamente,
det (I
n
A) =

a
11
a
12
. . . a
1n
0 a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
nn

= (a
11
)(a
22
) . . . (a
nn
),
porque la matriz I
n
A tambi en es triangular superior. Entonces es un autovalor de A si y
s olo si a
kk
= 0 para alg un k, si y s olo si a
11
, a
22
, . . . , a
nn
.
En el caso de que A sea una matriz triangular inferior, la demostraci on es similar.
Denici on 2.7. Si A M
n
(F) es una matriz cuadrada, el polinomio caracterstico de A se
dene por
p
A
(t) := det (t I
n
A) = (1)
n
det (At I
n
). (2.3)
Por ejemplo, si n = 4, el polinomio caracterstico de A viene dado por
p
A
(t) =

t a
11
a
12
a
13
a
14
a
21
t a
22
a
23
a
24
a
31
a
32
t a
33
a
34
a
41
a
42
a
43
t a
44

a
11
t a
12
a
13
a
14
a
21
a
22
t a
23
a
24
a
31
a
32
a
33
t a
34
a
41
a
42
a
43
a
44
t

.
Los procedimientos de c alculo de determinantes muestran que p
A
(t) es un polinomio de
grado n. Por ejemplo, la f ormula de Leibniz (1.15) muestra que
p
A
(t) = (t a
11
)(t a
22
) . . . (t a
nn
) +otros t erminos,
donde cada uno de los otros t erminos es un producto de (1) por n entradas de la matriz
t I
n
A, de las cuales a lo sumo (n 2) entradas pueden ser diagonales: esta parte forma un
polinomio de grado no mayor que (n2). Entonces se ve que
p
A
(t) = t
n
(a
11
+a
22
+ +a
nn
) t
n1
+ .
[[ La Proposici on 2.16, m as adelante, ofrece f ormulas para todos los coecientes de p
A
(t). ]]
El polinomio p
A
(t) es un polinomio m onico,
5
es decir, su primer coeciente no nulo es 1.
5
Algunos autores denen p
A
(t) := det (At I
n
). Bajo ese convenio, el primer coeciente no nulo sera (1)
n
.
No es mucha la diferencia; sin embargo, es m as c omodo elegir el signo de manera que el polinomio caracterstico
sea m onico.
MA460: Algebra Lineal II 33
Lema 2.8. Si A, B M
n
(F) son dos matrices semejantes, entonces det B = det A.
Demostraci on. Las matrices A y B son semejantes si y s olo si hay una matriz inversible P tal
que B = P
1
AP. Ahora det P
1
= 1/(det P) porque (det P
1
)(det P) = det (P
1
P) = det I
n
= 1.
Entonces
det B = det (P
1
AP) = (det P
1
)(det A)(det P) = det A.
Corolario 2.9. Si A, B M
n
(F) son matrices semejantes, entonces p
B
(t) = p
A
(t).
Denici on 2.10. Si V es un espacio vectorial de dimensi on nita sobre F y si T End(V),
su determinante det T F se dene por det T := det [T]
B
B
, donde B es una base cualquiera
de V.
El escalar det T est a bien denida, porque si A = [T]
B
B
y B = [T]
C
C
son las matrices de T
con respecto a dos bases distintas B, C de V, entonces la matriz de cambio de base P = [I]
B
C
es inversible, con inverso P
1
= [I]
C
B
; por tanto,
B = [T]
C
C
= [I]
C
B
[T]
B
B
[I]
B
C
= P
1
AP (2.4)
y del Lema 2.8 se concluye que det B = det A.
Denici on 2.11. Sea T End(V) un operador lineal sobre un espacio vectorial nitodimen-
sional V. El polinomio caracterstico de T es el polinomio p
T
(t) F[t] denido por
p
T
(t) := det (t I T) = (1)
dimV
det (T t I). (2.5)
Proposici on 2.12. Si A M
n
(F) es una matriz cuadrada, los autovalores de A son las races
de su polinomio caracterstico p
A
(t). Por lo tanto, A posee a lo sumo n autovalores distintos.
Demostraci on. El Lema 2.5 dice que es un autovalor de A si y s olo si p
A
() = 0.
Ejemplo 2.13. Consid erese la siguiente matriz J M
2
(F):
J =
_
0 1
1 0
_
. (2.6)
Su polinomio caracterstico es

t 1
1 t

= t
2
+1. Ahora, si F = R o Q, el polinomio t
2
+1 es
irreducible
6
y no posee races en F. Este es un ejemplo de una matriz que no posee autovalor
alguno en F.
Por otro lado, si F = C, la factorizaci on t
2
+1 = (t i)(t +i) muestra que i, i podran ser
autovalores de J. Es f acil adivinar un par de autovectores en C
2
, para vericar que i y i son
en efecto autovalores de J; por ejemplo,
_
0 1
1 0
_ _
1
i
_
=
_
i
1
_
= i
_
1
i
_
,
_
0 1
1 0
_ _
1
i
_
=
_
i
1
_
= i
_
1
i
_
.
6
En el caso F = F
p
:= 0, 1, . . . , p1, el cuerpo nito de residuos m odulo divisi on por un entero primo p,
la existencia de races de t
2
+1 en F
p
es un tema interesante de la teora de n umeros. Se sabe que 1 es un
cuadrado m odulo p si y s olo si p = 2 o bien p = 4m+1 para alg un m N.
MA460: Algebra Lineal II 35
Seguidamente,
Caso = 3 :
_

_
4 0 2
0 2 2
2 2 3

0
0
0
_

_
4 0 2
0 2 2
0 2 2

0
0
0
_

_
4 0 2
0 2 2
0 0 0

0
0
0
_

_
;
cuya soluci on es
0x
3
= 0, 2x
2
+2x
3
= 0, 4x
1
2x
3
= 0 = x =
_

1
2
x
3
x
3
x
3
_

_
=
1
2
x
3
_

_
1
2
2
_

_
.
Estos tres autovectores forman las columnas de una matriz
P =
_

_
2 2 1
2 1 2
1 2 2
_

_
.
Esta matriz cuadrada P es inversible: es f acil calcular que det P = 27 y que
adj P =
_

_
6 6 3
6 3 6
3 6 6
_

_
, P
1
=
1
det P
adj P =
1
9
_

_
2 2 1
2 1 2
1 2 2
_

_
.
Se ve por c alculo directo que AP = PD, donde D es una matriz diagonal. En efecto,
AP =
_

_
1 0 2
0 1 2
2 2 0
_

_
_

_
2 2 1
2 1 2
1 2 2
_

_
=
_

_
0 6 3
0 3 6
0 6 6
_

_
=
_

_
2 2 1
2 1 2
1 2 2
_

_
_

_
0 0 0
0 3 0
0 0 3
_

_
= PD.
Las entradas diagonales de la matriz D son precisamente los tres autovalores 0, 3, 3 de la
matriz A, en el orden que corresponde al orden de las columnas de P. La ecuaci on AP = PD
tambi en puede escribirse en la forma
P
1
AP = D. (2.7)
En otras palabras, la matriz A es semejante a una matriz diagonal D, mediante conjugaci on
A P
1
AP por una matriz inversible P cuyas columnas son los autovectores de A. Se dice
que la matriz A es diagonalizable. M as adelante se estudiar a las condiciones y circunstancias
necesarias para que una determinada matriz cuadrada sea diagonalizable.
Para obtener una f ormula para el polinomio caracterstico, conviene introducir un poco de
notaci on para submatrices.
Notaci on. Consid erese dos juegos de ndices I := i
1
, . . . , i
k
1, . . . , m y J := j
1
, . . . , j
l

1, . . . , n, numerados en orden creciente: i
1
< i
2
< < i
k
y j
1
< j
2
< < j
l
. Si A es una
matriz mn, den otese por A
I J
la submatriz k l de A formado por las entradas a
i j
con i I,
j J.
Sean I

:= 1, . . . , m \ I y tambi en J

:= 1, . . . , n \ J. Se dice que la submatriz A


I

J
es
complementaria a A
I J
.
MA460: Algebra Lineal II 36
Denici on 2.15. Si A M
n
(F) es una matriz cuadrada y si I = i
1
, . . . , i
k
1, . . . , n, entonces
A
II
M
k
(F) se llama una submatriz principal de A. Su determinante m
II
:= det A
II
se llama
un menor principal de A. Para cada k = 1, . . . , n, hay
_
n
k
_
menores principales de A obtenidos
de submatrices k k.
Proposici on 2.16. Si A M
N
(F) es una matriz cuadrada, su polinomio caracterstico tiene
la forma
p
A
(t) = t
n

1
(A) t
n1
+
2
(A) t
n2
+(1)
n1

n1
(A) t +(1)
n

n
(A), (2.8a)
donde
1
(A) = tr A := a
11
+ +a
nn
es la traza de A;
n
(A) = det A; y en general

k
(A) =

I=k
det A
II
para k = 1, . . . , n (2.8b)
es la suma de todos los menores principales k k de la matriz A.
Demostraci on. En el desarrollo de Leibniz del determinante
p
A
(t) = det (t I
n
A) =

t a
11
a
12
. . . a
1n
a
21
t a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . t a
nn

,
el coeciente de t
nk
es la suma de todos los t erminos obtenidos de la siguiente forma: eljanse
k ndices I =i
1
, . . . , i
k
1, . . . , n; t omese el t ermino t del binomio (t a
ll
) para l I; f ormese
el producto de estos t con t erminos (a
i j
) de las las I y las columnas I sin repetir las ni
columnas; multiplquese por el signo de la permutaci on de las contra columnas. De este
modo, el coeciente de t
nk
es

I=k

(1)

(a
i
1
j
1
) . . . (a
i
k
j
k
),
donde la suma recorre las permutaciones S
n
que dejan jos los ndices diagonales en I

,
es decir, (i
r
) = j
r
para r = 1, . . . , k; (l) = l para l I. Entonces se puede escribir =
II
,
donde
II
es la permutaci on de baraje
7
que lleva (1, . . . , n) en (I, I

) = (i
1
, . . . , i
k
, i

1
, . . . , i

nk
)
con i
1
< < i
k
y i

1
< < i

nk
; y es una permutaci on de 1, . . . , k que deja jos k +1, . . . , n.
Luego, el coeciente de t
nk
es

I=k

(1)

(a
i
1
i
(1)
) . . . (a
i
k
i
(k)
) = (1)
k

I=k

(1)

a
i
1
i
(1)
. . . a
i
k
i
(k)
= (1)
k

I=k
det A
II
.
Por lo tanto, p
A
(t) =
_
n
k=0
(1)
k

k
(A) t
nk
.
7
Barajar un naipe signica separar el naipe en dos partes y luego permutar las cartas de modo que se
conserve el orden relativo dentro de cada parte. Las permutaciones de baraje forman un tema importante en
la teora combinatoria. V ease, por ejemplo: Richard Stanley, Enumerative Combinatorics, tomo 1, Cambridge
University Press, 1997.
MA460: Algebra Lineal II 37
Corolario 2.17. Las sumas de menores principales son invariantes bajo semejanza: si A
M
n
(F) y si P M
n
(F) es inversible, entonces
k
(A) =
k
(P
1
AP) para k = 1, . . . , n.
Si A es una matriz triangular, con autovalores
1
, . . . ,
n
en la diagonal, las submatrices
principales A
II
son tambi en triangulares; en este caso, los menores principales k k son
productos de k elementos diagonales. Del Corolario 2.6, se ve que
tr A =
1
+
2
+ +
n
,

2
(A) =
1

2
+
1

3
+ +
n1

n
,

3
(A) =
1

3
+
1

4
+ +
n2

n1

n
,
.
.
.
.
.
.
det A =
1

2
. . .
n
. (2.9)
De hecho, estas f ormulas valen para cualquier matriz A cuyos autovalores son
1
, . . . ,
n
,
como se ver a m as adelante.
El argumento de la demostraci on anterior es aplicable al c alculo de determinantes. Hay una
generalizaci on importante del desarrollo seg un una la (o columna), que consiste en expandir
en varias las (o columnas) a la vez. La f ormula siguiente se conoce como el desarrollo de
Laplace de un determinante.
8
Proposici on 2.18. Sea A M
n
(F) una matriz cuadrada y sea I =i
1
, . . . , i
k
un juego de ndices
de las las de A. Si J = j
1
, . . . , j
k
es un juego de ndices de k columnas cualesquiera, sea
s(I, J) := i
1
+ +i
k
+ j
1
+ + j
k
. Entonces
det A =

J=k
(1)
s(I,J)
(det A
I J
) (det A
I

J
),
donde la sumatoria recorre las
_
n
k
_
posibilidades para J.
La demostraci on de esta f ormula se deja como ejercicio.
2.2 El teorema de Cayley y Hamilton
Antes de abordar la propiedad m as famosa del polinomio caracterstico, es util recordar cier-
tos propiedades elementales de los polinomios. Ya se sabe que F[t] es un algebra conmutativa
sobre el cuerpo F. Esta algebra es entera,
9
es decir, no posee divisores de cero: si f (t) 0
8
Pierre-Simon de Laplace, matem atico y astr onomo franc es, dio la regla de expansi on en 1772, en uno de
sus primeros trabajos sobre las orbitas planetarias, en el cual tuvo que resolver algunos sistemas de ecuaciones
lineales.
9
La terminologa tiene una historia curiosa. Un anillo A (estructura con suma y producto compatibles) es
un anillo entero si para a, b A, la relaci on ab = 0 implica a = 0 o bien b = 0. Esta es una propiedad clave de
los n umeros enteros Z. A veces A se llama dominio entero o, menos correctamente, dominio de integridad:
Kronecker emple o este t ermino para distinguirlo de un cuerpo, que el llam o dominio de racionalidad.
MA460: Algebra Lineal II 38
y g(t) 0, entonces f (t)g(t) 0 tambi en. Esto es evidente al recordar la ley de producto:
_ n

j=0
a
j
t
j
__ m

k=0
b
k
t
k
_
=
n

j=0
m

k=0
a
j
b
k
t
j+k
=
n+m

r=0
_

j+k=r
a
j
b
k
_
t
r
,
porque a
n
0, b
m
0 implican a
n
b
n
0. Los grados se suman: si gr f (t) = n, gr g(t) = m,
entonces gr( f (t)g(t)) = n+m.
Un polinomio g(t) es un factor de otro polinomio f (t) si f (t) = q(t) g(t) para alg un poli-
nomio q(t). En este caso, se dice que g(t) divide f (t) y se escribe g(t) \ f (t). En el caso
contrario, donde g(t) no divide f (t), se puede ejecutar una divisi on con residuo, seg un el lema
siguiente.
10
Lema 2.19. Si f (t) y g(t) son dos polinomios en F[t] con g(t) 0, entonces hay un unico par
de polinomios q(t), r(t) tales que
f (t) = q(t)g(t) +r(t), con
_

_
gr r(t) < gr g(t),
o bien r(t) = 0.
(2.10)
Demostraci on. Escrbase f (t) = a
n
t
n
+ +a
1
t +a
0
y g(t) = b
m
t
m
+ +b
1
t +b
0
. Si m > n,
t omese q(t) := 0, r(t) := f (t).
En cambio, si m n, entonces
f
1
(t) := f (t)
a
n
b
m
t
nm
g(t)
es un polinomio con gr f
1
(t) < n. Al invocar inducci on sobre n, se puede suponer que f
1
(t) =
q
1
(t)g(t) +r(t), con gr r(t) < m o bien r(t) = 0. Entonces
f (t) =
_
a
n
b
m
t
nm
+q
1
(t)
_
g(t) +r(t),
y el resultado (2.10) sigue por la inducci on sobre n.
Para la unicidad de q(t) y r(t), obs ervese que si q(t)g(t) +r(t) = q(t)g(t) + r(t), entonces
_
q(t) q(t)
_
g(t) = r(t) r(t). Si esta ecuaci on no es 0 = 0, entonces al lado izquierdo el grado
sera m, mientras al lado derecho el grado sera < m, lo cual es imposible. Por tanto r(t) =
r(t) y
_
q(t) q(t)
_
g(t) = 0. Como F[t] es entero y g(t) 0, se concluye que q(t) q(t) = 0.
Lema 2.20 (Teorema del residuo). Si a F, el residuo de la divisi on de un polinomio
f (t) F[t] por (t a) es igual a f (a).
Demostraci on. Escrbase f (t) = (t a)q(t) +r(t), seg un (2.10). Entonces r(t) es un polinomio
constante r
0
, porque si no es nulo su grado es menor que gr(t a) =1. Al evaluar esta ecuaci on
polinomial en a F, se obtiene f (a) = (aa)q(a) +r(a) = r(a) = r
0
.
10
El uso de la raya inclinada para denotar divisi on se preere sobre la raya vertical g(t) f (t), por recomen-
daci on de libro: Ronald Graham, Donald Knuth y Oren Patashnik, Concrete Mathematics, Addison-Wesley,
Reading, MA, 1989.
MA460: Algebra Lineal II 39
Corolario 2.21 (Teorema del factor). Un polinomio f (t) tiene (t a) como factor de primer
grado si y s olo si f (a) = 0.
Denici on 2.22. Si f (t), g(t) son dos polinomios en F[t], su m aximo com un divisor k(t) =
mcd( f (t), g(t)) es el ( unico) polinomio tal que
(i) k(t) \ f (t), k(t) \ g(t);
(ii) si h(t) \ f (t) y h(t) \ g(t), entonces h(t) \ k(t);
(iii) k(t) es m onico, es decir, de la forma k(t) = t
m
+c
m1
t
m1
+ +c
1
t +c
0
.
Es f acil ver que el m aximo com un divisor de dos polinomios es unico, si existe. Su
existencia puede comprobarse con el algoritmo euclidiano, en estricta analoga con el proceso
de encontrar el m aximo com un divisor de dos n umeros enteros. El Lema 2.19 produce una
sucesi on nita de divisiones con residuo:
f (t) = q
1
(t)g(t) +r
1
(t), g(t) = q
2
(t)r
1
(t) +r
2
(t), r
1
(t) = q
3
(t)r
2
(t) +r
3
(t), . . .
r
j2
(t) = q
j
(t)r
j1
(t) +r
j
(t), r
j1
(t) = q
j+1
(t)r
j
(t) +0, (2.11)
donde los grados de los residuos decrecen hasta que alg un residuo se anule. Si es el ultimo
residuo no nulo es r
j
(t) = d
m
t
m
+ +d
0
, no es difcil comprobar que k(t) := d
1
m
r
j
(t) cumple
las tres propiedades de la Denici on anterior.
Lema 2.23. Dados dos polinomios f (t), g(t) F[t], existen otros dos polinomios a(t), b(t)
tales que
a(t) f (t) +b(t) g(t) = mcd( f (t), g(t)).
Demostraci on. Fjese que r
1
(t) = f (t) q
1
(t)g(t), a partir de (2.11). Adem as,
r
2
(t) = g(t) q
2
(t)r
1
(t)
= g(t) q
2
(t)
_
f (t) q
1
(t)g(t)
_
= q
2
(t) f (t) +
_
q
1
(t)q
2
(t) +1
_
g(t).
Por sustituci on repetida, se hallan a
i
(t), b
i
(t) F[t] tales que r
i
(t) = a
i
(t) f (t) +b
i
(t)g(t), para
i = 1, . . . , j. Al dividir la j- esima de estas ecuaciones por el coeciente inicial de r
j
(t), se
obtiene la relaci on deseada.
Corolario 2.24 (Identidad de B ezout). Dos polinomios f (t), g(t) son relativamente primos:
mcd( f (t), g(t)) = 1, si y s olo si hay polinomios a(t), b(t) F[t] tales que
a(t) f (t) +b(t) g(t) = 1.
Un procedimiento muy util, a veces llamado c alculo funcional, consiste en reemplazar
las potencias t
n
del indeterminado t por las potencias de un elemento de alguna F- algebra. En
particular, podemos sustituir t por una matriz en M
n
(F), o bien por una aplicaci on lineal en
End(V).
MA460: Algebra Lineal II 34
En general, la b usqueda de autovectores es un asunto be encontrar soluciones no triviales
de sistemas de ecuaciones lineales homog eneas.
Ejemplo 2.14. El polinomio caracterstico de la matriz
A =
_

_
1 0 2
0 1 2
2 2 0
_

_
se obtiene del c alculo
p
A
(t) = det (tI
3
A) =

t 1 0 2
0 t +1 2
2 2 t

= (t 1)

+1 2
2 t

0 t +1
2 2

= (t 1)(t
2
+t 4) 2(2t +2) = t
3
9t
= t(t 3)(t +3).
Luego p
A
(t) = t
3
3t, con races = 0, 3, 3; estos son los tres autovalores de A.
Ahora bien: para obtener los autovectores correspondientes, hay que resolver (por elimi-
naci on gaussiana) los tres sistemas de ecuaciones de ecuaciones homog eneas (I
3
A)x = 0
para = 0, 3, 3 respectivamente. En cada caso, se cambia la matriz aumentada [I
3
A 0]
a la forma [V 0] con V triangular superior mediante operaciones de la y se resuelve la
ecuaci on Vx = 0 por sustituci on regresiva. En cada caso, la ultima la de [V 0] es nula,
que corresponde a la ecuaci on trivial 0x
3
= 0, con lo cual la variable x
3
queda libre: el auto-
vector queda determinado hasta el m ultiplo x
3
. En detalle:
Caso = 0 :
_

_
1 0 2
0 1 2
2 2 0

0
0
0
_

_
1 0 2
0 1 2
0 2 4

0
0
0
_

_
1 0 2
0 1 2
0 0 0

0
0
0
_

_
;
en cuyo caso (leyendo las las de abajo para arriba),
0x
3
= 0, x
2
+2x
3
= 0, x
1
2x
3
= 0 = x =
_

_
2x
3
2x
3
x
3
_

_
= x
3
_

_
2
2
1
_

_
.
Adem as,
Caso = 3 :
_

_
2 0 2
0 4 2
2 2 3

0
0
0
_

_
2 0 2
0 4 2
0 2 1

0
0
0
_

_
2 0 2
0 4 2
0 0 0

0
0
0
_

_
;
cuya soluci on es
0x
3
= 0, 4x
2
+2x
3
= 0, 2x
1
2x
3
= 0 = x =
_

_
x
3

1
2
x
3
x
3
_

_
=
1
2
x
3
_

_
2
1
2
_

_
.
MA460: Algebra Lineal II 40
Denici on 2.25. Sea A M
n
(F) una matriz cuadrada. Si f (t) = c
n
t
n
+ +c
1
t +c
0
es un
polinomio en F[t], se dene
f (A) := c
n
A
n
+ +c
1
A+c
0
I
n
M
n
(F). (2.12a)
La aplicaci on f (t) f (A) : F[t] M
n
(F) es lineal y lleva productos de polinomios en pro-
ductos de matrices, es decir, es un homomorsmo de algebras sobre F.
De igual manera, sea T End(V), donde V es un espacio vectorial sobre F. Defnase
f (T) := c
n
T
n
+ +c
1
T +c
0
I End(V). (2.12b)
La aplicaci on f (t) f (T) : F[t] End(V) es lineal y lleva productos de polinomios en com-
posiciones de operadores: este es otro homomorsmo de F- algebras.
Si A = [T]
B
B
es la matriz de T con respecto a una base B de V, entonces p(A) = [p(T)]
B
B
.
Los homomorsmos de la Denici on 2.25 no son sobreyectivos, porque las algebras
M
n
(F) y End(V) no son conmutativos. Tampoco son inyectivos, porque M
n
(F) y End(V)
son nitodimensionales y F[t] es innitodimensional. Entonces, dada una matriz A, debe de
haber polinomios no nulos f (t) tales que f (A) = 0. El siguiente teorema, debido a Hamilton
11
y a Cayley,
12
proporciona un polinomio especco con esta propiedad, el cual de hecho es el
polinomio caracterstico de A.
Teorema 2.26 (CayleyHamilton). Sea A M
n
(F) una matriz cuadrada y sea p
A
(t) F[t] su
polinomio caracterstico. Entonces p
A
(A) = O en M
n
(F).
Demostraci on. La regla de Cramer demuestra que
13
(t I
n
A) adj(t I
n
A) = det (t I
n
A) I
n
= p
A
(t) I
n
. (2.13)
Las entradas de la matriz adj(t I
n
A) son, salvo signo, menores (n1) (n1) de la matriz
t I
n
A. Como tal, son polinomios de grado no mayor que (n 1). Al combinar t erminos
seg un las potencias de t, se obtienen matrices B
0
, B
1
, . . . , B
n1
M
n
(F) tales que
adj(t I
n
A) = B
n1
t
n1
+ +B
1
t +B
0
.
11
William Rowan Hamilton desarroll o la teora de cuaterniones, que combinan escalares reales y vectores en
un espacio vectorial H=RR
3
, dotado de un producto no conmutativo. Las aplicaciones lineales en End
R
(H) se
representan por matrices en M
4
(R). Hamilton mostr o que cada aplicaci on satisface su polinomio caracterstico,
en su libro Lectures on Quaternions, Dublin, 1852.
12
Arthur Cayley introdujo la denici on moderna de matriz en su artculo Memoir on the theory of matrices,
Philosophical Transactions of the Royal Society of London 148 (1858), 1737. All enunci o el teorema para
matrices cuadradas en general, aunque s olo mostr o los casos 22 y 33.
13
La regla de Cramer es v alido para matrices con entradas escalares. Para justicar (2.13), se puede reem-
plazar t por ya que se verica la ecuaci on correspondiente para todo F. Mejor aun, se ve que la f ormula
B adj B = (det B) I
n
es una abreviatura para n
2
identidades polinomiales en las entradas de B M
n
(F), que sigue
v alido cuando el cuerpo de escalares F queda reemplazada por el algebra F[t].
MA460: Algebra Lineal II 41
Al escribir p
A
(t) = t
n
+c
n1
t
n1
+ +c
1
t +c
0
, la ecuaci on (2.13) queda en la forma
14
(t I
n
A) (B
n1
t
n1
+ +B
1
t +B
0
) = (t
n
+c
n1
t
n1
+ +c
1
t +c
0
) I
n
.
Al igualar las potencias de t en ambos lados de esta ecuaci on, se obtiene las siguientes igual-
dades:
AB
0
= c
0
I
n
, B
0
AB
1
= c
1
I
n
, . . . , B
n2
AB
n1
= c
n1
I
n
, B
n1
= I
n
.
Al multiplicarlas por potencias sucesivas de A, se obtiene
AB
0
= c
0
I
n
,
AB
0
A
2
B
1
= c
1
A,
.
.
. =
.
.
.
A
n1
B
n2
A
n
B
n1
= c
n1
A
n1
,
A
n
B
n1
= A
n
.
Una suma telesc opica de estas relaciones produce el resultado:
O = A
n
+c
n1
A
n1
+ +c
1
A+c
0
I
n
= p
A
(A).
Corolario 2.27. Sea T End(V) un operador lineal sobre el espacio vectorial V y sea p
T
(t)
F[t] su polinomio caracterstico. Entonces p
T
(T) = 0 en End(V).
Proposici on 2.28. Sea A M
n
(F) una matriz cuadrada. Entre todos los polinomios m onicos
f (t) F[t] tales que f (A) = O, hay un unico q(t) de mnimo grado. Este q(t) divide cualquier
f (t) tal que f (A) = O.
Demostraci on. Sea f (t) cualquier polinomio con f (A) = O y sea q(t) cualquier polinomio
m onico tal que q(A) = O en M
n
(F). Por divisibilidad con residuo (2.10), se puede escribir
f (t) = s(t)q(t) +r(t),
para un unico par de polinomios s(t), r(t), donde gr r(t) < gr q(t) si r(t) no es nulo.
Adem as, r(A) = f (A) s(A)q(A) = O. Cuando m= gr q(t) tiene su menor valor posible, se
concluye que r(t) = 0. Por lo tanto, f (t) = s(t)q(t), es decir, q(t) \ f (t).
Si q(t) es otro polinomio m onico de grado m con q(A) = O, el mismo argumento muestra
que q(t) = u(t)q(t) para alg un polinomio u(t). Por conteo de grados, se ve que gr u(t) = 0, es
decir, u(t) es constante. Como q(t) y q(t) son m onicos, es u(t) = 1; luego q(t) = q(t).
Corolario 2.29. Sea T End(V) un operador lineal. Entre todos los polinomios m onicos
f (t) F[t] tales que f (T) = 0, hay un unico q(t) de mnimo grado. Este q(t) divide cualquier
f (t) tal que f (T) = 0.
14
Ya se sabe por (2.8) que c
k
= (1)
nk

nk
(A), pero esta demostraci on no requiere la f ormula explcita.
MA460: Algebra Lineal II 42
Denici on 2.30. Sea A M
n
(F) una matriz cuadrada. El polinomio m onico q
A
(t) de mnimo
grado tal que q
A
(A) = O se llama el polinomio mnimo de A.
El teorema de Cayley y Hamilton muestra que p
A
(A) = O. Por lo tanto, gr q
A
(t) n.
La Proposici on anterior muestra que q
A
(t) divide p
A
(t). En particular, todas las races de
q
A
(t) son autovalores de A. (La inversa tambi en vale, como se ver a m as adelante, en el
Corolario 2.40: todo autovalor de A es una raz de su polinomio mnimo.)
De igual modo, si T End(V), el polinomio m onico q
T
(t) de mnimo grado tal que
q
T
(T) = 0 se llama el polinomio mnimo de T. Adem as, q
T
(t) \ p
T
(t).
Ejemplo 2.31. Consid erese la matriz
A =
_

_
3 1 0 0
0 3 0 0
0 0 2 0
0 0 0 2
_

_
.
Su polinomio caracterstico p
A
(t) es entonces
p
A
(t) =

t 3 1 0 0
0 t 3 0 0
0 0 t 2 0
0 0 0 t 2

= (t 3)
2
(t 2)
2
.
Son candidatos a priori para el polinomio mnimo los factores: (t 3), (t 2), (t 3)
2
, (t 2)
2
,
(t 3)(t 2), (t 3)
2
(t 2), (t 3)(t 2)
2
y (t 3)
2
(t 2)
2
. Obs ervese que
(A3I
4
)(A2I
4
) =
_

_
0 1 0 0
0 0 0 0
0 0 1 0
0 0 0 1
_

_
_

_
1 1 0 0
0 1 0 0
0 0 0 0
0 0 0 0
_

_
=
_

_
0 1 0 0
0 0 0 0
0 0 0 0
0 0 0 0
_

_
O,
pero que (A3I
4
)
2
(A2I
4
) = O, por c alculo directo. Se concluye que q
A
(t) = (t 3)
2
(t 2).
[[ Moraleja: el polinomio mnimo no necesariamente tiene factores distintos. ]]
2.3 Matrices diagonalizables
Entre todas las matrices cuadradas que representan un operador lineal T, se busca una que
sea lo m as sencilla posible. Hay varias posibilidades para [T]
C
C
porque hay varias maneras de
elegir la base C del espacio vectorial subyacente. En algunos casos (no siempre), se puede
elegir esta base tal que la matriz [T]
C
C
sea una matriz diagonal.
La b usqueda del representante diagonal se reduce a un problema de clasicar las matrices
cuadradas. En efecto, si A = [T]
B
B
es una matriz cualquiera que representa T End(V), se
obtiene cualquier otro representante por cambio de base (de B a C, concretamente). Si P =
[I]
B
C
es la matriz de cambio de base, entonces se pasa de A = [T]
B
B
a P
1
AP = [T]
C
C
, seg un la
f ormula (2.4). El problema matricial es el siguiente: dada una matriz A M
n
(F), se busca
una matriz inversible P tal que P
1
AP sea una matriz diagonal.
MA460: Algebra Lineal II 43
Este problema admite una soluci on, en primera instancia, si la matriz A posee autovalores
distintos, en vista del siguiente resultado.
Proposici on 2.32. Sea A M
n
(F) una matriz cuadrada. Si
1
, . . . ,
k
son autovalores distin-
tos de A y si x
1
, . . . , x
k
son unos autovectores correspondientes, entonces los autovectores
x
1
, . . . , x
k
son linealmente independientes.
Demostraci on. Por inducci on sobre k, se puede asumir que cualquier colecci on de (k 1)
autovectores para autovalores distintos son linealmente independientes. (Si k = 1, esto es
evidente, porque x
1
es linealmente independiente ya que x
1
0, pues x
1
es un autovector.)
Si x
1
, . . . , x
k
no fueran linealmente independientes, habra una relaci on de dependencia
c
1
x
1
+c
2
x
2
+ +c
k
x
k
= 0, (2.14)
con c
1
, . . . , c
k
no todos cero. Renumerando la lista si fuera necesario, puede suponerse que
c
1
0. Luego, c
2
, . . . , c
k
no son todos cero porque c
1
x
1
0. Al aplicar la matriz A a los dos
lados de esta ecuaci on, resulta
c
1

1
x
1
+c
2

2
x
2
+ +c
k

k
x
k
= 0.
Al restar
1
veces (2.14) de esta relaci on, se obtiene
c
2
(
2

1
)x
2
+c
3
(
3

1
)x
3
+ +c
k
(
k

1
)x
k
= 0. (2.15)
Los coecientes en la ecuaci on (2.15) no son todos cero porque los
j
son distintos y c
2
, . . . , c
k
no son todos cero. Pero entonces x
2
, . . . , x
k
seran linealmente dependientes, contrario a la
hip otesis inductiva. Se concluye que x
1
, . . . , x
k
deben ser linealmente independientes.
Corolario 2.33. Si A M
n
(F) posee n autovalores distintos, entonces A es diagonalizable.
Demostraci on. Sea p
1
, . . . , p
n
un juego de n autovectores que corresponde a los n autovalo-
res distintos
1
, . . . ,
n
de A. Por la proposici on anterior, B= p
1
, . . . , p
n
es una base de F
n
.
Con respecto a la base est andar E = e
1
, . . . , e
n
, cada p
s
puede desarrollarse as:
p
s
=
n

j=1
p
js
e
j
= (la columna s de una matriz P).
Aqu P = [p
js
] es la matriz [I]
E
B
de cambio de base (de E a B). El producto de matrices AP
es entonces
AP = A[ p
1
p
2
. . . p
n
] = [Ap
1
Ap
2
. . . Ap
n
]
= [
1
p
1

2
p
2
. . .
n
p
n
] = [ p
1
p
2
. . . p
n
]
_

1
0 . . . 0
0
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . .
n
_

_
= PD, (2.16)
donde D es la matriz diagonal con entradas diagonales
1
, . . . ,
n
. (Es util recordar que la
multiplicaci on a la derecha P PD efect ua un juego de operaciones de columna.)
La matriz P es inversible porque su rango es n, ya que tiene n columnas linealmente
independientes. Entonces AP = PD es equivalente a P
1
AP = D, con D diagonal.
MA460: Algebra Lineal II 44
Notaci on. La notaci on compacta
diag[
1
,
2
, . . . ,
n
] :=
_

1
0 . . . 0
0
2
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . .
n
_

_
(2.17)
denota la matriz diagonal con entradas diagonales
1
, . . . ,
n
. Si B = x
1
, . . . , x
n
es una
base de V tal que [T]
B
B
= diag[
1
, . . . ,
n
], entonces T(x
j
) =
_
n
i=1

i
[[i = j]] x
i
=
j
x
j
en vista
de (1.6). En otras palabras, cada x
j
es un autovector de T.
Proposici on 2.34. Una matriz A M
n
(F) es diagonalizable si y s olo si A tiene n autovectores
linealmente independientes, si y s olo si F
n
posee una base formado por autovectores de A.
Demostraci on. Es evidente que la segunda condici on es equivalente a la tercera, porque una
base de F
n
no es m as que una colecci on de n vectores linealmente independientes.
Si p
1
, . . . , p
n
F
n
son n autovectores de A que son linealmente independientes, entonces
la matriz P = [ p
1
p
2
. . . p
n
] tiene n columnas linealmente independientes, por lo tanto su
rango es n y la matriz P es inversible. Es Ap
k
=
k
p
k
para k =1, . . . , n, donde
k
es el autovalor
correspondiente al autovector p
k
. Si D:=diag[
1
, . . . ,
n
] es la matriz diagonal cuyas entradas
diagonales son estos autovalores en el orden prescrito, entonces vale AP = PD, seg un (2.16).
Se concluye que P
1
AP = D, es decir, A es diagonalizable con forma diagonal D.
Por otro lado, si A es diagonalizable, hay una matriz inversible P y una matriz diagonal
D := diag[
1
, . . . ,
n
] tal que P
1
AP = D. Por ende, es AP = PD; al comparar la k- esima
columna de ambos lados de esta igualdad matricial, se ve de (2.16) que Ap
k
=
k
p
k
para k =
1, . . . , n. En consecuencia, cada
k
es un autovalor de A y cada columna p
k
es un autovector.
La matriz inversible P tiene rango n, es decir, sus columnas son linealmente independientes
y constituyen una base de F
n
.
La proposici on anterior no requiere que los autovalores de una matriz diagonalizable sean
distintos. De hecho, cualquier matriz diagonal D es ipso facto diagonalizable: sus autovalores
son sus entradas diagonales y su base de autovectores es la base est andar E = e
1
, . . . , e
n
.
Den otese por
1
, . . . ,
r
los elementos distintos del juego de autovalores (
1
, . . . ,
n
). Si

1
ocurre k
1
veces,
2
ocurre k
2
veces,. . . ,
r
ocurre k
r
veces, con k
1
+k
2
+ +k
r
= n, se
puede permutar los
i
para obtener
(
1
, . . . ,
n
) = (
1
, . . . ,
1
.,,.
k
1
veces
,
2
, . . . ,
2
.,,.
k
2
veces
, . . . ,
r
, . . . ,
r
.,,.
k
r
veces
).
Se dice que k
i
es la multiplicidad del autovalor
i
. El polinomio caracterstico de la matriz
D = diag[
1
, . . . ,
n
] es entonces
p
D
(t) = (t
1
)
k
1
(t
2
)
k
2
. . . (t
r
)
k
r
.
En el caso diagonal, el teorema de Cayley y Hamilton tiene una comprobaci on directa: en el
producto de matrices diagonales (D
1
I
n
)
k
1
(D
2
I
n
)
k
2
. . . (D
r
I
n
)
k
r
al menos uno de los
factores tiene una entrada diagonal 0 en cada la.
MA460: Algebra Lineal II 45
El polinomio mnimo de esta matriz D es
q
D
(t) = (t
1
) (t
2
) . . . (t
r
), (2.18)
con r factores distintos de primer grado. El producto (D
1
I
n
) (D
2
I
n
) . . . (D
r
I
n
) es la
matriz O porque cada entrada diagonal es un producto de r escalares que incluyen un cero.
Si se suprimiera uno de los factores (t
i
), el producto de matrices con (D
i
I
n
) omitido
posee entradas diagonales no nulas.
Sucede que el resultado inverso tambi en es v alido: si el polinomio mnimo de una ma-
triz A se descompone en factores lineales distintos, entonces A es diagonalizable. Antes de
comprobarlo, conviene examinar otros aspectos estructurales de las operadores lineales en
general.
2.4 Descomposici on primaria de un operador lineal
Denici on 2.35. Sea V un espacio vectorial sobre F y sea T End(V) un operador lineal. se
dice que un subespacio W V es un subespacio invariante para T si T(W) W.
Si W es un subespacio invariante para T End(V), con dimV = n y dimW = m n, sea
B=x
1
, . . . , x
n
una base de V cuya porci on inicial x
1
, . . . , x
m
es una base de W. (Es cuesti on
de elegir una base de W y luego completarla en una base de V.) En el desarrollo (2.2) del
operador T en esta base, la condici on T(W) W implica que a
i j
= 0 cuando j m pero i > m;
en otras palabras, la matriz [T]
B
B
tiene la forma
[T]
B
B
=
_
A X
O B
_
,
donde A M
m
(F), B M
nm
(F), X F
m(nm)
y donde O F
(nm)m
es un bloque de ceros.
Denici on 2.36. Se dice que un subespacio invariante W V reduce el operador lineal T
End(V) si hay otro subespacio invariante U V tal que V = WU. Si as fuera, existira una
base B= x
1
, . . . , x
n
de V tal que W = lin(x
1
, . . . , x
m
) y U = lin(x
m+1
, . . . , x
n
), en cuyo caso la
esquina X de la matriz [T]
B
B
es tambi en un bloque de ceros:
[T]
B
B
=
_
A O
O B
_
. (2.19)
La matriz a la derecha de (2.19) se llama la suma directa de las matrices A y B.
Proposici on 2.37. Si el polinomio caracterstico de un operador lineal T End(V) se fac-
toriza en p
T
(t) = h(t) k(t) con mcd(h(t), k(t)) = 1, entonces V = WU, donde W = ker h(T) y
U = ker k(T) son subespacios invariantes para T.
Demostraci on. Por el Corolario 2.24, la condici on mcd(h(t), k(t)) = 1 implica que existen dos
polinomios a(t), b(t) F[t] que cumplen la identidad de B ezout:
h(t) a(t) +k(t) b(t) = 1.
MA460: Algebra Lineal II 46
Luego h(T) a(T) +k(T) b(T) = I en End(V). Ahora defnase W := imk(T) y U := imh(T).
Ellos son subespacios invariantes para T, ya que T
_
k(T)(x)
_
= k(T)
_
T(x)
_
y T
_
h(T)(y)
_
=
h(T)
_
T(y)
_
. Adem as, para cada x V vale
x = h(T)
_
a(T)(x)
_
+k(T)
_
b(T)(x)
_
W+U,
as que V = W+U.
Para ver que esta suma de subespacios es directa, t omese x W U. Entonces exis-
ten y, z V tales que x = k(T)(y) = h(T)(z). Del teorema de Cayley y Hamilton se obtiene
h(T)(x) = p
T
(T)(y) = 0 y k(T)(x) = p
T
(T)(z) = 0. La identidad de B ezout entonces muestra
que
x = a(T)
_
h(T)(x)
_
+b(T)
_
k(T)(x)
_
= a(T)(0) +b(T)(0) = 0.
Se concluye que WU = 0 y luego V = WU.
Si x W, hay y V tal que x = k(T)(y). Entonces h(T)(x) = h(T)k(T)(y) = p
T
(T)(y) = 0.
Por tanto, es W ker h(T). Al contar dimensiones, el teorema de rango y nulidad implica que
dimW = ndimU = nr(h(T)) = n(T) = dim(ker h(T)),
por tanto W = ker h(T). De igual modo, se ve que U = ker k(T).
Proposici on 2.38. Sea T End(V) un operador lineal cuyo polinomio caracterstico escinde
en F[t].
15
Sup ongase que p
T
(t) = h(t) k(t) con mcd(h(t), k(t)) = 1. Entonces las restricciones
de T a los subespacios W = ker h(T) y U = ker k(T) tienen polinomios caractersticos h(t) y
k(t), respectivamente.
Demostraci on. Obs ervese, por la demostraci on de la Proposici on 2.37, que los subespacios
W y U reducen T: es T(W) W y T(U) U. Sean T

End(W) y T

End(U) las restric-


ciones de T a W y U, respectivamente. Sea Buna base de W y C una base de U, as que BC
es una base de WU = V. Si A = [T

]
B
B
, B = [T

]
C
C
, la matriz de T para la base BC es
[T]
BC
BC
=
_
A O
O B
_
. (2.20)
Entonces, si r = dimW, s = dimU, el polinomio caracterstico de T es
p
T
(t) = det
_
tI
r
A O
O tI
s
B
_
= det (tI
r
A) det (tI
s
B) = p
A
(t) p
B
(t).
Si es una raz de p
A
(t), entonces hay y W no nulo tal que T(y) = T

(y) = y. Luego
T
2
(y) =
2
y, T
3
(y) =
3
y, etc., de modo que 0 =h(T)(y) =h()y y por ende h() =0. Adem as,
k() 0 porque h(t) y k(t) no tienen una raz com un.
15
Se dice que un polinomio f (t) F[t] escinde si f (t) = a
n
(t
1
)(t
2
) . . . (t
n
), donde n = gr f (t) con
races
1
, . . . ,
n
F no necesariamente distintos. En el caso F = C, todo polinomio en C[t] escinde: esto es el
llamado Teorema Fundamental del Algebra.
MA460: Algebra Lineal II 47
Entonces, cada raz de p
A
(t) es una raz de h(t) pero no de k(t). De igual manera, cada
raz de p
B
(t) es una raz de k(t) pero no de h(t). Por lo tanto,
p
T
(t) = h(t) k(t) = p
A
(t) p
B
(t) =: (t
1
) . . . (t
n
)
donde la repartici on de los monomios (t
i
) entre los primeros dos factorizaciones de p
T
(t)
obliga las igualdades p
A
(t) = h(t) y p
B
(t) = k(t).
En la ultima Proposici on, la hip otesis de que p
T
(t) escinde en F[t] no es indispensable
(aunque fue usada en el ultimo paso de la demostraci on). Es posible apelar a un teorema
de Kronecker, que dice que cada polinomio p(t) F[t] tiene una raz en alg un cuerpo que
extiende F (es decir, que que incluye F como subcuerpo). Es posible, entonces, extender el
cuerpo original F a otro cuerpo K tal que p
T
(t) escinde en K[t]; las igualdades p
A
(t) = h(t)
y p
B
(t) = k(t) entonces se verican en K[t] y de rebote tambi en en F[t]. Este articio es
particularmente util en el caso en donde F = R, porque hay polinomios reales cuadr aticas que
no escinden en R[t] pero s en C[t].
Lema 2.39. Sea V = W U, con W = ker h(T) y U = ker k(T), la descomposici on de V
obtenida de una factorizaci on p
T
(t) = h(t) k(t) en factores relativamente primos del poli-
nomio caracterstico de un operador lineal T End(V). Entonces hay una factorizaci on co-
rrespondiente del polinomio mnimo q
T
(t) = r(t) s(t) en factores relativamente primos, donde
r(t) \ h(t), s(t) \ k(t), el operador r(T) se anula en W y s(T) se anula en U.
Demostraci on. Eljase una base de V = WU tal que T tenga una matriz en bloques de la
forma (2.20). Entonces la relaci on q
T
(T) = 0 conlleva la relaci on
_
q
T
(A) O
O q
T
(B)
_
= q
T
__
A O
O B
__
=
_
O O
O O
_
,
as que q
T
(A) =O y q
T
(B) =O. Sean r(t) :=mcd(q
T
(t), h(t)) y s(t) :=mcd(q
T
(t), k(t)); debe de
ser claro que r(t) y s(t) son relativamente primos y que r(t)s(t) = mcd((q
T
(t), h(t)k(t)) = q
T
(t),
porque q
T
(t) divide p
T
(t) = h(t)k(t).
Tambi en es h(A) = p
A
(A) = O y el Lema 2.23 dice que r(t) = a(t)q
T
(t) +b(t)h(t) para
algunos polinomios a(t), b(t). Luego r(A) = O. En otras palabras, r(T

) = 0 en End(W), si T

es la restricci on de T a W. Del mismo modo, se obtiene s(B) = O y s(T

) = 0 en End(U), si
T

es la restricci on de T a U.
Corolario 2.40. Cada raz del polinomio caracterstico de un operador lineal T es tambi en
una raz de su polinomio mnimo.
Demostraci on. Si es un autovalor de T, es p
T
(t) = (t )
m
k(t) para alg un m 1, 2, 3, . . . ,
con k() 0. El Lema anterior muestra que q
T
(t) = (t )
l
s(t), con l m, donde (T I)
l
anula ker((T I)
m
), que sera imposible si fuera l = 0. (Por el c alculo funcional de la
Denici on 2.25, es T
0
:= I cuando T es un operador no nulo.) Luego l 1, . . . , m y por
ende es una raz de q
T
(t).
MA460: Algebra Lineal II 48
Proposici on 2.41. Si el polinomio mnimo de un operador lineal T End(V) se factoriza
en q
T
(t) = r(t) s(t) con r(t), s(t) m onicos y mcd(r(t), s(t)) = 1, entonces V = W

, donde
W

= ker r(T) y U

= ker s(T) son subespacios invariantes para T. Los polinomios mnimos


de las restricciones de T a W

y U

son r(t) y s(t), respectivamente.


Demostraci on. La demostraci on de la Proposici on 2.37 se repite en forma casi id entica, con
q
T
(t), r(t), s(t), W

, U

en los lugares respectivos de p


T
(t), h(t), k(t), W y U. En vez de
usar p
T
(T) = O por el teorema de Cayley y Hamilton, se usa q
T
(T) = O por la denici on del
polinomio mnimo. Por tanto, es V = W

con W

= ker r(T) y U

= ker s(T). Adem as,


esta demostraci on conlleva las igualdades W

= ims(T) y U

= imr(T).
Sea T

End(W

) la restricci on del operador T al subespacio invariante W

. Se ve que
r(T

) = 0 en End(W

) porque r(T

)(y) = r(T)(y) = 0 para todo y W

ya que W

= ker r(T).
Si f (t) F[t] es un polinomio tal que f (T

) = 0 en End(W

), entonces f (T)(y) = 0 para


todo y = s(T)(x) W

. Por tanto, f (T)


_
s(T)(x)
_
= 0 para todo x V; esto es, f (T)s(T) = 0
en End(V). Luego r(t)s(t) = q
T
(t) \ f (t)s(t); esto es, hay un polinomio g(t) tal que f (t)s(t) =
g(t)r(t)s(t) y por ende
16
es f (t) = g(t)r(t). En resumen: si f (T

) = 0, entonces r(t) \ f (t); esto


dice que r(t), el cual es m onico, es el polinomio mnimo del operador lineal T

.
De igual modo, s(t) es el polinomio mnimo de la restricci on de T al subespacio U

.
Teorema 2.42 (Descomposici on primaria). Si el polinomio mnimo de un operador lineal
T End(V) se factoriza como q
T
(t) = h
1
(t) . . . h
r
(t) en factores m onicos relativamente primos
h
1
(t), . . . , h
r
(t), entonces V = W
1
W
r
, donde W
i
= ker h
i
(T) para i = 1, . . . , r. Adem as,
cada h
i
(t) es el polinomio mnimo de la restricci on de T al subespacio invariante W
i
.
Demostraci on. Por inducci on sobre r. Sea k
1
(t) :=h
2
(t) . . . h
r
(t), as que q
T
(t) =h
1
(t) k
1
(t) con
mcd(h
1
(t), k
1
(t)) = 1. La Proposici on 2.41 muestra que V = W
1
U
1
, donde W
1
:= ker h
1
(T)
y U
1
:= ker k
1
(T) = imh
1
(T).
Adem as, la Proposici on 2.41 muestra que las restricciones de T a W
1
y U
1
tienen poli-
nomios mnimos respectivos h
1
(t) y k
1
(t).
Por inducci on sobre r, se puede suponer que el resultado es v alido para la restricci on de T
al subespacio U
1
, con polinomio mnimo k
1
(t) = h
2
(t) . . . h
r
(t). Se obtiene U
1
= W
2
W
r
,
donde W
i
= ker h
i
(T), con polinomio mnimo h
i
(T) en cada subespacio W
i
, para i = 2, . . . , r.
El resultado ahora es evidente.
Corolario 2.43. Sea T End(V) un operador lineal cuyo polinomio caracterstico p
T
(t)
escinde en F[t]. Sea
p
T
(t) = (t
1
)
k
1
(t
2
)
k
2
. . . (t
r
)
k
r
(2.21)
su factorizaci on completa, con
1
, . . . ,
r
F distintos. Entonces su polinomio mnimo es de
la forma
q
T
(t) = (t
1
)
l
1
(t
2
)
l
2
. . . (t
r
)
l
r
, (2.22)
con l
1
, . . . , l
r
N y 1 l
i
k
i
para i = 1, . . . , r. Sea V = W
1
W
r
la descomposici on
primaria correspondiente, donde W
i
:= ker
_
(T
i
I)
l
r
_
. Entonces (t
i
)
k
i
es el polinomio
caracterstico de la restricci on de T al subespacio invariante W
i
.
16
La cancelaci on del factor com un s(t) es v alida porque el algebra F[t] no posee divisores de cero.
MA460: Algebra Lineal II 49
Demostraci on. Por inducci on sobre r; el resultado es obvio si r = 1. Sea h(t) := (t
1
)
k
1
,
k(t) := (t
2
)
k
2
. . . (t
r
)
k
r
, de modo que V = WU con W = ker h(T) y U = ker k(T), por
la Proposici on 2.37. El Lema 2.39 muestra que q
T
(t) = r(t)s(t), donde r(t) = (t
1
)
l
1
y
s(t) = (t
2
)
l
2
. . . (t
r
)
l
r
con l
i
k
i
para cada i; adem as, r(T) anula W y s(T) anula U. El
Corolario 2.40 muestra que l
1
1.
Como r(t) divide h(t), es inmediato que W =ker h(T) ker r(T) =W
1
. Por otro lado, r(t) y
k(t) son relativamente primos, as que a(t)r(t) +b(t)k(t) = 1 para ciertos polinomios a(t), b(t);
luego, si z W
1
U, entonces
z = a(T)
_
r(T)(z)
_
+b(T)
_
k(T)(z)
_
= a(T)(0) +b(T)(0) = 0.
Cualquier x V es de la forma x = y + z con y W, z U. Si x W
1
, entonces y W
1
y
z = xy queda tambi en en W
1
y por tanto z = 0 y x = y. Se ha mostrado que W
1
= W.
Se concluye que W
1
(W
2
W
r
) es exactamente la descomposici on de V que corre-
sponde a la factorizaci on p
T
(t) = h(t) k(t) por la Proposici on 2.37. La Proposici on 2.38 ahora
muestra que el polinomio caracterstico de T restringido a W
1
es h(t) = (t
1
)
k
1
. Adem as, el
polinomio caracterstico de T restringido a W
2
W
r
es k(t) = (t
2
)
k
2
. . . (t
r
)
k
r
, que
es lo que se requiere para poder aplicar la hip otesis inductiva.
Ahora es posible ofrecer otro criterio de diagonalizabilidad.
Proposici on 2.44. Una matriz A M
n
(F) es diagonalizable si y s olo si su polinomio mnimo
q
A
(t) se descompone en factores distintos de primer grado.
Demostraci on. Si A = PDP
1
con D diagonal, entonces q
A
(t) = q
D
(t) es de la forma (2.18),
con factores distintos de primer grado.
Inversamente, si q
A
(t) = (t
1
)(t
2
) . . . (t
r
) con
1
, . . . ,
r
distintos, el Teorema 2.42
muestra que F
n
posee una descomposici on primaria de la forma
F
n
= W
1
W
2
W
r
, donde cada W
k
:= ker(T
A

k
I).
Sea B
k
una base del subespacio Z
A
(
k
), de modo que su uni on disjunta B := B
1
B
r
es una base de F
n
. Si x B
k
, entonces Ax
k
x = (T
A

k
I)(x) = 0, as que Ax =
k
x:
cada elemento de la base B es una autovector de A. La Proposici on 2.34 muestra que A es
diagonalizable. Concretamente, el cambio de la base est andar E a la base B diagonaliza la
matriz A:
P
1
AP = [T
A
]
B
B
=
_

1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
1

2
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
2
.
.
.

r
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
r
_

MA460: Algebra Lineal II 50


Ejemplo 2.45. La matriz J =
_
0 1
1 0
_
no es diagonalizable sobre R, pero s es diagonalizable
sobre C. En efecto, su polinomio caracterstico es p
J
(t) =t
2
+1, el cual es irreducible sobre R.
Como q
J
(t) \ p
J
(t), tambi en es q
J
(t) = t
2
+1, que no posee factores de primer grado sobre R.
En cambio, si se toma F = C, la factorizaci on p
J
(t) = (t i)(t +i) muestra que q
J
(t) =
(t i)(t +i), ya que las posibilidades q
J
(t) = t i quedan excluidas porque J iI O. Luego
J es diagonalizable, con forma diagonal diag[i, i], como ya se ha visto en el Ejemplo 2.13.
Ejemplo 2.46. Consid erese la matriz triangular
A =
_
1
0
_
con F cualquiera (y F un cuerpo cualquiera); esta matriz no es diagonalizable. En efecto,
es p
A
(t) = (t )
2
, as que q
A
(t) = t o bien q
A
(t) = (t )
2
. La posibilidad q
A
(t) = t
queda excluida porque AI O; por otro lado, es (AI)
2
= O por el teorema de Cayley y
Hamilton o bien por un c alculo directo.
Luego este polinomio q
A
(t) = (t )
2
no es un producto de factores distintos de primer
grado.
2.5 La forma de Jordan de una matriz compleja
El Ejemplo 2.45 pone de maniesto que la diagonalizabilidad de una matriz en M
n
(F) de-
pende del cuerpo F. El cuerpo de n umeros complejos posee una propiedad fundamental, a
veces llamado el Teorema Fundamental del Algebra:
17
cualquier polinomio de grado n en
C[t] posee n races complejas (no necesariamente distintas), o lo que es lo mismo, cualquier
f (t) C[t] posee una factorizaci on completa f (t) = a
n
(t
1
) . . . (t
n
), con
1
, . . . ,
n
C no
necesariamente distintos.
Para simplicar un poco la discusi on, conviene suponer por ahora que F = C, de modo
que los polinomios p
A
(t) y q
A
(t) tengan factores irreducibles de primer grado solamente.
El Teorema 2.42 de la descomposici on primaria y su Corolario 2.43 muestran que cual-
quier operador lineal posee una matriz en M
n
(C) que es una suma directa de bloques diago-
nales:
[T]
B
B
=
_

_
A
1
O . . . O
O A
2
. . . O
.
.
.
.
.
.
.
.
.
.
.
.
O O . . . A
r
_

_
. (2.23)
Es cuesti on de elegir bases B
1
, . . . , B
r
para los subespacios W
1
, . . . , W
r
de la descomposici on
primaria y tomar la base B de V como su uni on disjunta: B = B
1
B
r
. Como cada
17
Hay varias demostraciones de este teorema; parece que la primera demostraci on rigurosa fue dada por
Argand en 1806. Una prueba corta emplea el teorema de Liouville, que dice que una funci on holomorfa acotada
denida en toda z C es necesariamente constante. Si f (t) C[t] no posee raz alguna, entonces z f (z) es
una funci on holomorfa acotada y por tanto constante, as que gr f (t) = 0. Obs ervese que si gr f (t) 1, s olo hace
falta que f (t) tenga una raz , porque se puede considerar el cociente f (t)/(t ) para obtener otra raz, y as
sucesivamente.
MA460: Algebra Lineal II 51
subespacio W
i
reduce T, los bloques no diagonales son rect angulos de ceros. Cada A
i
es una
matriz con polinomio caracterstico (t
i
)
k
i
.
Al restar
i
I
k
i
de cada bloque, se obtiene una matriz N
i
:= A
i

i
I
k
i
. El teorema de Cayley
y Hamilton para la matriz A
i
muestra que
N
k
i
i
= (A
i

i
I
k
i
)
k
i
= O.
Denici on 2.47. Un operador T End(V) es nilpotente si T
k
= 0 para alg un k 1, 2, 3, . . . .
Una matriz A M
n
(F) es una matriz nilpotente si A
k
= O para alg un k 1, 2, 3, . . . .
Si es un autovalor de un operador lineal nilpotente T, con un autovector x 0, entonces

k
x =T
k
(x) =0 y por tanto
k
=0, luego =0. Es decir, 0 es el unico autovalor de T. Los ele-
mentos no nulos de ker T son los autovectores correspondientes. El polinomio caracterstico
de T es p
T
(t) = t
n
. Si k N es el menor entero positivo tal que T
k
= 0, el polinomio mnimo
es q
T
(t) = t
k
.
Proposici on 2.48. Cualquier matriz A M
n
(C) es de la forma A = H+N, donde H es dia-
gonalizable, N es nilpotente y HN = NH.
Demostraci on. El polinomio caracterstico de A se descompone en factores de primer grado:
p
A
(t) = (t
1
)
k
1
(t
2
)
k
2
. . . (t
r
)
k
r
,
donde
1
, . . . ,
r
C son distintos y k
1
, . . . , k
r
son enteros positivos.
Despu es de una cambio de base A P
1
AP, seg un la descomposici on primaria del ope-
rador T
A
, se obtiene una suma directa de bloques (2.23). Para simplicar, sup ongase que la
matriz A ya tiene esta forma. Sea N la matriz de bloques
N :=
_

_
N
1
O . . . O
O N
2
. . . O
.
.
.
.
.
.
.
.
.
.
.
.
O O . . . N
r
_

_
, con N
i
:= A
i

i
I
k
i
; i = 1, . . . , r.
Entonces para k := maxk
1
, . . . , k
r
es N
k
= O, o sea, N es nilpotente. Sea H la suma directa
de bloques diagonales
i
I
k
i
, la cual es una matriz diagonal con autovalores
i
(repetidas con
multiplicidades k
i
). Es obvio que A = H+N. En cada bloque, el producto HN se reduce al
producto de una matriz escalar
i
I
k
i
con una matriz N
i
M
k
i
(C), de donde sigue HN = NH.
En el caso general, se reemplazan H por P
1
HP y N por P
1
NP. Claramente, P
1
HP es
diagonalizable con forma diagonal H. La matriz P
1
NP es nilpotente, porque
(P
1
NP)
k
= P
1
NPP
1
NP. . . P
1
NP = P
1
N
k
P = P
1
OP = O.
Tambi en es evidente que (P
1
HP)(P
1
NP) = P
1
HNP = P
1
NHP = (P
1
NP)(P
1
HP).
MA460: Algebra Lineal II 52
Falta averiguar la estructura de una matriz nilpotente. Sea N M
n
(C) una matriz tal que
N
k
= O, N
k1
O para k un entero positivo (que depende de N). Entonces hay al menos un
vector no nulo x C
n
tal que N
k1
x 0. Para cada l = 0, 1, . . . , k, consid erese el subespacio
V
l
:= ker T
N
l = x C
n
: N
l
x = 0.
Entonces V
0
= 0, V
k
= C
n
y adem as V
l1
V
l
para l = 1, . . . , k, porque N
l1
x = 0 implica que
N
l
x = N(N
l1
x) = N0 = 0. De este modo, los V
l
forman una cadena de subespacios:
0 = V
0
V
1
. . . V
k1
V
k
= C
n
.
Sea m
l
:= dimV
l
, de modo que
0 = m
0
m
1
. . . m
k1
m
k
= n.
Hay que elegir una base conveniente para C
n
, que ser a la uni on creciente be bases para los V
l
.
Se requiere un lema auxiliar, a continuaci on.
Lema 2.49. Sea V un espacio vectorial de dimensi on n sobre F y sea W un subespacio de V,
con dimW = m. Se puede elegir vectores x
1
, . . . , x
nm
V que son linealmente independien-
tes sobre W, es decir,
c
1
x
1
+ +c
nm
x
nm
W s olo si c
1
= = c
nm
= 0.
Demostraci on. El espacio cociente V/W tiene dimensi on n m. Sea z
1
, . . . , z
nm
una base
de V/W. Cada z
i
es una coclase de la forma z
i
= x
i
+W para alg un x
i
V.
Una relaci on de la forma c
1
x
1
+ +c
nm
x
nm
W implica que
c
1
z
1
+ +c
nm
z
nm
= c
1
(x
1
+W) + +c
nm
(x
nm
+W)
= (c
1
x
1
+ +c
nm
x
nm
) +W = W.
Pero la coclase trivial W = 0+W es el elemento nulo de V/W. Luego, la independencia lineal
de los z
i
en V/W conlleva c
1
= = c
nm
= 0.
Proposici on 2.50. Sea N M
n
(C) una matriz nilpotente. Si k es el menor entero positivo tal
que N
k
= O, sea V
l
:= ker T
N
l para l = 0, 1, . . . , k. Entonces V posee una base B tal que
(a) B incluye una base de V
l
, para cada l = 1, . . . , k;
(b) si x B, entonces Nx B o bien Nx = 0.
Demostraci on. Den otese r
1
:= m
k
m
k1
. Por el Lema anterior, hay vectores x
1
, . . . , x
r
1

C
n
= V
k
que son linealmente independientes sobre V
k1
.
Los vectores Nx
1
, . . . , Nx
r
1
quedan en V
k1
, porque N
k1
(Nx
j
) = N
k
x
j
= 0 para cada j.
Resulta que estos vectores son linealmente independientes sobre V
k2
. En efecto,
c
1
Nx
1
+ +c
r
1
Nx
r
1
V
k2
= N(c
1
x
1
+ +c
r
1
x
r
1
) V
k2
= c
1
x
1
+ +c
r
1
x
r
1
V
k1
,
= c
1
= = c
r
1
= 0.
MA460: Algebra Lineal II 53
Por lo tanto, es m
k1
m
k2
p
1
. Escrbase r
2
:= m
k1
m
k2
.
Si r
2
> r
1
, en vista del Lema 2.49, se puede encontrar vectores x
r
1
+1
, . . . , x
r
2
tales que el
conjunto Nx
1
, . . . , Nx
r
1
, x
r
1
+1
, . . . , x
r
2
V
k1
sea linealmente independiente sobre V
k2
. Si
r
2
= r
1
, el conjunto Nx
1
, . . . , Nx
r
1
juega el mismo papel.
Ahora los vectores N
2
x
1
, . . . , N
2
x
r
1
, Nx
r
1
+1
, . . . , Nx
r
2
V
k2
son linealmente independien-
tes sobre V
k2
. De hecho,
b
1
N
2
x
1
+ +b
r
1
N
2
x
r
1
+b
r
1
+1
Nx
r
1
+1
+ +b
r
2
Nx
r
2
V
k3
= b
1
Nx
1
+ +b
r
1
Nx
r
1
+b
r
1
+1
x
r
1
+1
+ +b
r
2
x
r
2
V
k2
= b
1
= = b
r
1
= b
r
1
+1
= = b
r
2
= 0.
Se concluye que r
3
:= m
k2
m
k2
cumple r
3
r
2
. En el caso de que r
3
> r
2
, hay vectores
x
r
2
+1
, . . . , x
r
3
tales que el conjunto N
2
x
1
, . . . , N
2
x
r
1
, Nx
r
1
+1
, . . . , Nx
r
2
, x
r
2
+1
, . . . , x
r
3
V
k2
sea linealmente independiente sobre V
k3
.
Ad(a): Al repetir este proceso k veces, se obtiene la siguiente tabla de vectores en C
n
:
x
1
, . . . , x
r
1
,
Nx
1
, . . . , Nx
r
1
, x
r
1
+1
, . . . , x
r
2
,
N
2
x
1
, . . . , N
2
x
r
1
, Nx
r
1
+1
, . . . , Nx
r
2
, x
r
2
+1
, . . . , x
r
3
,
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
N
k1
x
1
, . . . , N
k1
x
r
1
, N
k2
x
r
1
+1
, . . . , N
k2
x
r
2
, N
k3
x
r
2
+1
, . . . , N
k3
x
r
3
, . . . , x
r
k1
+1
, . . . , x
r
k
.
Aqu se ha escrito r
j
:= m
kj+1
m
kj
para j = 1, . . . , k. Los vectores en esta tabla son lineal-
mente independientes, y las ultimas l las pertenecen a V
l
para cada l. Ahora,
r
1
+r
2
+ +r
k
= (m
k
m
k1
) +(m
k1
m
k2
) + +(m
2
m
1
) +m
1
= n,
as que todos estos vectores forman una base B de C
n
. Adem as, para cada l las sumas
telesc opicas r
1
+ +r
l
= m
l
= dimV
l
implican que las ultimas l las forman una base del
subespacio V
l
.
Ad(b): Si y es un vector de la ultima la, entonces y V
1
= ker T
N
, as que Ny = 0. Si z
es un vector de cualquier otra la, entonces Nz es un miembro de la la siguiente.
En la tabla anterior de vectores, cada columna genera un subespacio invariante para T
N
.
De hecho, este subespacio reduce T
N
porque las dem as columnas generan un subespacio
suplementario, tambi en invariante. Se puede entonces reordenar la base B, colocando las
columnas de izquierda a derecha y dentro de cada columna leyendo las columnas de abajo
hacia arriba:
B= N
k1
x
1
, . . . , Nx
1
, x
1
, N
k1
x
2
, . . . , Nx
2
, x
2
, . . . , x
r
1
, N
k2
x
r
1
+1
, . . . , x
r
2
, N
k3
x
r
2
+1
, . . . , x
r
k
.
Las r
k
columnas de la tabla determinan r
k
subespacios que reducen T
N
. Luego la matriz
[T
N
]
B
B
(que es semejante a N, desde luego) es una suma directa de bloques: hay r
1
bloques
k k, seguido de r
2
r
1
bloques de tama no (k 1) (k 1), etc., hasta r
k1
r
k2
bloques
MA460: Algebra Lineal II 54
2 2. Las ultimas r
k
r
k1
columnas de la tabla est an en V
1
= ker T
N
y se combinan para
proporcionar un bloque de ceros en la esquina inferior derecha de esta matriz.
Cada uno de estos bloques tiene una estructura sencilla. Basta examinar el primer bloque,
que queda determinado por las igualdades
T
N
(N
kj
x
1
) = N
kj+1
x
1
, para j = 1, . . . , k.
Al escribir y
j
:= N
kj
x
1
, de modo que y
1
, . . . , y
k
es la base ordenada del primer subespacio
invariante de la lista, se obtiene
T
N
(y
1
) = 0, T
N
(y
2
) = y
1
, T
N
(y
3
) = y
2
, . . . T
N
(y
k
) = y
k1
,
y la matriz correspondiente es el bloque
J
k
(0) :=
_

_
0 1 0 . . . 0 0 0
0 0 1 . . . 0 0 0
0 0 0 . . . 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0 1 0
0 0 0 . . . 0 0 1
0 0 0 . . . 0 0 0
_

_
(2.24)
es decir, una matriz triangular con ceros en la diagonal y unos en la subdiagonal superior:
a
12
= a
23
= = a
k1,k
= 1.
La matriz de T
N
es la base elegida es entonces la suma directa de r
1
bloques J
k
(0), (r
2
r
1
)
bloques J
k1
(0), etc., hasta (r
k1
r
k2
) bloques J
2
(0), m as un bloque cuadrado de ceros de
lado (r
k
r
k1
).
Denici on 2.51. Sea k 2, 3, . . . y sea C. El bloque de Jordan J
k
() es la matriz
triangular en M
k
(C) dado por
J
k
() := I
k
+J
k
(0) =
_

_
1 0 . . . 0 0 0
0 1 . . . 0 0 0
0 0 . . . 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 0
0 0 0 . . . 0 1
0 0 0 . . . 0 0
_

_
. (2.25)
Conviene denotar J
1
() := [] M
1
(C), como caso trivial.
Lema 2.52. El polinomio mnimo de un bloque de Jordan es igual que su polinomio carac-
terstico: si A = J
k
(), entonces q
A
(t) = p
A
(t) = (t )
k
.
MA460: Algebra Lineal II 55
Demostraci on. Si A = J
k
(), es obvio que p
A
(t) = det J
k
(t ) = (t )
k
. Basta entonces
comprobar que (J
k
() I
k
)
l
O cuando k 2 y l < k.
Ahora J
k
() I
k
= J
k
(0) es la matriz triangular nilpotente (2.24). Al renombrarla B =
J
k
(0), se ve que las unicas entradas no nulas de C = B
2
son
c
13
= b
12
b
23
= 1, c
24
= b
23
b
34
= 1, . . . c
k2,k
= b
k2,k1
b
k1,k
= 1.
Por inducci on sobre l, se ve que en R = B
l
las unicas entradas no ceros son r
1,l+1
= r
2,l+2
=
= r
kl,k
= 1. Por ejemplo, para B = J
4
(0) se ve que
B =
_

_
0 1 0 0
0 0 1 0
0 0 0 1
0 0 0 0
_

_
, B
2
=
_

_
0 0 1 0
0 0 0 1
0 0 0 0
0 0 0 0
_

_
, B
3
=
_

_
0 0 0 1
0 0 0 0
0 0 0 0
0 0 0 0
_

_
.
En particular, B
l
O para l =1, 2, . . . , k1, pero B
l
=O. Luego q
B
(t) =t
k
y q
A
(t) =(t )
k
.
Teorema 2.53. Cualquier matriz A M
n
(C) es semejante a una suma directa de bloques de
Jordan de la forma J
l
(
i
), donde
1
, . . . ,
r
son los autovalores distintos de A; para cada
i
,
el mayor lado l de los bloques J
l
(
i
) en esta suma directa es el exponente l
i
del factor (t
i
)
l
i
en el polinomio mnimo q
A
(t) de la matriz A.
Demostraci on. El polinomio mnimo p
A
(t) escinde en C[t] y por ende es de la forma (2.21):
p
A
(t) = (t
1
)
k
1
(t
2
)
k
2
. . . (t
r
)
k
r
,
donde
1
, . . . ,
r
C son distintos y k
1
+ +k
r
= n. Su polinomio mnimo tiene la forma
(2.22):
q
A
(t) = (t
1
)
l
1
(t
2
)
l
2
. . . (t
r
)
l
r
,
donde 1 l
i
k
i
en cada caso, en vista del Corolario 2.43.
Sea C
n
= W
1
W
r
la descomposici on primaria debida a esta factorizaci on de p
A
(t).
Eljase una base B
i
para cada W
i
, cuya uni on disjunta B= B
i
B
r
es una base de C
n
.
Al cambiar la base est andar E de C
n
a esta base B, se obtiene que la matriz A es semejante
a una suma directa A = A
1
A
r
, como en (2.23). Adem as, cada bloque A
i
tiene la forma
A
i
=
i
I
k
i
+N
i
donde N
i
es una matriz cuadrada nilpotente, con N
l
i
i
= O en M
k
i
(C).
Ahora, la matriz escalar
i
I
k
i
no sufre cambio alguno al reemplazar la base B
i
por cual-
quier otra base de W
i
. Se puede entonces suponer que B
i
es aqu ella que expresa T
N
i
como
suma directa de bloques de Jordan J
l
(0), como en (2.24). Por la construcci on de esta base, se
ve que l l
i
en cada caso y que hay al menos un bloque de lado l
i
. Al sumarles los bloques
escalares
i
I
l
, se obtiene que cada A
i
es una suma directa de bloques de Jordan J
l
(
i
).
Con el Teorema anterior, se dispone de una descripci on completa de la estructura de una
matriz cuadrada compleja, o bien la de un operador lineal sobre un espacio vectorial complejo
nitodimensional. De hecho, la descripci on es aplicable a matrices u operadores con otros
cuerpos F de escalares, toda vez que sus polinomios caractersticos escinden en F[t]. Hace
falta, sin embargo, un proceso algortmico para hallar los polinomios mnimos.
18
18
Tales procesos existen, pero quedan fuera del ambito de este curso. V ease, por ejemplo, el libro de Anatoly
I. Maltsev, Fundamentos de Algebra Lineal, Mir, Mosc u, 1972.
MA460: Algebra Lineal II 56
2.6 Ejercicios sobre operadores lineales y matrices
Ejercicio 2.1. Calcular los tres autovalores de la matriz
A :=
_

_
1 1 0
1 2 1
0 1 1
_

_
.
Ejercicio 2.2. Calcular los tres autovalores distintos
1
,
2
,
3
de la matriz
A :=
_

_
3 2 2
2 2 0
2 0 4
_

_
.
Resolver las ecuaciones (
j
I
3
A)x
j
= 0, j = 1, 2, 3, para obtener tres autovectores x
1
, x
2
, x
3

de A. Sea P := [x
1
x
2
x
3
]. Vericar que la matriz P
1
AP es diagonal y que sus elementos
diagonales son los autovalores de A.
Ejercicio 2.3. Calcular los autovalores de la matriz
A :=
_

_
2 2 3
1 1 1
1 3 1
_

_
.
Obtener una matriz inversible P cuyas columnas son autovectores de A y vericar que las
transpuestas de las las de P
1
son autovectores de A
t
.
Ejercicio 2.4. Un cuadrado m agico de lado n es una matriz n n cuyas entradas son los
enteros 1, 2, . . . , n
2
dispuestos de tal manera que la suma de las entradas de cada la y de cada
columna es la misma. Vericar que
1
2
n(n
2
+1) es un autovalor de esta matriz.
Ejercicio 2.5. Calcular los polinomios caractersticos y determinar los autovalores de las
matrices
A =
_
cos sen
sen cos
_
, B =
_
cosht senht
senht cosht
_
, C =
_

_
1 1 1
1
2
1
2

_
,
donde < , t R, y = e
2i/3
=
1
2
(1+i

3).
Ejercicio 2.6. Calcular el polinomio caracterstico de la matriz
A =
_

_
0 0 0 . . . 0 a
0
1 0 0 . . . 0 a
1
0 1 0 . . . 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 a
n1
_

_
y concluir que todo polinomio f (t) es el polinomio caracterstico de alguna matriz.
MA460: Algebra Lineal II 57
Ejercicio 2.7. (a) Si P
1
AP = D es una matriz diagonal, demostrar que A
k
= PD
k
P
1
para
todo k N.
(b) Calcular los dos autovalores de la matriz A =
_
5 3
6 4
_
y obtener un par de autovectores
correspondientes.
(c) Usar los resultados de las partes (a) y (b) para comprobar que
_
5 3
6 4
_
9
=
_
1025 513
1026 514
_
.
Ejercicio 2.8. T omese F = R o C. Las f ormulas A
k
= PD
k
P
1
son casos particulares de la
receta
f (A) = Pf (D)P
1
toda vez que D = P
1
AP,
la cual es v alida para funciones f que pueden desarrollarse en series de potencias (con radio
de convergencia innita, digamos), por aplicaci on de las f ormulas para A
k
a cada potencia.
Si D = diag[
1
, . . . ,
n
] es diagonal, la matriz f (D) es tambi en diagonal: de hecho, es f (D) =
diag[ f (
1
), . . . , f (
n
)]. Al tomar f (t) := e
t
=
_
k0
(1/k!) t
k
, se dene la exponencial de una
matriz A M
n
(F) como expA :=
_
k0
(1/k!) A
k
. Comprobar el c alculo siguiente:
exp
_
5 3
6 4
_
=
_
2e
2
e e e
2
2e
2
2e 2e e
2
_
.
Ejercicio 2.9. Una cadena de Markov es un proceso probabilstico con un n umero nito n
de estados caracterizado por n umeros reales no negativos a
i j
(que representa la probabilidad
de cambiar del estado i al estado j en un paso del proceso); se impone la condici on de que
_
n
j=1
a
i j
= 1. Si A = [a
i j
] M
n
(R) es la llamada matriz de transici on de la cadena de Markov,
resulta que la probabilidad de cambiar del estado i al estado j en k pasos es la entrada (i, j) de
la matriz A
k
. Comprobar que
A =
_

_
1
2
1
2
0
1
4
1
2
1
4
0
1
2
1
2
_

_
= A
k
=
_

_
1
4
+
_
1
2
_
k+1 1
2
1
4

_
1
2
_
k+1
1
4
1
2
1
4
1
4

_
1
2
_
k+1 1
2
1
4
+
_
1
2
_
k+1
_

_
.
Ejercicio 2.10. Sea A, B M
n
(C) dos matrices cualesquiera. Demostrar que los polinomios
caractersticos p
AB
(t) y p
BA
(t) coinciden.
[[ Indicaci on: Si det A0, es BA= A
1
(AB)A. Si det A=0, demostrar que det (AI
n
) 0
para casi todo C y concluir que para cada jo, la expresi on
t det (I
n
(AtI
n
)B) det (I B(AtI
n
))
es un polinomio con m as de n races. ]]
MA460: Algebra Lineal II 58
Ejercicio 2.11. Calcular los polinomios caracterstico y mnimo de las matrices:
A =
_

_
3 2 2
1 4 1
2 4 1
_

_
, B =
_

_
1 0 1 0
0 1 0 1
1 0 1 0
0 1 0 1
_

_
.
Ejercicio 2.12. Sea S End(M
2
(F)) el operador de transposici on, es decir S (A) := A
t
(v ease
el Ejercicio 1.14). Calcular los polinomios caracterstico y mnimo de S . Exhibir una base
de autovectores para el operador S .
Ejercicio 2.13. (a) Sea A M
n
(F) una matriz con n autovalores
1
, . . . ,
n
, no necesariamente
distintos. Si f (t) F[t] es un polinomio cualquiera, demostrar que los autovalores de la matriz
f (A) son f (
1
), . . . , f (
n
).
(b) Comprobar que la traza de A
k
obedece tr(A
k
) =
k
1
+ +
k
n
, para todo k N.
Ejercicio 2.14. Sea A M
n
(F) una matriz inversible. Demostrar que el coeciente de t en el
polinomio caracterstico p
A
(t) es (1)
n1
det A tr(A
1
).
Ejercicio 2.15. Decimos que una matriz B M
n
(F) es idempotente si B
2
= B. Comprobar
que la matriz (I
n
B) es tambi en idempotente. Demostrar que los autovalores distintos de B
son 0, 1, excepto si B = O o B = I.
Qu e puede armarse acerca de la forma de Jordan de una matriz idempotente B?
Vericar que r(B) = tr B cuando B es idempotente.
Ejercicio 2.16. Una matriz A M
n
(F), sobre un cuerpo F cualquiera, se llama semisimple si
su polinomio mnimo es un producto de factores irreducibles distintos. Comprobar que una
matriz compleja (el caso F = C) es semisimple si y s olo si es diagonalizable.
Exhibir una matriz B M
4
(R) que es semisimple pero no diagonalizable.
Ejercicio 2.17. Si A M
n
(R) la matriz sim etrica con entradas a
i j
= [[i=j +1]] +[[ j=i +1]], es
decir, tiene entradas 1 en las dos subdiagonales principales, y las dem as entradas cero. Para
n = 5, por ejemplo, es
A =
_

_
0 1 0 0 0
1 0 1 0 0
0 1 0 1 0
0 0 1 0 1
0 0 0 1 0
_

_
.
Sea B M
n
(R) la matriz con entradas b
i j
= sen
_
i j
n+1
_
. Vericar que las columnas de B son
autovectores de A. Cu ales son los autovalores correspondientes? es la matriz A diagonali-
zable?
MA460: Algebra Lineal II 59
Ejercicio 2.18. Calcular los polinomios caracterstico y mnimo de la matriz
A =
_

_
5 1 0 0 0
6 0 1 0 0
0 0 0 0 0
0 0 0 3 1
0 0 0 1 1
_

_
.
Ejercicio 2.19. Calcular la forma de Jordan de la matriz triangular siguiente:
A =
_

_
1 2 3 4
0 1 1 2
0 0 1 4
0 0 0 3
_

_
.
Para hallarla, se debe proceder as:
(a) Identicar un autovector y para el autovalor 3.
(b) Identicar los subespacios V
1
, V
2
, V
3
anulados por (AI
4
), (AI
4
)
2
, (AI
4
)
3
, respec-
tivamente.
(c) Hallar un vector x V
3
\ V
2
tal que (AI
4
)
2
x, (AI
4
)x, x, y sea una base de F
4
.
(d) Si P es la matriz cuyas columnas son los vectores de esta base, calcular P
1
.
(e) Vericar que la matriz P
1
AP es una suma directa de bloques de Jordan.
Ejercicio 2.20. Sea C(t) := C
r
t
r
+C
r1
t
r1
+ +C
1
t +C
0
M
n
(F[t]) una matriz n n con
entradas polinomiales, o lo que es lo mismo, un polinomio con coecientes C
i
en M
n
(F).
Mostrar que hay otro polinomio matricial Q(t) tal que
C(t) = Q(t) (tI
n
A) +C(A);
es decir, que es residuo de la divisi on a la derecha de C(t) por (tI
n
A) es la matriz
C(A) := C
r
A
r
+C
r1
A
r1
+ +C
1
A+C
0
.
Ejercicio 2.21. Sea A M
n
(F) una matriz con polinomio caracterstico p
A
(t) y polinomio
mnimo q
A
(t). Sea d
n1
(t) el m aximo com un divisor de los menores (n 1) (n 1) de A,
esto es, el m aximo com un divisor de las entradas de adj(tI
n
A).
(a) Comprobar que d
n1
(t) divide p
A
(t). Si
q(t) :=
p
A
(t)
d
n1
(t)
,
vericar que q(A) = O y como consecuencia, que q
A
(t) divide q(t). [[ Indicaci on: Usar el
ejercicio anterior. ]]
(b) Si q(t) = s(t) q
A
(t) en F[t], demostrar que s(t) 1 y concluir que q
A
(t) = p
A
(t)/d
n1
(t).
19
19
Este ejercicio proporciona una f ormula para q
A
(t), haciendo constar que existe un proceso algortmico para
obtener el polinomio mnimo. V ease la secci on IV.6 del libro: Feliks Gantmacher, The Theory of Matrices,
Chelsea, New York, 1959.

Você também pode gostar