Você está na página 1de 233

lgebra Lineal

Semestre Enero - Mayo, 2014


Notas de Curso
Jos Alejandro Lara Rodrguez
Facultad de Matemticas
Universidad Autnoma de Yucatn
9 de enero de 2014
Estas notas estn basadas en el libro de lgebra Lineal de los autores
J.A. Lara Rodrguez y C.J. Rubio Barrios [12]. Las notas incorporan
ejemplos de cmo realizar algunos clculos usando el software libre
para matemticas llamado Sage (www.sagemath.org) [22]. Tambin
se incluyen respuestas a ejercicios seleccionados.
ii
ndice general
ndice general iii
ndice de guras vii
Notaciones frecuentemente usadas ix
1. Sistemas de ecuaciones lineales 1
1.1. Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Representaciones matriciales . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Tcnicas de eliminacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1. Forma escalonada y el mtodo de Gauss . . . . . . . . . . . . . . . . . . . 13
1.2.2. La forma escalonada reducida y el mtodo de Gauss-Jordan . . . . . . . . 17
1.2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3. Rango y consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.4. Sistemas homogneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5. Sistemas no homogneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.6. Clculo de los cuatro espacios fundamentales . . . . . . . . . . . . . . . . . . . . 32
1.7. Descomposiciones LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2. Determinantes 43
2.1. Existencia de una funcin determinante . . . . . . . . . . . . . . . . . . . . . . . 43
2.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3. Unicidad de la funcin determinante . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4. Determinantes y sistemas de ecuaciones . . . . . . . . . . . . . . . . . . . . . . . 61
2.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.5. Clculo de determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
iii
iv NDICE GENERAL
2.6. reas y volmenes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3. Espacios vectoriales 75
3.1. Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.3. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
3.4. Bases y dimensin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.5. Bases y dimensin de los subespacios fundamentales . . . . . . . . . . . . . . . . 94
3.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.6. Sumas directas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4. Transformaciones lineales y matrices 105
4.1. Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.2. El ncleo y la imagen de una transformacin lineal . . . . . . . . . . . . . . . . . 111
4.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
4.3. Transformaciones lineales inyectivas y suprayectivas . . . . . . . . . . . . . . . . 114
4.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
4.4. La matriz asociada a una transformacin lineal . . . . . . . . . . . . . . . . . . . 117
4.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
4.5. El isomorsmo entre K
dimWdimV
y L(V, W) . . . . . . . . . . . . . . . . . . . . 124
4.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.6. Matrices asociadas a la misma transformacin lineal . . . . . . . . . . . . . . . . 125
4.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
4.7. Operadores diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.7.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.8. El espacio dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.8.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
5. Espacios producto interno 141
5.1. Espacios producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
5.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
5.2. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
5.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
5.3. El proceso de Gram - Schmidt y la descomposicin QR . . . . . . . . . . . . . . 152
5.3.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
5.4. Proyecciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.4.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
5.5. Teorema de la descomposicin ortogonal . . . . . . . . . . . . . . . . . . . . . . . 163
5.5.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
5.6. Mnimos cuadrados y sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . 167
5.6.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
A. Campos 175
A.1. Denicin y propiedades bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
A.2. La caracterstica de un campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
NDICE GENERAL v
B. Matrices 179
B.1. Deniciones bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
B.2. El espacio vectorial de las matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 183
B.3. El anillo de las matrices cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . 185
B.4. La transpuesta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
B.5. Multiplicacin de matrices en bloques . . . . . . . . . . . . . . . . . . . . . . . . 193
B.6. La traza de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
B.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
B.8. Mtodo de eliminacin de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
B.9. Mtodo de eliminacin de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 206
B.10.Algoritmo de Gauss-Jordan para calcular la inversa . . . . . . . . . . . . . . . . . 207
B.11.Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
C. Soluciones a ejercicios seleccionados 213
Bibliografa 219
ndice alfabtico 221
vi NDICE GENERAL
ndice de guras
1.1. Interpretacin geomtrica: Interseccin de rectas . . . . . . . . . . . . . . . . . . 7
1.2. Interpretacin geomtrica: Combinacin lineal de vectores . . . . . . . . . . . . . 8
1.3. Interpretacin funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1. El paralelogramo P(v, w) determinado por los vectores v y w. . . . . . . . . . . . 67
2.2. El paralelogramo P(nv, w) determinado por los vectores nv y w . . . . . . . . . . 68
2.3. El paralelogramo P(rv, w) determinado por rv y w . . . . . . . . . . . . . . . . . 69
2.4. Propiedades de volmenes y determinantes . . . . . . . . . . . . . . . . . . . . . 69
2.5. Paralelogramo determinado por v = (3 5)
T
y w = (1 2)
T
. . . . . . . . . . . . . 71
2.6. Paralelogramo determinado por (2 3)
T
, (5 5)
T
, (5 8)
T
y (2 10)
T
. . . . . . . . 72
5.1. c es la componente de v
2
a lo largo de v
1
. . . . . . . . . . . . . . . . . . . . . . . 153
5.2. Mnimos cuadrados: recta que pasa cerca de todos los puntos . . . . . . . . . . 168
5.3. Mnimos cuadrados: parbola que pasa cerca de todos los puntos . . . . . . . . 169
vii
viii NDICE DE FIGURAS
Notaciones frecuentemente usadas
Final de una demostracin.
N Nmeros naturales.
Z Nmeros enteros.
Q Nmeros racionales.
R Nmeros reales.
C Nmeros complejos.
R
+
Nmeros reales positivos.
F
q
Un campo nito con q elementos.
K Un campo arbitrario.
(s
1
, . . . , s
n
) Vector rengln con entradas s
1
, . . . , s
n
.
(s
1
, . . . , s
n
)
T
Transpuesto del vector rengln (s
1
. . . s
n
).
K
n
(x
1
. . . x
n
)
T
[ x
i
K, 1 i n.
K
mn
Espacio de las matrices de mn.
I Matriz identidad.
I
n
Matriz identidad de tamao n n.
A = (a
ij
) Matriz A con entradas a
ij
.
[A]
ij
La entrada (i, j) de la matriz A.
A
j
Columna j de una matriz A.
A
i
Rengln i de una matriz A.
adj(A) Adjunta de la matriz A.
A
T
Transpuesta de la matriz A o del operador A.

A La conjugada de la matriz compleja A,



A = ( a
ij
).
A

La transpuesta conjugada de la matriz compleja A, A

=

A
T
. Tambin
indica el adjunto del operador A.
[A [ b] La matriz aumentada del sistema Ax = b.
R(A) Espacio columna de la matriz A.
N (A) Espacio nulo de la matriz A.
N
_
A
T
_
Espacio nulo izquierdo de la matriz A.
R
_
A
T
_
Espacio rengln de la matriz A.
D(A), det(A), [A[ Determinante de la matriz A.
S
n
El grupo de las permutaciones de n elementos.
V Usualmente denota un espacio vectorial.
V

El espacio dual del espacio vectorial V .


1
V
El operador identidad sobre el espacio vectorial V .
S Subespacio vectorial generado por el conjunto S.
W

Complemento ortogonal del subespacio W.


dimV Dimensin de V .
[ [ Cardinalidad de un conjunto. Tambin indica valor absoluto.
ix
x 0. Notaciones frecuentemente usadas
|v| Norma del vector v.
U W Suma directa de U y W.
U W Producto cartesiano de U y W. Si U y W son espacios vectoriales, denota
su producto directo.
[v]

Vector de coordenadas respecto de la base .


K[t] El espacio vectorial de los polinomios en la variable t con coecientes en
K.
K[t]
n
El espacio vectorial de los polinomios en la variable t con coecientes en
K, de grado menor que n.
f Grado del polinomio f.
ker T Ncleo de la transformacin lineal T.
ImT Imagen de la transformacin lineal T.
[T]

Matriz de T en las bases y


t
.
[1
V
]

Matriz cambio de base de la base a la base


t
.
L(V, W) El espacio de las transformaciones lineales de V en W.
L(V ) Espacio de las funciones lineales de V en V .
Bil(U V, W) Espacio de las funciones bilineales de U V en W.
Bil(V ) Espacio de las formas bilineales de V .
v, w Producto interno (escalar o hermitiano) de v y w.
(A) Espectro de A, el conjunto de los valores propios de A.
E

Espacio propio correspondiente al valor propio .


CAPTULO 1
Sistemas de ecuaciones lineales
Este captulo est dedicado al estudio de la resolucin de los sistemas de ecuaciones lineales.
Se analizan las diferentes maneras de interpretar un sistema de ecuaciones. Posteriormente, se
introducen las diferentes tcnicas de eliminacin para la resolucin de stos. Quiz las tcnicas
ms conocidas son las de Gauss y Gauss-Jordan, incluyendo su versin matricial que usa la de-
nominada descomposicin LU. Se analiza la estructura del conjunto de soluciones de un sistema,
estudiando primero los sistemas homogneos, que tienen estructura de espacio vectorial (en el
Captulo 3 se estudiarn los espacios vectoriales), y despus los sistemas generales. Asociado a
una matriz hay cuatro subespacios vectoriales, denominados los espacios fundamentales, ya que
cualquier subespacio de un espacio vectorial de dimensin nita se relaciona directamente con
uno de stos.
Las tcnicas que se desarrollarn en este captulo son indispensables para entender plenamen-
te los conceptos abstractos de espacio y subespacio vectorial que se presentarn ms adelante.
La teora se desarrollar sobre un campo arbitrario K. Sin embargo, si el lector lo preere,
puede suponer que K es un subcampo del campo de los nmeros complejos (esto por supuesto
incluye a Q, R y C). A los elementos de un campo se les llama escalares.
1.1. Ecuaciones lineales
El estudio de los sistemas de ecuaciones lineales es uno de los temas ms importantes del
lgebra lineal. El estudio de estos sistemas est ntimamente ligado con el estudio de las matrices.
Sea K un campo. Una ecuacin lineal con n incgnitas x
1
, . . . , x
n
es una ecuacin que se
puede escribir en la forma:
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= b, (1.1)
donde a
1
, . . . , a
n
, b son escalares (esto es, son elementos del campo K). Las x
i
s son las incgnitas,
las a
i
s son los coecientes y el escalar b se llama trmino constante o independiente.
Si K = R, una ecuacin lineal con dos incgnitas representa una recta en el plano, en tanto
que una ecuacin lineal con tres incgnitas representa un plano en el espacio (salvo algunas
excepciones).
Las ecuaciones 5x + 2y = 3 y

3x y = 2z son ecuaciones lineales, en tanto que
x 3y
2
= 0 y cos x +y = 3 no lo son.
1
2 1. Sistemas de ecuaciones lineales
Una matriz con exactamente una columna se llama vector columna, y una matriz con exac-
tamente un rengln se llama vector rengln. El conjunto de todos los vectores columna con
entradas en el campo K se denotar por K
n
. Si x es un vector columna, entonces su transpues-
ta
1
es un vector rengln. Recprocamente, si x es un vector rengln su transpuesta es un vector
columna.
Un vector (s
1
, . . . , s
n
)
T
K
n
es una solucin de la ecuacin lineal (1.1) si a
1
s
1
+ a
2
s
2
+
+a
n
s
n
= b. As, (1, 1)
T
es una solucin de la ecuacin 5x +2y = 3, pues 5(1) +2(1) = 3.
Por otro lado, (1, 1)
T
no es solucin ya que 5(1) + 2(1) = 7 ,= 3.
Un sistema de m ecuaciones lineales con n incgnitas es un conjunto de m ecuaciones lineales
que se puede escribir en la forma:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
, (1.2)
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
,
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
,
donde las a
ij
s y las b
i
s (1 i m, 1 j n) son escalares. Cuando se tiene b
1
= b
2
= =
b
m
= 0, se dice que el sistema es un sistema homogneo. De otra manera se dice que es no
homogneo. De acuerdo a esta denicin, el sistema:
2x 3y + 7z = 0,
x y z = 0,
es homogneo, mientras que el sistema:
2x 3y + 7z = 0,
x y z = 3,
es no homogneo.
Un vector (s
1
, . . . , s
n
)
T
K
n
es una solucin del sistema (1.2) si es solucin de cada una
de las ecuaciones del sistema. Es claro que para un sistema de ecuaciones dado solo hay dos
posibilidades: tiene solucin o no tiene solucin. Un sistema que tiene al menos una solucin se
llama consistente; un sistema sin solucin se llama inconsistente. Para un sistema consistente
se presentan dos posibilidades: o tiene solucin nica o tiene ms de una solucin. Un sistema
consistente se llama determinado si tiene solucin nica e indeterminado si tiene ms de una
solucin.
Sistema de ecuaciones
_

_
Consistente
_
Determinado: Solucin nica.
Indeterminado: Ms de una solucin.
Inconsistente: Sin solucin.
Veamos algunos ejemplos.
Ejemplo 1.1.1. Una solucin del sistema:
2x y = 1,
x +y = 2,
es (1, 1)
T
. Ms an, se puede demostrar que es la nica solucin. En consecuencia, ste es un
sistema consistente y determinado.
1
Si A = (a
ij
) es una matriz de mn, su transpuesta denotada por A
T
es la matriz cuya (i, j)-sima entrada
es a
ji
.
1.1. Ecuaciones lineales 3
Ejemplo 1.1.2. Los vectores (1, 3, 2)
T
y (1, 7, 4)
T
son soluciones del sistema de ecuacio-
nes:
2x +y z = 1,
x y + 2z = 0.
Este sistema es consistente, pero indeterminado.
Ejemplo 1.1.3. El sistema de ecuaciones:
x +y = 1,
x +y = 2,
es inconsistente sobre el campo de los nmeros reales. En efecto, si (s
1
, s
2
)
T
fuera una solucin
del sistema, se tendra 1 = s
1
+s
2
= 2. As este sistema no tiene solucin.
Una buena parte del estudio de los sistemas de ecuaciones lineales consiste en determinar
su consistencia o inconsistencia. La otra parte consiste en calcular la solucin si sta es nica o
bien describir el conjunto de todas las soluciones. Antes de analizar cmo resolver sistemas de
ecuaciones lineales es necesario familiarizarnos con las diferentes representaciones en trminos
de matrices de stos.
Ejemplo SAGE 1.1.4. Con la ayuda de Sage se pueden calcular las soluciones de los sistemas
de ecuaciones de los ejemplos anteriores.
sage: var(x y z)
(x, y, z)
sage: solve ([2*x-y ==1, x+y==2],x,y) # Determinado
[[x == 1, y == 1]]
sage: solve ([2*x+y-z==1, x-y+2*z==0],x,y,z) # Indeterminado
[[x == -1/3*r1 + 1/3, y == 5/3*r1 + 1/3, z == r1]]
sage: solve([x+y==1, x+y ==2],x,y) # Inconsistente
[]
Note que en el segundo caso, la solucin est dada en trminos de un parmetro r
1
. Se deja al
lector vericar que x = r
1
/3+1/3, y = 5r
1
/3+1/3 y z = r
1
, donde r
1
es cualquier nmero real
es solucin del sistema de ecuaciones del Ejemplo 1.1.2. Que haya una innidad de soluciones se
debe a que la interseccin de dos planos no paralelos es una recta. En el ltimo caso el sistema
no tiene solucin.
De manera alterna se pueden almacenar las ecuaciones en variables.
sage: e1 = 2*x-y ==1
sage: e2 = x+y==2
sage: e1
2*x - y == 1
sage: e2
x + y == 2
sage: solve([e1 ,e2], x, y)
[[x == 1, y == 1]]
4 1. Sistemas de ecuaciones lineales
1.1.1. Representaciones matriciales
Es posible (y altamente recomendable) expresar un sistema de ecuaciones lineales en trminos
matriciales. Consideremos el siguiente sistema de m ecuaciones lineales con n incgnitas:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
,
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
,
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
.
Las matrices:
A =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn
_
_
_
_
_
, b =
_
_
_
_
_
b
1
b
2
.
.
.
b
m
_
_
_
_
_
[A [ b] =
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mn

b
1
b
2
.
.
.
b
m
_
_
_
_
_
reciben los nombres de matriz de coecientes, matriz (o vector) de trminos independientes y
matriz aumentada, respectivamente. Considerando la denicin de igualdad de matrices y las
operaciones de suma y multiplicacin de matrices, podemos escribir el sistema dado como:
Ax = b, donde x = (x
1
, . . . , x
n
)
T
.
La multiplicacin Ax se puede realizar de dos maneras diferentes: por renglones o por columnas.
En la multiplicacin por renglones tenemos:
Ax =
_
_
_
_
_
A
1
x
A
2
x
.
.
.
A
m
x
_
_
_
_
_
donde A
1
, A
2
, . . . , A
m
son los renglones de A. En la multiplicacin por columnas tenemos:
b = Ax = x
1
A
1
+x
2
A
2
+ +x
n
A
n
,
donde A
1
, A
2
, . . . , A
n
son las columnas de A. En la multiplicacin por columnas, se dice que
b es combinacin lineal de las columnas de A.
Sean B
1
, . . . , B
m
son matrices del mismo tamao. Una combinacin lineal de las matrices
B
i
es una matriz de la forma
a
1
B
1
+ +a
m
B
m
=
m

i=1
a
i
B
i
donde a
1
, . . . , a
m
son escalares. Una matriz B es una combinacin lineal de las matrices B
i
si existen escalares a
1
, . . . , a
m
tales que B =

a
i
B
i
. Formar combinaciones lineales a partir
de un conjunto de matrices dado es muy fcil; basta con elegir escalares arbitrarios y realizar
1.1. Ecuaciones lineales 5
las operaciones correspondientes. Consideremos por ejemplo las matrices B
1
=
_
1
1
_
y B
2
=
_
1
1
_
. Algunas combinaciones lineales de estas matrices son:
B
1
+B
2
=
_
2
0
_
, 2B
1
+ 3B
2
=
_
5
1
_
, 0B
1
+B
2
= B
2
, B
1
+ 0B
2
= B
1
.
Decidir si una matriz particular es combinacin lineal lineal de otras matrices no siempre
resulta tan sencillo. Por ejemplo, es B =
_
3
5
_
una combinacin lineal de B
1
y B
2
? Ms
adelante se vern mtodos generales para responder a esta pregunta.
Ejemplo 1.1.5. La matriz de coecientes y el vector de trminos independientes del sistema:
3x
1
+ 2x
2
x
3
+x
4
= 1,
x
2
+x
3
x
4
= 2,
2x
1
+x
2
3x
3
+ 5x
4
= 8,
son:
A =
_
_
3 2 1 1
0 1 1 1
2 1 3 5
_
_
y b =
_
_
1
2
8
_
_
,
respectivamente. El sistema se puede escribir de las siguientes maneras:
_
_
3 2 1 1
0 1 1 1
2 1 3 5
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
1
2
8
_
_
,
x
1
_
_
3
0
2
_
_
+x
2
_
_
2
1
1
_
_
+x
3
_
_
1
1
3
_
_
+x
4
_
_
1
1
5
_
_
=
_
_
1
2
8
_
_
.
Una solucin de este sistema de ecuaciones lineales es s = (2 3 1 2)
T
. El vector b se puede
escribir como combinacin lineal de las columnas de A:
2
_
_
3
0
2
_
_
+ (3)
_
_
2
1
1
_
_
+
_
_
1
1
3
_
_
+ 2
_
_
1
1
5
_
_
=
_
_
1
2
8
_
_
.
El siguiente teorema es consecuencia inmediata de las diferentes representaciones de un
sistema de ecuaciones lineales.
Teorema 1.1.6. Sea el sistema de ecuaciones lineales Ax = b, donde A K
mn
y b K
m
.
Las siguientes armaciones son equivalentes:
a) El sistema de ecuaciones lineales tiene al menos una solucin.
b) Existe al menos un vector en K
n
que satisface simultneamente todas las ecuaciones del
sistema.
c) Es posible escribir al vector de trminos independientes b, como combinacin lineal de las
columnas de la matriz A.
6 1. Sistemas de ecuaciones lineales
d) El vector b pertenece a la imagen de la funcin T : K
n
K
m
denida por T(x) = Ax.
Demostracin. a) b). Es por denicin de solucin de un sistema de ecuaciones. b) c) Sea
s = (s
1
, . . . , s
n
)
T
un vector que satisface simultneamente todas las ecuaciones del sistema
Ax = b. Entonces As = b y
b = As = s
1
A
1
+ +s
n
A
n
. (1.3)
c) d) Supongamos que existen escalares s
1
, . . . , s
n
tales que b se puede escribir de la forma
(1.3), entonces b = As = T(s), donde s = (s
1
. . . s
n
)
T
K
n
y por lo tanto b ImT.
d) a) Supongamos que b ImT. Por denicin de imagen, existe un s K
n
tal que
b = f(s) = As. Esto muestra que el sistema Ax = b tiene al menos una solucin.
A la imagen de la funcin T denida en la proposicin anterior se le denomina espacio
columna de la matriz A y se denota con el smbolo R(A):
R(A) = ImT = b K
m
[ b = Ax para algn x K
n
.
El espacio columna de A consta de todos aquellos vectores de K
m
que se pueden escribir como
combinacin lineal de las columnas de A, es decir, consta de todas las combinaciones lineales de
las columnas de A. De acuerdo con la proposicin anterior podemos armar que:
El sistema Ax = b tiene solucin si y slo si b R(A).
En la siguiente seccin estudiaremos tcnicas para determinar cuando un sistema de ecuaciones
dado tiene solucin.
Ejemplo 1.1.7. La nica solucin del siguiente sistema de ecuaciones es s = (2, 3)
T
.
2x y = 1, (1.4)
x +y = 5.
El punto s satisface simultneamente las dos ecuaciones del sistema. La solucin es aquel punto
del plano donde las rectas se intersectan (Figura 1.1.1). Por otro lado, el vector de trminos
independientes b se escribe como combinacin de las columnas de la matriz asociada al sistema:
2
_
2
1
_
+3
_
1
1
_
=
_
1
5
_
(Figura 1.2); observamos que para obtener el vector b se debe multi-
plicar por 2 el vector
_
2
1
_
, por 3 el vector
_
1
1
_
y realizar la suma de los vectores resultantes.
Finalmente, al considerar la funcin T : R
2
R
2
denida de la siguiente manera:
T
_
x
y
_
=
_
2 1
1 1
__
x
y
_
=
_
2x y
x +y
_
,
notamos que y ImT = y R
2
[ y = T(x) para algn x R
2
= R(A), donde A es la matriz
de coecientes del sistema. Observe que en el espacio columna de la matriz A hay ms de un
vector. Por ejemplo, el vector b
1
=
_
1
2
_
R(A) ya que A
_
1
1
_
= b
1
. Se deja de ejercicio al
lector construir ms elementos que pertenezcan al espacio columna de la matriz A.
1.1. Ecuaciones lineales 7
x
1 1 2 3 4 5 6
y
1
1
2
3
4
5
6 2x y = 1
x +y = 5
_
2
3
_
Figura 1.1: La solucin (2 3)
T
del sistema de ecuaciones lineales 1.4 interpretado como la inter-
seccin de las rectas 2x y = 1 y x +y = 5.
1.1.2. Ejercicios
1. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-
terminado o inconsistente.
2 x
3
+
1
2
x
4
= 1,
x
1
2 x
4
2 x
5
=
1
14
,
2 x
1
+x
2
+x
5
= 2,
2 x
3
x
4
+x
5
=
3
2
.
Escriba la matriz de coecientes y el vector de trminos independientes.
2. Con la ayuda de Sage determine si el siguiente sistema de ecuaciones es determinado, inde-
terminado o inconsistente.
x
2

1
2
x
3
2 x
4
=
1
4
,
2 x
3
x
5
= 61,
2 x
2
+ 2 x
3
+x
4
= 0,
1
2
x
3

1
2
x
4
= 21,
x
1
+ 2 x
3

1
2
x
4
= 4,
2 x
2

1
2
x
3
=
3
7
.
8 1. Sistemas de ecuaciones lineales
x
3 2 1 1 2 3 4
y
1
2
3
4
5
v w
2v
3w
b = 2v + 3w
Figura 1.2: La solucin (2, 3)
T
del sistema de ecuaciones lineales 1.4 interpretada como una
combinacin lineal de los vectores v = (2, 1)
T
y w = (1, 1)
T
. El vector v se multiplica por
2, el vector w se multiplica por 3. La suma de los vectores resultantes es el vector de trminos
b = 2v + 3w.
3. La matriz de coecientes y el vector de trminos independientes de un sistema de ecuaciones
son
A =
_
_
_
_
_
_
0 1 1 2 0
1 0 2 0 1
0 2 1 0 1
1 1 0 1 0
1 1 1 0 0
_
_
_
_
_
_
y b =
_
_
_
_
_
_
2
1
32

11
2
0
1
_
_
_
_
_
_
,
respectivamente. Determine si el sistema de ecuaciones es determinado, indeterminado o
inconsistente.
4. Con la ayuda de algn software, por ejemplo Sage, determine si el vector b =
_
_
4
3
4
_
_
es
combinacin lineal de las matrices
v
1
=
_
_
1
2
1
_
_
, v
2
=
_
_
1
2
1
_
_
, v
3
=
_
_
1
1
1
_
_
.
5. Determine cul o cules de los siguientes vectores pertenecen al espacio columna de la matriz
A =
_
_
1 1 1
1 1 1
2 1 1
_
_
.
_
_
3
2
6
_
_
,
_
_
6
6
6
_
_
,
_
_
1
2
5
_
_
,
_
_
0
0
5
_
_
_
_
1
1
13
_
_
.
1.2. Tcnicas de eliminacin 9
x
1 1 2 3
y
1
2
3
x
1 1 2 3
y
1
2
3
4
5
_
2
3
_
_
1
5
_
T
Figura 1.3: La solucin s = (2 3)
T
del sistema de ecuaciones lineales 1.4 interpretado como aquel
punto del dominio de la funcin T : R
2
R
2
que satisface T(s) = b = (1 5)
T
.
6. Considere el sistema de ecuaciones lineales Ax = b, donde
[A [ b] =
_
_
_
_
0 0 2 2 2 2 4
1 0 1 0 6 4 10
2 0 1 3 9 5 26
4 0 3 7 17 9 54
_
_
_
_
.
a) Escriba b, el vector de trminos independientes, como una combinacin lineal de las
columnas de A.
b) Sea T la funcin de R
6
R
4
denida por la matriz A. Proporcione al menos cinco
vectores b R
4
que pertenezcan a la imagen de T.
7. Pruebe que si un sistema de ecuaciones lineales con coecientes en R tiene al menos dos
soluciones diferentes, entonces tiene innidad de soluciones. (Sugerencia. Si x
1
,= x
2
son
soluciones del sistema Ax = b, demuestre que x
1
+k(x
1
x
2
) tambin es solucin del sistema
para todo k R. Luego demuestre que cualesquiera dos de estas soluciones son distintas).
8. Sean A y x matrices de nmeros reales positivos de tamaos n n y n 1 respectivamente.
Demuestre que si A
2
x = x, entonces Ax = x.
1.2. Tcnicas de eliminacin
En esta seccin se estudiar el fundamento en que se basan los diferentes mtodos para
resolver sistemas de ecuaciones lineales. Estos mtodos nos permitirn describir el conjunto de
soluciones de un sistema, o en su caso, determinar que el sistema dado no tiene solucin.
La idea principal de estos mtodos es transformar un sistema de ecuaciones lineales en
otro que sea ms fcil de resolver. Para llevar a cabo esta transformacin formaremos nuevas
ecuaciones lineales a partir de las ecuaciones del sistema dado; la caracterstica principal de las
nuevas ecuaciones es que cualquier solucin del sistema original tambin ser solucin de las
nuevas.
10 1. Sistemas de ecuaciones lineales
Consideremos el sistema de ecuaciones lineales:
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= b
1
, (1.5)
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
= b
2
,
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= b
m
.
Diremos que la ecuacin lineal:

1
x
1
+
2
x
2
+ +
n
x
n
= , (1.6)
es una combinacin lineal del sistema (1.5) si existen escalares
1
,
2
, . . . ,
m
tales que:

1
=
1
a
11
+
2
a
21
+ +
m
a
m1
,

2
=
1
a
12
+
2
a
22
+ +
m
a
m2
,
.
.
.

n
=
1
a
1n
+
2
a
2n
+ +
m
a
mn
,
=
1
b
1
+
2
b
2
+ +
m
b
m
.
Supongamos que s = (s
1
, . . . , s
n
)
T
es una solucin del sistema (1.5). Armamos que s
tambin es una solucin de la combinacin lineal (1.6). En efecto:

1
s
1
+
2
s
2
+ +
n
s
n
= (
1
a
11
+
2
a
21
+ +
m
a
m1
) s
1
+
(
1
a
12
+
2
a
22
+ +
m
a
m2
) s
2
+ +
(
1
a
1n
+
2
a
2n
+ +
m
a
mn
) s
n
=
1
(a
11
s
1
+a
12
s
2
+ +a
1n
s
n
) +

2
(a
21
s
1
+a
22
s
2
+ +a
2n
s
n
) + +

m
(a
m1
s
1
+a
m2
s
2
+ +a
mn
s
n
)
=
1
b
1
+
2
b
2
+ +
m
b
m
= .
El recproco no es cierto, es decir, existen soluciones de la combinacin lineal que no son
soluciones del sistema original.
Ejemplo 1.2.1. Considere el sistema de ecuaciones lineales del Ejemplo 1.1.5. La ecuacin
lineal:
16x
1
+ 12x
2
20x
3
+ 30x
4
= 36 (1.7)
es una combinacin lineal de las ecuaciones del sistema, ya que:
16 = 2(3) + (3)(0) + 5(2),
12 = 2(2) + (3)(1) + 5(1),
20 = 2(1) + (3)(1) + 5(3),
30 = 2(1) + (3)(1) + 5(5),
36 = 2(1) + (3)(2) + 5(8).
Note que la ecuacin (1.7) se obtuvo simplemente multiplicando la primera ecuacin del sistema
por
1
= 2, la segunda por
2
= 3 y la tercera por
3
= 5, y sumando trmino a trmino las
ecuaciones lineales obtenidas. Una solucin de la ecuacin lineal (1.7) es s =
_
9
4
, 0, 0, 0
_
T
. Sin
embargo, s no es solucin del sistema original.
1.2. Tcnicas de eliminacin 11
A partir de un sistema de ecuaciones lineales se pueden formar combinaciones lineales de
una forma muy sencilla:
1. Se eligen escalares arbitrarios
1
, . . . ,
m
.
2. Para cada i (1 i m) se multiplica la i-sima ecuacin lineal del sistema de ecuaciones
dado por
i
.
3. Se suman trmino a trmino las nuevas ecuaciones lineales obtenidas en el paso anterior.
Aclaremos esto con un ejemplo. Formemos una combinacin lineal de las ecuaciones del
sistema:
x
1
+ 3x
2
+ 3x
3
+ 2x
4
= 1,
2x
1
+ 6x
2
+ 9x
3
+ 5x
4
= 2,
x
1
3x
2
+ 3x
3
= 1.
Tomemos
1
= 2,
2
= 1 y
3
= 3. Efectuando las operaciones del paso dos tenemos:
2x
1
+ 6x
2
+ 6x
3
+ 4x
4
= 2,
2x
1
6x
2
9x
3
5x
4
= 2,
3x
1
9x
2
+ 9x
3
+ 0x
4
= 3.
Al sumar trmino a trmino obtenemos la ecuacin lineal 3x
1
9x
2
+ 6x
3
x
4
= 3. Note
que s =
_
0,
1
3
, 0, 0
_
T
es una solucin del sistema de ecuaciones y tambin es una solucin de
la combinacin lineal que se acaba de formar.
Lo anterior se puede hacer en Sage de la siguiente manera:
sage: var(x1 x2 x3 x4)
(x1 , x2 , x3, x4)
sage: ec1 = x1 + 3*x2 +3*x3+2*x4==1
sage: ec2 = 2*x1 + 6*x2 +9*x3+5*x4==2
sage: ec3 = -x1 -3*x2+3*x3==-1
sage: l1 =2; l2 = -1; l3 = 3
sage: ec4 = l1*ec1 + l2*ec2 +l3*ec3 # una combinacin lineal
sage: ec4
-3*x1 - 9*x2 + 6*x3 - x4 == -3
sage: l1 * ec1 # se multiplica la ec1 por 2
2*x1 + 6*x2 + 6*x3 + 4*x4 == 2
sage: l2 * ec2 # se multiplica la ec2 por -1
-2*x1 - 6*x2 - 9*x3 - 5*x4 == -2
sage: l3 * ec3 # se multiplica la ec3 por 3
-3*x1 - 9*x2 + 9*x3 == -3
sage: # (0,1/3,0,0) es solucin
sage: ec1.subs(x1=0,x2=1/3,x3=0,x4=0)
1 == 1
sage: ec2.subs(x1=0,x2=1/3,x3=0,x4=0)
2 == 2
sage: ec3.subs(x1=0,x2=1/3,x3=0,x4=0)
-1 == -1
sage: ec4.subs(x1=0,x2=1/3,x3=0,x4=0)
-3 == -3
sage: ec4.subs(x1=0,x2=0,x3=0,x4=3) #(0,0,0,3) es solucin
-3 == -3
sage: ec1.subs(x1=0,x2=0,x3=0,x4=3) #(0,0,0,3) NO es solucin
6 == 1
12 1. Sistemas de ecuaciones lineales
Denicin 1.2.2. Se dice que dos sistemas de ecuaciones lineales o
1
y o
2
son equivalentes si
cada ecuacin de o
1
es combinacin lineal de o
2
, y cada ecuacin de o
2
es combinacin lineal
de o
1
.
Para aclarar esta denicin veamos algunos ejemplos.
Ejemplo 1.2.3. Sea o
1
el sistema de ecuaciones lineales formado por E
1
, E
2
y E
3
y o
2
el
sistema formado por E
t
1
, E
t
2
y E
t
3
, donde:
E
1
: x
2
x
3
= 2 E
t
1
: x
1
+ 2x
2
x
3
= 1
E
2
: x
1
+ 2x
2
x
3
= 1 E
t
2
: x
2
x
3
= 2
E
3
: x
1
+x
2
+ 2x
3
= 3 E
t
3
: x
3
= 3
Estos sistemas son equivalentes. En efecto, notemos que:
E
1
= 0E
t
1
+E
t
2
+ 0E
t
3
E
t
1
= 0E
1
+E
2
+ 0E
3
E
2
= 1E
t
1
+ 0E
t
2
+ 0E
t
3
E
t
2
= 1E
1
+ 0E
2
+ 0E
3
E
3
= 1E
t
1
1E
t
2
+ 2E
t
3
E
t
3
=
1
2
E
1

1
2
E
2
+
1
2
E
3
Como la ecuacin E
1
es combinacin lineal de las ecuaciones E
t
1
, E
t
2
y E
t
3
, entonces cualquier
solucin del segundo sistema tambin es una solucin de E
1
. Lo mismo es aplicable a E
2
y E
3
.
As, cualquier solucin del segundo sistema es una solucin del primer sistema. Tambin es cierto
que cualquier solucin del primer sistema es una solucin del segundo sistema. En consecuencia,
los dos sistemas de ecuaciones lineales tienen el mismo conjunto de soluciones.
Ejemplo 1.2.4. Los sistemas de ecuaciones lineales siguientes tambin son equivalentes:
E
1
: 2x
1
+ 6x
2
+ 6x
3
+ 2x
4
= 2 E
t
1
: x
1
+ 3x
2
+ 3x
3
+x
4
= 1
E
2
: 5x
1
+ 3x
2
+ 3x
3
+ 5x
4
= 5 E
t
2
: x
2
+x
3
= 0
E
3
: 4x
1
+ 4x
4
= 4
ya que:
E
1
= 2E
t
1
+ 0E
t
2
E
t
1
=
1
2
E
1
+ 0E
2
+ 0E
3
E
2
= 5E
t
1
12E
t
2
E
t
2
=
5
24
E
1

1
12
E
2
+ 0E
3
E
3
= 4E
t
1
12E
t
2
Igual que en el ejemplo anterior, como los sistemas son equivalentes, el conjunto de soluciones
es el mismo para ambos sistemas.
Podemos resumir lo que hasta aqu hemos dicho.
Teorema 1.2.5. Sistemas de ecuaciones lineales equivalentes tienen exactamente las mismas
soluciones.
Demostracin. Consideremos los sistemas de ecuaciones lineales equivalentes o
1
y o
2
. Sean S
1
y
S
2
los conjuntos formados por las soluciones de o
1
y o
2
, respectivamente. Si s S
1
, entonces s es
solucin de cada una de las ecuaciones del sistema o
1
. Como cada ecuacin de o
2
es combinacin
lineal de las ecuaciones del sistema o
1
, se sigue que s es solucin de cada una de las ecuaciones
del sistema o
2
, y por lo tanto s S
2
. As, S
1
S
2
. De manera anloga, tenemos que S
2
S
1
.
Por lo tanto, S
1
= S
2
.
Este teorema es fundamental en la resolucin de sistemas de ecuaciones. Dado un sistema
de ecuaciones lineales nuestra tarea ser determinar un sistema equivalente que sea ms fcil de
resolver que el original. Para esto utilizaremos unas operaciones a las que llamaremos operaciones
elementales. Estas operaciones son:
1. Intercambio de dos ecuaciones del sistema.
1.2. Tcnicas de eliminacin 13
2. Reemplazo de una ecuacin del sistema por algn mltiplo escalar no nulo de sta.
3. Reemplazo de una ecuacin del sistema por esa ecuacin ms un mltiplo escalar de otra
ecuacin.
Utilizaremos la siguiente notacin para indicar el tipo de operacin que utilizamos al pasar
de un sistema a otro.
Operacin Smbolo Signicado del smbolo
1 R
ij
Intercambio de las ecuaciones i y j.
2 R
i
(c) Reemplazo de la ecuacin i por c veces la ecuacin i.
3 R
ij
(c) Reemplazo de la ecuacin i por la ecuacin i ms c veces la ecuacin
j.
Proposicin 1.2.6. Si un sistema de ecuaciones lineales o
t
se obtiene del sistema de ecuaciones
lineales o aplicando exactamente una operacin elemental, entonces o y o
t
son equivalentes. En
particular tienen exactamente las mismas soluciones.
Demostracin. Supongamos que el sistema de ecuaciones o
t
= E
t
1
, . . . , E
t
m
se obtuvo del
sistema o = E
1
, . . . , E
m
reemplazando la ecuacin i por la ecuacin i ms c la ecuacin j,
con i ,= j. Esto quiere decir que
E

=
_
E
t

si ,= i,
E
t
i
cE
t
j
si = i.
E
t

=
_
E

si ,= i,
E
i
+cE
j
si = i.
Se sigue que cada ecuacin de o es una combinacin lineal de las ecuaciones del sistema o
t
,
y tambin que cada ecuacin del sistema o
t
es una combinacin lineal de las ecuaciones del
sistema o. Esto prueba que los sistemas son equivalentes. Que tienen las mismas soluciones se
sigue del Teorema 1.2.5.
La demostracin cuando se aplica una operacin elemental de cualquiera de los otros dos
tipos es similar y se deja de ejercicio al lector.
1.2.1. Forma escalonada y el mtodo de Gauss
El mtodo de eliminacin de Gauss, tambin conocido como eliminacin gaussiana, es un
proceso sistemtico para transformar mediante la aplicacin de operaciones elementales, un
sistema en otro que sea ms simple de resolver. El mtodo se explica mejor con un ejemplo.
2x
1
+6x
2
+6x
3
+2x
4
=2,
5x
1
+3x
2
+3x
3
+5x
4
=5,
4x
1
+4x
4
=4.
La estrategia general consiste en elegir una variable y eliminar todos los trminos debajo
de esta posicin. Esta variable es la variable pivotal y su coeciente se llama pivote o elemento
pivotal. Para el proceso de eliminacin slo se permiten pivotes distintos de cero. Si algn
coeciente en alguna posicin pivotal es cero, entonces se intercambia la ecuacin con alguna
ecuacin que est por debajo de la posicin pivotal para obtener un pivote diferente de cero.
Siempre se tomar como primer pivote el primer coeciente de la primera ecuacin (a menos
claro que ste sea cero).
14 1. Sistemas de ecuaciones lineales
La primera variable pivotal es x
1
y el primer pivote es 2 y se indica encerrado en un cuadro.
2 x
1
+6x
2
+6x
3
+2x
4
=2,
5x
1
+3x
2
+3x
3
+5x
4
=5,
4x
1
+ +4x
4
=4.
Usando este pivote se elimina la variable x
1
de todas las ecuaciones excepto de la primera. Para
esto se multiplica la primera ecuacin por
5
2
y se le suma a la segunda. En otras palabras se
reemplaza la segunda ecuacin por la segunda ecuacin ms
5
2
veces la primera. Se obtiene:
2 x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
12x
2
12x
3
=0,
4x
1
+ 4x
4
=4.
A la tercera ecuacin se le resta dos veces la primera, es decir se aplica la operacin elemental
R
13
(2). El resultado es:
2 x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
12x
2
12x
3
=0,
12x
2
12x
3
=0.
El siguiente paso consiste en seleccionar un nuevo pivote. Como ahora se sea eliminar la variable
x
2
en la tercera ecuacin, el nuevo pivote es -12 .
2x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
- 12 x
2
12x
3
=0,
12x
2
12x
3
=0,
Ahora se multiplica la segunda ecuacin por 1 y se le suma a la tercera, es decir se aplica la
operacin elemental R
23
(1):
2x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
- 12 x
2
12x
3
=0,
0x
2
+ 0x
3
=0.
Como cualquier cuarteta de escalares satisface la ecuacin lineal 0x
1
+ 0
x
2 + 0x
3
+ 0x
4
= 0, se
puede eliminar del sistema para obtener:
2x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
- 12 x
2
12x
3
=0.
La solucin a este sistema la obtenemos al despejar x
2
en la segunda ecuacin y sustituirla en
la primera.
x
1
= 1 x
4
,
x
2
= x
3
.
1.2. Tcnicas de eliminacin 15
Las variables x
1
y x
2
quedan determinadas por las variables x
3
y x
4
. Las primeras dos se llaman
variables bsicas y las dos ltimas variables libres.
La descripcin del conjunto de soluciones es:
S = x R
4
[ Ax = b =
_
_
_
_
1 r
s
s
r
_
_
_
_
[ r, s R.
Notemos que al realizar la eliminacin gaussiana, todos los clculos se hicieron con los n-
meros (coecientes y trminos independientes) y no con los smbolos x
i
s.
Se puede ecientar la tcnica de eliminacin de Gauss trabajando solamente con los coe-
cientes y trminos independientes evitando reescribir las variables durante todo el proceso. Se
observa tambin que la matriz aumentada del sistema est en una forma escalonada. De hecho
en eso consiste el mtodo de Gauss, en llevar la matriz aumentada del sistema a una forma
escalonada.
2 x
1
+6x
2
+6x
3
+2x
4
=2,
5x
1
+3x
2
+3x
3
+5x
4
=5,
4x
1
+ +4x
4
=4.
_
_
2 6 6 2 2
5 3 3 5 5
4 0 0 4 4
_
_
2 x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
12x
2
12x
3
=0,
4x
1
+ 4x
4
=4.
_
_
2 6 6 2 2
0 12 12 0 0
4 0 0 4 4
_
_
2 x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
12x
2
12x
3
=0,
12x
2
12x
3
=0.
_
_
2 6 6 2 2
0 12 12 0 0
0 12 12 0 0
_
_
2x
1
+ 6x
2
+ 6x
3
+2x
4
=2,
- 12 x
2
12x
3
=0,
0x
2
+ 0x
3
=0.
_
_
2 6 6 2 2
0 -12 12 0 0
0 0 0 0 0
_
_
Sage tiene implementado las operaciones elementales de rengln. El comando
B.with_added_multiple_of_row(i,j,c)
suma c veces el rengln j al rengln i. La matriz B no cambia. De esta manera para multiplicar
por 5/2 el primer rengln y sumrselo al segundo rengln se usa el comando
B.with_added_multiple_of_row(1,0,-5/2).
sage: A = matrix(QQ, 3, [2,6,6,2,5,3,3,5,4,0,0,4]); A
[2 6 6 2]
[5 3 3 5]
[4 0 0 4]
sage: b = vector ([2 ,5 ,4]); b
(2, 5, 4)
sage: B = A.augment(b, subdivide=True); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]
16 1. Sistemas de ecuaciones lineales
sage: B1 = B.with_added_multiple_of_row (1,0,-5/2); B1
[ 2 6 6 2| 2]
[ 0 -12 -12 0| 0]
[ 4 0 0 4| 4]
sage: B2 = B1.with_added_multiple_of_row (2,0,-2); B2
[ 2 6 6 2| 2]
[ 0 -12 -12 0| 0]
[ 0 -12 -12 0| 0]
sage: B3 = B2.with_added_multiple_of_row (2,1,-1); B3
[ 2 6 6 2| 2]
[ 0 -12 -12 0| 0]
[ 0 0 0 0| 0]
sage: B4 = B3.with_rescaled_row (1 , -1/12); B4
[2 6 6 2|2]
[0 1 1 0|0]
[0 0 0 0|0]
Recuerde que se dice que una matriz E K
mn
est en forma escalonada por renglones si
se cumplen las siguientes dos condiciones:
1. Todos los renglones que consisten nicamente de ceros, si los hay, estn en la parte inferior
de la matriz.
2. La primera entrada diferente de cero en el resto de los renglones, est a la derecha de la
primera entrada diferente de cero del rengln anterior.
En los renglones no nulos, los pivotes son las primeras entradas diferentes de cero. Una matriz
en forma escalonada se ve como sigue:
_
_
_
_
_
_
_
_
_
*
0 *
0 0 0 *
0 0 0 0 0 *
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
donde los pivotes son las entradas encerradas en un cuadro.
Mtodo de eliminacin de Gauss.
1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.
2. Llevar la matriz aumentada [A [ b] a una forma escalonada [U [ c] mediante la aplicacin de
operaciones elementales de rengln.
3. Resolver el sistema de ecuaciones lineales Ux = c. Las variables bsicas corresponden a las
posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.
Ejercicio 1.2.7. Resuelva cada uno de los siguientes sistemas aplicando el mtodo de elimina-
cin de Gauss.
1.2. Tcnicas de eliminacin 17
a)
x + 2y + 7z = 1
x +y z = 2
3x 2y + 5z = 5
b)
x + 4y + 2z = 2
2x 8y + 3z = 32
y +z = 1
c)
x
1
+x
2
+x
3
+x
4
+x
5
= 2
x
1
+x
2
+x
3
+ 2x
4
+ 2x
5
= 3
x
1
+x
2
+x
3
+ 2x
4
+ 3x
5
= 2
d)
x +y = 1
x y = 3
x + 2y = 2
e)
x +y +z = 2
3x + 3y z = 6
x y +z = 1
f)
2x y + 3z = 2
x + 2y +z = 1
3x 4y + 5z = 4
Solucin. El clculo de formas escalonadas correspondiente a cada sistema resulta en las
siguientes matrices:
a)
_
_
1 2 7 1
0 1 2 1
0 0 0 0
_
_
, b)
_
_
1 4 2 2
0 1 1 1
0 0 1 4
_
_
, c)
_
_
1 1 1 1 1 2
0 0 0 1 1 1
0 0 0 0 1 1
_
_
,
d)
_
_
1 1 1
0 1 1
0 0 1
_
_
, e)
_
_
1 1 1 2
0 1 0
1
2
0 0 1 3
_
_
, f)
_
_
2 1 3 2
0
5
2

1
2
0
0 0 0 1
_
_
.
El primer sistema es consistente indeterminado; el conjunto de soluciones es:
(1 3t , 1 2t , t)
T
[ t R.
La nica solucin del segundo sistema es (2, 3, 4)
T
. El conjunto de soluciones del sistema c)
es
(1 s t, s, t, 2, 1)
T
[ s, t R.
El cuarto sistema es inconsistente. Finalmente, el sistema e) es consistente y determinado y la
nica solucin es
_
3
2
,
1
2
, 3
_
T
, en tanto que el sistema f) es inconsistente.
1.2.2. La forma escalonada reducida y el mtodo de Gauss-Jordan
La tcnica de eliminacin de Gauss - Jordan es una variante de la eliminacin gaussiana. Son
dos las caractersticas que hacen diferente el mtodo de Gauss-Jordan del mtodo de Gauss:
a) En cada paso del proceso, cada pivote debe convertirse en 1.
b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.
Recuerde que una matriz E K
mn
est en la forma escalonada reducida por renglones si:
1. E est en forma escalonada.
2. Todos los pivotes son 1.
3. Cada pivote es la nica entrada distinta de cero en su columna.
18 1. Sistemas de ecuaciones lineales
La forma escalonada reducida de una matriz se ve como sigue:
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 0 1 0
0 0 0 0 0 1
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
donde los pivotes son los nmeros encerrados en un cuadro.
Mtodo de eliminacin de Gauss - Jordan.
1. Escribir la matriz aumentada del sistema de ecuaciones lineales Ax = b.
2. Llevar la matriz aumentada [A [ b] a la forma escalonada reducida [U [ c] mediante la aplica-
cin de operaciones elementales de rengln.
3. Resolver el sistema de ecuaciones lineales Ux = c. Las variables bsicas corresponden a las
posiciones pivotales. Las variables libres corresponden a las posiciones no pivotales.
Resolvamos de nuevo el sistema de ecuaciones lineales:
2x
1
+ 6x
2
+ 6x
3
+ 2x
4
= 2,
5x
1
+ 3x
2
+ 3x
3
+ 5x
4
= 5,
4x
1
+ 4x
4
= 4,
pero ahora por el mtodo de Gauss - Jordan.
La matriz aumentada es [A [ b] =
_
_
2 6 6 2 2
5 3 3 5 5
4 0 0 4 4
_
_
. La matriz escalonada reducida de
una matriz A se obtiene con el comando A.rref():
sage: A = matrix (3,[2,6,6,2, 5,3,3,5,4,0,0,4]); A
[2 6 6 2]
[5 3 3 5]
[4 0 0 4]
sage: b = vector ([2 ,5 ,4]); b
(2, 5, 4)
sage: B = A.augment(b, subdivide=True); B
[2 6 6 2|2]
[5 3 3 5|5]
[4 0 0 4|4]
sage: B.rref()
[1 0 0 1|1]
[0 1 1 0|0]
[0 0 0 0|0]
El sistema Ux = c es:
x
1
+x
4
= 1,
x
2
+x
3
= 0.
Despejando x
1
y x
2
en trminos de x
3
y x
4
tenemos:
x
1
= 1 x
4
,
x
2
= x
3
.
1.2. Tcnicas de eliminacin 19
Las variables bsicas son x
1
y x
2
; las variables libres son x
3
y x
4
. Por lo tanto el conjunto de
soluciones es
_
(1 s, t, t, s)
T
[ s, t R
_
.
Ejemplo 1.2.8. Sea A =
_
_
2 6 6 2
5 3 3 5
4 0 0 4
_
_
R
34
. Dado un vector b ya se sabe como encontrar
un vector x tal que Ax = b. Consideremos ahora el problema de hallar todos los vectores b de
tal manera que el sistema de ecuaciones Ax = b tenga solucin. En otras palabras, se quiere
describir el espacio columna de la matriz A. Entonces la pregunta es: cules son las condiciones
en b
1
, b
2
, b
3
de tal manera que el sistema
2x
1
+ 6x
2
+ 6x
3
+ 2x
4
= b
1
,
5x
1
+ 3x
2
+ 3x
3
+ 5x
4
= b
2
,
4x
1
+ 4x
4
= b
3
,
tiene solucin?
Se calcula primero la forma escalonada (o la forma escalonada reducida) de la matriz au-
mentada [A [ b]:
sage: var(b1 b2 b3)
(b1 , b2 , b3)
sage: assume(b1==0, b2==0, b3==0)
sage: A = matrix(3, [2,6,6,2,b1 ,5,3,3,5,b2 ,4,0,0,4,b3]); A
[ 2 6 6 2 b1]
[ 5 3 3 5 b2]
[ 4 0 0 4 b3]
sage: A.rref()
[1 0 0 1 -1/8*b1 + 1/4*b2]
[0 1 1 0 5/24*b1 - 1/12* b2]
[0 0 0 0 1/2*b1 - b2 + b3]
Es necesario decirle a Sage que b
1
, b
2
y b
3
pueden ser cero, para que no divida entre algn b
i
. El
correspondiente sistema de ecuaciones es
x
1
+x
4
=
1
8
b
1
+
1
4
b
2
x
2
+x
3
=
5
24
b
1

1
12
b
2
0x
1
+ 0x
2
+ 0x
3
+ 0x
4
=
1
2
b
1
b
2
+b
3
.
El sistema tiene solucin si y solamente si b
1
/2 b
2
+b
3
= 0. Luego
R(A) = b R
3
[ x R
4
, Ax = b = b R
3
[ b
1
2b
2
+ 2b
3
= 0.
En particular, se tiene que (2, 5, 4)
T
R(A).
1.2.3. Ejercicios
1. Encuentre una forma escalonada por renglones y la forma escalonada reducida de la matriz
_
_
_
_
_
_
5
2
0 2
9
2

15
2
7
2

27
2
11 0 2 3 9 5 15
2 0 2 4 8 4 14
20 0 4 2 10 6 16
8 0
3
2
3 3 2 6
_
_
_
_
_
_
.
20 1. Sistemas de ecuaciones lineales
2. Considere el sistema de ecuaciones lineales:
E
1
: x
1
x
2
x
4
= 1,
E
2
: 4x
1
4x
2
+x
3
3x
4
x
5
= 2,
E
3
: 2x
1
2x
2
+x
3
x
4
x
5
= 0.
a) Obtenga una combinacin lineal de este sistema.
b) Encuentre todas las soluciones del sistema y muestre por sustitucin directa que cada
solucin del sistema es solucin de la combinacin lineal encontrada en el inciso anterior.
c) Considere la combinacin lineal 2E
1
+E
2
+E
3
. Demuestre que esta combinacin lineal
tiene al menos una solucin que no es solucin del sistema dado.
3. Determine la relacin o relaciones que deben satisfacer b
1
, b
2
, b
3
para que el sistema:
2x
1
+x
2
2x
3
+ 2x
4
= b
1
,
4x
1
+x
2
+ 3x
3
5x
4
= b
2
,
6x
1
5x
3
+ 7x
4
= b
3
,
tenga solucin.
4. Sea A =
_
_
_
_
2 3 1 2
4 7 4 5
4 8 6 6
6 12 9 9
_
_
_
_
. Determine la relacin o relaciones que deben satisfacer
las coordenadas de b R
4
para que el sistema Ax = b tenga solucin.
5. Utilice la eliminacin de Gauss - Jordan para resolver el siguiente sistema de ecuaciones
2x 4y + 2z 6w = 0
3x + 6y 2z + 13w = 6
2x + 4y + 14w = 12
4x + 8y 7z = 10.
6. Dada una matriz A R
mn
se denen los siguientes conjuntos:
R(A) = b R
m
[ x R
n
, b = Ax ,
N (A) = x R
n
[ Ax = 0 ,
N
_
A
T
_
=
_
y R
m
[ A
T
y = 0
_
,
R
_
A
T
_
=
_
x R
n
[ y R
m
, x = A
T
y
_
.
Estos conjuntos se denominan espacio columna espacio nulo, espacio nulo izquierdo y espacio
rengln, respectivamente, de A. Calcule los espacios columna, nulo, nulo izquierdo y rengln
de cada una de las siguientes matrices:
_
_
2 2 0 0
3 4 1 2
1 1 2 4
_
_
,
_
_
1 3 3 2
2 6 9 5
1 3 3 0
_
_
.
7. Sea A la matriz
_
_
_
_
1 2 0 3
4 8 2 10
3 6 2 7
2 4 2 4
_
_
_
_
. Encuentre una matriz B tal que el espacio columna de
A sea igual al espacio nulo de B, es decir, R(A) = N (B).
1.2. Tcnicas de eliminacin 21
8. Encuentre matrices B
1
, B
2
R
32
tales que AB
1
= I = AB
2
, donde I es la matriz identidad
de 2 2 y A =
_
1 1 1
1 1 1
_
. Escoja al azar vectores b R
2
y verique que B
1
b y B
2
b
son soluciones del sistema de ecuaciones Ax = b.
9. Sea A =
_
_
2 5
1 3
2 3
_
_
R
23
.
a) Encuentre matrices B
1
, B
2
R
23
tales que B
1
A = I = B
2
A, donde I es la matriz
identidad de 2 2.
b) Encuentre una solucin del sistema Ax = b, donde b =
_
_
11
7
5
_
_
. Verique que la
solucin que encontr es igual a B
i
b, i = 1, 2.
c) Verique que el sistema de ecuaciones Ax =
_
_
1
1
1
_
_
no tiene solucin.
10. Sean A C
mn
, B C
nm
y b C
m
.
a) Suponga que AB es la matriz identidad de orden m. Pruebe que el sistema de ecuaciones
lineales Ax = b tiene al menos una solucin.
b) Suponga que BA es la matriz identidad de orden n. Pruebe que el sistema de ecuaciones
lineales Ax = b tiene a lo ms una solucin.
11. a) Construya un sistema homogneo de cuatro ecuaciones y cinco incgnitas cuya solucin
general sea:
x
2
_
1
1
0
0
0
_
+x
4
_
1
0
2
1
0
_
+x
5
_
0
0
1
0
1
_
.
b) Construya un sistema no homogneo de cuatro ecuaciones y cinco incgnitas cuya solu-
cin general sea:
_
1
0
1
0
0
_
+x
2
_
1
1
0
0
0
_
+x
4
_
1
0
2
1
0
_
+x
5
_
0
0
1
0
1
_
.
12. Determine los valores de de tal manera que el sistema de ecuaciones:
x +y z = 1,
3x +y +z = 5,
4x +y = 5,
sea:
a) consistente y determinado; b) indeterminado; c) inconsistente.
13. Suponga que A y B son matrices de mn y que P es una matriz invertible tal que A = PB.
Pruebe que:
a) R
_
A
T
_
= R
_
B
T
_
.
b) N (A) = N (B) .
En particular, pruebe que si U es una forma escalonada de A, entonces R
_
A
T
_
= R
_
U
T
_
y
N (A) = N (U) .
14. Sean A, B R
nn
tales que (A + B)
k
= A
k
+ B
k
para todo entero positivo k. Demuestre
que si A es invertible, entonces B es la matriz cero.
22 1. Sistemas de ecuaciones lineales
1.3. Rango y consistencia
Por la exibilidad que se tiene al elegir las operaciones para llevar una matriz A a una forma
escalonada E no se puede hablar de una sola forma escalonada, de hecho una matriz puede
tener varias formas escalonadas. Sin embargo, se puede probar que una matriz A slo tiene una
forma escalonada reducida y de este hecho se deduce que cualquier forma escalonada de A tiene
el mismo nmero de pivotes y por lo tanto el mismo nmero de renglones diferentes de cero.
Denicin 1.3.1. Sea A una matriz mn y sea E su forma escalonada reducida. El rango de
A se dene:
rango(A) = nmero de pivotes de E
= nmero de renglones diferentes de cero de E.
Las columnas bsicas de A (o columnas base) son las columnas de A que contienen las
posiciones pivotales.
Ejemplo SAGE 1.3.2. El comando A.rank() de Sage nos devuelve el rango de la matriz A:
sage: A = matrix (4,[1,2,1,3,3, 2,4,0,4,4,1,2,3,5,5,2,4,0,4,7]); A
[1 2 1 3 3]
[2 4 0 4 4]
[1 2 3 5 5]
[2 4 0 4 7]
sage: A.rank()
3
sage: A.rref()
[1 2 0 2 0]
[0 0 1 1 0]
[0 0 0 0 1]
[0 0 0 0 0]
El comando A.pivots() regresa los nmeros de las columnas en las que se encuentran los pivotes
de A. En la matriz del ejemplo, los pivotes se encuentran en las columnas 1, 3 y 5 (si empezamos
a contar en 1) o bien en la columnas 0, 2 y 4 si empezamos a contar en 0 como lo hace Sage.
sage: A.pivots ()
(0, 2, 4)
Consideremos la matriz A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
. La forma escalonada reducida de A es
E =
_
_
_
_
1 2 0 2 0
0 0 1 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
. El rango de A es 3, pues E tiene 3 renglones diferentes de cero. Las
posiciones pivotales de E estn en las columnas 1, 3 y 5. Por lo tanto, las columnas bsicas de
A son las columnas A
1
, A
3
y A
5
, es decir:
columnas bsicas =
__
1
2
1
2
_
,
_
1
0
3
0
_
,
_
3
4
5
7
__
.
Trabajar con la forma escalonada reducida nos provee de ms informacin y explica un poco
por qu el nombre de columnas base. Observe que cada columna que no es bsica de E se puede
1.3. Rango y consistencia 23
expresar como combinacin lineal de las columnas bsicas anteriores:
_
2
0
0
0
_
= 2
_
1
0
0
0
_
;
_
2
1
0
0
_
= 2
_
1
0
0
0
_
+ 1
_
0
1
0
0
_
.
Exactamente la misma relacin se tiene con las columnas no bsicas de A :
_
2
4
2
4
_
= 2
_
1
2
1
2
_
;
_
3
4
5
4
_
= 2
_
1
2
1
2
_
+ 1
_
1
0
3
0
_
.
Esto no es coincidencia.
Lema 1.3.3. Sean A y B matrices mn y sea P una matriz invertible tal que PA = B. Si:
B
k
=
1
B
b1
+
2
B
b2
+ +
j
B
bj
,
entonces:
A
k
=
1
A
b1
+
2
A
b2
+ +
j
A
bj
.
Demostracin. De la hiptesis se deduce que A = P
1
B. Entonces:
A
k
= columna k de la matriz P
1
B
= P
1
B
k
= P
1
_

1
B
b1
+
2
B
b2
+ +
j
B
bj
_
=
1
P
1
B
b1
+
2
P
1
B
b2
+ +
j
P
1
B
bj
=
1
A
b1
+
2
A
b2
+ +
j
A
bj
.
En otras palabras, el lema establece que si una columna de B es combinacin lineal de algunas
(o de todas) las columnas de B, entonces la misma relacin de dependencia lineal existe entre
las columnas de A.
Teorema 1.3.4. Sea A una matriz mn y sea E su forma escalonada reducida. Entonces:
1. Cada columna no bsica E
k
en E es una combinacin lineal de las columnas bsicas de E
que estn a la izquierda de E
k
. Ms an:
E
k
=
1
E
b1
+
2
E
b2
+ +
j
E
bj
,
donde E
b1
, E
b2
, . . . , E
bj
son las columnas bsicas a la izquierda de E
k
, y los escalares
i
son las primeras j entradas en E
k
.
2. La relacin que existe entre las columnas de E es exactamente la misma que entre las colum-
nas de A. En particular, si A
k
es una columna no bsica de A, entonces:
A
k
=
1
A
b1
+
2
A
b2
+ +
j
A
bj
,
donde A
b1
, A
b2
, . . . , A
bj
son las columnas bsicas a la izquierda de A
k
y los escalares
i
son las primeras j entradas en E
k
.
Demostracin.
1. Sea E
k
una columna no bsica de E y sean E
b1
, E
b2
, . . . , E
bj
las columnas bsicas a la
izquierda de E
k
. Entonces:
E
k
=
_
_
_
_
_
_
1
2
.
.
.
j
0
.
.
.
0
_
_
_
_
_
_
=
1
_
_
_
_
_
1
0
.
.
.
0
.
.
.
0
_
_
_
_
_
+
2
_
_
_
_
_
0
1
.
.
.
0
.
.
.
0
_
_
_
_
_
+ +
j
_
_
_
_
_
0
0
.
.
.
1
.
.
.
0
_
_
_
_
_
,
24 1. Sistemas de ecuaciones lineales
y claramente E
b1
=
_
_
_
_
_
1
0
.
.
.
0
.
.
.
0
_
_
_
_
_
, E
b2
=
_
_
_
_
_
0
1
.
.
.
0
.
.
.
0
_
_
_
_
_
, . . . , E
bj
=
_
_
_
_
_
0
0
.
.
.
1
.
.
.
0
_
_
_
_
_
.
2. Como A y E son equivalentes por renglones, existe una matriz invertible P tal que E = PA.
El resultado se sigue ahora aplicando el lema anterior y el inciso 1.
Ejemplo 1.3.5. Si A es una matriz real tal que
A
1
=
_
_
2
3
2
_
_
, A
3
=
_
_
4
2
5
_
_
, y E
A
=
_
_
1 5 0 8
0 0 1 3
0 0 0 0
_
_
,
donde E
A
es la matriz escalonada reducida de A, entonces las columnas 1 y 3 de A son columnas
bsicas. Dado que E
2
= 5E
1
y E
4
= 8 E
1
+ 3E
3
sigue que las columnas 2 y 4 de A
satisfacen las mismas relaciones. Entonces
A
2
= 5A
1
=
_
_
10
15
10
_
_
,A
4
= 8 A
1
+ 3A
3
=
_
_
4
30
1
_
_
.
Una vericacin directa muestra que efectivamente, E
A
es la forma escalonada reducida de la
matriz A.
La relacin entre el rango de una matriz y la consistencia de un sistema de ecuaciones lineales
se presenta en el siguiente teorema.
Teorema 1.3.6 (Consistencia). Las siguientes armaciones acerca del sistema de ecuaciones
Ax = b son equivalentes:
1. El sistema de ecuaciones Ax = b es consistente.
2. Al reducir [A [ b] nunca aparece un rengln de la forma
(0 0 0 [ ) , con ,= 0. (1.8)
3. b no es una columna bsica en [A [ b] .
4. rango ([A [ b]) = rango (A) .
5. b es una combinacin lineal de las columnas bsicas en A.
Demostracin. (1 2): Supngase que el sistema es consistente pero que al reducir la matriz
[A [ b] llegamos a una matriz [A
t
[ b
t
] que tiene un rengln de la forma (1.8). Esto implica que
la correspondiente ecuacin lineal es 0x
1
+ 0x
2
+ + 0x
n
= la cual claramente no tiene
solucin y en consecuencia el sistema de ecuaciones A
t
x = b
t
al que pertenece tampoco. Como
el conjunto de soluciones de Ax = b y A
t
x = b
t
es el mismo entonces el sistema Ax = b no tiene
soluciones lo cual contradice la hiptesis.
(2 3): Si b fuera una columna bsica, entonces se tendra un rengln de la forma (1.8) lo
cual es contrario a la hiptesis.
(3 4): Si b no es una columna bsica de [A [ b], entonces todas las columnas bsicas de
[A [ b] se encuentran en A y por lo tanto el nmero de columnas bsicas de [A [ b] y A es el
mismo, es decir, estas matrices tienen el mismo rango.
1.3. Rango y consistencia 25
(4 5): Si el rango de [A [ b] y A es el mismo, entonces b no es columna bsica de [A [ b] ,
pues de ser as esta matriz tendra una columna bsica ms que A y su rango no sera igual al
de A. Como b no es columna bsica, por el teorema anterior se tiene que b es combinacin lineal
de las columnas bsicas de [A [ b] , es decir, b es combinacin lineal de las columnas bsicas de
A.
(5 1): Finalmente, si b es combinacin lineal de las columnas bsicas de A, entonces
b es combinacin lineal de todas las columnas de A (con coeciente cero en las columnas no
bsicas), es decir, existen s
1
, s
2
, . . . , s
n
tales que b = s
1
A
1
+s
2
A
2
+ +s
n
A
n
= As, donde
s = (s
1
, . . . , s
n
)
T
lo que muestra que s es una solucin y por lo tanto el sistema es consistente.
Esto prueba el teorema.
De acuerdo al teorema anterior, el espacio columna de A, es igual al conjunto formado por
todas las combinaciones lineales de las columnas bsicas de A.
1.3.1. Ejercicios
1. Calcule el rango de las siguientes matrices reales.
_
_
_
_
_
_
1 2 8 3 2 4 1 1
1 0 1 1 0 14 7 1
1 1 3 10 3 1 2 25
1 0 72 1 1 2 1 1
2 1 1 1 0 1 2 1
_
_
_
_
_
_
,
_
_
_
_
4 0 5 9 15 7
1 0 18 19 13 15
123 0 122 245 493 247
4 0 13 9 33 25
_
_
_
_
.
2. La matriz escalonada reducida por renglones de una matriz A es
E
A
=
_
_
_
_
_
_
1 2 0 4 2 0 5 1 0
0 0 1 5 3 0 4 1 2
0 0 0 0 0 1 1 1 4
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
_
_
_
_
_
_
.
Las columnas 1, 3 y 6 de A son
A
1
=
_
_
_
_
_
_
5
1
4
5
8
_
_
_
_
_
_
, A
3
=
_
_
_
_
_
_
1
2
2
1
3
_
_
_
_
_
_
, A
6
=
_
_
_
_
_
_
2
3
1
0
1
_
_
_
_
_
_
.
Encuentre la matriz A.
3. Si A R
mn
, demuestre que rango(A) mnm, n.
4. Pruebe que si A es una matriz m n cuyo rango es m, entonces el sistema de ecuaciones
Ax = b es consistente para cualquier b.
5. Suponga que los sistemas de ecuaciones cuyas matrices aumentadas son [A [ b] y [A [ c] son
consistentes. Qu puede decir acerca de la consistencia del sistema de ecuaciones cuya matriz
aumentada es [A [ b +c]?
6. Discuta el rango de la matriz A =
_
_
1 0 2 a
0 1 1 1
2 8 a 0
_
_
en funcin del parmetro a.
26 1. Sistemas de ecuaciones lineales
7. Discuta el rango de las siguientes matrices en funcin de los parmetros a y b.
A =
_
_
1 0 2 3
0 1 4 6
a b 0 0
_
_
, B =
_
_
1 2 2 0
1 0 2 1
a b 0 4
_
_
.
8. Determine todos los valores de de tal manera que el sistema de ecuaciones:
x +y +z = 1
x +y +z =
x +y +z =
2
sea:
a) determinado b) indeterminado c) inconsistente.
9. Calcule todos los valores de k (k R)
x 2y + 3z = 1
2x +ky + 6z = 6
x + 3y + (k 3) z = 0
para los cuales el sistema (a) no tiene solucin; (b) tiene exactamente una solucin; (c) tiene
innidad de soluciones. Para el caso de innitas soluciones, encuentre la forma general de la
solucin.
10. Considere la matriz
_
1 3.75 2
2

2 ln 2 2
8
1
9
92 153
_
. Es posible que las cuatro columnas de esta matriz
sean bsicas?
11. Sea A una matriz de m n. Demuestre que el rango de A es igual a 1 si y slo si existen
vectores columna u ,= 0 de m1 y v ,= 0 de n 1 tales que A = uv
T
.
12. Suponga que A tiene la forma escalonada reducida E
A
.
A =
_
_
1 2 1 b
2 a 1 8
tercer rengln de A
_
_
, E
A
=
_
_
1 2 0 3
0 0 1 2
0 0 0 0
_
_
.
a) Qu se puede decir del tercer rengln de A?
b) Determine los nmeros a y b.
13. Sean A y B matrices invertibles de n n, distintas de la matriz identidad I que satisfacen
las relaciones:
A
7
= I y ABA
1
= B
2
.
Demuestre que existe un entero k > 0 tal que B
k
= I y determine el menor valor de k con
esta propiedad.
14. Sean A, B R
nn
matrices invertibles. Demuestre que si (AB)
k
= A
k
B
k
para tres valores
enteros consecutivos de k, entonces AB = BA.
15. a) Demuestre que toda matriz A C
nn
se puede escribir como suma de n matrices de
rango 1.
b) Demuestre que la matriz identidad de tamao n n no se puede escribir como suma de
menos de n matrices de rango 1.
1.4. Sistemas homogneos 27
1.4. Sistemas homogneos
Recuerde que un sistema de ecuaciones lineales de la forma Ax = 0 se llama homogneo. Los
sistemas homogneos siempre son consistentes pues x
1
= x
2
= = x
n
= 0 siempre es solucin
del sistema. A esta solucin se le denomina solucin trivial. El problema entonces no es encontrar
una solucin, ms bien se trata de determinar bajo qu condiciones un sistema homogneo tiene
una solucin no trivial. Al conjunto de todas las soluciones del sistema homogneo Ax = 0
asociado a la matriz A K
mn
se le conoce como el espacio nulo de A y se denota con el
smbolo N(A):
N(A) = x K
n
[ Ax = 0.
Con base en la tcnica de eliminacin de Gauss - Jordan se tiene el siguiente algoritmo para el
clculo del espacio nulo de una matriz A.
Algoritmo para el clculo del espacio nulo de una matriz A
mn
de rango r.
1. Llevar la matriz A a su forma escalonada reducida E mediante operaciones elementales de
rengln.
2. Resolver el sistema de ecuaciones Ex = 0. Las r variables bsicas estn en trminos de las
n r variables libres.
3. Escribir la solucin general en forma de vector.
4. Descomponer la solucin general en una combinacin lineal de vectores.
Teorema 1.4.1. Sea A una matriz mn. El sistema homogneo Ax = 0 tiene solucin nica
si y slo si rango(A) = n.
Demostracin. Si el sistema homogneo Ax = 0 tiene solucin nica, entonces no hay variables
libres. Es decir, todas las columnas de A son bsicas y por lo tanto, rango(A) = n. Recproca-
mente, si rango(A) = n, entonces todas las columnas de A son bsicas. Es decir, no hay variables
libres y por lo tanto, el sistema homogneo Ax = 0 tiene solucin nica.
Ejemplos 1.4.2.
1. Consideremos el sistema homogneo asociado a la matriz A =
_
_
1 3 3 2
2 6 9 5
1 3 3 0
_
_
. La
forma escalonada reducida de esta matriz es E =
_
_
1 3 0 1
0 0 1 1/3
0 0 0 0
_
_
. Como el rango es 2 < 4,
entonces la solucin del sistema tiene dos variables bsicas y dos libres y por lo tanto el
sistema tiene una solucin no trivial. El sistema asociado es:
x
1
+ 3x
2
+x
4
= 0,
x
3
+
1
3
x
4
= 0.
Las variables libres son x
2
y x
4
. Las soluciones son:
x
1
= 3x
2
x
4
,
x
3
=
1
3
x
4
.
Tambin podemos escribir:
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
3x
2
x
4
x
2

1
3
x
4
x
4
_
_
_
_
= x
2
_
_
_
_
3
1
0
0
_
_
_
_
+x
4
_
_
_
_
1
0

1
3
1
_
_
_
_
.
28 1. Sistemas de ecuaciones lineales
Una descripcin del espacio nulo es la siguiente:
N(A) = x
2
_
_
_
_
3
1
0
0
_
_
_
_
+x
4
_
_
_
_
1
0

1
3
1
_
_
_
_
: x
2
, x
4
R.
2. Dado que
A =
_
_
1 17 1
0 1 1
1 1 11
_
_
y E
A
=
_
_
1 0 0
0 1 0
0 0 1
_
_
,
donde E
A
es la matriz escalonada reducida por renglones de A, entonces el rango de A es 3;
por lo tanto, el sistema homogneo asociado tiene solucin nica, y as N(A) = 0.
La solucin general de un sistema de ecuaciones lineales homogneo no depende de la forma
escalonada que se use, pues al resolver el sistema utilizando la sustitucin hacia atrs para
expresar las variables bsicas en trminos de las variables libres, se obtiene la forma escalonada
reducida que es nica.
1.4.1. Ejercicios
1. Si A es la matriz de coecientes de un sistema homogneo formado por 4 ecuaciones y 8
incgnitas y hay 5 variables libres, cul es el rango de A?
2. Demuestre que un sistema homogneo de m ecuaciones y n incgnitas con m < n, siempre
tiene una innidad de soluciones.
3. Sea A
mn
de rango n. Pruebe que la funcin T : K
n
K
m
dada por T(x) = Ax es una
funcin inyectiva.
4. Encuentre una matriz A (con dos renglones) de tal manera que su espacio nulo sea N(A) =
r
_
_
2
3
1
_
_
+s
_
_
1
0
1
_
_
[ r, s R.
1.5. Sistemas no homogneos
A continuacin se analizar la estructura del conjunto de soluciones de un sistema no homo-
gneo Ax = b.
Teorema 1.5.1. Suponga que x
0
es una solucin particular al sistema de ecuaciones Ax = b.
Entonces, el conjunto de todas las soluciones del sistema Ax = b es:
S = x [ Ax = b
= x [ x = x
0
+h, donde h N(A)
= x
0
+N(A) Notacin
Demostracin. Si x S, entonces Ax = b. Como tambin Ax
0
= b, entonces Ax = Ax
0
, de
donde A(x x
0
) = 0 y por lo tanto x x
0
N (A) ; haciendo h = x x
0
se tiene x = x
0
+ h
con h N (A) . Recprocamente, si x x
0
+N (A) , entonces x = x
0
+h para algn h N (A) ;
entonces Ax = A(x
0
+h) = Ax
0
+Ah = b + 0 = b. Luego, x S.
1.5. Sistemas no homogneos 29
El teorema anterior muestra que la solucin de un sistema no homogneo Ax = b, est dada
en trminos de las soluciones del sistema homogneo Ax = 0, es decir, est en trminos del
espacio nulo de A. Ms precisamente, la solucin general del sistema no homogneo Ax = b,
donde rango(A) = r, es de la forma:
x = x
0
+x
f1
h
1
+ +x
fnr
h
nr
, con x
f1
, . . . , x
fnr
escalares,
donde x
0
es una solucin particular del sistema Ax = b, y x
f1
h
1
+ +x
fnr
h
nr
es la solucin
general del sistema Ax = 0.
Ejemplo 1.5.2. Consideremos el sistema de ecuaciones Ax = b, donde A es la matriz del
Ejemplo 1.4.2 y b = (5, 3, 19)
T
. La forma escalonada reducida de [A [ b] es
E
A
=
_
_
1 3 0 1 12
0 0 1
1
3
7
3
0 0 0 0 0
_
_
.
Las soluciones estn dadas por x
1
= 12 3x
2
x
4
, x
3
= 7/3 x
4
/3. Por lo tanto, el conjunto
solucin es
S =
_
_
_
_
12
0
7/3
0
_
_
_
_
+x
2
_
_
_
_
3
1
0
0
_
_
_
_
+x
4
_
_
_
_
1
0
1/3
1
_
_
_
_
: x
2
, x
4
R = x
0
+N(A),
donde x
0
es una solucin del sistema Ax = b y N(A) es el espacio nulo de A.
Teorema 1.5.3. Sea A K
mn
. Las siguientes armaciones sobre el sistema consistente
Ax = b son equivalentes:
1. El sistema Ax = b es consistente y determinado.
2. rango(A) = n
3. No hay variables libres.
4. El sistema homogneo asociado solamente tiene la solucin trivial.
Demostracin. Si el sistema Ax = b es consistente y determinado, entonces por el teorema
anterior se sigue que el sistema homogneo asociado Ax = 0 tiene slo la solucin trivial, y por
el Teorema 1.4.1 el rango de A es n. Recprocamente, si el rango de A es n, entonces el sistema
Ax = 0 slo tiene la solucin trivial por el Teorema 1.4.1 y por lo tanto, el sistema consistente
Ax = b tiene solucin nica, por el teorema anterior. Esto demuestra que 1 2. Es claro que
2 3. Finalmente, la demostracin de 1 4 est contenida en la demostracin de 1 2.
Teorema 1.5.4. Sea A una matriz cuadrada de n n. Las siguientes armaciones son equiva-
lentes.
a) A es una matriz invertible (A es no singular).
b) El rango de A es n.
c) La forma escalonada reducida de A es I.
d) Ax = 0 implica que x = 0.
30 1. Sistemas de ecuaciones lineales
Demostracin. Si A es no singular, entonces el sistema homogneo Ax = 0 es consistente y
determinado (la nica solucin es la trivial) y de acuerdo con el teorema anterior, su rango
es n; esto prueba a) b). Recprocamente, si el rango de A es n dado que A es una matriz
cuadrada, para cualquier b se tiene rango ([A [ b]) = rango (A) y por tanto el sistema Ax = b
es consistente. De acuerdo con el teorema anterior y tomando en cuenta que rango (A) = n, el
sistema Ax = b tiene solucin nica. En particular para cada e
j
(1 j n) sea x
j
la nica
solucin del sistema Ax = e
j
. Sea X = [x
1
[ x
2
[ [ x
n
]; entonces AX = I. Si XA ,= I,
entonces XA I ,= 0 y por tanto al menos una columna de esta matriz no es cero. As,
A(XAI) = AXA AI = IA A = 0. Esto implica que el sistema Ax = 0 tiene al menos
una solucin no trivial (dicha solucin no trivial es una de las columnas distintas de cero de la
matriz XA I), lo cual de acuerdo al teorema anterior no puede ser. Por lo tanto, XA = I y
X = A
1
. Esto demuestra que a) b). b) c) es inmediato. a) d) es tambin inmediato.
Demostraremos que d) a). En efecto, si Ax = 0 implica que x = 0, entonces el sistema
homogneo Ax = 0 slo tiene la solucin trivial y por el Teorema 1.4.1 el rango de A es n.
Luego, por la equivalencia entre b) y a) de este teorema, se sigue que A es invertible. Esto
demuestra que d) a) y as, a) d). Esto concluye la prueba.
Observacin 1.5.5. De acuerdo con el teorema anterior, una matriz A es invertible si y so-
lamente si su forma escalonada reducida es la matriz identidad. Esto justica el Mtodo de
Gauss-Jordan para calcular la inversa de una matriz cuadrada (Vea el pendice B).
Finalizamos la seccin probando que el rango de una matriz y el de su transpuesta son
iguales. Esto ser consecuencia del siguiente teorema.
Teorema 1.5.6. Si A es una matriz de tamao mn y de rango r, entonces existen matrices
invertibles P y Q tales que:
PAQ =
_
I
r
0
0 0
_
,
donde I
r
es la matriz identidad de tamao r r.
Demostracin. Sea E la forma escalonada reducida de A. Entonces, existe una matriz invertible
P tal que PA = E. Como el rango de A es r, las columnas bsicas de E son las r columnas
unitarias. Aplicando intercambios de columnas a E podemos mover estas r columnas unitarias
a la parte ms izquierda. Si Q
1
es el producto de las matrices elementales correspondientes a
estos intercambios de columnas, entonces PAQ
1
tiene la forma:
PAQ
1
= EQ
1
=
_
I
r
J
0 0
_
.
Multiplicando esta igualdad a la derecha en ambos lados por la matriz invertible:
Q
2
=
_
I
r
J
0 I
nr
_
,
obtenemos:
PAQ
1
Q
2
=
_
I
r
J
0 0
__
I
r
J
0 I
nr
_
=
_
I
r
0
0 0
_
,
donde I
nr
es la matriz identidad de tamao (nr) (nr). Finalmente, haciendo Q = Q
1
Q
2
se sigue el resultado. (Ntese que Q
2
es una matriz de n n invertible, ya que la matriz
_
I
r
J
0 I
nr
_
es su inversa).
Corolario 1.5.7. Para cada matriz A de mn, se tiene que:
rango (A) = rango
_
A
T
_
.
1.5. Sistemas no homogneos 31
Demostracin. De acuerdo con el teorema anterior, existen matrices invertibles P, Q, R y S
tales que PAQ = N
r
y RA
T
S = N
s
, donde N
r
=
_
I
r
0
0 0
_
, N
s
=
_
I
s
0
0 0
_
y r es el rango de A
y s es el rango de A
T
. Tenemos que:
A = P
1
N
r
Q
1
y A
T
= R
1
N
s
S
1
.
Luego:
(P
1
N
r
Q
1
)
T
= R
1
N
s
S
1
.
Simplicando y usando el hecho de que N
T
r
= N
r
, tenemos que:
N
r
= P
t
N
s
Q
t
donde P
t
y Q
t
son las matrices invertibles Q
T
R
1
y S
1
P
T
, respectivamente. De la ltima
igualdad no es difcil concluir que r = s (observe que P
t
y Q
t
son producto de matrices elemen-
tales y que la multiplicacin por una matriz elemental no cambia el rango), y as el rango de A
y el rango de A
T
coinciden.
1.5.1. Ejercicios
1. El conjunto solucin del sistema Ax =
_
6
9
_
es
_
1
1
_
+r
_
2
1
_
[ r R. Determine la
matriz A.
2. Encuentre una matriz A de tal manera que el conjunto solucin del sistema de ecuaciones
Ax =
_
7
19
_
es
_
_
2
1
2
_
_
+r
_
_
1
1
1
_
_
[ r R.
3. Suponga que A es una matriz de 2 1 y que B es una matriz de 1 2. Demuestre que AB
no es invertible.
4. Suponga que A es de mn con m > n y que B es de nm. Pruebe que AB no es invertible.
5. Sea A una matriz de n n. Demuestre las siguientes armaciones:
a) Si A es invertible y AB = 0 para alguna matriz B de n n, entonces B = 0.
b) Si A no es invertible, entonces existe una matriz B de n n, B ,= 0, tal que AB = 0.
6. Sea A =
_
a b
c d
_
. Demuestre que A es invertible si y slo si ad bc ,= 0.
7. Sea A una matriz cuya forma escalonada reducida es
_
_
1 4 0 2
0 0 1 2
0 0 0 0
_
_
. Determine todas las
soluciones (si existen) del sistema: Ax = suma de las columnas de A.
8. Considere la matriz real de n n:
A =
_
_
_
_
_
x +y x x
x x +y x
.
.
.
.
.
.
.
.
.
.
.
.
x x x +y
_
_
_
_
_
.
Determine los valores de x, y, para que la matriz A sea invertible y calcule A
1
.
32 1. Sistemas de ecuaciones lineales
9. Sean A y B matrices de mn y n p, respectivamente.
a) Suponga que la columna k de la matriz B es una combinacin de lineal de otras columnas
de B, digamos, B
k
=
1
B
k1
+ +
j
B
kj
. Pruebe que (AB)
k
=
1
(AB)
k1
+ +

j
(AB)
kj
.
b) Pruebe que rango(AB) rango(B).
c) Pruebe que rango(AB) rango(A).
d) Suponga que A y B son matrices cuadradas de n n. Pruebe que si AB = I, entonces
rango(A) = n.
10. Sean A y B matrices de 2 3 y 3 2, respectivamente. Suponga que AB = I. Pruebe que
BA ,= I.
1.6. Clculo de los cuatro espacios fundamentales
En este seccin iniciaremos el estudio de los cuatro espacios
2
fundamentales asociados con
una matriz. Si A es una matriz de mn, dos de estos subespacios son subespacios de K
n
y los
otros dos de K
m
.
Dada una matriz A K
mn
se denen los siguientes conjuntos:
R(A) = b K
m
[ x K
n
, b = Ax .
N (A) = x K
n
[ Ax = 0 .
N
_
A
T
_
=
_
y K
m
[ A
T
y = 0
_
.
R
_
A
T
_
=
_
x K
n
[ y K
m
, x = A
T
y
_
.
Estos conjuntos se denominan espacio columna, espacio nulo, espacio nulo izquierdo y espacio
rengln, respectivamente, de A. Estos cuatro conjuntos son los espacios fundamentales de A. Los
primeros dos surgieron previamente en la Subseccin 1.1.1 y en la Seccin 1.4, respectivamente.
Note que estos espacios surgen de manera natural al considerar sistemas de ecuaciones linea-
les. Dada una matriz A es natural preguntarnos para que bs el sistema de ecuaciones Ax = b
tiene solucin. En el caso del espacio nulo, ste simplemente es el conjunto de todas las solucio-
nes del sistema homogneo Ax = 0. Si se conoce una solucin particular del sistema Ax = b,
entonces el conjunto de todas sus soluciones se obtiene sumando a la solucin particular un
elemento del espacio nulo. Ms adelante veremos que cada vector de R
n
se puede escribir de
manera nica como un vector del espacio nlo de A ms un vector del espacio rengln de A.
Una situacin similar sucede en R
m
.
Un subconjunto S de R
n
se dice que est generado por vectores s
1
, . . . , s
l
si para todo s S
existen constantes c
1
, . . . , c
l
R tales que s = c
1
s
1
+ +c
l
s
l
.
La demostracin del siguiente resultado se presenta en una versin ms general en el Teore-
ma 3.5.1.
Teorema 1.6.1. Sea A una matriz m n de rango r. Sea P una matriz no singular tal que
PA = U, donde U es una forma escalonada de A. Entonces:
1. R(A) es el conjunto generado por las columnas bsicas de A.
2. R
_
A
T
_
es el conjunto generado por los r renglones diferentes de cero de U y R(A
T
) =
R
_
U
T
_
.
3. N (A) es el conjunto generado por las n r h
t
i
s en la solucin general de Ux = 0. (Las h
i
s
se denieron en la seccin anterior).
2
En el captulo 3 se estudiarn formalmente los espacios vectoriales.
1.7. Descomposiciones LU 33
4. N
_
A
T
_
es el conjunto generado por los ltimos mr renglones de P.
Del teorema anterior se desprende inmediatamente el siguiente algoritmo.
Algoritmo para el clculo de los espacios fundamentales de una matriz
1. Lleve la matriz aumentada [A [ I
m
] a una forma escalonada [U [ P].
2. Particione la matriz [U [ P] de la siguiente manera:
[U [ P] =
_
U
1
P
1
0 P
2
_
r
mr
Entonces:
R(A) = generado por las columnas bsicas de A = N (P
2
).
R
_
A
T
_
= R
_
U
T
1
_
.
N (A) = generado por las n r h
t
i
s en la solucin general de Ux = 0.
N
_
A
T
_
= R
_
P
T
2
_
.
Ejemplo 1.6.2. Se calcularn los cuatro espacios fundamentales de la matriz
A =
_
_
_
_
1 2 1 1 5
1 2 0 4 2
1 2 1 9 1
1 2 1 1 5
_
_
_
_
.
La forma escalonada reducida por renglones de [A [ I
4
] es
[U [ P] =
_
U
1
P
1
0 P
2
_
=
_
_
_
_
1 2 0 4 2 0 0
1
2

1
2
0 0 1 5 3 0 0
1
2

1
2
0 0 0 0 0 1 0 0 1
0 0 0 0 0 0 1
1
2
1
2
_
_
_
_
.
Por lo tanto, las columnas 1 y 3 son las columnas bsicas de A. Se tiene:
R(A) = rA
1
+sA
3
[ r, s R = b R
4
[ b
1
+b
4
= 0, 2b
2
+b
3
+b
4
= 0.
Los espacios rengln y nulo izquierdo de A son
R(A
T
) = rU
T
1
+sU
T
2
[ r, s R, N(A
T
) = rP
T
3
+sP
T
4
[ r, s R.
1.7. Descomposiciones LU
En secciones anteriores se analizaron los mtodos de eliminacin de Gauss y de Gauss -
Jordan para resolver sistemas de ecuaciones lineales. En esta seccin se analizar un mtodo
diferente para resolver sistemas cuadrados no singulares basado en la descomposicin LU de
una matriz. Esta descomposicin consiste en factorizar la matriz de coecientes en un producto
de dos matrices: una triagular inferior y otra triangular superior. Este mtodo, adecuado para
emplear en computadoras, es en realidad la eliminacin de Gauss visto desde la perspectiva de
las matrices.
Cuando se utiliza la eliminacin gaussiana para llevar una matriz A a una forma escalonada U
se aplican operaciones elementales de rengln, lo que equivale a multiplicar por la izquierda por la
34 1. Sistemas de ecuaciones lineales
matriz elemental
3
correspondiente. As, es posible encontrar matrices elementales E
1
, E
2
, . . . , E
k
tales que:
E
k
E
2
E
1
A = U.
Como las matrices elementales son invertibles, entonces:
A = E
1
1
E
1
2
E
1
k
U.
En general, las matrices elementales del tipo 1 (intercambio de renglones) y 3 (reemplazo
de un rengln por el mismo rengln ms un mltiplo de otro rengln) no son triangulares
inferiores, pero las que se usan en la eliminacin gaussiana s lo son. Se puede probar por
induccin (ejercicio) que el producto de matrices triangulares inferiores es una matriz triangular
inferior. Si suponemos que durante la reduccin no se encuentra un pivote cero, entonces no
es necesario el intercambio de renglones y la reduccin se puede realizar aplicando solamente
operaciones elementales del tipo 3. En este caso:
L = E
1
1
E
1
2
E
1
k
es una matriz triangular inferior y por lo tanto:
A = LU,
que es una factorizacin de A en un producto de una matriz triangular inferior y una matriz
triangular superior. Ilustremos con un ejemplo calculando una descomposicin LU de la matriz
A =
_
_
2 6 2
3 8 0
4 9 2
_
_
.
A
R21(3/2)

R31(2)
_
_
2 6 2
0 1 3
0 3 2
_
_
R32(3)

_
_
2 6 2
0 1 3
0 0 7
_
_
= U.
El producto de las tres matrices elementales usadas es:
E
3
E
2
E
1
=
_
_
1 0 0
0 1 0
0 3 1
_
_
_
_
1 0 0
0 1 0
2 0 1
_
_
_
_
1 0 0
3/2 1 0
0 0 1
_
_
_
_
1 0 0
3/2 1 0
5/2 3 1
_
_
.
O sea que E
3
E
2
E
1
A = U, por lo que A = E
1
1
E
1
2
E
1
3
U = LU, donde:
L = E
1
1
E
1
2
E
1
3
=
_
_
1 0 0
3/2 1 0
2 3 1
_
_
.
El ejemplo muestra varias cosas. Primero, la mayor parte del trabajo para obtener una des-
composicin LU se invierte en el clculo de L. La matriz U es el resultado nal de la eliminacin
gaussiana. La matriz L tiene en su diagonal 1s; debajo de la diagonal principal de L, cada
entrada l
ij
es precisamente el negativo del multiplicador que se utiliz en la eliminacin para
introducir un cero en la posicin (i, j) . El trabajo se puede simplicar llevando un registro cui-
dadoso de las operaciones efectuadas para llevar a cabo la reduccin. Lo que ilustra este ejemplo
sucede en general, siempre que no se use intercambio de renglones.
El clculo de las matrices L y U usando Sage se muestra a continuacin.
3
Una matriz elemental es una matriz que obtiene de la matriz identidad aplicando una operacin elemental
de rengln. Puesto que son tres las operaciones elementales de rengln, hay tres tipos de matrices elementales.
Una matriz elemental es invertible y su inversa es una matriz elemental del mismo tipo.
1.7. Descomposiciones LU 35
sage: A = matrix(3, [2,6,2, -3,-8,0, 4,9,2])
sage: P, L, U = A.LU(pivot=nonzero )
sage: L, U
(
[ 1 0 0] [2 6 2]
[-3/2 1 0] [0 1 3]
[ 2 -3 1], [0 0 7]
)
sage: L*U
[ 2 6 2]
[-3 -8 0]
[ 4 9 2]
Por el momento no haremos caso de la matriz P.
Teorema 1.7.1 (LU sin intercambios). Si A es una matriz n n no singular tal que no es
necesario aplicar ningn intercambio de renglones durante la eliminacin gaussiana, entonces
A se puede factorizar como A = LU, donde:
1. U es una forma escalonada de A que se obtiene al aplicar la eliminacin gaussiana a A.
2. L es una matriz triangular inferior y U es una matriz triangular superior.
3. l
ii
= 1 y u
ii
,= 0, i = 1, 2, . . . , n.
4. Debajo de la diagonal principal de L, cada l
ij
es el negativo del multiplicador usado para
introducir el cero en la posicin (i, j) .
5. Las matrices L y U estn determinadas de manera nica por las propiedades 2 y 3.
Demostracin. Para la prueba es til el concepto de matriz triangular inferior elemental. Sea k
un entero 1 k < n y sea c
k
=
_
_
_
_
_
0
.
.
.
0

k+1
.
.
.
n
_
_
_
_
_
. Es decir, c
k
es un vector cuyas primeras k entradas
son cero. Sea e
k
el k-simo vector unitario de K
n
, es decir, e
k
es el vector que en su k-sima
entrada tiene al 1 y tiene ceros en todas las dems posiciones. La matriz:
T
k
= I c
k
e
T
k
=
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 n 0 1
_
_
_
_
_
_
se llama matriz triangular inferior elemental.
Estas matrices son invertibles. De hecho:
T
1
k
= I +c
k
e
T
k
=
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 n 0 1
_
_
_
_
_
_
.
36 1. Sistemas de ecuaciones lineales
En efecto,
T
k
_
I +c
k
e
T
k
_
=
_
I c
k
e
T
k
_ _
I +c
k
e
T
k
_
= I +c
k
e
T
k
c
k
e
T
k
c
k
e
T
k
c
k
e
T
k
= I,
ya que e
T
k
c
k
= 0. La utilidad de las matrices triangulares inferiores elementales T
k
est en que las
operaciones elementales tipos 2 y 3 necesarias para hacer ceros las entradas debajo del k-simo
pivote, se pueden lograr con una multiplicacin por T
k
. Si:
A
k1
=
_
_
_
_
_
_
_
1
0 2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
k

0 0
k+1

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 n
_
_
_
_
_
_
_
(
k
,= 0)
es el resultado parcialmente triangularizado despus de k1 pasos en la reduccin, entonces:
T
k
A
k1
= (I c
k
e
T
k
)A
k1
= A
k1
c
k
e
T
k
A
k1
=
_
_
_
_
_
_
1
0 2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
k

0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
,
donde:
c
k
=
_
_
_
_
_
_
0
.
.
.
0

k+1
/
k
.
.
.
n/
k
_
_
_
_
_
_
,
contiene a los negativos de los multiplicadores usados para hacer ceros aquellas entradas debajo
de
k
. Note que T
k
no altera las primeras k 1 columnas de A
k1
, ya que e
T
k
[A
k1
]
j
= 0 si
j k1. Por lo tanto, si ningn intercambio de rengln se requiere en la eliminacin gaussiana,
entonces al reducir A a una matriz triangular superior U, realizamos n 1 multiplicaciones por
la izquierda con matrices triangulares inferiores elementales. Es decir, T
n1
T
2
T
1
A = U, de
donde:
A = T
1
1
T
1
2
T
1
n1
U.
Note que e
T
i
c
j
= 0 siempre que i < j. Por lo tanto:
L = T
1
1
T
1
2
T
1
n1
=
_
I +c
1
e
T
1
_

_
I +c
n1
e
T
n1
_
= I +c
1
e
T
1
+ +c
n1
e
T
n1
.
Observe que:
c
k
e
T
k
=
_
_
_
_
_
_
_
0 0 0 0 0
0 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0
0 0 l
k+1,k
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 l
nk
0 0
_
_
_
_
_
_
_
1.7. Descomposiciones LU 37
donde los l
ik
s son los negativos de los multiplicadores usados para introducir ceros debajo de
la posicin (k, k) en la eliminacin de Gauss. Por lo tanto, A = LU donde:
L =
_
_
_
_
_
1 0 0
l
21
1 0
.
.
.
.
.
.
.
.
.
.
.
.
l
n1
l
n2
1
_
_
_
_
_
.
Por otra parte, si u
ii
= 0 para algn i, 1 i n, entonces el rango de U y en consecuencia
el de A, sera a lo ms n 1 lo cual no puede ser puesto que al ser A no singular, el rango de A
es n. Por lo tanto, u
ii
,= 0 para cada i = 1, 2, . . . , n.
Para demostrar la unicidad de las matrices L y U, observe que L es invertible por ser producto de
matrices invertibles, y en consecuencia U = L
1
A tambin es producto de matrices invertibles.
Luego, L y U son invertibles. Supongamos que L
1
U
1
= A = L
2
U
2
son dos factorizaciones LU
de A. Entonces:
L
1
2
L
1
= U
2
U
1
1
. (1.9)
Note que L
1
2
L
1
es una matriz triangular inferior y U
2
U
1
1
es una matriz triangular su-
perior, ya que la inversa de una matriz triangular inferior (superior) es tambin triangular
inferior (superior), y el producto de dos matrices triangulares inferiores (superiores) es tambin
triangular inferior (superior) (ver ejercicios al nal de la seccin). Luego, de (1.9) se sigue que
L
1
2
L
1
= D = U
2
U
1
1
es una matriz diagonal. Adems, [L
2
]
ii
= 1 implica que [L
1
2
]
ii
= 1 (por
qu?), y por lo tanto, L
1
2
L
1
= I = U
2
U
1
1
, de donde L
1
= L
2
y U
1
= U
2
. Esto prueba la
unicidad de la factorizacin y concluye la prueba.
Una vez que se tiene una descomposicin LU para una matriz no singular A es relativamente
fcil resolver el sistema Ax = b. Reescribiendo Ax = b como L(Ux) = b, y haciendo el cambio
de variable y = Ux, es fcil vericar que el sistema Ax = b es equivalente a los dos sistemas
triangulares Ly = b y Ux = y.
En efecto, si y es una solucin de Ly = b y x es una solucin de Ux = y, entonces x es una
solucin de Ax = b, pues Ax = LUx = Ly = b. Recprocamente, si x es una solucin de Ax = b,
entonces x es una solucin de y = Ux y y es solucin de Ly = b.
Ahora bien, los dos sistemas son muy fciles de resolver. El primero por sustitucin hacia
adelante y el segundo por sustitucin hacia atrs.
Ejemplo 1.7.2. Usando la descomposicin LU resuelva el sistema Ax = b, donde
A =
_
_
2 2 2
4 7 7
6 18 22
_
_
y b =
_
_
12
24
12
_
_
.
Para mayor claridad, conforme vayamos reduciendo la matriz escribiremos en negrita en la
posicin (i, j), al negativo del multiplicador usado para hacer cero la posicin (i, j).
A =
_
_
2 2 2
4 7 7
6 18 22
_
_
R21(2)

R31(3)
_
_
2 2 2
2 3 3
3 12 16
_
_

R32(4)
_
_
2 2 2
2 3 3
3 4 4
_
_
.
Entonces:
L =
_
_
1 0 0
2 1 0
3 4 1
_
_
y U =
_
_
2 2 2
0 3 3
0 0 4
_
_
.
38 1. Sistemas de ecuaciones lineales
Observe que:
c
1
=
_
_
0
2
3
_
_
, T
1
=
_
_
1 0 0
2 1 0
3 0 1
_
_
, c
2
=
_
_
0
0
4
_
_
, T
2
=
_
_
1 0 0
0 1 0
0 4 1
_
_
,
L = I +c
1
e
T
1
+c
2
e
T
2
=
_
_
1 0 0
0 1 0
0 0 1
_
_
+
_
_
0 0 0
2 0 0
3 0 0
_
_
+
_
_
0 0 0
0 0 0
0 4 0
_
_
.
Ahora resolvemos primero el sistema Ly = b mediante sustitucin hacia adelante.
_
_
1 0 0
2 1 0
3 4 1
_
_
_
_
y
1
y
2
y
3
_
_
=
_
_
12
24
12
_
_

y
1
= 12,
y
2
= 24 2y
1
= 0,
y
3
= 12 3y
1
4y
2
= 24.
Finalmente, por sustitucin hacia atrs resolvemos el sistema Ux = y.
_
_
2 2 2
0 3 3
0 0 4
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
12
0
24
_
_

x
3
= 24/4 = 6,
x
2
= (0 3x
3
)/3 = 6,
x
1
= (12 2x
2
2x
3
)/2 = 6.
Si se va a resolver solamente un sistema Ax = b, entonces no existe una diferencia signicativa
entre la tcnica de reducir la matriz aumentada [A [ b] a una forma escalonada y el mtodo de
la descomposicin LU. Sin embargo, si fuera necesario resolver el sistema Ax = b para diferentes
vectores b, entonces es relativamente ms econmico resolver estos sistemas a partir de una
descomposicin LU.
No todas las matrices tienen una descomposicin LU. Para la matriz
_
0 1
1 0
_
no es posible
encontrar un valor u
11
,= 0 que satisfaga:
_
0 1
1 0
_
=
_
1 0
l
21
1
__
u
11
u
12
0 u
22
_
.
El problema radica en el valor del pivote en la posicin (1, 1). En este caso se procede
a efectuar un intercambio de renglones, y la matriz resultante
_
1 0
0 1
_
evidentemente tiene
una descomposicin LU. Ahora bien, el problema del intercambio no solo se presenta cuando se
encuentra un cero en una posicin donde se requiere un pivote durante el proceso de eliminacin.
En la prctica es necesario realizar intercambios de renglones para reducir los errores provocados
por el redondeo, cuando se resuelve numricamente un sistema.
A continuacin se analizar cul es el efecto de aplicar intercambios durante el proceso para
hallar la descomposicin LU. En caso de tener que realizar uno o ms intercambios durante el
proceso se tendra algo as:
T
n1
E
r
T
k+1
E
1
T
k
T
2
T
1
A = U.
Basta analizar qu sucede cuando se aplica una matriz elemental a una matriz triangular
inferior elemental. Sea T
k
= I c
k
e
T
k
una matriz triangular inferior elemental, y sea E la matriz
elemental del tipo I que se obtiene de la identidad al intercambiar los renglones i y j, donde
k < i, j. Es decir E intercambia dos renglones debajo del rengln k. Tomando en cuenta que
E
2
= I (por qu?) y que e
T
k
E = (rengln k de E) = e
T
k
(por qu?), se tiene que:
ET
k
E = E(I c
k
e
T
k
)E = (E Ec
k
e
T
k
)E
= E
2
Ec
k
e
T
k
E = I (Ec
k
) e
T
k
= I c
k
e
T
k
,
1.7. Descomposiciones LU 39
donde c
k
= Ec
k
. Como c
k
tambin es un vector cuyas primeras k entradas son ceros, tenemos
que la matriz

T
k
= ET
k
E = I c
k
e
T
k
sigue siendo una matriz triangular inferior elemental.
Adems las matrices T
k
y

T
k
solamente dieren en las posiciones (i, k) y (j, k) , en las que estn
permutados los elementos
i
y
j
, es decir en la posicin (i, k) de

T
k
est
j
y en la posicin
(j, k) est el elemento
i
. Suponga que se est llevando la matriz A a una forma escalonada y
exactamente despus del ksimo paso es necesario efectuar el intercambio de los renglones i y
j (k < i, j). Insertando E
2
a la derecha de cada T
j
se tiene
ET
k
T
k1
T
1
= ET
k
E
2
T
k1
E
2
T
1
E
2
= (ET
k
E) (ET
k1
E) (ET
1
E) E
=

T
k

T
k1


T
1
E.
Esto implica que se puede trasladar la matriz E a la derecha del producto de las matrices
T
i
, y las matrices

T
i
s siguen siendo triangulares inferiores elementales. Ms an, las matrices
T
k
T
k1
T
1
y

T
k

T
k1


T
1
dieren en que en los renglones i y j tienen intercambiados los
multiplicadores (Observe que no todo el rengln i est intercambiado con el rengln j). De esta
manera la eliminacin gaussiana con intercambio de renglones se puede expresar en la forma:

T
n1


T
2

T
1
PA = U,
donde P es el producto de las matrices elementales de intercambio de renglones que se utilizaron
durante el proceso, L =

T
1
1

T
1
2


T
1
n1
y las

T
k
s son las matrices triangulares inferiores
elementales en las que los multiplicadores estn intercambiados de acuerdo a los intercambios
que se realizaron en el proceso.
Veamos un ejemplo. Sea A =
_
_
_
_
1 2 3 4
4 8 12 8
2 3 2 1
3 1 1 4
_
_
_
_
y determinemos la descomposicin
PA = LU, donde P es la matriz permutacin asociada.
Para mayor claridad, conforme vayamos reduciendo la matriz, escribiremos en negrita en la
posicin (i, j), al negativo del multiplicador usado para hacer cero la posicin (i, j). Tambin
usaremos una columna adicional p que nos servir como contador en los intercambios de rengln.
Esta columna estar formada por los nmeros 1, 2, 3, 4.
[A | p] =

1 2 3 4 1
4 8 12 8 2
2 3 2 1 3
3 1 1 4 4

R
12

4 8 12 8 2
1 2 3 4 1
2 3 2 1 3
3 1 1 4 4

R
21
(1/4)

R
31
(1/2)
R
41
(3/4)

4 8 12 8 2
1
4
0 6 6 1
1
2
1 4 5 3

3
4
5 10 10 4

R
24

4 8 12 8 2

3
4
5 10 10 4
1
2
1 4 5 3
1
4
0 6 6 1

R
32
(1/5)

4 8 12 8 2

3
4
5 10 10 4
1
2

1
5
2 3 3
1
4
0 6 6 1

R
34

4 8 12 8 2

3
4
5 10 10 4
1
4
0 6 6 1
1
2

1
5
2 3 3

R
43
(1/3)

4 8 12 8 2

3
4
5 10 10 4
1
4
0 6 6 1
1
2

1
5

1
3
1 3

.
40 1. Sistemas de ecuaciones lineales
Por lo tanto:
L =
_
_
_
_
1 0 0 0

3
4
1 0 0
1
4
0 1 0
1
2

1
5
1
3
1
_
_
_
_
, U =
_
_
_
_
4 8 12 8
0 5 10 10
0 0 6 6
0 0 0 1
_
_
_
_
, P =
_
_
_
_
0 1 0 0
0 0 0 1
1 0 0 0
0 0 1 0
_
_
_
_
.
Como P es invertible, el sistema Ax = b es equivalente al sistema PAx = Pb. Por lo tanto
se puede emplear la tcnica descrita antes para resolver el sistema permutado: resolver primero
Ly = Pb y posteriormente Ux = y.
Note que:
U = T
3
E
3
T
2
E
2
T
1
E
1
A = T
3
(E
3
T
2
E
3
)(E
3
(E
2
T
1
E
2
)E
3
)(E
3
E
2
E
1
)A
= T
3
(

T
2
E
3

T
2
E
3
)PA = T
3

T
2

T
1
PA,
donde E
1
, E
2
y E
3
son las matrices elementales que intercambian los renglones 1 y 2, 1 y 4, y
3 y 4, respectivamente, y:

T
1
=
_
_
_
_
1 0 0 0
3
4
1 0 0

1
4
0 1 0

1
2
0 0 1
_
_
_
_
,

T
2
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0
1
5
0 1
_
_
_
_
, T
3
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
0 0
1
3
1
_
_
_
_
.
La diferencia de

T
1
con T
1
est en las posiciones (2, 1), (3, 1) y (4, 1): [T
1
]
21
= 1/4, [T
1
]
31
=
1/2 y [T
1
]
41
= 3/4. Con Sage la tarea es sencilla.
sage: A = matrix (4,[1,2,-3,4, 4,8,12,-8,2,3,2,1,-3,-1,1,-4])
sage: P,L,U = A.LU()
sage: P, L, U
(
[0 0 1 0] [ 1 0 0 0] [ 4 8 12 -8]
[1 0 0 0] [-3/4 1 0 0] [ 0 5 10 -10]
[0 0 0 1] [ 1/4 0 1 0] [ 0 0 -6 6]
[0 1 0 0], [ 1/2 -1/5 1/3 1], [ 0 0 0 1]
)
sage: P*A == L* U
False
sage: P.inverse ()*A == L* U
True
sage: A == P*L*U
True
1.7.1. Ejercicios
1. Pruebe que las matrices T
k
denidas en esta seccin son triangulares.
2. Pruebe que si T
1
y T
2
son matrices n n triangulares inferiores (superiores), entonces T
1
T
2
es una matriz triangular inferior (superior).
3. Pruebe que si T es una matriz cuadrada triangular inferior (superior) invertible, entonces
T
1
tambin es triangular inferior (superior). (Sugerencia: demuestre primero que t
ii
,= 0
para cada i = 1, 2, . . . , n).
1.7. Descomposiciones LU 41
4. Calcule matrices triangulares inferiores elementales T
1
y T
2
tales que U = T
2
T
1
A sea una
matriz escalonada, donde A =
_
_
2 1 3
2 4 8
6 3 3
_
_
. Verique que A = LU, donde L =
T
1
1
T
1
2
.
5. Considere la matriz elemental E
k
(c). Pruebe que E
k
(c) = I (1 c)e
k
e
T
k
y que E
k
(c)
1
=
E
k
(
1
c
). Es E
k
(c) una matriz triangular inferior elemental?
6. Considere la matriz elemental E
ij
(c) con i ,= j. Pruebe que E
ij
(c) = I + ce
i
e
T
j
y que
E
ij
(c)
1
= I ce
i
e
T
j
. Es E
ij
(c) es una matriz triangular inferior elemental?
7. Se dice que una matriz cuadrada A acepta una descomposicin LDU si A = LDU, donde L
es una matriz triangular inferior con unos en la diagonal principal, D es una matriz diagonal
y U es una matriz triangular superior con unos en la diagonal superior. Pruebe que si A es
una matriz que acepta una descomposicin LU entonces acepta una descomposicin LDU.
Sugerencia: Analice el siguiente ejemplo y generalice:
A =
_
3 2
9 8
_
=
_
1 0
3 1
__
3 2
0 2
_
=
_
1 0
3 1
__
3 0
0 2
__
1
2
3
0 1
_
.
8. Pruebe que si A es una matriz simtrica que acepta una descomposicin LDU, entonces la
descomposicin LDU de A es de la forma LDL
T
. (Recuerde que una matriz cuadrada A es
simtrica si A = A
T
).
9. Para cada una de las siguientes matrices
_
_
_
_
1 2 4 17
3 6 12 3
2 3 3 2
0 2 2 6
_
_
_
_
,
_
_
_
_
2 1 4 3
2 5 20 27
6 1 12 0
4 1 6 1
_
_
_
_
,
calcule la factorizacin PA = LU. Encuentre matrices triangulares T
i
, i = 1, 2, 3, tales que
T
3
T
2
T
1
PA = U.
10. Considere la matriz A =
_
_
1 2 0
5 10 1
2 5 1
_
_
. Determine una matriz permutacin P tal que
PA tenga una factorizacin LU. Encuentre las matrices L y U.
11. Sean A =
_
_
0 1 1
0 2 4
2 5 1
_
_
y b =
_
_
2
4
8
_
_
. Determine una matriz permutacin P, as como
los factores L y U tales que PA = LU. Usando las matrices P, L y U resuelva el sistema
Ax = b.
12. Determine todos los valores de para los cuales A =
_
_
2 0
1 1
0 1
_
_
tiene una factorizacin
LU.
13. Sea A =
_
_
3 1 1
6 0 5
21 11 6
_
_
.
a) Calcule la factorizacin LU de A.
42 1. Sistemas de ecuaciones lineales
b) Use la factorizacin LU para resolver los sistemas Ax = b
1
y Ax = b
2
, donde b
1
=
(13, 17, 84)
T
y b
2
= (2, 11, 5)
T
.
c) Usando la factorizacin LU de A calcule la inversa de A.
d) Encuentre una factorizacin LDU de A.
14. Sea A = LU la factorizacin LU de la matriz invertible A. Encuentre L si se utilizaron las
siguientes operaciones para obtener U.
a) R
21
(2), R
31
(5), R
32
(8).
b) R
31
(1/3), R
41
(2/3), R
42
(1/2) y R
43
(1/2).
15. Sea A = LU la factorizacin LU de la matriz invertible A. Para cada una de las matrices L
a continuacin, determine las operaciones elementales que se usaron para obtener la matriz
U:
_
_
_
_
1 0 0 0
5 1 0 0
2/3 5 1 0
9 4 3 1
_
_
_
_
,
_
_
1 0 0
2 1 0
8 1 1
_
_
,
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
1 3 1 0 0
4 0 1 1 0
1 2 0 1 1
_
_
_
_
_
_
.
CAPTULO 2
Determinantes
El estudio de la teora de determinantes es importante por derecho propio. Sin embargo, en
este captulo desarrollaremos nicamente la herramienta necesaria para aplicarla a la solucin
de sistemas de ecuaciones lineales. Esto se har en las primeras tres secciones.
En la ltima seccin se aplicar la teora de los determinantes para probar la Regla de Cramer
que proporciona un mtodo para resolver sistemas de ecuaciones lineales de n ecuaciones con n
incgnitas, cuya matriz de coecientes tiene determinante distinto de cero. El uso de esta regla
es principalmente de corte terico, pero no por ello menos importante.
El captulo termina con una aplicacin de los determinantes al clculo de reas y volmenes.
2.1. Existencia de una funcin determinante
Dada una matriz A, A
j
denota la columna j de A.
Denicin 2.1.1. Sea K un campo. Una funcin D : K
nn
K es una funcin determinante
si satisface las siguientes propiedades:
1. Si A, B y C son matrices de n n tales que para algn entero r, 1 r n, se tiene:
C
r
= A
r
+B
r
,
C
j
= A
j
= B
j
, j ,= r,
entonces D(C) = D(A) +D(B) .
2. Si A y B son matrices de n n tales que para algn entero r, 1 r n, se tiene:
B
r
= cA
r
, (c K),
B
j
= A
j
, j ,= r,
entonces D(B) = cD(A) .
3. Si A tiene dos columnas adyacentes iguales, entonces D(A) = 0.
4. D(I) = 1, donde I es la matriz identidad de n n.
43
44 2. Determinantes
Ejemplo 2.1.2. Sea D: Q
33
Q una funcin determinante. De acuerdo a la denicin se
tiene que
D
_
_
3 8 3
2 5 12
7 11 27
_
_
= 3D
_
_
3 8 1
2 5 4
7 11 9
_
_
,
ya que la matriz del lado izquierdo se obtiene de la matriz del lado derecho multiplicando su
tercera columna por 3. De acuerdo con la denicin tambin se tiene que
D
_
_
a +a
t
b c
d +d
t
e f
g +g
t
h i
_
_
= D
_
_
a b c
d e f
g h i
_
_
+D
_
_
a
t
b c
d
t
e f
g
t
h i
_
_
.
Sea D una funcin determinante. Las primeras dos propiedades de la denicin dicen que
D es una funcin n-lineal, es decir, D es una funcin lineal de la j-sima columna cuando las
otras n 1 columnas se quedan jas. Ms precisamente, para una matriz A = [A
1
[ . . . [ A
n
],
escribamos D(A) = D(A
1
[ . . . [ A
n
). Entonces para cada j, 1 j n, la funcin T
j
: K
n
K
denida por
T
j
(x) = D(A
1
[ . . . [ x [ . . . [ A
n
),
donde x aparece en la j-sima posicin, es una funcin lineal, es decir T
j
(x
1
+ x
2
) = T
j
(x
1
) +
T
j
(x
2
) y T
j
(cx) = cT
j
(x) para cualesquiera x
1
, x
2
K
n
y cualquier escalar c K.
Para jar las ideas veamos un ejemplo concreto.
Ejemplo 2.1.3. Denamos la funcin D: R
33
R como sigue:
D
__
a11 a12 a13
a21 a22 a23
a31 a32 a33
__
= 3a
21
a
32
a
13
.
Sea A arbitraria. La funcin T
1
: R
3
R est dada por
T
1
_
x1
x2
x3
_
= D
__
x1 a12 a13
x2 a22 a23
x3 a32 a33
__
= 3x
2
a
32
a
13
= 3a
32
a
13
x
2
.
Anlogamente, T
2
(x) = 3a
21
x
3
a
13
y T
3
(x) = 3a
21
a
32
x
1
. Claramente las funciones T
1
, T
2
y T
3
son lineales. Por ejemplo para T
1
se tiene
T
1
(x +y) = D(x +y [ A
2
[ A
3
), T
1
(cx) = D(cx [ A
2
[ A
3
)
= 3a
32
a
13
(x
2
+y
2
), = 3a
32
a
13
(cx
2
)
= 3a
32
a
13
x
2
+ 3a
32
a
13
y
2
, = c(3a
32
a
13
x
2
)
= D(x [ A
2
[ A
3
) +D(y [ A
2
[ A
3
), = cD(x [ A
2
[ A
3
)
= T
1
(x) +T
1
(y), = cT
1
(x).
Esto muestra que la funcin D es 3-lineal, es decir, satisface las primeras dos condiciones de la
Denicin 2.1.1. Sin embargo, esta funcin no es una funcin determinante, ya que por ejemplo
D(I) = 0.
El siguiente resultado muestra que existen funciones determinante.
Teorema 2.1.4. Para cada campo K existe exactamente una funcin determinante det :
K
22
K.
2.1. Existencia de una funcin determinante 45
Demostracin. La prueba se da en dos partes: existencia y unicidad. Para probar la existencia
denamos det
_
a b
c d
_
= adbc. Para mostrar que se cumple la primera condicin de la denicin
sean A =
_
a b
c d
_
, B =
_
a

b
c

d
_
y C =
_
a+a

b
c+c

d
_
. Entonces:
det(C) = (a +a
t
)d b(c +c
t
) = ad bc +a
t
d bc
t
= det(A) + det(B).
La prueba es anloga si A =
_
a b
c d
_
, B =
_
a b

c d

_
y C =
_
a b+b

c d+d

_
. Si ahora A =
_
a b
c d
_
y
B =
_
ka b
kc d
_
, entonces:
det(B) = (ka)d b(kc) = k(ad bc) = k det(A).
Se deja al lector demostrar las otras dos condiciones de la denicin.
Para probar la unicidad supongamos que hay otra funcin determinante, es decir supongamos
que hay una funcin D : K
22
K que satisface la denicin para ser una funcin determinante.
Como A =
_
a b
c d
_
, podemos escribir (
a
c
) = a (
1
0
) +c (
0
1
) = ae
1
+ce
2
y
_
b
d
_
= be
1
+de
2
, de modo
que:
D(A) = D(ae
1
+ce
2
[ A
2
)
= D(ae
1
[ A
2
) +D(ce
2
[ A
2
)
= aD(e
1
[ A
2
) +cD(e
2
[ A
2
)
= aD(e
1
[ be
1
+de
2
) +cD(e
2
[ be
1
+de
2
)
= ad +bcD(e
2
[ e
1
).
Como 0 = D(e
1
+ e
2
[ e
1
+ e
2
) = D(e
1
[ e
2
) + D(e
2
[ e
1
) = 1 + D(e
2
[ e
1
), se tiene que
D(e
2
[ e
1
) = 1 y por lo tanto D(A) = det(A).
Ms adelante demostraremos que para cada entero positivo n siempre existe exactamente
una funcin determinante det : K
nn
K.
Para el siguiente resultado es til el concepto de submatriz. Si A es una matriz de n n, y
r y s son enteros entre 1 y n, se denota con A
rs
a la matriz de tamao (n 1) (n 1) que
se obtiene de A suprimiendo el rengln r y la columna s. Por ejemplo, si A =
_
_
_
_
1 1 3 2
3 5 7 2
1 2 9 8
4 0 2 2
_
_
_
_
,
entonces A
23
=
_
_
1 1 2
1 2 8
4 0 2
_
_
.
Teorema 2.1.5 (Desarrollo por cofactores). Sea n Z, n > 1. Si det: K
(n1)(n1)
K es
una funcin determinante, entonces para cada entero s (1 s n), la funcin D
s
: K
nn
K
dada por:
D
s
(A) =
n

j=1
(1)
s+j
a
sj
det (A
sj
) ,
es una funcin determinante. (El nmero (1)
s+j
det(A
sj
) se llama cofactor asociado al ele-
mento a
sj
).
Demostracin. Sea s 1, 2, . . . , n. Sean A = (a
ij
), B = (b
ij
) y C = (c
ij
) matrices de n n
tales que para algn r 1, 2, . . . , n, c
ir
= a
ir
+ b
ir
y c
ij
= a
ij
= b
ij
para j ,= r, 1 i n.
Analicemos las submatrices C
sj
, A
sj
y B
sj
. Note que C
sr
= A
sr
= B
sr
.
Si j < r, entonces la columna r 1 de la submatriz C
sj
es la suma de las columnas r 1 de las
46 2. Determinantes
submatrices A
sj
y B
sj
. Si j > r, entonces la columna r de C
sj
es la suma de las columnas r de
A
sj
y B
sj
. En cualquier caso tenemos que det(C
sj
) = det(A
sj
) + det(B
sj
). Luego:
Ds(C) = (1)
s+r
csr det(Csr) +

j=r
(1)
s+j
csj det(Csj)
= (1)
s+r
(asr + bsr) det(Csr) +

j=r
(1)
s+j
csj(det(Asj) + det(Bsj))
= (1)
s+r
asr det(Csr) + (1)
s+r
bsr det(Csr) +

j=r
(1)
s+j
csj det(Asj) +
+

j=r
(1)
s+j
csj det(Bsj)
= (1)
s+r
asr det(Asr) +

j=r
(1)
s+j
asj det(Asj) + (1)
s+r
bsr det(Bsr) +
+

j=r
(1)
s+j
bsj det(Bsj)
= Ds(A) + Ds(B).
Supongamos ahora que B
r
= cA
r
con c K y B
j
= A
j
para j ,= r. Si j < r, entonces la
columna r 1 de la submatriz B
sj
es c veces la columna r 1 de la submatriz A
sj
. Si j > r,
entonces la columna r de la submatriz B
sj
es c la columna r de la submatriz A
sj
de A. En
cualquier caso se tiene que det(B
sj
) = c det A
sj
. Por lo tanto,
D
s
(B) = (1)
s+r
b
sr
det(B
sr
) +

j,=r
(1)
s+j
b
sj
det(B
sj
)
= (1)
s+r
ca
sr
det(A
sr
) +

j,=r
(1)
s+j
ca
sj
det(A
sj
)
= c
_
_
n

j=1
(1)
s+j
a
sj
det(A
sj
)
_
_
= cD
s
(A).
A continuacin se prueba que D
s
(I) = 1. Recordemos que I = (
ij
), donde
ij
es la delta de
Kronecker. Note que I
ss
es la matriz identidad de tamao (n 1) (n 1). Dado que
sj
= 0
si s ,= j y
ss
= 1, obtenemos
D
s
(I) =
n

j=1
(1)
s+j

sj
det(I
sj
) = (1)
s+s
1 det(I
ss
) = 1.
Esto muestra que la funcin D
s
satisface las condiciones 1,2 y 4 de la Denicin 2.1.1. Se
deja de ejercicio al lector completar la demostracin.
Teorema 2.1.6 (Existencia de una funcin determinante). Sea K un campo. Para cada entero
positivo n, existe una funcin determinante D : K
nn
K.
Demostracin. La prueba la haremos por induccin en n. Si n = 1, es fcil vericar que la funcin
K
11
K dada por [a] a es una funcin determinante. Supongamos que la armacin es
vlida para algn entero r > 1, es decir, supongamos que existe una funcin determinante
det : K
rr
K. Entonces por el Teorema 2.1.5, la funcin K
(r+1)(r+1)
K dada por
A

r+1
j=1
(1)
1+j
a
1j
det(A
1j
) es una funcin determinante.
2.1. Existencia de una funcin determinante 47
Ejemplo 2.1.7. Usando la frmula del Teorema 2.1.5, halle D
1
(A) si A =
_
_
2 1 3
1 0 2
4 1 1
_
_
.
Tenemos que:
D
1
(A) = (2) det
_
0 2
1 1
_
(1) det
_
1 2
4 1
_
+ (3) det
_
1 0
4 1
_
= (2)(2) 1(9) + 3(1) = 16,
donde det
_
a b
c d
_
= ad bc segn la demostracin del Teorema 2.1.4.
2.1.1. Ejercicios
1. Sean A
1
y A
2
las columnas de la matriz A = [A
1
[ A
2
] K
22
. Demuestre que:
a) Si K, entonces det(A
1
+A
2
[ A
2
) = det(A
1
[ A
2
+A
1
) = det(A
1
[ A
2
).
b) det(A
1
[ A
2
) = det(A
2
[ A
1
).
c) det(A) = det(A
T
).
2. Pruebe que det(AB) = det(A) det(B), para cualesquiera A, B K
22
.
3. Pruebe que A K
22
es invertible si y solamente si det(A) ,= 0.
4. Pruebe que si A K
22
es invertible, entonces det(A
1
) = det(A)
1
.
5. Pruebe que si A =
_
a b
c d
_
K
22
es invertible, entonces
A
1
=
1
det(A)
_
d b
c a
_
.
6. Sea A K
22
. Pruebe que det(I A) =
2
tr(A)+det(A), donde I es la matriz identidad
de 2 2 y K. (Nota. La traza de A es la suma de los elementos de la diagonal principal
de A y se denota por tr A).
7. Sea A K
22
. Determine la condicin o condiciones que debe cumplir K para que I A
sea una matriz singular.
8. Considere la matriz real A =
_
1 5
5 1
_
. Encuentre todos los valores de tales que I A
es singular. Para cada , encuentre todas las x tales Ax = x.
9. Sea A K
22
tal que A
2
= 0. Demuestre que det(I A) =
2
para todo K.
10. Sea A K
22
. Demuestre que det(I + A) = 1 + det(A) si y slo si tr(A) = 0, donde I es la
matriz identidad 2 2.
11. Sea A R
22
. Pruebe que det(A
T
A) 0. Pruebe que det(A
T
A) > 0 si y solamente si
rango(A) = 2.
12. Complete la demostracin del Teorema 2.1.5.
48 2. Determinantes
2.2. Permutaciones
Para estudiar las propiedades de los determinantes es necesario conocer algunas de las pro-
piedades de las permutaciones.
Una permutacin de un conjunto A, es una funcin biyectiva : A A. La permutacin
identidad es la funcin identidad en A denida por 1
A
(a) = a para toda a A. La composicin de
funciones es una operacin binaria en S
A
, es decir, S
A
para cualesquier , S
A
. La inversa
de una permutacin es nuevamente una permutacin. De hecho, S
A
junto con composicin de
funciones es un grupo. A la composicin de permutaciones, la llamaremos multiplicacin de
permutaciones.
Si A es el conjunto nito A = 1, 2, . . . , n, y es una permutacin de los elementos de A, i.e.
S
A
, escribimos =
_
1 2 . . . n
(1) (2) . . . (n)
_
. Por ejemplo, n = 5 y =
_
1 2 3 4 5
3 5 2 4 1
_
,
entonces (1) = 3, (2) = 5, (3) = 2, (4) = 4 y (5) = 1.
Ilustremos la multiplicacin de permutaciones. Para ilustrar esto, supongamos que A =
1, 2, 3, 4, 5, =
_
1 2 3 4 5
4 2 5 3 1
_
y =
_
1 2 3 4 5
3 5 4 2 1
_
. Entonces:
=
_
1 2 3 4 5
3 5 4 2 1
__
1 2 3 4 5
4 2 5 3 1
_
=
_
1 2 3 4 5
2 5 1 4 3
_
.
Si A es el conjunto nito 1, 2, . . . , n, escribimos S
n
en vez de S
A
. Note que S
n
tiene n!
elementos, donde n! = n(n 1)(n 2) 3(2)(1). En particular:
S
2
=
__
1 2
1 2
_
,
_
1 2
2 1
__
,
S
3
=
__
1 2 3
1 2 3
_
,
_
1 2 3
1 3 2
_
,
_
1 2 3
2 1 3
_
,
_
1 2 3
2 3 1
_
,
_
1 2 3
3 1 2
_
,
_
1 2 3
3 2 1
__
.
Una permutacin de un conjunto A es un ciclo de longitud r o un r-ciclo si existen a
1
,
a
2
, . . . , a
r
A tales que:
(a
1
) = a
2
, (a
2
) = a
3
, . . . (a
r1
) = a
r
, (a
r
) = a
1
,
y (x) = x para todo x A tal que x , a
1
, a
2
, . . . , a
r
. Si es un r-ciclo, escribimos:
= (a
1
, a
2
, . . . , a
r
).
Al usar la notacin cclica anterior, el conjunto A debe estar claramente ubicado en el contexto.
Por ejemplo, si A = 1, 2, 3, 4, 5, entonces:
(1, 3, 5, 4) =
_
1 2 3 4 5
3 2 5 1 4
_
.
Observe que (1, 3, 5, 4) = (3, 5, 4, 1) = (5, 4, 1, 3) = (4, 1, 3, 5).
Observe que un ciclo de longitud 1 es la permutacin identidad.
Si = (a
1
, a
2
, . . . , a
r
) es un r-ciclo, entonces el inverso de r es un r-ciclo. Dado que
a
1

a
2



a
r1

a
r

a
1
se tiene que
a
1

1
a
2

1


1
a
r1

1
a
r

1
a
1
2.2. Permutaciones 49
As
1
= (a
1
, a
r
, a
r1
, . . . , a
2
). La prueba formal es sencilla. Si x / a
1
, . . . , a
r
, entonces
(x) = x y por lo tanto x =
1
(x). Por otro lado, (a
i
) = a
i+1
, 1 i < r y (a
r
) = a
1
,
de donde
1
(a
i+1
) = a
i
, 1 i < r y
1
(a
1
) = a
r
. Tomando b
1
= a
1
y b
i
= a
r+2i
para
i = 2, . . . , r se tiene que
1
(b
i
) = b
i+1
, 1 i < r y
1
(b
r
) = b
1
.
Puesto que los ciclos son tipos particulares de permutaciones, pueden multiplicarse como
cualesquiera dos permutaciones. Sin embargo, el producto de dos ciclos no necesariamente es un
ciclo. Por ejemplo, consideremos los ciclos (1, 4, 5, 6) y (2, 1, 5) en S
6
. Entonces:
(2, 1, 5)(1, 4, 5, 6) =
_
1 2 3 4 5 6
4 1 3 2 6 5
_
y
(1, 4, 5, 6)(2, 1, 5) =
_
1 2 3 4 5 6
6 4 3 5 2 1
_
,
y ninguna de estas dos permutaciones es un ciclo.
Diremos que dos ciclos = (a
1
, . . . , a
r
) y = (b
1
, . . . , b
s
) son ajenos si los conjuntos
a
1
, . . . , a
r
y b
1
, . . . , b
s
son ajenos, es decir, si a
1
, . . . , a
r
b
1
, . . . , b
s
= .
Es fcil vericar (se deja de ejercicio al lector) que el producto de ciclos ajenos es conmutativo.
Demostraremos que cualquier permutacin de un conjunto nito es producto de ciclos aje-
nos. La demostracin ser constructiva. Ilustremos la tcnica con un ejemplo. Consideremos la
permutacin
_
1 2 3 4 5 6
6 5 2 4 3 1
_
. En primer lugar, el 1 se mueve al 6 y el 6 al 1, produciendo
el ciclo (1, 6). A continuacin el 2 se mueve al 5, que a su vez se mueve al 3, el cual se mueve
al 2, produciendo el ciclo (2, 5, 3). Esto abarca todos los elementos excepto el 4, que permanece
jo. As:
_
1 2 3 4 5 6
6 5 2 4 3 1
_
= (1, 6)(2, 5, 3).
Es claro que la multiplicacin de ciclos ajenos es conmutativa, as que no es importante el
orden de los factores (1, 6) y (2, 5, 3).
Teorema 2.2.1. Cada permutacin de un conjunto nito A es producto de ciclos ajenos.
Demostracin. No se pierde generalidad al suponer que A = 1, 2, . . . , n. Sea S
n
y dena-
mos en A la siguiente relacin a b si y slo si existe un entero k tal que
k
(a) = b. Es fcil
vericar que esta es una relacin de equivalencia en A. La clase de equivalencia de a A es
o(a) =
k
(a) [ k = 0, 1, 2, . . . , = a, (a),
2
(a), . . . ,
y recibe el nombre de rbita de a. Note que cada rbita genera de manera natural un ciclo:
(a, (a),
2
(a), . . . , ).
Sean o(a
1
), . . . , o(a
m
) las distintas rbitas de , o(a
j
) = a
j
, (a
j
), . . . , . Para cada j (1
j m) sea c
j
el ciclo inducido por la rbita o(a
j
). Veamos que = c
1
c
2
c
m
. Sea a A =
o(a
i
) y supongamos que a o(a
j
). Luego a =
s
(a
j
) para algn s 0. Por un lado se tiene
que (a) = (a
j
) = (
s
(a
j
)) =
s+1
(a
j
). Por otro lado, dado que los ciclos c
1
, . . . , c
m
son
ajenos, c
i
(a) = a si i ,= j y c
j
(a) = c
j
(
s
(a
j
)) = (
s
(a
j
)) =
s+1
(a
j
). Esto concluye la prueba.
Ser posible convencerse fcilmente de que la representacin de una permutacin como pro-
ducto de ciclos ajenos, ninguno de los cuales es la permutacin identidad, es nica, salvo el orden
de los factores.
Diremos que un ciclo de longitud 2 es una transposicin. Es decir, una transposicin es
una permutacin que mueve nicamente dos elementos y deja jos a los dems. Observe que la
inversa de una transposicin es ella misma.
50 2. Determinantes
Supongamos que (a) = r y (b) = s. Si es transposicin que intercambia r y s, = (r, s),
entonces y dieren nicamente en las posiciones a y b. De hecho, (x) = (x) si x / a, b
y ()(a) = s y ()(b) = r. Veamos un ejemplo.
=
_
1 2 3 4 5 6
1 6 3 4 5 2
__
1 2 3 4 5 6
4 5 2 3 6 1
_
=
_
1 2 3 4 5 6
4 5 6 3 2 1
_
.
Observemos que

1=(1,4)

1
2=(2,5)

2
3=(3,5)

3
4=(4,5)

4
5=(5,6)
1
Es decir,
5

1
= 1, de donde =
1
1

1
2

1
3

1
4

1
5
, y queda escrito como un producto
de transposiciones.
Cualquier ciclo se puede escribir como un producto de ciclos de longitud 2, es decir, de
transposiciones. Un clculo muestra que:
(a
1
, a
2
, a
3
, . . . , a
n1
, a
n
) = (a
1
, a
n
)(a
1
, a
n1
) (a
1
, a
3
)(a
1
, a
2
).
Tenemos entonces el siguiente corolario al teorema anterior.
Corolario 2.2.2. Cualquier permutacin de un conjunto nito de al menos dos elementos es
un producto de transposiciones.
Las transposiciones pueden no ser ajenas y no es nica esta representacin de la permuta-
cin. Por ejemplo, siempre es posible insertar al principio la transposicin (a, b) dos veces, pues
(a, b)(a, b) es la permutacin identidad. Lo cierto es que el nmero de transposiciones que se
usan para representar una permutacin dada, debe ser siempre par o siempre impar. Este es un
hecho importante y lo demostraremos a continuacin.
Teorema 2.2.3. Ninguna permutacin de un conjunto nito puede expresarse como un producto
de un nmero par de transposiciones y como un producto de un nmero impar de transposiciones.
Demostracin. No se pierde generalidad al considerar el conjunto A = 1, 2, . . . , n y suponer
que n 2, de manera que existan las transposiciones. Por simplicidad, en esta prueba utilizare-
mos la letra griega en vez de 1
A
para denotar a la permutacin identidad. Estudiemos primero
el caso especial de la permutacin identidad. Desde luego, puede expresarse como un producto
de un nmero par de transposiciones, digamos = (1, 2)(1, 2). Debemos mostrar que si:
=
1

2

k
, (2.1)
donde cada
i
es una transposicin, entonces k debe ser par. Sea m cualquier entero que aparezca
en alguna de las transposiciones en la ecuacin (2.1) y sea
j
la primera transposicin, contando
de izquierda a derecha, en la cual aparece m. No podemos tener j = k pues, de ser as, no
hubiera dejado jo a m. Ahora bien,
j

j+1
debe tener la forma de alguno de los lados izquierdos
de las siguientes identidades fciles de vericar:
(m, x)(m, x) = , (2.2)
(m, x)(m, y) = (x, y)(m, x),
(m, x)(y, z) = (y, z)(m, x),
(m, x)(x, y) = (x, y)(m, y).
Si sustituimos la identidad correcta en la ecuacin (2.2), en lugar de
j

j+1
en la ecua-
cin (2.1), sucede que reducimos en 2 el nmero k de transposiciones o trasladamos la primera
2.2. Permutaciones 51
aparacin de m un lugar a la derecha. Repetimos este procedimiento hasta eliminar m de la
expresin de la ecuacin (2.1); hay que recordar que m no puede aparecer por primera vez en la
transposicin nal, as que en algn momento debe aparecer la situacin de la primera identidad
en la ecuacin (2.2) para eliminar a m por completo. A continuacin elegimos otro entero en
A que aparece en la ecuacin (2.1) reducida y lo eliminamos de la ecuacin (2.1) mediante un
proceso similar y continuamos hasta que el lado derecho de la ecuacin (2.1) se reduzca a la
sucesin . Como al sustituir una identidad de la ecuacin (2.2) el nmero k permanece
igual o se reduce en 2, vemos que k debe haber sido par.
Es fcil demostrar el teorema partiendo del caso especial para . Supngase que:
=
1

2

r
=
t
1

t
2

t
r
.
Como cada transposicin es su propia inversa (prubese), obtenemos:
=
1
=
1

2

r
(
t
1

t
2

t
s
)
1
=
1

2

r

t
s

t
2

t
1
.
Se sigue entonces que r + s es un nmero par, de modo que r y s son ambos nmeros pares o
ambos son nmeros impares.
Una permutacin S
n
se dice que es una permutacin par si puede expresarse como el
producto de un nmero par de transposiciones. Se dice que la permutacin es impar si no es
una permutacin par, o equivalentemente, si puede expresarse como el producto de un nmero
impar de transposiciones.
A cada permutacin se le asigna un signo de la siguiente manera:
() =
_
+1 si es par,
1 si es impar.
Corolario 2.2.4. 1. El producto de dos permutaciones pares es par.
2. El producto de dos permutaciones impares es par.
3. El producto de una permutacin par y una impar es impar.
4. La paridad de una permutacin y su inversa es la misma.
Demostracin. Se deja de ejercicio
2.2.1. Ejercicios
1. Demuestre que para toda , S
n
, () = ()().
2. Demuestre que la funcin F : S
n
S
n
dada por F() =
1
es biyectiva.
3. Sea = (3, 8) S
9
. Exprese como un producto de transposiciones del tipo (i, i +1). Repita
lo anterior para la transposicin (r, s) con r < s.
4. Sea n > 1 y sea S
n
una transposicin. Pruebe que si S
n
es impar, entonces es
par.
5. Sea n un entero mayor que uno. Pruebe que los conjuntos T = S
n
[ () = 1 e
J = S
n
[ () = 1 tienen la misma cardinalidad. Concluya que [T[ = n!/2. Es
relevante la hiptesis n > 1?
6. Se dice que una permutacin S
n
tiene orden m > 0 si
m
= 1 y
t
,= 1 para 0 < t < m.
Pruebe que el orden de un r-ciclo es r.
52 2. Determinantes
7. Considere las siguientes permutaciones
_
1 2 3 4 5 6
3 6 5 2 1 4
_
,
_
1 2 3 4 5 6 7 8
8 4 1 2 3 6 5 7
_
,
_
1 2 3 4 5 6 7
3 4 1 2 7 5 6
_
.
a) Encuentre las rbitas de cada una de las permutaciones dadas.
b) Escriba cada permutacin como un producto de ciclos ajenos.
c) Escriba cada permutacin como un producto de transposiciones.
d) Encuentre el signo de cada permutacin.
8. a) Considere la siguiente tcnica para escribir una permutacin como un producto de
transposiciones. Sea =
_
1 2 3 4
2 3 4 1
_
. Como (4) = 1, dena
1
= (4, 1). Enton-
ces
1
=
_
1 2 3 4
2 3 1 4
_
. De esta manera
1
deja jo 4. Se repite el proceso ahora
con
1
. Dado que (
1
)(3) = 1, sea
2
= (1, 3). Luego
2

1
=
_
1 2 3 4
2 1 3 4
_
=
3
.
Entonces =
1
1

1
2

3
=
1

3
.
b) Generalice el ejercicio anterior y pruebe que cualquier permutacin se puede escribir
como un producto de transposiciones. (Sugerencia: La prueba se hace por induccin
sobre n. En el inciso anterior, observe que
1
se puede considerar una permutacin de
S
3
).
9. Demuestre de manera ms elegante el Teorema 2.2.1; emplese un argumento por induccin
sobre el nmero de elementos movidos por .
10. Sea n 2. Demuestre que:
a) Toda permutacin en S
n
puede escribirse como un producto de a lo ms n 1 transpo-
siciones.
b) Toda permutacin impar en S
n
puede escribirse como producto de 2n+3 transposiciones
y toda permutacin par como producto de 2n + 8 transposiciones.
11. Demuestre que si es un ciclo, entonces
2
es un ciclo, siempre que la longitud de sea un
entero impar.
12. Sean A = (a
ij
) una matriz de n n y S
n
. Considere el producto a
1(1)
a
2(2)
a
n(n)
.
Demuestre que no hay dos factores de este producto que provengan del mismo rengln y/o
de la misma columna de A. En particular, si A =
_
_
1 1 2
3 5 8
4 7 2
_
_
, calcule:

Sn
()a
1(1)
a
2(2)
a
n(n)
.
2.3. Unicidad de la funcin determinante
En esta seccin mostraremos que en realidad slo existe una funcin determinante. Para ello
necesitamos estudiar las propiedades generales que posee una funcin determinante.
Teorema 2.3.1 (Propiedades de una funcin determinante). Sea det : K
nn
K una funcin
determinante cualquiera y sea A K
nn
.
2.3. Unicidad de la funcin determinante 53
1. Si B K
nn
se obtiene intercambiando dos columnas adyacentes de A, entonces det(B) =
det(A).
2. Si B K
nn
se obtiene intercambiando dos columnas de A, entonces det(B) = det(A).
3. Si A tiene dos columnas iguales, entonces det(A) = 0.
4. Si B K
nn
se obtiene de A reemplazando una columna de A por dicha columna ms un
mltiplo de una columna distinta, entonces det(A) = det(B).
Demostracin.
1. Sean A = [A
1
[ . . . [ A
n
] y B = [A
1
[ . . . [ A
j+1
[ A
j
[ . . . [ A
n
] con 1 j < n. Es decir,
B se obtuvo intercambiando las columnas j y j + 1 de A, con 1 j < n. Para simplicar la
notacin, denotaremos por c
1
, c
2
al determinante de la matriz obtenida de A al reemplazar
su j-sima columna por una matriz columna c
1
y su (j + 1)-sima columna por una matriz
columna c
2
. Entonces, det(B) = A
j+1
, A
j
y det(A) = A
j
, A
j+1
. Luego, aplicando las
propiedades de la denicin de una funcin determinante, tenemos que:
0 = A
j
+A
j+1
, A
j
+A
j+1

= A
j
, A
j
+A
j+1
+A
j+1
, A
j
+A
j+1

= A
j
, A
j
+A
j
, A
j+1
+A
j+1
, A
j
+A
j+1
, A
j+1

= 0 + det(B) + det(A) + 0,
de donde det(B) = det(A).
2. Supongamos que B se obtuvo intercambiando las columnas r y s de A, con r < s. Conside-
remos la transposicin = (r, s). Es fcil vericar que:
=
1

2

sr1

sr

sr1

2

1
,
donde
i
= (r + i 1, r + i) con 1 i s r (se deja al lector vericar esta armacin).
Observe que B = [A
(1)
[ A
(2)
[ . . . [ A
(n)
]. Aplicando el inciso anterior, tenemos que:
det(A
1(1)
[ . . . [ A
1(n)
) = (
1
) det(A
1
[ . . . [ A
n
) = (
1
) det(A),
det(A
12(1)
[ . . . [ A
12(n)
) = (
2
) det(A
1(1)
[ . . . [ A
1(n)
) = (
2
)(
1
) det(A).
Continuando de esta forma, tenemos que:
det(B) = (
1
) (
s
)(
s1
) (
1
) det(A)
= (
1

s

s1

1
) det(A)
= () det(A)
= det(A).
3. Supongamos que las columnas r y s de A son iguales. Sea =
1

2

s
, donde
i
= (r +i
1, r +i) con 1 i s r. Entonces, las columnas s 1 y s de la matriz [A
(1)
[ . . . [ A
(n)
]
son iguales, de modo que su determinante es cero. Se sigue por un argumento anlogo al del
inciso anterior que:
0 = det(A
(1)
[ . . . [ A
(n)
) = () det(A),
de donde det(A) = 0.
54 2. Determinantes
4. Supongamos que la i-sima columna de A, A
i
, se sustituye por A
i
+ cA
j
con i ,= j.
Utilizando la notacin de la prueba del inciso 1, tenemos que:
det(B) = A
i
+cA
j
, A
j
= A
i
, A
j
+cA
j
, A
j

= det(A) +cA
j
, A
j
= det(A) +c 0 = det(A).
Teorema 2.3.2 (Unicidad de la funcin determinante). Para cada entero positivo n existe
exactamente una funcin determinante det : K
nn
K.
Demostracin. Sea det : K
nn
K una funcin determinante. Sea A = (a
ij
) = [A
1
[ . . . [
A
n
] K
nn
. Notemos que cada A
j
se puede escribir como combinacin lineal de los vectores
cannicos e
1
, . . . , e
n
de K
n
. De hecho:
A
1
= a
11
e
1
+a
21
e
2
+ +a
n1
e
n
=
n

k1=1
a
k11
e
k1
,
A
2
= a
12
e
1
+a
22
e
2
+ +a
n2
e
n
=
n

k2=1
a
k22
e
k2
,
.
.
.
A
n
= a
1n
e
1
+a
2n
e
2
+ +a
nn
e
n
=
n

kn=1
a
knn
e
kn
.
Luego:
det(A
1
[ . . . [ A
n
) = det
_
n

k1=1
a
k11
e
k1
[ A
2
[ . . . [ A
n
_
=
n

k1=1
a
k11
det(e
k1
[ A
2
[ . . . [ A
n
)
.
.
.
=
n

k1=1
n

k2=1

n

kn=1
a
k11
a
k22
a
knn
det(e
k1
[ e
k2
[ . . . [ e
kn
).
Esta suma consta de n
n
sumandos a
k11
a
k22
a
kn,n
det(e
k1
[ e
k2
[ . . . [ e
kn
). Sea I
n
=
1, 2, . . . , n. Denotemos por I
In
n
al conjunto de todas las funciones : I
n
I
n
. Por cada
sumando hay una funcin : I
n
I
n
dada por (i) = k
i
; y por cada funcin : I
n
I
n
hay
un sumando:
a
(1)1
a
(2)2
a
(n)n
det(e
(1)
[ . . . [ e
(n)
).
Luego:
det(A
1
[ . . . [ A
n
) =

I
In
n
a
(1)1
a
(n)n
det(e
(1)
[ . . . [ e
(n)
).
Si : I
n
I
n
no es inyectiva, entonces existe i ,= j tal que (i) = (j). Por lo tanto,
det(e
(1)
[ . . . [ e
(n)
) = 0 ya que tiene dos columnas iguales (ver Teorema 2.3.1 inciso 3).
2.3. Unicidad de la funcin determinante 55
Entonces, podemos considerar la suma slo sobre las funciones inyectivas. Pero una funcin
: I
n
I
n
es inyectiva si y slo si es suprayectiva y por tanto es una permutacin. As:
det(A
1
[ . . . [ A
n
) =

Sn
a
(1)1
a
(2)2
a
(n)n
det(e
(1)
[ . . . [ e
(n)
).
Pero det(e
(1)
[ . . . [ e
(n)
) = () det(e
1
[ . . . [ e
n
) = () (por qu?). Por lo tanto:
det(A) =

Sn
()a
(1)1
a
(2)2
a
(n)n
.
Luego, si D es otra funcin determinante, entonces D(A) = det(A). As, la funcin determi-
nante es nica.
Teorema 2.3.3. La funcin det : K
nn
K dada por:
det(A) =

Sn
()a
(1)1
a
(2)2
a
(n)n
,
satisface que det(A) = det(A
T
) para toda (a
ij
) = A K
nn
, es decir:

Sn
()a
(1)1
a
(2)2
a
(n)n
=

Sn
()a
1(1)
a
2(2)
a
n(n)
.
Demostracin. Sean A = (a
ij
) y B = A
T
= (b
ij
) , donde b
ij
= a
ji
. Por denicin tenemos:
det (A) =

Sn
() a
(1)1
a
(n)n
y det (B) =

Sn
() b
(1)1
b
(n)n
.
Demostraremos que el conjunto =
_
() a
1(1)
a
n(n)
[ S
n
_
es igual al conjunto =
_
() a
(1)1
a
(n)n
[ S
n
_
. En efecto, si x , entonces x = () a
1(1)
a
n(n)
para
algn =
_
1 2 ... n
(1) (2) ... (n)
_
S
n
. Supongamos que (i) = j
i
para cada i = 1, 2, . . . , n. Entonces
i =
1
(j
i
), y por lo tanto a
i(i)
= a
iji
= a

1
(ji)ji
. En consecuencia:
x = () a
1(1)
a
n(n)
= () a

1
(j1)j1
a

1
(jn)jn
=
_

1
_
a

1
(1)1
. . . a

1
(n)n
,
ya que () = (
1
) y los nmeros j
1
, j
2
, . . . , j
n
son los nmeros 1, 2, . . . , n en algn orden.
Luego, x y por lo tanto .
De manera anloga se demuestra que . Por lo tanto, = y det(A) = det(B) =
det(A
T
).
Corolario 2.3.4. La funcin det : K
nn
K denida por:
det (A) =

Sn
() a
1(1)
a
n(n)
es la nica funcin determinante.
Demostracin. Se sigue del teorema anterior.
En ocasiones el determinante de una matriz se dene por la frmula dada en el Corolario
2.3.4. Esta frmula aunque importante tericamente, no es prctica para el clculo del deter-
minante de una matriz. Para el clculo del determinante de una matriz es preferible usar las
propiedades del determinante o el desarrollo por cofactores (vea el Corolario 2.3.12).
56 2. Determinantes
Corolario 2.3.5. Si B es la matriz que se obtiene como resultado de aplicar a A K
nn
una
operacin elemental de rengln o de columna, entonces:
det (B) =
_
_
_
det (A) para operaciones elementales de tipo I
det (A) para operaciones elementales de tipo II
det (A) para operaciones elementales de tipo III
Demostracin. Se sigue de las propiedades de la funcin determinante.
Corolario 2.3.6.
1. Si E es una matriz elemental, entonces:
det (E) =
_
_
_
1 para operaciones elementales de tipo I
para operaciones elementales de tipo II
1 para operaciones elementales de tipo III
2. Si E es una matriz elemental, entonces det (E) ,= 0.
3. Si E es una matriz elemental, entonces det (EA) = det (E) det (A) .
4. Si E
1
, . . . , E
k
son matrices elementales y A K
nn
, entonces:
det (E
1
E
k
A) = det (E
1
) det (E
k
) det (A) .
Demostracin. El inciso 1 se sigue del corolario anterior, haciendo B = E y A = I, y de que
det(I) = 1. El inciso 2 se sigue del inciso 1. El inciso 3 se deja de ejercicio al lector. El inciso 4
se sigue por induccin en k usando el inciso 3.
Teorema 2.3.7. Si M =
_
A C
0 B
_
de tamao n n, es una matriz triangular superior con
bloques diagonales A y B de tamaos r r y s s respectivamente, con r + s = n, entonces
det M = (det A)(det B).
Demostracin. Sean A = (a
ij
), B = (b
ij
) y M = (m
ij
). Tenemos que:
det M =

Sn
()m
1(1)
m
2(2)
m
n(n)
.
Si i > r y j r, entonces m
ij
= 0, de modo que slo es necesario considerar aquellas permuta-
ciones tales que:
r + 1, r + 2, . . . , r +s = r + 1, r + 2, . . . , r +s y 1, 2, . . . , r = 1, 2, . . . , r.
Sean
1
(k) = (k) para k r y
2
(k) = (r +k) r para k s. Entonces:
()m
1(1)
m
2(2)
m
n(n)
= (
1
)a
11(1)
a
21(2)
a
r1(r)
(
2
)b
12(1)
b
22(2)
b
s2(s)
y esto implica que det M = (det A)(det B).
Teorema 2.3.8. Si A K
nn
es una matriz triangular superior (inferior), entonces:
det (A) = a
11
a
nn
.
En particular, det (I) = 1, donde I es la matriz identidad de n n.
2.3. Unicidad de la funcin determinante 57
Demostracin. Supongamos que A es una matriz triangular superior, es decir, a
ij
= 0 si i > j.
Entonces:
det (A) =

Sn
() a
1(1)
a
n(n)
= a
11
a
nn
+

Sn,,=1
() a
1(1)
a
n(n)
.
Si S
n
con ,= 1, entonces existe m 1, 2, . . . , n tal que m > (m). En efecto, si
m (m) para toda m 1, 2, . . . , n, entonces n (n) y por lo tanto (n) = n. Tambin
n 1 (n 1) de donde (n 1) = n 1 o n, de donde (n 1) = n 1. Continuado
de esa manera se concluye que = 1 lo cual contradice la eleccin de . Por lo tanto, existe
m 1, 2, . . . , n tal que m > (m) y a
m(m)
= 0. Luego, () a
1(1)
a
n(n)
= 0 para cada
S
n
, ,= 1, de donde det(A) = a
11
a
nn
. La prueba cuando A es una matriz triangular
inferior es anloga.
Ejemplo 2.3.9. Sea det Q
33
Q la nica funcin determinante. Entonces
det
_
_
1 1 1
1 1 8
1 1 1
_
_
R21(1)
=
_
_
1 1 1
0 0 9
1 1 1
_
_
R31(1)
=
_
_
1 1 1
0 0 9
0 0 2
_
_
= 0.
La ltima igualdad porque el determinante de una matriz triangular superior es el producto de
los elementos en la diagonal principal.
Corolario 2.3.10.
1. Una matriz A K
nn
es no singular si y slo si det (A) ,= 0.
2. Una matriz A K
nn
es singular si y slo si det (A) = 0.
Demostracin. 1. Si A es invertible, existen matrices elementales E
1
, . . . , E
k
tales que A =
E
k
E
1
. Entonces:
det (A) = det (E
k
) det (E
1
) ,= 0.
Recprocamente, supngase que det (A) ,= 0. Sean E
1
, . . . , E
k
matrices elementales tales que
A = E
k
E
1
E, donde E es la forma escalonada reducida de A. De la relacin det(A) =
det(E
k
E
1
E) = det(E
k
) det(E
1
) det(E) se deduce que det (E) ,= 0. Como E es una matriz
triangular superior y det(E) ,= 0, el Teorema 2.3.8 implica que cada elemento de la diagonal de
E es distinto de cero, y por lo tanto E = I. As, A es un producto de matrices invertibles y por
lo tanto es invertible. El inciso 2 es equivalente al inciso 1.
Ejemplo 2.3.11. Las matrices del Ejemplo 2.3.9 no son invertibles pues todas tienen determi-
nante cero.
Corolario 2.3.12. Si A K
nn
y det : K
nn
K es la nica funcin determinante, entonces:
det(A) =

Sn
() a
1(1)
a
n(n)
=
n

j=1
(1)
s+j
a
sj
det(A
sj
)
para cada entero s tal que 1 s n.
Demostracin. De acuerdo con los Teoremas 2.3.2 y 2.3.4 tenemos que la funcin det : K
nn

K denida por:
det(A) =

Sn
() a
1(1)
a
n(n)
,
58 2. Determinantes
es la nica funcin determinante.
Por otra parte, segn el Teorema 2.1.5 tenemos que la funcin D
s
: K
nn
K dada por:
D
s
(A) =
n

j=1
(1)
s+j
a
sj
det(A
sj
),
con 1 s n, es una funcin determinante. Por lo tanto, D
s
(A) = det(A), es decir:
det(A) =

Sn
() a
1(1)
a
n(n)
=
n

j=1
(1)
s+j
a
sj
det(A
sj
)
para todo entero s tal que 1 s n.
Ejemplo 2.3.13. Evale el determinante de la matriz A =
_
_
1 3 2
0 1 2
2 1 0
_
_
usando cofactores.
det(A) =
3

j=1
(1)
2+j
a
2j
det(A
2j
)
= (1)
2+1
0

3 2
1 0

+ (1)
2+2
(1)

1 2
2 0

+ (1)
2+3
(2)

1 3
2 1

= 4 10 = 6.
Teorema 2.3.14. Si A, B K
nn
, entonces det (AB) = det (A) det (B) .
Demostracin. La prueba se divide en dos casos.
1. Si A es no singular, entonces A es un producto de matrices elementales, digamos A = E
1
E
k
.
Entonces AB = E
1
E
k
B y por lo tanto:
det (AB) = det (E
1
E
k
B) = det (E
1
) det (E
k
) det (B)
= det (E
1
E
k
) det (B) = det (A) det (B) .
2. Si A es singular, entonces AB tambin lo es. En efecto, si AB no fuera singular, entonces
existira C tal que (AB) C = I y por lo tanto A(BC) = I y A sera no singular. Luego,
det (AB) = 0 = 0 det (B) = det (A) det (B).
Corolario 2.3.15. Si A es no singular, entonces det
_
A
1
_
= det (A)
1
.
Demostracin. Si A es no singular y A
1
es su inversa, entonces AA
1
= I, y por el teorema
anterior tenemos que det(AA
1
) = det(I), es decir, det(A) det(A
1
) = 1 de donde se sigue el
resultado.
2.3.1. Ejercicios
1. Si A es una matriz de 5 5 cuyo determinante es 3, calcule el determinante de las matrices
4A, A, A
2
, A
3
y A
1
.
2. Pruebe que det (A
m
) = (det A)
m
para todos los enteros no negativos m. Si A es no singular,
pruebe que det (A
m
) = (det A)
m
para todo entero m.
3. Si A K
nn
, pruebe que det (cA) = c
n
det (A) para todo c K.
4. Sea K un subcampo del campo de los nmeros complejos. Pruebe que si n es impar y
A K
nn
es una matriz antisimtrica, entonces det (A) = 0 (Una matriz cuadrada A es
antisimtrica si A = A
T
).
2.3. Unicidad de la funcin determinante 59
5. Si det
_
_
a b c
d e f
g h i
_
_
= 4, calcule det
_
_
a b c
7d 7e 7f
g h i
_
_
y det
_
_
5g 5h 5i
d 2a e 2b f 2c
a b c
_
_
.
6. Sea A una matriz n n. Pruebe que det (A) = 0 si y slo si alguna columna A se puede
escribir como combinacin lineal de las restantes columnas de A.
7. Sea A C
nn
y sea C. Pruebe que existe un vector x ,= 0 tal que Ax = x si y slo si
det (AI) = 0.
8. La matriz compaera del polinomio mnico f(t) = a
0
+ a
1
t + + a
n1
t
n1
+ t
n
K[t] es
la matriz
C =
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
a
0
a
1
a
n1
_
_
_
_
_
_
_
.
Pruebe que el determinante de la matriz compaera del polinomio mnico f es (1)
n
a
0
.
9. Sean v = (v
1
, . . . , v
n
)
T
K
n
. Calcule el determinante de la matriz que se obtiene de la
matriz identidad de n n reemplazando su columna i por el vector v.
10. Sea A una matriz de n n. El cofactor (i, j) de A es por denicin el nmero c
ij
=
(1)
i+j
det (A
ij
) . La adjunta de la matriz A o matriz de cofactores, denotada con el smbolo
adj(A), se dene como la transpuesta de la matriz (c
ij
). Calcule todos los cofactores de la ma-
triz A =
_
_
1 1 1
2 3 2
1 4 5
_
_
. Encuentre la matriz adjunta de A. Verique por multiplicacin
directa que A(adj(A)) = (adj (A))A = (det A) I.
11. Sea A K
nn
.
a) Pruebe que si i ,= j, entonces:
n

k=1
(1)
j+k
a
ik
det(A
jk
) = 0,
n

k=1
(1)
i+k
a
kj
det(A
ki
) = 0.
(Sugerencia: Para la primera suma, sea B la matriz que se obtiene de A al reemplazar
el rengln j de A por su rengln i. Use el Teorema 2.1.5 con s = j para calcular det(B).
Para la segunda suma, sea C la matriz que se obtiene de A al reemplazar la columna i
de A por su columna j).
b) Pruebe que A(adj(A)) = (adj (A))A = (det A) I. (Sugerencia: Use el inciso a)).
c) Pruebe que si A es invertible, entonces A
1
= adj(A)/ det(A).
12. Sea A una matriz de n n. Pruebe que
a) Pruebe que adj(cA) = c
n1
adj(A).
b) Pruebe que det(adj(A)) = det(A)
n1
.
13. Proporcione otra prueba del Teorema 2.3.14 siguiendo la prueba del Teorema 2.3.2. Sean A
y B matrices de n n y C = AB = [AB
1
, . . . , AB
n
]. Entonces cada columna de C es
combinacin lineal de la columnas de A: C
k
= AB
k
= b
1k
A
1
+ b
2k
A
2
+ + b
nk
A
n
.
Contine por cuenta propia.
60 2. Determinantes
14. Suponga que A, B K
nn
son matrices semejantes, es decir, suponga que existe una matriz
invertible P tal que A = PBP
1
. Pruebe que det (A) = det (B) .
15. Sea A C
nn
. Se dene la matriz A

=

A
T
(la barra indica que se trata del complejo
conjugado).
a) Pruebe que det (A

) = det (A).
b) Pruebe que si A es hermitiana, es decir A = A

, entonces det (A) es un nmero real.


16. Si A R
nn
es una matriz ortogonal, pruebe que [det (A)[ = 1 (Una matriz A R
nn
es
ortogonal si A
T
A = I).
17. Si A C
nn
es una matriz unitaria, pruebe que [det (A)[ = 1 (Una matriz A C
nn
es
unitaria si A

A = I).
18. Sean A, B y C matrices cuadradas del mismo tamao tales que det(AB) = 9, det(AC) = 16,
det(BC) = 25 y det(A) < 0, calcule el determinante de la matriz ABC.
19. Sean A, B y C matrices cuadradas del mismo tamao. Si se tiene que det(AB) = 16,
det(AC) = 25, det(BC) = 36 y det(A) > 0, calcule det(ABC).
20. El determinante de la siguiente matriz es un polinomio en la variable . Calcule el coeciente
de
6
.
A =
_
_
_
_
_
_
_
_
4 1 1 6 28 2
3 4 28 1 4 2
3 4 5 19 62 1
3 2 1 2 6 1
1 3 1 39 8
4 3 1 8 1
_
_
_
_
_
_
_
_
.
21. Considere la matriz A =
_
_
3a 1 2
7 5 4a
4 a 3
_
_
. Encuentre, sin usar cofactores, el coeciente
de a
3
en la expresin de det (A) .
22. Sin usar cofactores, determine los coecientes de x
4
y x
3
en la expresin de:
det
_
_
_
_
2x x 1 2
1 x 1 1
3 2 x 1
1 1 1 x
_
_
_
_
.
(Sugerencia: No es necesario calcular el determinante).
23. Considere la matriz A =
_
_
_
_
387 456 589 238
488 455 677 382
440 982 654 651
892 564 786 442
_
_
_
_
. Determine si el determinante de A es
par o impar. Justique su respuesta.
24. Calcule el determinante de una matriz nilpotente. (Recuerde que una matriz A K
nn
es
nilpotente si A
k
= 0 para algn entero positivo k).
2.4. Determinantes y sistemas de ecuaciones 61
25. Sea A una matriz de 4 4 con entradas nmeros complejos que satisface la igualdad:
A
T
AA
T
= A.
Determine los valores que puede tomar det(A).
26. Sea A una matriz idempotente, es decir, A tiene la propiedad de que A
2
= A. Calcule los
posibles valores para det (A) .
27. Sea A C
33
y f () = det (I A). Pruebe que f es un polinomio mnico de grado 3, que el
trmino independiente es det(A) y que el coeciente de
2
es tr(A). Si
1
,
2
,
3
son las
races del polinomio f, pruebe que la traza de A es (
1
+
2
+
3
) y que det (A) =
1

3
.
28. Generalice el ejercicio anterior, es decir, pruebe que si es un escalar y A es una matriz
n n, entonces la funcin f () = det (I A) es una funcin polinomial de grado n, cuyo
coeciente principal es 1. Adems, pruebe que
a) el coeciente de
n1
es tr(A) y que el trmino independiente es (1)
n
det(A);
b) la traza de A es

i
y que det(A) = (1)
n

i
, donde
1
, . . . ,
n
son las races del
polinomio f.
2.4. Determinantes y sistemas de ecuaciones
En esta seccin se presentar una frmula til que relaciona el determinante con la solucin de
un sistema de ecuaciones lineales. Esta frmula, llamada regla de Cramer, describe la solucin
de ciertos sistemas de n ecuaciones lineales con n incgnitas, en trminos de determinantes.
Mientras que este resultado es de poco uso prctico en los sistemas que van ms all de 2 2,
es de gran importancia terica. Necesitaremos algo de notacin adicional para llevar a cabo su
demostracin. Para una matriz A K
nn
y b K
n
, denotemos con A
i
(b) a la matriz obtenida
al reemplazar la i-sima columna de A por b. Es decir:
A
i
(b) = [A
1
[ . . . [ b [ . . . [ A
n
],
donde A
j
denota la j-sima columna de A.
Teorema 2.4.1 (Regla de Cramer). Si A K
nn
es no singular, entonces para cada b K
n
la nica solucin del sistema Ax = b est dada por:
x
i
=
det(A
i
(b))
det(A)
,
para i = 1, 2, . . . , n.
Demostracin. Si A K
nn
es no singular, entonces el sistema Ax = b es consistente y deter-
minado para cada b K
n
. Sea I la matriz identidad de n n. Claramente, I = [e
1
[ . . . [ e
n
]
donde e
1
, . . . , e
n
son los vectores cannicos de K
n
. Si Ax = b, entonces:
AI
i
(x) = A[e
1
[ . . . [ x [ . . . [ e
n
] = [Ae
1
[ . . . [ Ax [ . . . [ Ae
n
]
= [A
1
[ . . . [ b [ . . . [ A
n
]
= A
i
(b).
Luego, de acuerdo con el Teorema 2.3.14, tenemos que:
(det(A))(det(I
i
(x))) = det(AI
i
(x)) = det(A
i
(b)).
62 2. Determinantes
Por otra parte, tenemos que:
I
i
(x) =
_
_
_
_
_
_
_
1 0 x1 0 0
0 1 x2 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 xi 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 xn1 1 0
0 0 xn 0 1
_
_
_
_
_
_
_
.
Desarrollando el determinante a lo largo del i-simo rengln usando la frmula det(A) =

n
j=1
(1)
s+j
a
sj
det(A
sj
) con s = i, del Corolario 2.3.12, tenemos que det(I
i
(x)) = x
i
. De
esta manera, det(A)x
i
= det(A
i
(b)) de donde se sigue el resultado.
Otra prueba es como sigue. Dado que Ax = b, se tiene que b es combinacin lineal de las
columnas de A, es decir, b = x
1
A
1
+ +x
n
A
n
. Dado que el determinantes es lineal se tiene
que
det A
i
(b) = det(A
1
, . . . ,

x
j
A
j
, . . . , A
n
)
=

x
j
det(A
1
, . . . , A
j
, . . . , A
n
)
= x
i
det(A
1
, . . . , A
i
, . . . , A
n
) +

j,=i
x
j
det(A
1
, . . . , A
j
, . . . , A
n
)
= x
i
det(A).
La ltima igualdad se sigue pues det(A
1
, . . . , A
j
, . . . , A
n
) = 0.
Ejemplo 2.4.2. El sistema de ecuaciones Ax = b, donde A =
_
_
0 0 1
1 2 1
1 1 2
_
_
y b =
_
_
2
1
0
_
_
tiene solucin pues det (A) = 1. Aplicando la regla de Cramer se tiene
x
1
= det(b [ A
2
[ A
3
) = 11, x
2
= det(A
1
[ b [ A
3
) = 7, x
3
= det(A
1
[ A
2
[ b) = 2.
Por otro lado, no es posible aplicar la regla de Cramer para resolver el sistema Ax = b si
A =
_
_
1 2 7
1 1 1
3 2 5
_
_
y b =
_
_
1
2
5
_
_
, pues det (A) = 0. Sin embargo, esto no signica que
el sistema no tenga solucin. De hecho, x = (2, 3, 1)
T
es una solucin.
2.4.1. Ejercicios
1. Aplique la regla de Cramer para resolver los siguientes sistemas de ecuaciones
x +y +z = 0,
x + 2y +z = 1,
3x + 2y + 2z = 2.
x y +z = 14,
x + 2y z = 31,
x + 2y 2z = 33.
Observe que en ambos casos las soluciones son enteras.
2. Sea A una matriz de nn y sea b una matriz de n1, ambas con entradas nmeros enteros.
Suponga que det(A) = 1. Demuestre que el vector solucin del sistema Ax = b tiene entradas
nmeros enteros.
2.5. Clculo de determinantes 63
3. Sean A y B matrices no nulas de n n con n > 1, tales que AB = 0. Demuestre que
det(A) = det(B) = 0.
4. Considere la matriz real A =
_
40 21
70 37
_
.
a) Encuentre todos los valores tales que det (AI) = 0.
b) Para cada uno de los valores calculados en el apartado anterior, encuentre todas las x
tales que Ax = x.
5. Sea A =
_
_
2 2 6
2 1 3
2 1 1
_
_
R
33
.
a) Calcule todos los valores tales que det (AI) = 0.
b) Para cada uno de los valores calculados en el apartado anterior, encuentre todas las x
tales que Ax = x.
6. Use la regla de Cramer para encontrar la solucin x
2
del sistema de ecuaciones lineales:
2x
1
x
2
= 8,
x
1
+ 2x
2
x
3
= 4,
x
2
+ 2x
3
= 12.
7. Determine los valores de de tal manera que el sistema de ecuaciones Ax = b determinado,
donde
A =
_
_
_
_
1 2 1 2
0 1 2
3 1 1 1
4 0 2
_
_
_
_
y
_
_
_
_
1
1
2
8
_
_
_
_
.
8. Considere el sistema de ecuaciones lineales:
_
_
s 1 2 s s + 2
2 s 2 2 s + 1 2 s + 2
s 0 s + 1
_
_
_
_
x
1
(s)
x
2
(s)
x
3
(s)
_
_
=
_
_
s
2
3s 10
4s
2
8s 14
3s
2
+ 7s 3
_
_
.
Determine el valor de s para el cual x
1
(s) alcanza su valor mnimo.
9. Calcule lm
s
x
2
(s), donde x
2
(s) est determinado por el sistema de ecuaciones lineales:
_
_
0 s
2
s
s
2
s
3
0
s
3
s
4
1
_
_
_
_
x
1
(s)
x
2
(s)
x
3
(s)
_
_
=
_
_
s + 3s
2
+s
3
5s
3
+s
2
5s
4
+s
3
1
_
_
.
2.5. Clculo de determinantes
En esta seccin se presentarn algunos mtodos para el clculo de determinantes. Cabe
aclarar que los determinantes no son tiles para la resolucin eciente de sistemas de ecuaciones
lineales de n n para n 4.
Un primer mtodo para el clculo de los determinantes es usando la frmula dada en el
Corolario 2.3.4:
det (A) =

Sn
() a
1(1)
a
n(n)
.
64 2. Determinantes
Si A es una matriz de 2 2, y tomando en cuenta que:
S
2
=
__
1 2
1 2
_
,
_
1 2
2 1
__
,
se tiene:
det A = a
11
a
22
a
12
a
21
.
De forma anloga, si A es una matriz de 3 3, como:
S
3
=
__
1 2 3
1 2 3
_
,
_
1 2 3
1 3 2
_
,
_
1 2 3
2 1 3
_
,
_
1 2 3
2 3 1
_
,
_
1 2 3
3 1 2
_
,
_
1 2 3
3 2 1
__
se tiene que:
det A = a
11
a
22
a
33
+a
12
a
23
a
31
+a
13
a
21
a
32
a
11
a
23
a
32
a
12
a
21
a
33
a
13
a
22
a
31
.
Si A es una matriz de 4 4, el determinante de A tendr 4! = 24 sumandos.
Un segundo mtodo es el denominado desarrollo por cofactores (Teorema 2.1.5):
det A = a
i1
C
i1
+a
i2
C
i2
+ +a
in
C
in
.
donde C
1j
= (1)
1+j
det A
1j
. El nmero C
ij
= (1)
i+j
det(A
ij
) el cofactor (i, j) de A. Puesto
que el determinante de una matriz es nico, el desarrollo del determinante es independiente del
rengln.
Observe que los signos de la denicin de cofactor tienen la siguiente distribucin:
_
_
_
_
+ +
+
+ +

_
_
_
_
.
Ejemplo 2.5.1. Calcular el determinante de la matriz A =
_
_
2 1 2
4 3 9
6 8 34
_
_
por el mtodo
de los cofactores.
Desarrollando conforme al primer rengln, se tiene:
det(A) = 2 det
_
3 9
8 34
_
1 det
_
4 9
6 34
_
+ 2 det
_
4 3
6 8
_
= 2 (30) 1 (82) + 2 (14) = 6.
Tambin pudo haberse desarrollado conforme a la ltima columna:
det(A) = 2 det
_
4 3
6 8
_
(9) det
_
2 1
6 8
_
+ 34 det
_
2 1
4 3
_
= 2 (14) + 9 (10) + 34 (2) = 6.
Otro mtodo para el clculo de los determinantes es el uso de las propiedades del determi-
nante. En este mtodo esencialmente se trata de usar la eliminacin gaussiana para convertir la
matriz original en otra matriz cuyo determinante sea ms fcil de calcular. Recuerde que si E
es una matriz elemental, entonces det(E) = 1, a menos que E sea la matriz elemental que se
obtiene de la matriz identidad intercambiando dos renglones.
2.5. Clculo de determinantes 65
Ejemplo 2.5.2. Calcular el determinante de la matriz A del ejemplo anterior usando las pro-
piedades del determinante.
det
_
_
2 1 2
4 3 9
6 8 34
_
_
= det
_
_
2 1 2
0 1 5
0 5 28
_
_
= det
_
_
2 1 2
0 1 5
0 0 3
_
_
= 6.
La primera igualdad se obtiene aplicando a la matriz A las operaciones elementales de rengln
R
21
(2) y R
31
(3). La segunda igualdad sumando al tercer rengln 5 veces el segundo rengln.
Finalmente, tambin se puede calcular el determinante utilizando la factorizacin PA = LU.
Este es un mtodo eciente para el clculo del determinante.
Si PA = LU, se tiene:
(det P)(det A) = (det L)(det U).
Dado que det P = 1 y det L = 1, entonces:
det A = det U = (producto de los pivotes) .
Ejemplo 2.5.3. La descomposicin PA = LU es:
A =
_
_
1 0 0
2 1 0
3 5 1
_
_
_
_
2 1 2
0 1 5
0 0 3
_
_
.
En este caso P = I. Entonces det A = (2) (1) (3) = 6.
2.5.1. Ejercicios
1. Sea A una matriz invertible tal que las entradas de A y A
1
son nmeros enteros. Pruebe
que det(A) = det(A
1
) = 1 o det(A) = det(A
1
) = 1.
2. Encuentre el trmino distinto de cero en la expansin por permutaciones del siguiente deter-
minante:
det
_
_
_
_
0 1 0 0
1 0 1 0
0 1 0 1
0 0 1 0
_
_
_
_
.
3. Encuentre los determinantes de las siguientes matrices.
_
0 1
1 0
_
,
_
_
0 1 1
1 0 1
1 1 0
_
_
,
_
_
_
_
0 1 1 1
1 0 1 1
1 1 0 1
1 1 1 0
_
_
_
_
,
_
_
_
_
_
_
0 1 1 1 1
1 0 1 1 1
1 1 0 1 1
1 1 1 0 1
1 1 1 1 0
_
_
_
_
_
_
.
Generalice el resultado.
4. Calcule el determinante de las siguientes matrices.
_
1 1
1 0
_
,
_
_
1 1 1
1 0 1
1 1 0
_
_
,
_
_
_
_
1 1 1 1
1 0 1 1
1 1 0 1
1 1 1 0
_
_
_
_
,
_
_
_
_
_
_
1 1 1 1 1
1 0 1 1 1
1 1 0 1 1
1 1 1 0 1
1 1 1 1 0
_
_
_
_
_
_
.
Generalice el resultado.
66 2. Determinantes
5. Considere la matriz de n n (n 3), A = (a
ij
) denida como a
ij
= i + j. Pruebe que
det(A) = 0.
6. Calcule el determinante de la matriz
A =
_
_
_
_
_
_
31 32 33 34 35
61 62 63 64 65
91 92 93 94 95
121 122 123 124 125
151 152 153 154 155
_
_
_
_
_
_
.
7. Sean K un campo, K y n 3. Calcule el determinante de la matriz A de nn, denida
por [A]
ij
= i +j (1 i, j n).
8. Demuestre, sin usar cofactores, que:
det
_
_
1 1 1
a b c
a
2
b
2
c
2
_
_
= (b a)(c a)(c b).
9. Pruebe que
det
_
_
_
_
_
1 x
1
x
2
1
. . . x
n1
1
1 x
2
x
2
2
. . . x
n1
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
. . . x
n1
n
_
_
_
_
_
=

j>i
(x
j
x
i
). (*)
La matriz cuadrada en () se conoce como la matriz de Vandermonde de orden n, en honor
del matemtico francs Alexandre-Theophile Vandermonde, y usualmente se denota con la
letra V
n
.
10. Sean (x
1
, y
1
), . . . , (x
n
, y
n
) C
2
tales que x
i
,= x
j
para i ,= j. Pruebe que existe exactamente
un polinomio f(t) = a
0
+ a
1
t + + a
n1
t
n1
de grado n 1 tal que f(x
i
) = y
i
para
i = 1, . . . , n.
11. Demuestre, sin usar cofactores, que:
det
_
_
_
_
a
2
(a + 1)
2
(a + 2)
2
(a + 3)
2
b
2
(b + 1)
2
(b + 2)
2
(b + 3)
2
c
2
(c + 1)
2
(c + 2)
2
(c + 3)
2
d
2
(d + 1)
2
(d + 2)
2
(d + 3)
2
_
_
_
_
= 0.
(Sugerencia. Puede ser ms til realizar operaciones de columna que de rengln).
12. Use la eliminacin gaussiana para calcular los determinantes de cada una de las siguientes
matrices:
_
_
0 1 2
1 2 0
1 2 19
_
_
,
_
_
_
_
1 0 1 2
0 3 1 2
3 0 0 0
2 4 1 1
_
_
_
_
,
_
_
_
_
_
_
2 5 0 1 5
2 7 2 2 1
4 16 10 6 1
0 2 22 3 16
2 7 6 2 0
_
_
_
_
_
_
.
2.6. reas y volmenes 67
13. Calcule el determinante de la matriz A =
_
2 1
1 1
_
y tambin los determinantes de cada
una de las siguientes matrices.
_
_
2 1 0
1 2 1
0 1 1
_
_
,
_
_
_
_
2 1 0 0
1 2 1 0
0 1 2 1
0 0 1 1
_
_
_
_
,
_
_
_
_
_
_
2 1 0 0 0
1 2 1 0 0
0 1 2 1 0
0 0 1 2 1
0 0 0 1 1
_
_
_
_
_
_
.
14. Calcule los determinantes de cada una de las siguientes matrices.
_
_
_
_
_
_
_
1 1 1 1
1 2 1 1
1 1 3 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 n
_
_
_
_
_
_
_
,
_
_
_
_
_
_
_
0 1 1 1
1 1 1 1
1 1 2 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1 n 1
_
_
_
_
_
_
_
.
2.6. reas y volmenes
Para nalizar este captulo se mostrar que el determinante se puede interpretar como un
volumen (rea en el caso bidimensional y volumen en dimensiones mayores que dos).
Sean v, w dos vectores en R
2
y sea P(v, w) el paralelogramo generado por estos vectores, es
decir:
P(v, w) = v +w [ 0 1, 0 1.
El rea de P(v, w) ser denotada con el smbolo Vol(v, w). Vea la Figura 2.1.
v
w
O
Figura 2.1: El paralelogramo P(v, w) determinado por los vectores v y w.
Se usarn las siguientes propiedades bsicas del rea (o del volumen): a) el rea de un
segmento de recta es igual a 0; b) si A y B son regiones congruentes, entonces tienen la misma
rea; c) si A y B son regiones ajenas, entonces el rea de A B es igual al rea de A ms el
rea de B; d) si A y B son regiones tales que A B tiene rea cero, entonces el rea de A B
es igual al rea de A ms el rea de B.
Teorema 2.6.1. Sean v, w en R
2
.
1. Vol(v, w) = 0 si y slo si v y w son linealmente dependientes.
68 2. Determinantes
2. Si n N, r Q
+
y c R
+
, entonces:
a) Vol(nv, w) = nVol(v, w),
b) Vol(rv, w) = r Vol(v, w),
c) Vol(cv, w) = c Vol(v, w).
3. Vol(v, w) = Vol(v, w).
4. Vol(v +w, w) = Vol(v, w).
Demostracin. 1. Supongamos que Vol(v, w) = 0. Esto slo es posible si P(v, w) es un punto o
un segmento de recta. En el primer caso v = w = 0 y en el segundo caso v = cw o w = cv para
algn escalar c ,= 0. En cualquier caso v y w son linealmente dependientes.
Supongamos ahora que v y w son linealmente dependientes. En consecuencia existen escalares
a y b, no ambos cero, tales que av +bw = 0. Si a ,= 0, entonces v =
b
a
w y por tanto P(v, w) es
un segmento de recta. En consecuencia Vol(v, w) = 0. El caso en que b ,= 0 es completamente
anlogo.
Como consecuencia de (1) podemos suponer, en los apartados del (2) al (4) que v y w son
linealmente independientes. En efecto, si v y w son linealmente dependientes tambin lo sern
cada uno de los conjuntos nv, w, qv, w, cv, w, v, w y v+w, w y como 0 = 0, entonces
se cumplirn cada una de las igualdades en (2)-(4).
2a) Sea n N. El paralelogramo P(nv, w) est formado por n paralelogramos, cada uno de
los cuales es congruente con P(v, w) (Figura 2.2), y consecuentemente, el rea de cada uno de
stos es Vol(v, w). Si designamos con P
1
, . . . , P
n
a cada uno de estos paralelogramos, entonces
P
i
P
i+1
es un segmento de recta (1 i < n). As:
Vol(nv, w) = Vol(v, w) + + Vol(v, w)
. .
n veces
= nVol(v, w).
v
2v
(n 1)v
nv
w
Figura 2.2: El paralelogramo P(nv, w) es la unin de n paralelogramos, cada uno de los cuales
es congruente con P(v, w).
2b) Sea r Q
+
y supongamos que r =
m
n
con m, n enteros positivos. Como:
Vol(v, w) = Vol
_
n
_
1
n
v
_
, w
_
= nVol
_
1
n
v, w
_
,
se tiene que:
Vol(rv, w) = Vol
_
m
n
v, w
_
= Vol
_
m
_
1
n
v
_
, w
_
= mVol
_
1
n
v, w
_
= m
1
n
Vol(v, w) = r Vol(v, w).
2.6. reas y volmenes 69
2c) En primer lugar observemos que si 0 < r < c < r
t
, entonces P(rv, w) P(cv, w)
P(r
t
v, w) (Figura 2.3). Ahora elijamos una sucesin creciente (r
n
) y una sucesin decreciente (r
t
n
)
de nmeros racionales que converjan ambas a c. Para cualquier n N se tiene que r
n
< c < r
t
n
de donde se concluye que P(r
n
v, w) P(cv, w) P(r
t
n
v, w). Como consecuencia de estas
contenciones tenemos:
Vol(r
n
v, w) Vol(cv, w) Vol(r
t
n
v, w).
rv
cv
r
t
v
w
Figura 2.3: El paralelogramo P(rv, w) est contenido en el paralelogramo P(cv, w) y este a su
vez est contenido en el paralelogramo P(r
t
v, w).
Aplicando la parte (b) llegamos a que para toda n N se tiene que:
r
n
Vol(v, w) Vol(cv, w) r
t
n
Vol(v, w).
Al tomar lmites y considerando que:
r
n
Vol(v, w) c Vol(v, w) y r
t
n
Vol(v, w) c Vol(v, w),
obtenemos que c Vol(v, w) Vol(cv, w) c Vol(v, w). Por lo que Vol(cv, w) = c Vol(v, w).
3. Los paralelogramos P(v, w) y P(v, w) son congruentes. Por tanto sus reas son iguales:
Vol(v, w) = Vol(v, w).
4. El rea del paralelogramo P(v, w) es la suma de las reas de los tringulos A y B, es
decir Vol(v, w) = rea A+rea B. De manera similar Vol(v +w, w) = rea B +rea C
(Figura 2.4).
v
w
2w
v +w
v + 2w
A
B
C
Figura 2.4: Tringulos A, B y C.
Como los tringulos A y C son congruentes, rea A = rea C. As:
Vol(v, w) = Vol(v +w, w).
Ntese que dados v, w R
2
se puede formar la matriz cuadrada de 22 cuyas columnas son v
y w: A = [v [ w] y en consecuencia tiene sentido hablar de det(v [ w). Se quiere probar que el rea
del paralelogramo determinado por v, w R
2
es [det(v [ w)[, es decir, Vol(v, w) = [det(v [ w)[.
70 2. Determinantes
Denicin 2.6.2. Si v, w R
2
, el rea orientada del paralelogramo P(v, w) denotada con
Vol
0
(v, w) est dada por:
Vol
0
(v, w) =
_
Vol(v, w) si det(v [ w) 0,
Vol(v, w) si det(v [ w) 0.
Teorema 2.6.3. El rea orientada de P(v, w) es igual a det(v [ w):
Vol
0
(v, w) = det(v [ w).
Demostracin. En virtud del Teorema 2.3.2 bastar vericar que Vol
0
satisface las condiciones
dadas en la Denicin 2.1.1.
Como v, v es linealmente dependiente, entonces Vol
0
(v, v) = 0. Claramente Vol
0
(e
1
, e
2
) =
1, donde e
1
y e
2
son los vectores unitarios estndar. Slo falta mostrar que Vol
0
es bilineal.
Veamos primero que Vol
0
(cv, w) = c Vol
0
(v, w). Si c = 0, entonces det(cv [ w) = 0 y
Vol
0
(cv, w) = Vol(cv, w) = 0 = c Vol
0
(v, w) ya que 0, w es linealmente dependiente. Supon-
gamos ahora que c > 0. Si det(cv [ w) 0, entonces det(v [ w) 0 ya que c > 0. Luego,
Vol
0
(cv, w) = Vol(cv, w) = c Vol(v, w) = c Vol
0
(v, w). Finalmente, si det(cv [ w) 0, entonces
det(v [ w) < 0, y
Vol
0
(cv, w) = Vol(cv, w) = c Vol(v, w) = c(Vol(v, w)) = c Vol
0
(v, w).
Supongamos que c < 0. Si det(cv [ w) 0, entonces det(v [ w) 0 y
Vol
0
(cv, w) = Vol(cv, w) = Vol(cv, w) = c Vol(v, w) = c(Vol(v, w))
= c Vol
0
(v, w).
Si det(cv [ w) 0, entonces det(v [ w) 0. Se sigue que:
Vol
0
(cv, w) = Vol(cv, w) = Vol(cv, w) = (c) Vol(v, w) = c Vol(v, w)
= c Vol
0
(v, w).
Esto prueba que Vol
0
(cv, w) = c Vol(v, w). La prueba de que Vol
0
(v, cw) = c Vol
0
(v, w) es
anloga a la del caso anterior.
A continacin mostraremos que Vol
0
(v
1
+v
2
, w) = Vol
0
(v
1
, w)+Vol
0
(v
2
, w). Primero veamos
que si v, w es una base de R
2
, entonces Vol
0
(v + w, w) = Vol
0
(v, w). Si = 0, entonces
Vol
0
(v, w) = Vol
0
(v, w) con base en lo que se prob previamente. Si ,= 0, entonces:
Vol
0
(v +w, w) = Vol
0
(v +w, w)
=
_
Vol(v +w, w) si det(v +w [ w) 0
Vol(v +w, w) si det(v +w [ w) 0
=
_
Vol(v, w) si det(v [ w) 0
Vol(v, w) si det(v [ w) 0
= Vol
0
(v, w)
= Vol
0
(v, w).
Como ,= 0, tenemos que Vol
0
(v +w, w) = Vol
0
(v, w).
Sean v
1
, v
2
, w R
2
. Si w = 0, la armacin es vlida. Si w ,= 0, sea v R
2
tal que v, w es
base de R
2
. Escribamos v
1
y v
2
en trminos de esta base de la siguiente manera: v
1
=
1
v +
1
w
y v
2
=
2
v +
2
w. Luego, v
1
+v
2
= (
1
+
2
)v + (
1
+
2
)w. Se tiene entonces que:
Vol
0
(v
1
+v
2
, w) = Vol
0
((
1
+
2
)v + (
1
+
2
)w, w) = (
1
+
2
) Vol
0
(v, w)
=
1
Vol
0
(v, w) +
2
Vol
0
(v, w)
= Vol
0
(
1
v +
1
w, w) + Vol
0
(
2
v +
2
w, w)
= Vol
0
(v
1
, w) + Vol
0
(v
2
, w).
2.6. reas y volmenes 71
El caso Vol
0
(v, w
1
+w
2
) = Vol
0
(v, w
1
) + Vol
0
(v, w
2
) es anlogo al anterior.
Como consecuencia de todo lo anterior tenemos que Vol
0
: R
2
R
2
R es una funcin
determinante. De acuerdo con el Teorema 2.3.2 se tiene:
Vol
0
(v, w) = det(v [ w)
para cualesquiera v, w R
2
.
Ejemplo 2.6.4. Calcular el rea del paralelogramo determinado por los vectores v = (3, 5)
T
y w = (1, 2)
T
(Figura 2.5).
x
2 1 1 2 3 4 5
y
2
1
1
2
3
4
5
w =
_
3
5
_
v =
_
3
5
_
Figura 2.5: Paralelogramo determinado por los vectores v = (3 5)
T
y w = (1 2)
T
.
Solucin. El rea de este paralelogramo es el rea del paralelogramo P(v, w).
Vol
_
3 1
5 2
_
=

det
_
3 1
5 2
_

= [6 5[ = 11.
En el ejemplo anterior, los vectores que determinan al paralelogramo estn anclados en el
origen. El siguiente ejemplo ilustra como proceder cuando se tienen los vrtices que determinan
al paralelogramo en vez de los vectores generadores. La solucin es sencilla, ya que a paritr de
los vrtices se pueden construir los vectores generadores.
Ejemplo 2.6.5. Calcular el rea del paralelogramo cuyos vrtices son (2, 3)
T
, (5, 5)
T
,
(2, 10)
T
y (5, 8)
T
(Figura 2.6).
Solucin. El paralelogramo original es congruente al paralelogramo generado por los vectores
v = (5, 5)
T
(2, 3)
T
= (3, 2)
T
y w = (5, 8)
T
(2, 10)
T
= (7, 5)
T
. Por lo tanto, el rea
buscada es:
Vol(v, w) =

det
_
3 7
2 5
_

= 29.
El Teorema 2.6.3 se puede generalizar a cualquier dimensin. Para ello basta jar todas las
coordenadas, excepto dos de ellas y todo se reduce al caso bidimensional. Se enunciar el teorema
para el caso tridimensional.
Si u, v, w son tres vectores de R
3
, denotaremos con P(u, v, w) el paraleleppedo generado por
estos vectores:
P(u, v, w) = u +v +w [ 0 1, 0 1, 0 1.
Denotaremos con Vol(u, v, w) el volumen de P(u, v, w).
72 2. Determinantes
(2, 3)
(5, 5)
(2, 10)
(5, 8)
x
5 4 3 2 1 1 2 3 4 5 6 7
y
1
2
3
4
5
6
7
8
9
10
v = (3, 2)
w = (7, 5)
Figura 2.6: Paralelogramo determinado por los vectores (2 3)
T
, (5 5)
T
, (5 8)
T
y (2 10)
T
. El
paralelogramo punteado es la traslacin al origen del paralelogramo original.
Teorema 2.6.6. Sean u, v, w R
3
.
1. Vol(u, v, w) = 0 si y slo si u, v, w son linealmente dependientes.
2. Si n N, r Q
+
y c R
+
, entonces:
a) Vol(nu, v, w) = nVol(u, v, w),
b) Vol(ru, v, w) = r Vol(u, v, w),
c) Vol(cu, v, w) = c Vol(u, v, w).
3. Vol(u, v, w) = Vol(u, v, w).
4. Vol(u +v, v, w) = Vol(u, v, w).
Demostracin. La demostracin es anloga a la prueba del Teorema 2.6.3.
Ejemplo 2.6.7. Calcular el volumen del paraleleppedo determinado por los vectores u =
(1, 2, 4)
T
, v = (2, 3, 1)
T
y w = (5, 1, 2)
T
.
Solucin. El volumen de P(u, v, w) est dado por [det(u [ v [ w)[. As:
Vol(u, v, w) =

det
_
_
1 2 5
2 3 1
4 1 2
_
_

= 55.
2.6.1. Ejercicios
1. Determine las reas de los paralelogramos generados por los siguientes pares de vectores:
a) (5, 1)
T
y (8, 4)
T
.
b) (4, 2)
T
y (1, 7)
T
.
2.6. reas y volmenes 73
2. Determine el rea de cada paralelogramo de tal manera que tres de los vrtices de cada uno
de ellos estn determinados por los siguientes puntos:
a) (5, 2)
T
, (11, 8)
T
, (9, 2)
T
.
b) (0, 3)
T
, (4, 5)
T
, (7, 12)
T
.
c) (1, 1)
T
, (3, 3)
T
, (0, 2)
T
.
3. Determine el volumen de cada paraleleppedo generado por las siguientes tercias de puntos
de R
3
:
a) (1, 1, 1)
T
, (1, 2, 1)
T
, (1, 1, 3)
T
.
b)
_
1,
1
2
,
1
3
_
T
,
_
1
2
,
1
3
,
1
4
_
T
,
_
1
3
,
1
4
,
1
5
_
T
.
c) (1, 1, 1)
T
, (1, 1, 1)
T
, (1, 0, 1)
T
.
74 2. Determinantes
CAPTULO 3
Espacios vectoriales
En diversas ramas de las matemticas nos topamos con conjuntos de elementos que se pueden
operar entre ellos y multiplicar por escalares, es decir por elementos de algn campo. Conside-
remos el espacio euclidiano R
2
. Sabemos que la suma de dos vectores de R
2
da como resultado
un vector de R
2
. Lo mismo sucede si multiplicamos un vector por elemento de R. El conjunto de
soluciones de un sistema homogneo es otro ejemplo tpico. Podemos sumar dos o ms soluciones
y obtenemos nuevamente una solucin. De hecho cualquier combinacin lineal de soluciones es
nuevamente una solucin. En Clculo, tambin se presentan ejemplos de tales conjuntos, v.gr.
el conjunto de todas la funciones diferenciables de R en R. Sabemos que cualquier combinacin
lineal de funciones diferenciables es nuevamente una funcin diferenciable. stos son ejemplos
de espacios vectoriales. En este captulo nos dedicaremos al estudio de la teora bsica acerca de
los espacios vectoriales sobre un campo arbitrario, haciendo nfasis en los espacios de dimensin
nita.
3.1. Espacios vectoriales
Un espacio vectorial es una estructura algebraica que consta de un conjunto no vaco junto
con dos operaciones binarias, una externa y otra interna, y que satisfacen ciertas propiedades.
Las propiedades que posee R
2
junto con las suma de vectores y la multiplicacin por escalar
y que comparte por ejemplo con el conjunto de todas funciones diferenciables de R en R sern
la base para la denicin de espacio vectorial.
Denicin 3.1.1. Un espacio vectorial sobre un campo K (o un K-espacio vectorial ) es con-
junto no vaco V junto con dos operaciones
+ : V V V
(v
1
, v
2
) v
1
+v
2
,
: K V V
(c, v) cv
llamadas respectivamente suma y producto por escalar las cuales satisfacen:
1. u +v = v +u para todos los u, v V.
2. (u +v) +w = u + (v +w) para todos los u, v, w V.
3. Existe un elemento 0 V tal que v + 0 = v para todo v V.
75
76 3. Espacios vectoriales
4. Para cada v V , existe v V tal que v + (v) = 0.
5. c (u +v) = cu +cv para cualquier c K y cualesquiera u, v V.
6. (c
1
+c
2
) v = c
1
v +c
2
v para cualesquiera c
1
, c
2
K, v V.
7. (c
1
c
2
) v = c
1
(c
2
v) para cualesquiera c
1
, c
2
K, v V.
8. El escalar 1 K cumple 1 v = v para todo v V.
A los elementos de un espacio vectorial se les llama vectores y a los elementos del campo K
escalares. Aqu la palabra vector no est haciendo referencia a los vectores de R
2
o R
3
.
V es un K-espacio vectorial real si K = R; si K = C, se dice que V es un espacio vectorial
complejo.
Observacin 3.1.2.
1. Las propiedades 1-4 establecen que (V, +) es un grupo abeliano.
2. Es importante enfatizar que un espacio vectorial no es nicamente un conjunto V . Es como
dice la denicin una terna (V, +, ), donde V es un conjunto no vaco junto con las operaciones
binarias + y que satisfacen las propiedades de espacio vectorial. De hecho el mismo conjunto
V puede ser parte de espacios vectoriales diferentes. En general, cuando no haya peligro de
confusin haremos referencia a un espacio vectorial mencionando nicamente el conjunto V.
Ejemplos 3.1.3. En los siguientes ejemplos K es un campo arbitrario y n, m N. Los siguientes
conjuntos junto con las operaciones indicadas son K-espacios vectoriales.
a) El conjunto K
n
que consta de todos los vectores columna junto con las operaciones usuales
de suma de vectores y multiplicacin de vector por escalar.
b) El conjunto K
mn
de todas las matrices de mn con entradas en el campo K es un espacio
vectorial respecto de la suma de matrices y la multiplicacin matriz por escalar.
c) Sea A K
mn
. El conjunto de todas las soluciones del sistema homogneo Ax = 0, junto
con las operaciones usuales de suma de vectores y multiplicacin de vector por escalar.
d) Sea K un campo. El conjunto K[t] de todos los polinomios en la variable t, junto con opera-
ciones usuales de suma de polinomios y producto de polinomio por escalar es un K-espacio
vectorial.
Ejemplo 3.1.4. Sea V el conjunto de todas las matrices de mn con entradas reales. Considere
en V la suma usual de matrices. Sean : R V V y
t
: Q V V la multiplicacin usual
por escalar (En el segundo caso la multiplicacin se restringe a nmeros racionales). Entonces
(V, +, ) y (V, +,
t
) son dos espacios vectoriales diferentes, ya que uno es real y el otro es racional.
Teorema 3.1.5. En un K-espacio vectorial V se cumple lo siguiente:
1) Si u, v, w V son tales que v +u = w +u, entonces v = w.
2) Existe un nico elemento 0 V tal que v + 0 = v para todo v V.
3) Para cada v V, existe un nico elemento w V tal que v +w = 0.
4) (v) = v para todo v V.
5) 0 v = 0 para todo v V.
6) (1) v = v para todo v V .
3.1. Espacios vectoriales 77
7) c 0 = 0 para todo c K.
8) Si c K, v V y cv = 0, entonces c = 0 v = 0.
Demostracin. Las propiedades 1)-4) son consecuencia inmediata del hecho de que (V, +) es un
grupo. Si el lector est familiarizado con las propiedades bsicas de los grupos, puede omitir las
pruebas de 1)-4).
1) Si v + u = w + u, entonces (v + u) + (u) = (w + u) + (u). Pero (v + u) + (u) =
v + (u + (u)) = v + 0 = v y (w +u) + (u) = w + (u + (u)) = w + 0 = w. Luego, v = w.
2) Supongamos que 0 y 0
t
cumplen que v + 0 = v y v + 0
t
= v para todo v V . Luego, en
particular 0 +0 = 0 y 0 +0
t
= 0. De aqu que 0 +0 = 0 +0
t
y por el inciso anterior, se sigue
que 0 = 0
t
.
3) Sea v V . Sabemos que existe v V tal que v +(v) = 0. Supongamos que w V cumple
que v +w = 0. Entonces v + (v) = v +w, y por el inciso 1 se sigue que w = v.
4) Sea v V . Sabemos que existe v V tal que v +(v) = 0. Pero tambin existe (v) V
tal que v + ((v)) = 0. Luego, v + (v) = (v) + (v) y por el inciso 1 se sigue que
v = (v).
5) Escribamos 0 = 0 +0. Entonces, para todo v V tenemos que 0 v = (0 +0)v = 0 v +0 v,
de donde 0 = 0 v.
6) Sea v V . Tenemos que (1+1)v = (1)v+1 v = (1)v+v y tambin (1+1)v = 0 v = 0
segn el inciso anterior. Luego, (1)v +v = 0 y por lo tanto (1)v = v.
7) Escribamos 0 = 0 + 0. Entonces, para todo c K tenemos que c 0 = c(0 + 0) = c 0 +c 0,
de donde c 0 = 0.
8) Supongamos que cv = 0 con c K y v V . Si c = 0 no hay nada que demostrar. Supongamos
entonces que c ,= 0. Entonces existe c
1
K tal que c
1
c = 1. Luego, c
1
(cv) = c
1
0.
Pero, c
1
(cv) = (c
1
c)v = 1 v = v y c
1
0 = 0. Por lo tanto, v = 0.
3.1.1. Ejercicios
1. Sea K un campo y sea X un conjunto no vaco. Considere el conjunto K
X
= f : X K [
f es funcin. Dadas dos funciones f, g K
X
y c K se dene la suma de funciones y la
multiplicacin por escalar como sigue:
f +g : X X
x f (x) +g (x)
,
cf : X X
x cf (x)
.
Pruebe que K
X
con estas operaciones es un K-espacio vectorial. Concluya que K
n
, K
mn
y K

son K-espacios vectoriales. (Aqu K

denota al conjunto de todas las sucesiones


(a
1
, a
2
, a
3
, . . . ) de elementos de K).
2. Pruebe que cualquier campo es un espacio vectorial sobre s mismo.
3. Considere el campo C de los nmeros complejos. Es R un C-espacio vectorial? Justique su
respuesta.
4. Sean F y K campos arbitrarios tales que F K. Pruebe que K es un F-espacio vectorial.
78 3. Espacios vectoriales
5. Sean V y W dos K-espacios vectoriales. Considere V W y dena:
(v
1
, w
1
) + (v
2
, w
2
) = (v
1
+v
2
, w
1
+w
2
) ,
c (v, w) = (cv, cw) .
Pruebe que V W con estas operaciones es un espacio vectorial. Se dice que este espacio
vectorial es el producto directo de V y W.
6. Sea R
+
el conjunto de todos los nmeros reales positivos. Considere R
+
junto con las opera-
ciones:
: R
+
R
+
R
+
(x, y) x +y 3
,
: R R
+
R
+
(c, x) cx 3c + 3
Es R
+
junto con estas operaciones un espacio vectorial real? Justique su respuesta.
7. Pruebe que R es un espacio vectorial real con las operaciones xy = x+y1, cx = cxc+1.
Cul es el neutro aditivo en este espacio vectorial? En este contexto, qu signica x?
8. Pruebe que R
+
es un espacio vectorial real con las operaciones x y = xy, c x = x
c
. Cul
es el neutro aditivo en este espacio vectorial? En este contexto, qu signica x?
9. Sea V un K-espacio vectorial, S un conjunto y f : V S una funcin biyectiva. Para cada
x, y S y para cada escalar c K dena las operaciones x y = f
_
f
1
(x) +f
1
(y)
_
y
c x = f
_
cf
1
(x)
_
. Pruebe que S junto con estas operaciones es un K-espacio vectorial.
3.2. Subespacios
Los espacios vectoriales pueden contener conjuntos que con las mismas operaciones del es-
pacio original sean a su vez espacios vectoriales. Por ejemplo, sea A R
mn
y consideramos el
espacio nulo de A, el cual es un subconjunto de R
n
. Observemos que si x, y N(A), es decir, si
Ax = 0 y Ay = 0, entonces A(x+y) = 0 y por tanto x+y N(A). Adems, si c R y x N(A),
entonces cx N(A). En notacin funcional, +(N(A) N(A)) N(A) y (RN(A)) N(A).
As, la suma usual denida en R
n
R
n
cuando se restringe a N(A) N(A) dene una funcin
N(A) N(A) N(A). De manera similar, la multiplicacin por escalar : RR
n
R
n
dene
una operacin binaria externa : RN(A) N(A). Es rutinario vericar que N(A) junto con
estas dos operaciones binarias satisfacen las condiciones de la Denicin 3.1.1 y por lo tanto
N(A) tiene estructura de R-espacio vectorial.
Por otro lado, el subconjunto R
+
R
+
de R
2
no es un espacio vectorial ya que la multipli-
cacin por escalar no es cerrada (por ejemplo (1) (1, 1) / R
+
R
+
).
Dado un espacio vectorial V , un subespacio vectorial es un subconjunto W de V tal que W
es un espacio vectorial con las operaciones de suma y producto por escalar denidas en V .
Para determinar si un conjunto dado es un subespacio vectorial, no es necesario vericar las
ocho propiedades que denen a un espacio vectorial; de hecho basta con vericar tres condiciones,
como lo indica el siguiente teorema.
Teorema 3.2.1. Sea W un subconjunto de un Kespacio vectorial V. Entonces W es un subes-
pacio de V si y slo si:
1. W ,= ,
2. v, w W v +w W,
3. c K y v W cv W.
3.2. Subespacios 79
Demostracin. Si W es un subespacio de V , es claro que se verican 1, 2 y 3 por denicin.
Recprocamente, supongamos que W satisface 1, 2 y 3. Por 1, W es no vaco, mientras que por
2 y 3, las operaciones de suma y producto por escalar estn bien denidas sobre W. Adems,
los axiomas 1, 2, 5, 6, 7 y 8 de la denicin de espacio vectorial se verican en W, puesto que
los vectores de W pertenecen a V . Por lo tanto, slo necesitamos demostrar que los axiomas 3 y
4 tambin se verican en W. Como W es no vaco existe u W. Entonces, por 3, 0u = 0 W y
por lo tanto v +0 = v para todo v W. Finalmente, si v W, entonces por 3, (1)v = v W
y v + (v) = 0. Por lo tanto, W es un subespacio de V .
Con este teorema es fcil vericar que el conjunto:
W =
__
x
y
_
R
2
[ ax +by = 0
_
es un subespacio de R
2
(De hecho, W es el espacio nulo de la matriz A =
_
a b
_
).
A partir de un conjunto dado de vectores de un espacio vectorial V , se puede construir un
subespacio como se muestra a continuacin.
Sean v
1
, . . . , v
n
vectores de un K-espacio vectorial V . El conjunto de todas las posibles
combinaciones lineales de los vectores v
i
s se denota por v
1
, . . . , v
n
o por gen (v
1
, . . . , v
n
) y
se llama subespacio generado por v
1
, . . . , v
n
. En ocasiones se escribe v
1
, . . . , v
n
en vez de
v
1
, . . . , v
n
. En notacin de conjuntos:
v
1
, . . . , v
n
= v V [ v es una combinacin lineal de v
1
, . . . , v
n

= c
1
v
1
+c
2
v
2
+ +c
n
v
n
[ c
1
, . . . , c
n
K .
Es sencillo probar que v
1
, . . . , v
n
es un subespacio de V . Primero se observa que v
1
, . . . , v
n

es no vaco pues contiene a cada uno los v


i
s que lo genera: Para cada i, 1 i n, v
i
=

i1
v
1
+
i2
v
2
+ +
in
v
n
, donde
ij
es la delta de Kronecker. Las otras dos condiciones se siguen
de:
n

j=1
c
j
v
j
+
n

j=1
d
j
v
j
=
n

j=1
(c
j
+d
j
)v
j
, c
n

j=1
c
j
v
j
=
n

j=1
(cc
j
)v
j
.
Ejemplo 3.2.2. Consideremos el espacio vectorial R
2
y sean v
1
=
_
2
4
_
, v
2
=
_
1
2
_
y
v
3
=
_
3
6
_
. Es muy fcil construir vectores que estn en el subespacio W = v
1
, v
2
, v
3
. Basta
elegir tres escalares y formar la correspondiente combinacin lineal. As los vectores
_
4
8
_
= v
1
+ 0v
2
2v
3
,
_
39
78
_
= 5v
1
+ 8v
2
7v
3
,
son elementos de W.
Por otro lado, decidir si un vector dado pertenece o no al subespacio generado por v
1
, v
2
y v
3
, puede ser ms complicado. Es el vector w =
_
2
3
_
un elemento de W? La pregunta
se traduce en Existen escalares c
1
, c
2
, c
3
R tales que w = c
1
v
1
+ c
2
v
2
+ c
3
v
3
? Esto lleva a
preguntarse si el sistema de ecuaciones lineales
2c
1
c
2
+ 3c
3
= 2
4c
1
+ 2c
2
6c
3
= 3
tiene solucin. La forma escalonada reducida de la matriz aumentada [A [ b] es
_
1
1
2
3
2
0
0 0 0 1
_
.
Se concluye que el sistema de ecuaciones lineales no tiene solucin y por lo tanto w / W.
80 3. Espacios vectoriales
A continuacin una de las principales propiedades de los subespacios generados por un con-
junto de vectores.
Teorema 3.2.3. Sea V un K-espacio vectorial y sean v
1
, . . . , v
n
vectores de V. Entonces el
subespacio generado por estos vectores es el menor de todos los subespacios de V que contienen
a stos.
Demostracin. Previamente se prob que v
1
, . . . , v
n
es subespacio de V . Sea W un subespacio
de V que contiene a v
1
, . . . , v
n
. Debemos demostrar que v
1
, . . . , v
n
W. Tenemos que
c
1
v
1
, . . . , c
n
v
n
W, donde c
i
K, y tambin c
1
v
1
+ + c
n
v
n
W por ser W un subespacio
de V . As, v
1
, . . . , v
n
W.
A modo de ejemplo describamos analtica y geomtricamente el subespacio de R
3
generado
por los vectores v
1
= (1, 1, 1)
T
y v
2
= (1, 2, 0)
T
. Por denicin:
W = v
1
, v
2

= c
1
v
1
+c
2
v
2
[ c
1
, c
2
R
=
_
(c
1
c
2
, c
1
+ 2c
2
, c
1
)
T
[ c
1
, c
2
R
_
Ahora bien, (x, y, z)
T
W si existen escalares c
1
, c
2
R tales que x = c
1
c
2
, y = c
1
+ 2c
2
y
z = c
1
. Eliminando c
1
y c
2
se obtiene 2x +y = 3z. Recprocamente, si (x, y, z)
T
R
3
es tal que
2x +y 3z = 0, entonces y = 2x + 3z. As:
_
_
x
y
z
_
_
=
_
_
x
2x + 3z
z
_
_
= (x)
_
_
1
2
0
_
_
+z
_
_
0
3
1
_
_
= xv
2
+z(v
1
+v
2
) = zv
1
+ (x +z)v
2
,
y por lo tanto (x, y, z)
T
W. Con esto se ha demostrado que W = (x, y, z)
T
R
3
[ 2x +y
3z = 0. Note que W es el espacio nulo de la matriz
_
2 1 3
_
.
Observe que tambin se puede proceder como sigue. Por denicin de subespacio generado,
w = (x, y, z)
T
W si y solamente si existen escalares c
1
, c
2
tales que
w = c
1
v
1
+c
2
v
2
=
_
_
1 1
1 2
1 0
_
_
_
c
1
c
2
_
= Ac.
As W est caracterizado como el conjunto de todos los w R
3
para los cuales el sistema
de ecuaciones Ac = w tiene solucin; en otras palabras W es el espacio columna de la matriz
A. Luego decidir si w W es equivalente a decidir si w R(A). Una forma escalonada por
renglones de [A [ w] es
_
_
1 1 x
0 3 x +y
0 0
2
3
x
1
3
y +z
_
_
,
de donde se sigue que el sistema de ecuaciones Ac = w tiene solucin si y solamente si 2x
y + 3z = 0.
Geomtricamente W es el plano que pasa por el origen determinado por los vectores v
1
y v
2
.
Ejemplo SAGE 3.2.4. Sage tiene la capacidad de operar con espacios y subespacios vectoria-
les. Para crear un espacio vectorial se pueden usar las siguientes instrucciones.
sage: V = RR^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
sage: V = RealField ()^2; V
Vector space of dimension 2 over Real Field with 53 bits of precision
3.2. Subespacios 81
Para probar pertenencia:
sage: v1 = vector(RR, [1,pi]); v1
(1.00000000000000 , 3.14159265358979)
sage: v1 in V
True
sage: v2 = vector(CC, [1+i,-i]); v2
(1.00000000000000 + 1.00000000000000*I, -1.00000000000000*I)
sage: v2 in V
False
Una forma de generar subespacios generados es como sigue (Vea el Ejemplo 3.2.2):
sage: v1 = vector ([2, -4]); v2 = vector ([-1 ,2]); v3 = vector ([-4,8])
sage: W = V.span([v1,v2 ,v3])
sage: w1 = vector ([ -4 ,8]); w1 in W
True
sage: w2 = vector ([ -39 ,78]); w2 in W
True
sage: w3 = vector ([2, -3]); w3 in W
False
3.2.1. Ejercicios
1. Sea V un espacio vectorial sobre un campo K. Pruebe que la interseccin de cualquier colec-
cin de subespacios de V es nuevamente un subespacio de V.
2. Sea V un espacio vectorial y sean v
1
, . . . , v
n
V. Pruebe que la interseccin de todos los
subespacios de V que contienen a v
1
, . . . , v
n
es igual al subespacio v
1
, . . . , v
n
.
3. Sean a
1
, . . . , a
n
vectores de R
m
. Pruebe que el conjunto:
W =
_
x R
m
[ x
T
a
i
= 0 para i = 1, . . . , n
_
es un subespacio de R
m
.
4. Sea V un espacio y sean v
1
, v
2
y v
3
elementos de V. Suponga que v
3
depende linealmente de
v
1
y v
2
, es decir, suponga que existen escalares c
1
, c
2
tales que v
3
= c
1
v
1
+c
2
v
2
. Pruebe que
v
1
, v
2
, v
3
= v
1
, v
2
.
5. Sea V un espacio vectorial y sean B
1
= v
1
, . . . , v
r
y B
2
= v
1
, . . . , v
r
, w. Pruebe que
B
1
= B
2
si y solamente si w B
1
.
6. Describa algebraica y geomtricamente el subespacio de R
3
generado por (1, 1, 1)
T
y
(1, 2, 3)
T
.
7. Encuentre un conjunto nito de vectores que genere el espacio nulo de la matriz A =
_
_
1 1 1 1
2 3 2 1
0 2 5 1
_
_
. Haga lo mismo para el espacio columna y rengln de A.
8. Sea A K
mn
. Pruebe que R(A) = A
1
, . . . , A
n
y que R(A
T
) =

A
T
1
, . . . , A
T
m
_
.
9. Sea A K
mn
. Pruebe que si W es un subespacio de K
n
, entonces A(W) = Ax [ x W
es un subespacio de K
m
. Pruebe que si W = v
1
, . . . , v
r
, entonces A(W) = Av
1
, . . . , Av
r
.
82 3. Espacios vectoriales
10. Sea W un subespacio no nulo de R
2
. Pruebe que W = R
2
o bien W = (
x
y
) R
2
[ ax+by = 0
para algunos a, b R.
11. Sean A K
mn
y B K
np
. Pruebe que el espacio columna de AB est generado por
AB
1
, . . . , AB
p
.
12. Determine si los vectores v
1
=
_
1 1
1 1
_
, v
2
=
_
1 3
0 4
_
, v
3
=
_
0 1
3 1
_
y v
4
=
_
0 0
0 1
_
generan R
22
, el espacio de las matrices cuadradas de 2 2.
13. a) Sean K un campo y n un entero positivo. Pruebe que el conjunto K[t]
n
que consta de los
polinomios de grado menor que n es un subespacio vectorial del espacio de polinomios
K[t].
b) Determine cules de los siguientes polinomios de R[t]
3
pertenencen al subespacio de
R[t]
3
generado por p
1
(t) = t +t
2
y p
2
(t) = 1 +t.
i) p(t) = 2 t t
2
ii) p(t) = 1 4t +t
2
iii) p(t) = 10 2t + 8t
2
.
14. Determine si R
3
est generado por los vectores v
1
= (2, 3, 1)
T
, v
2
= (3, 4, 2)
T
, v
3
=
(0, 1, 3)
T
y v
4
= (1, 3, 1)
T
.
15. Si U y W son subespacios de un espacio V, pruebe que el conjunto U + W = u + w [ u
U, w W es un subespacio de V . Pruebe adems que U + W es el menor de todos los
subespacios de V que contienen a U W. El subespacio U +W es la suma de los subespacios
U y W.
16. Sea V un espacio vectorial. Si B
1
genera a U y B
2
genera a W, pruebe que B
1
B
2
genera a
U +W, i.e., pruebe que gen (B
1
B
2
) = gen (B
1
) + gen (B
2
).
17. En R
3
, considere los subespacios:
U =
__
x
y
z
_
[ x +y +z = 0
_
y V =
__
x
y
z
_
[ 2x y +z = 0
_
.
a) Describa explcitamente el subespacio U V.
b) Es U V un subespacio de R
3
?
c) Verique que R
3
= U +V.
18. Sean A y B matrices de mn y mp, respectivamente. Pruebe que el espacio columna de
la matriz [A [ B] es la suma de los espacios columna de A y de B. En smbolos, pruebe que
R([A [ B]) = R(A) +R(B).
19. Determine cules de los siguientes subconjuntos de R
nn
son subespacios.
a) Las matrices simtricas.
b) Las matrices antisimtricas.
c) Las matrices no singulares.
d) Las matrices singulares.
e) Las matrices triangulares superiores.
f) Las matrices triangulares inferiores.
g) Todas las matrices que conmutan con una matriz dada A.
h) Las matrices idempotentes (una matriz es idempotente si A
2
= A).
3.3. Dependencia e independencia lineal 83
i) Las matrices cuya traza es cero.
j) Las matrices diagonales.
20. Sea V un espacio vectorial y sea W un subespacio de V. Dena la siguiente relacin en V :
v w si v w W.
Pruebe que es una relacin de equivalencia. Denote con [v] la clase de equivalencia de
v V. Es decir [v] = w V [ w v W . Sea V/W el conjunto cociente, es decir, el
conjunto formado por todas las clases de equivalencia de esta relacin. Dena en V/W las
siguientes operaciones:
[v] + [w] = [v +w] ; c [v] = [cv] .
Pruebe que estas operaciones estn bien denidas y que V/W es un espacio vectorial con
estas operaciones. V/W se denomina espacio vectorial cociente.
21. Sean W
1
y W
2
dos K-espacios vectoriales y sea V = W
1
W
2
su producto directo. Sea
W = W
1
0 = (w
1
, 0) [ w
1
W
1
. Pruebe que V/W = W
1
w
2
[ w
2
W
2
, es decir, pruebe
que cada elemento del espacio cociente V/W es [(w
1
, w
2
)] = W
1
w
2
= (w
t
1
, w
2
) [ w
t
1
W
1
.
3.3. Dependencia e independencia lineal
En esta seccin se estudia el concepto de dependencia e independencia lineal de vectores. Sea
V un K-espacio vectorial y sean v
1
, . . . , v
n
vectores de V . Se dice que un vector v V depende
linealmente de los vectores v
i
, si v se puede escribir como combinacin lineal de los v
i
. El vector
0 de V depende linealmente, aunque de manera trivial, de cualquier conjunto de vectores, pues
0 = 0v
1
+ 0v
2
+ + 0v
n
. Dado un subconjunto S de vectores de V , uno est interesado en
determinar si el vector cero depende linealmente, de manera no trivial, de los vectores de S.
Considere en el plano cartesiano los siguientes subconjuntos de vectores:
S
1
=
_
v
1
=
_
1
2
_
, v
2
=
_
2
4
__
,
S
2
=
_
w
1
=
_
7
4
_
, w
2
=
_
2
9
_
, w
3
=
_
19
92
__
.
Observe que el vector cero de R
2
se puede escribir de manera no trivial como combinacin lineal
tanto de v
1
y v
2
como de los vectores w
i
:
2v
1
+ (1) v
2
= 0,
5w
1
8w
2
+w
3
= 0.
Los vectores v
1
= (8, 4, 6, 10)
T
, v
2
= (9, 6, 12, 18)
T
y v
3
= (41, 4, 43, 67)
T
de R
4
satisfacen una propiedad similar, es decir, el cero es una combinacin lineal no trivial de ellos:
15v
1
14v
2
+ 6v
3
= 0.
Un ltimo ejemplo, ahora con vectores de R[t]
3
. Considere los polinomios p
1
= 2 + 3t
5t
2
, p
2
= 3 + 5t 6t
2
, p
3
= 19 + 7t
2
y p
4
= 24 + 2t + 6t
2
. En este caso, se tiene que:
15p
1
11p
2
3p
3
+ 5p
4
= 0.
Ahora bien, dada una coleccin de vectores no siempre es posible hallar una combinacin lineal
no trivial que de como resultado el vector cero. Por ejemplo, en R[t]
3
no es posible hallar una
84 3. Espacios vectoriales
combinacin lineal no trivial de los vectores 1, 1+t, 1+t +t
2
que de como resultado el polinomio
cero. En efecto, si suponemos que existen c
1
, c
2
y c
3
tales que:
c
1
(1) +c
2
(1 +t) +c
3
_
1 +t +t
2
_
= 0 + 0t + 0t
2
entonces se debe cumplir:
c
1
+c
2
+c
3
= 0,
c
2
+c
3
= 0,
c
3
= 0,
lo cual implica que c
1
= c
2
= c
3
= 0.
Con estos ejemplos queda ilustrado que dado un conjunto de vectores solamente hay dos
posibilidades:
a) Es posible hallar una combinacin lineal no trivial de los vectores cuyo resultado sea el vector
cero, o
b) la nica combinacin lineal que da como resultado el vector cero es con todos los escalares
iguales a cero.
Denicin 3.3.1. Sea V un espacio vectorial sobre un campo K. Se dice que un conjunto no
vaco S = v
1
, . . . , v
n
de vectores de V es linealmente dependiente si existen escalares c
1
, . . . , c
n
no todos cero tales que c
1
v
1
+ + c
n
v
n
= 0. Se dice que S es linealmente independiente si no
es linealmente dependiente.
Ejemplo 3.3.2. Sea V un K-espacio vectorial y sea o = v
1
, . . . , v
n
V . Que o sea li-
nealmente dependiente es equivalente a decir que al menos un vector v
j
o que depende
linealmente de los otros. En efecto, suponga que existen escalares c
1
, . . . , c
n
con c
j
,= 0 tales que
c
1
v
1
+ +c
n
v
n
= 0; entonces v
j
=

i,=j
(c
1
j
c
i
)v
i
. Recprocamente, si v
j
depende linealmente
de los otros vectores de o y v
j
=

i,=j
x
i
v
i
, entonces x
1
v
1
+ + (1)v
j
+ +x
n
v
n
= 0 y o
es linealmente dependiente.
Aunque las deniciones de dependencia e independencia lineal se expresan en trminos de
conjuntos nitos de vectores, podemos extender los conceptos a conjuntos innitos de la siguiente
manera.
Denicin 3.3.3. Un conjunto S de vectores en un espacio vectorial V es linealmente depen-
diente si contiene un subconjunto nito linealmente dependiente. Un conjunto de vectores que
no es linealmente dependiente se dice que es linealmente independiente.
A manera de ejemplo, demostremos que en el espacio vectorial de todos los polinomios con
coecientes reales, R[t], el conjunto S = 1, t, t
2
, . . . es linealmente independiente.
Para ello, supongamos por contradiccin que S es linealmente dependiente. Entonces, existe
un subconjunto nito T de S que es linealmente dependiente, digamos T = t
m1
, t
m2
, . . . , t
mr

con m
1
< m
2
< < m
r
. Entonces, existen escalares c
m1
, c
m2
, . . . , c
mr
no todos cero tales que:
c
m1
t
m1
+c
m2
t
m2
+ +c
mr
t
mr
= 0.
Por denicin un polinomio es cero, si y slo si todos sus coecientes son cero. Por lo tanto
c
mi
= 0 para i = 1, . . . , r, lo cual es una contradiccin. Por lo tanto, S es linealmente inde-
pendiente. Note que esta prueba es aplicable independientemente de la naturaleza del campo
K.
Teorema 3.3.4. Sean V un K-espacio vectorial y S un subconjunto de V .
3.3. Dependencia e independencia lineal 85
1. Si S
0
S y S
0
es linealmente dependiente, entonces S es linealmente dependiente.
2. Si S es linealmente independiente y S
0
S, entonces S
0
es linealmente independiente.
3. Si 0 S, entonces S es linealmente dependiente.
4. v V es linealmente independiente si y slo si v ,= 0.
5. Sea v V . Si S es nito y linealmente independiente, entonces S v es linealmente
independiente si y slo si v / S.
Demostracin.
1. Si S
0
es linealmente dependiente, entonces S
0
contiene un subconjunto nito linealmente
dependiente. Como S
0
S, se sigue que S contiene un subconjunto nito linealmente depen-
diente y por lo tanto S es linealmente dependiente.
2. Es la contrapositiva de la proposicin del inciso anterior.
3. Para todo c K con c ,= 0, tenemos que c 0 = 0. Luego, el conjunto 0 S es linealmente
dependiente y por lo tanto S es linealmente dependiente.
4. Demostraremos, de manera equivalente, que v V es linealmente dependiente si y slo si
v = 0. Segn el inciso anterior, tenemos que si v = 0, entonces v es linealmente dependiente.
Supongamos entonces que v es linealmente dependiente. En este caso, existe c K, c ,= 0,
tal que c v = 0. Luego, por el Teorema 3.1.5 se sigue que v = 0.
5. Sea S = v
1
, . . . , v
n
linealmente independiente y sea v V . Demostraremos, de manera
equivalente, que S v es linealmente dependiente si y slo si v S. En efecto, si S v
es linealmente dependiente, entonces existen escalares no todos cero c
1
, . . . , c
n
, c tales que
c
1
v
1
+ +c
n
v
n
+cv = 0. Si c = 0, entonces c
1
v
1
+ +c
n
v
n
= 0 y por lo tanto c
1
= =
c
n
= 0, pues S es linealmente independiente. Luego, c ,= 0. De aqu que v =
c1
c
v
1

c2
c
v
2


cn
c
v
n
S. Recprocamente, si v S, entonces existen escalares c
1
, . . . , c
n
tales que
v = c
1
v
1
+ +c
n
v
n
. Luego, v c
1
v
1
c
n
v
n
= 0 y por lo tanto, S v es linealmente
dependiente.
Ejemplo 3.3.5. Determine si las matrices v
1
=
_
1 0
0 0
_
, v
2
=
_
0 0
0 1
_
y v
3
=
_
0 1
1 0
_
son
linealmente dependientes o independientes.
Supngase que es posible hallar escalares c
1
, c
2
, c
3
tales que:
c
1
v
1
+c
2
v
2
+c
3
v
3
= 0.
Esta ecuacin implica que:
_
c
1
c
3
c
3
c
2
_
=
_
0 0
0 0
_
,
y por tanto c
1
= c
2
= c
3
= 0. As los vectores dados son linealmente independientes.
Ejemplo 3.3.6. Determine si los vectores v
1
=
_
_
_
_
1
1
2
4
_
_
_
_
, v
2
=
_
_
_
_
0
1
3
1
_
_
_
_
, v
3
=
_
_
_
_
3
5
12
10
_
_
_
_
y
v
4
=
_
_
_
_
1
1
0
0
_
_
_
_
de R
4
son linealmente dependientes o independientes.
86 3. Espacios vectoriales
Se procede igual que antes. Supongamos que existen escalares c
1
, c
2
, c
3
, c
4
tales que:
c
1
v
1
+c
2
v
2
+c
3
v
3
+c
4
v
4
= 0.
Entonces:
_
_
_
_
1 0 3 1
1 1 5 1
2 3 12 0
4 1 10 0
_
_
_
_
_
_
_
_
c
1
c
2
c
3
c
4
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
.
Al resolver el sistema se tiene:
_
_
_
_
1 0 3 1
0 1 2 2
0 0 0 4
0 0 0 0
_
_
_
_
_
_
_
_
c
1
c
2
c
3
c
4
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
.
Luego, el sistema tiene innidad de soluciones, por ejemplo 3v
1
+ 2v
2
+ v
3
+ 0v
4
= 0. Por lo
tanto el conjunto de vectores dado es linealmente dependiente.
Cuando se trata de determinar si conjunto dado de vectores es linealmente independiente o
no, con frecuencia el problema se reduce a determinar si las columnas de una cierta matriz son
linealmente independientes o no. El siguiente teorema proporciona un criterio para determinar
cuando las columnas de una matriz son linealmente independientes.
Teorema 3.3.7. Sea A K
mn
. Las siguientes armaciones son equivalentes:
1. Las columnas de A son linealmente independientes.
2. N (A) = 0.
3. rango (A) = n.
Demostracin. La equivalencia de 2 y 3 se sigue del Teorema 1.5.4. Demostraremos slo la
equivalencia de 1 y 2.
Sea A = [A
1
[ . . . [ A
n
] y supongamos que las columnas de A son linealmente independien-
tes. Sea x = (x
1
, . . . , x
n
)
T
N(A). Entonces:
0 = Ax = [A
1
[ . . . [ A
n
]
_
x1
.
.
.
xn
_
= x
1
A
1
+ +x
n
A
n
,
de donde se sigue que x
1
= = x
n
= 0. Es decir, x = 0. Por lo tanto, N(A) = 0.
Recprocamente, supongamos que N(A) = 0. Sean x
1
, . . . , x
n
escalares tales que x
1
A
1
+
+ x
n
A
n
= 0. Esta igualdad es equivalente a la igualdad Ax = 0 donde x = (x
1
, . . . , x
n
)
T
.
Luego, x N(A) y por lo tanto x = 0. De aqu que x
1
= = x
n
= 0 y as, las columnas de A
son linealmente independientes.
Una consecuencia del teorema anterior es que cualquier conjunto de n vectores en K
m
es
linealmente dependiente si n > m, pues el sistema Ax = 0 asociado tiene ms incgnitas que
ecuaciones y por lo tanto el sistema homogneo tiene ms de una solucin.
Teorema 3.3.8. Sea A K
nn
. Entonces, det(A) ,= 0 si y slo si las columnas de A son
linealmente independientes.
3.3. Dependencia e independencia lineal 87
Demostracin. Supongamos que las columnas de la matriz A son linealmente dependientes. En-
tonces alguna columna de A se puede escribir como combinacin lineal de las otras. Supongamos
que A
j
=

i,=j
x
i
A
i
para algn j, con 1 j n. Entonces:
det (A) = det (A
1
[ . . . [ A
j
[ . . . [ A
n
)
= det
_
_
A
1
[ . . . [

i,=j
x
i
A
i
[ . . . [ A
n
_
_
=

i,=j
x
i
det (A
1
[ . . . [ A
i
[ . . . [ A
n
)
=

i,=j
x
i
0 = 0.
Esto prueba que si det (A) ,= 0, entonces las columnas de A son linealmente independientes. Su-
pongamos ahora que las columnas de A son linealmente independientes. Por el teorema anterior,
tenemos que el rango de A es n y por lo tanto, A es invertible. Es decir, det (A) ,= 0.
Es importante trabajar con conjuntos linealmente independientes, pues se evitan redundan-
cias. Un ejemplo aclarar esto.
En R[t]
3
el conjunto
_
1 +t, 1 t +t
2
_
es linealmente independiente. En este caso, el poli-
nomio 5 t + 3t
2
se puede escribir como combinacin lineal de 1 + t y 1 t + t
2
de una nica
forma, a saber:
5 t + 3t
2
= 2 (1 +t) + 3
_
1 t +t
2
_
.
Esta armacin se verica fcilmente planteando el sistema correspondiente y cerciorndose que
la solucin es nica. Por otro lado, se mostr anteriormente que los vectores p
1
= 2 + 3t 5t
2
,
p
2
= 3+5t 6t
2
, p
3
= 19+7t
2
y p
4
= 24+2t +6t
2
son linealmente dependientes. El vector
p = 15 6t + 3t
2
se puede escribir como combinacin lineal de estos vectores por ejemplo:
p = p
1
p
2
+ 2p
3
2p
4
= 9p
1
7p
2
+ 0p
3
+p
4
Se tiene el siguiente teorema.
Teorema 3.3.9. Sea v
1
, . . . , v
n
un conjunto linealmente independiente de vectores de un
espacio vectorial V. La representacin de cada vector v v
1
, . . . , v
n
como combinacin lineal
de estos vectores es nica.
Demostracin. Supongamos que v se puede escribir de dos formas distintas como combinacin
lineal de v
1
, v
2
, . . . , v
n
. Es decir:
v = c
1
v
1
+c
2
v
2
+ +c
n
v
n
,
v = c
t
1
v
1
+c
t
2
v
2
+ +c
t
n
v
n
.
Entonces, (c
1
c
t
1
)v
1
+ (c
2
c
t
2
)v
2
+ + (c
n
c
t
n
)v
n
= 0. Como los vectores v
1
, v
2
, . . . , v
n
son linealmente independientes, se sigue que c
i
c
t
i
= 0 para cada i = 1, 2, . . . , n. Por lo tanto
c
i
= c
t
i
para cada i = 1, 2, . . . , n y as la representacin de v es nica.
3.3.1. Ejercicios
1. Suponga que los vectores v
1
, v
2
, v
3
de un espacio vectorial V son linealmente independientes.
Pruebe que los vectores w
1
= v
1
, w
2
= v
1
+ v
2
, w
3
= v
1
+ v
2
+ v
3
son linealmente indepen-
dientes. Pruebe que el recproco tambin es cierto.
2. Sea V un espacio vectorial real y sean v
1
, v
2
V vectores linealmente independientes. Pruebe
que los vectores w
1
= 2v
1
+ 5v
2
y w
2
= v
1
+ 3v
2
son linealmente independientes.
88 3. Espacios vectoriales
3. Sean v
1
, v
2
, . . . , v
m
en R
n
vectores no nulos tales que v
t
i
v
j
= 0 para i ,= j. Pruebe que
v
1
, v
2
, . . . , v
m
es un conjunto linealmente independiente.
4. De una interpretacin geomtrica al hecho de que tres vectores no nulos v
1
, v
2
, v
3
de R
3
sean
linealmente independientes.
5. Sean v
1
=
_
_
_
_
2
3
1
0
_
_
_
_
, v
2
=
_
_
_
_
4
0
1
2
_
_
_
_
, v
3
=
_
_
_
_
0
1
0
1
_
_
_
_
y v
4
=
_
_
_
_
6
6
1
1
_
_
_
_
elementos de R
4
. Pruebe que
v
4
v
1
, v
2
, v
3
.
6. Determine los valores de x para que el siguiente conjunto de R
3
sea linealmente independiente:
_
_
_
_
_
1
2
1
_
_
,
_
_
1
x 1
1
_
_
,
_
_
1
2
1
_
_
_
_
_
.
7. Sea W el subespacio de R
3
generado por los vectores v
1
= (1, 2, 1)
T
, v
2
= (3, 6, 3)
T
,
v
3
= (4, 2, 1)
T
y v
4
= (11, 4, 2)
T
. Pruebe que el conjunto S = v
1
, v
2
, v
3
, v
4
es linealmente
dependiente y que existe un subconjunto de S que es linealmente independiente y que genera
a W.
8. Sea V un espacio vectorial. Sean v
1
, v
2
, . . . , v
k1
, v
k
vectores distintos de V . Pruebe que
v
1
, . . . , v
k
es linealmente dependiente si v
k
v
1
, v
2
, . . . , v
k1
. Pruebe que el recproco no
es cierto.
9. Sea V un espacio vectorial. Suponga que v
1
, . . . , v
n
son vectores linealmente independientes
de V y que v es un vector que no pertenece al subespacio generado por los vectores v
1
, . . . , v
n
,
es decir, v / v
1
, . . . , v
n
. Pruebe que v
1
, . . . , v
n
, v es linealmente independiente.
10. Considere el campo Q(

2) (Vea el Ejemplo A.1.3) como Q-espacio vectorial. Pruebe que


1,

2 es linealmente independiente.
11. Si v
1
, . . . , v
n
es un conjunto linealmente dependiente de vectores de un espacio V y v
1
,= 0,
pruebe que existe un vector v
j
con j 2 tal que v
j
v
1
, . . . , v
j1
.
12. Considere la matriz de Vandermonde de mn:
V
mn
=
_
_
_
_
_
1 x
1
x
2
1
. . . x
n1
1
1 x
2
x
2
2
. . . x
n1
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
m
x
2
m
. . . x
n1
m
_
_
_
_
_
C
mn
donde x
i
,= x
j
si i ,= j. Pruebe que si n m, entonces las columnas de V
mn
son linealmente
independientes. (Sugerencia: Suponga que N(V
mn
) ,= 0; encuentre un polinomio f C[t]
de grado a lo ms n 1 tal que f(x
i
) = 0. Proceda por cuenta propia).
13. Suponga que los vectores v
1
, . . . , v
r
de K
n
son linealmente independientes. Pruebe que si
P K
nn
es invertible, entonces los vectores Pv
1
, . . . , Pv
r
son linealmente independientes.
14. Sea A K
mn
una matriz de rango n. Pruebe que si los vectores v
1
, . . . , v
r
de K
n
son
linealmente independientes, entonces Av
1
, . . . , Av
r
son vectores linealmente independientes
de K
m
.
3.4. Bases y dimensin 89
15. Sean v
1
, . . . , v
n
vectores de K
m
. Pruebe que si n > m, entonces v
1
, . . . , v
n
es un conjunto
linealmente dependiente.
16. Pruebe que las columnas de una matriz cuadrada A C
nn
diagonalmente dominante
1
son
linealmente independientes. (Sugerencia: Demuestre, de manera equivalente, que N(A) = 0.
Para ello suponga que existe x ,= 0 tal que Ax = 0 y suponga que x
k
es la entrada de magnitud
mxima en x, es decir, [x
k
[ [x
i
[ para i = 1, 2, . . . , n. Estime el valor de [a
kk
x
k
[ usando la
desigualdad del tringulo y llegue a una contradiccin).
17. Sea V el espacio vectorial de las matrices de tamao 2 2 sobre el campo nito F
p
con p
nmero primo, y sea:
S = A V [ det(A) ,= 0.
Demuestre que S tiene p(p 1)
2
(p + 1) elementos. (Sugerencia. Dada A V , demuestre que
det(A) = 0 si y slo si los renglones de A son linealmente dependientes. Use esto para calcular
[S[).
3.4. Bases y dimensin
Uno de los invariantes ms importantes asociados a un espacio vectorial es su dimensin.
Denicin 3.4.1. Sea V un espacio vectorial. Una base para V es un subconjunto de V que es
linealmente independiente y genera a V .
Que un conjunto de vectores genere a un espacio vectorial signica que el subespacio vectorial
generado por esos vectores coincida con todo el espacio. En smbolos, decir que el conjunto
genera a V signica que V = . El que una coleccin de vectores genere o no genere a un espacio
vectorial no est ligado a la dependencia lineal o independencia lineal de stos. Por ejemplo, el
conjunto p
1
= 2+3t5t
2
, p
2
= 3+5t6t
2
, p
3
= 19+7t
2
, p
4
= 24+2t+6t
2
es linealmente
dependiente, en tanto que el conjunto 1+t, 1t+t
2
es linealmente independiente, pero ninguno
genera al espacio vectorial R[t]
3
. De hecho, p
1
, p
2
, p
3
, p
4
= a +bt +ct
2
[ 7a + 27b + 19c = 0
y 1 +t, 1 t +t
2
= a +bt +ct
2
[ a b 2c = 0. Por otro lado, los conjuntos = 1, t, t
2
y

t
= 1, 1 +t, 1 +t +t
2
, 4 + 2t + 5t
2
generan a R[t]
3
, siendo una base en tanto que
t
no.
A continuacin se presentan ms ejemplos.
1. Cada uno de los conjuntos
1
= e
1
, e
2
y
2
= (1, 1)
T
, (1, 0)
T
son bases para R
2
.
Cada uno genera a R
2
y es linealmente independiente. En cambio el conjunto (1, 1)
T
no
genera a R
2
. Por ejemplo, e
1
no es combinacin lineal de (1, 1)
T
.
2. El conjunto
__
1 0
0 0
_
,
_
0 0
0 1
_
,
_
0 1
1 0
__
no es una base para R
22
pues aunque el conjunto
es linealmente independiente, ste no genera al espacio. Por ejemplo, es fcil vericar que
_
1 2
2 1
_
no es combinacin lineal de los vectores dados. El conjunto
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
s es una base para R
22
.
Teorema 3.4.2. Sea V un espacio vectorial generado por un conjunto nito de m vectores
v
1
, . . . , v
m
. Entonces todo conjunto linealmente independiente de vectores de V es nito y adems
no contiene ms de m elementos.
1
Una matriz A C
nn
es diagonalmente dominante si para cada i = 1, 2, . . . , n se tiene |a
ii
| >

j=i
|a
ij
|.
90 3. Espacios vectoriales
Demostracin. Demostraremos de manera equivalente que todo subconjunto S de V que con-
tiene ms de m vectores es linealmente dependiente. En efecto, sea S = w
1
, w
2
, . . . , w
n
con
n > m, un subconjunto de V . Como v
1
, v
2
, . . . , v
m
genera a V , existen escalares a
ij
tales que:
w
1
= a
11
v
1
+a
21
v
2
+ +a
m1
v
m
=
m

i=1
a
i1
v
i
,
w
2
= a
12
v
1
+a
22
v
2
+ +a
m2
v
m
=
m

i=1
a
i2
v
i
,
.
.
.
w
n
= a
1n
v
1
+a
2n
v
2
+ +a
mn
v
m
=
m

i=1
a
in
v
i
.
Por otra parte, como n > m tenemos que el rango de la matriz A = (a
ij
) es a lo ms m y por
lo tanto el sistema homogneo Ax = 0 tiene solucin no trivial x = (x
1
, . . . , x
n
)
T
. Es decir,
existen escalares no todos cero x
1
, . . . , x
n
tales que

n
j=1
a
ij
x
j
= 0 para cada i = 1, 2, . . . , m.
Luego:
x
1
w
1
+ +x
n
w
n
=
n

j=1
x
j
w
j
=
n

j=1
x
j
m

i=1
a
ij
v
i
=
n

j=1
m

i=1
(a
ij
x
j
)v
i
=
m

i=1
_
_
n

j=1
a
ij
x
j
_
_
v
i
= 0,
y por lo tanto, S es linealmente dependiente.
Corolario 3.4.3. Sea V un espacio vectorial no nulo. Si y
t
son dos bases nitas de V ,
entonces [[ = [
t
[.
Demostracin. Supongamos que [[ = m y [
t
[ = n. Entonces, por el teorema anterior [
t
[ m
y [[ n. Es decir, n m n, de donde m = n.
Este corolario permite denir la dimensin de un espacio vectorial no nulo, como el nmero
de elementos de una base cualquiera de V . Se indicar la dimensin de un espacio V no nulo
por dimV .
Si V es un espacio vectorial sobre un campo K, el subespacio nulo de V es generado por el
vector 0, pero 0 es un conjunto linealmente dependiente y no es una base. Por esta razn se
conviene que el subespacio nulo tenga dimensin 0.
Corolario 3.4.4. Sea V un espacio vectorial no nulo de dimensin nita y sea n = dimV .
Entonces:
1. Todo subconjunto de V con ms de n vectores es linealmente dependiente.
2. Ningn subconjunto de V con menos de n vectores puede generar a V.
Demostracin. El inciso 1 se sigue del Teorema 3.4.2. Para demostrar el inciso 2, supongamos
que S es un subconjunto de V con m vectores tal que S = V y m < n. Como dimV = n, el
Teorema 3.4.2 implica que n m, lo cual es una contradiccin. Por lo tanto, ningn subconjunto
de V con menos de n vectores puede generar a V .
Corolario 3.4.5. Sea V un espacio vectorial de dimensin n.
3.4. Bases y dimensin 91
1. Todo conjunto linealmente independiente con exactamente n vectores de V , es una base para
V .
2. Todo conjunto generador de V compuesto de exactamente n vectores, es una base para V .
Demostracin. Sea V un espacio vectorial de dimensin n.
1. Sea S V un conjunto linealmente independiente con exactamente n vectores. Supongamos
que S no genera a V . Entonces, existe v V tal que v , S. Luego, por el Teorema 3.3.4
inciso 5, tenemos que S v es linealmente independiente. Como v , S, se sigue que
v , S y por lo tanto S v es un conjunto linealmente independiente con exactamente n+1
elementos. Pero esto no puede ser, pues dimV = n. Por lo tanto, S genera a V y as, S es
base de V .
2. Supongamos que S = v
1
, . . . , v
n
V tiene exactamente n vectores y genera a V . Si S es
linealmente dependiente, entonces existe v
i
S que es combinacin lineal de v
1
, . . . , v
i1
,
v
i+1
, . . . , v
n
. Como todo vector de V es combinacin lineal de v
1
, . . . , v
n
, se sigue que todo
vector de V es combinacin lineal de v
1
, . . . , v
i1
, v
i+1
, . . . , v
n
. Es decir, V est generado por
n 1 vectores. Esto es una contradiccin, pues por el corolario anterior ningn conjunto con
menos de n vectores puede generar a V . Por lo tanto, S es linealmente independiente y en
consecuencia, es una base para V .
Las dimensiones de los espacios vectoriales K
n
, K
mn
y K [t]
n
, todos sobre el campo K, son
n, mn y n, respectivamente. En efecto, el conjunto e
1
, . . . , e
n
es una base para K
n
. Para el
segundo caso, sea E
ij
la matriz que tiene un uno en la posicin (i, j) y cero en todas las dems
posiciones. Entonces el conjunto:
_
E
ij
K
mn
[ i = 1, . . . , m, j = 1, . . . , n
_
,
es una base para K
mn
. Finalmente, una base para K [t]
n
es
_
1, t, . . . , t
n1
_
. Nos referiremos
a estas bases como las bases cannicas.
Corolario 3.4.6. Si W es un subespacio de un espacio vectorial V de dimensin nita, todo
subconjunto linealmente independiente de W es nito y es parte de una base (nita) de W.
Demostracin. Supongamos que dimV = n. Sea S un subconjunto linealmente independiente de
W. Como W es un subespacio de V , se sigue que S es un subconjunto linealmente independiente
de V . Luego, por el Teorema 3.4.2 se sigue que S tiene a lo ms n elementos. Extenderemos S a
una base de W como sigue. Si S genera a W, entonces S es una base de W y terminamos. Si S
no genera a W, entonces existe un vector v
1
W tal que v
1
, S y por el Teorema 3.3.4 inciso
5, el conjunto S
1
= S v
1
W es linealmente independiente. Si S
1
genera a W terminamos.
Si no, aplicamos nuevamente el Teorema 3.3.4 inciso 5, para obtener un vector v
2
W tal que
S
2
= S
1
v
2
W es linealmente independiente. Continuando de esta forma, obtenemos un
conjunto S
m
= S v
1
, . . . , v
m
W linealmente independiente que genera a W con a lo ms
dimV = n elementos. Por lo tanto, S es parte de una base (nita) S
m
de W.
Ejemplo 3.4.7. Extienda el conjunto 1 +t, 1 t a una base para R[t]
3
.
Primero advierta que 1+t, 1t es linealmente independiente (por qu?). Como dimR[t]
3
=
3, necesitamos un tercer vector que no sea linealmente dependiente con los primeros dos. Po-
dramos proceder mediante el mtodo de ensayo y error. Sin embargo, en la prctica es ms fcil
proceder de manera distinta. Extenderemos el conjunto dado de vectores mediante la inclusin
de la base cannica de R[t]
3
, lo cual nos da:
S = 1 +t, 1 t, 1, t, t
2
.
92 3. Espacios vectoriales
Ahora, S es linealmente dependiente segn el Corolario 3.4.4, de modo que necesitamos
descartar algunos vectores (en este caso, dos). Debido a que 1 =
1
2
(1 +t) +
1
2
(1 t), el conjunto
1 + t, 1 t, 1 es linealmente dependiente, de manera que eliminamos el 1. En forma similar,
t =
1
2
(1 + t)
1
2
(1 t), de modo que 1 + t, 1 t, t tambin es linelamente dependiente. Por
ltimo vericamos que 1 + t, 1 t, t
2
es linealmente independiente (puede pensar en una
forma rpida para sustentar esta armacin?). Por lo tanto, 1 + t, 1 t, t
2
es una base para
R[t]
3
que extiende a 1 +t, 1 t.
Corolario 3.4.8. Sea V un espacio vectorial de dimensin nita y sea W un subespacio de V.
Entonces:
1. dimW dimV .
2. dimW = dimV si y slo si W = V.
Demostracin. Podemos suponer que W ,= 0.
1. Sea v W con v ,= 0. Por el corolario anterior, existe una base de W que contiene al
subconjunto linealmente independiente v y que tiene a lo ms dimV elementos. Luego, W
es de dimensin nita y dimW dimV .
2. Si W = V , es claro que dimW = dimV . Supongamos entonces que las dimensiones de W y
V son iguales, es decir, dimW = dimV = n. Como W V , basta demostrar que V W.
Si V , W, entonces existe v V tal que v , W. Sea una base de W. Como W = y
v , W, el Teorema 3.3.4 inciso 5 implica que v es un subconjunto de V linealmente
independiente. Pero esto es una contradiccin, pues v tiene n + 1 elementos y segn
el Corolario 3.4.4 inciso 1, todo subconjunto de V con ms de dimV = n elementos es
linealmente dependiente. Por lo tanto, V W y as W = V .
Si V no es de dimensin nita y W es un subespacio de V , puede suceder que dimW = dimV
y que W ,= V . (Vase el Ejercicio 16).
3.4.1. Ejercicios
1. Para cada una de las siguientes matrices, encuentre bases para cada uno de los cuatro espacios
fundamentales
_
_
_
_
1 1
1
2

1
2
1
1 1 1 1 1
2 2 1 1 2
1 1 1 1 1
_
_
_
_
,
_
_
2 2 1 1
1 1
1
2
1
2
1 1
1
2

1
2
_
_
.
2. Encuentre una base para el subespacio vectorial de R
4
generado por el conjunto
o =
_

_
_
_
_
_
1
1
2
1
_
_
_
_
,
_
_
_
_

1
2
1
2
1
_
_
_
_
,
_
_
_
_
2
2
2
2
_
_
_
_
,
_
_
_
_
1
2
1
2
2
_
_
_
_
,
_
_
_
_
1
1
2
1
_
_
_
_
_

_
.
3. Determine si el conjunto
B =
_
_
_
_
_
6
5
5
_
_
,
_
_
18
3
3
_
_
_
_
_
3.4. Bases y dimensin 93
es o no es una base para el espacio generado por el conjunto
o =
_
_
_
_
_
4
1
1
_
_
,
_
_
1
1
1
_
_
,
_
_
1
9
9
_
_
_
_
_
.
4. Sea V el espacio vectorial de las matrices 2 2 sobre el campo K. Demuestre que V tiene
dimensin 4, encontrando una base de V que tenga cuatro elementos.
5. Determine si los siguientes vectores linealmente independientes o linealmente dependientes,
en el correspondiente espacio vectorial.
a) En R
4
,
_
_
_
_
1
2
1
1
_
_
_
_
,
_
_
_
_
2
1
1
1
_
_
_
_
,
_
_
_
_
1
1
2
1
_
_
_
_
.
b) En R
3
,
_
_
1
2
1
_
_
,
_
_
4
8
4
_
_
,
_
_
7
14
7
_
_
.
c) En R
22
,
_
1

2
2 3
_
,
_
1850 10
5 23
_
,
_
exp (3) 2
5 1
_
,
_
4
0 2
_
,
_
14 1
ln 5 1
_
.
6. Sea es una base de R
4
. Verique que la armacin Si W ,= 0 es un subespacio de R
4
,
entonces algn subconjunto de es una base de W es falsa dando un contraejemplo.
7. Nuevamente sea V el espacio vectorial de las matrices 2 2 sobre el campo K. Encuentre
una base A
1
, A
2
, A
3
, A
4
de V , de modo que A
2
j
= A
j
para j = 1, 2, 3, 4.
8. Sea V un espacio vectorial. Suponga que hay un nmero nito de vectores v
1
, v
2
, . . . , v
r
en
V que generan V . Demuestre que V es de dimensin nita.
9. Extienda el conjunto linealmente independiente 1 +t, 1 +t +t
2
a una base para R[t]
3
.
10. Extienda el conjunto linealmente independiente
_
0 1
0 1
_
,
_
1 1
0 1
_
a una base para R
22
.
11. Extienda el conjunto linealmente independiente
_
1 0
0 1
_
,
_
0 1
1 0
_
,
_
0 1
1 0
_
a una
base para R
22
.
12. Los vectores v
1
=
_
_
_
_
1
0
1
2
_
_
_
_
y v
2
=
_
_
_
_
0
0
1
2
_
_
_
_
son linealmente independientes. Determine un
par de vectores v
3
, v
4
tales que = v
1
, v
2
, v
3
, v
4
sea una base para R
4
.
13. Encuentre 3 vectores en R
3
que sean linealmente dependientes y tales que dos cualesquiera
de ellos sean linealmente independientes.
14. Determine una base y la dimensin del espacio vectorial real V =
_
A R
33
[ A = A
T
_
.
15. Encuentre las dimensiones de cada uno de los siguientes subespacios vectoriales de K
22
.
a) El subespacio de todas la matrices cuya traza es cero.
94 3. Espacios vectoriales
b) El subespacio de todas matrices simtricas.
Generalice el resultado a matrices de n n.
16. Sean V = R[t] y W = tp(t) [ p(t) V . Demuestre que W es un subespacio de V tal que
dimW = dimV y W ,= V . Contradice esto el Corolario 3.4.8?
17. Sea V el conjunto de los nmeros reales. Considere V como un espacio vectorial sobre el
campo de los nmeros racionales, con las operaciones usuales. Demuestre que este espacio
vectorial V no es de dimensin nita.
18. Sean A K
mn
y W un subespacio de K
n
. Pruebe que si W N(A) = 0, entonces
dimA(W) = dimW, donde A(W) = Aw [ w W.
19. Sea V = R[t] y sea W el subespacio de V que consiste de todos los polinomios divisibles
por (t + 2)
2
. Demuestre que W es un subespacio de V y que dimV/W = 2. (Sugerencia: Si
f(t) V , por el algoritmo de la divisin para polinomios, f(t) = (t + 2)
2
q(t) + r(t), donde
r(t) es un polinomio de grado menor que 2. Entonces f(t) r(t) W).
Para la denicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
20. Sea V un espacio vectorial de dimensin nita y sea W un subespacio de V . Demuestre
que dimV/W = dimV dimW. (Sugerencia: Sea w
1
, . . . , w
r
una base para W y sean
w
r+1
, . . . , w
n
V tales que w
1
, . . . , w
n
es una base para V . Pruebe que [w
r+1
], . . . , [w
n
]
es una base para V/W.)
3.5. Bases y dimensin de los subespacios fundamentales
En esta seccin el objetivo principal es calcular bases para cada uno de los cuatro espacios
fundamentales de una matriz y en consecuencia calcular sus dimensiones.
Teorema 3.5.1. Sea A R
mn
una matriz de rango r y sea P una matriz no singular tal que
PA = U, donde U es una forma escalonada de A. Sean 1 = h
1
, . . . , h
nr
el conjunto de las
h
i
s que aparecen en la solucin general del sistema Ax = 0. (Vase la Seccin 1.5). Entonces:
i) Las columnas bsicas de A forman una base para R(A).
ii) Los r renglones diferentes de cero de U forman una base para R
_
A
T
_
.
iii) Los ltimos mr renglones de P forman una base para N
_
A
T
_
.
iv) El conjunto 1 es una base para N (A).
Adems:
dimR(A) = r.
dimR
_
A
T
_
= r.
dimN
_
A
T
_
= mr.
dimN (A) = n r.
Demostracin. i) Demostraremos que el conjunto = A
f1
, . . . , A
fr
es una base para el
espacio columna de A, donde A
f1
, . . . , A
fr
son las columnas bsicas A. Cada columna
de A pertenece al espacio columna de A puesto que Ae
j
= A
j
. En particular R(A) y
por lo tanto R(A). Por otro lado, si b R(A), entonces existe x = (x
1
, . . . , x
n
)
T
tal que Ax = b. Luego, b = x
1
A
1
+ + x
n
A
n
. Es decir, todo elemento de R(A) es
3.5. Bases y dimensin de los subespacios fundamentales 95
combinacin lineal de las columnas de A. Como toda columna no bsica de A se puede
escribir como combinacin lineal de las columnas bsicas de A, de sigue que b tambin es
combinacin lineal de las columnas bsicas de A. De aqu que R(A) y as R(A) = .
Esto prueba que es un conjunto que genera al espacio columna de A. Por otro lado, si
no fuera linealmente independiente, entonces algn elemento de sera combinacin lineal
del resto de las columnas de A, y este elemento no sera columna bsica de A, lo cual es
una contradiccin. Luego es linealmente independiente. As, las columnas bsicas de A
constituyen una base para el espacio columna de A y dimR(A) = r.
ii) Demostraremos primero que R
_
A
T
_
= R
_
U
T
_
. En efecto, si y R
_
A
T
_
, entonces y = A
T
z
para algn z. Como A
T
=
_
P
1
U
_
T
= U
T
_
P
1
_
T
, entonces y = U
T
x, donde x =
_
P
1
_
T
z y por lo tanto y R
_
U
T
_
. Recprocamente, si y R(U
T
), entonces y = U
T
z
para algn z. Luego, y = (PA)
T
z = A
T
_
P
T
z
_
= A
T
x, donde x = P
T
z, y de aqu
y R(A
T
). Con esto hemos demostrado que R
_
A
T
_
= R
_
U
T
_
. Luego, basta demostrar
que las r columnas diferentes de cero de U
T
(los r renglones diferentes de cero de U) forman
una base para R(U
T
). Es claro que si b R(U
T
), entonces existen escalares x
1
, . . . , x
n
tales que x
1
U
T
1
+ +x
n
U
T
n
= b. Luego, cada elemento de R(U
T
) es combinacin lineal
de todas las columnas de U
T
y por lo tanto, es combinacin de las columnas diferentes de
cero de U
T
. As, R(U
T
) est generado por las columnas diferentes de cero de U
T
. Usando
que U es una forma escalonada de A, es fcil demostrar que las columnas distintas de
cero de U
T
son linealmente independientes, y por lo tanto forman una base para R(U
T
).
Finalmente, de acuerdo con el Corolario 1.5.7 y por lo demostrado en el inciso anterior
tenemos que:
dimR(A
T
) = rango(A
T
) = rango(A) = dimR(A) = r.
iii) Escribamos las matrices P, P
1
y U en forma de bloques. Es decir:
P =
_
P
1
P
2
_
, P
1
=
_
Q
1
Q
2
_
, U =
_
C
0
_
,
donde P
1
tiene tamao r m, P
2
tiene tamao (mr) m, Q
1
tiene tamao mr, Q
2
tiene tamao m (m r) y C tiene tamao r n. Como det
_
P
T
_
= det (P) ,= 0, los
renglones de P son linealmente independientes. En particular los m r renglones de P
2
son linealmente independientes. Es claro que estos mr vectores generan a R(P
T
2
), y por
lo tanto constituyen una base para R(P
T
2
). Demostraremos que N
_
A
T
_
= R
_
P
T
2
_
y esto
concluir la prueba. Sea y N
_
A
T
_
. Entonces:
A
T
y = 0 y
T
A = 0 y
T
P
1
U = 0 y
T
( Q1 Q2 ) (
C
0
) = 0
y
T
Q
1
C = 0 C
T
_
Q
T
1
y
_
= 0 Q
T
1
y N
_
C
T
_
.
Pero N
_
C
T
_
= 0, pues rango(C
T
) = rango(C) = r. Luego Q
T
1
y = 0 y por lo tanto
y
T
Q
1
= 0. Por otro lado I = P
1
P = Q
1
P
1
+Q
2
P
2
, de donde:
y
T
= y
T
I = y
T
Q
1
P
1
+y
T
Q
2
P
2
= y
T
Q
2
P
2
y = P
T
2
_
Q
T
2
y
_
.
Luego, y R(P
T
2
) de donde N
_
A
T
_
R
_
P
T
2
_
. Para demostrar la otra inclusin sea
y R
_
P
T
2
_
. Entonces y = P
T
2
x para algn x, y en consecuencia y
T
A = x
T
P
2
A. Por otro
lado:
PA = U
_
P1
P2
_
A = (
C
0
)
_
P1A
P2A
_
= (
C
0
) P
2
A = 0.
Luego, y
T
A = x
T
P
2
A = x
T
0 = 0, o bien, A
T
y = 0. As, y N(A
T
) y R(P
T
2
) N(A
T
).
Por lo tanto, N(A
T
) = R(P
T
2
) y dimN(A
T
) = mr.
96 3. Espacios vectoriales
iv) Haciendo B = A
T
en el inciso anterior, tenemos que:
dimN (A) = dimN
_
B
T
_
= n rango (B) = n rango(B
T
) = n r.
Como 1 es un conjunto generador de N(A) y tiene exactamente nr elementos, se sigue
que 1 es una base para N(A) y as dimN(A) = n r.
Ejercicio 3.5.2. Considere la matriz A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_
. Calcule bases para N(A), R(A),
N(A
T
) y R(A
T
).
3.5.1. Ejercicios
1. Encuentre una base para los subespacios fundamentales R(A), R(A
T
) y N(A) asociados a la
matriz:
A =
_
_
1 2 0 2 1
0 0 1 3 3
0 0 0 0 0
_
_
.
2. Sea V un espacio vectorial de dimensin nita sobre un campo K. Una base ordenada =
v
1
, . . . , v
n
de V es una base de V en la que se considera un orden jo y bien denido,
indicado por las posiciones relativas de los vectores en . En el espacio tridimensional R
3
las
bases
1
= e
1
, e
2
, e
3
y
2
= e
2
, e
3
, e
1
son bases ordenadas diferentes, a pesar de que se
trata del mismo conjunto. Si = v
1
, . . . , v
n
es una base ordenada de V, para cada v V
existe exactamente un vector (x
1
, . . . , x
n
)
T
tal que v = x
1
v
1
+ + x
n
v
n
. A x
i
se le llama
la isima coordenada de v respecto a la base . Al vector (x
1
, . . . , x
n
)
T
se le llama vector
de coordenadas de v en la base y ser denotado con [v]

. Esta asignacin establece una


funcin de V en K
n
denominada funcin de coordenadas:
[ ]

: V K
n
Considere ahora el espacio vectorial real R[t]
3
de los polinomios de grado menor que 3 y la
base =
_
1, 1 +t, 1 +t +t
2
_
.
a) Calcule el vector de coordenadas del vector p = 3+2t5t
2
en la base , es decir, determine
[p]

.
b) Escriba explcitamente la funcin de coordenadas [ ]

: R[t]
3
R
3
.
3. Sea V un espacio vectorial de dimensin nita sobre un campo K, sea = v
1
, . . . , v
n
una
base de V . Pruebe que la funcin de coordenadas con respecto a la base es una funcin
lineal biyectiva, es decir, pruebe que:
a) [v +w]

= [v]

+ [w]

para cualesquiera v, w V .
b) [cv]

= c [v]

para cualquier c K y v V .
c) [v]

= 0 si y slo si v = 0.
d) Para cada x K
n
, existe exactamente un vector v V tal que x = [v]

.
4. Considere C
2
como espacio vectorial real, es decir, la multiplicacin por escalar est dada por
c
_
z
1
z
2
_
=
_
cz
1
cz
2
_
, donde c es un nmero real. Calcule la dimensin de este espacio vectorial.
3.6. Sumas directas 97
5. Sea V un espacio vectorial complejo de dimensin n 1. Como el conjunto de los nmeros
reales es un subconjunto de los nmeros complejos, V se puede considerar un espacio vectorial
real (vea el ejercicio anterior). Pruebe que V es de dimensin nita y calcule su dimensin.
6. Sea V el subespacio de R
22
formado por las matrices anti-simtricas. Cul es la dimensin
de V ? Encuentre una base para V .
7. Sea V = R[t] , y sea W el subconjunto de V que consiste de todos los polinomios divisibles
por (t 1)
2
. Pruebe que W es un subespacio de V y que V/W es un espacio de dimensin
nita. Adems, pruebe que la dimensin de V/W es 2. Encuentre una base para este espacio.
(Sugerencia: Considere el algoritomo de la divisin para polinomios).
3.6. Sumas directas
En esta seccin se presentarn algunos resultados concernientes a sumas de subespacios.
Recordemos que dados dos subespacios U y W de un espacio V es posible construir un nuevo
subespacio denominado la suma de U y W, U +W = u +w [ u U, w W . Este subespacio
resulta ser el subespacio ms pequeo que contiene simultneamente a U y a W. En otras
palabras, la suma de U y W es el subespacio generado por el conjunto U W. Cuando V es de
dimensin nita, tambin lo es la suma de U y W, como lo arma el siguiente resultado.
Teorema 3.6.1. Sean U y W dos subespacios de dimensin nita de un espacio vectorial V .
Entonces U +W es de dimensin nita y:
dim(U +W) = dimU + dimW dim(U W) .
Demostracin. Tenemos que U W es subespacio tanto de U como de W. Supongamos que
dimU = m, dimW = n y dim(U W) = r. Supongamos, adems que v
1
, . . . , v
r
es una base
para U W. Extendamos este conjunto linealmente independiente en U y en W, a una base de
U y a una base de W:
v
1
, . . . , v
r
, u
1
, . . . , u
mr
base para U,
v
1
, . . . , v
r
, w
1
, . . . , w
nr
base para W.
Sea = v
1
, . . . , v
r
, u
1
, . . . , u
mr
, w
1
, . . . , w
nr
. Notemos que tiene m+n r elementos.
Luego, bastar demostrar que es base para U +W. Como el conjunto v
i
, u
j
genera a U y el
conjunto v
i
, w
k
genera a W, la unin = v
i
, u
j
, w
k
generar a U +W. Por lo tanto, basta
demostrar que es linealmente independiente. Supongamos que:
a
1
v
1
+ +a
r
v
r
+b
1
u
1
+ +b
mr
u
mr
+c
1
w
1
+ +c
nr
w
nr
= 0,
donde a
i
, b
j
y c
k
son escalares. Sea:
v = a
1
v
1
+ +a
r
v
r
+b
1
u
1
+ +b
mr
u
mr
.
De la primera igualdad, tenemos tambin que:
v = c
1
w
1
c
nr
w
nr
.
Como v
i
, u
j
U, la segunda igualdad implica que v U; y como w
k
W, la tercera
igualdad implica que v W. As, v U W. Ahora bien, v
i
es base para U W, por lo que
existen escalares d
1
, . . . , d
r
tales que v = d
1
v
1
+ + d
r
v
r
. Usando esta relacin junto con la
tercera igualdad, tenemos que:
d
1
v
1
+ +d
r
v
r
+c
1
w
1
+ +c
nr
w
nr
= 0.
98 3. Espacios vectoriales
Pero v
i
, w
k
es una base para W y necesariamente es linealmente independiente. De aqu que
la ltima igualdad implique que c
1
= = c
nr
= 0. Sustituyendo estos valores en la primera
igualdad, tenemos que:
a
1
v
1
+ +a
r
v
r
+b
1
u
1
+ +b
mr
u
mr
= 0.
Pero v
i
, u
j
es una base para U y por lo tanto es linealmente independiente. Luego, a
1
= =
a
r
= 0 y b
1
= = b
mr
= 0. Por lo tanto, es linealmente independiente y es base para
U +W.
Ejemplo 3.6.2. Considere los subespacios U = (x y z)
T
R
3
[ x + y + z = 0 y W =
(x y z)
T
R
3
[ 2x y +z = 0 de R
3
. Calcule la dimensin de U +W.
Para el clculo de dim(U + W) necesitamos calcular la dimensin de los subespacios U, W
y U W. Es claro que U y W tienen ambos dimensin 2 (pues son planos). Entonces U W
debe ser una recta y su dimensin es 1. As, la dimensin de U + W es 3. Luego, R
3
= U + W.
En consecuencia todo vector de R
3
se puede escribir como la suma de un vector de U y uno de
W. Sin embargo, esta representacin no es nica, ya que:
_
_
6
0
5
_
_
=
_
_
3
2
1
_
_
+
_
_
3
2
4
_
_
=
_
_
1
3
2
_
_
+
_
_
5
3
7
_
_
.
Denicin 3.6.3. Suponga que V es un espacio vectorial. Sean U y W dos subespacios de V.
Suponga que V
t
es un subespacio de V que tiene la propiedad de que cada vector v V
t
se
puede escribir en forma nica como:
v = u +w
donde u U y w W. En este caso se dice que V
t
es la suma directa (interna) de los subespacios
U y W y se escribe V
t
= U

W.
As, la suma de los subespacios del ejemplo anterior no es directa.
Teorema 3.6.4. Sea V un espacio vectorial y sean U, W subespacios de V . Entonces V =
U

W si y slo si V = U +W y U W = 0 .
Demostracin. () : Supongamos que V = U

W. Entonces, en particular V = U + W. Sea


v U W. Tenemos que v U y v W. Luego, v V y:
v = v + 0, con v U, 0 W,
v = 0 +v, con 0 U, v W.
Como tal suma para v debe ser nica, tenemos que v = 0 y as U W = 0.
() : Supongamos que V = U +W y U W = 0. Sea v V . Dado que V = U +W, existen
u U y w W tales que v = u + w. Debemos probar que esta suma es nica. Para ello,
supongamos que v = u
t
+w
t
, donde u
t
U y w
t
W. Entonces, u +w = u
t
+w
t
y por lo tanto
u u
t
= w
t
w. Como U y W son subespacios de V , tenemos que u u
t
U y w w
t
W,
de modo que u u
t
U W y w
t
w U W. Como U W = 0, tenemos que u u
t
= 0
y w w
t
= 0, es decir, u = u
t
y w = w
t
. De este modo, tal suma para v V es nica y as
V = U

W.
Corolario 3.6.5. Si U y W son subespacios de dimensin nita de un espacio vectorial V ,
entonces:
dim
_
U

W
_
= dimU + dimW.
3.6. Sumas directas 99
Demostracin. Sea V
t
= U

W. De acuerdo con el Teorema 3.6.4 tenemos que V


t
= U + W
y U W = 0. Luego, dim(U W) = 0 y segn el Teorema 3.6.1 tenemos que dim(V
t
) =
dimU + dimW dim(U W), es decir, dim(V
t
) = dimU + dimW.
Ejemplos 3.6.6.
1. R
3
= U

W, donde U = e
1
, e
2
y W = e
3
.
2. Considere la matriz A =
_
_
1 2 1 1
2 4 0 4
1 2 2 4
_
_
. Verique que R
3
= R(A)

N
_
A
T
_
y R
4
=
R
_
A
T
_
N (A) .
Un clculo sencillo muestra que:
R(A) =
___
1
2
1
_
,
_
1
0
2
___
, N
_
A
T
_
=
___
1
1/4
1/2
___
.
R
_
A
T
_
=
___
1
2
0
2
_
,
_
0
0
1
3
___
, N (A) =
___
2
1
0
0
_
,
_
2
0
3
1
___
.
Observe que los espacios columna y nulo izquierdo de A son ortogonales
2
. Tambin lo son los
espacios rengln y nulo de A. Es fcil probar que si dos subespacios de R
n
son ortogonales,
entonces su suma es directa (se deja esta armacin como ejercicio). En consecuencia, la
suma de R(A) y N
_
A
T
_
es directa y tambin lo es la suma de R
_
A
T
_
y N (A) . Como la
dimensin del subespacio R(A) + N
_
A
T
_
es 3 = dimR
3
, entonces R
3
= R(A) + N
_
A
T
_
=
R(A)

N
_
A
T
_
. Anlogamente se verica que R
4
= R
_
A
T
_
N (A) .
Teorema 3.6.7. Si A R
mn
, entonces:
R
m
= R(A)

N(A
T
).
R
n
= N(A)

R(A
T
).
Demostracin. Demostraremos primero que N
_
A
T
_
R(A) = 0 . En efecto, si x N
_
A
T
_

R(A) , entonces A
T
x = 0 y x = Az para algn z. Luego:
x
T
x = (Az)
T
x =
_
z
T
A
T
_
x = z
T
_
A
T
x
_
= z
T
0 = 0,
de donde x = 0. As, N
_
A
T
_
R(A) = 0. Ahora, como dim(R(A) +N(A
T
)) = dim(R(A)) +
dim(N(A
T
)) dim(R(A) N(A
T
)) = r + (m r) 0 = m = dimR
m
, donde r es el rango de
A, tenemos que R
m
= R(A) +N(A
T
). Por lo tanto, R
m
= R(A)

N(A
T
).
Ahora, como N
_
A
T
_
R(A) = 0 para cualquier matriz A, se tiene que 0 = N
_
_
A
T
_
T
_

R
_
A
T
_
= N (A) R
_
A
T
_
, y razonando de manera anloga al caso anterior se demuestra la
segunda igualdad.
Teorema 3.6.8 (Rango de un producto de matrices). Si A K
mn
y B K
np
, entonces:
rango(AB) = rango(B) dim(N (A) R(B)).
Demostracin. Sea S = x
1
, . . . , x
s
una base para N(A) R(B). Claramente, N(A) R(B)
R(B). Supongamos que dimR(B) = s + t y extendamos la base S a una base para R(B),
digamos:
S
t
= x
1
, . . . , x
s
, z
1
, . . . , z
t
.
2
Dos subespacios de U y W de R
n
son ortogonales si u
T
w = 0 para toda u U y toda w W. Si U y W son
ortogonales se escribe UW.
100 3. Espacios vectoriales
Demostraremos que dimR(AB) = t, mostrando que T = Az
1
, . . . , Az
t
es una base para
R(AB). En efecto, si b R(AB), entonces b = ABy para algn y. Pero By R(B) implica que
By =

s
i=1
c
i
x
i
+

t
i=1
d
i
z
i
para algunos escalares c
i
, d
i
. Luego:
b = A
_
s

i=1
c
i
x
i
+
t

i=1
d
i
z
i
_
=
s

i=1
c
i
Ax
i
+
t

i=1
d
i
Az
i
=
t

i=1
d
i
Az
i
,
ya que S N(A) R(B) N(A). As, T genera a R(AB).
Supongamos ahora que existen escalares
1
, . . . ,
t
tales que:
0 =
t

i=1

i
Az
i
= A
_
t

i=1

i
z
i
_
.
Entonces,
1
z
1
+ +
t
z
t
N(A) R(B), de modo que existen escalares
1
, . . . ,
s
tales
que

t
i=1

i
z
i
=

s
j=1

j
x
j
, es decir,

t
i=1

i
z
i


s
j=1

j
x
j
= 0. Como S
t
es un conjunto
linealmente independiente, resulta que
i
= 0 y
j
= 0 para todo i = 1, . . . , t y todo j = 1, . . . , s.
As, T es linealmente independiente. Por lo tanto, T es una base para R(AB), de modo que
t = dimR(AB) = rango(AB) y de aqu se sigue que:
rango(B) = dimR(B) = s +t = dim(N(A) R(B)) + rango(AB).
Teorema 3.6.9. Si A R
mn
, entonces:
1. rango
_
A
T
A
_
= rango (A) = rango
_
AA
T
_
.
2. R
_
A
T
A
_
= R
_
A
T
_
y R
_
AA
T
_
= R(A) .
3. N
_
A
T
A
_
= N (A) y N
_
AA
T
_
= N
_
A
T
_
.
Demostracin. 1. Observemos primero que N(A
T
) R(A) = 0 ya que:
x N(A
T
) R(A) A
T
x = 0 y x = Ay para algn y
x
T
x = y
T
A
T
x = 0

x
2
i
= 0
x = 0.
Luego, aplicando la frmula para el rango de un producto tenemos que:
rango(A
T
A) = rango(A) dim(N(A
T
) R(A)) = rango(A).
Si ahora intercambiamos los papeles de A y A
T
, tenemos que:
rango(AA
T
) = rango(A
T
) = rango(A),
donde la ltima igualdad se sigue del Corolario 1.5.7.
2. Es fcil probar que R(AB) R(A) (se deja de ejercicio al lector). Luego, R(A
T
A) R(A
T
).
Por otra parte, de acuerdo con el inciso anterior tenemos que:
dimR(A
T
A) = rango(A
T
A) = rango(A) = rango(A
T
) = dimR(A
T
),
de donde se sigue que R(A
T
A) = R(A
T
). Intercambiando los papeles de A y A
T
se obtiene
que R(AA
T
) = R(A).
3. Es fcil probar que N(B) N(AB) (se deja de ejercicio al lector). Luego, N(A) N(A
T
A).
Aplicando el inciso 1, tenemos que:
dimN(A) = n rango(A) = n rango(A
T
A) = dimN(A
T
A),
de donde se sigue que N(A) = N(A
T
A). Intercambiando los papeles de A y A
T
obtenemos
que N(AA
T
) = N(A
T
).
3.6. Sumas directas 101
3.6.1. Ejercicios
1. Pruebe que rango (A+B) rango (A) + rango (B) .
2. Sean A K
mn
y B K
mp
. Pruebe que rango([A [ B]) = rango(A) + rango(B)
rango(R(A) R(B)).
3. Sean A y B matrices de mn y n p. Pruebe que
a) rango(AB) mnrango(A), rango(B).
b) rango(A) + rango(B) n rango(AB).
4. Sea W un subespacio de R
n
y sea:
W

=
_
v R
n
[ v
T
w = 0 para todo w W
_
.
Pruebe que W

es un subespacio de R
n
y que la suma de W y W

es directa. Al subespacio
W

se le denomina complemento ortogonal de W.


5. Sea m > n y sea A R
mn
. Cul de las siguientes armaciones es verdadera?
a) R
n
= R(A) N
_
A
T
_
.
b) R
n
= R
_
A
T
_
N
_
A
T
_
.
c) R
n
= R(A) N (A).
d) R
n
= R
_
A
T
_
N (A).
6. Sea = v
1
, v
2
, v
3
, v
4
una base para el R-espacio vectorial V . Sea U el subespacio generado
por los vectores v
1
v
4
y v
2
v
3
; sea W el subespacio de generado por los vectores v
1
+ v
4
y v
2
+ v
3
. Es la suma de U y W directa? Si la respuesta es armativa, prubelo. En caso
contrario, explique por qu la suma no es directa.
7. Sea = v
1
, v
2
, v
3
, v
4
, v
5
una base para el R-espacio vectorial V . Sea U el subespacio
generado por los vectores v
1
v
2
y v
3
+ v
4
; sea W el subespacio de generado por los
vectores v
1
+ v
4
y v
2
+ v
3
. Es la suma de U y W directa? Si la respuesta es armativa,
prubelo. En caso contrario, explique por qu la suma no es directa.
8. Considere los siguientes subespacios de R
4
:
W
1
=
_
x R
4
: x
1
+x
2
+x
3
+x
4
= 0
_
W
2
=
_
x R
4
: x
1
= x
2
= x
3
= x
4
_
Pruebe que R
4
= W
1
W
2
, i.e. pruebe que R
4
= W
1
+W
2
y W
1
W
2
= 0.
9. Demuestre que si P es una matriz invertible de mm, entonces
rango(PA) = rango(A),
para cualquier matriz A de mn.
10. Sea A R
mn
. Pruebe que N
_
A
T
_
R(A)

y R(A) N
_
A
T
_

.
11. Calcule el complemento ortogonal del espacio columna de la matriz:
A =
_
_
1 2 1 1
2 4 0 4
1 2 2 4
_
_
.
102 3. Espacios vectoriales
12. Pruebe que si U y W son subespacios ortogonales de R
n
, entonces la suma de U y W es
directa.
13. Pruebe que los espacios nulo y rengln de una matriz A R
mn
, son ortogonales. Pruebe
que tambin lo son los espacios columna y nulo izquierdo de A.
14. Sean U y W subespacios diferentes de un espacio vectorial V . Suponga que dimU = dimW =
4 y dimV = 6. Calcule todos los posibles valores para la dimensin del subespacio U W.
15. Sean U y W subespacios de un espacio vectorial V cuya dimensin es 10. Suponga que la
dimU = 5 y dimW = 6. Pruebe que la suma de U y W no es directa.
16. Sean W
1
y W
2
subespacios de un espacio vectorial V . Si dimV = 12, dimW
1
= 6 y dimW
2
=
8, entonces el valor ms pequeo que puede tener dimW
1
W
2
es: (a) 0, (b) 2, (c) 2, (d)
6, (e) 8. Justique su respuesta.
17. Sea V el espacio de todas las funciones continuas de R en R. Sean W
1
el subespacio de V
que consiste de las funciones pares y W
2
el subespacio de V que consiste de las funciones
impares:
W
1
= f V : f (x) = f (x) , x R ,
W
2
= g V : g (x) = g (x) , x R .
Pruebe que V es la suma directa de W
1
y W
2
.
18. Sea K un campo y sea V el espacio vectorial K
nn
, es decir, el espacio vectorial de todas las
matrices cuadradas de nn sobre el campo K. Sean W
1
y W
2
los subespacios de V formados
por las matrices simtricas y antisimtricas, respectivamente.
a) Si K es un subcampo del campo de los nmeros complejos, pruebe que V = W
1
W
2
.
b) Ms general, pruebe que si K es un campo de caracterstica distinta de 2, entonces V =
W
1
W
2
.
c) Es cierto el resultado si la caracterstica del campo es 2?
19. Considere el sistema de ecuaciones lineales Ax = b, donde A =
_
1 1 1
1 1 1
_
y b =
_
2
3
_
.
20. a) Verique que el sistema Ax = b es inconsistente.
b) Verique que el sistema de ecuaciones lineales A
T
Ax = A
T
b es un sistema de ecuaciones
lineales consistente. Encuentre todas sus soluciones.
c) Muestre que el sistema de ecuaciones lineales Ax = c es consistente, donde c =
_
1
2
_
.
Muestre tambin que los sistemas Ax = c y A
T
Ax = A
T
c tiene exactamente las mismas
soluciones.
21. Muestre que los dos sistemas de ecuaciones lineales Ax = b y A
T
Ax = A
T
b, donde A =
_
_
1 1
1 0
1 1
_
_
y b =
_
_
1
2
5
_
_
, tienen solucin nica. Verique que en ambos casos la solucin
es x = (A
T
A)
1
A
T
b.
22. Sean A R
mn
y b R
m
.
a) Pruebe que el sistema de ecuaciones lineales A
T
Ax = A
T
b siempre es consistente, aun
cuando Ax = b no sea un sistema de ecuaciones lineales consistente.
3.6. Sumas directas 103
b) Pruebe que si Ax = b es consistente, entonces el conjunto de soluciones de Ax = b y el de
A
T
Ax = A
T
b es el mismo.
c) Pruebe que A
T
Ax = A
T
b tiene solucin nica si y solo rango(A) = n.
23. Sea p > 2 un nmero primo y sea V el espacio vectorial F
4
p
sobre el campo F
p
.
a) Si A es una matriz de 4 4 con coecientes en F
p
y A
2
= I, demuestre que V = E F
donde E = u V [ Au = u y F = u V [ Au = u.
b) Si E es un subespacio de V = F
4
p
tal que dimE = k, demuestre que [E[ = p
k
.
c) Si W es un espacio vectorial sobre F
p
de dimensin m, demuestre que el nmero de
subespacios de W de dimensin n, con 1 n m, es:
(p
m
1)(p
m1
1) (p
mn+1
1)
(p
n
1)(p
n1
1) (p 1)
.
d) Si X
p
= A F
44
p
[ A
2
= I, demuestre que:
[X
p
[ = p
8
+p
7
+ 4p
6
+ 3p
5
+ 3p
4
+ 2p
3
+ 2.
104 3. Espacios vectoriales
CAPTULO 4
Transformaciones lineales y matrices
En este captulo se estudia el concepto de transformacin lineal. Esta herramienta ser
til para establecer cundo dos espacios vectoriales son esencialmente iguales, es decir, tienen
exactamente la misma estructura algebraica. Se mostrar que en esencia un espacio vectorial
de dimension nita sobre un campo K es un K
n
para algn n, y que una transformacin lineal
entre dos espacios vectoriales de dimensin nita se corresponde con una matriz.
El problema de seleccionar bases adecuadas, de tal manera que la matriz asociada tenga
una estructura simple, conduce al estudio de los valores y vectores propios, los cuales sern
estudiados en un captulo posterior. Tambin se estudiar la relacin que guardan las matrices
asociadas a la misma transformacin lineal, y en la ltima seccin se tratar el concepto de
espacio dual de un espacio vectorial.
4.1. Transformaciones lineales
Empezamos la seccin con la denicin de transformacin lineal.
Denicin 4.1.1. Sean V y W dos espacios vectoriales sobre un mismo campo K.
1) Una funcin T : V W es una transformacin lineal si
T (u +v) = T (u) +T (v) y T (cv) = cT (v)
para cualquier c K y cualesquiera u, v V.
2) Un operador lineal sobre V es una transformacin lineal de V en s mismo.
Aplicacin lineal o funcin lineal son sinnimos para de transformacin lineal.
La denicin de transformacin lineal se puede reescribir como sigue. La funcin T : V W
es lineal si y solamente si
T (cu +v) = cT (u) +T (v) (*)
para cualesquiera u, v V y c K. En efecto, si T es lineal, entonces T(cu+v) = T(cu)+T(v) =
cT(u) +T(v). Recprocamente, si cumple (*), entonces
T(u +v) = T(1 u +v) = 1 T(u) +T(v) = T(u) +T(v)
T(cv) = T(cv + 0) = cT(v) +T(0) = cT(v).
105
106 4. Transformaciones lineales y matrices
La ltima igualdad es consecuencia de que T(0) = 0 ( T(0) = T(1 0 + 0) = 1T(0) + T(0) =
T(0) +T(0)).
Veamos algunos ejemplos.
Ejemplos 4.1.2.
1. La funcin 0 : V W denida por 0(v) = 0 que mapea todos los elementos del espacio
vectorial V al elemento cero del espacio W, es claramente una funcin lineal, llamada por
razones obvias la transformacin cero.
2. La funcin 1
V
: V V dada por 1
V
(v) = v es un operador lineal denominado operador
identidad sobre V .
3. (La transformacin lineal inducida por una matriz) Si A K
mn
, la funcin T
A
: K
n
K
m
dada por T
A
(x) = Ax es lineal. Cuando A es una matriz cuadrada, T
A
es un operador lineal.
En particular, si A =
_
1 1 1
1 1 1
_
, entonces:
T
A
_
_
x
y
z
_
_
=
_
x +y z
x y +z
_
.
4. Si V es el espacio vectorial de todas las funciones diferenciables de R en R y W = R
R
,
entonces la funcin D : V W dada por D(f) = f
t
es una transformacin lineal.
5. Si V = C(R) es el espacio de todas las funciones continuas de R en R, entonces la funcin
T (f) =
_
x
0
f (t) dt es una funcin lineal.
6. Si V es un K -espacio vectorial de dimensin nita e igual a n > 0, y es una base para V,
la funcin de coordenadas:
[ ]

: V K
n
es lineal. Adems es una biyeccin. (Vanse los Ejercicios 2 y 3 de la Seccin 3.5).
7. La funcin F : K
mn
K
nm
dada por F(A) = A
T
es una funcin lineal.
Teorema 4.1.3. Si T : V W es una transformacin lineal, entonces:
1. T (0) = 0.
2. T (v) = T (v) para todo v V .
Demostracin. 1. Como 0+0 = 0, tenemos que T(0+0) = T(0). Es decir, T(0)+T(0) = T(0)
ya que T es lineal. Por lo tanto, T(0) = 0.
2. Para cada v V sabemos que existe v V tal que v + (v) = 0. Luego, T(v + (v)) =
T(0). Como T(0) = 0 y T(v +(v)) = T(v) +T(v), tenemos que T(v) +T(v) = 0. Por
lo tanto, T(v) = T(v).
El siguiente teorema permite construir funciones lineales sobre espacios vectoriales de di-
mensin nita.
Teorema 4.1.4. Sean V y W espacios vectoriales sobre un campo K. Suponga que V es de
dimensin nita y que = v
1
, . . . , v
n
es una base de V . Sean w
1
, . . . , w
n
elementos arbitrarios
de W. Entonces existe una nica transformacin lineal T : V W tal que T(v
i
) = w
i
para
i = 1, . . . , n.
4.1. Transformaciones lineales 107
Demostracin. Dado v V , sea [v]

= (x
1
, . . . , x
n
)
T
K
n
. Denimos:
T(v) =
n

i=1
x
i
w
i
.
Veamos que T es una funcin lineal. Sean u, v V y c K. Supongamos que [u]

= (x
1
, . . . , x
n
)
T
y [v]

= (y
1
, . . . , y
n
)
T
. Luego [u +v]

= (x
1
+y
1
, . . . , x
n
+y
n
)
T
y [cu]

= (cx
1
, . . . , cx
n
)
T
. As
T(u +v) =
n

i=1
(x
i
+y
i
)w
i
=
n

i=1
(x
i
w
i
+y
i
w
i
) =
n

i=1
x
i
w
i
+
n

i=1
y
i
w
i
= T(u) +T(v),
T(cu) =
n

i=1
(cx
i
)w
i
=
n

i=1
c(x
i
w
i
) = c
n

i=1
x
i
w
i
= cT(u).
Supongamos ahora que T
t
: V W es una transformacin lineal tal que T
t
(v
i
) = w
i
para
i = 1, . . . , n. Sea v V y escribamos v =

n
i=1
x
i
v
i
. Como T
t
es lineal se tiene
T
t
(x
1
v
1
+ +x
n
v
n
) = T
t
(x
1
v
1
) + +T
t
(x
n
v
n
) = x
1
T
t
(v
1
) + +x
n
T
t
(v
n
)
= x
1
w
1
+ x
n
w
n
= T(v)
Como T
t
(v) = T(v) todo v V se concluye que T = T
t
.
Ejemplo 4.1.5. Calcule la nica transformacin lineal T : R[t]
3
R
2
tal que T(v
1
) = e
1
,
T(v
2
) = 2e
1
+e
2
y T(v
3
) = e
1
+ 3e
2
, donde v
1
= 1, v
2
= 1 +t y v
3
= 1 +t +t
2
.
Como el conjunto = v
1
, v
2
, v
3
es una base para R[t]
3
, se puede aplicar el teorema anterior.
Sea v = a +bt +ct
2
R[t]
3
. El primer paso consiste en calcular [v]

. Al hacerlo se obtiene que:


[v]

=
_
_
a b
b c
c
_
_
.
Entonces la funcin pedida se dene como:
T(a +bt +ct
2
) = (a b)
_
1
0
_
+ (b c)
_
2
1
_
+c
_
1
3
_
=
_
a + 3b c
b + 2c
_
.
Ejercicio 4.1.6. Considere la base = v
1
, v
2
de R
2
, donde v
1
= e
1
y v
2
= e
1
+ e
2
. Calcule
las nicas transformaciones lineales v

1
, v

2
: R
2
R tales que:
v

1
(v
i
) =
i1
y v

2
(v
i
) =
i2
i = 1, 2,
donde
ij
es la delta de Kronecker.
Sean V y W dos K-espacios vectoriales. El conjunto de todas las transformaciones lineales
T : V W, denotado por L(V, W) tiene una estructura natural de espacio vectorial.
Teorema 4.1.7. Sean V y W K-espacios vectoriales. Si F, T L(V, W) y c es un escalar,
entonces F + T, cF L(V, W), donde F + T, cF : V W son las funciones denidas por
(F + T)(v) = F(v) + T(v) y (cF)(v) = cF(v), respectivamente. Ms an, L(V, W) junto con
estas operaciones es un K-espacio vectorial.
108 4. Transformaciones lineales y matrices
Demostracin. Supngase que F, T son transformaciones lineales. Sean v
1
, v
2
V y sean c,
escalares. Entonces
(F +T)(v
1
+v
2
) = F(v
1
+v
2
) +T(v
1
+v
2
)
= F(v
1
) +F(v
2
) +T(v
1
) +T(v
2
)
= (F(v
1
) +T(v
1
)) + (F(v
2
) +T(v
2
))
= (F +T)(v
1
) + (F +T)(v
2
).
Esto prueba que F +T es lineal. En forma anloga,
(cF)(v
1
+v
2
) = cF(v
1
+v
2
)
= c(F(v
1
) +F(v
2
))
= cF(v
1
) +cF(v
2
)
= (cF)(v
1
) + (cF)(v
2
),
prueba que cF es una transformacin lineal.
Para probar que L(V, W) junto con estas operaciones es un espacio vectorial, se debe vericar
directamente cada una de las condiciones de la Denicin 3.1.1. Los detalles se dejan al lector.
Teorema 4.1.8. Sean U, V y W K-espacios vectoriales. Si T : U V y F : V W son
transformaciones lineales, entonces la funcin F T : U W denida por (F T)(u) = F(T(u))
es lineal.
U
T
//
FT
55 V
F
//
W
Demostracin. Sean u
1
, u
2
U y sea c un escalar. Entonces
(F T) (cu
1
+u
2
) = F (T (cu
1
+u
2
))
= F (cT (u
1
) +T (u
2
))
= cF (T (u
1
)) +F (T (u
2
))
= c (F T) (u
1
) + (F T) (u
2
) .
Si V = W, en vez de escribir L(V, V ) se escribe L(V ). El siguiente teorema presenta las
propiedades bsicas de la composicin en L(V ).
Teorema 4.1.9. Sean T
1
, T
2
y F operadores lineales sobre un espacio V , es decir T
1
, T
2
L(V ).
Sea c un escalar. Entonces:
a) 1
V
F = F = F 1
V
.
b) F (T
1
+T
2
) = F T
1
+F T
2
; (T
1
+T
2
) F = T
1
F +T
2
F.
c) c (F T
1
) = (cF) T
1
= F (cT
1
).
Demostracin. (a) Es fcil y se deja al lector.
(b) Sea u U.
[F (T
1
+T
2
)](u) = F ((T
1
+T
2
)(u))
= F (T
1
(u) +T
2
(u))
= F (T
1
(u)) +F (T
2
(u))
= (F T
1
)(u) + (F T
2
)(u)
= (F T
1
+F T
2
)(u).
4.1. Transformaciones lineales 109
As F (T
1
+T
2
) = F T
1
+F T
2
.
(c) Se deja al lector.
Observacin 4.1.10. De los resultados anteriores se sigue que, L(V ) junto con las operaciones
de suma y composicin es un anillo con unitario. Todava ms, dado que L(V ) es un anillo con
unitario, que adems es un un K-espacio vectorial que satisface c(F T) = (cF) T = F (cT),
se tiene que L(V ) es un ejemplo muy particular de una K-lgebra.
4.1.1. Ejercicios
1. Determine cules de las siguientes transformaciones son lineales.
a) T : R
3
R
3
, T
_
x
y
z
_
=
_
x
0
z
_
.
b) T : R
3
R
3
, T
_
x
y
z
_
=
_
y
z
x
_
.
c) T : R
3
R
3
, T
_
x
y
z
_
=
_
x
y
1
_
.
d) T : R
2
R
2
, T (
x
y
) =
_
x+3y1
2xy+4
_
.
e) T : R
2
R
2
, T (
x
y
) =
_
x
y
_
.
f) T : R
2
R
2
, T (
x
y
) =
_
y
x
_
.
2. Considere los vectores v
1
= (1, 1)
T
, v
2
= (2, 1)
T
, v
3
= (3, 2)
T
, w
1
= (1, 0)
T
, w
2
=
(0, 1)
T
y w
3
= (1, 1)
T
. Existe una funcin lineal F : R
2
R
2
tal que F(v
i
) = w
i
? Si
existe, descrbala explcitamente. En caso contrario, pruebe que no existe.
3. Considere R[t]
3
con la base = 1 t +t
2
, 1, 1 t = v
1
, v
2
, v
3
. Calcule la nica transfor-
macin lineal T : R[t]
3
R
3
tal que Tv
1
= w
1
, Tv
2
= w
2
y Tv
3
= w
3
, donde
a) w
1
=
_
_
2
2
1
_
_
w
2
=
_
_
1
2
2
_
_
, w
3
=
_
_
3
0
3
_
_
.
b) w
1
=
_
_
1
1
1
_
_
, w
2
=
_
_
1
0
1
_
_
, w
3
=
_
_
1
2
5
_
_
.
4. Sea T : V W una transformacin lineal y sean v
1
, . . . , v
n
V y w
1
, . . . , w
n
W tales que
Tv
i
= w
i
.
a) Si w
1
, . . . , w
n
son linealmente independientes, pruebe que los vectores v
1
, . . . , v
n
son li-
nealmente independientes.
b) Si los vectores v
1
, . . . , v
n
son linealmente independientes, Es cierto que w
1
, . . . , w
n
son
linealmente independientes? Si su respuesta es armativa, prubelo. En caso contrario, de
un contrajemplo.
5. Dena una transformacin lineal T : R
2
R
3
tal que T
_
1
2
_
= e
1
+ 2e
2
+ 3e
3
, donde
e
1
, e
2
, e
3
son los vectores unitarios de R
3
.
110 4. Transformaciones lineales y matrices
6. Encuentre una transformacin lineal T : R
3
R
2
tal que T
_
_
1
1
1
_
_
=
_
4
2
_
y T
_
_
1
1
0
_
_
=
_
1
3
_
. Nota: Debe escribir a T en forma explcita, es decir, debe encontrar una frmula
para T
_
_
x
1
x
2
x
3
_
_
en trminos de x
1
, x
2
y x
3
. Justique su respuesta.
7. Sea V un espacio vectorial real de dimensin 3 y sea = v
1
, v
2
, v
3
una base para V .
Suponga que f : V R es una transformacin lineal tal que
f (v
1
v
2
) = 5, f (v
2
v
3
) = 3, f (v
1
+v
3
) = 4.
De una frmula en trminos de la base para calcular f (v) para cualquier v V.
8. Pruebe que la funcin T : K[t]
3
K
33
dada por:
T(a
0
+a
1
t +a
2
t
2
) =
_
_
a
0
a
1
a
2
0 a
0
a
1
0 0 a
0
_
_
,
es una transformacin lineal inyectiva.
9. Sea K un campo arbitrario y sea K. Pruebe que la funcin evaluacin ev

: V K dada
por ev

(a
0
+a
1
t + +a
n
t
n
) = a
0
+a
1
+ +a
n

n
es una transformacin lineal.
10. Pruebe que la funcin traza tr: K
nn
K dada por tr(A) =

n
i=1
a
ii
es lineal.
11. Sea A K
mn
. Pruebe que la funcin T : K
nr
K
mr
dada por T(X) = AX es una
transformacin lineal.
12. Sea A K
nn
. Es la funcin T : K
nn
K dada por T(X) = tr(AX) una transformacin
lineal? (Sugerencia: Vea el Teorema 4.1.8.)
13. Pruebe que la funcin T : K[t] K[t] dada por T(p(t)) = tp(t) es un operador lineal.
14. Sea V un K-espacio vectorial y sea T : V V K una funcin bilineal, es decir una funcin
que satisface lo siguiente:
T(u
1
+u
2
, v) = T(u
1
, v) +T(u
2
, v),
T(u, v
1
+v
2
) = T(u, v
1
) +T(u, v
2
),
T(cu, v) = cT(u, v) = T(u, cv),
para cualesquiera u
1
, u
2
, v
1
, v
2
, u, v V y para cualquier c K. Sean v, w V tales que
T(v, w) = 0 = T(w, v) y T(v, v) = T(w, w) = 1. Pruebe que los vectores v y w son linealmente
independientes.
15. Sean = v
1
, v
2
, v
3
y
t
= w
1
, w
2
bases para los K-espacios vectoriales V y W, respec-
tivamente. Sea E
ij
: V W la nica transformacin lineal tal que E
ij
(v
i
) =
ij
w
j
, donde

ij
es la delta de Kronecker. As por ejemplo, E
11
es la nica transformacin lineal tal que
E
11
(v
1
) = w
1
, E
11
(v
2
) = 0 y E
11
(v
3
) = 0. Pruebe que dimL(V, W) = 3 3 mostrando que la
coleccin E
ij
: 1 i 3, 1 j 2 es una base.
4.2. El ncleo y la imagen de una transformacin lineal 111
16. Podemos encajar R
2
en R
3
en formas diferentes. La forma usual de hacer esto es mediante
la funcin
_
x
y
_

_
_
x
y
0
_
_
. Otra forma es mediante la funcin
_
x
y
_

_
_
x
y
1
_
_
. Considere los
puntos de R
2
como tercias del tipo
_
_
x
y
1
_
_
. Para cada una de las siguientes matrices:
R

=
_
_
cos sen 0
sen cos 0
0 0 1
_
_
, P
x
=
_
_
1 0 0
0 1 0
0 0 1
_
_
,
P
y
=
_
_
1 0 0
0 1 0
0 0 1
_
_
,
(a,b)
=
_
_
1 0 a
0 1 b
0 0 1
_
_
,
considere la correspondiente transformacin lineal inducida (vase el Ejemplo 4.1.2, apartado
3). Analice el efecto de aplicar la transformacin lineal a un vector de la forma
_
x
y
1
_
. Este
tipo de matrices son tiles en grcas por computadora.
4.2. El ncleo y la imagen de una transformacin lineal
Asociada a una transformacin lineal T : V W estn los conjuntos:
ker(T) = v V [ T(v) = 0 ,
Im(T) = w W [ v V, w = T(v) = T(v) [ v V .
El primer conjunto es el ncleo, kernel o espacio nulo de T. El segundo es la imagen o rango
de T. Estos subconjuntos son subespacios de V y de W, respectivamente. La prueba de esta
armacin es sencilla y se deja de ejercicio al lector.
Ejemplos 4.2.1.
1. Calcule el ncleo y la imagen de la transformacin lineal T : R[t]
3
R
2
dada por:
T(a +bt +ct
2
) =
_
a + 3b c
b + 2c
_
.
En este caso:
ker(T) =
_
a +bt +ct
2
R[t]
3
[ a + 3b c = 0 y b + 2c = 0
_
=
_
a +bt +ct
2
R[t]
3
[a = 7c y b = 2c
_
=
_
7c 2ct +ct
2
[c R
_
=

7 2t +t
2
_
y
Im(T) =
__
x
y
_
R
2
[ x = a + 3b c y y = b + 2c para algunos a, b, c R
_
= R
2
.
Observe que dimR[t]
3
= dimker T + dimImT.
112 4. Transformaciones lineales y matrices
2. Si A es una matriz mn y T
A
es la transformacin lineal inducida por A, entonces:
ker(T
A
) = N (A) y Im(T
A
) = R(A) .
Es decir, los subespacios ncleo e imagen de la transformacin lineal inducida por A son los
espacios nulo y columna de A, respectivamente.
Denicin 4.2.2. Sea T : V W una transformacin lineal. El rango de T es la dimensin de
la imagen de T y se denota por rango(T). La nulidad de T es la dimensin del ncleo de T y se
denota por nulidad(T).
Teorema 4.2.3 (Teorema de la dimensin). Si V es un espacio vectorial de dimensin nita y
T : V W es una transformacin lineal, entonces:
dim(V ) = rango(T) + nulidad(T).
Demostracin. Supongamos que dim(V ) = n y sea v
1
, . . . , v
k
una base para ker(T) (de manera
que nulidad(T) = k). Como v
1
, . . . , v
k
es un conjunto linealmente independiente, podemos
extenderlo a una base para V , digamos = v
1
, . . . , v
k
, v
k+1
, . . . , v
n
. Demostraremos que el
conjunto:

t
= T(v
k+1
), . . . , T(v
n
)
es una base para Im(T).
Claramente
t
Im(T). Sea T(v) Im(T) con v V . Como es base para V , existen escalares
c
1
, . . . , c
n
tales que:
v = c
1
v
1
+ +c
k
v
k
+c
k+1
v
k+1
+ +c
n
v
n
.
Como v
1
, . . . , v
k
ker(T), tenemos que T(v
1
) = = T(v
k
) = 0, de modo que:
T(v) = T(c
1
v
1
+ +c
k
v
k
+c
k+1
v
k+1
+ +c
n
v
n
)
= c
1
T(v
1
) + +c
k
T(v
k
) +c
k+1
T(v
k+1
) + +c
n
T(v
n
)
= c
k+1
T(v
k+1
) + +c
n
T(v
n
),
lo cual demuestra que Im(T) est generada por
t
. Supongamos ahora que existen escalares
d
k+1
, . . . , d
n
tales que:
d
k+1
T(v
k+1
) + +d
n
T(v
n
) = 0.
Entonces T(d
k+1
v
k+1
+ +d
n
v
n
) = 0 (ya que T es lineal), de donde d
k+1
v
k+1
+ +d
n
v
n

ker(T). Por lo tanto, existen escalares d
1
, . . . , d
k
tales que:
d
k+1
v
k+1
+ +d
n
v
n
= d
1
v
1
+ +d
k
v
k
,
pues v
1
, . . . , v
k
es base para ker(T). Luego:
d
1
v
1
+ +d
k
v
k
d
k+1
v
k+1
d
n
v
n
= 0,
y la independencia lineal de obliga a que d
1
= = d
n
= 0. En particular, d
k+1
= =
d
n
= 0 y por lo tanto
t
es linealmente independiente. As,
t
es base para Im(T). Luego,
rango(T) = n k y por lo tanto:
rango(T) + nulidad(T) = k + (n k) = n = dim(V ),
como se quera.
4.2. El ncleo y la imagen de una transformacin lineal 113
Ejemplo 4.2.4. Encuentre el rango y la nulidad de la transformacin lineal T : R[t]
3
R[t]
4
denida por T(p(t)) = tp(t).
Solucin. Tenemos que T(a +bt +ct
2
) = at +bt
2
+ct
3
. Luego:
ker(T) = a +bt +ct
2
[ T(a +bt +ct
2
) = 0
= a +bt +ct
2
[ at +bt
2
+ct
3
= 0
= a +bt +ct
2
[ a = b = c = 0
= 0,
de manera que nulidad(T) = 0 y por el Teorema de la dimensin, tenemos que rango(T) =
dim(R[t]
3
) nulidad(T) = 3 0 = 3.
Note que hubiera sido ms fcil hallar primero el rango de T, debido a que se ve fcilmente
que t, t
2
, t
3
es una base para la imagen de T. Aunque, por lo regular, una de las dos (el rango
o la nulidad de una transformacin lineal) sea ms fcil de calcular, el Teorema de la dimensin
puede ser utilizado para hallar la otra.
4.2.1. Ejercicios
1. Describa explcitamente una transformacin lineal de R
3
en R
3
cuya imagen sea el espacio
generado por los vectores (1 0 1)
T
y (1 2 2)
T
.
2. Sea W el espacio vectorial de todas las matrices simtricas de 22. Dena una transformacin
lineal T : W R[t]
3
mediante:
T
_
a b
b c
_
= (a b) + (b c)t + (c a)t
2
.
Encuentre el rango y la nulidad de T.
3. Encuentre el rango y la nulidad de las siguientes transformaciones lineales:
a) T : R
33
R
33
denida por T(A) = AA
T
para cada A R
33
.
b) T : R[t]
3
R denida por T(p(t)) = p
t
(0) para cada p(t) R[t]
3
. (Nota: p
t
(t) denota la
derivada de p(t) con respecto a t).
4. Sea T : R[t]
3
R
2
la transformacin lineal dada por T(a +bt +ct
2
) =
_
a b
b +c
_
.
a) Cul o cules de los siguientes vectores est en el ncleo de T?: (a) 1 + t, (b) t t
2
, (c)
1 +t t
2
.
b) Cul o cules de los siguientes vectores est en la imagen de T?: (a)
_
0
0
_
, (b)
_
1
0
_
,
(c)
_
0
1
_
.
5. Considere el espacio vectorial R[t]
3
con la base =
_
1, 1 t, 1 t +t
2
_
.
a) Construya la nica transformacin lineal de T : R[t]
3
R
22
tal que
T (1) =
_
1 1
1 1
_
, T (1 t) =
_
1 1
1 1
_
, T
_
1 t +t
2
_
=
_
1 3
1 3
_
.
b) Calcule el ncleo de la transformacin lineal construida en el inciso a).
114 4. Transformaciones lineales y matrices
6. Calcule el ncleo de la transformacin lineal inducida por la matriz A =
_
1 2 0 2
0 0 1 3
_
.
7. Calcule el ncleo de la transformacin lineal T : R
4
R
2
dada por:
T
_
x, y, z, w
_
T
=
_
x + 2y + 2w
z + 3w
_
.
8. Sean V y W espacios vectoriales reales de dimensin nita. Sean = v
1
, v
2
, v
3
, v
4
y
t
=
w
1
, w
2
, w
3
bases para V y W, respectivamente. Sea T : V W la nica transformacin
lineal tal que
Tv
1
= w
1
+ 2w
2
w
3
Tv
2
= 3w
1
+ 6w
2
3w
3
Tv
3
= 3w
1
+ 9w
2
+ 3w
3
Tv
4
= 2w
1
+ 5w
2
Calcule bases para el ncleo y la imagen de T.
9. Sean U, V y W espacios vectoriales sobre el campo K, y sean T
1
: V U y T
2
: U W
funciones lineales. Demuestre que ker(T
1
) ker(T
2
T
1
) y Im(T
2
T
1
) Im(T
2
).
10. Sea P : V V un operador lineal idempotente, es decir, P P = P. Pruebe que V =
ker P ImP.
11. Sea V un espacio vectorial y sea T : V V un operador lineal. Demuestre que las siguientes
condiciones son equivalentes:
a) ker T ImT = 0.
b) v V, T(T(v)) = 0 T(v) = 0.
12. Sea V un espacio vectorial de dimensin nita y sea T : V V una funcin lineal. Demuestre
que si rango(T T) = rango(T), entonces Im(T) ker(T) = 0.
13. Sean T : V W una transformacin lineal y U un subespacio de dimensin nita del espacio
V . Pruebe que si U ker T = 0, entonces dimT(U) = U, donde T(U) = Tu [ u U.
14. Sean U, V y W K-espacios vectoriales. Si U es de dimensin nita, A: U V y B: V W
son transformaciones lineales, pruebe que
dimIm(AB) = dimIm(B) dimker(A) Im(B).
4.3. Transformaciones lineales inyectivas y suprayectivas
Recordemos que una funcin f : A B es inyectiva si para cualesquiera a, a
t
A, f(a) =
f(a
t
) implica a = a
t
. Si Im(f) = B, entonces f es suprayectiva.
En esta seccin la conexin entre las funciones inyectivas y la nulidad de una transformacin
lineal.
Primero veamos un ejemplo.
Teorema 4.3.1. Una transformacin lineal T : V W es inyectiva si y slo si ker(T) = 0.
4.3. Transformaciones lineales inyectivas y suprayectivas 115
Demostracin. () : Supongamos que T es inyectiva y sea v ker(T). Entonces T(v) = 0. Sin
embargo, tambin sabemos que T(0) = 0 segn el Teorema 4.1.3, de manera que T(v) = T(0).
Debido a que T es inyectiva, esto implica que v = 0 y por lo tanto ker(T) = 0.
() : Supongamos ahora que ker(T) = 0 y sean u, v V tales que T(u) = T(v). Como T
es lineal, tenemos que T(u v) = T(u) T(v) = 0 de donde u v ker(T). Pero ker(T) = 0,
de modo que u v = 0. Por lo tanto, u = v y T es inyectiva.
Corolario 4.3.2. Sea dimV = dimW = n. Entonces, una transformacin lineal T : V W
es inyectiva si y slo si es suprayectiva.
Demostracin. Tenemos que T es inyectiva si y slo si ker(T) = 0 segn el Teorema 4.3.1.
Luego, T es inyectiva si y slo si nulidad(T) = 0. Por el Teorema de la dimensin, tenemos
que n = rango(T). Por lo tanto, T es inyectiva si y slo si n = rango(T). Como rango(T) =
dim(Im(T)), tenemos que Im(T) = W y por lo tanto T es suprayectiva. As, T es inyectiva si y
slo si es suprayectiva.
Corolario 4.3.3. Sea T : V W una transformacin lineal inyectiva. Si S = v
1
, . . . , v
k

es un conjunto linealmente independiente en V , entonces T(S) = T(v


1
), . . . , T(v
k
) es un
conjunto linealmente independiente en W.
Demostracin. Sean c
1
, . . . , c
k
escalares tales que:
c
1
T(v
1
) + +c
k
T(v
k
) = 0.
Entonces, T(c
1
v
1
+ +c
k
v
k
) = 0 pues T es lineal. De aqu que c
1
v
1
+ +c
k
v
k
ker(T). Pero, ya
que T es inyectiva, ker(T) = 0 segn el Teorema 4.3.1. Por consiguiente, c
1
v
1
+ +c
k
v
k
= 0.
No obstante, debido a que S es linealmente independiente, concluimos que c
1
= = c
k
= 0.
Por lo tanto, T(S) es linealmente independiente.
Corolario 4.3.4. Sea dimV = dimW = n. Entonces, una transformacin lineal inyectiva
T : V W mapea una base para V en una base para W.
Demostracin. Sea = v
1
, . . . , v
n
una base para V . Como T es inyectiva, los elementos de
T() son distintos entre s. Luego, [T()[ = n = dimW. De acuerdo con el Corolario 3.4.5,
T() ser una base para W si T() es linealmente independiente. Pero T() es linealmente
independiente segn el corolario anterior. Por lo tanto T() es una base para W.
Ahora estamos en posicin de describir, en trminos concretos, lo que signica que dos
espacios vectoriales sean esencialmente el mismo.
Denicin 4.3.5. Una transformacin lineal T : V W es un isomorsmo si es inyectiva y
suprayectiva. Si V y W son espacios vectoriales tales que existe un isomorsmo de V en W,
entonces decimos que V es isomorfo a W y escribimos V

= W.
Observacin 4.3.6. Sea K un campo. La relacin es isomorfo a es una relacin de equivalencia
en la clase de todos los K-espacios vectoriales.
Ejemplo 4.3.7. Los espacios R[t]
n
y R
n
son isomorfos.
Teorema 4.3.8. Sean V y W dos K-espacios vectoriales de dimensin nita. Entonces, V es
isomorfo a W si y slo si dimV = dimW.
Demostracin. () : Sea n = dimV . Si V es isomorfo a W, entonces existe un isomorsmo
T : V W. Como T es inyectiva, nulidad(T) = 0, y como T es suprayectiva, Im(T) = W.
El Teorema de la dimensin implica entonces que rango(T) = n, de donde dimW = n. As,
dimV = dimW = n.
116 4. Transformaciones lineales y matrices
() : Supongamos ahora que dimV = dimW = n. Sea = v
1
, . . . , v
n
una base para V y
sea
t
= w
1
, . . . , w
n
una base para W. Por el Teorema 4.1.4 existe una nica transformacin
lineal T : V W tal que T(v
i
) = w
i
para i = 1, . . . , n. Demostraremos que esta funcin es
inyectiva y suprayectiva. Sea v ker(T). Podemos escribir v como combinacin lineal de los
vectores de la base , digamos v = c
1
v
1
+ +c
n
v
n
. Tenemos que:
0 = T(v) = T(c
1
v
1
+ +c
n
v
n
) = c
1
T(v
1
) + +c
n
T(v
n
) = c
1
w
1
+ +c
n
w
n
,
de donde c
1
= = c
n
= 0 ya que
t
es linealmente independiente. Por lo tanto, v = 0
y as ker(T) = 0. Aplicando ahora el Teorema 4.3.1, se sigue que T es inyectiva. Como
dimV = dimW = n, T tambin es suprayectiva, de acuerdo con el Corolario 4.3.2. Por lo tanto,
T es un isomorsmo y V

= W.
Ejemplo 4.3.9. Los espacios R
n
y R[t]
n+1
no son isomorfos, ya que dimR
n
= n ,= n + 1 =
dimR[t]
n+1
.
4.3.1. Ejercicios
1. Sea T un operador lineal sobre V tal que T
2
= T, es decir, T T = T. Sea v V . Demuestre
que v, T(v) es linealmente dependiente si y slo si T(v) = v o T(v) = 0.
2. Sea L : R
2
R
2
un operador lineal no nulo tal que L
2
= L L = 0. Demuestre que existe
una base v
1
, v
2
de R
2
tal que L(v
1
) = v
2
y L(v
2
) = 0.
3. Determine si la transformacin lineal T es (a) inyectiva y (b) suprayectiva. T : R[t]
3
R
2
denida por T(p(t)) =
_
p(0)
p(1)
_
.
4. Sea T : R[t]
4
R
2
la funcin lineal dada por T(p) =
_
p (0)
p (1)
_
. Calcule una base para el
ncleo de T. Es T una funcin suprayectiva? Justique su respuesta.
5. Calcule bases para el ncleo y la imagen de la transformacin lineal T : R[t]
3
R
3
denida
por T(a
0
+a
1
t +a
2
t
2
) =
_
a0+a2
a1
0
_
.
6. Sea T : R
22
R
2
la funcin lineal dada por T
_
a b
c d
_
=
_
a
a +b +c +d
_
. Calcule una
base para el ncleo de T. Es T una funcin suprayectiva? Justique su respuesta.
7. Sea T : R
5
R
4
una transformacin lineal tal que dimker T = 1. Encuentre la imagen de T.
8. Sea v un vector no cero de R
2
. Sea T : R
2
R
2
un operador lineal tal que T(v) = 0.
Demuestre que ImT es o una lnea recta o es 0.
9. Sean W
1
, W
2
dos espacios vectoriales y sea V su producto directo V = W
1
W
2
. Sea W =
W
1
0 = (w
1
, 0) V [ w
1
W
1
. Demuestre que el espacio cociente V/W y el espacio W
2
son isomorfos. (Sugerencia: Considere la funcin T : W
2
V/W dada por T(w
2
) = W
1
w
2
).
Para la denicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
10. Demuestre que T : R[t]
n+1
R[t]
n+1
denida por T(p(t)) = p(t) + p
t
(t) para cada p(t)
R[t]
n+1
, es un isomorsmo.
11. Es la funcin T : R[t]
n+1
R[t]
n+1
denida por T(p(t)) = p(t2) para cada p(t) R[t]
n+1
,
un isomorsmo?
4.4. La matriz asociada a una transformacin lineal 117
12. Sea W el espacio vectorial de todas las matrices simtricas de 2 2. Demuestre que W es
isomorfo a R
3
.
13. Sea K un campo y sea T : K K
n
una funcin lineal. Demuestre que T = 0 T es inyectiva.
14. Sea V un espacio vectorial de dimensin nita y sea T : V V un operador lineal. Suponga
que existe un operador lineal F : V V tal que T F = 1
V
. Demuestre que T es un
isomorsmo.
15. Pruebe que no existen funciones lineales inyectivas de R
3
a R
2
.
16. Pruebe que no existen funciones lineales suprayectivas de R
2
en R
3
.
17. Sean T : V W y F : W Z dos transformaciones lineales. Pruebe que
a) ker T ker F T.
b) Si dimV > dimW entonces F T : V Z no es un isomorsmo.
18. Sea T : V W una transformacin lineal entre dos espacios vectoriales de dimensin nita.
a) Demuestre que si dimV < dimW, entonces T no puede ser suprayectiva.
b) Demuestre que si dimV > dimW, entonces T no puede ser inyectiva.
c) Si dimV = dimW, pruebe T es un isomorsmo o bien T no es inyectiva ni es suprayectiva.
19. Suponga que T : U V y F : V W son transformaciones lineales tales que F T es una
biyeccin. Pruebe que V = ImT ker F.
20. Sea V un espacio vectorial de dimensin nita y sea T : V W una transformacin lineal.
Pruebe que V/ ker T

= ImT. (Sugerencia: Si [w
1
] = [w
2
], entonces T(w
1
) = T(w
2
).)
Para la denicin de espacio cociente, consulte el Ejercicio 20 de la Seccin 3.2.
21. Pruebe el Teorema de la dimensin usando el ejercicio anterior.
22. Sea V un espacio vectorial y sean W
1
y W
2
dos subespacios de V. Pruebe que existe una
transformacin lineal inyectiva
:
V
W
1
W
2

V
W
1

V
W
2
.
23. Sea K un campo nito con q elementos. Sea V un K-espacio vectorial de dimensin nita
n > 0. Determine la cardinalidad de V .
4.4. La matriz asociada a una transformacin lineal
A cada transformacin lineal es posible asignarle una matriz. Veamos un ejemplo de cmo
hacer esto. Considere los espacios vectoriales R
3
y R[t]
3
con las bases:
=
_
_
_
v
1
=
_
_
1
1
2
_
_
, v
2
=
_
_
1
0
1
_
_
, v
3
=
_
_
1
1
1
_
_
_
_
_
,

t
= w
1
= 1, w
2
= 1 +t, w
3
= 1 +t +t
2
,
respectivamente. Sea T : R
3
R[t]
3
la transformacin lineal dada por:
T
_
_
x
y
z
_
_
= (y + 2z) + (y +z)t + (x +y)t
2
.
118 4. Transformaciones lineales y matrices
Sea v = (4, 1, 9)
T
. El objetivo de este ejemplo es escribir T(v) como combinacin lineal
de los vectores de la base
t
utilizando dos procedimientos diferentes.
Primer procedimiento. Calculemos directamente T(v).
T(v) = T
_
_
4
1
9
_
_
= 17 + 8t + 3t
2
.
Queremos escribir T(v) = x
1
w
1
+x
2
w
2
+x
3
w
3
. Esto nos lleva a:
17 + 8t + 3t
2
= x
1
(1) +x
2
(1 +t) +x
3
(1 +t +t
2
)
= (x
1
+x
2
+x
3
) + (x
2
+x
3
)t +x
3
t
2
.
Resolviendo el sistema de ecuaciones lineales resultante, obtenemos x
1
= 9, x
2
= 5 y x
3
= 3.
As:
T(v) = 9(1) + 5(1 +t) + 3(1 +t +t
2
)
= 9w
1
+ 5w
2
+ 3w
3
,
y por lo tanto [T(v)]

= (9, 5, 3)
T
.
Segundo procedimiento. Lo haremos en varios pasos.
(1) Escribimos cada uno de los vectores T(v
1
), T(v
2
) y T(v
3
) como combinacin lineal de los
vectores de la base
t
. Es decir:
T(v
1
) = 3 +t + 0t
2
= 2(1) + 1(1 +t) + 0(1 +t +t
2
)
= 2w
1
+w
2
+ 0w
3
T(v
2
) = 2 t +t
2
= (1) 2(1 +t) + 1(1 +t +t
2
)
= w
1
2w
2
+w
3
T(v
3
) = 3 + 2t + 2t
2
= 1(1) + 0(1 +t) + 2(1 +t +t
2
)
= w
1
+ 0w
2
+ 2w
3
.
(2) Escribimos a v como combinacin lineal de los vectores de la base . Es decir:
v = 3
_
_
1
1
2
_
_

_
_
1
0
1
_
_
+ 2
_
_
1
1
1
_
_
= 3v
1
v
2
+ 2v
3
.
(3) En el paso (2) hallamos escalares c
1
, c
2
y c
3
tales que v = c
1
v
1
+c
2
v
2
+c
3
v
3
. Por la linealidad
de T se tiene que T(v) = c
1
T(v
1
) +c
2
T(v
2
) +c
3
T(v
3
). Combinando esto con los resultados del
paso (1), escribimos T(v) como combinacin lineal de w
1
, w
2
y w
3
. Es decir:
T(v) = 3T(v
1
) T(v
2
) + 2T(v
3
)
= 3(2w
1
+w
2
+ 0w
3
) (w
1
2w
2
+w
3
) + 2(w
1
+ 0w
2
+ 2w
3
)
= 9w
1
+ 5w
2
+ 3w
3
.
Los dos procedimientos arrojan el mismo resultado. Sin embargo, el segundo procedimiento
es ms conveniente. Ntese que si hacemos:
A = [[T(v
1
)]

[ [T(v
2
)]

[ [T(v
3
)]

] =
_
_
2 1 1
1 2 0
0 1 2
_
_
,
4.4. La matriz asociada a una transformacin lineal 119
entonces:
A[v]

=
_
_
2 1 1
1 2 0
0 1 2
_
_
_
_
3
1
2
_
_
=
_
_
9
5
3
_
_
= [T(v)]

.
Teorema 4.4.1. Sean V y W dos K-espacios vectoriales de dimensin nita. Sean =
v
1
, . . . , v
n
y
t
= w
1
, . . . , w
m
bases para V y W, respectivamente. Para cada transformacin
lineal T : V W existe una nica matriz en K
mn
, denotada por [T]

que satisface:
[T]

[v]

= [T(v)]

, v V.
La matriz [T]

es la matriz de T en las bases y


t
. Tambin se dice que [T]

es la matriz
asociada a T en las bases y
t
.
Demostracin. Sea v V . Tenemos que v = x
1
v
1
+ + x
n
v
n
con x
i
escalares. Luego, [v]

=
(x
1
, . . . , x
n
)
T
. Por otra parte, usando la linealidad de T tenemos que:
T(v) = x
1
T(v
1
) + +x
n
T(v
n
). (4.1)
Para hallar [T(v)]

debemos expresar a T(v) como combinacin lineal de w


1
, w
2
, . . . , w
m
.
Como T(v
1
), T(v
2
), . . . , T(v
n
) W, ser suciente expresar cada uno de estos vectores T(v
j
),
como combinacin lineal de los w
i
s.
Para cada j = 1, . . . , n, supongamos que:
T(v
j
) = a
1j
w
1
+a
2j
w
2
+ +a
mj
w
m
.
Sustituyendo cada T(v
j
) en (4.1) tenemos que:
T(v) = x
1
(a
11
w
1
+ +a
m1
w
m
) + +x
n
(a
1n
w
1
+ +a
mn
w
m
)
= (a
11
x
1
+ +a
1n
x
n
)w
1
+ + (a
m1
x
1
+ +a
mn
x
n
)w
m
.
Luego:
[T(v)]

=
_
_
_
a
11
x
1
+ +a
1n
x
n
.
.
.
a
m1
x
1
+ +a
mn
x
n
_
_
_ =
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_
_
_
_
_
_
x
1
.
.
.
x
n
_
_
_
=
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_
_
_[v]

.
Haciendo [T]

=
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_
_
_, tenemos que [T(v)]

= [T]

[v]

. Note que [T]

=
[[T(v
1
)]

[ . . . [ [T(v
n
)]

].
Para demostrar la unicidad de [T]

, supongamos que B K
mn
es tal que [T(v)]

= B[v]

para todo v V . Sea A = [T]

. Entonces, A[v]

= B[v]

para todo v V , en particular,


A[v
j
]

= B[v
j
]

para j = 1, . . . , n. Como [v
j
]

= e
j
, tenemos que Ae
j
= Be
j
, es decir, la j-sima
columna de A es igual a la j-sima columna de B para j = 1, . . . , n, y por lo tanto A = B.
Ejemplos 4.4.2.
120 4. Transformaciones lineales y matrices
1. Si T : R
3
R[t]
3
es la transformacin lineal dada por:
T
_
_
x
y
z
_
_
= (y + 2z) + (y +z)t + (x +y)t
2
,
y ,
t
son como antes, entonces:
[T]

=
_
_
2 1 1
1 2 0
0 1 2
_
_
.
Si ahora,
1
= e
1
, e
2
, e
3
y
t
1
= 1, t, t
2
, entonces:
[T]
1

1
=
_
_
0 1 2
0 1 1
1 1 0
_
_
.
Este ejemplo muestra que una transformacin lineal puede tener ms de una matriz asociada.
De hecho, para cualquier pareja de bases ,
t
hay una matriz asociada. Ms adelante, en
la Seccin 4.6 se describir la relacin que hay entre las matrices asociadas a la misma
transformacin lineal.
2. Sean T, F : R
2
R
2
las transformaciones lineales dadas por:
T
_
x
y
_
=
_
5x + 9y
x +y
_
, F
_
x
y
_
=
_
4x + 17y
x + 6y
_
,
respectivamente. Considere las siguientes bases de R
2
:
=
_
1
0
_
,
_
0
1
_
,
t
=
_
1
1
_
,
_
1
1
_
,

1
=
_
3
1
_
,
_
2
1
_
,
t
1
=
_
1
0
_
,
_
1
1
_

Entonces:
[T]

=
_
2 5
3 4
_
= [F]
1

1
.
Este ejemplo muestra que transformaciones lineales diferentes pueden tener la misma matriz
asociada, respecto de diferentes bases.
3. Sea T
A
: R
3
R
2
la funcin lineal inducida por A =
_
1 2 3
2 3 5
_
. Es decir:
T
A
_
_
x
1
x
2
x
3
_
_
=
_
1 2 3
2 3 5
_
_
_
x
1
x
2
x
3
_
_
=
_
x
1
+ 2x
2
3x
3
2x
1
3x
2
+ 5x
3
_
.
Si y
t
son las bases cannicas para R
3
y R
2
respectivamente, entonces:
[T
A
]

=
_
1 2 3
2 3 5
_
= A.
En general, si A K
mn
y T
A
: K
n
K
m
es la funcin lineal inducida por A, entonces
[T
A
]

= A, donde y
t
son las bases cannicas de K
n
y K
m
, respectivamente. En efecto,
supongamos que = e
1
, . . . , e
n
y
t
= e
t
1
, . . . , e
t
m
. Entonces T
A
(e
j
) = Ae
j
= columna j
de A. Luego, [T
A
(e
j
)]

= Ae
j
y por lo tanto [T
A
]

= [Ae
1
[ . . . [ Ae
n
] = A.
4.4. La matriz asociada a una transformacin lineal 121
4. Sean V y W dos espacios vectoriales reales de dimensiones 3 y 2, respectivamente. Sean
= v
1
, v
2
, v
3
y
t
= w
1
, w
2
bases para V y W, respectivamente. Suponga que T : V W
es una transformacin lineal tal que:
[T]

=
_
3 2 7
2 1 4
_
.
Si v = 2v
1
+3v
2
v
3
, podemos escribir T(v) como combinacin lineal de los elementos de la
base
t
. Para calcular [T(v)]

aplicamos el Teorema 4.4.1:


[T(v)]

= [T]

[v]

=
_
3 2 7
2 1 4
_
_
_
2
3
1
_
_
=
_
7
5
_
.
Por lo tanto T(v) = 7w
1
5w
2
.
5. Considere las bases = e
1
, e
2
y
t
= e
1
+ e
2
, e
1
e
2
del espacio vectorial R
2
. Sea
1
R
2 : R
2
R
2
el operador lineal identidad sobre R
2
. Puesto que 1
R
2(e
1
) = e
1
= 1e
1
+ 0e
2
y
1
R
2(e
2
) = e
2
= 0e
1
+ 1e
2
, la matriz asociada al operador lineal 1
R
2 respecto a la base es:
[1
R
2]

_
1 0
0 1
_
= I.
Por otro lado, 1
R
2(e
1
) = e
1
=
1
2
(e
1
+e
2
) +
1
2
(e
1
e
2
) y 1
R
2(e
2
) = e
2
=
1
2
(e
1
+e
2
)
1
2
(e
1
e
2
),
de modo que:
[1
R
2]

=
_
1
2
1
2
1
2

1
2
_
.
Si v = (7, 8)
T
, entonces [v]

= v. Luego:
[v]

= [1
R
2(v)]

= [1
R
2]

[v]

,
[v]

=
_
1
2
1
2
1
2

1
2
__
7
8
_
=
_
1/2
15/2
_
As, v = (1/2)
_
1
1
_
+(15/2)
_
1
1
_
. Ntese que esta matriz sirve para cambiar de base.
En general, si V es un espacio vectorial de dimensin n, y
t
son bases para V y 1
V
: V V
es la funcin lineal identidad, a la matriz [1
V
]

se le llama matriz cambio de base de la base


a la base
t
.
En el caso en que =
t
tenemos que [1
V
]

= I, donde I es la matriz identidad de n n.


En efecto, si = v
1
, . . . , v
n
, entonces 1
V
(v
j
) = v
j
y [v
j
]

= e
j
, de donde [1
V
]

= [e
1
[
. . . [ e
n
] = I.
4.4.1. Ejercicios
1. Sea T el operador lineal sobre R[t]
2
denido por:
T(a +bt) = (18a + 30b) + (10a 17b)t.
Considere las bases = 1, t y
t
= 2 t, 3 + 2t. Calcule las matrices [T]

y [T]

.
2. Considere el espacio vectorial R[t]
3
con la base =
_
1 +t +t
2
, 2 + 3t +t
2
, 1 + 2t +t
2
_
. Sea
T : R[t]
3
R[t]
3
la funcin lineal derivacin T (p) = p
t
. Calcule la matriz de T respecto a la
base .
122 4. Transformaciones lineales y matrices
3. Sea T el operador lineal sobre R
22
dado por T (A) = BAAB, donde B =
_
1 1
1 1
_
.
Calcule [T]

, la matriz de T en la base , donde es la base cannica de R


22
.
4. Sea T : R[t]
3
R
4
dada por T (p) = (p(0), p(1), p(2), p(3))
T
. Encuentre la matriz de T
respecto a las bases cannicas de R[t]
3
y R
4
, respectivamente.
5. Sea T : R
4
R
3
la transformacin lineal dada por T (x) =
_
_
2x
1
+ 6x
2
+ 6x
3
+ 2x
4
5x
1
+ 3x
2
+ 3x
3
+ 5x
4
4x
1
+ 4x
4
_
_
.
a) Calcule la matriz de T en las bases cannicas de R
4
y R
3
, respectivamente.
b) Considere las bases

1
=
_

_
1
2
_
_
_
_
1
1
1
1
_
_
_
_
,
1
2
_
_
_
_
1
1
1
1
_
_
_
_
,
1
2
_
_
_
_
1
1
1
1
_
_
_
_
,
1
2
_
_
_
_
1
1
1
1
_
_
_
_
_

_
,

1
=
_
_
_
1
3
_
_
2
2
1
_
_
,
1
3
_
_
2
1
2
_
_
,
1
3
_
_
1
2
2
_
_
_
_
_
de R
4
y R
3
, respectivamente. Calcule la matriz de T referida a este par de bases.
6. Sea V un K-espacio vectorial de dimensin n con una base . Pruebe que un conjunto de
vectores v
1
, v
2
, . . . , v
r
V es linealmente independiente si y slo si el conjunto de vectores
coordenados:
[v
1
]

, [v
2
]

, . . . , [v
r
]

K
n
es linealmente independiente.
7. Sean V y W espacios vectoriales de dimensin nita y sea T : V W una transformacin
lineal. Sean = v
1
, . . . , v
n
y
t
= w
1
, . . . , w
m
bases para V y W, respectivamente, y sea
A = [T]

. Sean v V y w W. Pruebe que:


a) v Ker(T) si y slo si [v]

N(A).
b) w Im(T) si y slo si [w]

R(A).
c) Si h
1
, . . . , h
nr
es una base del espacio nulo de A, entonces u
1
, . . . , u
nr
es una base
para el ncleo de T, donde u
i
es tal que [u
i
]

= h
i
para i = 1, . . . , n r.
d) Si y
1
, . . . , y
r
es una base para el espacio columna de A, entonces w
1
, . . . , w
r
es una
base para la imagen de T, donde w
j
es tal que [w
j
]

= y
j
para j = 1, . . . , r.
8. Sean = v
1
, v
2
, v
3
y
t
= w
1
, w
2
bases para R
3
y R
2
, respectivamente. Sea T : R
3
R
2
la nica transformacin lineal tal que Tv
1
= w
2
y Tv
2
= Tv
3
= w
1
w
2
. Calcule la matriz
[T]

.
9. Sean V y W dos espacios vectoriales reales de dimensin nita. Sean = v
1
, v
2
, v
3
, v
4
y
t
=
w
1
, w
2
, w
3
bases para V y W, respectivamente. Sea T : V W la nica transformacin
lineal tal que T(v
1
) = w
1
2w
2
w
3
, T(v
2
) = w
2
, T(v
3
) = w
1
w
2
w
3
y T(v
4
) =
w
1
+ 2w
2
+ w
3
. Utilizando la representacin matricial de T, calcule bases para el ncleo
y la imagen de T. (Nota: Los vectores de estas bases debern expresarse en trminos de los
vectores de las bases y
t
, segn corresponda).
4.4. La matriz asociada a una transformacin lineal 123
10. Sean V y W dos espacios vectoriales reales de dimensin nita. Sean = v
1
, v
2
, v
3
, v
4
y

t
= w
1
, w
2
, w
3
bases para V y W, respectivamente. Sea T : V W la nica transformacin
lineal tal que
Tv
1
= w
1
+ 2w
2
3w
3
, Tv
2
= w
2
,
Tv
3
= w
1
w
2
+ 3w
3
, Tv
4
= 2w
1
+ 4w
2
6w
3
.
Calcule una base para el ncleo de T.
11. Sea T el operador lineal sobre R
22
dado por T(A) =
1
2
(A + A
T
). Sea la base cannica
para R
22
. Calcule [T]

.
12. Sea P : R
2
R
2
la transformacin lineal que a cada vector v R
2
le asigna su proyeccin
ortogonal sobre la recta y = x, es decir, le asigna el vector v
0
sobre la recta y = x de tal
manera que el vector v v
0
es perpendicular al vector v
0
.
a) Calcule [P]

, donde es la base cannica de R


2
.
b) Describa explcitamente P, es decir, determine una frmula para P
_
x
y
_
.
13. Considere los espacios vectoriales V = R[t]
3
y W = R
2
con las bases = 1, t, t
2
y
t
=

_
1
1
_
,
_
1
1
_
. Encuentre de manera explcita la nica transformacin lineal de T : V
W tal que [T]

=
_
1 1 2
1 1 1
_
.
14. = (1, 1, 1)
T
, (1, 1, 0)
T
, (0, 1, 1)
T
y
t
= (1, 1)
T
, (1, 1)
T
son bases de R
3
y R
2
,
respectivamente. Calcule una transformacin lineal T L(R
3
, R
2
) tal que [T]

= A, donde
A =
_
1 1 2
3 2 4
_
15. Considere R
2
con las bases = v
1
, v
2
y
t
= w
1
, w
2
donde v
1
= (2 1)
T
, v
2
= (1 1)
T
,
w
1
= (1 1)
T
y w
2
= (1 1)
T
. Sea T el nico operador lineal sobre R
2
tal que T(w
1
) = v
1
y T(w
2
) = v
2
. Calcule las matrices [1
V
]

, [T]

y [T]

y comprelas. Qu observa?.
16. Sea V un espacio vectorial de dimensin nita y sean = v
1
, . . . , v
n
y
t
= w
1
, . . . , w
n

bases diferentes para V . Sea T el nico operador lineal sobre V tal que T(w
i
) = v
i
para
i = 1, . . . , n. Pruebe que [1
V
]

= [T]

= [T]

.
17. Sea V un espacio de dimensin nita, sean y
t
bases para V , sea P la matriz cambio de
base de la base a la base
t
y sea T : V V un operador lineal. Demuestre que:
[T]

= P[T]

.
18. Sean V y W dos espacios vectoriales reales de dimensiones 2 y 3, respectivamente. Sean
= v
1
, v
2
y
t
= w
1
, w
2
, w
3
bases para V y W, respectivamente. Si T : V W es una
transformacin lineal tal que:
[T]

=
_
_
2 1
1 1
1 3
_
_
y v = 2v
1
3v
2
, calcule T(v).
19. Sea E : R
n
R
n
un operador lineal idempotente, es decir, un operador lineal tal que
E
2
= E. Sean
1
= v
1
, . . . , v
r
y
2
= w
1
, . . . , w
nr
bases para la imagen y el ncleo
de E, respectivamente. Calcule la matriz de E en la base =
1

2
de R
n
. (Demuestre
primero que es base de R
n
).
124 4. Transformaciones lineales y matrices
20. Sea T un operador lineal sobre R
3
tal que T
3
= 0 y T
2
,= 0. Demuestre que existe una base
para R
3
tal que:
[T]

=
_
_
0 0 0
1 0 0
0 1 0
_
_
.
21. Sea T : R
2
R
2
una proyeccin (es decir, T es una transformacin lineal tal que T
2
= T).
Demuestre que T = 0, o T es la transformacin identidad, o existe una base de R
2
tal que:
[T]

=
_
1 0
0 0
_
.
4.5. El isomorsmo entre K
dimWdimV
y L(V, W)
Sean V y W dos K-espacios vectoriales. Como se vio en la seccin 4.1, L(V, W) es un espacio
vectorial. En esta seccin se probar que si los espacios V y W son de dimensin nita, entonces
L(V, W)

= K
dimWdimV
y L(V, W) es de dimensin nita.
Teorema 4.5.1.
1. Si A, B K
mn
, y c es un escalar, entonces T
A+B
= T
A
+T
B
y T
cA
= cT
A
.
2. Si A K
mn
y B K
np
, entonces T
AB
= T
A
T
B
.
Demostracin. Se deja de ejercicio al lector.
Teorema 4.5.2. Para cada T L(K
n
, K
m
) existe una nica matriz A K
mn
tal que T = T
A
.
Demostracin. Sea T L(K
n
, K
m
) y sean ,
t
las bases cannicas para K
n
y K
m
respectiva-
mente. Por el Teorema 4.4.1, la matriz A = [T]

es la nica matriz que satisface:


T(x) = [T(x)]

= [T]

[x]

= Ax = T
A
(x), x K
n
,
es decir, T = T
A
.
Teorema 4.5.3. La funcin : K
mn
L(K
n
, K
m
) dada por (A) = T
A
es un isomorsmo
de espacios vectoriales.
Demostracin. Se sigue del Teorema 4.5.1 que es lineal y del Teorema 4.5.2 que es biyectiva.
Corolario 4.5.4. dim(L(K
n
, K
m
)) = mn.
Demostracin. Como la funcin del teorema anterior es un isomorsmo, tenemos que ker() =
0 y Im() = L(K
n
, K
m
). Luego, por el teorema de la dimensin tenemos que dim(K
mn
) =
dim(ker()) + dim(Im()), es decir, mn = dim(L(K
n
, K
m
)).
Teorema 4.5.5. Sea V un K-espacio vectorial de dimensin nita n > 0 y sea una base
para V . Sea W un K-espacio vectorial de dimensin nita m > 0 y sea
t
una base para
W. Si F, T : V W son transformaciones lineales, entonces [F + T]

= [F]

+ [T]

y
[cF]

= c[F]

para todo c K.
Demostracin. Sea v V . Por el Teorema 4.4.1 tenemos que:
[F +T]

[v]

= [(F +T)(v)]

= [F(v) +T(v)]

= [F(v)]

+ [T(v)]

= [F]

[v]

+ [T]

[v]

= ([F]

+ [T]

)([v]

).
En particular [F+T]

[v
t
]

= ([F]

+[T]

)([v
t
]

) para todo v
t
, de modo que [F+T]

=
[F]

+ [T]

. De manera anloga se prueba que [cF]

= c[F]

para todo c K.
4.6. Matrices asociadas a la misma transformacin lineal 125
Teorema 4.5.6. Sean V , W, y
t
como en el Teorema 4.5.5. Para cada matriz A K
mn
existe una nica transformacin lineal T : V W tal que:
A = [T]

.
Demostracin. Sean = v
1
, . . . , v
n
,
t
= w
1
, . . . , w
m
y A = (a
ij
) K
mn
. Por el Teore-
ma 4.1.4, existe una nica transformacin lineal T : V W tal que:
T(v
1
) = a
11
w
1
+a
21
w
2
+ +a
m1
w
m
,
.
.
.
T(v
n
) = a
1n
w
1
+a
2n
w
2
+ +a
mn
w
m
,
es decir, tal que [T]

=
_
_
_
_
_
a
11
. . . a
1n
a
21
. . . a
2n
.
.
.
.
.
.
.
.
.
a
m1
. . . a
mn
_
_
_
_
_
= A.
Teorema 4.5.7. Sean V , W, y
t
como en el Teorema 4.5.5. La funcin : L(V, W) K
mn
dada por (T) = [T]

es un isomorsmo de espacios vectoriales.


Demostracin. Se sigue del Teorema 4.5.5 que es lineal y del Teorema 4.5.6 que es biyectiva.
Corolario 4.5.8. Sean V y W dos K-espacios vectoriales de dimensin nita, con dim(V ) = n
y dim(W) = m. Entonces, dim(L(V, W)) = mn.
Demostracin. Como la funcin del teorema anterior es un isomorsmo, se tiene la funcin
inversa
1
: K
mn
L(V, W) tambin es un isomorsmo. Luego, ker(
1
) = 0 y Im(
1
) =
L(V, W). Aplicando el teorema de la dimensin, tenemos que dim(K
mn
) = dim(ker(
1
)) +
dim(Im(
1
)), es decir, mn = dim(L(V, W)).
4.5.1. Ejercicios
1. Demuestre el Teorema 4.5.1.
2. Sea V un K-espacio vectorial de dimensin 2 y sea una base de V . Si T es un operador
lineal sobre V y [T]

=
_
a b
c d
_
, demuestre que:
T
2
(a +d)T + (ad bc)1
V
= 0.
3. Sea T : R
2
R
2
la funcin lineal dada por T
_
x
y
_
=
_
y
x
_
. Demuestre que la transfor-
macin lineal T c1
R
2 es un isomorsmo para todo nmero real c.
4.6. Matrices asociadas a la misma transformacin lineal
Escribiremos T : (V, ) (W,
t
) para denotar a una transformacin lineal T entre dos
espacios vectoriales V y W con bases y
t
, respectivamente.
126 4. Transformaciones lineales y matrices
Teorema 4.6.1. Sean U, V y W, K-espacios vectoriales de dimensiones positivas m, n y p,
con bases ,
t
y
tt
, respectivamente. Si F y T son transformaciones lineales tales que:
(U, )
F
(V,
t
)
T
(W,
tt
)
entonces:
[T F]

= [T]

[F]

.
Demostracin. Sea u U. El Teorema 4.4.1 implica que:
[T F]

[u]

= [(T F)(u)]

= [T(F(u))]

= [T]

[F(u)]

= [T]

[F]

[u]

.
Como esto es para todo u U, en particular [T F]

[u
t
]

= [T]

[F]

[u
t
]

para todo
u
t
. Luego, [T F]

= [T]

[F]

.
Corolario 4.6.2. Si V es un espacio vectorial de dimensin nita n > 0, y ,
t
son bases para
V , entonces: [1
V
]
1

= [1
V
]

.
Demostracin. Consideremos la transformacin lineal identidad 1
V
tal que:
(V, )
1
V
(V,
t
)
1
V
(V, )
Por el Teorema 4.6.1, tenemos que [1
V
]

= [1
V
]

[1
V
]

. Como [1
V
]

= I, se sigue que
[1
V
]
1

= [1
V
]

.
Teorema 4.6.3. Sean V y W espacios vectoriales de dimensin nita y T : V W una
transformacin lineal.
1. Si T es invertible, entonces [T]

es invertible para cualesquiera bases y


t
de V y W,
respectivamente. Adems:
[T]
1

= [T
1
]

.
2. Si [T]

es invertible para algn par de bases y


t
de V y W respectivamente, entonces T
es invertible.
Demostracin. 1. Si T : V W es invertible, entonces T es un isomorsmo de espacios vecto-
riales y por lo tanto dim(V ) = dim(W). Supongamos que dim(V ) = n, y sean y
t
bases
de V y W respectivamente. Sea T
1
la inversa de T. Claramente T
1
es lineal. Entonces
[T
1
T]

= [1
V
]

= I, donde I es la matriz identidad de n n. Como:


(V, )
T
(W,
t
)
T
1
(V, )
entonces por el Teorema 4.6.1 tenemos que:
[T
1
T]

= [T
1
]

[T]

,
y por lo tanto I = [T
1
]

[T]

, es decir, [T]

es invertible y [T]
1

= [T
1
]

.
2. Supongamos que existen bases y
t
de V y W respectivamente, tales que [T]

es invertible.
Entonces, V y W tienen la misma dimensin, digamos n. Sea A la matriz inversa de [T]

.
Por el Teorema 4.5.6, existe una nica transformacin lineal S : W V tal que A = [S]

.
Entonces, [T]

[S]

= I, donde I es la matriz identidad de nn. Pero por el Teorema 4.6.1,


tenemos que [T]

[S]

= [T S]

, de modo que [T S]

= I. Se sigue nalmente que


T S = 1
W
, es decir, T es invertible.
4.6. Matrices asociadas a la misma transformacin lineal 127
Los siguientes ejemplos son aplicaciones del Teorema 4.6.3.
Ejemplo 4.6.4. Determine si la funcin lineal T : R[t]
2
R
2
lineal dada por T(a + bt) =
_
a b
a + 2b
_
es invertible. En caso de que lo sea, halle su inversa.
Se calcula la matriz de T respecto de alguna una pareja de bases. Se escogen las bases
= 1, t y
t
= e
1
, e
2
. Dado que T(1) =
_
1
1
_
y T(t) =
_
1
2
_
, se tiene que
[T]

=
_
1 1
1 2
_
.
Esta matriz es invertible ya que su determinante es 3. De hecho,
[T]
1

=
_
2
3
1
3

1
3
1
3
_
.
De acuerdo con el Teorema 4.6.3, dado que T es invertible se tiene que [T
1
]

= [T]
1

. Por
lo tanto, la inversa de T es la nica funcin T
1
: R
2
R[t]
2
dada por T
1
(e
1
) = 2/3 t/3 y
T
1
(e
2
) = 1/3 +t/3. Por lo tanto
T
1
_
x
y
_
= xT
1
(e
1
) +yT
1
(e
2
) = x(
2
3

t
3
) +y(
1
3
+
t
3
) =
1
3
(2x +y + (x +y)t) .
La eleccin de las bases cannicas fue para facilitar los clculos. Se recomienda al lector como
ejercicio vericar que se obtiene el mismo resultado si escogen las bases = 1 + t, 1 t y

t
= e
1
+e
2
, e
1
para R[t]
2
y R
2
, respectivamente.
Ejemplo 4.6.5. Sea W el espacio vectorial real que consta de las matrices antisimtricas de
3 3, es decir:
W = A R
33
[ A = A
T
.
Sea T : R[t]
3
W la transformacin lineal dada por:
T(a +bt +ct
2
) =
_
_
0 a +b b +c
a b 0 c
b c c 0
_
_
.
Se trata de determinar si T es invertible o no, y en caso de serlo calcular su inversa. Para ello,
se trabajar con las bases:
= 1, t, t
2
,

t
=
_
_
_
w
1
=
_
_
0 1 0
1 0 0
0 0 0
_
_
, w
2
=
_
_
0 0 1
0 0 0
1 0 0
_
_
, w
3
=
_
_
0 0 0
0 0 1
0 1 0
_
_
_
_
_
,
de R[t]
3
y W, respectivamente. Dado que T(1) = w
1
, T(t) = w
1
+w
2
y T(t
2
) = w
2
+w
3
, se
tiene que:
[T]

=
_
_
1 1 0
0 1 1
0 0 1
_
_
.
Es fcil ver que esta matriz es invertible y que [T]
1

=
_
_
1 1 1
0 1 1
0 0 1
_
_
. Luego, la inversa de T es
la nica funcin lineal T
1
: W R[t]
3
tal que:
T
1
(w
1
) = 1, T
1
(w
2
) = 1 +t, T
1
(w
3
) = 1 +t +t
2
.
128 4. Transformaciones lineales y matrices
Se sigue entonces que T
1
est dada por:
T
1
_
_
0 a b
a 0 c
b c 0
_
_
= T
1
(aw
1
+bw
2
+cw
3
)
= a(1) +b(1 +t) +c(1 +t +t
2
)
= (a +b +c) + (b +c)t +ct
2
.
Ntese que si T : V W es una transformacin lineal tal que para algn par de bases y
t
de V y W respectivamente, la matriz [T]

no es invertible, entonces T tampoco es invertible.


En efecto, si T fuera invertible, entonces por el Teorema 4.6.3, la matriz de T referida a cualquier
par de bases sera invertible, en particular [T]

sera invertible, lo que es una contradiccin.


A continuacin veremos la relacin que hay entre las matrices que representan a una misma
transformacin lineal.
Denamos en K
mn
una relacin de equivalencia denominada equivalencia de matrices.
Decimos que A es equivalente a B, denotado A B, si existen matrices invertibles P y Q de
mm y n n, respectivamente, tales que:
A = PBQ.
Se deja al lector probar que esta relacin es una relacin de equivalencia (Ejercicio 1). Se denota
por K
mn
/ el conjunto de todas las clases de equivalencia bajo esta relacin.
Teorema 4.6.6. Sean V y W espacios vectoriales de dimensin nita y sea T : V W una
transformacin lineal.
1. Cualesquiera dos matrices que representan a T son equivalentes. Adems, si y
1
son bases
para V , y
t
y
t
1
son bases para W, entonces:
[T]

= [1
W
]

[T]
1

1
[1
V
]
1
.
En otras palabras, el siguiente diagrama es conmutativo:
(V, )
T
(W,
t
)
1
V

1
W
(V,
1
)
T
(W,
t
1
)
es decir, T = 1
W
T 1
V
.
2. Recprocamente, si A y B son matrices equivalentes y A representa a T, entonces B tambin
representa a la transformacin lineal T. Ms precisamente, si A = [T]

para algunas bases


de V y
t
de W, entonces existen bases
1
de V y
t
1
de W, tales que B = [T]
1

1
.
Demostracin.
1. Por el Teorema 4.6.1 tenemos que:
[1
W
]

[T]
1

1
= [1
W
T]
1
y [1
W
T]
1
[1
V
]
1
= [(1
W
T) 1
V
]

.
Por lo tanto:
([1
W
]

[T]
1

1
)[1
V
]
1
= [(1
W
T) 1
V
]

= [T]

,
ya que (1
W
T) 1
V
= T.
4.6. Matrices asociadas a la misma transformacin lineal 129
2. Supongamos que A = [T]

y que A = PBQ con P = (p


ij
) y Q = (q
ij
) matrices invertibles
de m m y n n, respectivamente. Sea
t
= w
1
, . . . , w
m
. Para cada i = 1, 2, . . . , m,
denimos:
w
t
i
= p
1i
w
1
+p
2i
w
2
+ +p
mi
w
m
=
m

k=1
p
ki
w
k
.
Demostraremos que
t
1
= w
t
1
, . . . , w
t
m
es base de W. Supongamos que:
c
1
w
t
1
+c
2
w
t
2
+ +c
m
w
t
m
= 0.
Entonces:
0 = c
1
m

k=1
p
k1
w
k
+c
2
m

k=1
p
k2
w
k
+ +c
m
m

k=1
p
km
w
k
=
m

i=1
m

k=1
c
i
p
ki
w
k
=
m

k=1
m

i=1
c
i
p
ki
w
k
=
m

k=1
_
m

i=1
c
i
p
ki
_
w
k
.
Como
t
es base de W, se sigue que

m
i=1
c
i
p
ki
= 0 para cada k = 1, 2, . . . , m. Es decir,
tenemos que Pc = 0 donde c = (c
1
c
2
c
m
)
T
. Como P es invertible, se sigue que
c = P
1
0 = 0, de modo que c
i
= 0 para cada i = 1, 2, . . . , m. Por lo tanto,
t
1
es un conjunto
de m vectores linealmente independientes y en consecuencia es base de W. As, P = [1
W
]

.
Por otro lado, sean = v
1
, v
2
, . . . , v
n
y Q
1
= (q
t
ij
). Para cada i = 1, 2, . . . , n, denimos:
v
t
i
= q
t
1i
v
1
+q
t
2i
v
2
+ +q
t
ni
v
n
=
n

k=1
q
t
ki
v
k
,
y como en el caso anterior, se demuestra que
1
= v
t
1
, v
t
2
, . . . , v
t
n
es base de V . Luego,
Q
1
= [1
V
]
1
y por el Corolario 4.6.2, se sigue que Q = [1
V
]
1
1
= [1
V
]
1
.
Luego, hemos encontrado bases
1
y
t
1
de V y W, respectivamente, tales que P = [1
W
]

y Q = [1
V
]
1
. Luego, por lo demostrado en 1, se tiene que
A = [T]

= [1
W
]

[T]
1

1
[1
V
]
1
= P[T]
1

1
Q
Finalmente, como A = PBQ, se sigue que P[T]
1

1
Q = PBQ de donde [T]
1

1
= B.
El teorema anterior establece que la funcin L(V, W) K
dimWdimV
/ dada por:
T clase de equivalencia de A
est bien denida, donde A es la matriz de T respecto de alguna pareja de bases. Se sigue del
Teorema 4.5.6 que la asignacin es suprayectiva. La funcin no es inyectiva, ya que diferentes
transformaciones lineales pueden tener la misma clase de equivalencia (Ver Ejemplos 4.4.2, inciso
2).
Ejemplo 4.6.7. Sea T : R[t]
4
R[t]
3
la transformacin lineal dada por:
T(a +bt +ct
2
+dt
3
) = (2a + 6b + 6c + 2d) + (5a + 3b + 3c + 5d)t + (4a + 4d)t
2
.
130 4. Transformaciones lineales y matrices
Sean y
t
las bases cannicas de R[t]
4
y R[t]
3
respectivamente. Entonces, T(1) = 2+5t+4t
2
,
T(t) = 6 + 3t, T(t
2
) = 6 + 3t y T(t
3
) = 2 + 5t + 4t
2
, de modo que:
[T]

=
_
_
2 6 6 2
5 3 3 5
4 0 0 4
_
_
.
Si se consideran ahora las bases:

1
=
_
1 +t +t
2
+t
3
2
,
1 t t
2
+t
3
2
,
1 t +t
2
t
3
2
,
1 +t t
2
t
3
2
_
,

t
1
=
_
2 + 2t +t
2
3
,
2 +t + 2t
2
3
,
1 2t + 2t
2
3
_
,
entonces la matriz de T referida a este par de bases es:
[T]
1

1
=
_
_
12 0 0 0
0 6 0 0
0 0 0 0
_
_
.
Las matrices cambio de base son:
P = [1
R[t]3
]

=
_
_
2
3

2
3
1
3
2
3
1
3

2
3
1
3
2
3
2
3
_
_
y Q = [1
R[t]4
]
1
=
_
_
_
_
1
2
1
2
1
2
1
2
1
2

1
2

1
2
1
2
1
2

1
2
1
2

1
2
1
2
1
2

1
2

1
2
_
_
_
_
.
Un clculo directo muestra que [T]

= P[T]
1

1
Q.
Si T : (V, ) (V, ) es una funcin lineal y se considera la misma base tanto para el
dominio como para el contradominio, en vez de escribir [T]

se escribe [T]

.
Denamos en K
nn
una relacin de equivalencia denominada semejanza de matrices.
Decimos que A es semejante a B, denotado A B, si existe una matriz invertible P tal que
A = PBP
1
. Esta relacin es una relacin de equivalencia (Ejercicio 2). Se denota por K
nn
/
al conjunto de todas las clases de equivalencia bajo esta relacin.
Sea V un K-espacio vectorial de dimensin nita. Si T L(V ) y A es la matriz de T respecto
de alguna base, el siguiente teorema establece que la funcin L(V ) K
dimV dimV
/ dada
por:
T clase de equivalencia de A
est bien denida.
Corolario 4.6.8. Sea V un espacio vectorial de dimensin nita y sea T un operador lineal
sobre V .
1. Cualesquiera dos matrices que representan a T son semejantes. Adems, si y
t
son bases
para V , entonces [T]

= P[T]

P
1
, donde P = [1
V
]

.
2. Si A y B son matrices semejantes y A = [T]

para alguna base de V , entonces existe una


base
t
de V tal que B = [T]

.
Demostracin. Se sigue del Teorema 4.6.6.
Ejemplo 4.6.9. Sea T : R[t]
2
R[t]
2
la transformacin lineal dada por: T(a+bt) = (ab)+2bt.
Sea
t
la base de R[t]
2
dada por
t
= v
1
, v
2
, donde v
1
= 1 y v
2
= 1 t. Como T(v
1
) = v
1
y
T(v
2
) = 2v
2
, se tiene
D = [T]

=
_
1 0
0 2
_
.
4.6. Matrices asociadas a la misma transformacin lineal 131
Si A es la matriz de T en la base cannica, entonces A = PDP
1
, donde
P = [1
R[t]2
]

=
_
1 1
0 1
_
Ejemplo 4.6.10. Sean A y P las siguientes matrices:
A =
_
_
_
_
_
_
_
_
2 1 0 0 0 8
4 4 0 0 0 8
0 0 2 0 1 1
1 0 0 5 0 1
1 0 1 0 4 0
1 0 0 0 0 4
_
_
_
_
_
_
_
_
y P =
_
_
_
_
_
_
_
_
2 1 0 0 0 0
0 2 1 0 0 0
0 0 0 0 1 1
1 0 0 1 0 0
1 0 0 0 1 0
1 0 0 0 0 0
_
_
_
_
_
_
_
_
.
Sean T : R
6
R
6
la transformacin lineal inducida por la matriz A, y
t
= v
1
, . . . , v
n
, donde
v
i
es la columna i de la matriz P. Como det(P) = 1 ,= 0,
t
es una base de R
6
. Puesto que
T(v
1
) = 2v
1
, T(v
2
) = v
1
+2v
2
, T(v
3
) = v
2
+2v
3
T(v
4
) = 5v
4
, T(v
5
) = 3v
5
, T(v
6
) = v
5
+3v
6
, la
matriz de T respecto de la base
t
es
J = [T]

=
_
_
_
_
_
_
_
_
2 1 0 0 0 0
0 2 1 0 0 0
0 0 2 0 0 0
0 0 0 5 0 0
0 0 0 0 3 1
0 0 0 0 0 3
_
_
_
_
_
_
_
_
.
Si es la base cannica de R
6
, entonces A = PJP
1
.
Observacin 4.6.11. De todas las matrices que representan a una transformacin lineal T,
es deseable (y recomendable) escoger una matriz que sea particularmente simple. En el Ejem-
plo 4.6.7 fue posible escoger una pareja de bases de tal manera que la matriz asociada fuera
diagonal. En el caso del operador lineal del Ejemplo 4.6.9, la matriz asociada result diagonal.
En el Ejemplo 4.6.10 la matriz asociada con el operador lineal no fue diagonal, pero s muy
cercana a una matriz diagonal. En el Captulo ??, se estudiarn:
La teora de diagonalizacin. Bajo ciertas condiciones una matriz cuadrada A es semejante
a una matriz diagonal D (Seccin ??).
La descomposicin en valores singulares. Cualquier matriz A de mn, ya sea real o com-
pleja, es equivalente a una matriz , tal que
ij
= 0 si i ,= j (Seccin ??).
La descomposicin de Jordan. Cualquier matriz A C
nn
es semejante a una matriz J
casi diagonal, es decir J
ik
= 0 si i < k o k > i + 1 (Seccin ??).
Terminamos esta seccin con el concepto de determinante de un operador lineal.
Es un ejercicio demostrar que si A y B son matrices semejantes, entonces det(A) = det(B).
Usando esto y el Corolario 4.6.8, podemos denir el determinante de un operador lineal.
Denicin 4.6.12. Sean V un espacio vectorial de dimensin nita y T un operador lineal
sobre V . Entonces, el determinante de T, denotado por det(T), es el determinante de la matriz
[T]

para cualquier base de V .


Ejemplo 4.6.13. Calcule el determinante del operador lineal T : R[t]
2
R[t]
2
dado por T(a +
bt) = (a b) + (a + 2b)t.
Considrese la base = 1, t. La matriz de T en la base es
_
1 1
1 2
_
y por lo tanto su
determinante es 3. Observe que si se toma la base
t
= 1 + t, 1 t, entonces la matriz de T
respecto a esta base es
_
3
2
1
2

3
2
3
2
_
. El determinante es el mismo.
132 4. Transformaciones lineales y matrices
Ejemplo 4.6.14. Hallar el determinante del operador lineal F : R
22
R
22
dado por F(A) =
3A2A
T
para toda A R
22
.
Lo primero es seleccionar una base para R
22
. Por facilidad consideremos la base cannica
= e
11
=
_
1 0
0 0
_
, e
12
=
_
0 1
0 0
_
, e
21
=
_
0 0
1 0
_
, e
22
=
_
0 0
0 1
_
. Entonces:
F(e
11
) = e
11
= 1e
11
+ 0e
12
+ 0e
21
+ 0e
22
F(e
12
) =
_
0 3
2 0
_
= 0e
11
+ 3e
12
2e
21
+ 0e
22
F(e
21
) =
_
0 2
3 0
_
= 0e
11
2e
12
+ 3e
21
+ 0e
22
F(e
22
) = e
22
= 0e
11
+ 0e
12
+ 0e
21
+ 1e
22
.
Se sigue que:
[F]

=
_
_
_
_
1 0 0 0
0 3 2 0
0 2 3 0
0 0 0 1
_
_
_
_
.
Por lo tanto, det(F) = det([F]

) = 5.
4.6.1. Ejercicios
1. Pruebe que la equivalencia de matrices es una relacin de equivalencia en el conjunto K
mn
.
Ms precisamente, pruebe que:
a) A A;
b) si A B, entonces B A;
c) si A B y B C, entonces A C.
Si A K
mn
, pruebe que la clase de equivalencia de A es:
PAQ [ P, Q son matrices invertibles de mm y n n, respectivamente.
2. Pruebe que la semejanza de matrices es una relacin de equivalencia en el conjunto K
nn
.
Cul es la clase de equivalencia de una matriz A?
3. Sea T el operador lineal sobre R
2
dado por T
_
x
1
x
2
_
=
_
x
2
x
1
_
. Sea una base arbitraria
de R
2
y suponga que [T]

=
_
a
11
a
12
a
21
a
22
_
. Demuestre que a
12
a
21
,= 0.
4. Sean P =
_
2 1
7 4
_
y la base cannica de R
2
.
a) Halle una base
t
de R
2
de tal manera que P sea la matriz cambio de base de la base a
la base
t
.
b) Sea T : R
2
R
2
la tansformacin lineal dada por:
T
_
x
y
_
=
_
15x 8y
28x 15y
_
.
Encuentre una matriz que sea semejante a la matriz [T]

. (Escriba dicha matriz explci-


tamente).
4.6. Matrices asociadas a la misma transformacin lineal 133
5. Sea V un espacio vectorial real de dimensin nita y sea T un operador lineal sobre V . Si A es
la matriz que representa a T en alguna base y se cumple la relacin 8A
3
16A
2
+5A+3I = 0,
pruebe que T es un isomorsmo.
6. Sea T : R
3
R
2
la transformacin lineal dada por T(x) = Ax, donde A =
_
8 1 1
3 0 1
_
.
La matriz B =
_
1 1 1
1 2 1
_
es equivalente a la matriz A, de hecho A = PBQ, donde
P =
_
3 5
1 2
_
y Q =
_
_
1 1 1
0 1 1
0 0 1
_
_
. Calcule bases
1
y
t
1
para R
3
y R
2
, respectivamente
tales que B = [T]
1

1
. Por comprobacin directa verique que efectivamente B = [T]
1

1
.
En caso de necesitarlo, P
1
=
_
2 5
1 3
_
y Q
1
=
_
_
1 1 0
0 1 1
0 0 1
_
_
.
7. Sea T el operador lineal sobre R
2
dado por T(x) = Ax, donde A =
_
5 8
3 5
_
. La
matriz B =
_
1 1
0 1
_
es semejante con la matriz A, de hecho, A = PBP
1
, donde
P =
_
2 3
1 2
_
. Calcule una base
t
para R
2
de tal manera que B = [T]

.
8. Sea V un espacio vectorial de dimensin nita y sea = v
1
, v
2
una base para V . Sea
T un operador lineal sobre V tal que [T]

= A, donde A =
_
2 1
4 3
_
. La matriz B =
_
41 24
79 46
_
es semejante con A, de hecho A = PBP
1
, donde P =
_
2 1
7 4
_
. Calcule
una base
t
para V de tal manera que [T]

= B. La base
t
debe expresarse en trminos de
la base .
9. Sean = v
1
, . . . , v
n
y
t
= w
1
, . . . , w
n
bases para R
n
. Sean A = [v
1
[ . . . [ v
n
] y
B = [w
1
[ . . . [ w
n
]. Demuestre que la matriz P = B
1
A es la matriz cambio de base de la
base a la base
t
.
10. Sean = (1, 1)
T
, (1, 1)
T
y
t
= 1, 1 + t bases para los espacios R
2
y R[t]
2
, respecti-
vamente. Sea T : R
2
R[t]
2
la funcin lineal tal que [T]

=
_
3 4
2 3
_
= A.
a) Encuentre una funcin lineal F : R[t]
2
R
2
tal que:
[F]

= A
1
=
_
3 4
2 3
_
.
b) Verique que F es la inversa de la funcin T.
11. Sea B C
22
. Demuestre que el determinante del operador lineal T : C
22
C
22
dado
por T(A) = AB BA, es cero.
12. Considere a los nmeros complejos C como un espacio vectorial sobre el campo de los nmeros
reales. Sea C y sea T : C C el operador lineal dado por T(z) = z. Calcule el
determinante de T.
13. Sea V un K-espacio vectorial de dimensin nita y sean S y T operadores lineales sobre V .
Demuestre que existen bases y
t
de V tales que [S]

= [T]

si y slo si existe un operador


lineal invertible U sobre V tal que T = U S U
1
.
134 4. Transformaciones lineales y matrices
4.7. Operadores diagonalizables
En diferentes reas de las Matemticas, Fsica, Ingeniera o incluso Biologa, el anlisis de un
determinado problema puede requerir calcular las potencias de una cierta matriz y determinar
si stas convergen a un lmite. Cuando la matriz es diagonal, este problema es muy sencillo.
Por ejemplo si D =
_

1
0
0
2
_
, entonces D
n
=
_

n
1
0
0
n
2
_
para todo entero positivo n.
Si A no es diagonal, pero se puede escribir en trminos de una matriz diagonal, por ejemplo
A = PDP
1
, donde P =
_
1 1
1 2
_
, entonces:
A
n
= PD
n
P
1
=
_
2
n
1

n
2

n
1
+
n
2
2
n
1
2
n
2

n
1
+ 2
n
2
_
.
Si las sucesiones
n
1
y
n
2
de nmeros convergen, digamos lm
n

n
1
= 1 y lm
n

n
2
= 0, en-
tonces
lm
n
A
n
=
_
2 1
2 1
_
.
Cuando una matriz A se puede escribir de la forma A = PDP
1
con D una matriz diagonal, A
recibe un nombre especial.
Denicin 4.7.1.
1. Un operador lineal T sobre un espacio de dimensin nita V es diagonalizable, si existe una
base para V tal que [T]

es diagonal. En este caso se dice que la base diagonaliza al


operador T.
2. Una matriz cuadrada A es diagonalizable si la transformacin lineal T
A
inducida por A es
diagonalizable.
El operador lineal T : R[t]
2
R[t]
2
dado por T(a+bt) = (a2b) bt es diagonalizable, pues
la matriz de T en la base
t
= 1, 1 +t es diagonal:
[T]

=
_
1 0
0 1
_
.
Observe que si = 1, t, entonces [T]

=
_
1 2
0 1
_
y tambin:
_
1 2
0 1
_
=
_
1 1
0 1
__
1 0
0 1
__
1 1
0 1
_
,
donde [1
R[t]2
]

=
_
1 1
0 1
_
(vase el Corolario 4.6.8).
Ejemplo 4.7.2. Considere el operador lineal sobre R
2
dado por:
T
_
x
y
_
=
_
7x 15y
6x + 12y
_
.
Pruebe que T es diagonalizable, encontrando una base
t
tal que [T]

=
_
2 0
0 3
_
. Encuentre
tambin una matriz P tal que [T]

= P[T]

P
1
, donde es la base cannica de R
2
.
4.7. Operadores diagonalizables 135
Solucin. Supongamos que la base pedida es
t
= w
1
, w
2
. Puesto que [T]

= diag(2, 3),
entonces:
T(w
1
) = 2w
1
+ 0w
2
,
T(w
2
) = 0w
1
+ 3w
2
.
Se sigue entonces que [T]

w
1
= 2w
1
y [T]

w
2
= 3w
2
(ya que por el Teorema 4.4.1 [T]

w
1
=
[T]

[w
1
]

= [T(w
1
)]

= T(w
1
) y [T]

w
2
= [T]

[w
2
]

= [T(w
2
)]

= T(w
2
)), donde [T]

=
_
7 15
6 12
_
. Luego, podemos escribir las ecuaciones anteriores en la forma ([T]

2I)w
1
= 0 y
([T]

3I)w
2
= 0. As, el problema se reduce al clculo de dos espacios nulos. Despus de
realizar los clculos obtenemos que
N([T]

2I) =
__
5/3
1
__
=
__
5
3
__
,
N([T]

3I) =
__
3/2
1
__
=
__
3
2
__
.
Por lo tanto, una base con la caracterstica pedida es
t
=
__
5
3
_
,
_
3
2
__
. Finalmente, por el
Corolario 4.6.8, tenemos que [T]

= P[T]

P
1
donde P = [1
R
2]

=
_
2 3
3 5
_
.
Teorema 4.7.3. Sea T un operador lineal sobre un espacio V de dimensin nita. T es dia-
gonalizable si y slo si existe una base = v
1
, . . . , v
n
de V y escalares
1
, . . . ,
n
, tales que
T(v
j
) =
j
v
j
para j = 1, . . . , n.
Demostracin. Supongamos que T es diagonalizable. Entonces existe una base de V , digamos
= v
1
, . . . , v
n
, tal que [T]

es diagonal. Supongamos que [T]

= diag(
1
, . . . ,
n
). Entonces,
T(v
j
) =
j
v
j
para cada j = 1, . . . , n.
Recprocamente, si existe una base = v
1
, . . . , v
n
de V y escalares
1
, . . . ,
n
, tales que
T(v
j
) =
j
v
j
para cada j = 1, . . . , n, entonces [T]

= diag(
1
, . . . ,
n
), es decir, [T]

es diagonal
y por lo tanto T es diagonalizable.
El siguiente corolario dice que la Denicin 4.7.1 (2) se reescribe como sigue: A es diago-
nalizable si y solamente si existe una matriz invertible P y una matriz diagonal D tal que
A = PDP
1
.
Corolario 4.7.4. Una matriz A de nn es diagonalizable si y slo si existe una matriz invertible
P tal que P
1
AP es una matriz diagonal.
Demostracin. Sea A K
nn
. Si A es diagonalizable, entonces T
A
: K
n
K
n
es diagonalizable.
Luego, segn el teorema anterior, existe una base
t
de K
n
y escalares
1
, . . . ,
n
tales que
[T
A
]

= diag(
1
, . . . ,
n
). Por el Corolario 4.6.8, si es la base cannica de K
n
, tenemos
que [T
A
]

= P[T
A
]

P
1
donde P = [1
K
n]

. Como [T
A
]

= A, se sigue que P
1
AP =
diag(
1
, . . . ,
n
).
Recprocamente, supongamos que P es una matriz invertible tal que P
1
AP es una matriz
diagonal, digamos P
1
AP = diag(
1
, . . . ,
n
). Sea la base cannica de K
n
. Como A = [T
A
]

,
el Corolario 4.6.8 implica que existe una base
t
= v
1
, . . . , v
n
de K
n
tal que diag(
1
, . . . ,
n
) =
[T
A
]

, es decir, T
A
(v
i
) =
i
v
i
para i = 1, 2, . . . , n. Luego, T
A
es diagonalizable por el teorema
anterior, y por lo tanto A tambin es diagonalizable.
4.7.1. Ejercicios
1. Sea T el operador lineal sobre R
2
dado por
T
_
x
y
_
=
_
7x 15y
6x + 12y
_
.
136 4. Transformaciones lineales y matrices
Encuentre una base
t
tal que [T]

=
_
2 0
0 3
_
. Encuentre tambin una matriz P tal que
[T]

= P [T]

P
1
. Concluya que T es diagonalizable.
2. Determine si el operador lineal dado es diagonalizable o no. En caso de serlo, encuentre
nmeros reales
1
y
2
, y vectores v
1
y v
2
tales que T(v
i
) =
i
v
i
para i = 1, 2.
a) T es el operador lineal sobre R[t]
2
dado por T(a +bt) =
_
a+b
2
_
+
_
a+b
2
_
t.
b) T es el operador lineal sobre R
2
inducido por la matriz A =
_
1 6
2 6
_
.
c) T : R
2
R
2
est dado por T
_
x
y
_
=
_
2x y
x +y
_
.
4.8. El espacio dual
Sea V un K-espacio vectorial. Un funcional lineal sobre V es una funcin lineal de V en K.
De acuerdo con el Teorema 4.1.7, el conjunto de todas las funcionales lineales L(V, K) es un
espacio vectorial, llamado espacio dual de V y denotado por V

.
Ejemplos 4.8.1.
1. La proyeccin sobre la primera coordenada
1
: K
n
K dada por
_
x1
.
.
.
xn
_
= x
1
es un
funcional lineal. De hecho, para cada i, 1 i n, la proyeccin
i
: K
n
K sobre la i-sima
coordenada es un funcional lineal sobre K
n
.
2. La funcin traza tr: K
nn
K es un funcional lineal sobre K
nn
.
3. Sea V = C([a, b], R) el espacio de todas las funciones reales continuas en el intervalo [a, b].
La funcin L: V R dada por L(f) =
_
b
a
f(x)dx es un funcional lineal sobre V .
Ejemplo 4.8.2. Sea = v
1
, v
2
una base de R
2
, y sean v

1
, v

2
: R
2
R
2
las nicas transfor-
maciones lineales tales que:
v

1
(v
1
) = 1, v

1
(v
2
)=0,
v

2
(v
1
) = 0, v

2
(v
2
)=1.
Veamos que

= v

1
, v

2
es una base para el espacio dual de R
2
. Observe que si v = x
1
v
1
+x
2
v
2
,
entonces:
v

1
(v) = v

1
(x
1
v
1
+x
2
v
2
) = x
1
v

1
(v
1
) +x
2
v

1
(v
2
) = x
1
.
Anlogamente v

2
(v) = x
2
.
Ahora bien, sea f : R
2
R una funcin lineal, es decir, sea f (R
2
)

. Sean a
1
= f(v
1
) y
a
2
= f(v
2
). Entonces:
f(v) = f(x
1
v
1
+x
2
v
2
) = x
1
f(v
1
) +x
2
f(v
2
) = v

1
(v)a
1
+v

2
(v
2
)a
2
= a
1
v

1
(v) +a
2
v

2
(v) = (a
1
v

1
)(v) + (a
2
v

2
)(v) = (a
1
v

1
+a
2
v

2
)(v)
Esto muestra que f = a
1
v

1
+ a
2
v

2
. En otras palabras,

genera a (R
2
)

. Supongamos ahora
que c
1
, c
2
son escalares tales que c
1
v

1
+c
2
v

2
= 0. En particular:
0 = (c
1
v

1
+c
2
v

2
)(v
1
) = c
1
v

1
(v
1
) +c
2
v

2
(c
2
) = c
1
.
Anlogamente c
2
= 0. Se concluye que

es una base para el espacio dual.


4.8. El espacio dual 137
Teorema 4.8.3. Si V es un K-espacio vectorial de dimensin nita, entonces el espacio dual
V

tambin es de dimensin nita y dimV

= dimV .
Demostracin. Sea = v
1
, . . . , v
n
una base de V . Para cada i, 1 i n sea v
i
: V K el
nico funcional lineal sobre V (Teorema 4.1.4) tal que:
v

i
(v
j
) =
ij
, para j = 1, . . . , n.
Veamos que

es una base para el espacio dual. Si v V y v = x


1
v
1
+ +x
n
v
n
, entonces:
v

i
(v) = v

i
_
_
n

j=1
x
j
v
j
_
_
=
n

j=1
x
j
v

i
(v
j
) =
n

j=1
x
j

ij
= x
i

ii
= x
i
.
De esta manera podemos escribir v = v

1
(v)v
1
+ + v

n
(v)v
n
. Sea f V

y sea a
i
= f(v
1
),
1 i n. Para cualquier v V ,
f(v) = f
_
n

i=1
v

i
(v)v
i
_
=
n

i=1
v

i
(v)f (v
i
) =
n

i=1
v

i
(v)a
i
=
n

i=1
a
i
v

i
(v)
=
n

i=1
(a
i
v

i
)(v) =
_
n

i=1
(a
i
v

i
)
_
(v).
Luego f = a
1
v

1
+ +a
n
v

n
. Veamos ahora que

es linealmente independiente. Consideremos


la combinacin lineal c
1
v

1
+ +c
n
v

n
= 0. Entonces:
0 =
_
n

i=1
c
i
v

i
_
(v
j
) =
n

i=1
c
i
v

i
(v
j
) =
n

i=1
c
i

ij
= c
j

jj
= c
j
.
Esto prueba que

es una base para V . Adems dimV

= n = dimV .
La base

inducida por la base es la base dual de la base .


Denicin 4.8.4. Sea V un K-espacio vectorial y sea S un subconjunto de V . Se dice que un
funcional lineal f anula a S si f(v) = 0 para todo v S. El conjunto:
S
0
= f V

[ f anula a S
es el anulador de S.
Si f, g S
0
, y v S, (f+g)(v) = f(v)+g(v) = 0. Si c es un escalar, (cf)(v) = cf(v) = c0 = 0.
Esto muestra que el anulador de S es un subespacio vectorial del espacio dual, independiente-
mente de que S sea o no un subespacio de V . De la denicin es inmediato que 0
0
= V

y
V
0
= 0.
Ejemplo 4.8.5. Consideremos R
4
y sea S = s
1
, s
2
, donde s
1
= (1, 1, 1, 1)
T
y s
2
=
(1, 1, 1, 1)
T
. El funcional lineal f : R
4
R dado por f(x) = x
1
+x
2
x
3
x
4
anula a S:
f(s
1
) = 1 + (1) 1 (1) = 0 = 1 + 1 1 1 = f(s
2
),
es decir f S
0
. A continuacin describiremos todos los elementos de S
0
.
Consideremos en R
4
la base cannica, es decir, la formada por los vectores unitarios e
1
, e
2
,
e
3
, e
4
. Entonces s
1
= e
1
e
2
+e
3
e
4
, s
2
= e
1
+e
2
+e
3
+e
4
. Por denicin, f S
0
si y slo si
f(s
1
) = f(s
2
) = 0, es decir, si y slo si:
0 = f(s
1
) = f(e
1
e
2
+e
3
e
4
) = f(e
1
) f(e
2
) +f(e
3
) f(e
4
),
0 = f(s
2
) = f(e
1
+e
2
+e
3
+e
4
) = f(e
1
) +f(e
2
) +f(e
3
) +f(e
4
),
138 4. Transformaciones lineales y matrices
Resolviendo el sistema de ecuaciones lineales homogneo se tiene que f(e
1
) = f(e
3
), f(e
2
) =
f(e
4
). Si x R
4
, x =

4
i=1
x
i
e
i
. Se sigue que f S
0
si y slo si:
f(x) = x
1
f(e
1
) +x
2
f(e
2
) +x
3
f(e
3
) +x
4
f(e
4
)
= (x
1
+x
3
)f(e
3
) + (x
2
+x
4
)f(e
4
).
Se sigue que S
0
= f
r,s
[ r, s R, donde f
r,s
es la funcional lineal dada por f
r,s
(x) =
(x
1
+x
3
)r + (x
2
+x
4
)s.
Del ejemplo se observa que dimR
4
= dims
1
, s
2
+ dimS
0
. Esto sucede en general, como
lo muestra el siguiente teorema.
Teorema 4.8.6. Si V es un espacio vectorial de dimensin nita y W es un subespacio de V ,
entonces:
dimV = dimW + dimW
0
.
Demostracin. Si W = 0, entonces W
0
= V

y de acuerdo con el Teorema 4.8.3 se tiene el


resultado. Supongamos entonces que W no es el espacio cero y sea v
1
, . . . , v
r
una base de W.
Sean v
r+1
, . . . , v
n
tales que = v
1
, . . . , v
n
es una base de V . Sea

la base dual de . Sea


f W
0
y sean x
1
, . . . , x
n
tales que f = x
1
v

1
+ + x
n
v

n
. Como f W
0
, f(v
j
) = 0 para
1 j r. Luego para j = 1, . . . , r:
0 = f(v
j
) =
_
n

i=1
x
i
v

i
_
(v
j
) =
n

i=1
x
i
v

i
(v
j
) =
n

i=1
x
i

ij
= x
j

jj
= x
j
.
Entonces f = x
r+1
v

r+1
+ + x
n
v

n
. Ahora bien, si i > r y j 1, . . . , r, v

i
(v
j
) =
ij
= 0.
Como v

i
anula a los elementos de la base de W, anula a cada elemento de W, de aqu que
v

i
W
0
, r +1 i n. Se sigue que v

r+1
, . . . , v

n
es una base para W
0
. As dimW
0
= nr =
dimV dimW.
4.8.1. Ejercicios
1. Para cada una de las siguientes funciones sobre un espacio vectorial V , determine cules son
funcionales lineales.
a) V = R[t], f(p) = 2p
t
(0) +p
tt
(1) donde p
t
(t) denota la derivada de p(t).
b) V = R
2
, f
_
x
y
_
=
_
2x
4y
_
.
c) V = R
22
, f(A) = a
11
donde A = (a
ij
).
2. Para cada espacio vectorial V con base , determine la base dual

para V

.
a) V = R
3
, =
_
_
_
_
_
1
0
1
_
_
,
_
_
1
2
1
_
_
,
_
_
0
0
1
_
_
_
_
_
.
b) V = R[t]
3
, = 1, t, t
2
.
3. Sea V = R
3
y dena:
f
1
_
_
x
y
z
_
_
= x 2y, f
2
_
_
x
y
z
_
_
= x +y +z, f
3
=
_
_
x
y
z
_
_
= y 3z.
Demuestre que = f
1
, f
2
, f
3
es una base para V

y determine una base para V cuya base


dual sea .
4.8. El espacio dual 139
4. Dado un espacio vectorial V , se dene el doble dual V

de V como el dual de V

.
Sea V un K-espacio vectorial de dimensin nita. Este ejercicio pretende demostrar que V
se puede identicar de una manera natural con su doble dual V

.
a) Para cada v V , se dene v : V

K dada por v(f) = f(v) para cada f V

.
Demuestre que v es un funcional lineal sobre V

, es decir, v V

.
b) Sea v V . Demuestre que si v(f) = 0 para todo f V

, entonces v = 0.
c) Demuestre que la funcin : V V

dada por (v) = v es un isomorsmo.


5. Sea V un espacio vectorial de dimensin nita con espacio dual V

. Demuestre que cada base


ordenada de V

es la base dual de alguna base de V .


6. Sea V un espacio vectorial de dimensin nita y sea S un subconjunto de V .
a) Si W es un subespacio de V y v , W, demuestre que existe f W
0
tal que f(v) ,= 0.
b) Demuestre que (S
0
)
0
= (S), donde es el isomorsmo del ejercicio 4.
c) Si W
1
y W
2
son subespacios de V , demuestre que W
1
= W
2
si y slo si W
0
1
= W
0
2
.
d) Si W
1
y W
2
son subespacios de V , demuestre que (W
1
+W
2
)
0
= W
0
1
W
0
2
.
140 4. Transformaciones lineales y matrices
CAPTULO 5
Espacios producto interno
En el espacio vectorial R
2
existe una nocin de perpendicularidad u ortogonalidad entre sus
elementos. De hecho v
1
=
_
x
1
x
2
_
es ortogonal a v
2
=
_
y
1
y
2
_
si y slo si se tiene

Ov
1


Ov
2
y esto
ltimo sucede si y slo si el producto de las pendientes es igual a 1. Esta ltima condicin se
traduce en v
T
1
v
2
= x
1
y
1
+ x
2
y
2
= 0. Resumiendo, tenemos que dos vectores son ortogonales si
y slo si el producto interior de ellos es cero. De esta manera la ortogonalidad de dos vectores
la podemos establecer en terminos del producto interior. Pero no slo eso, ya que tambin los
conceptos de magnitud o norma de un vector y distancia entre vectores se denen en trminos
del producto interno:
v
1
v
2
v
T
1
v
2
= 0,
|v| =

v
T
v,
d(v
1
, v
2
) = |v
1
v
2
| ,
Observe que la funcin producto interno f : R
2
R
2
R dada por:
f(v
1
, v
2
) = v
T
1
v
2
satisface:
1. f(v
1
, v
2
) = f(v
2
, v
1
).
2. f(v
1
+v
2
, v
3
) = f(v
1
, v
3
) +f(v
2
, v
3
).
3. f(cv
1
, v
2
) = cf(v
1
, v
2
).
4. Si v R
2
es tal que f(v, w) = 0 para todo w R
2
, entonces v = 0.
5. f(v, v) 0 para todo v R
2
y f(v, v) = 0 si y slo si v = 0.
En este captulo lo que haremos ser denir un producto interno en un espacio vectorial
denido sobre algn subcampo de los nmeros complejos, como una funcin que satisface pro-
piedades anlogas a las de la funcin producto interno (tambin llamado producto punto) de R
2
,
deniremos los conceptos de ortogonalidad y norma en trminos de esta funcin, y estudiaremos
las propiedades que de ella se deriven.
141
142 5. Espacios producto interno
5.1. Espacios producto interno
A menos que se especique lo contrario, K denotar al campo de los nmeros reales o
complejos. Recordemos que un espacio vectorial es real si est denido sobre el campo de los
nmeros reales, y complejo si est denido sobre el campo de los nmeros complejos.
Denicin 5.1.1. Sea V un espacio vectorial real o complejo. Un producto interno sobre V es
una funcin , : V V K que satisface las siguientes propiedades:
1. v, w = w, v,
2. u, v +w = u, v +u, w,
3. v, cw = cv, w,
4. v, v > 0 si v ,= 0,
para cualesquiera u, v y w de V y cualquier escalar c.
Un espacio producto interno es un espacio real o complejo junto con un producto interno
denido sobre dicho espacio. Un espacio euclidiano es un espacio producto interno real de
dimensin nita. Un espacio unitario es un espacio producto interno complejo de dimensin
nita.
El prototipo de espacio euclidiano es R
n
, as como el prototipo de espacio unitario es C
n
.
De la denicin anterior se deduce la veracidad de las siguientes armaciones sobre un espacio
producto interno V .
1. El producto interno separa sumas en la primera variable y saca escalares conjugados en la
primera variable. Es decir:
u +v, w = w, u +v = w, u +w, v = w, u +w, v = u, w +v, w
y cv, w = w, cv = cw, v = cw, v = cv, w.
2. Para cada v V se tiene que v, 0 = 0 = 0, v.
3. v, v = 0 si y slo si v = 0.
4. Todo producto interno es no degenerado, es decir satisface la siguiente propiedad: Si w V
es tal que v, w = 0 para todo v V , entonces w = 0.
En caso contrario, se dice que el producto es degenerado.
5. Si K = R, se tiene que v, w = w, v para cada v, w V . En consecuencia, un producto
interno denido sobre un espacio vectorial real es una funcin bilineal simtrica
1
, pero no
recprocamente.
Tanto en el caso real como en el caso complejo, existen funciones , : V V K que
satisfacen las propiedades 1 a 3, pero no satisfacen la propiedad 4.
Denicin 5.1.2. Sea K un campo y sea V un espacio vectorial sobre K. Un producto escalar
sobre V es una funcin , : V V K que satisface las siguientes propiedades:
1. , es una funcin simtrica, es decir, v, w = w, v para todo v, w V .
2. u +v, w = u, w +v, w para todo u, v, w V .
1
Una funcin f : V V K es bilineal si f(u + v, w) = f(u, w) + f(v, w), f(u, v + w) = f(u, v) + f(u, w),
f(cv, w) = f(v, cw) = cf(v, w) para cualesquiera u, v, w V y c K. En otras palabras, la funcin es bilineal si
es lineal como funcin de cada variable. La funcin es simtrica si f(v, w) = f(w, v) para todo v, w V .
5.1. Espacios producto interno 143
3. cv, w = cv, w para todo c K y v, w V .
Un producto escalar es no degenerado si satisface la siguiente condicin: Si w V es tal
que v, w = 0 para todo v V , entonces w = 0. En caso contrario, el producto escalar es
degenerado. Un producto escalar es denido positivo si v, v 0 para todo v V y v, v > 0
si v ,= 0.
Note que si , es un producto escalar sobre V , entonces , es una funcin bilineal
simtrica. Recprocamente, si , : V V K es una funcin bilineal simtrica, entonces ,
es un producto escalar. En consecuencia, un producto escalar no es otra cosa que una funcin
bilineal simtrica sobre V .
Denicin 5.1.3. Sea V un espacio vectorial complejo. Un producto hermitiano sobre V es
una funcin , : V V C que satisface las siguientes propiedades:
1. v, w = w, v,
2. u, v +w = u, v +u, w,
3. v, cw = cv, w,
para todo u, v, w V y c C.
Un producto hermitiano es denido positivo si v, v 0 para todo v V y v, v > 0 si v ,= 0.
Si V es un espacio vectorial real (es decir, K = R), entonces un producto interno sobre V no
es otra cosa que un producto escalar denido positivo. Y si V es un espacio vectorial complejo
(K = C), entonces un producto interno sobre V es un producto hermitiano denido positivo.
En consecuencia, un producto interno es un producto escalar denido positivo o es un producto
hermitiano denido positivo.
Ejemplos 5.1.4.
1. En R
n
la funcin , : R
n
R
n
R dada por x, y = x
T
y es un producto escalar denido
positivo, es decir es un producto interno. En efecto:
x, y = x
T
y = (x
T
y)
T
= y
T
x = y, x,
x +y, z = (x +y)
T
z = (x
T
+y
T
)z = x
T
z +y
T
z = x, z +y, z,
cx, y = (cx)
T
y = (cx
T
)y = c(x
T
y) = cx, y.
Claramente x, x =

n
i=1
x
2
i
0 y x, x > 0 si x ,= 0.
2. En C
n
la funcin , : C
n
C
n
C dada por x, y = x

y es un producto hermitiano
denido positivo, es decir es un producto interno.
3. En R[t]
2
la funcin , : R[t]
2
R[t]
2
R dada por:
p, q =
_
1
0
p(t)q(t)dt,
es un producto interno.
4. La funcin , : R
2
R
2
R denida por x, y = x
1
y
1
x
2
y
2
, donde x = (x
1
x
2
)
T
,
y = (y
1
y
2
)
T
, es un producto escalar no degenerado que no es denido positivo. La vericacin
de que es un producto escalar no degenerado se deja de ejercicio. Para ver que no es denido
positivo basta observar que x = (1 2)
T
,= 0 y x, x = 1 1 2 2 < 0. Luego, no es un
producto interno.
5. En R
2
la funcin , : R
2
R
2
R dada por x, y = x
1
y
1
x
2
y
1
x
1
y
2
+ 4x
2
y
2
, donde
x = (x
1
x
2
)
T
, y = (y
1
y
2
)
T
, es un producto interno.
144 5. Espacios producto interno
6. En R
mn
la funcin , : R
mn
R
mn
R dada por A, B = tr(A
T
B) es un producto
interno. Anlogamente, en C
mn
la funcin , : C
mn
C
mn
C dada por A, B =
tr(A

B) es un producto interno.
7. Sea K = R o C. Sea V el espacio vectorial sobre K de todas las funciones continuas f :
[a, b] K. La funcin , : V V K dada por:
f, g =
_
b
a
f(t)g(t)dt
es un producto interno. En efecto:
g, f =
_
b
a
g(t)f(t)dt =
_
b
a
g(t)f(t)dt =
_
b
a
g(t)f(t)dt = f, g.
La propiedad de linealidad en la primera variable es consecuencia de que la integral es lineal.
El ser denido positivo se deduce de las propiedades de la continuidad de las funciones. Se
deja de ejercicio al lector.
8. Considere la matriz simtrica M =
_
1 1
1 1
_
. La funcin , : R
2
R
2
R denida
por x, y = x
T
My es un producto escalar sobre R
2
que es degenerado y por tanto no es
denido positivo. En efecto, que es un producto escalar es inmediato de las propiedades
de la multiplicacin de matrices y del hecho que M es simtrica. Es degenerado ya que si
y = (1 1)
T
entonces x, y = 0 para todo x R
2
. No es denido positivo puesto que si
y = (1 1)
T
entonces y, y = 0. >Es este producto escalar un producto interno?
9. Considere la matriz hermitiana M =
_
1 i
i 1
_
, y dena la funcin , : C
2
C
2
C por
x, y = x

My. Este es un producto hermitiano que no es denido positivo ya que x, x = 0


para x = (i 1)
T
. >Es este producto hermitiano un producto interno?
Denicin 5.1.5. Sea V un espacio producto interno. Se dene la norma de un vector v V ,
denotada por |v|, como:
|v| =
_
v, v.
La forma cuadrtica determinada por el producto interno , es la funcin f : V K, (K = R
o C), dada por f(v) = |v|
2
.
Algunas propiedades de la norma estn dadas en el siguiente teorema.
Teorema 5.1.6. Sea V un espacio producto interno y sean v, w V . Entonces:
1. |v w|
2
= |v|
2
2 Rev, w +|w|
2
.
2. (Ley del paralelogramo). |v +w|
2
+|v w|
2
= 2(|v|
2
+|w|
2
).
3. |cv| = [c[|v| para todo escalar c.
4. (Identidades de polarizacin). Si V es un espacio producto interno real, entonces:
v, w =
1
4
|v +w|
2

1
4
|v w|
2
.
Si V es un espacio producto interno complejo, entonces:
v, w =
1
4
(|v +w|
2
|v w|
2
+i|iv +w|
2
i|iv w|
2
).
5.1. Espacios producto interno 145
5. |v| > 0 si v ,= 0.
6. (Desigualdad de Cauchy-Schwarz). [v, w[ |v||w|.
7. (Desigualdad del tringulo). |v w| |v| +|w|.
Demostracin. 1. Tenemos que:
|v w|
2
= v w, v w = v w, v v w, w
= v, v w, v (v, w w, w)
= |v|
2
v, w v, w +|w|
2
= |v|
2
2 Rev, w +|w|
2
.
2. De 1 tenemos que |v+w|
2
= |v|
2
+2 Rev, w+|w|
2
y |vw|
2
= |v|
2
2 Rev, w+|w|
2
,
de modo que |v +w|
2
+|v w|
2
= 2|v|
2
+ 2|w|
2
.
3. Tenemos que |cv|
2
= cv, cv = ccv, v = ccv, v = [c[
2
v, v, de donde |cv| = [c[
_
v, v =
[c[|v|.
4. Si V es un espacio producto interno real, entonces v, w es un nmero real y por lo tanto
v, w = Rev, w. Luego, de 1 se sigue que |v +w|
2
|v w|
2
= 4 Rev, w = 4v, w, y de
aqu se sigue la primera identidad de polarizacin. Supongamos que V es un espacio producto
interno complejo. Por lo demostrado en 1, tenemos que:
i|iv +w|
2
= i(|iv|
2
+ 2 Reiv, w +|w|
2
)
= i([i[
2
|v|
2
+ 2 Re(iv, w) +|w|
2
)
= i(|v|
2
+ 2 Re(iv, w) +|w|
2
)
y
i|iv w|
2
= i(|iv|
2
2 Reiv, w +|w|
2
)
= i([i[
2
|v|
2
2 Re(iv, w) +|w|
2
)
= i(|v|
2
2 Re(iv, w) +|w|
2
),
de modo que i|iv +w|
2
i|iv w|
2
= 2i Re(iv, w) +2i Re(iv, w) = 4i Re(iv, w) =
4i Imv, w, ya que Re(iv, w) = Imv, w. Finalmente, como |v + w|
2
|v w|
2
=
4 Rev, w, se sigue que |v+w|
2
|vw|
2
+i|iv+w|
2
i|ivw|
2
= 4(Rev, w+i Imv, w) =
4v, w.
5. Por denicin tenemos que v, v > 0 si v ,= 0. Luego,
_
v, v > 0 si v ,= 0, es decir, |v| > 0
si v ,= 0.
6. Es claro que si w = 0 la desigualdad es cierta. Supongamos entonces que w ,= 0. Por lo
demostrado en 1, para cualesquiera escalares s, t tenemos que:
0 |sv +tw|
2
= [s[
2
|v|
2
+ 2 Re(stv, w) +[t[
2
|w|
2
.
En particular, para s = 1 y t =
v,w)
|w|
2
, tenemos que:
0 |v|
2
+ 2 Re
_

v, w
|w|
2
v, w
_
+
[v, w[
2
|w|
4
|w|
2
= |v|
2
2
[v, w[
2
|w|
2
+
[v, w[
2
|w|
2
= |v|
2

[v, w[
2
|w|
2
.
146 5. Espacios producto interno
Luego, [v, w[
2
|v|
2
|w|
2
de donde [v, w[ |v||w|.
7. Por lo demostrado en 1, tenemos que |v + w|
2
= |v|
2
+ 2 Rev, w + |w|
2
. Por otro lado,
usando el hecho de que Re(z) [ Re(z)[ [z[ para todo z C, tenemos que Rev, w
[v, w[ |v||w| donde la ltima desigualdad se sigue de la desigualdad de Cauchy-Schwarz.
Luego:
|v +w|
2
= |v|
2
+ 2 Rev, w +|w|
2
|v|
2
+ 2|v||w| +|w|
2
= (|v| +|w|)
2
,
de donde |v +w| |v| +|w|. Probar que |v w| |v| +|w| se deja de ejercicio.
Note que en 4 se establece una forma de recuperar el producto interno a partir de la forma
cuadrtica.
La desigualdad de Cauchy-Schwarz se convierte en una igualdad si y slo si los vectores v y
w son linealmente dependientes. Se deja al lector la prueba de esta armacin.
5.1.1. Ejercicios
1. Sea V un espacio producto interno y sean v, w V . Pruebe que v = w si y slo si v, u =
w, u para todo u V .
2. Sea A R
nm
, con m n tal que las columnas de A son linealmente independientes.
Demuestre que la matriz A
T
A es invertible.
3. Sea V un espacio vectorial de dimensin nita sobre un campo K y sea = v
1
, . . . , v
n
una
base para V . Pruebe que la funcin , : V V K dada por v, w = [v]
T

[w]

es un
producto escalar no degenerado. Si K = R, entonces este producto es denido positivo y por
tanto es un producto interno.
4. Sea V un espacio complejo de dimensin nita. Sea = v
1
, . . . , v
n
una base para V .
(a) Pruebe que el producto v, w = [v]

[w]

es un producto interno sobre V .


(b) Si
1
, . . . ,
n
son nmeros positivos, pruebe que el producto v, w =
1
x
1
y
1
+ +
n
x
n
y
n
,
donde [v]

= (x
1
, . . . , x
n
)
T
y [w]

= (y
1
, . . . , y
n
)
T
, es un producto interno sobre V .
5. Sea P K
nn
una matriz invertible. Pruebe que la funcin , : K
n
K
n
K dada por
x, y = (Px)

(Py) = x

Py es un producto interno.
6. Sea p : [a, b] K una funcin continua tal que p(t) > 0 para toda t [a, b]. Pruebe que la
funcin , : V V K dada por
f, g =
_
b
a
p(t)f(t)p(t)g(t)dt =
_
b
a
p(t)
2
f(t)g(t)dt,
es un producto interno sobre V , donde V es el espacio de las funciones continuas de [a, b] en
K.
7. Sea (W, , ) un espacio producto interno y sea T : V W un isomorsmo. Pruebe que la
funcin ,
V
: V V K dada por v, w
V
= T(v), T(w) es un producto interno. Este
ejercicio generaliza los ejercicios 3, 4, 5 y 6. Para cada uno de esos ejercicios encuentre el
isomorsmo.
8. Sea V un espacio complejo de dimensin nita con un producto interno (es decir, un espacio
unitario) y sea una base para V . Pruebe que existe una matriz hermitiana A tal que
v, w = [v]

A[w]

para todo v, w V .
5.1. Espacios producto interno 147
9. Sea V un espacio real de dimensin nita con un producto interno (es decir, un espacio
euclidiano) y sea una base de V .
(a) Pruebe que existe una matriz simtrica A tal que v, w = [v]
T

A[w]

.
(b) Considere en R
3
el producto escalar cannico y la base = e
1
, e
1
+ e
2
, e
1
+ e
2
+ e
3
.
Calcule una matriz A R
33
tal que x, y = [x]
T

A[y]

para cualesquiera x, y R
3
.
10. Sea K un campo y considere el espacio K
nn
de las matrices nn. Recuerde que la funcin
traza tr : K
nn
K est dada por tr(A) =

n
i=1
a
ii
. Pruebe que la funcin , : V V K
dada por A, B = tr(AB) es un producto interno no degenerado. (Una de las propiedades
de la funcin traza es tr(AB) = tr(BA)).
11. Sea V un espacio vectorial real con un producto escalar denido positivo. Sean v
1
, . . . , v
n
vectores no nulos tales que v
i
, v
j
= 0 si i ,= j. Pruebe que v
1
, . . . , v
n
es linealmente
independiente.
12. Sean u y v elementos de un espacio producto interno V tales que |u +v| = 12, |u v| = 5
y |u| = 7. Calcule el valor de |v|.
13. Sea V un espacio vectorial sobre el campo K y sea , un producto escalar sobre V .
(a) Pruebe que para cada w V la funcin f
w
: V K dada por f
w
(v) = v, w es un
funcional lineal sobre V . (Vase la Seccin 4.8).
(b) Pruebe que la funcin : V V

dada por (w) = f


w
es lineal.
(c) Si el producto escalar es no degenerado, pruebe que es inyectiva.
14. (Representacin de funcionales lineales). Sea V un espacio de dimensin nita con un pro-
ducto escalar no degenerado. Pruebe que para cada funcional lineal f existe un nico w V
tal que f(v) = v, w para todo v V .
15. Si V es un espacio producto interno complejo y w V , pruebe que la funcin f : V C
dada por f(v) = w, v es una funcin lineal. Adems, si w, w
t
V y c es un escalar, pruebe
que f
w+w
= f
w
+f
w
y f
cw
= cf
w
.
16. Sea V el espacio de las matrices complejas de m n. Pruebe que la operacin denida por
A, B = tr(A

B) es un producto interno sobre V . Si V = R


mn
, pruebe que el producto
A, B = tr(A
T
B) es un producto interno.
17. Sea A R
22
. Considere la funcin f
A
: R
2
R
2
R dada por f
A
(x, y) = x
T
Ay. Pruebe
que f
A
es un producto interno si y slo si A es simtrica, a
11
> 0, a
22
> 0 y det A > 0.
18. Sea V un espacio producto interno y sean v
1
, . . . , v
n
V de norma uno, mutuamente or-
togonales, es decir, v
i
, v
j
= 0 si i ,= j. Suponga que v =
1
v
1
+ +
n
v
n
. Pruebe que
|v|
2
= [
1
[
2
+ +[
n
[
2
.
19. Considere el espacio vectorial R
2
y pruebe que la funcin f : R
2
R dada por f(x) =
(x
1
x
2
)
2
+ 3x
2
2
es una forma cuadrtica.
20. Sea V el espacio de las funciones continuas de R en R. Sean a, b nmeros reales. Determine
si la funcin : V R dada por:
(f) =
_
a
a
f(t +b)f(t b)dt
es una forma cuadrtica.
21. Sea V un espacio producto interno. Pruebe que [v, w[ = |v||w| si y slo si v y w son
linealmente dependientes.
148 5. Espacios producto interno
22. En este ejercicio, , denota el producto interno cannico de R
n
y C
n
, respectivamente.
(a) Sea A R
nn
. Pruebe que Av, w = v, A
T
w para todos los vectores v, w R
n
.
(b) Sea A C
nn
. Pruebe que Av, w = v, A

w para todos los vectores v, w C


n
.
23. Sean V un espacio unitario y T un operador lineal sobre V tal que T(v), w = v, T(w)
para todo v, w V . Pruebe que el operador lineal 1
V
iT es invertible.
24. Sea V un espacio producto interno y sea T un operador lineal sobre V . Suponga que T(v) es
un vector unitario siempre que v es unitario (un vector de norma 1 se llama unitario). Pruebe
que |T(v)| = |v| para todo v V .
25. Sea V un espacio producto interno y sea T un operador lineal sobre V tal que |T(v)| = |v|
para todo v V . Pruebe que T(v), T(w) = v, w para todo v, w V .
26. Pruebe que (tr(A
T
B))
2
(tr(A
T
A))(tr(B
T
B)) para cada A, B R
mn
.
5.2. Ortogonalidad
En esta seccin exploraremos un poco la geometra de los espacios producto interno. En
particular lo que se reere a la ortogonalidad entre vectores.
Denicin 5.2.1. Sea V un espacio producto interno. Sean v, w V . Diremos que v es orto-
gonal a w si v, w = 0, y lo denotamos por v w. Si S V , diremos que S es ortogonal si
para cada v, w S con v ,= w se tiene que v, w = 0. S es ortonormal si es ortogonal y |v| = 1
para todo v S.
Si v, w = 0, entonces w, v = v, w = 0 = 0, y en consecuencia la relacin v es ortogonal
a w es una relacin simtrica.
Note que un conjunto ortonormal no contiene al vector cero, en tanto que un conjunto
ortogonal s puede contenerlo. Diremos que un conjunto S es ortogonal a un conjunto T si para
cada s S y t T se tiene que s, t = 0.
Denicin 5.2.2. Sean V un espacio producto interno y S un subconjunto no vaco de V . El
complemento ortogonal de S es el conjunto S

que consta de todos los vectores de V que son


ortogonales a todo vector de S. En smbolos:
S

= v V [s, v = 0 para todo s S.


Note que V

= 0. En efecto, es claro que 0 V

. Por otro lado, si v V

, entonces
s, v = 0 para todo s V , en particular v, v = 0, lo que implica que v = 0. As, V

= 0. De
manera anloga se prueba que 0

= V . El complemento ortogonal de cualquier subconjunto


no vaco de V es un subespacio de V . Esto es fcil de probar y se deja al lector.
Teorema 5.2.3. Si S = u
1
, u
2
, . . . , u
n
es un subconjunto ortogonal de vectores no nulos en
un espacio producto interno V , entonces S es linealmente independiente.
Demostracin. Supongamos que 0 =
1
u
1
+
2
u
2
+ +
n
u
n
donde los
i
son escalares.
Entonces, de las propiedades del producto interno tenemos que:
0 = u
i
, 0 = u
i
,
1
u
1
+
2
u
2
+ +
n
u
n

=
1
u
i
, u
1
+ +
i
u
i
, u
i
+ +
n
u
i
, u
n

=
i
|u
i
|
2
,
de donde
i
= 0 (ya que u
i
,= 0) para todo i. Luego, S es linealmente independiente.
5.2. Ortogonalidad 149
Corolario 5.2.4. Sea V un espacio producto interno de dimensin n.
a) Si v
1
, . . . , v
m
es un conjunto ortogonal de vectores no nulos de V , entonces m n.
b) Cada conjunto ortonormal de n vectores de V es una base de V .
Demostracin. (a) Si S = v
1
, . . . , v
m
es un conjunto ortogonal de vectores no nulos de V ,
el Teorema 5.2.3 implica que S es linealmente independiente, y por lo tanto m n ya que
dim(V ) = n.
(b) Si S es un conjunto ortonormal de n vectores de V , entonces 0 , S. El Teorema 5.2.3 implica
que S es linealmente independiente y como dim(V ) = n, se sigue que S es una base de V .
Ejemplo 5.2.5. 1. Las bases cannicas de R
n
y C
n
son ortonormales (considerando los pro-
ductos internos cannicos). El subconjunto:
(1, 1, 1, 1)
T
, (1, 1, 1, 1)
T
, (1, 1, 1, 1)
T

de R
4
es ortogonal.
2. Considere el espacio de las funciones reales continuas en el intervalo [, ], C([, ], R),
con el producto interno dado por f, g =
_

f(t)g(t)dt. El conjunto:
_
1

2
,
cos x

,
sen x

,
cos 2x

,
sen 2x

, . . .
_
es ortonormal. Para vericar esto, es necesario evaluar varias integrales, entre otras:
1, f
n
=
1

cos(nt)dt,
1, g
n
=
1

sen(nt)dt,
f
n
, g
m
=
1

cos(nt) sen(mt)dt,
donde f
n
(t) =
cos nt

y g
n
(t) =
sen nt

. Se deja este ejercicio de clculo al lector.


3. Sea A R
mn
. El espacio nulo de A es ortogonal a su espacio rengln. En efecto, si x N(A),
y R(A
T
), entonces y = A
T
z para algn z. Luego, x, y = x
T
y = x
T
(A
T
z) = (Ax)
T
z = 0
T
z =
0.
Teorema 5.2.6 (Pitgoras). . Sea V un espacio producto interno y sean v y w vectores orto-
gonales de V . Entonces |v +w|
2
= |v|
2
+|w|
2
.
Demostracin. Se deja de ejercicio.
En el caso real, el recproco del Teorema de Pitgoras tambin es cierto. Sin embargo, en
el caso complejo puede suceder que |v + w|
2
= |v|
2
+ |w|
2
sin que v y w sean ortogonales.
(Vanse los ejercicios).
Una de las ventajas que tienen las bases ortogonales sobre las bases arbitrarias, es que los
clculos donde intervienen coordenadas son ms simples. Por ejemplo, con respecto a una base
general = v
1
, . . . , v
n
, si v =
1
v
1
+ +
n
v
n
, entonces [v]

= (
1
. . .
n
)
T
y para hallar
los
i
se necesita resolver un sistema de ecuaciones de n n. Pero si es una base ortogonal
u ortonormal, no hay que resolver un sistema, sino solamente efectuar unos pocos productos
internos como lo arma el siguiente teorema.
150 5. Espacios producto interno
Teorema 5.2.7 (Expansin de Fourier). Si v
1
, . . . , v
n
son vectores ortogonales no nulos de un
espacio producto interno V y v v
1
, . . . , v
n
, entonces:
v =
n

j=1
v
j
, v
v
j
, v
j

v
j
.
En particular, si v
1
, . . . , v
n
son vectores ortonormales, entonces:
v =
n

j=1
v
j
, vv
j
.
Demostracin. Sea v =
1
v
1
+ +
n
v
n
. Entonces, para cada i = 1, 2, . . . , n, tenemos que:
v
i
, v = v
i
,
1
v
1
+ +
n
v
n
=
n

j=1

j
v
i
, v
j
=
i
v
i
, v
i
,
de donde
i
=
vi,v)
vi,vi)
. En particular, si v
1
, . . . , v
n
son ortonormales, entonces
i
= v
i
, v.
Los coecientes
vj,v)
vj,vj)
del teorema anterior, son los coecientes de Fourier de v.
Ejemplo 5.2.8. Determinar la expansin de Fourier de x = (1, 2, 1)
T
con respecto al pro-
ducto interno usual de R
3
y la base ortonormal:
_
u
1
=
1

2
(1, 1, 0)
T
, u
2
=
1

3
(1, 1, 1)
T
, u
3
=
1

6
(1, 1, 2)
T
_
.
Como la base es ortonormal, u
T
i
u
i
= 1 para i = 1, 2, 3. Por tanto, los coecientes de Fourier de
x son:

1
= u
T
1
x =
3
2

2,
2
= u
T
2
x =
2
3

3,
3
= u
T
3
x =
1
6

6.
5.2.1. Ejercicios
1. Pruebe que si u es ortogonal a v, entonces cualquier mltiplo escalar de u tambin es ortogonal
a v.
2. Sea V un espacio producto interno.
a) Sea S un subconjunto no vaco de V . Si W es el subespacio de V generado por S, pruebe
que W

= S

.
b) Si V = R
2
y S = (1, 3)
T
, calcule el complemento ortogonal de S y verique que
R
2
= S S

.
c) Si V = R
3
y S = (2, 2, 1)
T
, calcule el complemento ortogonal de S y verique que
R
2
= S S

.
3. a) Pruebe que dos vectores v y w en un espacio producto interno real son ortogonales si y
slo si |v +w|
2
= |v|
2
+|w|
2
.
b) Pruebe que (a) es falso si reemplazamos la palabra real por la palabra complejo.
c) Pruebe que dos vectores v y w en un espacio producto interno complejo son ortogonales
si y slo si |v +w|
2
= |v|
2
+|w|
2
para cualesquiera y escalares.
5.2. Ortogonalidad 151
d) Sea V un espacio producto interno real y suponga que los vectores v, w de V tienen la
misma norma, es decir, |v| = |w|. Pruebe que los vectores v w y v +w son ortogonales.
Es cierto el recproco?
4. Se dice que dos subconjuntos u
1
, . . . , u
r
y v
1
, . . . , v
r
de un espacio producto interno V
forman un sistema biortogonal si:
u
i
, v
j
=
_
1 si i = j,
0 si i ,= j,
para i, j = 1, . . . , r. Pruebe que si u
1
, . . . , u
r
y v
1
, . . . , v
r
es un sistema biortogonal,
entonces cada conjunto es un conjunto de vectores linealmente independiente.
5. Sean / = u
1
, . . . , u
r
y B = v
1
, . . . , v
r
un sistema biortogonal en un espacio producto
interno V . Suponga que / es una base para V . Pruebe que
|v|
2
=
r

i=1
v [ u
i
v [ v
i
(5.1)
para cualquier v V . Es cierto el recproco? Es decir, si para cualquier v V se cumple
(5.1), es verdad que es una base para V ?
6. Sea V un espacio producto interno y sea = v
1
, . . . , v
n
un conjunto ortonormal de vectores
de V . Pruebe que si v es un elemento del subespacio de V generado por estos vectores, entonces
|v|
2
= [v
1
, v[
2
+ +[v
n
, v[
2
.
7. Sea V un espacio producto interno y sea = v
1
, . . . , v
n
una base ortonormal de V . Pruebe
que para cualesquiera vectores v, w de V se tiene que v, w =

n
k=1
v
k
, vv
k
, w.
8. Sea V un espacio producto interno de dimensin nita. Sea = v
1
, v
2
un conjunto orto-
normal. Suponga que para todo v V se tiene |v|
2
= [v
1
, v[
2
+[v
2
, v[
2
. Pruebe que es
una base para V . Generalice el resultado.
9. Si = v
1
, . . . , v
n
es una base ortonormal para R
n
, pruebe que la matriz cambio de base
de la base a la base cannica es una matriz ortogonal. Si = v
1
, . . . , v
n
es una base
ortonormal para C
n
, pruebe que la matriz cambio de base de la base a la base cannica es
una matriz unitaria.
10. Pruebe el recproco del ejercicio anterior. Es decir, si Q R
nn
es una matriz ortogonal,
pruebe que las columnas de Q forman una base ortonormal para R
n
. Pruebe tambin que si
U C
nn
es una matriz unitaria, entonces las columnas de U forman una base ortonormal
para C
n
.
11. Una matriz A C
nn
se dice que es normal si tiene la propiedad A

A = AA

. Pruebe que
si A es una matriz normal, entonces R(A) y N(A) son ortogonales. (Sugerencia: recuerde las
relaciones que existen entre los espacios columna y espacios nulos de A, A

, A

A y AA

).
12. Sea V un espacio producto interno de dimensin nita. Sean = v
1
, . . . , v
n
y
t
=
w
1
, . . . , w
n
bases ortonormales para V . Sea P la matriz cambio de base de a
t
. Pruebe
que en el caso real, P es una matriz ortogonal, y en el caso complejo, P es una matriz unitaria.
13. Sea V un espacio euclidiano. Sean = v
1
, . . . , v
n
y
t
= w
1
, . . . , w
n
bases ortonormales
para V . Sea T el nico operador lineal sobre V tal que T(v
i
) = w
i
. Pruebe que T(v), T(w) =
v, w para todo v, w V .
14. a) Sea A R
nn
una matriz simtrica. Suponga que v
1
y v
2
son vectores de R
n
tales que
Av
i
=
i
v
i
para algunos escalares
1
,
2
. Pruebe que v
1
y v
2
son ortogonales si
1
,=
2
.
152 5. Espacios producto interno
b) Sea A C
nn
una matriz hermitiana. Suponga que v
1
y v
2
son vectores de C
n
tales que
Av
i
=
i
v
i
para algunos escalares
1
,
2
. Pruebe que v
1
y v
2
son ortogonales si
1
,=
2
.
15. Sea V un espacio producto interno y sean v
1
, . . . , v
n
V . Pruebe que si v es un vector
ortogonal a cada v
i
, entonces v es ortogonal al subespacio generado por estos vectores.
16. Sea V un espacio producto interno de dimensin nita y sea = v
1
, . . . , v
n
una base
ortonormal para V . Sea T un operador lineal sobre V y sea A la matriz de T en la base .
Pruebe que a
ij
= v
i
, T(v
j
).
5.3. El proceso de Gram - Schmidt y la descomposicin QR
El tema principal de esta seccin ser el proceso de ortogonalizacin de Gram-Schmidt. Este
proceso proporciona un mtodo para construir una base ortogonal para un espacio producto
interno de dimensin nita, a partir de una base cualquiera. Ilustremos este proceso con un par
de ejemplos.
Ejemplo 5.3.1. Dada una base v
1
, v
2
del espacio producto interno V , calcular una base
ortogonal para V a partir de esta base.
Solucin. La idea es cambiar uno de los vectores, digamos v
2
por un vector v
t
2
tal que v
t
2
v
1
y
que el espacio generado por v
1
, v
2
sea el mismo que el generado por v
1
, v
t
2
. De esta manera
tendremos que V = v
1
, v
2
= v
1
, v
t
2
y como v
1
y v
t
2
son linealmente independientes,
entonces v
1
, v
t
2
es una base de V de vectores ortogonales.
Para que se cumpla la condicin v
1
, v
2
= v
1
, v
t
2
, debemos tener que v
t
2
= c
1
v
1
+c
2
v
2
para algunos escalares c
1
y c
2
. Como se busca que v
t
2
v
1
, entonces:
0 = v
1
, v
t
2
= v
1
, c
1
v
1
+c
2
v
2
= c
1
v
1
, v
1
+c
2
v
1
, v
2
.
Este es un sistema homogneo de una ecuacin lineal con dos incgnitas, y por tanto tiene
innitas soluciones. Para obtener una solucin particular, hagamos c
2
= 1. Entonces, c
1
= c
donde c =
v1,v2)
v1,v1)
. As, v
t
2
= v
2
cv
1
. El vector v
t
2
as construido es ortogonal a v
1
. Note
que este vector es diferente de cero, en virtud de que v
1
y v
2
son linealmente independientes.
Geomtricamente, la forma de construir v
t
2
es proyectar v
2
ortogonalmente sobre v
1
y considerar
v
2
cv
1
, donde cv
1
es la proyeccin ortogonal de v
2
sobre v
1
.
Hagamos v
t
1
= v
1
. Veamos ahora que los subespacios v
1
, v
2
y v
t
1
, v
t
2
coinciden. Es
claro que v
t
1
, v
t
2
v
1
, v
2
y en consecuencia v
t
1
, v
t
2
v
1
, v
2
= V . Como los vectores v
t
1
y v
t
2
son linealmente independientes segn el Teorema 5.2.3, se sigue que v
t
1
, v
t
2
= v
1
, v
2
.
De esta manera, hemos construido una base ortogonal para el espacio producto interno V a
partir de una base cualquiera.
En el ejemplo anterior, el escalar c =
v1,v2)
v1,v1)
es tal que v
2
cv
1
es ortogonal a v
1
. Este
escalar es nico. En efecto, si c
t
es un escalar tal que v
2
c
t
v
1
es ortogonal a v
1
, entonces
0 = v
1
, v
2
c
t
v
1
= v
1
, v
2
c
t
v
1
, v
1
, de donde c
t
=
v1,v2)
v1,v1)
= c.
Denicin 5.3.2. Sea V un espacio producto interno. Sean v
1
, v
2
V con v
1
,= 0. Al nico
escalar c tal que v
2
cv
1
es ortogonal a v
1
, se le llama componente de v
2
a lo largo de v
1
(Figura 5.1).
Ejemplo 5.3.3. Dada una base v
1
, v
2
, v
3
del espacio producto interno V , calcular una base
ortogonal para V a partir de esta base.
Solucin. Hagamos v
t
1
= v
1
y v
t
2
= v
2
c
1
v
1
, donde c
1
es la componente de v
2
a lo largo
de v
1
, esto es, c
1
=
v1,v2)
v1,v1)
. De acuerdo con el ejemplo anterior, v
t
1
y v
t
2
son ortogonales y
5.3. El proceso de Gram - Schmidt y la descomposicin QR 153
v
2
v
1
cv
1
v
2
cv
1
v
2
cv
1
Figura 5.1: c es la componente de v
2
a lo largo de v
1
.
v
1
, v
2
= v
t
1
, v
t
2
. Lo que pretendemos ahora es encontrar un vector v
t
3
que sea ortogonal
a v
t
1
y v
t
2
y que v
1
, v
2
, v
3
= v
t
1
, v
t
2
, v
t
3
. Como v
t
1
es combinacin lineal de v
1
(de hecho
v
t
1
= v
1
), y v
t
2
es combinacin lineal de v
1
y v
2
, entonces v
3
, v
t
1
, v
t
2
, ya que en caso
contrario v
3
sera combinacin lineal de v
1
y v
2
lo cual no puede ser porque v
1
, v
2
, v
3
son
linealmente independientes. Por lo tanto, los vectores v
t
1
, v
t
2
, v
3
son linealmente independientes,
y en consecuencia v
t
1
, v
t
2
, v
3
= v
1
, v
2
, v
3
. Ser suciente entonces hallar un vector v
t
3
que
sea ortogonal tanto a v
t
1
como a v
t
2
y tal que v
t
1
, v
t
2
, v
3
= v
t
1
, v
t
2
, v
t
3
. Tenemos as tres
condiciones que se deben satisfacer: que v
t
3
sea combinacin lineal de v
t
1
, v
t
2
y v
3
, y que v
t
3
v
t
1
,
v
t
3
v
t
2
. Estas condiciones se traducen en v
t
3
= v
t
1
+ v
t
2
+ v
3
, v
t
1
, v
t
3
= 0 y v
t
2
, v
t
3
=
0. Sustituyendo v
t
3
en estas ltimas dos igualdades, tenemos que v
t
1
, v
t
1
+ v
t
1
, v
3
= 0 y
v
t
2
, v
t
2
+ v
t
2
, v
3
= 0. Tenemos entonces un sistema homogneo de dos ecuaciones con 3
incgnitas, el cual sabemos tiene innitas soluciones. Resolviendo el sistema obtenemos:
=
v
t
1
, v
3

v
t
1
, v
t
1

, =
v
t
2
, v
3

v
t
2
, v
t
2

.
Tomando = 1 obtenemos una solucin particular y por lo tanto:
v
t
3
= v
3
c
t
2
v
t
2
c
t
1
v
t
1
,
donde c
t
2
=
v

2
,v3)
v

2
,v

2
)
y c
t
1
=
v

1
,v3)
v

1
,v

1
)
.
Note que el vector v
t
3
denido de esta manera no es cero, ya que los vectores v
t
1
, v
t
2
y v
3
son linealmente independientes. Tambin es importante hacer notar que el vector c
t
2
v
t
2
+ c
t
3
v
t
3
donde c
t
i
es la componente de v
3
a lo largo de v
t
i
, es la proyeccin ortogonal de v
3
sobre el
subespacio de V generado por v
t
2
y v
t
3
. Como los vectores v
t
1
, v
t
2
, v
t
3
son ortogonales y no nulos,
el Teorema 5.2.3 implica que son linealmente independientes, y como v
t
1
, v
t
2
, v
t
3
v
t
1
, v
t
2
, v
t
3
,
tenemos que v
t
1
, v
t
2
, v
t
3
= v
t
1
, v
t
2
, v
3
.
Resumiendo, dada la base v
1
, v
2
, v
3
del espacio producto interno V , se denen los vectores
v
t
1
, v
t
2
, v
t
3
como sigue:
v
t
1
= v
1
,
v
t
2
= v
2

v
t
1
, v
2

v
t
1
, v
t
1

v
t
1
,
v
t
3
= v
3

v
t
2
, v
3

v
t
2
, v
t
2

v
t
2

v
t
1
, v
3

v
t
1
, v
t
1

v
t
1
.
Estos vectores son ortogonales no nulos y v
1
, v
2
, v
3
= v
t
1
, v
t
2
, v
t
3
.
El procedimiento que se present en los dos ejemplos para construir una base ortogonal a partir
de una base dada, se puede generalizar. Note que este procedimiento consiste en esencia, en la
aplicacin repetida de una operacin geomtrica bsica denominada proyeccin ortogonal.
154 5. Espacios producto interno
Teorema 5.3.4 (Proceso de Gram-Schmidt). Todo espacio producto interno V de dimensin
nita, tiene una base ortogonal.
Demostracin. Supongamos que dimV = n. La prueba la haremos por induccin en n. Si
n = 1 no hay nada que demostrar. Supongamos que el resultado es cierto para todo espacio
de dimensin menor que n y sea = v
1
, . . . , v
n
una base para V . Como el subespacio S de
V generado por v
1
, . . . , v
n1
tiene dimensin n 1, tenemos que S tiene una base ortogonal,
digamos v
t
1
, . . . , v
t
n1
. Sea:
v
t
n
= v
n

n1

i=1
v
t
i
, v
n

v
t
i
, v
t
i

v
t
i
.
Demostraremos que
t
= v
t
1
, . . . , v
t
n
es una base ortogonal para V . Claramente
t
genera a
V . Notemos que los vectores v
t
1
, . . . , v
t
n1
son ortogonales y no nulos, ya que forman una base
ortogonal para S. Adems, v
t
n
es no nulo ya que si v
t
n
= 0, entonces v
n
sera combinacin
lineal de los vectores v
t
1
, . . . , v
t
n1
y en consecuencia, v
n
sera combinacin lineal de los vectores
v
1
, . . . , v
n1
lo cual contradice que sea una base para V . Basta demostrar entonces que v
t
n
es
ortogonal con v
t
j
para j = 1, . . . , n 1. En efecto:
v
t
j
, v
t
n
=
_
v
t
j
, v
n

n1

i=1
v
t
i
, v
n

v
t
i
, v
t
i

v
t
i
_
= v
t
j
, v
n

n1

i=1
v
t
i
, v
n

v
t
i
, v
t
i

v
t
j
, v
t
i

= v
t
j
, v
n

v
t
j
, v
n

v
t
j
, v
t
j

v
t
j
, v
t
j

= v
t
j
, v
n
v
t
j
, v
n

= 0,
ya que en la sumatoria de la segunda igualdad, v
t
j
, v
t
i
= 0 si i ,= j.
En consecuencia,
t
es un conjunto ortogonal de vectores no nulos y por el Teorema 5.2.3 tambin
es linealmente independiente. Por lo tanto,
t
es una base ortogonal para V .
Corolario 5.3.5. Todo espacio producto interno de dimensin nita tiene una base ortonormal.
Demostracin. Sea v
1
, . . . , v
n
una base para el espacio producto interno de dimensin nita
V . Por el Teorema 5.3.4, existen vectores ortogonales v
t
1
, . . . , v
t
n
que forman una base para V .
Por lo tanto,
_
v

1
|v

1
|
, . . . ,
v

n
|v

n
|
_
es una base ortonormal para V .
Ejemplo 5.3.6. Calcule bases ortogonales para los subespacios nulo y rengln de la matriz
A =
_
_
1 3 3 2
2 6 9 5
1 3 3 0
_
_
.
Solucin. De acuerdo con las tcnicas desarrolladas en la seccin 1.6 para el clculo de los
subespacios fundamentales de una matriz, tenemos:
N(A) = x R
4
[Ax = 0 =
_
(3, 1, 0, 0)
T
, (3, 0, 1, 3)
T
_
,
R(A
T
) = x R
4
[x = A
T
y para algn y R
3

=
_
(1, 3, 3, 2)
T
, (0, 0, 3, 1)
T
_
.
5.3. El proceso de Gram - Schmidt y la descomposicin QR 155
Aplicando el proceso de Gram-Schmidt a v
1
= (3 1 0 0)
T
y v
2
= (3 0 1 3)
T
, obtenemos:
v
t
1
= v
1
,
v
t
2
= v
2

v
t
1
, v
2

v
t
1
, v
t
1

v
t
1
=
_
3
0
1
3
_

9
10
_
3
1
0
0
_
=
1
10
_
3
9
10
30
_
.
Luego, una base ortogonal para N(A) es (3 1 0 0)
T
, (3 9 10 30)
T
. Para calcular una
base ortogonal para el espacio columna de A, hacemos lo mismo a los vectores w
1
= (1 3 3 2)
T
y w
2
= (0 0 3 1)
T
, y obtenemos:
w
t
1
= w
1
w
t
2
= w
2

w
t
1
, w
2

w
t
1
, w
t
1

=
1
23
_
11
33
36
1
_
.
El conjunto (1, 3, 3, 2)
T
, (11, 33, 36, 1)
T
es una base ortogonal para el espacio ren-
gln de A.
Observe que los vectores v
t
1
, v
t
2
, w
t
1
, w
t
2
son ortogonales no nulos y por lo tanto forman una
base de R
4
. Como consecuencia de esto tenemos que R
4
es suma directa de N(A) y R(A
T
):
R
4
= N(A)

R(A
T
).
El proceso de Gram-Schmidt puede producir conjuntos ortonormales normalizando los vec-
tores que se van obteniendo durante el proceso. Este es el proceso de Gram-Schmidt modicado.
Sea A una matriz de mn cuyas columnas son linealmente independientes. La aplicacin del pro-
ceso de Gram-Schmidt modicado a las columnas de A produce una factorizacin denominada
descomposicin QR.
Teorema 5.3.7 (Descomposicin QR). Cada matriz A K
mn
cuyas columnas son linealmen-
te independientes, se puede factorizar como A = QR donde Q es una matriz cuyas columnas
constituyen una base ortonormal para el espacio columna de A y R es una matriz triangular
superior tal que los elementos de su diagonal principal son positivos.
Demostracin. Sean a
1
, . . . , a
n
las columnas de A. Tenemos que = a
1
, . . . , a
n
es base para
R(A). Considerando en K
n
el producto interno usual, aplicamos el proceso de Gram-Schmidt a
la base , normalizando los vectores que se van obteniendo durante el proceso, obteniendo los
vectores ortonormales:
q
1
=
a
1

1
,
1
= |a
1
|,
q
2
=
a
2
q
1
, a
2
q
1

2
,
2
= |a
2
q
1
, a
2
q
1
|,
q
3
=
a
3
q
2
, a
3
q
2
q
1
, a
3
q
1

3
,
3
= |a
3
q
2
, a
3
q
2
q
1
, a
3
q
1
|,
.
.
.
q
n
=
a
n

n1
j=1
q
j
, a
n
q
j

n
,
n
=
_
_
_
_
_
_
a
n

n1

j=1
q
j
, a
n
q
j
_
_
_
_
_
_
.
Luego, los vectores q
1
, q
2
, . . . , q
n
constituyen una base ortonormal para el espacio columna
de A.
156 5. Espacios producto interno
Tenemos entonces que:
a
1
=
1
q
1
,
a
2
=
2
q
2
+q
1
, a
2
q
1
,
a
3
=
3
q
3
+q
2
, a
3
q
2
+q
1
, a
3
q
1
,
.
.
.
a
n
=
n
q
n
+
n1

j=1
q
j
, a
n
q
j
,
es decir, A = QR donde Q = [q
1
[ . . . [q
n
] y R =
_
_
1 q1,a2) q1,an)
0 2 q2,an)
.
.
.
.
.
.
.
.
.
.
.
.
0 0 n
_
_
.
Adems, la matriz R es invertible ya que det R =
1

2

n
y
i
> 0 para i = 1, 2, . . . , n.
La descomposicin QR se puede aplicar para resolver sistemas de ecuaciones lineales. Como
las columnas de Q son ortonormales, Q
T
Q = I en el caso real, y Q

Q = I en el caso complejo.
El sistema Ax = b es equivalente al sistema Rx = Q
T
b en el caso real, ya que:
Ax = b QRx = b Q
T
QRx = Q
T
b Rx = Q
T
b.
En el caso complejo, el sistema Ax = b es equivalente al sistema Rx = Q

b.
Los sistemas resultantes se resuelven usando sustitucin hacia atrs.
Ejemplo 5.3.8. Usando una descomposicin QR resuelva el sistema Ax = b, donde A =
_
_
_
_
1 2 5
1 2 9
1 2 3
1 2 1
_
_
_
_
y b =
_
_
_
_
25
41
11
5
_
_
_
_
.
Observando que las columnas de A son linealmente independientes, encontraremos la facto-
rizacin QR de A. Calculando tenemos que:
q
1
=
1
2
_
_
_
_
1
1
1
1
_
_
_
_
,
1
= 2, q
2
=
1
2
_
_
_
_
1
1
1
1
_
_
_
_
,
2
= 4, q
3
=
1
2
_
_
_
_
1
1
1
1
_
_
_
_
,
3
= 6.
Luego, A = QR donde Q =
_
_
_
_
1
2
1
2
1
2
1
2

1
2

1
2
1
2

1
2
1
2
1
2
1
2

1
2
_
_
_
_
y R =
_
_
2 0 4
0 4 8
0 0 6
_
_
.
El sistema original es equivalente al sistema Rx = Q
T
b, es decir:
_
_
2 0 4
0 4 8
0 0 6
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
16
36
30
_
_
.
Usando sustitucin hacia atrs se obtiene la solucin x
1
= 2, x
2
= 1 y x
3
= 5. Como A tiene
rango 3, se sigue del Teorema 1.5.3 que sta es la nica solucin al sistema de ecuaciones.
5.3.1. Ejercicios
1. Considere C
3
con el producto interno cannico. Calcule una base ortonormal para el subes-
pacio (1, 0, i)
T
, (3, 1, 1 i)
T
de C
3
.
5.4. Proyecciones ortogonales 157
2. a) Construya una base ortogonal de R[t]
3
con respecto al producto interno:
f, g =
_
1
1
f(t)g(t)dt,
mediante la aplicacin del proceso de Gram Schmidt a la base 1, t, t
2
.
Los polinomios resultantes son los primeros tres polinomios de Legendre. Si dividimos
cada uno de estos polinomios entre su norma relativa al mismo producto interno, obte-
nemos los polinomios de Legendre normalizados.
b) Utilice el proceso de Gram-Schmidt para calcular el cuarto polinomio de Legendre nor-
malizado.
c) Si multiplicamos el polinomio de Legendre de grado n por un escalar apropiado, obte-
nemos un polinomio L
n
(t) tal que L
n
(1) = 1. Encuentre L
0
(t), L
1
(t), L
2
(t) y L
3
(t).
d) Con referencia al inciso anterior, demuestre que L
n
(t) satisface la relacin de recurrencia:
L
n
(t) =
2n 1
n
L
n1
(t)
n 1
n
L
n2
(t)
para toda n 2.
3. Considere en R
3
el producto interno x, y = x
1
y
1
+2x
2
y
2
+3x
3
y
3
, donde x = (x
1
, x
2
, x
3
)
T
,
y = (y
1
, y
2
, y
3
)
T
. Aplique el proceso de Gram-Schmidt para transformar v
1
= e
1
+e
2
+e
3
,
v
2
= e
1
+e
2
, v
3
= e
1
en una base ortogonal.
4. Calcule la factorizacin QR de las siguientes matrices:
_
_
1 2
0 1
1 4
_
_
,
_
_
1 1
2 1
2 1
_
_
,
_
_
1 0 2
0 1 1
1 2 0
_
_
.
5. Sea V un espacio producto interno de dimensin nita. Sea W un subespacio de V de di-
mensin r. Pruebe que V es la suma directa de W y W

y que la dimensin de W

es
n r. (Sugerencia: los casos W = 0 o W = V son inmediatos. Sea w
1
, . . . , w
r
una base
ortonormal para W. Complete esta base hasta obtener una base ortonormal para V y proceda
por cuenta propia).
5.4. Proyecciones ortogonales
En esta seccin estudiaremos con ms detalle a las proyecciones ortogonales de las que
hablamos en la seccin anterior.
Ejemplo 5.4.1. Calcular el complemento ortogonal del subespacio W = (
2
1
) de R
2
.
Solucin. De acuerdo con la Denicin 5.2.2, el complemento ortogonal de W consta de
aquellos vectores de R
2
que son ortogonales con v = (
2
1
). Geomtricamente, W es la recta que
pasa por el origen y por v. Los vectores de R
2
que son ortogonales a dicha recta son los que estn
sobre la recta que pasa por el origen y por w = (1, 2)
T
. Demostraremos que W

= w. En
efecto, si y w, entonces y = cw. Luego, c
t
v, cw = c
t
cv, w = c
t
c 0 = 0 y as y W

.
Recprocamente, si y = (y
1
, y
2
)
T
W

, entonces y, v = 0, es decir, 2y
1
+ y
2
= 0. De aqu,
y
2
= 2y
1
y y = (y
1
, 2y
1
)
T
= y
1
(1, 2)
T
= y
1
(1, 2)
T
= y
1
w. Luego, y w. Por lo
tanto, W

= w.
Ejercicio 5.4.2. Sea V un espacio producto interno y sea S = v
1
, . . . , v
n
V . Demuestre
que si v V , entonces v S

si y slo si v, v
i
= 0 para todo i = 1, . . . , n.
158 5. Espacios producto interno
Los problemas de aproximacin y los complementos ortogonales estn ntimamente relacio-
nados con las proyecciones ortogonales.
Denicin 5.4.3. Sea W un subespacio de un espacio producto interno V y sea v V . Una
mejor aproximacin a v por vectores de W es un vector w
0
W tal que:
|v w
0
| |v w|
para todo w W.
Teorema 5.4.4. Sea V un espacio producto interno. Sea W un subespacio de V y sea v V .
1. w
0
W es una mejor aproximacin a v por vectores de W si y slo si v w
0
W

.
2. Si existe una mejor aproximacin a v por vectores de W, sta es nica.
3. Si W es de dimensin nita y v
1
, . . . , v
n
es una base ortogonal de W, entonces:
w
0
=
n

k=1
v
k
, v
v
k
, v
k

v
k
es la (nica) mejor aproximacin a v por vectores de W. Es decir, v w
0
W

.
Demostracin. 1. (): Sea w
0
W y supongamos que v w
0
W

. Sea w W. Entonces,
w
0
w W y por lo tanto v w
0
, w
0
w = 0. Luego, por el Teorema de Pitgoras
(Teorema 5.2.6) se sigue que:
|v w|
2
= |(v w
0
) + (w
0
w)|
2
= |v w
0
|
2
+|w
0
w|
2
|v w
0
|
2
.
Por lo tanto, w
0
W es una mejor aproximacin a v por vectores de W.
(): Recprocamente, supongamos que w
0
W es una mejor aproximacin a v por vectores
de W. Debemos probar que v w
0
W

. Sea w W con w ,= 0. Basta probar que


v w
0
, w = 0. Sea c la componente de v w
0
a lo largo de w. Por denicin, c es la nica
constante tal que (v w
0
cw) w, es decir c =
w,vw0)
w,w)
. Adems:
0 = v w
0
cw, w = v w
0
, w cw, w
0 = c(v w
0
, w) ccw, w
0 = v w
0
, cw cw, cw
v w
0
, cw = cw, cw = |cw|
2
.
Por otro lado, w
0
+ cw W (porque W es subespacio de V ) y como w
0
es una mejor
aproximacin a v por vectores de W, tenemos que:
|v w
0
|
2
|v (w
0
+cw)|
2
= |v w
0
cw|
2
= |v w
0
|
2
2Rev w
0
, cw +|cw|
2
= |v w
0
|
2
2Re(|cw|
2
) +|cw|
2
= |v w
0
|
2
2|cw|
2
+|cw|
2
= |v w
0
|
2
|cw|
2
= |v w
0
|
2
[c[
2
|w|
2
= |v w
0
|
2

[w, v w
0
[
2
[w, w[
2
|w|
2
= |v w
0
|
2

[w, v w
0
[
2
(|w|
2
)
2
|w|
2
= |v w
0
|
2

[w, v w
0
[
2
|w|
2
,
es decir, tenemos que |v w
0
|
2
|v w
0
|
2

]w,vw0)]
2
|w|
2
, de modo que
]w,vw0)]
2
|w|
2
0. De
aqu, [w, v w
0
[
2
0 [w, v w
0
[ = 0 w, v w
0
= 0.
5.4. Proyecciones ortogonales 159
2. Supongamos que w
0
, w
1
W son mejores aproximaciones a v por vectores de W. Entonces:
w
0
w
1
, w
0
w
1
= w
0
v +v w
1
, w
0
w
1

= w
0
v, w
0
w
1
+v w
1
, w
0
w
1

= 0,
ya que segn lo demostrado en 1, w
0
v, w
0
w
1
= v w
1
, w
0
w
1
= 0. Por lo tanto,
w
0
w
1
= 0 y as w
0
= w
1
.
3. Segn 1, basta probar que v w
0
, w = 0 para todo w W. Sea w W. Como v
1
, . . . , v
n

es base ortogonal de W, por el Teorema 5.2.7 tenemos que w =

n
j=1
vj,w)
vj,vj)
v
j
. Entonces:
v w
0
, w = v, w w
0
, w
=
_
v,
n

j=1
v
j
, w
v
j
, v
j

v
j
_

_
n

k=1
v
k
, v
v
k
, v
k

v
k
,
n

j=1
v
j
, w
v
j
, v
j

v
j
_
=
n

j=1
v
j
, w
v
j
, v
j

v, v
j

n

j=1
v
j
, w
v
j
, v
j

_
n

k=1
v
k
, v
v
k
, v
k

v
k
, v
j
_
=
n

j=1
v
j
, w
v
j
, v
j

v, v
j

n

j=1
v
j
, w
v
j
, v
j


v
j
, v
v
j
, v
j

v
j
, v
j

=
n

j=1
v
j
, w
v
j
, v
j

v, v
j

n

j=1
v
j
, w
v
j
, v
j

v, v
j

= 0.
Denicin 5.4.5. Sea W un subespacio de un espacio producto interno V . Sea v V . Un
vector w
0
W es la proyeccin ortogonal de v sobre W si v w
0
W

. Si cada vector v V
tiene una proyeccin ortogonal sobre W, llamaremos proyeccin ortogonal sobre W a la funcin
P : V V que a cada v V le asigna su proyeccin ortogonal sobre W.
Observe que la proyeccin ortogonal de un vector v sobre un subespacio W es precisamente
la mejor aproximacin a v por vectores de W. El Teorema 5.4.4 nos garantiza que si W es un
subespacio de dimensin nita, entonces la proyeccin ortogonal siempre existe.
Ejemplo 5.4.6. Consideremos el espacio producto interno V = R
4
y sea W el subespacio de
V generado por los vectores v
1
= (1, 1, 0, 0)
T
y v
2
= (0, 0, 1, 1)
T
. Calcule la proyeccin
ortogonal sobre W.
Solucin. Observe que v
1
, v
2
es una base ortogonal para W. Calculemos para cada v R
4
su proyeccin ortogonal sobre W, que de acuerdo al Teorema 5.4.4 existe porque W es de
dimensin nita. Sea v = (x
1
, x
2
, x
3
, x
4
)
T
. Entonces:
P(v) =
v
1
, v
v
1
, v
1

v
1
+
v
2
, v
v
2
, v
2

v
2
=
x
1
+x
2
2
v
1
+
x
3
+x
4
2
v
2
=
1
2
(x
1
+x
2
x
1
+x
2
x
3
+x
4
x
3
+x
4
)
T
.
Note que en este caso, P result ser una funcin lineal. Esto siempre es as y lo probaremos
ms adelante.
160 5. Espacios producto interno
Teorema 5.4.7. Sean V un espacio producto interno y W un subespacio de V de dimensin
nita. Entonces:
V = W

.
Demostracin. Como la suma de subespacios es un subespacio, tenemos que W + W

V .
Luego, basta demostrar que V W + W

y que W W

= 0. Sea v V . Como W
es de dimensin nita, existe w
0
W tal que w
0
es la proyeccin ortogonal de v sobre W
segn el Teorema 5.4.4. Entonces, el mismo teorema implica que v w
0
W

y claramente
v = w
0
+ (v w
0
). As, V W + W

y por lo tanto V = W + W

. Ahora, si v W W

,
entonces v W y v W

, de modo que v, v = 0. Luego, v = 0 y as W W

0. Como
0 W W

, se sigue que W W

= 0 y por lo tanto, la suma W +W

es directa.
Note que no es necesario que V sea de dimensin nita. Sin embargo, es importante hacer
notar que el teorema puede no ser cierto en caso de que el subespacio W no sea de dimensin
nita. (Vase el Ejercicio 17).
Corolario 5.4.8. Sea V un espacio producto interno de dimensin nita. Sea W un subespacio
de V . Entonces:
1. dimV = dimW + dimW

.
2. (W

= W.
Demostracin. 1. Como V tiene dimensin nita, entonces W tambn y segn el Teorema 5.4.7
tenemos que V = W

. Se sigue entonces que dimV = dimW + dimW

.
2. Demostraremos primero que W (W

. Sean w W y s W

. Entonces, s, u = 0
para todo u W, en particular s, w = 0, de modo que w (W

. As, W (W

.
Demostraremos que dimW = dim(W

. Como V tiene dimensin nita y W, W

son
subespacios de V , por lo demostrado en 1 se sigue que dimV = dimW +dimW

y dimV =
dimW

+ dim(W

, es decir dimW + dimW

= dimW

+ dim(W

. De aqu se sigue
que dimW = dim(W

y por lo tanto, W = (W

.
Teorema 5.4.9. Si W es un subespacio de dimensin nita de un espacio producto interno V ,
entonces:
1. La proyeccin ortogonal de V sobre W siempre existe y es una funcin lineal idempotente
cuyo ncleo es W

.
2. Si P es la proyeccin ortogonal de V sobre W, entonces 1
V
P es la proyeccin ortogonal
de V sobre W

. Adems 1
V
P es una funcin lineal idempotente cuyo ncleo es W.
Demostracin. 1. Como W es un subespacio de V de dimensin nita, la proyeccin ortogonal de
V sobre W existe por el Teorema 5.4.4. Sea P dicha proyeccin ortogonal. Demostraremos que
P es idempotente, es decir P
2
= P. Sea v V . Tenemos que P(v) es la mejor aproximacin
a v que est en W. En particular, P(v) = v cuando v W. Luego, como P(v) W, entonces
P(P(v)) = P(v) y as P es idempotente.
Veamos que P es lineal. Sean v, v
t
V y c un escalar arbitrario. Por el Teorema 5.4.4 tenemos
que v P(v) W

y v
t
P(v
t
) W

. Luego:
c(v P(v)) + (v
t
P(v
t
)) = (cv +v
t
) (cP(v) +P(v
t
)) W

por ser W

un subespacio de V .
Como cP(v) + P(v
t
) W (porque P(v), P(v
t
) W y W es subespacio de V ), por el
Teorema 5.4.4 se sigue que cP(v) + P(v
t
) es la proyeccin ortogonal de cv + v
t
, es decir
5.4. Proyecciones ortogonales 161
P(cv +v
t
) = cP(v) +P(v
t
). Por lo tanto, P es lineal.
Veamos que Ker(P) = W

. Sea v Ker(P). Entonces P(v) = 0 y por el Teorema 5.4.4 se


sigue que v 0 W

, es decir v W

. As, Ker(P) W

. Recprocamente, si v W

,
entonces v 0 W

y por el Teorema 5.4.4 tenemos que P(v) = 0. Es decir, v Ker(P).


Luego, W

Ker(P) y por lo tanto, Ker(P) = W

.
2. Sea P la proyeccin ortogonal de V sobre W. Sea v V . Segn el Teorema 5.4.4, demostrare-
mos que 1
V
P es la proyeccin ortogonal de V sobre W

demostrando que (1
V
P)(v) W

y que v(1
V
P)(v) (W

. Tenemos que (1
V
P)(v) = 1
V
(v)P(v) = vP(v) y como P
es la proyeccin ortogonal de V sobre W, entonces vP(v) W

. As, (1
V
P)(v) W

. Por
otro lado, v(1
V
P)(v) = v1
V
(v)+P(v) = vv+P(v) = P(v) W (ya que P es la pro-
yeccin ortogonal de V sobre W). Como W (W

, se sigue que v(1


V
P)(v) (W

.
Ahora, 1
V
P es una suma de lineales, pues 1
V
es lineal y P es lineal por lo demostrado en
1. Luego, 1
V
P es lineal.
Por otra parte, (1
V
P)
2
= (1
V
P)(1
V
P) = 1
V
2P + P
2
ya que 1
V
y P conmutan.
Pero P
2
= P por lo demostrado en 1. Luego, (1
V
P)
2
= 1
V
2P + P = 1
V
P y as
1
V
P es idempotente.
Por ltimo, w Ker(1
V
P) si y slo si (1
V
P)(w) = 0 si y slo si w P(w) = 0 si y slo
si w = P(w) si y slo si w W.
Teorema 5.4.10 (Desigualdad de Bessel). Sea v
1
, . . . , v
n
un conjunto ortogonal de vectores
no nulos de un espacio producto interno V . Si v V , entonces:
n

k=1
[v
k
, v[
2
v
k
, v
k

|v|
2
.
Demostracin. Sea W = v
1
, v
2
, . . . , v
n
y sea P : V V la proyeccin ortogonal de V sobre W
(P existe porque W es de dimensin nita y es nica por el Teorema 5.4.4). Por el Teorema 5.4.4,
tenemos que si v V entonces:
P(v) =
n

k=1
x
k
v
k
,
donde x
k
=
v
k
,v)
v
k
,v
k
)
.
Como |v|
2
= |v P(v) +P(v)|
2
= |v P(v)|
2
+|P(v)|
2
(por qu?), se sigue que |P(v)|
2

|v|
2
.
Pero:
|P(v)|
2
= P(v), P(v) =
_
n

k=1
x
k
v
k
,
n

j=1
x
j
v
j
_
=
n

k=1
x
k
_
v
k
,
n

j=1
x
j
v
j
_
=
n

k=1
x
k
_
_
n

j=1
x
j
v
k
, v
j

_
_
=
n

k=1
x
k
x
k
v
k
, v
k
=
n

k=1
[x
k
[
2
v
k
, v
k

=
n

k=1
[v
k
, v[
2
|v
k
|
4
|v
k
|
2
=
n

k=1
[v
k
, v[
2
v
k
, v
k

,
de modo que
n

k=1
[v
k
, v[
2
v
k
, v
k

|v|
2
.
162 5. Espacios producto interno
5.4.1. Ejercicios
1. Sean S
1
y S
2
subconjuntos de un espacio producto interno V . Pruebe que si S
1
S
2
, entonces
S

2
S

1
.
2. Sean U y W subespacios de un espacio producto interno V . Demuestre que (U + W)

=
U

.
3. Sean U y W subespacios de un espacio producto interno de dimensin nita V . Pruebe que
(U W)

= U

+W

.
4. Sea V el espacio de las matrices C
nn
con el producto interno A, B = traza(A

B). Calcule
el complemento ortogonal del subespacio de V de todas las matrices diagonales.
5. Si U y W son subespacios de dimensin nita de un espacio producto interno V tales que
U

= W

, pruebe que U = W.
6. Sea V el espacio de todas las matrices simtricas reales de nn. El producto A, B = tr(AB)
es un producto interno. Calcule la dimensin del complemento ortogonal del subespacio W
de V que consta de todas las matrices A tales que tr(A) = 0.
7. Suponga que P R
nn
es una matriz simtrica idempotente, es decir, P
T
= P y P
2
= P.
Pruebe que para cada x R
n
, Px es la proyeccin ortogonal de x sobre el espacio columna
de P.
8. Encuentre una matriz P R
33
tal que Px sea la proyeccin ortogonal de x sobre el subes-
pacio generado por el conjunto ortogonal:
S =
_
_
_
_
_
1
2
2
_
_
,
_
_
2
2
1
_
_
_
_
_
.
9. Sea V el espacio producto interno que consta de R
2
y el producto interno cuya forma cua-
drtica est denida por |x|
2
= (x
1
x
2
)
2
+ 2x
2
2
. Sea E la proyeccin ortogonal de V sobre
el subespacio W generado por 3e
1
+ 4e
2
. Calcule:
a) Una frmula para E(x).
b) La matriz de E en la base cannica de R
2
.
c) Una base ortonormal en que E est representada por la matriz
_
1 0
0 0
_
.
10. Sea W un subespacio de dimensin nita de un espacio producto interno V y sea E la
proyeccin ortogonal de V sobre W. Pruebe que E(v), w = v, E(w) para todo v, w V .
11. Encuentre una base ortogonal para el subespacio:
W = x R
3
[ x
1
+ 2x
2
+x
3
= 0.
Calcule tambin la proyeccin ortogonal de R
3
sobre W.
12. Complete las siguientes armaciones. En cada caso justique su respuesta.
a) Si Ax = b es consistente y A
T
y = 0, entonces y es ortogonal a:
b) Si Ax = b es inconsistente y A
T
y = 0, entonces y no es ortogonal a:
13. Sean A R
mn
y x R
n
. Pruebe que si Ax est en el espacio nulo izquierdo de A, entonces
Ax = 0.
5.5. Teorema de la descomposicin ortogonal 163
14. Si S =
_
(1, 1, 1)
T
, (2, 0, 2)
T
_
, encuentre una matriz real A tal que S

= N(A).
15. Sea A R
mn
una matriz de rango n. Pruebe que para cada b R
m
, A(A
T
A)
1
A
T
b es la
proyeccin ortogonal de b sobre el espacio columna de A.
16. Sea A =
_
1 0
1 1
1 2
_
. Encuentre la proyeccin ortogonal de cada b R
3
sobre el espacio columna
de A.
17. Considere el espacio vectorial de los polinomios con coecientes reales en la variable t, R[t],
con el producto interno:
p(t), q(t) =

i
a
i
b
i
,
donde p(t) =

i
a
i
t
i
y q(t) =

i
b
i
t
i
.
Sea:
S = 1 t, t t
2
, t
2
t
3
, . . . , t
j
t
j+1
, . . ..
a) Demuestre que S , = R[t]. (Sugerencia: 1 , S).
b) Demuestre que S

= 0. (Sugerencia: Si p(t) S

es un polinomio de grado n,
pruebe que p(t), t
n
t
n+1
, = 0).
c) Concluya que R[t] ,= S

.
18. Si V es un espacio vectorial, una proyeccin de V es un operador lineal E sobre V tal que
E
2
= E.
Suponga que V es un espacio producto interno y sea W un subespacio de V de dimensin
nita. Existen (en general) muchas proyecciones que tienen a W como imagen. Una de stas,
P, la proyeccin ortogonal sobre W, tiene la propiedad de que |P(v)| |v| para todo v V
(vase la demostracin de la desigualdad de Bessel). Demuestre que si E es una proyeccin
con imagen W tal que |E(v)| |v| para todo v V , entonces E es la proyeccin ortogonal
sobre W.
5.5. Teorema de la descomposicin ortogonal
Enunciaremos ahora el teorema de la descomposicin ortogonal. Este teorema es uno de los
teoremas fundamentales del lgebra Lineal.
Teorema 5.5.1 (Teorema de la descomposicin ortogonal). Si A R
mn
es una matriz de
rango r, entonces:
1. dim(R(A
T
)) = r.
2. dim(N(A)) = n r.
3. dim(R(A)) = r.
4. dim(N(A
T
)) = mr.
5. (R(A
T
))

= N(A).
6. (N(A))

= R(A
T
).
7. (N(A
T
))

= R(A).
8. (R(A))

= N(A
T
).
9. R
n
= N(A)

(N(A))

= N(A)

R(A
T
).
164 5. Espacios producto interno
10. R
m
= R(A)

(R(A))

= R(A)

N(A
T
).
Demostracin. Las armaciones de 1 a 4 fueron demostradas en el Teorema 3.5.1.
Demostraremos que N(A) = (R(A
T
))

y de aqu se seguirn las otras igualdades. En efecto,


sean x N(A), y R(A
T
). Entonces Ax = 0 y A
T
z = y para algn z. Luego:
x, y = x
T
y = x
T
(A
T
z) = (Ax)
T
z = 0
T
z = 0,
y de aqu se sigue que x (R(A
T
))

. Es decir, N(A) (R(A


T
))

. Ahora, por el Teorema 5.4.7


tenemos que R
n
= R(A
T
)

(R(A
T
))

y por lo tanto n = dim(R(A


T
)) + dim((R(A
T
))

) =
r + dim((R(A
T
))

). Luego, dim((R(A
T
))

) = n r = dim(N(A)) y as N(A) = (R(A


T
))

.
Esto prueba 5.
Segn lo demostrado en 5, tenemos que N(A) = (R(A
T
))

. Entonces:
(N(A))

= ((R(A
T
))

= R(A
T
),
donde la ltima igualdad se sigue del Teorema 5.4.7. Esto prueba 6.
Segn lo demostrado en 6, tenemos que (N(A))

= R(A
T
) para cada A R
mn
. Luego, para
A
T
tambin es cierta la igualdad, es decir (N(A
T
))

= R((A
T
)
T
) = R(A). Esto prueba 7.
Por lo demostrado en 7 tenemos que R(A) = (N(A
T
))

. Entonces:
(R(A))

= ((N(A
T
))

= N(A
T
),
donde la ltima igualdad se sigue del Teorema 5.4.7. Esto prueba 8.
Por el Teorema 5.4.7 tenemos que R
n
= N(A)

(N(A))

. Y segn 6 tenemos que ((N(A))

=
R(A
T
). Luego, R
n
= N(A)

R(A
T
). Esto prueba 9.
Por el Teorema 5.4.7 tenemos que R
m
= R(A)

(R(A))

. Y segn 8 tenemos que (R(A))

=
N(A
T
). Luego, R
m
= R(A)

N(A
T
). Esto prueba 10.
Como una consecuencia del teorema anterior, tenemos el siguiente resultado.
Teorema 5.5.2 (Descomposicin USV ). Sea A R
mn
una matriz de rango r. Entonces
existen matrices ortogonales U R
mm
y V R
nn
, y una matriz no singular C R
rr
tales
que:
A = USV
T
= U
_
C 0
0 0
_
V
T
, (5.2)
donde S = (
C 0
0 0
). Adems:
1. Las primeras r columnas de U forman una base ortonormal para R(A).
2. Las ltimas mr columnas de U forman una base ortonormal para N(A
T
).
3. Las primeras r columnas de V forman una base ortonormal para R(A
T
).
4. Las ltimas n r columnas de V forman una base ortonormal para N(A).
Recprocamente, si A se factoriza en la forma (5.2), donde U R
mm
y V R
nn
son matrices
ortogonales y C R
rr
es una matriz no singular entonces se cumplen las armaciones 1, 2, 3
y 4.
Demostracin. Sean
R(A
T
)
= v
1
, . . . , v
r
y
N(A)
= v
r+1
, . . . , v
n
bases ortonomales para
R(A
T
) y N(A), respectivamente. Sean
R(A)
= u
1
, . . . , u
r
y
N(A
T
)
bases ortonomales para
5.5. Teorema de la descomposicin ortogonal 165
R(A) y N(A
T
), respectivamente. Entonces
1
=
R(A
T
)

N(A)
y
t
1
=
R(A)

N(A
T
)
son
bases ortonormales de R
n
y R
m
, respectivamente. Las matrices:
U = [u
1
[ . . . [ u
m
] y V = [v
1
[ . . . [ v
n
] (5.3)
son ortogonales. Sean y
t
las bases cannicas de R
n
y R
m
, respectivamente. Entonces:
U = [1
R
m]

y V = [1
R
n]
1
.
Sea T
A
: R
n
R
m
la transformacin lineal inducida por A. De acuerdo con el Teorema 4.6.6
se tiene:
A = [T
A
]

= [1
R
m]

[T
A
]
1

1
[1
R
n]
1
= USV
1
= USV
T
,
donde S = [T
A
]
1

1
. Ahora bien, S = U
T
AV . Se sigue que s
ij
= u
T
i
Av
j
. Como
N(A
T
)
es una
base para el espacio nulo izquierdo de A, para i = r + 1, . . . , m se tiene que:
s
ij
= u
T
i
Av
j
= (A
T
u
i
)
T
v
j
= 0
T
v
j
= 0.
Como
N(A)
es una base para el espacio nulo de A, para j = r + 1, . . . , n se tiene que:
s
ij
= u
T
i
Av
j
= u
T
i
0 = 0.
Sea C = (s
ij
) R
rr
. Entonces:
A = USV
T
= U
_
C 0
0 0
_
V
T
.
Puesto que:
rango(C) = rango
_
C 0
0 0
_
= rango(UAV
T
) = rango(A) = r, (5.4)
se sigue del Teorema 1.5.4 que C es no singular.
Supongamos ahora que A es de la forma (5.2) y particionemos ahora U y V como en (5.3).
De la ecuacin A = USV
T
se sigue que AV = US. De esta igualdad se tiene
[Av
1
[ . . . [ Av
r
[ Av
r+1
[ . . . [ Av
n
] = [US
1
[ . . . [ US
r
[ US
r+1
[ . . . [ US
n
].
Como S
j
= 0 para j = r + 1, . . . , n, Av
j
= US
j
= 0, r + 1 j n. Dado que el espacio
nulo de A tiene dimensin n r, se sigue que v
r+1
, . . . , v
n
es una base para el espacio nulo.
Como v
i
, v
j
= 0, para i = 1, . . . , r y j = r + 1, . . . , n, v
1
, . . . , v
r
N(A)

= R(A
T
). Puesto
que la dimensin del espacio rengln es r, v
1
, . . . , v
r
es una base ortonormal de R(A
T
). Las
armaciones 3 y 4 son inmediatas de la igualdad
A
T
= V
T
S
T
U.
Ntese que cada coleccin de bases ortonormales para los espacios fundamentales da lugar
a una factorizacin distinta A de la forma A = USV
T
. Nos referiremos a la factorizacin (5.2)
como una factorizacin o descomposicin USV de A. En el apartado ?? del Captulo ??, se
probar que se pueden escoger bases para los espacios fundamentales de tal manera que C sea
una matriz diagonal. Esto da lugar a la descomposicin en valores singulares de A.
Suponga que el sistema de ecuaciones lineales Ax = b es consistente pero indeterminado.
Por tanto, hay innidad de soluciones. De tantas soluciones cul conviene tomar? El siguiente
teorema establece que hay exactamente una solucin de norma euclidiana mnima, e incluso dice
cmo calcular tal solucin a partir de una descomposicin USV .
166 5. Espacios producto interno
Denicin 5.5.3. Sea C R
rr
una matriz de rango r. Si S =
_
C 0
0 0
_
R
mn
, entonces
S

es la matriz de n m denida por S

=
_
C
1
0
0 0
_
.
Teorema 5.5.4. Sea A = USV
T
una descomposicin USV de A R
mn
. Suponga que el
sistema de ecuaciones Ax = b es consistente. Entonces:
1. A

b es una solucin, donde A

= V
_
C 0
0 0
_
U
T
= V S

U
T
R
nm
.
2. R(A
T
) = R(A

).
3. A

b es la nica solucin de norma euclidiana mnima de Ax = b, esto es:


_
_
A

b
_
_
= mn|x| [ x es una solucin de Ax = b.
Demostracin. 1. Sea x
1
una solucin de Ax = b. Puesto que:
AA

A = USV
T
V
_
C
1
0
0 0
_
U
T
USV
T
= U (
C 0
0 0
)
_
C
1
0
0 0
_
(
C 0
0 0
) V
T
= U
_
Ir 0
0 0
_
(
C 0
0 0
) V
T
= U (
C 0
0 0
) V
T
= A,
se tiene que A(A

b) = AA

Ax
1
= Ax
1
= b.
2. Note que:
A

AA
T
= V
_
C
1
0
0 0
_
U
T
USV
T
V S
T
U
T
= V
_
C
1
0
0 0
_
(
C 0
0 0
)
_
C
T
0
0 0
_
U
T
= V
_
C
T
0
0 0
_
U
T
= (USV
T
)
T
= A
T
.
De manera similar se muestra que A

= A
T
(AA
T
)

. De estas dos identidades se sigue el


resultado.
3. El conjunto de todas las soluciones de Ax = b es A

b + N(A) (Teorema 1.5.1). Como


A

b R(A

) = R(A
T
), A

b es ortogonal a N(A). Sea h N(A). Por el Teorema de


Pitgoras (Teorema 5.2.6):
_
_
A

b +h
_
_
2
=
_
_
A

b
_
_
2
+|h|
2

_
_
A

b
_
_
2
.
As
_
_
A

b
_
_

_
_
A

b +h
_
_
para cualquier h N(A).
Supongamos ahora que x
0
es otra solucin de Ax = b, de norma mnima. Entonces x
0

A

b N(A) y:
|x
0
|
2
=
_
_
A

b +x
0
A

b
_
_
2
=
_
_
A

b
_
_
2
+
_
_
x
0
A

b
_
_
2
.
Como |x
0
| =
_
_
A

b
_
_
, se sigue que
_
_
x
0
A

b
_
_
2
= 0.
En el caso complejo, al sustituir A
T
con A

, se obtienen los anlogos a los tres teoremas


anteriores.
5.6. Mnimos cuadrados y sistemas de ecuaciones lineales 167
5.5.1. Ejercicios
1. Encuentre una descomposicin USV de la matriz:
A =
_
_
2 2 2 2
8 2 2 8
7 1 1 7
_
_
.
2. Sea A = USV
T
una factorizacin USV de A. Sea A

denida como en el Teorema 5.5.4.


Pruebe que:
a) Si A es no singular, entonces A

= A
1
.
b) (A

= A.
c) Sea A de mn. Si rango(A) = n, entonces A

= (A
T
A)
1
A
T
. Si rango(A) = m, entonces
A

= A
T
(AA
T
)
1
.
d) A
T
= A
T
AA

= A

AA
T
.
e) (S

)
T
= (S
T
)

.
f) (A

)
T
= (A
T
)

.
3. Sea D = diag(
1
, . . . ,
r
) R
rr
donde
1

r
> 0. Suponga que:
A = USV
T
= U
_
D 0
0 0
_
V
T
R
mn
es una descomposicin USV de la matriz A. (Note que r mnm, n). Pruebe que:
a) Av
j
=
j
u
j
, 1 j r.
b) Las columnas de la matriz ortogonal V R
nn
son los vectores propios de la matriz
simtrica A
T
A.
c) Las columnas de la matriz ortogonal U R
mm
son los vectores propios de AA
T
.
d) Cada
2
j
es un valor propio de A
T
A y tambin de AA
T
.
5.6. Mnimos cuadrados y sistemas de ecuaciones lineales
En esta seccin haremos una breve incursin a los problemas de aproximacin, en particular
a los problemas de mnimos cuadrados.
Gauss invent el mtodo de los mnimos cuadrados para encontrar una funcin afn que
aproxime lo mejor posible una serie de datos observados. Este mtodo lo public en 1810, en la
obra llamada Disquisitio de elements Palladis, en la que se propuso determinar los detalles de
la rbita de Pallas, el segundo asteroide ms grande del sistema solar.
Gauss obtuvo un sistema de ecuaciones lineales en seis incgnitas en el que no todas las
ecuaciones se satisfacan simultneamente, es decir, obtuvo un sistema inconsistente. De aqu que
necesitara determinar los valores de las incgnitas que minimizaran la suma de los cuadrados de
los errores. En vez de resolver este problema en particular, Gauss cre un mtodo para trabajar
con sistemas de ecuaciones lineales de ese tipo.
Este mtodo se usa en reas como la Estadstica para obtener estimadores de algunos pa-
rmetros, y el Anlisis Numrico, para ajustar funciones de datos y aproximar funciones con
funciones ms simples.
A continuacin explicaremos cmo funciona este mtodo. Supngase que se busca una funcin
y = f(x) que sea la mejor aproximacin a los n puntos de los datos (x
1
, y
1
), . . . , (x
n
, y
n
). Por
ejemplo, si los datos son (0.5, 0.8), (0.8, 2), (1.7, 5), (2.3, 5.4), (2.9, 7.5), (3.5, 7.8), despus de
168 5. Espacios producto interno
x
2 1 1 2 3 4
y
1
1
2
3
4
5
6
7
8
Figura 5.2: Recta que pasa cerca de todos los puntos.
gracarlos, parece que una recta es una opcin bastante aceptable (Figura 5.2). El problema es:
cul es la ecuacin de esta recta?
Si ahora los datos son (2, 4.3), (1.5, 1.6), (0, 1.5), (0.5, 2.5), (1, 1.8), (2.2, 0.2), (3, 4.5)
y (3.5, 6.5), parece que una recta no es lo mejor. Ms bien parece que una parbola es una mejor
opcin (Figura 5.3). De nueva cuenta, la pregunta es: cul es la ecuacin de esta parbola?
El procedimiento para ajustar una recta, una parbola y/o un polinomio a partir de un
conjunto de n puntos, es similar al mtodo que podramos utilizar para ajustar una recta a simple
vista, es decir, pretendemos que las distancias verticales de cada punto a la recta ajustada sean
mnimas. Una manera conveniente para lograr esto es minimizar la suma de los cuadrados de
las desviaciones verticales de la recta ajustada. En parte, esto se hace porque matemticamente
es ms fcil trabajar con [x[
2
que con [x[.
En el primer caso, si queremos ajustar a una recta, podemos suponer que la ecuacin de la
recta es y = mx+b y tratar de hallar los valores de m y b, de tal manera que cada punto (x
i
, y
i
)
est lo ms cercano posible a (x
i
, mx
i
+b). As, lo que minimizaremos es:
[ y
1
(mx
1
+b) [
2
+ + [ y
n
(mx
n
+b) [
2
= |y Ax|
2
,
donde y =
_
_
_
y
1
.
.
.
y
n
_
_
_, A =
_
_
_
1 x
1
.
.
.
.
.
.
1 x
n
_
_
_ y x =
_
b
m
_
.
Observe que nuestro problema de encontrar una recta que se ajuste lo mejor posible a los
datos dados, se traduce en encontrar un vector y
0
= Ax
0
en el espacio columna de A de tal
manera que la distancia de y a y
0
sea mnima. Si el vector y pertenece al espacio columna de A,
es posible encontrar un vector x tal que y = Ax. Sin embargo, en la mayora de las aplicaciones,
el vector y no pertenece al espacio columna de A. El problema de mnimos cuadrados se resuelve
5.6. Mnimos cuadrados y sistemas de ecuaciones lineales 169
x
3 2 1 1 2 3
y
2
1
1
2
3
4
5
6
Figura 5.3: Parbola que pasa cerca de todos los puntos.
cuando hallamos un vector x
0
=
_
b
m
_
de tal manera que y
0
= Ax
0
. Por supuesto que si y
0
pertenece al espacio columna de A, el sistema y
0
= Ax tiene al menos una solucin.
En el segundo caso, se trata de encontrar una funcin y = a+bx+cx
2
que se ajuste lo mejor
posible a los datos. Tratamos ahora de encontrar a, b y c de tal manera que cada punto (x
i
, y
i
)
est lo ms cercano posible a (x
i
, a +bx
i
+cx
2
i
). Al igual que en el caso anterior, trataremos de
minimizar:
n

i=1
[ y
i
(a +bx
i
+cx
2
i
) [
2
= |y Ax|
2
,
donde y =
_
_
_
y
1
.
.
.
y
n
_
_
_, A =
_
_
_
1 x
1
x
2
1
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
_
_
_ y x =
_
_
a
b
c
_
_
.
De nueva cuenta, el problema de encontrar una funcin polinomial que se ajuste lo mejor
posible a los datos, se traduce en encontrar un vector y
0
= Ax
0
del espacio columna de A de
tal manera que la distancia de y a y
0
sea mnima. El Teorema 5.4.4 nos dice cmo resolver este
problema. Basta encontrar la proyeccin ortogonal y
0
de y sobre el espacio columna de A y
resolver el sistema de ecuaciones y
0
= Ax.
Los ejemplos anteriores muestran lo que sucede a menudo: se trabaja con sistemas de ecua-
ciones Ax = b que no tienen solucin. Sin embargo, es probable que el sistema haya surgido de
un caso real y es necesario darle solucin.
En general, dada una matriz A K
mn
(K = R o C) y un vector b K
m
, el problema
de mnimos cuadrados consiste en calcular un vector x K
n
tal que b
0
= Ax sea la mejor
aproximacin a b por vectores en R(A), es decir, tal que |b Ax| sea mnimo.
Ejemplo. Encontrar la aproximacin polinmica de mnimos cuadrados de grado uno de la
funcin f(x) = e
x
en el intervalo [1, 1], usando los polinomios de Legendre.
170 5. Espacios producto interno
Solucin. En este caso el espacio producto interno es C([1, 1], R). Como nos piden una
aproximacin polinmica de grado 1 usando polinomios de Legendre, consideramos el subespacio
W generado por los polinomios 1, x. Aplicando el proceso de ortogonalizacin de Gram-Schmidt
con el producto interno f, g =
_
1
1
f(t)g(t)dt, obtenemos la base ortogonal 1, x de W. Luego,
segn el Teorema 5.4.4, el polinomio f
0
(x) =
f,1)
1,1)
1 +
f,x)
x,x)
x =
ee
1
2
+
2e
1
2/3
x =
1
2
e
1
+
1
2
e
3e
1
x es la mejor aproximacin a f por vectores de W.
Regresando al caso matricial, una forma de resolver el problema de los mnimos cuadrados es
tomar la proyeccin ortogonal b
0
, de b sobre R(A). Como b
0
R(A), existe x tal que Ax = b
0
.
Para calcular b
0
se toma una base ortonormal de R(A) (la cual se obtiene por el proceso de
ortogonalizacin de Gram-Schmidt) y se aplica el Teorema 5.4.4. Una vez calculado b
0
se resuelve
el sistema Ax = b
0
. Note que esto implica que el problema de los mnimos cuadrados siempre
tiene solucin.
Otra forma de resolver el problema es el siguiente: Se est buscando un vector x tal que
Ax sea la proyeccin ortogonal de b sobre R(A). Es decir, tal que b Ax (R(A))

segn el
Teorema 5.4.4. El siguiente teorema nos dice cmo hacer esto. Antes un lema.
Lema 5.6.1. Sea A R
mn
. Entonces:
1. N(A
T
A) = N(A).
2. R(A
T
A) = R(A
T
).
Demostracin. 1. Si x N(A) entonces Ax = 0 de modo que A
T
Ax = A
T
0 = 0 y as
x N(A
T
A). Recprocamente, si x N(A
T
A) entonces A
T
Ax = 0. Multiplicando por
x
T
tenemos que x
T
A
T
Ax = 0 es decir (Ax)
T
Ax = Ax, Ax = 0, de donde Ax = 0 y as
x N(A).
2. Si y R(A
T
A) entonces y = A
T
Ax = A
T
(Ax) para algn x, de modo que y R(A
T
).Luego,
R(A
T
A) R(A
T
). Por otra parte, segn el Teorema 3.6.8 tenemos que rango(A
T
A) =
rango(A)dim(N(A
T
)R(A)) = rango(A) = rango(A
T
), ya que N(A
T
)R(A) = 0 porque
R
m
= R(A)

N(A
T
) segn el Teorema 5.5.1. Por lo tanto, dim(R(A
T
A)) = dim(R(A
T
)) y
como R(A
T
A) R(A
T
) se sigue que R(A
T
A) = R(A
T
).
De manera anloga, si A C
mn
, entonces N(A

A) = N(A) y R(A

A) = R(A

).
Teorema 5.6.2. Sean A R
mn
y b R
m
.
1. x
0
R
n
es una solucin al problema de los mnimos cuadrados si y slo si x
0
es una solucin
al sistema de ecuaciones normales A
T
Ax = A
T
b.
2. Si x
0
es una solucin al problema de los mnimos cuadrados, entonces el conjunto de todas
las soluciones es x
0
+N(A).
3. Si el rango de A es n, entonces la nica solucin al problema de los mnimos cuadrados
es x = (A
T
A)
1
A
T
b. Recprocamente, si hay exactamente una solucin al problema de los
mnimos cuadrados, entonces el rango de A es n.
Demostracin. 1. x
0
R
n
es una solucin al problema de los mnimos cuadrados si y slo si
b
0
= Ax
0
es la proyeccin ortogonal de b sobre R(A), es decir, si y slo si bAx
0
(R(A))

=
N(A
T
) si y slo si A
T
(b Ax
0
) = 0 si y slo si el sistema A
T
Ax = A
T
b tiene solucin. (La
igualdad (R(A))

= N(A
T
) se sigue del Teorema 5.5.1).
5.6. Mnimos cuadrados y sistemas de ecuaciones lineales 171
2. El resultado se sigue del lema anterior y del Teorema 1.5.1.
3. A
T
Ax = A
T
b tiene al menos una solucin si y slo si A
T
b R(A
T
A). Como A
T
b R(A
T
) =
R(A
T
A), el sistema de ecuaciones normales siempre tiene solucin. Si el rango de A es n,
entonces N(A) = 0 y de 2 se sigue que S = x
0
+ 0 = x
0
. Luego, el problema de los
mnimos cuadrados tiene solucin nica. Adems:
dim(R(A)) = dim(R(A
T
)) = dim(R(A
T
A)) = n,
de modo que la matriz A
T
A es invertible y la solucin es x
0
= (A
T
A)
1
A
T
b.
Recprocamente, si S = x
0
entonces N(A
T
A) = 0, es decir N(A) = 0 (ya que
N(A
T
A) = N(A)) y por lo tanto el rango de A es n.
El teorema anterior tambin es vlido para matrices complejas. La prueba se obtiene cam-
biando A
T
por A

.
Ejemplos 5.6.3. 1. Encontrar la mejor aproximacin a una solucin al sistema de ecuaciones
Ax = b, donde A =
_
1 2 5
1 2 9
1 2 3
1 2 1
_
y b =
_
2
0
2
2
_
.
Solucin. Veamos primero que el sistema Ax = b no tiene solucin. Calculando el espacio
columna de A, tenemos que R(A) = x R
4
[ x
1
x
2
+ x
3
+ x
4
= 0 y como b , R(A)
entonces el sistema Ax = b no tiene solucin.
Una solucin al problema de los mnimos cuadrados se obtiene resolviendo el sistema de
ecuaciones normales. Para resolver ste, se usar la descomposicin QR. En el Ejemplo 5.3.8
se calcul la factorizacin QR de A. Sustituyendo A = QR en el sistema de ecuaciones
normales tenemos que:
(QR)
T
(QR)x = (QR)
T
b R
T
Q
T
QRx = R
T
Q
T
b R
T
Rx = R
T
Q
T
b,
ya que Q
T
Q = I porque las columnas de Q constituyen una base ortonormal para el espacio
columna de A segn el Teorema 5.3.7. Como R
T
es invertible (porque R es invertible) se
sigue que Rx = Q
T
b, es decir:
_
2 0 4
0 4 8
0 0 6
__
x1
x2
x3
_
=
_
3
1
1
_
,
de donde x
3
=
1
6
, x
2
=
18x3
4
=
1
12
y x
1
=
3+4x3
2
=
11
6
.
Ntese que la solucin es nica ya que el rango de A es 3.
2. Encontrar la mejor aproximacin a una solucin al sistema de ecuaciones Ax = b, donde
A =
_
1 1 1
1 1 0
2 2 1
_
y b =
_
1
1
2
_
.
Solucin. Llevando el sistema [A[b] a su forma escalonada tenemos:
_
1 1 0 0
0 0 1 0
0 0 0 1
_
,
de donde se sigue que el sistema Ax = b no tiene solucin. Hallaremos la mejor solucin por
el mtodo de los mnimos cuadrados.
Primera forma. Resolviendo el sistema de ecuaciones normales A
T
Ax = A
T
b, tenemos que:
_
6 6 3 4
6 6 3 4
3 3 2 3
_

_
1 1 0
1
3
0 0 1 2
0 0 0 0
_
,
172 5. Espacios producto interno
de donde x
1
=
1
3
x
2
y x
3
= 2. Por lo tanto, todas las soluciones estn dadas por:
_
x1
x2
x3
_
=
_

1
3
0
2
_
+x
2
_
1
1
0
_
.
Segunda forma. Hallamos primero b
0
, la proyeccin ortogonal de b sobre R(A) y luego resol-
vemos el sistema Ax = b
0
.
Tenemos que:
R(A) =
___
1
1
2
_
,
_
1
0
1
___
.
Utilizando el proceso de Gram-Schmidt, ortogonalizamos la base:
__
1
1
2
_
,
_
1
0
1
__
y obtenemos la base ortogonal:
_
v
1
=
_
1
1
2
_
, v
2
=
_

1
2
1
2
0
__
de R(A). Luego:
b
0
=
v
1
, b
v
1
, v
1

v
1
+
v
2
, b
v
2
, v
2

v
2
=
4
6
_
1
1
2
_
+
1
1/2
_

1
2
1
2
0
_
=
_
5
3

1
3
4
3
_
.
Finalmente, resolvemos el sistema Ax = b
0
.
_
1 1 1
5
3
1 1 0
1
3
2 2 1
4
3
_

_
1 1 0
1
3
0 0 1 2
0 0 0 0
_
,
de donde x
1
=
1
3
x
2
y x
3
= 2.
5.6.1. Ejercicios
1. Sean A =
_
1 1 2
1 1 0
1 0 1
_
y b =
_
2
1
4
_
. Encuentre todas las soluciones de mnimos cuadrados de
Ax = b de dos maneras diferentes:
a) Resolviendo el correspondiente sistema de ecuaciones normales.
b) Usando proyecciones ortogonales.
i) Construya una base ortogonal para el espacio columna de A.
ii) Calcule b
0
, la proyeccin ortogonal de b sobre el espacio columna de A.
iii) Resuelva el sistema de ecuaciones Ax = b
0
.
Compare las soluciones obtenidas por ambos mtodos.
2. Considere las matrices A =
_
_
_
_
2 8 4
2 2 2
2 8 6
2 2 8
_
_
_
_
y b =
_
_
_
_
1
2
1
2
_
_
_
_
.
5.6. Mnimos cuadrados y sistemas de ecuaciones lineales 173
a) Determine la factorizacin QR de A.
b) Encuentre todas las soluciones al problema de mnimos cuadrados Ax = b usando la
factorizacin QR de A.
3. Repita el ejercicio anterior usando ahora A =
_
_
2 5
4 7
4 4
_
_
y b =
_
_
3
3
3
_
_
.
4. Halle el punto Q de la recta x = 2t, y = t, z = 4t, < t < , ms prximo al punto
(4, 8, 1).
5. Halle el punto Q del plano 5x 3y + z = 0 ms prximo al punto (1, 2, 4) y determine la
distancia entre el punto dado y el punto Q.
6. Encuentre el polinomio de mnimos cuadrados de grado 2 de f(t) en el intervalo [1, 1],
usando los polinomios de Legendre, si:
(a) f(t) = t
2
2t + 3 (b) f(t) = t
3
1 (c) f(t) = cos t.
174 5. Espacios producto interno
APNDICE A
Campos
En este Apndice se da la denicin de campo, algunos ejemplos y las propiedades bsicas
comunes a los campos. Tambin se establece la denicn de caracterstca de un campo.
A.1. Denicin y propiedades bsicas
Denicin A.1.1. Un campo K es un conjunto con dos operaciones + y
+: K K K : K K K
(x, y) x +y, (x, y) x y
llamadas respectivamente suma y multiplicacin las cuales satisfacen:
1. (K, +) es un grupo abeliano. Es decir,
a) La suma es conmutativa: x +y = y +x para todo x, y K.
b) La suma es asociativa: (x +y) +z = x + (y +z) para todo x, y, z K.
c) Existe un elemento neutro para la suma: Existe un elemento 0 K tal que x+0 = x para
todo x K.
d) Existen los inversos aditivos: Dado x K, existe un y K tal que x +y = 0.
2. (K, ) es un grupo abeliano:
a) La multiplicacin es conmutativa: x y = y x para todo x, y K.
b) La multiplicacin es asociativa: (x y) z = x (y z) para todo x, y, z K.
c) Existe un elemento neutro para la multiplicacin: Existe un elemento 1 K tal que
x 1 = x para todo x K.
d) Existen los inversos multiplicativos: Dado x K 0, existe un y K tal que x y = 1
3. La multiplicacin se distribuye sobre la suma: x (y +z) = x y +x z para todo x, y, z K.
Los elementos de K se denominan escalares.
175
176 A. Campos
Tanto el neutro aditivo como el multiplicativo son nicos. Por ejemplo, si 0 y 0
t
son dos neutros
aditivos, 0 = 0 + 0
t
= 0
t
+ 0 = 0
t
. Usualmente escribiremos xy en vez de x y. Tambin los
inversos aditivo y multiplicativo son nicos. Si y, y
t
dos inversos aditivos para el elemento x, se
tiene y = y +0 = y +(x+y
t
) = (y +x) +y
t
= 0 +y
t
= y
t
. El inverso aditivo de x K se denota
por x. El inverso multiplicativo de x K se denota por x
1
.
Seguiremos las convenciones usuales cuando se trabaja con campos. Si x, y son elementos de un
campo K, escribiremos x y en vez de x + (y), Tambin se acostumbra escribir
x
y
en vez de
xy
1
. Si 0 ,= x K, y n es un entero positivo, nx denota la suma x + + x (n sumandos) y
x
n
denota el producto a a (n factores). Si n es negativo, nx denota (n)(x) y x
n
denota
(x
1
)
n
. Finalmente, 0x = 0 y x
0
= 1.
Ejemplo A.1.2. El anillo de los enteros Z no es campo. Por ejemplo, no existe ningn entero
y tal que 3y = 1.
Ejemplos A.1.3. Con las operaciones usuales de suma y multiplicacin de nmeros complejos,
cada uno de los siguientes subconjuntos de C es un campo:
1. Los nmeros racionales Q.
2. Los nmeros reales R.
3. Los nmeros complejos C.
4. El conjunto Q(

2) = a +b

2 [ a, b Q.
Probablemente los tres primeros ejemplos son familiares al lector. Veamos que K = Q(

2) es
un campo. K es cerrado bajo la suma y la multiplicacin:
(a +b

2) + (c +d

2) = (a +c) + (b +d)

2,
(a +b

2)(c +d

2) = (ac + 2bd) + (ad +bc)

2.
El inverso aditivo de a + b

2 K es a b

2 y pertenece a K. El inverso multiplicativo de


a +b

2 K, a +b

2 ,= 0, tambin es un elemento de K:
1
a +b

2
=
1
a +b

2
a b

2
a b

2
=
a b

2
a
2
2b
2
=
a
a
2
2b
2

b
a
2
2b
2

2.
De hecho si D es un nmero racional que no es un cuadrado perfecto en Q, el conjunto Q(

D) =
a+b

D [ a, b Q C es un campo. De esta manera, Q(i), Q(

2) son ejemplos de campos.


Ejemplo A.1.4. Sea p > 0 un nmero primo. El conjunto F
p
= 0, 1, . . . , p 1 de los enteros
mdulo p es un campo con las operaciones de suma y multiplicacin mdulo p, es decir, a+b = c
en F
p
si a +b c mod p y ab = c en F
p
si ab c mod p. Si p = 5, F
p
= 0, 1, 2, 3, 4 y
+ 0 1 2 3 4
0 0 1 2 3 4
1 1 2 3 4 0
2 2 3 4 0 1
3 3 4 0 1 2
4 4 0 1 2 3
0 1 2 3 4
0 0 0 0 0 0
1 0 1 2 3 4
2 0 2 4 1 3
3 0 3 1 4 2
4 0 4 3 2 1
A.1. Denicin y propiedades bsicas 177
Ejemplo A.1.5. Sea F = 0, 1, , junto con las operaciones de suma y multiplicacin dadas
por
+ 0 1
0 0 1
1 1 0
0 1
1 0
0 1
0 0 0 0 0
1 0 1
0 1
0 1
Se deja al lector comprobar que F es un campo.
Ejemplo A.1.6. Sea K un campo y t una variable. Sea K[t] conjunto de todos los polinomios
en la variable t con coecientes en K. El conjunto
K(t) =
_
a(t)
b(t)
[ a(t), b(t) K[t], b(t) ,= 0
_
es un campo con la suma y multiplicacin dadas por
a(t)
b(t)
+
c(t)
d(t)
=
a(t)d(t) +b(t)c(t)
b(t)d(t)
,
a(t)
b(t)
c(t)
d(t)
=
a(t)c(t)
b(t)d(t)
.
Este campo se denomina el campo de las funciones racionales.
Las propiedades bsicas de los campos se resumen en la siguiente proposicin.
Proposicin A.1.7. Si K es un campo, entonces:
a) Si K es un campo, son vlidas las leyes de cancelacin para la suma y la multiplicacin:
i) Si x +y = x +z, entonces y = z.
ii) Si xy = xz, con x ,= 0, entonces y = z.
b) (x) = x.
c) Si x ,= 0, (x
1
)
1
= x.
d) 0a = 0.
e) Si xy = 0, entonces x = 0 o y = 0.
f ) (x)y = (xy) = x(y).
g) (x)(y) = xy.
Demostracin. Si x, y, z K y x +y = x +z, entonces:
y = y + 0 = y + (x + (x)) = (y +x) + (x)
= (y +x) + (x) = y + (x + (x)) = z + 0 = z.
La segunda parte del inciso a) es similar. Como:
(x) +x = 0 = (x) + ((x)),
se sigue que x = (x). La prueba de c) es similar. Observe que:
0 + 0a = 0a = (0 + 0)a = 0a + 0a.
178 A. Campos
Cancelando 0a, se sigue que 0a = 0. Ahora supongamos que xy = 0 pero que x ,= 0. Entonces:
0 = x
1
0 = x
1
(xy) = (xx
1
)y = 1y = y.
Esto prueba e). Para probar g), note que:
(x)y +xy = ((x) +x)y = 0y = 0.
Luego (xy) = (x)y. De manera anloga se prueba que (xy) = x(y). La prueba del inciso
g) se deja al lector.
A.2. La caracterstica de un campo
Si K es un campo, es posible sumar 1 consigo mismo un nmero nito de veces y obtener 0. Por
ejemplo, en el campo del ejemplo A.1.4, 1 + 1 + 1 + 1 + 1 = 0. Esto no sucede en el campo de
los nmeros complejos ni en ningn subcampo de l.
Denicin A.2.1. La caracterstica car(K) de un campo K es el menor entero positivo p tal
que p 1 = 0 si tal p existe, y 0 en cualquier otro caso.
Los campos Q, R, C tienen caracterstica cero. El campo F
5
tiene caracterstica 5.
Proposicin A.2.2. La caracterstica de cualquier campo es 0 o es un nmero primo p.
Demostracin. Sea n = car(K). Supongamos que n ,= 0 y tampoco es un nmero primo. Escri-
bamos n = ab con 1 < a, b < n. Por denicin de caracteristica a 1 ,= 0 y b 1 ,= 0. Por otro
lado:
(a 1)(b 1) = (1 + + 1
. .
a veces
)(1 + + 1
. .
b veces
) = (1 + + 1
. .
ab veces
) = (ab) 1 = n 1 = 0.
Esto es una contradiccin, pues en un campo, el producto de cualesquiera dos elementos distintos
de cero no es cero. Luego n = 0, o n es un nmero primo.
Ejemplo A.2.3. El campo del ejemplo A.1.5 es un campo de caracterstica 2.
APNDICE B
Matrices
En este captulo se introduce la denicin de matriz y las operaciones que se pueden realizar
con ellas (suma, resta y multiplicacin). Se probar que el conjunto de todas las matrices del
mismo tamao junto con la suma es un grupo abeliano; tambin se probara que el conjunto de
todas las matrices cuadradas es un anillo no conmutativo con elemento unitario.
Tambin se presentan las deniciones de los diferentes tipos de matrices (matriz cuadrada,
matriz diagonal, matriz identidad, matriz triangular superior o inferior, etc). Tambin se intro-
ducen los conceptos de transpuesta y traza de una matriz, pasando por el concepto de matriz
invertible. Se presentan ejemplos de las diversas operaciones con matrices cuando estas estn
divididas en bloques.
Al nal del captulo se estudia brevemente a las matrices elementales y a las operaciones
elementales de matrices.
A menos que se diga lo contrario, a lo largo de este captulo, K siempre denotar un campo
arbitrario.
B.1. Deniciones bsicas
En esta seccin se introduce la denicin de matriz y las deniciones de los diferentes tipos
de matrices: matriz cuadrada, matriz identidad, matriz triangular superior e inferior y matriz
diagonal.
Denicin B.1.1. Sea K un campo arbitrario y sean m, n enteros positivos. Una matriz A de
(tamao) m n es un arreglo rectangular de mn elementos de K ordenados en m renglones
(las) horizontales y n columnas verticales encerrados entre parntesis o entre corchetes:
179
180 B. Matrices
A =
columna j
rengln i
a
11
a
12
. . . a
1j
. . . a
1n
a
21
a
22
. . . a
2j
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
i1
a
i2
. . . a
ij
. . . a
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
. . . a
mj
. . . a
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
El i-simo rengln de A es:
A
i
=
_
a
i1
a
i2
a
ij
a
in
_
, (1 i m).
La j-sima columna de A es:
A
j
=
_
_
_
_
_
a
1j
a
2j
.
.
.
a
nj
_
_
_
_
_
, (1 j n).
La coleccin de todas las matrices de m n se denota por K
mn
. Otras notaciones para
el mismo n son M
mn
(K) o Mat
mn
(K). Cuando la matriz tiene una sola columna se llama
vector columna; si slo tiene un rengln se denomina vector rengln. Se denotar con K
n
al
conjunto de todos los vectores columna, es decir K
n
= K
n1
.
Hay diferentes maneras de referirse en forma abreviada a una matriz. Podemos escribir
A = (a
ij
)
mn
o simplemente A = (a
ij
) para indicar que el elemento en la entrada (i, j) es
a
ij
. Tambin es frecuente usar la notacin [A]
ij
en vez de a
ij
para denotar al elemento en la
entrada (i, j). Si [A]
ij
denota al elemento de A en la posicin (i, j), escribimos A = ([A]
ij
). Si
A
1
, . . . , A
n
son las columnas de A, escribimos:
A = [A
1
[ . . . [ A
n
].
Tambin se puede escribir:
A =
_

_
A
1
.
.
.
A
m
_

_,
donde A
1
, . . . , A
m
son los renglones de A.
Ejemplo B.1.2. Sea K el campo de los nmeros complejos. Las siguientes son matrices de
2 3, 2 2, 1 3 y 3 1, respectivamente.
A =
_
3 2 i
7 1

2
_
, B =
_
1 3
1 + 2i 3
_
, C =
_
1 1 3
_
, D =
_
_
10
1 i
3i
_
_
.
La matriz C es un vector rengln, en tanto que D es un vector columna. El primer rengln y la
segunda columna de A son
A
1
=
_
3 2 i
_
, A
2
=
_
2
1
_
.
B.1. Deniciones bsicas 181
respectivamente. El elemento que est en la posicin (2, 1) de la matriz B es 1 +2i y se escribe:
[B]
21
= 1 + 2i o tambin b
21
= 1 + 2i.
Ejemplo SAGE B.1.3. En Sage hay varias formas de denir una matriz.
sage: # Se construyen tres matrices
sage: # Se ilustran algunos mtodos de construccin
sage: A = matrix ([ [-1,3], [4,8] ]); A # mtodo 1
[-1 3]
[ 4 8]
sage: B = matrix(2, [8,4,1,3]); B # mtodo 2
[8 4]
[1 3]
sage: # variante mtodo 2
sage: C = matrix(QQ, 2, 2, [1/2, 1/3, 1, -1]); C
[1/2 1/3]
[ 1 -1]
En Sage QQ se reere al conjunto de los nmeros racionales. Tambin es posible declarar el
espacio de todas las matrices de 2 2 con entradas racionales como sigue:
sage: M23 = MatrixSpace(QQ ,2,3); M23
Full MatrixSpace of 2 by 3 dense matrices over Rational Field
sage: A = M23([1,-1,2,3,-4,5])
sage: A
[ 1 -1 2]
[ 3 -4 5]
Las columnas y renglones de A se obtienen con los comandos A.columns() y A.rows(), respec-
tivamente.
sage: A.columns ()
[(1, 3), (-1, -4), (2, 5)]
sage: A.rows()
[(1, -1, 2), (3, -4, 5)]
Observe que Sage expresa las columnas de A en forma horizontal.
Para obtener un rengln en particular se usa el comando A.row(nmero de rengln) (El
primer rengln es el rengln cero)
sage: A.row(0)
(1, -1, 2)
sage: A.row(1)
(3, -4, 5)
La delta de Kronecker
ij
est denida como sigue:

ij
=
_
1 si i = j,
0 si i ,= j.
Este smbolo es til para denir por ejemplo a la matriz de 3 3 que en las posiciones (i, i) es
182 B. Matrices
igual a 1 y es igual a cero en cualquier otra posicin:
I = (
ij
)
33
=
_
_

11

12

13

21

22

23

31

32

33
_
_
=
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Los comandos matrix.identity(n) y identity_matrix(n) de Sage crean a la matriz iden-
tidad de n n. matrix.identity(n):
sage: matrix.identity (3)
[1 0 0]
[0 1 0]
[0 0 1]
Algunas matrices tienen una estructura particular por lo que reciben nombres especiales.
Denicin B.1.4. 1) Una matriz A de mn es cuadrada si m = n, y decimos que A es una
matriz cuadrada de orden n. Los elementos a
11
, a
22
, . . . , a
nn
forman la diagonal principal de
A.
2) Una matriz cuadrada D = (d
ij
) K
nn
es una matriz diagonal si d
ij
= 0 para i ,= j. Si D
es una matriz diagonal, se escribe D = diag(d
11
, . . . , d
nn
).
3) La matriz identidad de nn denotada por I
n
(o simplemente I) es la matriz I = (
ij
), donde

ij
es la delta de Kronecker.
4) Se dice que una matriz cuadrada U es triangular superior si [U]
ij
= 0 cuando i > j, i.e., si
todas las entradas debajo de la diagonal principal son cero.
5) Una matriz cuadrada L es triangular inferior si [L]
ij
= 0 cuando i < j, i.e., cuando todas
las entradas arriba de la diagonal principal son cero.
6) A la matriz que tiene ceros en todas sus entradas se le llama matriz cero o matriz nula y se
denota con el smbolo 0.
Ejemplo B.1.5. Sea K el campo de los nmeros reales. Las matrices:
D
1
=
_
3 0
0

2
_
, D
2
=
_
_
0 0 0
0 1 0
0 0 4
_
_
,
son matrices diagonales. Note que una matriz diagonal, es simultneamente una matriz trian-
gular inferior y superior. Las siguientes matrices son triangulares.
U =
_
_
3 1 7
0 1 4
0 0 2
_
_
, L =
_
_
3 0 0
2 1 0
1 1 1
_
_
.
La primera es triangular superior y la segunda triangular inferior. Las siguientes matrices son
ejemplos de matrices identidad:
_
1 0
0 1
_
,
_
_
1 0 0
0 1 0
0 0 1
_
_
.
Finalmente, las siguientes son ejemplos de matrices nulas (o matrices cero):
_
0 0 0
0 0 0
_
,
_
0 0
0 0
_
,
_
_
0 0 0
0 0 0
0 0 0
_
_
.
B.2. El espacio vectorial de las matrices 183
B.2. El espacio vectorial de las matrices
La matrices se pueden sumar y multiplicar por un escalar. Estas dos operaciones convierten
al conjunto de todas las matrices de mn es lo que se conoce como un espacio vectorial.
Denicin B.2.1 (Suma de matrices). Sean A, B K
mn
. La suma de A y B denotada por
A+B se obtiene sumando las correspondientes entradas de A y B:
[A+B]
ij
= [A]
ij
+ [B]
ij
, 1 i m, 1 j n.
Si A = (a
ij
), B = (b
ij
) y C = A+B, tambin se escribe c
ij
= a
ij
+b
ij
.
Observacin B.2.2. Si las matrices A y B son de diferente tamao, la suma no est denida.
Ejemplo B.2.3. Si A, B Q
23
son las matrices:
A =
_
0 1 0
0 0
1
2
_
, B =
_
1 2 0
1
2
1 0
_
entonces A+B =
_
1 1 0
1
2
1
1
2
_
.
Ejemplo B.2.4. Sea K = F
5
. Si A, B K
23
son las matrices:
A =
_
2 1 4
1 0 3
_
, B =
_
3 2 2
3 1 2
_
entonces A+B =
_
0 3 1
4 1 0
_
.
El inverso aditivo de A, es la matriz denotada por A, cuyos entradas son los inversos
aditivos de los elementos en las correspondientes entradas de A. Esto es, si A = (a
ij
), entonces
A = (a
ij
). Esto permite denir la sustraccin de la manera usual. Si A y B son matrices del
mismo tamao, la diferencia AB se dene como la matriz AB = A+ (B).
Ejemplo B.2.5. Si A =
_
_
1 0 1
1 2 2
1 1
1
2
_
_
, entonces A =
_
_
1 0 1
1 2 2
1 1
1
2
_
_
.
Denicin B.2.6. Dos matrices A y B son iguales si y slo si A y B son del mismo tamao y
a
ij
= b
ij
para todo i, j.
El siguiente teorema presenta las propiedades bsicas de la suma de matrices.
Teorema B.2.7. El conjunto K
mn
de todas las matrices de m n junto con la suma de
matrices es un grupo abeliano. Es decir,
a) La suma es conmutativa, es decir, A+B = B +A, para A, B K
mn
.
b) La suma es asociativa, es decir, A+ (B +C) = (A+B) +C, para A, B, C K
mn
.
c) La matriz 0 es el neutro aditivo para la suma: A+ 0 = A para cualquier matriz A.
d) Existencia de los inversos aditivos: A+ (A) = 0 para A K
mn
.
Demostracin. Escribamos A = (a
ij
), B = (b
ij
) y C = (c
ij
).
Los elementos (i, j) de las matrices A+B y B+A son a
ij
+b
ij
y b
ij
+a
ij
, respectivamente.
Como a
ij
+ b
ij
= b
ij
+ a
ij
, entonces las matrices A + B y B + A son iguales. Esto prueba el
inciso a).
Los elementos (i, j) de las matrices A + (B + C) y (A + B) + C son a
ij
+ (b
ij
+ c
ij
) y
(a
ij
+b
ij
) +c
ij
, respectivamente. Como
a
ij
+ (b
ij
+c
ij
) = (a
ij
+b
ij
) +c
ij
,
se sigue que las matrices A+ (B +C) y (A+B) +C son iguales.
Para el inciso c) basta observar que a
ij
+ 0 = a
ij
para para cualquier para (i, j).
Finalmente, para cada (i, j) se tiene que a
ij
+ (a
ij
) = 0 as que A+ (A) = 0.
184 B. Matrices
A continuacin se dene la multiplicacin de una matriz por escalar.
Denicin B.2.8 (Multiplicacin por escalar). Sean c un escalar y A K
mn
una matriz.
La multiplicacin de c por A, denotada por cA est dada por [cA]
ij
= c[A]
ij
para 1 i m,
1 j n.
Ejemplo B.2.9. Si A =
_
3 1 4
1 3 5
_
, entonces:
2A =
_
6 2 8
2 6 10
_
, 1A =
_
3 1 4
1 3 5
_
, 0A =
_
0 0 0
0 0 0
_
.
Cualquier escalar multiplicado por la matriz cero resulta en la matriz cero. Por ejemplo,
3
_
0 0 0
0 0 0
_
=
_
3 0 3 0 3 0
3 0 3 0 3 0
_
=
_
0 0 0
0 0 0
_
.
Las propiedades de la multiplicacin por escalar se resumen en el siguiente teorema.
Teorema B.2.10. Sean A, B matrices del mismo tamao y sean c
1
, c
2
escalares.
a) c(A+B) = cA+cB.
b) (c
1
+c
2
)A = c
1
A+c
2
A.
c) c
1
(c
2
A) = (c
1
c
2
)A.
d) 1 A = A.
e) (1)A = A.
f ) 0 A = 0.
g) c 0 = 0.
Demostracin. Usaremos la notacin [A]
ij
para denotar al elemento (i, j) de la matriz A. Las
pruebas se siguen directamente de la denicin. Por un lado, el elemento (i, j) de la matriz
c(A+B) es de acuerdo con la denicin c[A+B]
ij
; por otro lado, el elemento (i, j) de la matriz
A+B es [A]
ij
+ [B]
ij
. Entonces
[c(A+B)]
ij
= c[A+B]
ij
= c([A]
ij
+ [B]
ij
) = c[A]
ij
+c[B]
ij
= [cA]
ij
+ [cB]
ij
= [cA+cB]
ij
.
Esto prueba el inciso a). El inciso b) se prueba como sigue:
[(c
1
+c
2
)A]
ij
= (c
1
+c
2
)[A]
ij
= c
1
[A]
ij
+c
2
[A]
ij
= [c
1
A]
ij
+ [c
2
A]
ij
Las dems pruebas se dejan al lector.
Observacin B.2.11. El Teorema B.2.7 junto con las propiedades a)-d) del Teorema B.2.10
muestran que el conjunto de las matrices de mn junto con la suma de matrices y la multipli-
cacin por escalar es un espacio vectorial sobre el campo K. Los espacios vectoriales se estudian
en los cursos de lgebra Lineal.
Ejemplo SAGE B.2.12. Las operaciones con matrices estudiadas en esta seccin se pueden
realizar con Sage.
B.3. El anillo de las matrices cuadradas 185
sage: M33 = MatrixSpace(QQ ,3,3); M33
Full MatrixSpace of 3 by 3 dense matrices over Rational Field
sage: A = M33.random_element (); B = M33.random_element ()
sage: A, B
(
[ 1 2 -2] [ 0 0 -2]
[-1/2 2 -1] [-2 -1 0]
[ 1/2 1 -2], [ 2 0 -1]
)
sage: A+B
[ 1 2 -4]
[-5/2 1 -1]
[ 5/2 1 -3]
sage: 2*A
[ 2 4 -4]
[-1 4 -2]
[ 1 2 -4]
sage: -5*B
[ 0 0 10]
[ 10 5 0]
[-10 0 5]
sage: -A
[ -1 -2 2]
[ 1/2 -2 1]
[-1/2 -1 2]
B.3. El anillo de las matrices cuadradas
Las matrices se pueden multiplicar cuando stas tienen las dimensiones adecuadas.
Denicin B.3.1. Sean A K
mn
y B K
nr
. El producto de A por B (tambin llamado
multiplicacin) denotado por AB es la matriz de tamao mr cuyas entradas estn dadas por
[AB]
ij
=
n

k=1
[A]
ik
[B]
kj
, 1 i m, 1 j r.
Si C = AB y se usa la notacin A = (a
ij
) y B = (b
ij
), entonces
c
ij
=
n

k=1
a
ik
b
kj
, 1 i m, 1 j r.
Note que para poder efectuar la multiplicacin de A y B en ese orden, es necesario que el
nmero de columnas de A sea igual al nmero de renglones de B. De otra manera el producto
no est denido. Por ejemplo, si
A =
_
a
11
a
12
a
13
a
21
a
22
a
23
_
y B =
_
_
b
11
b
12
b
13
b
14
b
21
b
22
b
23
b
24
b
31
b
32
b
33
b
34
_
_
el producto de A y B existe ya que el nmero de columnas de A coincide con el nmero de
renglones de B y AB ser una matriz de 2 4. La entrada (1, 1), (1, 2) y (2, 3) de la matriz AB
186 B. Matrices
son
[AB]
11
=
3

k=1
a
1k
b
k1
= a
11
b
11
+a
12
b
21
+a
13
b
31
,
[AB]
12
=
3

k=1
a
1k
b
k2
= a
11
b
12
+a
12
b
22
+a
13
b
32
,
[AB]
23
=
3

k=1
a
2k
b
k3
= a
21
b
13
+a
22
b
23
+a
23
b
33
.
Ejemplo B.3.2. Sea K el campo de los nmeros racionales.
A =
_
0 2 1
1 1 5
_
, B =
_
_
1 2 0 1
1 1 0 2
1 6 7 1
_
_
AB =
_
3 4 7 3
5 29 35 8
_
.
Observamos que AB est denido, pero no BA, pues el nmero de columnas de B con coincide
con el nmero de renglones de A. An cuando estn denidos AB y BA, estos no necesariamente
son iguales:
_
1 1
_
_
3
4
_
= 1,
_
3
4
_
_
1 1
_
=
_
3 3
4 4
_
.
Cuando el producto de dos matrices da como resultado una matriz de 1 1, usualmente no
escriben los parntesis ya que la matriz se identica con el escalar.
Aun cuando A y B sean ambos del mismo tamao, no necesariamente AB = BA. Si ahora,
A =
_
1 1
1 1
_
, B =
_
1 1
1 1
_
= AB =
_
2 2
2 2
_
, BA =
_
0 0
0 0
_
.
Tambin es importante mencionar que las leyes de cancelacin no son validas cuando de
matrices se trata. Es decir, AB = AC con A ,= 0 no necesariamente implica que B = C:
_
1 4
3 1
__
1 1
1 1
_
=
_
5 5
4 4
_
=
_
2 3
4 0
__
1 1
1 1
_
.
Observacin B.3.3. Es importante recalcar lo discutido en el ejemplo anterior.
1. El producto de matrices no es conmutativo.
2. En general no es cierto que si A ,= 0 y B ,= 0 y AB est denido, entonces AB ,= 0.
3. Las leyes de la cancelacin no son aplicables al producto de matrices, i.e., AC = BC o
CA = CB con C ,= 0 no necesariamente implica que A = B.
Si A es una matriz cuadrada, tiene sentido hacer los productos AA = A
2
, AAA = A
3
, etc.
Haremos la convencin que A
0
= I y A
1
= A. Para n 0, denimos A
n+1
= A A
n
.
En el siguiente teorema se supone que las matrices que aparecen son tales que tiene sentido
el producto o la suma indicada.
Teorema B.3.4.
a) El producto de matrices es asociativo: A(BC) = (AB)C.
B.3. El anillo de las matrices cuadradas 187
b) El producto de matrices se distribuye con respecto a la suma:
A(B +C) = AB +AC, Ley distributiva izquierda,
(A+B)C = AC +BC Ley distributiva derecha.
c) Si A es de mn, entonces AI
nn
= I
mm
A = A, donde I
mm
e I
nn
denotan a las matrices
identidad de mm y n n, respectivamente.
d) c(AB) = (aA)B = A(cB).
e) A0 = 0, 0A = 0.
f ) Si A es una matriz cuadrada, para cualesquiera enteros no negativos m, n se tiene:
A
m
A
n
= A
m+n
, (A
m
)
n
= A
mn
.
Demostracin. Haremos algunas prueba. Las dems se dejan de ejercicio al lector.
a) Supongamos que A K
mn
, B K
nr
y C K
rs
. Entonces:
[A(BC)]
ij
=
n

i=1
[A]
ik
[BC]
kj
=
n

i=1
[A]
ik
_
r

=1
[B]
k
[C]
j
_
=
n

i=1
r

=1
[A]
ik
[B]
k
[C]
j
=
r

=1
n

i=1
[A]
ik
[B]
k
[C]
j
=
r

=1
_
n

i=1
[A]
ik
[B]
k
_
[C]
j
=
r

=1
[AB]
i
[C]
j
= [(AB)C]
ij
.
Como para cualquier (i, j) se tiene la igualdad se concluye que A(BC) = (AB)C.
b) Supongamos ahora que A K
mn
y B, C K
nr
. Entonces
[A(B +C)]
ij
=
n

k=1
[A]
ik
[B +C]
kj
=
n

k=1
[A]
ik
([B]
kj
+ [C]
kj
)
=
n

k=1
([A]
ik
[B]
kj
+ [A]
ik
[C]
kj
) =
n

k=1
[A]
ik
[B]
kj
+
n

k=1
[A]
ik
[C]
kj
.
Luego A(B +C) = AB +AC.
c) Veamos que la matriz identidad es el neutro multiplicativo. Supongamos que A es de mn
e I es de n n. Recordando que [I]
kj
= 0 si k ,= j e [I]
kj
= 1 cuando k = j, se tiene
[AI]
ij
=
n

k=1
[A]
ik
[I]
kj
= [A]
ij
.
De manera anloga se muestra que IA = A.
d) Veamos que cAB = (cA)B:
[cAB]
ij
= c[AB]
ij
= c
n

k=1
[A]
ik
[B]
kj
=
n

k=1
(c[A]
ik
)[B]
kj
=
n

k=1
[cA]
ik
[B]
kj
= [(cA)B]
ij
.
188 B. Matrices
Teorema B.3.5. El conjunto K
nn
de las matrices cuadradas de nn junto con las operaciones
de suma y producto de matrices es un anillo con unitario.
Demostracin. Que K
nn
es un anillo con elemento unitario se sigue del Teorema B.2.7 y de
los incisos a), b) y c) del Teorema B.3.4.
Observacin B.3.6. Si n > 1, en general K
nn
no es conmutativo. El siguiente ejemplo ilustra
que puede suceder AB ,= BA.
_
1 0
0 0
__
0 1
0 0
_
=
_
0 1
0 0,
_
,
_
0 1
0 0
__
1 0
0 0
_
=
_
0 0
0 0
_
.
Terminamos la seccin con algunas deniciones de matrices que tienen propiedades particu-
lares.
Denicin B.3.7. a) Una matriz cuadrada A se dice que es nilpotente si A
k
= 0 para algn
entero positivo k.
b) Una matriz cuadrada A es idempotente si A
2
= A.
Ejemplo B.3.8. La matriz A =
_
_
0 1 2
0 0 1
0 0 0
_
_
es nilpotente ya que
A
2
=
_
_
0 0 1
0 0 0
0 0 0
_
_
A
3
=
_
_
0 0 0
0 0 0
0 0 0
_
_
.
Ejemplo B.3.9. La matriz A =
_
1 1
0 0
_
es idempotente, ya que:
A
2
=
_
1 1
0 0
__
1 1
0 0
_
=
_
1 1
0 0
_
.
B.4. La transpuesta de una matriz
Denicin B.4.1. Si A K
mn
, la transpuesta de A es la matriz A
T
de n m dada por:
[A
T
]
ij
= [A]
ji
, 1 i n, 1 j m.
Si x =
_
a
1
. . . a
n
_
es un vector rengln, entonces x
T
se convierte en un vector columna:
x
T
=
_
_
_
a
1
.
.
.
a
n
_
_
_.
Recprocamente, si x es un vector columna, x
T
es un vector rengln.
De acuerdo con la denicin, las entradas en cada rengln de A
T
son las correspondientes
entradas en la columna de A, es decir, si A = [A
1
[ . . . [ A
n
], entonces:
A
T
=
_

_
A
T
1
.
.
.
A
T
n
_

_.
B.4. La transpuesta de una matriz 189
Si A =
_

_
A
1
.
.
.
A
m
_

_, A
T
= [A
T
1
[ . . . [ A
T
m
].
En cualquier caso:
A
T
=
_
_
_
_
_
a
11
a
21
a
m1
a
12
a
22
a
m2
.
.
.
.
.
.
.
.
.
.
.
.
a
1n
a
2n
a
mn
_
_
_
_
_
.
Ejemplo B.4.2. Sea K el campo de los nmeros complejos. Considere las matrices:
A =
_
_
3 2i 5 6
1 +i 2 7
1 + 2i 2 3i 1
_
_
, B =
_
1 1 5
8 3 2
_
.
Entonces:
[A
T
]
11
= 3 2i, [A
T
]
12
= 1 +i, [B
T
]
31
= 5.
Las transpuestas de A y B son:
A
T
=
_
_
3 2i 1 +i 1 + 2i
5 2 2 3i
6 7 1
_
_
, B
T
=
_
_
1 8
1 3
5 2
_
_
,
respectivamente.
Ejemplo SAGE B.4.3. El comando A.transpose() calcula la transpuesta de la matriz A.
sage: A = matrix (3,[3-2*i,-5, 6, 1+i,2 ,7 ,1+2*i,2-3*i, 1]); A
[-2*I + 3 -5 6]
[ I + 1 2 7]
[ 2*I + 1 -3*I + 2 1]
sage: A.transpose ()
[-2*I + 3 I + 1 2*I + 1]
[ -5 2 -3*I + 2]
[ 6 7 1]
sage: B = matrix(2, [1,-1,5,8,-3,2]); B
[ 1 -1 5]
[ 8 -3 2]
sage: B.transpose ()
[ 1 8]
[-1 -3]
[ 5 2]
Las propiedas bsicas de la transpuesta son la siguientes.
Teorema B.4.4. a) (A
T
)
T
= A.
b) (A+B)
T
= A
T
+B
T
.
c) (cA)
T
= cA
T
.
d) (AB)
T
= B
T
A
T
.
190 B. Matrices
Demostracin. Las pruebas de los incisos a), b) y c) se dejan de ejercicio al lector. Supongamos
que A K
mn
y B K
nr
. Para cualquier 1 i m y 1 j r,
[(AB)
T
]
ij
= [AB]
ji
=
n

k=1
[A]
jk
[B]
ki
=
n

k=1
[A
T
]
kj
[B
T
]
ik
=
n

k=1
[B
T
]
ik
[A
T
]
kj
= [B
T
A
T
]
ij
.
Esto prueba el inciso d).
Denicin B.4.5. Se dice que una matriz cuadrada A es simtrica si A = A
T
. Se dice que es
antisimtrica si A = A
T
.
Ejemplo B.4.6. Las matrices A y B a continuacin
A =
_
_
7 2 1
2 2 1
1 1 3
_
_
, B =
_
_
1 2i 3 4i 5 i
3 4i 1 +i 3i
5 i 3i 3
_
_
.
son simtricas; la matriz
C =
_
_
0 10 13
10 0 1
13 1 0
_
_
.
es antisimtrica.
Ejemplo B.4.7. Si A es una matriz de mn, entonces A
T
A y AA
T
son matrices simtricas.
En efecto:
(A
T
A)
T
= A
T
(A
T
)
T
= A
T
A.
De manera similar se prueba que AA
T
es simtrica.
La siguiente denicn se aplica nicamente cuando K es un subcampo del campo de los
nmeros complejos (Para jar ideas el lector puede suponer que K = C).
Denicin B.4.8. Sea K un subcampo del campo de los nmeros complejos. Si A K
mn
, la
matriz conjugada de A es la matriz A de mn dada por:
[A]
ij
= [A]
ij
, 1 i n, 1 j m.
La conjugada transpuesta de A es la matriz A

= A
T
, i.e.,
[A

]
ij
= [A]
ji
, 1 i n, 1 j m.
Ejemplo B.4.9. Se tiene
_
2 4i 1 i 2
3 3 + 4i 0
_

=
_
_
2 + 4i 3
1 +i 3 4i
2 0
_
_
.
Ejemplo SAGE B.4.10. La conjugada y la conjugada transpuesta de una matriz A se obtienen
con los comandos A.conjugate()) y A.conjugate_transpose(), respectivamente.
B.4. La transpuesta de una matriz 191
sage: A = matrix(3, [3-2*i,-5, 6, 1+i,2,7 ,1+2*i,2-3*i,1]); A
[-2*I + 3 -5 6]
[ I + 1 2 7]
[ 2*I + 1 -3*I + 2 1]
sage: A.conjugate ()
[ 2*I + 3 -5 6]
[ -I + 1 2 7]
[-2*I + 1 3*I + 2 1]
sage: A.conjugate_transpose ()
[ 2*I + 3 -I + 1 -2*I + 1]
[ -5 2 3*I + 2]
[ 6 7 1]
Las propiedas bsicas de la transpuesta conjugada son la siguientes.
Teorema B.4.11. a) (A

= A.
b) (A+B)

= A

+B

.
c) (cA)

= cA

.
d) (AB)

= B

.
Demostracin. La prueba se deja de ejercicio para el lector.
Denicin B.4.12. Se dice que una matriz cuadrada A C
nn
es hermitiana si A = A

. Se
dice que es anti-hermitiana si A = A

.
Ejemplo B.4.13. Las siguientes matrices son hermitianas:
_
3 2 i
2 +i 1
_
,
_
_
1 1 +i 3 + 4i
1 i 3 2 i
3 4i 2 +i 5
_
_
,
_
_
1 2 3
2 4 5
3 5 2
_
_
.
La matriz
A =
_
_
i 5 i 2 +i
5 i 3i 2 + 3i
2 +i 2 + 3i 4i
_
_
es una matriz antihermitiana. En efecto, se tiene
A =
_
_
i i + 5 i + 2
i 5 3i 3i + 2
i 2 3i 2 4i
_
_
,
A

= A
T
=
_
_
i i 5 i 2
i + 5 3i 3i 2
i + 2 3i + 2 4i
_
_
.
Por lo tanto, A = A

.
Con Sage:
sage: A = matrix(3, [i, 5-i, 2+i, -5-i, -3*i, 2+3*i,
-2+i,-2+3*i,4*i])
sage: A == -A.conjugate_transpose ()
True
192 B. Matrices
Denicin B.4.14. Sean x y y vectores columna del mismo tamao, es decir, x, y K
n
.
Entonces el producto interno o interior de x y y es el escalar x
T
y, y el producto exterior de x y
y es la matriz de n n xy
T
.
Ejemplo B.4.15. El producto interno y externo de los vectores x =
_
3
1
2
_
y y =
_
1
5
2
_
es:
x
T
y =
_
3 1 2
_
_
_
1
5
2
_
_
= 3(1) + (1)5 + (2)(2) = 4,
xy
T
=
_
_
1
5
2
_
_
_
3 1 2
_
=
_
_
3 15 6
1 5 2
2 10 4
_
_
,
respectivamente.
En Sage se tienen los comandos x.inner_product(y) y x.outer_product(y) para calcular
los productos interno y externo de x y y.
sage: x = vector ([3,-1,2]); y = vector ([-1,5,2])
sage: x.inner_product(y)
-4
sage: x.outer_product(y)
[-3 15 6]
[ 1 -5 -2]
[-2 10 4]
Denicin B.4.16. Sea A K
mn
.
1. Una inversa izquierda de A es una matriz B K
nm
tal que BA = I
n
.
2. Una inversa derecha de A es una matriz B K
nm
tal que AB = I
m
.
3. Suponga que A es una matriz cuadrada. Una matriz B es una inversa de A si AB = BA = I.
Si A tiene una inversa, se dice que es invertible o que es no singular. En otro caso, se dice
que la matriz es no invertible o singular.
Se sigue de la denicin que cuando una matriz es invertible, su inversa es nica. Supongamos
que A tiene dos inversas, digamos B
1
y B
2
. Entonces:
B
1
= B
1
I = B
1
(AB) = (B
1
A)B = IB = B.
La inversa de A (cuando existe) se denota por A
1
.
Ejemplo B.4.17. Sea K el campo de los nmeros racionales y sea A la matriz:
A =
_
3 1 5
8 7 4
_
.
A tiene al menos dos inversas derechas ya que:
_
3 1 5
8 7 4
_
_
_
7
13
1
13
8
13
3
13
0 0
_
_
=
_
1 0
0 1
_
=
_
3 1 5
8 7 4
_
_
_
4
13
4
13
4
13
7
13
1
13

1
13
_
_
.
Del ejemplo anterior se observa que en general, no es vlida la ley cancelativa para matrices,
es decir, es posible tener XA = Y A con A ,= 0 sin que esto implique que X = Y .
B.5. Multiplicacin de matrices en bloques 193
Proposicin B.4.18. Sean A, B matrices no singulares. Entonces:
a) AB es no singular y (AB)
1
= B
1
A
1
.
b) A
1
es no singular y (A
1
)
1
= A.
c) A
T
es no singular y (A
T
)
1
= (A
1
)
T
.
Demostracin. a) Como A y B son ambas no singulares, existen sus respectivas inversas A
1
y
B
1
. Entonces:
(AB)(B
1
A
1
) = A(BB
1
)A
1
= AIA
1
= AA
1
= I.
De manera similar se muestra que (B
1
A
1
)(AB) = I. Esto prueba que la inversa de AB es
B
1
A
1
, es decir, (AB)
1
= B
1
A
1
.
b) Por denicin AA
1
= A
1
A = I. Se sigue que A
1
es invertible y su inversa es A.
c) Se tiene:
(A
1
)
T
A
T
= (AA
1
)
T
= I
T
= I.
Anlogamente se tiene que A
T
(A
1
)
T
= I. As (A
T
)
1
= (A
1
)
T
.
B.5. Multiplicacin de matrices en bloques
Con frecuencia es til considerar una matriz compuesta por una o varias matrices denomi-
nadas submatrices. Una submatriz de una matriz A es una matriz que se obtiene eliminando
cualquier combinacin de columnas y renglones de A.
Por ejemplo, si A =
_
_
_
_
1 1 3 2
3 5 7 2
1 2 9 8
4 0 2 2
_
_
_
_
, las siguientes matrices son submatrices de A:
_
3 5 7 2
4 0 2 2
_
,
_
3 5 2
4 0 2
_
,
_
3 2
2 2
_
.
La primera se obtuvo eliminando los renglones primero y tercero. La segunda se obtuvo elimi-
nando los renglones primero y tercero y la tercera columna. Finalmente, la ltima submatriz se
obtuvo eliminando los renglones segundo y tercero, y las primeras dos columnas.
Al introducir lineas horizontales y verticales en una matriz, podemos particionarla en sub-
matrices o bloques:
_
_
_
_
1 1 0 0
3 5 0 0
0 0 9 8
0 0 2 2
_
_
_
_
.
Supongamos que las matrices A y B estn particionadas en submatrices como se indica a
continuacin:
A =
_
_
_
_
_
A
11
A
12
. . . A
1n
A
21
A
22
. . . A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
. . . A
mn
_
_
_
_
_
, B =
_
_
_
_
_
B
11
B
12
. . . B
1p
B
21
B
22
. . . B
2p
.
.
.
.
.
.
.
.
.
.
.
.
B
n1
B
n2
. . . B
np
_
_
_
_
_
194 B. Matrices
Supongamos que para cada tercia de enteros (i, k, j), 1 i m, 1 k n, 1 j p, las
matrices A
ik
y B
kj
, (1 k n) se pueden multiplicar. Entonces el producto AB est denido
y el (i, j)-simo bloque de AB es
A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
=
n

k=1
A
ik
B
kj
.
En otras palabras, el producto se forma operando los bloques en cada matriz como si fueran
escalares. La multiplicacin de matrices de esta forma en ocasiones resulta til, pues simplica
la notacin.
La prueba de este hecho es sencilla, aunque se debe tener mucho cuidado con los manejos de
los subndices. En lugar de hacer la prueba, ilustraremos la tcnica con ejemplos.
Ejemplo B.5.1. Considere las siguientes matrices particionadas:
A =
_
_
_
_
3 4 1 7 8
4 5 0 1 4
5 1 4 0 0
6 1 5 0 0
_
_
_
_
=
_
A
11
A
12
A
21
A
22
_
,
B =
_
_
_
_
_
_
1 1 1
1 0 1
0 0 3
2 1 2
1 1 1
_
_
_
_
_
_
=
_
B
11
B
12
B
21
B
22
_
Observe que para k = 1, 2 las matrices A
ik
y B
kj
se pueden multiplicar. Entonces
AB =
_
A
11
B
11
+A
12
B
21
A
11
B
12
+A
12
B
22
A
21
B
11
+A
22
B
21
A
21
B
12
+A
22
B
22
_
=
_
_
_
_
15 2 10
5 7 7
6 5 16
5 6 22
_
_
_
_
.
Ejemplo B.5.2. Si
A =
_
_
_
_
3 5 3 0
2 1 0 3
1 0 0 0
0 1 0 1
_
_
_
_
=
_
C 3I
2
I
2
0
_
, B =
_
_
_
_
1 0 2 0
0 1 0 3
0 0 1 0
0 0 0 1
_
_
_
_
=
_
I
2
D
0 I
2
_
,
entonces
AB =
_
CI
2
+ 3I
2
0 CD + 3I
2
2
I
2
+ 0 0 I
2
D + 0 I
2
_
=
_
C CD + 3I
2
I
2
D
_
=
_
_
_
_
3 5 9 15
2 1 4 6
1 0 2 0
0 1 0 3
_
_
_
_
.
Ejemplo B.5.3. A K
mn
y B K
nr
. A es una submatriz de s misma, por lo que
podemos considerarla particionada en un solo bloque. Si B est particionada en columnas,
B = [B
1
[ . . . [ B
r
], se tiene
AB = A[B
1
[ . . . [ B
r
] = [AB
1
[ . . . [ AB
r
].
B.6. La traza de una matriz 195
Si particionamos ahora A en renglones y B en columnas,
AB =
_

_
A
1
A
2
.
.
.
A
m
_

_
[B
1
[ B
2
[ . . . [ B
r
] =
_
_
_
_
_
A
1
B
1
A
1
B
2
. . . A
1
B
r
A
2
B
1
A
2
B
2
. . . A
2
B
r
.
.
.
.
.
.
.
.
.
.
.
.
A
m
B
1
A
m
B
2
. . . A
m
B
r
_
_
_
_
_
.
Ejemplo B.5.4. Si A K
mn
se particiona en columnas [A
1
[ A
2
[ . . . [ A
n
] y x K
n1
en
renglones
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
,
entonces Ax = x
1
A
1
+x
2
A
2
+ +x
n
A
n
.
B.6. La traza de una matriz
Denicin B.6.1. La traza de una matriz A = (a
ij
) K
nn
se dene como la suma de los
elementos de la diagonal principal de A y se denota por tr(A). Esto es,
tr(A) = a
11
+a
22
+ +a
nn
=
n

i=1
a
ii
.
Ejemplo B.6.2. Se tiene
tr
_
_
10 29 0
2 5 8
1 1 15
_
_
= 10 5 + 15 = 20.
Sage provee el comando A.trace() para calcular la traza de la matriz A.
Algunas de las propiedades de la traza se presentan en el siguiente teorema.
Teorema B.6.3.
1) Para cualesquiera matrices A, B K
nn
y cualquier escalar se tiene
a) tr(A+B) = tr(A) + tr(B),
b) tr(A) = tr(A).
En otras palabras, la traza es una funcin lineal.
2) Sean A K
mn
y B K
nm
. Entonces tr(AB) = tr(BA).
3) Si A es una matriz cuadrada, tr(A) = tr(A
T
).
Demostracin. Sean A = (a
ij
), B = (b
ij
) y un escalar. Entonces
tr(A+B) =
n

i=1
(a
ii
+b
ii
) =
n

i=1
a
ii
+
n

i=1
b
ii
= tr(A) + tr(B).
tr(A) =
n

i=1
a
ii
=
n

i=1
a
ii
= tr(A).
196 B. Matrices
Esto prueba el inciso 1).
Sean C = AB y D = BA. Entonces
c
ij
=
n

k=1
a
ik
b
kj
, 1 i m, 1 j n,
d
ij
=
m

k=1
b
ik
a
kj
, 1 i n, 1 j m.
Ntese que AB K
mm
y BA K
nn
. Luego
tr(AB) =
m

i=1
c
ii
=
m

i=1
n

k=1
a
ik
b
ki
=
n

k=1
m

i=1
b
ki
a
ik
=
n

k=1
d
kk
= tr(BA).
Esto prueba el inciso 2).
La demostracin del ltimo apartado es inmediata ya que la diagonal principal de A y de
A
T
son la misma.
Por induccin se puede extender la propiedad 2 del teorema anterior. As, si A
1
, . . . , A
t
son
matrices tales que el producto A
1
A
t
est denido, entonces
tr(A
1
A
t
) = tr(A
t
A
1
A
t1
).
En particular se tiene
tr(ABC) = tr(CAB) = tr(BCA).
Sin embargo, en general no es cierto que tr(ABC) = tr(BAC).
B.7. Matrices elementales
A continuacin se denen las operaciones elementales de rengln(de columna).
Denicin B.7.1. Sea A una matriz de mn. Una operacin elemental de rengln (de columna)
en la matriz A es uno de los siguientes tres tipos de operaciones:
Tipo I. Intercambio de dos renglones (columnas) de A.
Tipo II. Reemplazo de un rengln (una columna) de A por algn mltiplo escalar no nulo de
ste (sta).
Tipo III. Reemplazo de un rengln (una columna) de A por ese rengln (esa columna) ms un
mltiplo escalar no nulo de otro rengln (otra columna).
Utilizaremos la siguiente notacin para indicar el tipo de operacin elemental de rengln que
se aplic para pasar de la matriz A a la matriz B.
Operacin Smbolo Signicado del smbolo
I R
ij
Intercambio de los renglones i y j.
II R
i
(c) Se multiplica por c el rengln i.
III R
ij
(c) Al rengln i se le suma c veces el rengln j.
Para indicar el tipo de operacin elemental de columna que se uso para pasar de la matriz
B.7. Matrices elementales 197
A a la matriz B se usa la siguiente notacion:
Operacin Smbolo Signicado del smbolo
I C
ij
Intercambio de las columnas i y j.
II C
i
(c) Se multiplica por c la columna i.
III C
ij
(c) A la columna i se le suma c veces la columna j.
Ejemplo B.7.2. En cada caso la matriz B se obtuvo de la matriz A aplicando la operacin
elemental de rengln indicada.
A B
_
_
3 5 8 4
2 1 12 6
4 1 7 4
_
_
R13

_
_
4 1 7 4
2 1 12 6
3 5 8 4
_
_
_
_
3 4 1
5 7 11
1 13 4
_
_
R2(3)

_
_
3 4 1
15 21 33
1 13 4
_
_
_
_
1 5 2 3
3 9 5 4
6 7 8 10
_
_
R21(5)

_
_
1 5 2 3
2 16 5 11
6 7 8 10
_
_
_
_
3 5 8 4
2 1 12 6
4 1 7 4
_
_
C12(5)

_
_
7 1 7 4
0 1 12 6
2 5 8 4
_
_
Sage nos ayuda a realizar las tareas rutinarias.
sage: A = matrix (3,[3,5,8,4, 2,1,12,6,4,1,7,4]); A
[ 3 5 8 4]
[ 2 1 12 6]
[ 4 1 7 4]
sage: B = A.with_swapped_rows (0,2); B
[ 4 1 7 4]
[ 2 1 12 6]
[ 3 5 8 4]
sage: A = matrix(3, [-3,4,-1,-5,7,-11,-1,13,-4]); A
[ -3 4 -1]
[ -5 7 -11]
[ -1 13 -4]
sage: B = A.with_rescaled_row (1,3); B
[ -3 4 -1]
[-15 21 -33]
[ -1 13 -4]
sage: A = matrix(3, [-1,5,2,3, -3,9,5,4, 6,-7,8,10]); A
[-1 5 2 3]
[-3 9 5 4]
[ 6 -7 8 10]
sage: B = A.with_added_multiple_of_row (1,0,-5); B
[ -1 5 2 3]
[ 2 -16 -5 -11]
[ 6 -7 8 10]
Sage tambin nos permite trabajar con operaciones elementales de columna:
198 B. Matrices
sage: A.with_added_multiple_of_column (0,1,-2)
[-7 5 8 4]
[ 0 1 12 6]
[ 2 1 7 4]
A las matrices que tiene la forma I uv
T
, donde u y v son vectores columna de n 1 tales
que v
T
u ,= 1, se les llama matrices elementales. La condicin v
T
u ,= 1 es para garantizar que
las matrices elementales sean invertibles. Sea c = 1/(v
T
u 1). Entonces
(I uv
T
)(I cuv
T
) = I cuv
T
uv
T
+cuv
T
uv
T
= I cuv
T
uv
T
+ (cv
T
u)uv
T
= I uv
T
+c(v
T
u 1)uv
T
= I uv
T
+uv
T
= I.
As, las matrices elementales son invertibles y su inversa es nuevamente una matriz elemental:
_
I uv
T
_
1
= I
uv
T
v
T
u 1
.
Nos interesa estudiar las matrices elementales asociadas con las operaciones elementales.
Denicin B.7.3. Una matriz elemental de Tipo I, II o III es una matriz que se obtiene
al aplicar a la matriz identidad I
n
exactamente una operacin elemental de Tipo I, II o III,
respectivamente. E
ij
denota la matriz elemental que se obtiene al aplicar a I
n
la operacin
elemental R
ij
, E
i
(c) denota la matriz elemental que se obtiene al aplicar a la matriz identidad
la operacin elemental R
i
(c), y E
ij
(c) denota la matriz elemental que se obtiene al aplicar a la
matriz identidad la operacin elemental R
ij
(c).
Las matrices elementales de Tipo I, II o III son matrices elementales, es decir, tienen la
forma I uv
T
. Por ejemplo, considere E
13
, la matriz elemental de Tipo I que se obtiene de la
identidad intercambiando los renglones 1 y 3. Se observa que
E
13
=
_
_
0 0 1
0 1 0
1 0 0
_
_
= I
_
_
1 0 1
0 0 0
1 0 1
_
_
= I
_
_
1
0
1
_
_
_
1 0 1
_
,
es decir, E
13
= I (e
1
e
3
)(e
1
e
3
)
T
, donde e
1
, e
2
, e
3
son los vectores unitarios.
Por otro lado, observe que
E
21
(c) =
_
_
1 0 0
c 1 0
0 0 1
_
_
= I +c
_
_
0 0 0
1 0 0
0 0 0
_
_
= I +c
_
_
1
0
0
_
_
_
0 1 0
_
= I +ce
1
e
T
2
.
Se deja de ejercicio al lector vericar que
E
ij
= I (e
i
e
j
)(e
i
e
j
)
T
, E
i
(c) = I (1 c)e
i
e
T
i
, E
ij
(c) = I +ce
i
e
T
j
.
Observacin B.7.4. Las matrices elementales de E
ij
, E
i
(c) y E
ij
(c) se pueden obtener de la
matriz identidad aplicando operaciones elementales de columna:
Tipo I. E
ij
se obtiene de la matriz identidad intercambiando las columnas i y j.
Tipo II. E
i
(c) se obtiene de la matriz identidad multiplicando la columna i por el escalar c.
B.7. Matrices elementales 199
Tipo III. La matriz elemental E
ij
(c) se obtiene aplicando a la matriz identidad la operacin
C
ji
(c), es decir, a la columna j se le suma c veces la columna i.
Ejemplo B.7.5. Sea n = 3. Las matrices elementales E
13
, E
2
(3) y E
21
(5) son:
E
13
=
_
_
0 0 1
0 1 0
1 0 0
_
_
, E
2
(3) =
_
_
1 0 0
0 3 0
0 0 1
_
_
, E
21
(5) =
_
_
1 0 0
5 1 0
0 0 1
_
_
,
respectivamente. La matriz E
13
se obtiene intercambiando las columnas 1 y 3 de la matriz
identidad; E
2
(3) se obtiene multiplicando la columna 2 de la identidad por 3; la matriz E
21
(5)
se obtiene sumando 5 veces la columna 2 a la columna 1, es decir, aplicando a la matriz
identidad la operacin elemental C
12
(5).
Ejemplo SAGE B.7.6. El comando elementary_matrix de Sage sirven para crear matrices
elementales. Para construir las matrices E
ij
, E
i
(c) y E
ij
(c) se usan las instrucciones
1. elementary_matrix(R, n, row1=i, row2=j)
2. elementary_matrix(R, n, row1=i, scale=c),
3. elementary_matrix(R, n, row1=i, row2=j, scale=c),
respectivamente. Tambin se puede usar el comando matrix.elementary. El argumento opcio-
nal R denota al anillo sobre el cual se construirn las matrices. Se debe recordar que en Sage la
numeracin de renglones y columnas empieza en 0.
sage: E1= elementary_matrix (3,row1=0, row2 =2); E1
[0 0 1]
[0 1 0]
[1 0 0]
sage: E2= elementary_matrix (3,row1=1, scale =3); E2
[1 0 0]
[0 3 0]
[0 0 1]
sage: E3= elementary_matrix (3,row1=1, row2=0, scale =-5); E3
[ 1 0 0]
[-5 1 0]
[ 0 0 1]
A continuacin se muestra que multiplicar una matriz elemental E por una matriz A da por
resultado una matriz que se obtiene de la matriz A al aplicar la operacin elemental que se uso
para construir E.
sage: A = matrix (3,[3,5,8,4,2,1,12,6, 4,1,7,4]); A
[ 3 5 8 4]
[ 2 1 12 6]
[ 4 1 7 4]
sage: E1 * A
[ 4 1 7 4]
[ 2 1 12 6]
[ 3 5 8 4]
sage: E2 * A
[ 3 5 8 4]
[ 6 3 36 18]
[ 4 1 7 4]
sage: E3 * A
200 B. Matrices
[ 3 5 8 4]
[-13 -24 -28 -14]
[ 4 1 7 4]
Si escribimos I
n
= (
ij
) y E
ij
= (
rs
), entonces:

rs
=
rs
, r ,= i, j, 1 s n,

is
=
js
, 1 s n,

js
=
is
, 1 s n.
Si E
i
(c) = (
rs
), entonces:

rs
=
rs
, r ,= i, 1 s n,

is
= c
is
, 1 s n.
Finalmente si E
ij
(c) = (
rs
), entonces:

rs
=
rs
, r ,= i, 1 s n,

is
=
is
+c
js
, 1 s n.
Proposicin B.7.7. Sea A K
mn
. Si B es la matriz que se obtiene de A al aplicarle una ope-
racin elemental de rengln, entonces B = EA, donde E es la matriz elemental correspondiente
a la operacin elemental de rengln aplicada a A.
Demostracin. Supongamos que B se obtiene de A al intercambiar los renglones i y j, es decir
A
Rij
//
B . Veamos que B = E
ij
A. Para r ,= i, j, 1 r m, tenemos que:
[E
ij
A]
rs
=
m

k=1

rk
a
ks
=
rr
a
rs
= a
rs
= [B]
rs
, 1 s n.
Adems:
[E
ij
A]
is
=
m

k=1

jk
a
ks
=
jj
a
js
= a
js
= [B]
is
, 1 s n.
[E
ij
A]
js
=
m

k=1

ik
a
ks
=
ii
a
is
= a
is
= [B]
js
, 1 s n.
As B
r
= A
r
si r ,= i, j, B
i
= A
j
y B
j
= A
i
. Esto prueba la igualdad B = E
ij
A.
Supongamos ahora que B se obtiene de A al aplicarle la operacin elemental R
ij
(c). Veamos
que B = E
ij
(c)A. Para r ,= i, 1 r m, tenemos que:
[E
ij
(c)A]
rs
=
m

k=1

rk
a
ks
=
rr
a
rs
= a
rs
= [B]
rs
, 1 s n.
Por otro lado:
[E
ij
(c)A]
is
=
m

k=1
(
ik
+c
jk
)a
ks
=
m

k=1

ik
a
ks
+c
m

k=1

jk
a
ks
=
ii
a
is
+c
jj
a
js
= a
is
+ca
js
= [B]
is
, 1 s n.
Luego B
r
= A
r
si r ,= i, B
i
= A
i
+ cA
j
. As B = E
ij
(c)A. Se deja al lector probar que si
B se obtiene de A al aplicarle la operacin elemental R
i
(c), entonces B = E
i
(c)A.
B.7. Matrices elementales 201
Proposicin B.7.8. Sea A K
mn
. Si B es la matriz que se obtiene de A al aplicarle una ope-
racin elemental de columna, entonces B = AE, donde E es la matriz elemental correspondiente
a la operacin elemental de columna aplicada a A.
Demostracin. La prueba se puede hacer de manera anloga a la prueba de la Proposicin B.7.7.
Sin embargo, no lo haremos as, para ilustrar otra forma en la que se puede proceder. Supongamos
que B se obtiene de A intercambiando las columnas i y j. Sea E la correspondiente matriz
elemental. Es fcil vericar que E = I vv
T
, donde v = e
i
e
j
. Entonces
AE = AAvv
T
= A(Ae
i
Ae
j
)(e
T
i
e
T
j
)
= A([A]
i
[A]
j
)(e
T
i
e
T
j
)
= A
_
([A]
i
[A]
j
)e
T
i
([A]
i
[A]
j
)e
T
j
_
As se tiene
AE = A
columna i
columna j
0 a
1i
a
1j
a
1j
a
1i
0
0 a
2i
a
2j
a
2j
a
2i
0
.
.
.
.
.
.
.
.
.
.
.
.
0 a
mi
a
mj
a
mj
a
mi
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
de donde se sigue el resultado.
Si B se obtiene de A aplicando la operacin C
ij
(c) y E es la matriz elemental correspondiente,
entonces E = I +ce
j
e
T
i
. Luego
AE = A+c(Ae
j
)e
T
i
= A+c[A]
j
e
T
i
= A+c
_
_
_
_
_
0 a
1j
0
0 a
2j
0
.
.
.
.
.
.
.
.
.
0 a
nj
0
_
_
_
_
_
,
donde la columna j de A aparece en la columna i de la matriz (Ae
j
)e
T
i
.
Para el caso que falta, la matriz elemental correspondiente es E = I (1 c)e
i
e
T
i
. Se deja
al lector como ejercicio completar la prueba.
Ejemplo B.7.9. Para las matrices del Ejemplo B.7.2 se tiene:
_
_
4 1 7 4
2 1 12 6
3 5 8 4
_
_
=
_
_
0 0 1
0 1 0
1 0 0
_
_
_
_
3 5 8 4
2 1 12 6
4 1 7 4
_
_
,
_
_
3 4 1
15 21 33
1 13 4
_
_
=
_
_
1 0 0
0 3 0
0 0 1
_
_
_
_
3 4 1
5 7 11
1 13 4
_
_
,
_
_
1 5 2 3
2 16 5 11
6 7 8 10
_
_
=
_
_
1 0 0
5 1 0
0 0 1
_
_
_
_
1 5 2 3
3 9 5 4
6 7 8 10
_
_
,
_
_
7 5 8 4
0 1 12 6
2 1 7 4
_
_
=
_
_
3 5 8 4
2 1 12 6
4 1 7 4
_
_
_
_
_
_
1 0 0 0
2 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
.
202 B. Matrices
Proposicin B.7.10. Las matrices elementales son invertibles. Ms an:
1. E
1
ij
= E
ji
= E
ij
.
2. E
i
(c)
1
= E
i
(1/c) con c ,= 0.
3. E
ij
(c)
1
= E
ij
(c) con i ,= j.
Demostracin. a) Sea B = E
ij
E
ji
. Como E
ij
es una matriz elemental, por la Proposicin B.7.7,
B se obtiene de E
ji
intercambiando los renglones i y j. Luego B = I. Anlogamente E
ji
E
ij
=
I.
b) E
i
(c) se obtiene de la matriz identidad multiplicando el rengln c. Por la Proposicin B.7.7,
E
i
(1/c)E
i
(c) es la matriz que se obtiene de E
i
(c) multiplicando su i-simo rengln por 1/c.
Luego E
i
(1/c)E
i
(c) = I. Anlogamente E
i
(c)E
i
(1/c) = I.
c) La prueba es similar a las anteriores y se deja de ejercicio al lector.
Proposicin B.7.11. Si la matriz B se obtiene de la matriz A al aplicar una sucesin nita
de operaciones elementales de rengln, es decir:
A
R1
A
1
R2
A
2

Rs
A
s
= B,
entonces B = PA, para algna matriz invertible P.
Demostracin. Sea E
i
la matriz elemental correspondiente a la operacin elemental R
i
. Entonces
A
1
= E
1
A,
A
2
= E
2
A
1
= E
2
E
1
A,
.
.
.
B = A
s
= E
s
E
2
E
1
A.
Como las matrices elementales son invertibles, P = E
s
E
2
E
1
es una matriz invertible y
B = PA.
Ejemplo B.7.12. Suponga que a la matriz A =
_
_
2 2 2
4 7 7
6 18 22
_
_
R
33
se le aplican las
operaciones elementales indicadas y se obtiene la matriz B.
A
R21(2)
A
1
R31(3)
A
2
R32(4)

_
_
2 2 2
0 3 3
0 0 4
_
_
= B.
Entonces,
B = E
32
(4)E
31
(3)E
21
(2)A =
_
_
1 0 0
2 1 0
5 4 1
_
_
_
_
2 2 2
4 7 7
6 18 22
_
_
.
La siguiente proposicin es una generalizacin de la proposicin anterior.
Proposicin B.7.13. Si la matriz B se obtiene de la matriz A al aplicar una sucesin nita
de operaciones elementales, entonces B = PAQ para algunas matrices invertibles P y Q.
Demostracin. Se deja de ejercicio al lector.
B.8. Mtodo de eliminacin de Gauss 203
Ejemplo B.7.14. A la matriz A =
_
_
1 2 7 38
1 2 6 33
7 14 45 246
_
_
se le aplican las operaciones
elementales de rengln indicadas a continuacin para obtener la matriz E
A
.
A
R21(1)
A
1
R31(7)
A
2
R32(4)
A
3
R12(7)
E
A
=
_
_
1 2 0 3
0 0 1 5
0 0 0 0
_
_
.
Aplicando operaciones elementales de columna a E
A
se obtiene
E
A
C23
A
5
C31(2)
A
6
C41(3)
A
7
C42(5)
A
8
=
_
_
1 0 0 0
0 1 0 0
0 0 0 0
_
_
De esta manera se tiene que
A
8
= E
12
(7)E
32
(4)E
31
(7)E
21
(1)AE
23
E
13
(2)E
14
(3)E
24
(5) = PAQ,
donde
P =
_
_
6 7 0
1 1 0
3 4 1
_
_
y Q =
_
_
_
_
1 0 2 3
0 0 1 0
0 1 0 5
0 0 0 1
_
_
_
_
.
B.8. Mtodo de eliminacin de Gauss
Las operaciones elementales se usan, entre otras aplicaciones, para llevar una matriz a una
forma escalonada por renglones o a su forma escalonada reducida por renglones. En esta seccin
se estudian las matrices en forma escalonada por renglones y el mtodo de eliminacin guassiana
para llevar una matriz a una forma escalonada.
Denicin B.8.1 (Forma escalonada por renglones). Se dice que una matriz E K
mn
est
en forma escalonada si se cumplen las siguientes dos condiciones:
1. Todos los renglones que consisten nicamente de ceros, si los hay, estn en la parte inferior
de la matriz.
2. La primera entrada diferente de cero en el resto de los renglones, est a la derecha de la
primera entrada diferente de cero del rengln anterior.
En los renglones no nulos, la primera entrada distinta de cero se llama elemento pivotal o
simplemente pivote
Las siguientes matrices estn en forma escalonada. Los pivotes estn encerrados en un crculo.
1 4 1 2 4
0 0 0 2 3
0 0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0
0 1 2
0 0 3
_
_
_
_
_
_
_
_
_
_
_
_
2 4 1 2
0 0 1 3
0 0 0 0
_
_
_
_
_
_
_
_
_
_
2 0 0
0 1 0
0 0 3
_
_
_
_
_
_
_
_
_
_
_
_
204 B. Matrices
En general, la forma escalonada de una matriz se ve como sigue:
_
_
_
_
_
_
_
_
_
*
0 *
0 0 0 *
0 0 0 0 0 *
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
,
donde los pivotes son las entradas encerradas en un cuadro.
Mtodo de Eliminacin de Gauss
Explicaremos con un ejemplo el Mtodo de eliminacin de Gauss para llevar una matriz a
una forma escalonada. La estrategia general consiste, jarnos en la entrada (1, 1) de la matriz y
usarla como pivote para eliminar todas las entradas por debajo esta posicin pivotal, aplicando
operaciones elementales de rengln. Los pivotes deben ser distintos de cero. Si el escalar en la
posicin pivotal es cero, entonces se intercambia ese rengln por algn rengln debajo de l para
producir un pivote distinto de cero.
Ejemplo B.8.2. Usando el Mtodo de eliminacin de Gauss, encuentre una forma escalonada
por renglones de la matriz
A =
_
_
3 1 2 2
3 1 2 2
1 0 1 9
_
_
.
Escriba PA = E, donde P es una matriz invertible y E es una matriz en forma escalonada.
Solucin. El elemento en la posicin (1, 1) es distinto de cero, as que se toma como pivote
este elemento y se producen ceros en las posiciones (2, 1) y (3, 1) aplicando las operaciones
elementales R
21
(1) y R
31
(1/3):
A
R21(1)

_
_
3 1 2 2
0 2 0 4
1 0 1 9
_
_
R31(1/3)

_
_
3 1 2 2
0 2 0 4
0
1
3
1
3
29
3
_
_
= A
2
A continuacin, se concentra uno en el segundo rengln. La primera entrada distinta de cero
est en la posicin (2, 2). As la nueva posicin pivotal ser la (2, 2) y el pivote sera 2. Para
introducir un cero en la posicin (3, 2) se aplicar la operacin elemental E
32
(1/6) a la matriz
A
2
. As
A
2
R32(1/6)

_
_
3 1 2 2
0 2 0 4
0 0
1
3
9
_
_
= E
La matriz E est en forma escalonada por renglones. Dado que R
32
(1/6)E
31
(1/3)E
21
(1)A = E,
la matriz
P = R
32
(1/6)E
31
(1/3)E
21
(1) =
_
_
1 0 0
1 1 0

1
6
1
6
1
_
_
es tal que PA = E. Para construir P se puede efectuar la multiplicacin de las matrices involu-
cradas. Tambin es posible construir P aplicando a la matriz identidad la secuencia operaciones
B.8. Mtodo de eliminacin de Gauss 205
elementales que se usaron para obtener la matriz E.
I
R21(1)

_
_
1 0 0
1 1 0
0 0 1
_
_
R31(1/3)

_
_
1 0 0
1 1 0

1
3
0 1
_
_
R32(1/6)

_
_
1 0 0
1 1 0

1
6
1
6
1
_
_
= P.
Las operaciones elementales de rengln que se aplican a A son las mismas operaciones ele-
mentales que se aplican a la matriz identidad para obtener la matriz P tal que PA = E. Estas
operaciones elementales se pueden aplicar de manera simultnea a las matrices A e I para ob-
tener las matrices E y P. Para esto se construye la matriz aumentada [A [ I] y se le aplican
las operaciones elementales necesarias para construir una forma escalonada de A. Al nal del
proceso se obtiene la matriz [E [ P].
_
_
3 1 2 2 1 0 0
3 1 2 2 0 1 0
1 0 1 9 0 0 1
_
_
R21(1)

R31(1/3)
_
_
3 1 2 2 1 0 0
0 2 0 4 1 1 0
0
1
3
1
3
29
3

1
3
0 1
_
_
R32(1/6)

_
_
3 1 2 2 1 0 0
0 2 0 4 1 1 0
0 0
1
3
9
1
6
1
6
1
_
_
= [E [ P].
La instruccin echelon_form() de Sage construye una forma escalonada por renglones de
la matriz A.
sage: A = matrix( 3, [3,1,2,-2, -3,1,-2,-2, 1,0,1,9]); A
[ 3 1 2 -2]
[-3 1 -2 -2]
[ 1 0 1 9]
sage: A.echelon_form ()
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]
Usando la opcin transformation = True, se obtiene adems de una forma escalonada, una
matriz invertible P tal que P A = E.
sage: E, P = A.echelon_form(transformation = True); E, P
(
[ 1 0 1 9] [ 0 0 1]
[ 0 1 1 25] [ 0 1 3]
[ 0 0 2 54], [-1 1 6]
)
sage: P * A
[ 1 0 1 9]
[ 0 1 1 25]
[ 0 0 2 54]
Ejemplo B.8.3. Encuentre una forma escalonada de la matriz
A =
_
_
0 1 3 2
0 2 3 5
0 1 4 5
_
_
.
Solucin.
A
R21(2)

R31(1)
_
_
0 1 3 2
0 0 3 9
0 0 1 3
_
_
R32(1/3)

_
_
0 1 3 2
0 0 3 9
0 0 0 0
_
_
.
206 B. Matrices
B.9. Mtodo de eliminacin de Gauss-Jordan
En esta seccin se estudia el mtodo de eliminacin de Gauss-Jordan encontrar la forma
escalonada reducida de una matriz. Primero la denicin de lo que se entiende por una matriz
en forma escalonada reducida.
Denicin B.9.1 (Forma escalonada reducida por renglones). Se dice que una matriz E
K
mn
est en la forma escalonada reducida por renglones si:
1. E est en forma escalonada.
2. La primera entrada distinta de cero en cada rengln es 1 (es decir, cada pivote es 1).
3. Cada pivote es la nica entrada distinta de cero en su columna.
La tcnica de eliminacin de Gauss-Jordan es una variante de la eliminacin gaussiana. Son
dos las caractersticas que hacen diferente el mtodo de Gauss-Jordan del mtodo de Gauss:
a) En cada paso del proceso, cada pivote debe convertirse en 1.
b) En cada paso del proceso, todas las entradas arriba y abajo de un pivote deben convertirse
en 0.
Mtodo de eliminacin de Gauss-Jordan
Explicaremos con un ejemplo el Mtodo de eliminacin de Gauss-Jordan para llevar una
matriz a una forma escalonada reducida.
Ejemplo B.9.2. Usando el Mtodo de Gauss-Jordan, determine la forma escalonada reducida
por renglones de la matriz A.
A =
_
_
3 1 2 2
3 1 2 2
1 0 1 9
_
_
Determine P invertible de tal manera que PA = E
A
, donde E
A
es la forma escalonada reducida
de A.
Solucin. Dado que la entrada (1, 1) es distinto de cero, esta ser la posicin pivotal inicial.
Lo primero que se hace producir un 1 en la posicin pivotal aplicando una operacin elemental
de Tipo II. A continuacin, las entradas que se encuentran por debajo de la posicin pivotal se
convierten en ceros, mediante la aplicacin de operaciones elementales de Tipo III.
A
R1(1/3)

_
_
1
1
3
2
3

2
3
3 1 2 2
1 0 1 9
_
_
R21(3)

R31(1)
_
_
1
1
3
2
3

2
3
0 2 0 4
0
1
3
1
3
29
3
_
_
= A
2
Se pasa ahora al segundo rengln. Dado que la posicin (2, 2) es distinta de cero, esta ser la
nueva posicin pivotal. Se aplica una operacin elemental de Tipo II. Posteriormente, se aplican
operaciones elementales de Tipo III para producir ceros en las entradas por arriba y por debajo
de la posicin pivotal.
A
2
R2(1/2)

_
_
1
1
3
2
3

2
3
0 1 0 2
0
1
3
1
3
29
3
_
_
R12(1/3)

R32(1/3)
_
_
1 0
2
3
0
0 1 0 2
0 0
1
3
9
_
_
= A
4
B.10. Algoritmo de Gauss-Jordan para calcular la inversa 207
Como siguiente paso a la matriz A
4
, se le aplica operaciones elementales de los Tipos II y
III para producir un 1 en la posicin (3, 3) y cero en la posicin (1, 3).
A
4
R3(3)

_
_
1 0
2
3
0
0 1 0 2
0 0 1 27
_
_
R13(2/3)

_
_
1 0 0 18
0 1 0 2
0 0 1 27
_
_
= E
A
.
La matriz invertible
P = E
13
(2/3)E
3
(3) E
21
(3)E
1
(1/3) =
_
_
1
2

1
2
2
1
2
1
2
0

1
2
1
2
3
_
_
es tal que PA = E
A
.
Utilizando la instruccin rref() de Sage se obtiene la forma escalonada reducida E
A
:
sage: A.rref()
[ 1 0 0 -18]
[ 0 1 0 -2]
[ 0 0 1 27]
B.10. Algoritmo de Gauss-Jordan para calcular la inversa
Finalizamos con el Mtodo de Gauss-Jordan para calcular la inversa de una matriz cuadrada.
El mtodo se basa en el siguiente resultado (Teorema 1.5.3): una matriz cuadrada es invertible
si y solamente si su forma escalonada reducida es la matriz identidad.
Sea A una matriz cuadrada.
1. Construya la matriz aumentada [A [ I], donde I es la matriz identidad de orden n.
2. Lleve la matriz [A [ I] [E
A
[ P] a su forma escalonada reducida.
3. Si E
A
es la matriz identidad, entonces A es invertible y A
1
= P. En caso contrario, A
no es invertible.
Ejemplo B.10.1. Calcule la inversa, si la tiene, de la matriz A =
_
_
2 1 1
1 1 1
3 2 3
_
_
.
Solucin. Se forma la matriz aumentada [A [ I] y se lleva a su forma escalonada reducida.
[A [ I]
R1(1/2)

_
_
1
1
2

1
2
1
2
0 0
1 1 1 0 1 0
3 2 3 0 0 1
_
_
R21(1)

R31(3)
_
_
1
1
2

1
2
1
2
0 0
0
3
2
1
2
1
2
1 0
0
7
2
3
2
3
2
0 1
_
_
R2(2/3)

_
_
1
1
2

1
2
1
2
0 0
0 1
1
3

1
3

2
3
0
0
7
2
3
2
3
2
0 1
_
_
R12(1/2)

R32(7/2)
_
_
1 0
2
3
1
3

1
3
0
0 1
1
3

1
3

2
3
0
0 0
1
3
1
3

7
3
1
_
_
R3(3)

_
_
1 0
2
3
1
3

1
3
0
0 1
1
3

1
3

2
3
0
0 0 1 1 7 3
_
_
R13(2/3)

R23(1/3)
_
_
1 0 0 1 5 2
0 1 0 0 3 1
0 0 1 1 7 3
_
_
.
Dado que la forma escalonada reducida de A es la matriz identidad, se concluye que A es
invertible y su inversa aparece en el lado derecho de la segunda matriz en la lnea anterior.
208 B. Matrices
Ejemplo B.10.2. Calcule la inversa, si la tiene, de la matriz A =
_
_
1 1 1
2 1 2
1 1 1
_
_
.
Solucin. Se forma la matriz aumentada [A [ I] y se lleva a su forma escalonada reducida.
[A [ I] =
_
_
1 1 1 1 0 0
2 1 2 0 1 0
1 1 1 0 0 1
_
_

_
_
1 0
1
3
0
1
3

1
3
0 1
4
3
0
1
3

2
3
0 0 0 1 0 1
_
_
= [E
A
[ P]
Dado que la forma escalonada reducida de la matriz A no es la matriz identidad, se concluye
que A no es invertible.
B.11. Ejercicios
1. Determine los elementos [A]
12
, [A]
31
y [A]
33
de la matriz
A =
_
_
1 1 1
14 8 13
36 1 3
_
_
.
Escriba la diagonal principal de A.
2. Provea ejemplos de matrices triangulares superiores, triangulares inferiores y matrices diago-
nales.
3. Provea ejemplos de matrices simtricas y antisimtricas.
4. Provea ejemplos de matrices hermitianas y anti-hermitianas.
5. Si
A =
_
1 2 2
1 5 5
_
, B =
_
0 6 11
1 2 0
_
,
C =
_
1 3
1 1
_
, D =
_
10 2
2 1
_
,
realice si es posible hacerlo, las siguientes operaciones:
a) A+B, b) 5A, c) D, d) A+D,
e) 2C + 5D, f) AB, g) A
T
+B
T
, h) AC,
i) DB, j) CA+DB, k) A
10
, l) C
3
.
6. Determine la matriz X si 5X =
_
5 5 5
30 10 0
_
.
7. Si A =
_
_
2 1 1
0 0 1
1 2 4
_
_
, B =
_
_
3 0
2 7
5 1
_
_
y C =
_
_
1
1
1
_
_
, calcule los siguientes
productos siempre que sea posible:
a) AB, b) BA, c) CB d) C
T
B, e) A
2
f) B
2
,
g) C
T
C h) CC
T
i) BB
T
j)B
T
B k) C
T
AC.
8. Encuentre los valores de x y y de tal manera que
_
_
4 14 0 3
3 0 1 1
0 3 1 12
_
_
+
_
_
2 3 y 1 1
1 1 2 1
1 2 1 8 x
_
_
=
_
_
2 2 x 1 2
2 1 1 0
1 1 0 5 y
_
_
.
B.11. Ejercicios 209
9. Encuentre los valores de x, y de tal manera que
_
_
2 1 1 1
1 x y 3
3 4 3 1
_
_
_
_
_
_
2 5 5 1
x 0 3 62
0 0 3 1
y 0 1 3
_
_
_
_
=
_
_
5 10 5 58
13 5 11 194
16 15 5 245
_
_
.
10. Verique que cada una de las siguientes matrices son nilpotentes:
_
0 c
0 0
_
,
_
_
0 1 1
0 0 2
0 0 0
_
_
,
_
_
0 1 0
0 0 0
0 2 0
_
_
,
_
_
_
_
0 1 3 2
0 0 3 5
0 0 0 4
0 0 0 0
_
_
_
_
11. Verique que cada una de las siguientes matrices son idempotentes:
_
0 0
1 1
_
,
_
1 0
1 0
_
,
_
1 0
0 0
_
,
_
1
3
1
3

2
1
3

2
2
3
_
.
12. Sea 0 a 1 un nmero real. Verique que la matriz
A =
_
a

a a
2

a a
2
1 a
_
es una matriz idempotente.
13. Sean A y B matrices cuadradas idempotentes tales que AB = BA. Pruebe que AB es
idempotente.
14. Calcule el producto de las siguientes matrices triangulares superiores:
A =
_
_
1 1 0
0 2 1
0 0 3
_
_
, B =
_
_
3 1 1
0 2 5
0 0 2
_
_
.
15. Sean A y B matrices de n n triangulares superiores.
a) Pruebe que AB es una matriz triangular superior.
b) Pruebe que [AB]
ii
= [A]
ii
[B]
ii
para i = 1, 2, . . . , n.
16. Calcule el producto de las triangulares inferiores:
A =
_
_
_
_
1 2 3 4
0 0 1 2
0 0 2 1
0 0 0 4
_
_
_
_
, B =
_
_
_
_
0 2 1 0
0 2 1 2
0 0 1 1
0 0 0 2
_
_
_
_
.
17. Sean A y B matrices de n n triangulares inferiores.
a) Pruebe que AB es una matriz triangular inferior.
b) Pruebe que [AB]
ii
= [A]
ii
[B]
ii
para i = 1, 2, . . . , n.
18. Calcule la traza de las siguientes matrices:
_
_
0 2 11
2 2 1
29 8 23
_
_
,
_
_
29 4 22
12 1 1
47 1 4
_
_
,
_
_
1 + 5i 1 i
8 3 5i 2 +i
3 + 13i 4 8
_
_
.
210 B. Matrices
19. De ejemplos de matrices tales que tr(A) = tr(B) y A ,= B.
20. Si A y B son matrices del mismo tamao tales que tr(A) = 12 y tr(B) = 4, calcule la traza
de las siguientes matrices: 8A, 5B, 4A
T
, 2A+ 3B y 3A
T
.
21. Sean A y B matrices de mn y n r, respectivamente. Pruebe que tr(AB) = tr(B
T
A
T
).
22. Sea A =
_
a
11
a
12
a
13
a
21
a
22
a
23
_
. Verique que la entrada (1, 1) de AA
T
es a
2
11
+ a
2
12
+ a
2
13
y que
la entrada (2, 2) de AA
T
es a
2
21
+a
2
22
+a
2
23
. Calcule la traza de AA
T
.
23. Generalice el ejercicio anterior. Es decir, si A K
mn
, pruebe que la entrada (i, i) de la
matriz AA
T
est dada por
[AA
T
]
ii
=
n

j=1
[A]
2
ij
.
24. Sea A R
23
tal que tr(AA
T
) = 0. Pruebe que A es la matriz cero.
25. Sea A una matriz de nn. Use las propiedades de la traza para mostrar que no existe ninguna
matriz X tal que AX XA = I, donde I es la matriz identidad.
26. Sean A y B matrices cuadradas. Es cierto que (A + B)
2
= A
2
+ 2AB + B
2
? Por qu?
Justique su respuesta.
27. Sean A y B matrices de m n. Suponga que Ax = Bx para todos los vectores columna de
n 1. Pruebe que A = B (Sugerencia: Empiece con matrices de 2 2 o 2 3 y elija valores
particulares para x, por ejemplo x =
_
1 0
_
T
o x =
_
1 0 0
_
T
).
28. Sean A, B matrices simtricas tales que AB = BA. Pruebe que AB es una matriz simtrica.
29. Pruebe que si A y B son matrices simtricas del mismo tamao, entonces A+B es una matriz
simtrica.
30. Pruebe que si A es simtrica, entonces tambin lo son A
T
y cA donde c es cualquier escalar.
31. Pruebe que si A C
nn
es hermitiana y c es un nmero real, entonces cA tambin es una
matriz hermitiana.
32. Sea A C
mn
. Pruebe que las matrices A

A y AA

son matrices hermitianas.


33. Pruebe que si A, B C
nn
son matrices hermitianas, entonces A+B tambin es una matriz
hermitiana.
34. Pruebe que si A, B C
nn
son matrices hermitianas tales que AB = BA, entonces AB
tambin es una matriz hermitiana.
35. Pruebe que si A C
nn
es una matriz hermitiana, entonces Im[A]
ii
= 0 para todo i. En
otras palabras, pruebe que los elementos de la diagonal principal son nmeros reales.
36. Pruebe las siguientes armaciones:
a) Si A es una matriz anti-simtrica, entonces [A]
ii
= 0 para toda i.
b) Si A C
nn
es una matriz anti-hermitiana, entonces Re[A]
ii
= 0 para toda i.
37. Sea A una matriz cuadrada. Pruebe que A+A
T
es simtrica y AA
T
es ansimtrica.
B.11. Ejercicios 211
38. Sea A C
nn
una matriz cuadrada. Pruebe que A+A

es una matriz hermitiana y AA

es anti-hermitiana.
39. Determine si las siguientes matrices estn o no en una forma escalonada.
_
_
_
_
4 3 2 1
0 0 5 1
0 0 0 4
0 0 0 1
_
_
_
_
,
_
_
3 2 1
0 1 3
0 0 0
_
_
,
_
_
1 2 3 4
0 0 1 2
0 0 0 1
_
_
,
_
_
1 5 1 2
0 0 0 0
0 1 0 3
_
_
_
_
_
_
2 4 6 8
0 0 1 2
0 1 3 1
0 0 0 1
_
_
_
_
,
_
0 1 0
0 0 1
_
,
_
_
0 0 0
0 0 0
0 0 0
_
_
,
_
_
0 0 1
0 0 0
0 0 0
_
_
.
40. Encuentre una forma escalonada para cada una de las siguientes matrices:
_
_
2 8 1 2
2 1 1 3
1 1 8 1
_
_
,
_
_
_
_
4 2 0 9
2 1 1 6
2 1 1 6
2 1 5 3
_
_
_
_
,
_
_
1 1 4 1
2 2 1 1
3 9 1 1
_
_
,
_
_
_
_
1 1 2
2 2 5
1 2 1
0 2 2
_
_
_
_
41. Encuentre la forma escalonada reducida de cada una de las matrices del inciso anterior.
42. Encuentre la inversa, si existe, de cada una de las siguientes matrices.
_
_
3 1 1
4 1 1
1 1 2
_
_
,
_
_
1 2 1
1 2 1
4 2 1
_
_
,
_
_
_
_
1 1 1 1
2 1 2 1
1 1 1 2
2 1 1 1
_
_
_
_
,
_
_
_
_
1 1 1 5
1 1 1 2
2 4 27 13
1 1 1 3
_
_
_
_
.
43. Determine los valores de de tal manera que la forma escalonada reducida de la matriz
A =
_
_
1 2 3
2 6
1 3 3
_
_
no sea la matriz identidad. Para que valores de es A invertible?
44. Determine los valores de de tal manera que la matriz A =
_
_
1 1
1 1
1 1 1
_
_
sea invertible.
212 B. Matrices
APNDICE C
Soluciones a ejercicios seleccionados
Captulo 1. Sistemas de ecuaciones lineales
1.1.2.1. La matriz y el vector de trminos independientes son
sage: A = matrix (4,[0,0,-2,1/2,0, -1,0,0,-2,-2, 2,1,0,0,1, 0,0,-2,-1,1])
sage: A
[ 0 0 -2 1/2 0]
[ -1 0 0 -2 -2]
[ 2 1 0 0 1]
[ 0 0 -2 -1 1]
sage: b = vector ([ -1 ,1/14 ,2 ,3/2]); b.column ()
[ -1]
[1/14]
[ 2]
[ 3/2]
Se denen las variables x
1
, . . . , x
5
para formar las ecuaciones y resolver el sistema.
sage: var(x1 x2 x3 x4 x5)
(x1 , x2 , x3, x4, x5)
sage: ec1 = (A*x-b)[0]; ec1
-2*x3 + 1/2*x4 + 1
sage: ec2 = (A*x-b)[1]; ec2
-x1 - 2*x4 - 2*x5 - 1/14
sage: ec3 = (A*x-b)[2]; ec3
2*x1 + x2 + x5 - 2
sage: ec4 = (A*x-b)[3]; ec4
-2*x3 - x4 + x5 - 3/2
sage: solve([ec1 ,ec2 ,ec3 ,ec4],x1 ,x2 ,x3 ,x4,x5)
[[x1 == -10/3*r1 + 137/42 , x2 == 17/3*r1 - 95/21, x3 == 1/6*r1 + 1/12,
x4 == 2/3*r1 - 5/3, x5 == r1]]
El sistema es indeterminado pues hay al menos dos soluciones, cuando r = 0 y cuando r = 1.
213
214 C. Soluciones a ejercicios seleccionados
1.1.2.7. Supongamos que Ax
1
= Ax
2
= b con x
1
,= x
2
. Entonces A(x
1
x
2
) = Ax
1
Ax
2
=
bb = 0. Para k R, sea y
k
= x
1
+k(x
1
x
2
). Entonces Ay
k
= Ax
1
+kA(x
1
x
2
) = b+k 0 = b
y y
k
es solucin. Se observa que si k
1
,= k
2
entonces y
k1
,= y
k2
. En efecto, si y
k1
= y
k2
, entonces
(k
1
k
2
)(x
1
x
2
) = 0 y como x
1
x
2
,= 0, se sigue que k
1
= k
2
. Por lo tanto el conjunto
y
k
[ k R es innito.
1.1.2.8. Sugerencia. Dena y = Ax. Entonces Ay = x. Sean A = (a
ij
), x = (x
1
, . . . , x
n
)
T
e
y = (y
1
, . . . , y
n
)
T
, donde a
ij
, x
k
, y
l
son todos nmeros reales positivos. Entonces,
y
1
= a
11
x
1
+a
12
x
2
+ +a
1n
x
n
, x
1
= a
11
y
1
+a
12
y
2
+ +a
1n
y
n
,
y
2
= a
21
x
1
+a
22
x
2
+ +a
2n
x
n
, x
2
= a
21
y
1
+a
22
y
2
+ +a
2n
y
n
,
.
.
.
.
.
.
y
n
= a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
, x
n
= a
n1
y
1
+a
n2
y
2
+ +a
nn
y
n
.
Sea c = mn
y1
x1
,
y2
x2
, . . . ,
yn
xn
, c > 0. Demuestre que x
j
cy
j
debe ser igual a 0 para todo
j = 1, . . . , n y siga por cuenta propia.
1.2.3.1. La forma escalonada reducida es
_
_
_
_
_
_
1 0 0 0
6
19

10
19
9
19
0 0 1 0 0 6 0
0 0 0 1
35
19

71
19
62
19
0 0 0 0 0 0 0
0 0 0 0 0 0 0
_
_
_
_
_
_
.
1.2.3.3. La forma escalonada reducida de la matriz aumentada del sistema es
_
_
1 0
5
6
7
6
1
6
b
1

1
6
b
2
0 1
1
3

1
3
2
3
b
1
+
1
3
b
2
0 0 0 0 b
1
+b
2
+b
3
_
_
.
El sistema tiene solucin si y solamente si b
1
+b
2
+b
3
= 0.
1.2.3.5. La matriz escalonada reducida de la matriz aumentada [A [ b] es
_
_
_
_
1 2 0 7 0
0 0 1 4 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
.
Dado que la ecuacin 0x + 0y + 0z + 0w = 1 no tiene solucin, se concluye que el sistema de
ecuaciones no tiene solucin.
1.2.3.7. El espacio columna de A se puede describir como el conjunto de vectores b R
4
que
satisfacen un sistema homogneo:
R(A) = b R
4
[ b
1
b
2
+b
3
= 0 y 2b
1
b
2
+b
4
= 0.
Tomando B =
_
1 1 1 0
2 1 0 1
_
se tiene que R(A) = N(B).
1.3.1.1. La primera matriz tiene rango 5 y la segunda rango 2.
215
1.3.1.2. La columnas bsicas de la matriz A son precisamente las columnas 1,3 y 6. Las columnas
no bsicas son combinacin lineal de las columnas bsicas. La forma escalonada reducida de la
matriz A muestra las dependencias lineales de las columnas de A:
A
1
= 2A
1
, A
4
= 4A
1
5A
3
, A
5
= 2A
1
+ 3A
3
,
A
7
= 5A
1
+ 4A
3
+A
5
, A
8
= A
1
A
3
A
5
, A
9
= 0A
1
+ 2A
3
+ 4A
5
.
De esta manera, la matriz A es
A =
_
_
_
_
_
_
5 10 1 25 7 2 27 4 6
1 2 2 14 4 3 16 6 16
4 8 2 6 14 1 13 3 0
5 10 1 25 7 0 29 6 2
8 16 3 17 25 1 27 4 10
_
_
_
_
_
_
.
1.3.1.6. Se tiene que E
32
(8)E
31
(2)A =
_
_
1 0 2 a
0 1 1 1
0 0 a + 4 2a + 8
_
_
. Si a = 4 el rango es 2;
si a ,= 4, el rango es 3.
1.5.1.3. De acuerdo con el Teorema 1.5.4, es suciente probar que N(AB) ,= 0. Como el
rango de B es a lo ms uno, el sistema homogneo Bx = 0 una solucin no trivial, digamos x
0
.
Entonces ABx
0
= A0 = 0. Luego x
0
es una solucin no trivial de ABx = 0.
1.5.1.9. Para la primera parte, imite la prueba del Lema 1.3.3. Para la segunda parte, Es
posible que AB tenga ms columnas bsicas de las que tiene B? Para la tercera parte,
rango(AB) = rango(B
T
A
T
) rango(A
T
) = rango(A).
Finalmente, n = rango(I) = rango(AB) rango(A). Como A es cuadrada de n n, se tiene
que rango(A) n.
Captulo 2. Determinantes
2.3.1.18. Como det(A) < 0, entonces det(C) < 0.
det(ABC)
2
= det(AB) det(AC) det(BC) = 9 16 25
=det(ABC) =

9 16 25 = 3 4 5 = 60
Otra forma,
det(A) =
9
det(B)
=
16
det(C)
= det(B) =
9
16
det(C), det(B) det(C) = 25
9
16
det(C)
2
= 25 = det(C)
2
=
25 16
9
= det(C) =
5 4
3
.
Luego
det(ABC) = det(AB) det(C) = 9
5 4
3
= 3 4 5 = 60
216 C. Soluciones a ejercicios seleccionados
2.3.1.20. El trmino que produce
6
es
()a
16
a
25
a
33
a
44
a
51
a
62
donde =
_
1 2 3 4 5 6
6 5 3 4 1 2
_
. Ahora bien,
= (1, 6, 2, 5) = (1, 5)(1, 2)(1, 6)
y es una permutacin par. Luego
()a
16
a
25
a
33
a
44
a
51
a
62
= (1)(2)(4)(5)(2)()() = 80
6
El coeciente de
6
es 80.
2.5.1.10. El polinomio f debe satisfacer f(x
i
) = y
i
para cada i = 1, 2, . . . , n. Es decir,
a
0
+a
1
x
1
+a
2
x
2
1
+ +a
n1
x
n1
1
= y
1
a
0
+a
1
x
2
+a
2
x
2
2
+ +a
n1
x
n1
2
= y
2
.
.
.
a
0
+a
1
x
n
+a
2
x
2
n
+ +a
n1
x
n1
n
= y
n
Es decir,
_
_
_
_
_
1 x
1
x
2
1
. . . x
n1
1
1 x
2
x
2
2
. . . x
n1
2
.
.
.
.
.
.
.
.
.
.
.
.
1 x
n
x
2
n
. . . x
n1
n
_
_
_
_
_
_
_
_
_
_
_
_
a
0
a
1
a
2
.
.
.
a
n1
_
_
_
_
_
_
_
=
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
.
Dado que la matriz del sistema es la matriz cuadrada de Vandermonde, y x
i
x
j
,= 0 para i ,= j,
los coecientes a
0
, . . . , a
n1
estn determinados de manera nica.
Captulo 3. Espacios vectoriales
3.2.1.2. Sea | = U [ U es un subespacio de V que contiene a o. Se debe probar que o =

U/
U.
Se tiene que o |, as que

U,
U o.
Recprocamente, sea U |. Como o U, se tiene que v
i
U para toda i. Ahora bien, U es
cerrado bajo suma y producto por escalar, as que

x
i
v
i
U, para cualesquiera x
i
K. Esto
prueba que o U.
3.2.1.3. Si x, y W y c R:
0
T
a
i
= 0 = 0 W
(x +y)
T
a
i
= (x
T
+y
T
)a
i
= x
T
a
i
+y
T
a
i
= 0 + 0 = x +y W
(cx)
T
a
i
= (cx
T
)a
i
= c(x
T
a
i
) = c0 = 0 = cx W
217
3.3.1.14. Consideremos la combinacin lineal x
1
Av
1
+ x
r
Av
r
= 0. Entonces A(x
1
v
1
+ +
x
r
v
r
) = 0, es decir,

x
i
v
i
N(A). Como el rango de A es n, se tiene que N(A) = 0, as que

x
i
v
i
= 0 y dado que v
1
, . . . , v
r
son l.i, se sigue que x
i
= = x
r
= 0.
3.4.1.18. Sea = w
1
, . . . w
r
una base para W. Veamos que
t
= Aw
1
, . . . , Aw
r
es una
base para A(W). Sea v A(W); entonces existe un w W tal que v = Aw. Escribamos
w W como combinacin lineal de los vectores de la base : w =

x
i
w
i
. Entonces v =
A(

x
i
w
i
) =

x
i
Aw
i
. Esto muestra que
t
genera al subespacio A(W). Ahora, supongamos
que

x
i
Aw
i
= 0; entonces A(

x
i
w
i
) = 0, es decir w =

x
i
w
i
N(A). Como tambin
w W, se tiene que w W N(A) = 0, as que w = 0 lo que implica que x
i
= 0 para
i = 1, . . . , n.
3.6.1.6. La suma es directa si y solamente si U W = 0. Sean v U W y c
1
, c
2
, c
3
, c
4
K
tales que v = c
1
(v
1
v
4
) +c
2
(v
2
v
3
) = c
3
(v
1
+v
4
) +c
4
(v
2
+v
3
). De aqu
c
1
(v
1
v
4
) +c
2
(v
2
v
3
) c
3
(v
1
+v
4
) c
4
(v
2
+v
3
) = 0
= (c
1
c
3
)v
1
+ (c
2
c
4
)v
2
+ (c
2
c
4
)v
3
+ (c
1
c
3
)v
4
= 0.
Como es una base se obtiene el sistema de ecuaciones:
c
1
c
3
= 0
c
2
c
4
= 0
c
2
c
4
= 0
c
1
c
3
= 0.
La nica solucin al sistema de ecuaciones la trivial. As que v = 0. Por lo tanto la suma es
directa.
3.6.1.7. La suma es directa si y solamente si U W = 0.
Se observa que u = v
1
v
2
+ (v
3
+ v
4
) U y u tambin pertenece a W, ya que u = v
1
+
v
4
+(1)(v
2
+v
3
). Adems u ,= 0 pues los vectores v
1
, v
2
, v
3
, v
4
son linealmente independientes.
As U W ,= 0 y la suma no es directa.
Si uno no se da cuenta de lo anterior, se puede proceder como sigue. Sean v U W y
c
1
, c
2
, c
3
, c
4
K tales que v = c
1
(v
1
v
2
) +c
2
(v
3
+v
4
) = c
3
(v
1
+v
4
) +c
4
(v
2
+v
3
). De aqu
c
1
(v
1
v
2
) +c
2
(v
3
+v
4
) c
3
(v
1
+v
4
) c
4
(v
2
+v
3
) = 0
= (c
1
c
3
)v
1
+ (c
1
c
4
)v
2
+ (c
2
c
4
)v
3
+ (c
2
c
3
)v
4
= 0.
Como es una base, se obtiene el sistema de ecuaciones:
c
1
c
3
= 0
c
1
c
4
= 0
c
2
c
4
= 0
c
2
c
3
= 0.
Se tiene
_
_
_
_
1 0 1 0
1 0 0 1
0 1 0 1
0 1 1 0
_
_
_
_

_
_
_
_
1 0 0 1
0 1 0 1
0 0 1 1
0 0 0 0
_
_
_
_
El conjunto de soluciones es c
1
= c
4
, c
2
= c
4
, c
3
= c
4
. Tomando c
4
= 1, entonces
c
1
= c
2
= c
3
= 1. Entonces v = v
1
v
2
v
3
+ v
4
el cual obviamente es distinto de cero y
pertenece a la interseccin. La suma por lo tanto no es directa.
218 C. Soluciones a ejercicios seleccionados
Captulo 4. Transformaciones lineales y matrices
4.1.1.14. Se observa que T(0, u) = T(00, u) = 0T(0, u) = 0; anlogamente se ve que T(u, 0) = 0.
Sean a, b K tales que av +bw = 0. Entonces
0 = T(av +bw, v) = T(av, v) +T(bw, v) = aT(v, v) +bT(w, v) = a 1 +b 0.
As a = 0. De manera anloga se prueba que b = 0.
4.2.1.10. Sea v ker P ImP; entonces Pv = 0 y v = Pu para algn u V . As 0 = Pv =
P(Pu) = Pu = v. Luego la suma es directa.
Sea v V . Entonces Pv = P(Pv), es decir 0 = Pv P(Pv) = P(v Pv) y por lo tanto
u = v Pv pertenece al ncleo de P. Tenemos que v = u+Pv y por lo tanto V = ker P +ImP.
4.4.1.13. Se est buscando la nica transformacin lineal tal que
T(1) = 1
_
1
1
_
+ (1)
_
1
1
_
=
_
0
2
_
T(t) = (1)
_
1
1
_
+ (1)
_
1
1
_
=
_
0
2
_
T(1) = 2
_
1
1
_
+ (1)
_
1
1
_
=
_
3
1
_
Luego
T(a +bt +ct
2
) = aT(1) +bT(t) +cT(t
2
) =
_
3 c
2 a + 2 b c
_
.
Captulo 5. Espacios producto interno
Captulo B. Matrices
Bibliografa
[1] Juan de Burgos Romn. lgebra Lineal. McGraw-Hill Interamericana, Madrid, segunda
edicin, 1993.
[2] Jos Antonio de la Pea. lgebra Lineal Avanzada. Fondo de Cultura Econmica, Mxico,
1996.
[3] John B. Fraleigh. lgebra Abstracta. Adison Wesley Iberoamericana, Mxico, 1987.
[4] Stanley I. Grossman. lgebra Lineal. McGraw-Hill Interamericana, Mxico, quinta edicin,
1996.
[5] Darald J. Hartel. Matrix theory and applications with MATLAB. CRC Press, Boca Raton,
Florida, 2001.
[6] I.N. Herstein. lgebra Moderna. Trillas, Mxico, 1970.
[7] David R. Hill y David E. Zitarelli. Linear Algebra Labs with Matlab. Prentice Hall, Upper
Saddle River, N.J., segunda edicin, 1996.
[8] Kenneth Homan y Ray Kunze. lgebra Lineal. Prentice Hall, Mxico, segunda edicin,
1984.
[9] Donald L. Kreider, Robert G. Kuller, et al. An introduction to Linear Analysis. Adison
Wesley, 1971.
[10] Peter Lancaster y Miron Tismenetsky. The Theory of Matrices. Academic Press, San Diego,
California, segunda edicin, 1997.
[11] Serge Lang. lgebra Lineal. Fondo Educativo Iberoamericano, Mxico, 1976.
[12] Jos Alejandro Lara Rodrguez and Carlos Jacob Rubio Barrios. lgebra Lineal. Universi-
dad Autnoma de Yucatn, Mxico, 2011. (document)
[13] Peter D. Lax. Linear algebra and its applications. Pure and applied mathematics. Wiley-
Interscience, Nueva York, segunda edicin, 2007.
[14] Steven J. Leon. Linear Algebra with Applications. Prentice Hall, Upper Saddle River, N.J.,
quinta edicin, 1998.
[15] Seymour Lipschutz. lgebra Lineal. McGraw-Hill, Mxico, segunda edicin, 1992.
219
220 BIBLIOGRAFA
[16] Carl Dean Meyer. Matrix Analysis and Applied Linear Algebra. SIAM, Philadelphia, 2000.
[17] Ben Noble y James W. Daniel. lgebra Lineal Aplicada. Prentice Hall Hispanoamericana,
Mxico, tercera edicin, 1989.
[18] David Poole. lgebra Lineal: Una introduccin moderna. Thomson, Mxico, 2004.
[19] Hugo A. Rincn Meja. lgebra Lineal. Coordinacin de Servicios Editoriales, Facultad de
Ciencias, UNAM, Mxico, 2001.
[20] Lorenzo Sadun. Applied linear algebra: The decoupling principle. American Mathematical
Society, Providence, RI, segunda edicin, 2008.
[21] Vivek Sahai y Vikas Bist. Linear algebra. CRC Press, Boca Raton, Florida, 2002.
[22] W. A. Stein et al. Sage Mathematics Software (Version 5.10). The Sage Development
Team, 2013. http://www.sagemath.org. (document)
[23] Gilbert Strang. Introduction to Linear Algebra. Wesley-Cambridge Press, 2003.
ndice alfabtico
anulador, 137
aplicacin lineal, 105
base
de un espacio vectorial, 89
dual, 137
campo, 175
caracterstica de un campo, 178
ciclo de longitud r, 48
ciclos ajenos, 49
coeciente de Fourier, 150
cofactor, 45, 59
cofactores
matriz de, 59
columna bsica, 22
combinacin lineal, 4, 10
complemento ortogonal, 101, 148
conjunto
ortogonal, 148
ortonormal, 148
delta de Kronecker, 181
dependencia e independencia lineal, 84
descomposicin
LU, 33
QR, 155
USV , 165
de Jordan, 131
en valores singulares, 131
desigualdad
de Bessel, 161
de Cauchy-Schawrz, 145
determinante
desarrollo por cofactores, 45
funcin determinante, 43
diagonal principal de una matriz, 182
dimensin de un espacio vectorial, 90
ecuacin lineal, 1
solucin de una, 2
elemento pivotal, 13
equivalencia de matrices, 128
escalar, 1, 76, 175
espacio
columna, 6, 20, 32
de las transformaciones lineales, 107
dual, 136
euclidiano, 142
nulo, 20, 27, 32
nulo de una transformacin lineal, 111
nulo izquierdo, 20, 32
producto interno, 142
rengln, 20, 32
unitario, 142
vectorial, 75
base de un, 89
cociente, 83
complejo, 76
real, 76
espacios fundamentales, 32
bases y dimensin, 94
espacio columna, 6, 20, 32
espacio nulo, 20, 32
espacio nulo izquierdo, 20, 32
espacio rengln, 20, 32
expansin de Fourier, 150
forma escalonada
por renglones, 16, 203
reducida por renglones, 17, 206
funcin bilineal, 142
221
222 NDICE ALFABTICO
funcin lineal, 105
funcional lineal, 136
Gram-Schmidt, proceso de, 154
identidades de polarizacin, 144
imagen
de una transformacin lineal, 111
inversa
de una matriz, 192
derecha de una matriz, 192
izquierda de una matriz, 192
isomorsmo de espacios vectoriales, 115
Mtdo de eliminacin de
Gauss, 204
Gauss-Jordan, 206
mnimos cuadrados, 167, 169
matrices
equivalentes, 128
semejantes, 130
matriz
adjunta, 59
anti-hermitiana, 191
antisimtrica, 58, 190
asociada a una funcin lineal, 119
aumentada, 4
cambio de base, 121
cero, 182
compaera, 59
conjugada de una, 190
conjugada transpuesta de una, 190
cuadrada, 182
de coecientes, 4
de trminos independientes, 4
diagonal, 182
diagonalizable, 134
elemental, 198
elemental de Tipo I, II o III, 198
hermitiana, 60, 191
idempotente, 61, 188
identidad, 182
invertible, 192
nilpotente, 60, 188
no singular, 192
nula, 182
simtrica, 41, 190
singular, 192
transpuesta de una, 188
traza de una, 47, 61
triangular inferior, 182
triangular superior, 182
unitaria, 60
matriz de cofactores, 59
multiplicacin de matrices, 185
ncleo
de una transformacin lineal, 111
nulidad
de una transformacin lineal, 112
operacin elemental
de columna, 196
de rengln, 196
operaciones elementales, 12
operador lineal
diagonalizable, 134
permutacin, 48
identidad, 48
impar, 51
multiplicacin de permutaciones, 48
par, 51
pivote, 13, 203
polinomio
de Legendre, 157
producto
de matrices, 185
de matriz por escalar, 184
escalar, 142
denido positivo, 143
degenerado, 143
no degenerado, 143
exterior, 192
hermitiano, 143
denido positivo, 143
interior, 192
interno, 142, 192
rango
de un producto de matrices, 99
de una matrix, 22
de una transformacin lineal, 112
e independencia lineal, 86
regla de cramer, 61
semejanza
de matrices, 130
sistema biortogonal, 151
sistema de ecuaciones lineales, 2
consistente, 2
determinado, 2
equivalentes, 12
homogneo, 2
inconsistente, 2
NDICE ALFABTICO 223
indeterminado, 2
representacin matricial, 4
solucin de un, 2
subespacio
generado por un conjunto de vectores, 80
vectorial, 78
subespacios ortogonales, 99
submatriz, 45, 193
suma
de matrices, 183
de subespacios, 82
suma directa, 98
teorema
de la dimensin, 112
de Pitgoras, 149
transformacin lineal, 105
ncleo de una, 111
construccin de una, 106
espacio nulo de una, 111
imagen de una, 111
inducida por una matriz, 106
matriz asociada a una, 119
transposicin, 49
traza de una matriz, 47, 195
Vandermonde
matriz de, 66, 88
variable
bsica, 15, 16
libre, 15, 16
pivotal, 13
vector, 76
columna, 2, 180
de coordenadas, 96
de trminos independientes, 4
rengln, 2, 180

Você também pode gostar