Escolar Documentos
Profissional Documentos
Cultura Documentos
ITULO 1. PRELIMINARES
As, la solucion de la ecuacion y = 1, es sin duda el valor y = 1, ya que 1 = 1. De la misma
manera, la solucion de 5x = 8 es x =
8
5
, por que
5
_
8
5
_
= 8
8 = 8
.
En las dos ecuaciones lineales anteriores los conjuntos solucion son y IR [ y = 1 y
_
x IR
x =
8
5
_
.
Ahora veamos cual es el conjunto solucion para la ecuacion
3x + 2y = 5,
no perdamos de vista lo que signica resolver la ecuacion, que en este caso consta de dos
variables.
Como podemos determinar el conjunto de parejas (x, y) de n umeros reales que satisfagan a
la ecuacion?. Una manera es despejar una variable en funcion de la otra, por ejemplo
x =
5 2y
3
.
En la ecuacion anterior es posible determinar el valor de x si le asignamos alg un valor a y
(y IR). Algunos valores asignados a y se muestran en la tabla
Tabla 1.1: Valores de y
y
3
0.5
0
3
1.5
Si sustituimos los valores anteriores de y, en la ecuacion x =
5 2y
3
, resulta la correspondiente
de x. As, tenemos la siguiente tabla
Todas las parejas de esta tabla son solucion de la ecuacion lineal, lo cual puede vericar.
Cuantos pares (x, y) son solucion para la ecuacion lineal?, como la variable y se puede elegir
del conjunto IR, existe un conjunto innito de pares, como se indica:
solucion =
_
(x, y) IR
2
x =
5 2y
3
_
.
1.2. RESOLUCI
ITULO 1. PRELIMINARES
todos los puntos son
comunes
no hay puntos
comunes
punto comn
c) Que sean coincidentes.
b) Que sean paralelas.
0
0
a) Que se intersectan en un punto.
E1=E2
E2
E1
E2
E1
x
x 0 x
y
y y
Figura 1.1: Posiciones relativas de dos rectas en el plano.
Ejemplo 1.2.1. Veamos si el sistema
x + 2y = 3 E
1
2x 2y = 8 E
2
,
tiene solucion unica. Auxiliandonos de la representacion graca, Figura(1.2), se puede ob-
servar que las rectas se intersectan en un solo punto, de donde se deduce que el sistema de
ecuaciones tiene solucion unica.
x
0
punto
comn
E
1
E
2
y
Figura 1.2: Representacion graca de un sistema de ecuaciones.
Captulo 2
Ecuaciones lineales
2.1 Introduccion
Un problema fundamental el cual aparece en todas las ciencias matematicas es el de analizar y
resolver m ecuaciones algebraicas en n incognitas. El estudio de un sistema de ecuaciones linea-
les simultaneas esta naturalmente ligado con el estudio de arreglos rectangulares de n umeros
denidos por los coecientes de las ecuaciones.
Los primeros registros de analisis de ecuaciones simultaneas son encontrados en el antiguo libro
chino Chiu-chang Suan-shu(Nueve capitulos sobre Aritmetica), el cual fue escrito al rededor
del a no 200 antes de cristo. Al inicio del Captulo VIII aparece un problema, el cual tiene la
siguiente forma:
Tres atados de una cosecha buena, dos atados de una cosecha mediocre, y un atado de una
cosecha mala se venden por 39 dou. Dos atados de una buena, tres atados de una mediocre,
y un atado de una mala se venden por 34 dou; y un atado de una buena, dos atados de una
mediocre, y tres atados de una mala se venden por 26 dou. Que precio se recibe por cada
atado de una cosecha buena, cada atado de una cosecha mediocre, y cada atado de una cosecha
mala?
En la actualidad, este problema sera formulado como tres ecuaciones en tres incognitas
3x + 2y + z = 39
2x + 3y + z = 34
x + 2y + 3z = 26
donde x, y, y z representan el precio para cada uno de los atados de las tres diferentes cosechas,
a saber buena, mediocre y mala, respectivamente. Los chinos dieron con la parte medular de
la materia. Ellos colocaron los coecientes (representados por varas de bamb u coloreadas) de
este sistema en un arreglo cuadrado sobre una tabla de conteo y entonces manipularon las
lineas de los arreglos de acuerdo a las reglas prescritas del dedo pulgar. Sus tecnicas de la tabla
de conteo y las reglas del dedo pulgar encuentran utilidad en Japon y eventualmente aparecen
en Europa, donde las varas de colores son remplazadas por n umeros y la tabla de conteo es
9
10 CAP
i
s son incognitas y las a
ij
s y b
i
s son constantes conocidas. Las a
ij
s son llamadas
los coecientes del sistema y el conjunto de las b
i
s es referido como el lado derecho del sistema.
Para cualquier sistema, existen tres posibilidades para el conjunto de soluciones:
1) Solucion unica: hay un solo cojunto de valores para los x
i
s que satisfacen todas las
ecuaciones simultaneamente.
2) No hay solucion: no hay un conjunto de valores para los x
i
s los cuales satisfagan
todas las ecuaciones simultaneamente.
3) Innitas soluciones: hay una innidad de diferentes conjuntos de valores para los x
i
s
que satisfacen simultaneamente todas las ecuaciones.
Una parte del trabajo es identicar cual de estas posibilidades es verdadera para un sistema
en particular, la otra parte es calcular el conjunto de soluciones. La eliminacion gaussiana es
una herramienta que puede ser usada para cumplir estos objetivos.
La eliminacion gaussiana es un procedimiento metodico que transforma un sistema en otro
sistema equivalente, pero mas simple (dos sistemas son equivalentes si poseen el mismo con-
junto de soluciones) mediante la eliminacion de incognitas y arreglando un sistema que es de
facil solucion. La eliminacion se realiza mediante tres operaciones simples que transforman al
sistema en otro equivalente. Para describir estas operaciones denamos a E
k
como la k-esima
ecuacion:
E
k
: a
k1
x
1
+... +a
kn
x
n
= b
k
.
As el sistema sera:
S =
_
_
E
1
E
2
.
.
.
E
m
_
_
.
Para un sistema lineal S cada una de las siguientes tres operaciones elementales origina un
sistema equivalente S
.
2.2. ELIMINACION GAUSIANA 11
1) Intercambiar la i-esima y j-esima ecuacion. Esto es, si
S =
_
_
E
1
.
.
.
E
i
.
.
.
E
j
.
.
.
E
m
_
_
, entonces S
=
_
_
E
1
.
.
.
E
j
.
.
.
E
i
.
.
.
E
m
_
_
.
(2.1)
2) Remplazar la i-esima ecuacion por un m ultiplo de si misma, distinto de cero,esto es:
S
=
_
_
E
1
.
.
.
E
i
.
.
.
E
m
_
_
donde ,= 0. (2.2)
3) Remplazar la j-esima ecuacion por una combinacion de si misma mas un m ultiplo de la
i-esima ecuacion. Esto es:
S
=
_
_
E
1
.
.
.
E
i
.
.
.
E
j
+ E
i
.
.
.
E
m
_
_
. (2.3)
El problema mas com un que se tiene en la practica es aquel en que se tiene n ecuaciones con
n incognitas, llamado sistema cuadrado, para el cual hay una unica solucion.
Ejemplo 2.2.1. Considere el sistema cuadrado :
2x + y + z = 1
6x + 2y + z = 1
2x + 2y + z = 7
, (2.4)
tal sistema sera de utilidad para ejemplicar la eliminacion gaussiana.
12 CAP
1
1
7
_
_
.
El arreglo de coecientes es llamado matriz de coecientes. El arreglo que contiene los coe-
cientes del sistema y la parte derecha del sistema es llamado matriz aumentada. Si la matriz
de coecientes es denotada por A y la parte derecha del sistema por b, entonces [A[b] denotara
la matriz aumentada.
Formalmente, un escalar es un n umero real o complejo y una matriz es un arreglo rectangular
de escalares. Denotaremos a las matrices con letras may usculas y a los escalares con letras
minusculas. Por ejemplo
A =
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
denota la matriz A con escalares a
ij
, i = 1, 2, ..., m y j = 1, 2, ..., n. La matriz A se dice que
tiene tama no u orden mn, si tiene exactamente m reglones y n columnas. Por ejemplo si la
matriz A es
A =
_
_
2 1 3 4
8 6 5 9
3 8 3 7
_
_
, (2.6)
entonces el orden de tal matriz es 3 4.
El smbolo A
i
denotara al i-esimo reglon y A
j
denotara a la j-esima columna. Por ejemplo, si
A es la matriz en (2.6), entonces
14 CAP
2
=
_
8 6 5 9
_
y A
2
=
_
_
1
6
8
_
_
.
Para un sistema lineal de ecuaciones
a
11
x
1
+ a
12
x
2
+... + a
1n
x
n
= b
1
a
21
x
1
+ a
22
x
2
+... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ ... + a
mn
x
n
= b
m
la eliminacion gaussiana puede ser ejecutada sobre la matriz aumentada [A[b] realizando las
operaciones elementales (2.1), (2.2) y (2.3).
As, para una matriz mn (denotaremos M IR
mn
)
M =
_
_
_
_
_
_
_
_
_
_
_
_
_
M
1
.
.
.
M
i
.
.
.
M
j
.
.
.
M
m
_
_
_
_
_
_
_
_
_
_
_
_
_
, las tres operaciones elementales de M son:
(1) Intercambiar los reglones i-esimo y j-esimo de M esto es:
_
_
_
_
_
_
_
_
_
_
_
_
_
M
1
.
.
.
M
j
.
.
.
M
i
.
.
.
M
m
_
_
_
_
_
_
_
_
_
_
_
_
_
(2.7)
(2) Remplazar el i-esimo reglon de M por un m ultiplo distinto de cero de si mismo.
_
_
_
_
_
_
_
_
M
1
.
.
.
M
i
.
.
.
M
m
_
_
_
_
_
_
_
_
,= 0 (2.8)
2.3. M
ETODO DE GAUSS-JORDAN 15
(3) Remplazar el j-esimo reglon de M por una combinacion de si mismo mas un m ultiplo
distinto de cero del i-esimo reglon.
_
_
_
_
_
_
_
_
_
_
_
_
_
M
1
.
.
.
M
i
.
.
.
M
j
+M
i
.
.
.
M
m
_
_
_
_
_
_
_
_
_
_
_
_
_
(2.9)
As, para resolver el sistema (2.4) usando operaciones elementales de reglones, de la matriz
aumentada [A[b], se procedera de la siguiente forma :
_
_
(2) 1 1
6 2 1
2 2 1
1
1
7
_
_
R
2
3R
1
R
3
R
1
_
_
2 1 1
0 1 2
0 3 2
1
4
8
_
_
R
3
+ 3R
2
_
_
2 1 1
0 1 2
0 0 4
1
4
4
_
_
.
El arreglo nal representa al sistema triangular
2x + y + z = 1
y 2z = 4
4z = 4
el cual se resolvera mediante la sustitucion inversa.
2.3 Metodo de Gauss-Jordan
El metodo de Gauss-Jordan es una variacion de la eliminacion gaussiana. Las dos carac-
tersticas que distiguen al metodo de Gauss-Jordan con la eliminacion gaussiana son las sigui-
entes:
En cada caso, el pivote es forsado a ser uno, (1).
En cada paso los elementos que estan por abajo y por arriba del pivote son eliminados.
Esto es, si
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
b
1
b
2
.
.
.
b
n
_
_
_
_
_
16 CAP
s
1
s
2
.
.
.
s
n
_
_
_
_
_
As, las soluciones del sistema sera el conjunto de las s
i
s.
Ejemplo 2.3.1. Aplicar el metodo Gauss-Jordan para resolver el siguiente sistema
2x
1
+ 2x
2
+ 6x
3
= 4
2x
1
+ x
2
+ 7x
3
= 6
2x
1
6x
2
7x
3
= 1
Solucion:
_
_
(2) 2 6
2 1 7
2 6 7
4
6
1
_
_
R
1
/2
_
_
(1) 1 3
2 1 7
2 6 7
2
6
1
_
_
R
2
2R
1
R
3
+ 2R
1
_
_
1 1 3
0 1 1
0 4 1
2
2
3
_
_
R
2
/ 1
_
_
1 1 3
0 1 1
0 4 1
2
2
3
_
_
R
1
R
2
R
3
+ 4R
2
_
_
1 0 4
0 1 1
0 0 5
4
2
5
_
_
R
3
/ 5
_
_
1 0 4
0 1 1
0 0 1
4
2
1
_
_
R
1
4R
3
R
2
+R
3
_
_
1 0 0
0 1 0
0 0 1
0
1
1
_
_
.
Por tanto, la solucion es
_
_
x
1
x
2
x
3
_
_
=
_
_
0
1
1
_
_
.
Captulo 3
Sistemas Rectangulares y Formas
Escalonadas
3.1 Forma Escalonada por Renglones y Rango
Ahora estamos interesados en analizar sistemas lineales mas generales que consisten de m
ecuaciones y n incognitas.
a
11
x
1
+a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ ... +a
mn
x
n
= b
m
,
donde m puede ser diferente de n. Si sabemos que m ,= n entonces el sistema se dice que es
rectangular.
El primer objetivo es extender la tecnica de eliminacion Gaussiana a sistemas rectangulares.
Note que para un sistema cuadrado con solucion unica, los pivotes se encuentran sobre la
diagonal principal de la matriz (la diagonal formada de la esquina superior izquierda a la
esquina inferior derecha). En cambio, en un sistema rectangular no es posible que los pivotes
esten sobre la diagonal principal de la matriz de coecientes , pues nisiquiera existe tal diagonal.
As, la eliminacion Gaussiana en un sistema rectangular no tiene como resultado una forma
triangular. Por ejemplo, considere el siguiente sistema :
x
1
+ 2x
2
+ x
3
+ 3x
4
+ 3x
5
= 5
2x
1
+ 4x
2
+ 4x
4
+ 4x
5
= 6
x
1
+ 2x
2
+ 3x
3
+ 5x
4
+ 5x
5
= 9
2x
1
+ 4x
2
+ 4x
4
+ 7x
5
= 9
.
17
18 CAP
_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 2 2 2
0 0 2 2 1
_
_
_
_
En el proceso de eliminacion basico, la estrategia es moverse hacia a bajo y a la derecha, a la
posicion pivotal mas proxima. Si se tiene un cero en esta posicion este renglon es intercambiado
por otro renglon, que se encuentre debajo de el, buscando que en esta posicion se tenga un
n umero distinto de cero, el cual sera el nuevo pivote. Sin embargo, en este ejemplo, es claro que
es imposible hacer que en la posicion (2, 2) se tenga un n umero distinto de cero al intercambiar
el segundo renglon por otro debajo de el.
As, el procedimiento de eliminacion Gaussiana es modicado como sigue:
Suponga que U es la matriz aumentada asociada al sistema despues de que los i 1 pasos de
eliminacion han sido completados para ejecutar el i esimo paso , el procedimiento es:
1. Moverse de izquierda a derecha en U , ubicandose en la primera columna que contiene
una entrada distinta de cero, digamos U
j
.
2. El pivote para el i esimo paso sera U
ij
.
3. Si es necesario cambie el i-esimo renglon por otro que, de bajo de el, tenga una entrada
distinta de cero y entonces U
ij
sera su pivote, donde U
es la matriz U modicada al
cambiar el i-esimo renglon del sistema.
4. Si el renglon U
i
como todo los renglones de U de bajo de U
i
son ceros entonces el
procedimiento termina.
Ejemplo 3.1.1. Aplicar la eliminacion Gaussiana modicada para la siguiente matriz.
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
.
3.1. FORMA ESCALONADA POR RENGLONES Y RANGO 19
Solucion:
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 2 2 2
0 0 2 2 1
_
_
_
_
_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 0 0 0
0 0 0 0 3
_
_
_
_
_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 0 0 3
0 0 0 0 0
_
_
_
_
.
Note que el resultado nal no es una forma triangular pura, si no que es parecida a una forma
triangular. Tal estructura recibe el nombre de forma escalonada por renglones.
Denicion 3.1.1. Una matriz E IR
mn
con renglones E
i
y columnas E
j
se dice que es una
forma escalonada por renglones si satisface lo siguiente:
i) Si E
i
consiste de entradas ceros , entonces todos los renglones de bajo de E
i
son cero.
ii) Si la primera entrada distinta de cero de E
i
se encuentra en la j-esima posici on, entonces
todas las entradas por de bajo de la ij-esima posicion son cero.
Debido a la libertad que uno tiene en aplicar operaciones elementales en una matriz A, entonces
la forma escalonada por renglones E, asociada a A, no es unica. Sin embargo, E es unica en el
sentido de que las posiciones de los pivotes en E (y A), son determinadas de forma unica por
la entradas de A. De esto se sigue, que el n umero de pivotes -el cual es el n umero de renglones
distintos de cero en E- es determinado de forma unica por las entradas de A.
Denicion 3.1.2 (Rango de una matriz). Si una matriz A es reducida a su forma escalon-
ada por renglones E, entonces las columnas basicas de A son denidas como aquellas columnas
en A las cuales contienen los pivotes. El n umero
r = n umero de pivotes
= n umero de renglones distintos de cero de E
= n umero de columnas basicas de A
es llamado el rango de A y se denotara por r(A).
Ejemplo 3.1.2. Determine el rango de
A =
_
_
1 2 1 1
2 4 2 2
3 6 3 4
_
_
,
e identique las columnas basicas de A.
20 CAP
_
_
1 2 1 1
0 0 0 0
0 0 0 1
_
_
_
_
1 2 1 1
0 0 0 1
0 0 0 0
_
_
= E.
As, el r(A) = 2 y las columnas basicas de A son :
columnas basicas de A =
_
_
_
_
_
1
2
3
_
_
,
_
_
1
2
4
_
_
_
_
_
3.2 Forma Escalonada por Renglones Reducida
Note que el metodo de Gauss-Jordan transforma a una matriz A, a una matriz diagonal con
estradas 1, para obtener la solucion del sistema asociado a la matriz. Esto sucede en un sistema
cuadrado con una solucion. En el caso de sistemas rectangulares se producen entradas distintas
de cero en las columnas no basicas de la matriz.
Por ejemplo:
A =
_
_
_
_
1 2 1 3 3
2 4 0 4 4
1 2 3 5 5
2 4 0 4 7
_
_
_
_
_
_
_
_
1 2 1 3 3
0 0 2 2 2
0 0 2 2 2
0 0 2 2 1
_
_
_
_
_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 0
0 0 0 0 3
_
_
_
_
_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 3
0 0 0 0 0
_
_
_
_
_
_
_
_
1 2 0 2 2
0 0 1 1 1
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
_
1 2 0 2 0
0 0 1 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
.
Denicion 3.2.1 (Forma escalonada por renglones reducida). Una matriz E
A
IR
mn
se dice que es una forma escalonada por renglones reducida si satisface lo siguiente:
1. E
A
es una forma escalonada por renglones
2. La primera entrada en cada renglon (i.e., cada pivote) es 1.
3. Todas las entradas de bajo del pivote son cero.
Si una matriz A es transformada por una sucesion de operaciones elementales a una matriz
E
A
, la cual es una forma escalonada por renglones reducida, entonces cada entrada de E
A
es
determinada de forma unica por las entradas de A.
Ejemplo 3.2.1. Para la matriz
A =
_
_
_
_
1 2 2 3 1
2 4 4 6 2
3 6 6 9 6
1 2 4 5 3
_
_
_
_
,
3.2. FORMA ESCALONADA POR RENGLONES REDUCIDA 21
determine E
A
, r(A), y las columnas basicas de A.
Solucion:
_
_
_
_
1 2 2 3 1
2 4 4 6 2
3 6 6 9 6
1 2 4 5 3
_
_
_
_
_
_
_
_
1 2 2 3 1
0 0 0 0 0
0 0 0 0 3
0 0 2 2 2
_
_
_
_
_
_
_
_
1 2 2 3 1
0 0 2 2 2
0 0 0 0 3
0 0 0 0 0
_
_
_
_
_
_
_
_
1 2 0 1 1
0 0 1 1 1
0 0 0 0 3
0 0 0 0 0
_
_
_
_
_
_
_
_
1 2 0 1 0
0 0 1 1 0
0 0 0 0 1
0 0 0 0 0
_
_
_
_
Por tanto el r(A) = 3 y las columnas basicas de A son:
_
_
_
_
_
_
1
2
3
1
_
_
_
_
,
_
_
_
_
2
4
6
4
_
_
_
_
,
_
_
_
_
1
2
6
3
_
_
_
_
_
_
.
Note que el ejemplo anterior ilustra una caracterstica importante de E
A
y explica por que las
columnas con pivote de A son llamadas columnas basicas, note que:
A
2
= 2A
1
, y A
4
= A
1
+ A
3
,
exactamente las mismas relaciones que en E
A
. Esto es,
E
2
= 2E
1
y E
4
= E
1
+ E
3
.
As,
1. Cada columna no basica E
k
de E
A
es una combinacion lineal -una suma de multiplos-
de las columnas basicas de E
A
. Esto es
E
k
=
1
E
b
1
+
2
E
b
2
+ ... +
j
E
b
j
=
1
_
_
_
_
_
_
_
_
_
_
1
0
.
.
.
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
+
2
_
_
_
_
_
_
_
_
_
_
0
1
.
.
.
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
+... +
j
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
2
.
.
.
j
.
.
.
0
_
_
_
_
_
_
_
_
_
_
.
Donde las E
b
i
s son las columnas basicas que generan a E
k
y donde los m ultiplos
i
son
las primeras j entradas en E
k
.
22 CAP
b
i
s son las columnas basicas que generan a A
k
y donde los
i
son los mismos
que los de la combinacion anterior, las primeras j entradas en E
k
.
Ejemplo 3.2.2. Escribir cada columna no basica de
A =
_
_
2 4 8 6 3
0 1 3 2 3
3 2 0 0 8
_
_
,
como una combinacion lineal de las columnas basicas.
Solucion: Primero transformamos a A en E
A
, as
A =
_
_
2 4 8 6 3
0 1 3 2 3
3 2 0 0 8
_
_
_
_
1 2 4 3
3
2
0 1 3 2 3
3 2 0 0 8
_
_
_
_
1 2 4 3
3
2
0 1 3 2 3
0 4 12 9
7
2
_
_
_
_
1 0 2 7
15
2
0 1 3 2 3
0 0 0 17
17
2
_
_
_
_
1 0 2 0 4
0 1 3 0 2
0 0 0 1
1
2
_
_
= E
A
Entonces
E
3
= 2E
1
+ 3E
2
y E
5
= 4E
1
+ 2E
2
+
1
2
E
3
.
Y as,
A
3
= 2A
1
+ 3A
2
y A
5
= 4A
1
+ 2A
2
+
1
2
A
3
.
En resumen, la utilidad de E
A
recae en la habilidad de revelar dependencias en los datos de
las columnas de A. Las columnas no basicas en A representan informacion redundante en el
sentido de que esta informacion puede ser expresada en terminos de los datos contenidos en
las columnas basicas.
3.3 Consistencia de Modelos Lineales
Denicion 3.3.1 (Sistemas consistentes e inconsistentes). Un sistema de m ecuaciones
con n incognitas
a
11
x
1
+a
12
x
2
+ ... + a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+ ... + a
2n
x
n
= b
2
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+... +a
mn
x
n
= b
m
,
3.3. CONSISTENCIA DE MODELOS LINEALES 23
se dice que es consistente si al menos tiene una solucion. Si no tiene soluciones, entonces se
dice que el sistema es inconsistente.
Si la matriz aumentada [A[b] es reducida, mediante operaciones elementales de renglones, a
una matriz [E[c], entonces la consistencia -o falta de ella- es evidente, supongase que en alg un
paso del proceso se origina un renglon de la forma
(0 0 0[), con ,= 0,
entonces tal ecuacion asociada a este renglon no tiene solucion.
As, si un sistema es inconsistente, entonces en alg un paso del proceso de eliminacion se genera
un renglon de la forma
(0 0 0[) , con ,= 0. (3.1)
Hay otras formas de caracterizar la consistencia (o inconsistencia)de un sistema. Una de ellas
es observar que si la ultima columna b de la matriz aumentada [A[b] es una columna no basica,
entonces no puede existir pivote en la ultima columna, y as, el sistema es consistente ya que
(3.1)no puede ocurrir, en otras palabras , un sistema es consistente si y solo si b es una
columna no basica de [A[b].
Decir que b es una columna no basica de [A[b] equivale a decir que todas las columnas basicas
de [A[b] estan en la matriz de coecientes A. Dado que el n umero de columnas basicas de una
matriz es el rango, la consistencia tambien puede ser caracterizada de la siguiente forma, un
sistema es consistente si y solo si r[A[b] = r[A].
Por otro lado, ya que un sistema consistente se caraceriza por que el lado derecho b es una
columna no basica, de esto se sigue que un sistema es consistente si y solo si el lado derecho b
es una combinacion de las columnas de A.
Ejemplo 3.3.1. Determine si el siguiente sistema es consistente
2x + y + 2z = 1
2x + y + 3z = 2
4x + 2y + 6z = 3
Solucion: Aplicando la eliminacion Gaussiana a la matriz asociada al sistema se tiene
[A[b] =
_
_
2 1 2
2 1 3
4 2 6
1
2
3
_
_
_
_
2 1 2
0 0 1
0 0 2
1
1
1
_
_
_
_
2 1 2
0 0 1
0 0 0
1
1
1
_
_
El ultimo renglon del paso nal reeja que el sistema es inconsistente. Alternativamente,
r (A[b) = 3 ,= 2 = r (A) reeja la inconsistencia del sistema.
24 CAP
_
_
1 2 2 3
0 0 3 3
0 0 5 5
_
_
_
_
1 2 2 3
0 0 3 3
0 0 0 0
_
_
= E
As,
3x
3
3x
4
= 0, de donde x
3
= x
4
y
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= x
1
+ 2x
2
+ 2(x
4
) + 3x
4
= x
1
+ 2x
2
+ x
4
= 0, de donde x
1
= 2x
2
x
4
.
3.4. SISTEMAS HOMOGENEOS 25
Note que las variables x
2
y x
4
no estan sujetas a nada, y por tanto pueden tomar cualquier
valor. Por tal motivo, estas variables seran llamadas variables libres. Las variables que toman
valores dependiendo de las variables libres, seran llamadas variables base. Observe que hay
distintas formas de elegir a las variables base, y por consiguiente a las variables libres. Aqu
convenimos seleccionar a las variables base como aquellas que corresponden a las posiciones de
los pivotes. En el ejemplo x
1
y x
3
son las variables base.
La forma en la cual se expresa la solucion (o soluciones) del sistema, en el ejemplo, no es la
mas adecuada, pues una solucion sera
x
1
= 0, x
2
= 1, x
3
= 2, x
4
= 2,
y es fastidioso escribir de esta forma soluciones particulares, lo conveniente sera escribir la
solucion general que produce cualquier solucion particular. As , es mas conveniente escribir
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
2x
2
x
4
x
2
x
4
x
4
_
_
_
_
= x
2
_
_
_
_
2
1
0
0
_
_
_
_
+x
4
_
_
_
_
1
0
1
1
_
_
_
_
,
con lo que se entiende que x
2
y x
4
son las variables las cuales pueden tomar cualquier valor. Esta
expresion pone enfasis en que cada solucion es una combinacion de dos soluciones particulares
h
1
=
_
_
_
_
2
1
0
0
_
_
_
_
y h
2
=
_
_
_
_
1
0
1
1
_
_
_
_
.
El hecho de h
1
y h
2
sean soluciones es claro, por que h
1
es producido cuando x
4
= 0 y x
2
= 1,
mientras que h
2
es generado cuando x
2
= 0 y x
4
= 1.
Ahora consideremos el sistema homogeneo general
a
11
x
1
+a
12
x
2
+... +a
1n
x
n
= 0
a
21
x
1
+a
22
x
2
+... +a
2n
x
n
= 0
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+... + a
mn
x
n
= 0
,
de m ecuaciones y n incognitas. Si la matriz de coecientes es tal que r(A) = r, entonces es
obvio que se tienen r variables base y n r variables libres. Reduciendo a A en una forma
escalonada usando la eliminacion Gaussiana y despues usando la sustitucion regresiva para
expresar las variables base en terminos de las variables libres se produce la solucion general,
la cual tiene la forma
x = x
f
1
h
1
+x
f
2
h
2
+... +x
f
nr
h
nr
(3.2)
Donde x
f
1
, ..., x
f
nr
son las variables libres y h
1
, ..., h
nr
son columnas n 1 las cuales repre-
sentan soluciones particulares del sistema.
26 CAP
4
5
7
_
_
_
_
1 2 0 1
0 0 1 1
0 0 0 0
2
1
0
_
_
= E
[A|b ]
Entonces:
x
1
+ 2x
2
+x
4
= 2
x
3
+x
4
= 1
Resolviendo para las columnas base x
1
y x
3
en terminos de las variables libre x
2
y x
4
, se
produce:
x
1
= 2 2x
2
x
4
x
3
= 1 x
4
As, la solucion general es:
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
2 2x
2
x
4
x
2
1 x
4
x
4
_
_
_
_
=
_
_
_
_
2
0
1
0
_
_
_
_
+x
2
_
_
_
_
2
1
0
0
_
_
_
_
+x
4
_
_
_
_
1
0
1
1
_
_
_
_
Ponga atencion en el hecho de que p =
_
_
_
_
2
0
1
0
_
_
_
_
es una solucion paricular del sistema cuando
x
2
= x
4
= 0.
Ademas la solucion del sistema homogeneo
x
1
+ 2x
2
+ 2x
3
+ 3x
4
= 0
2x
1
+ 4x
2
+x
3
+ 3x
4
= 0
3x
1
+ 6x
2
+x
3
+ 4x
4
= 0
,
Es:
_
_
_
_
2x
2
x
4
x
2
1 x
4
x
4
_
_
_
_
= x
2
_
_
_
_
2
1
0
0
_
_
_
_
+x
4
_
_
_
_
1
0
1
1
_
_
_
_
Tales soluciones del sistema no homogeneo y del sistema homogeneo, solo dieren en p. Por
tanto decimos que la solucion general de un sistema no homogeneo es dada por una solucion
particular p, mas la solucion general del sistema homogeneo asociado.
Ahora respondamos la pregunta cuando un sistema consistente tiene solucion unica?. Se sabe
que la solucion general de un sistema no homogeneo consistente [A[b] con r(A) = r es dada
por :
28 CAP
Algebra Matricial
4.1 Adicion, Multiplicacion Escalar y Transpuesta
En los captulos previos, la notacion y el lenguaje matricial fue usada simplemente para for-
mular algunos de los conceptos elementales relacionados a sistemas lineales. El proposito en
este captulo es usar el lenguaje dentro de una teoria matematica.
Un escalar es un n umero complejo. Los n umeros reales son un subconjunto de los n umeros
complejos, y as los n umeros reales son escalares, en estas notas solo se consideran escalares
que son n umeros reales.
IR Denotara al conjunto de los n umeros reales y IR
mn
denotara el conjunto de matriz de
tama no u orden mn.
Las matrices A = (a
ij
) y B = (b
ij
) son iguales cuando A y B tienen la misma forma (son del
mismo tama no u orden) y sus correspondientes entradas son iguales, esto es:
a
ij
= b
ij
para cada i = 1, , m y j = 1, , n.
4.1.1 Adicion de Matrices
Denicion 4.1.1 (Adicion matricial). Si A, B IR
mn
(A y B son matrices de orden
mn) la suma de A y B es denida como la matriz A+B de orden mn, obtenida al sumar
las correspondientes entradas, esto es:
(A +B)
ij
= a
ij
+ b
ij
para cada i, j.
Ejemplo 4.1.1. Aplicando la denicion de suma de matrices se tiene que
_
2 x 3
z + 3 4 4
_
+
_
2 1 x 2
3 4 +x 4 +y
_
=
_
0 1 1
z 8 +x y
_
.
29
30 CAP
ITULO 4.
ALGEBRA MATRICIAL
La matriz (A), llamada inversa aditiva de A, es denidad como la matriz obtenida del
negativo de cada entrada de A, esto es, si A = (a
ij
), entonces:
A = (a
ij
).
De esto sigue la denicion de sustraccion de matrices. Para dos matrices del mismo orden, la
diferencia AB es denida para ser la matriz AB = A+ (B), as
(AB)
ij
= a
ij
b
ij
para cada i, j.
Propiedades de la Adicion Matricial
Para A, B, C IR
mn
, las siguientes propiedades se cumplen:
Propiedad de clausura: A+ B IR
mn
.
Propiedad asociativa: (A +B) +C = A+ (B + C).
Propiedad conmutativa: A+ B = B + A.
Identidad aditiva: La matriz 0 IR
mn
, cuyas entradas son cero, tienen la propiedad
A+ 0 = A.
Inversa aditiva: La matriz (A) IR
mn
tiene la propiedad A+ (A) = 0.
Considere la suma de la forma:
A+ A+ + A
. .
k veces
,
en la cual A es sumada k veces. Por denicion de la adicion se tiene que la ij-esima entrada
de tal suma es:
[A+ A+ +A]
ij
= a
ij
+a
ij
+ + a
ij
= ka
ij
.
Esto motiva la siguiente denicion de forma natural.
4.1.2 Multiplicacion Escalar
Denicion 4.1.2 (Multiplicacion escalar). El producto de un escalar y una matriz A es
denotada por A y denida como la matriz obtenida al multiplicar cada entrada de A por .
Esto es, si A = (a
ij
), entonces:
(A)
ij
= a
ij
para cada i, j.
Esta operacion es llamada multiplicacion escalar.
Ejemplo 4.1.2. Aplicando la denicion de m ultiplicacion escalar se tiene que
2
_
_
1 2 3
0 1 2
1 4 2
_
_
=
_
_
2 4 6
0 2 4
2 8 4
_
_
y
_
_
1 2
3 4
0 1
_
_
=
1
2
_
_
2 4
6 8
0 2
_
_
.
4.1. ADICI
ON, MULTIPLICACI
ON ESCALAR Y TRANSPUESTA 31
Propiedades de la Multiplicacion Escalar
Para matrices A, B IR
mn
y escalares , , las siguientes propiedades se cumplen:
Propiedad de clausura: A IR
mn
.
Propiedad asociativa: () A = (A)
Propiedad distributiva: (A +B) = A+ B, la multiplicacion escalar es distributiva
sobre la adicion escalar.
Propiedad distributiva: ( +) A = A +A, la multiplicacion escalar es distributiva
sobre la adicion escalar.
Propiedad identidad: 1A = A.
Dada una matriz A IR
mn
, es frecuente manipular una matriz asociada obtenida de A al
intercambiar sus renglones y columnas.
4.1.3 La Transpuesta de una Matriz
Denicion 4.1.3 (Transpuesta). Para una matriz A IR
mn
, la transpuesta de A, deno-
tada por A
)
ij
= a
ji
para cada i, j.
Ademas A
IR
nm
. As, es evidente que (A
= A
Ejemplo 4.1.3. Aplicando la denicion de transpuesta de una matriz, se tiene que
_
_
1 2
3 4
5 6
_
_
=
_
1 3 5
2 4 6
_
.
Observe que la matriz
A =
_
_
1 2 3
2 4 5
3 2 6
_
_
, es igual a su transpuesta, esto es A = A
, i.e. si a
ij
= a
ji
.
A es llamada antisimetrica si:
A = A
, i.e. si a
ij
= a
ji
.
32 CAP
ITULO 4.
ALGEBRA MATRICIAL
Propiedades de la Transpuesta
Si A, B, IR
mn
, y si es un escalar entonces se cumple.
i) (A+ B)
= A
+ B
.
ii)(A)
= A
.
Demostracion. Por la denicion de matriz transpuesta y adicion matricial se verica lo
siguiente:
i)
_
(A+ B)
_
ij
= (A +B)
ji
= a
ji
+ b
ji
= (A
)
ij
+ (B
)
ij
= (A
+ B
)
ij
ii)
_
(A)
_
ij
= (A)
ji
= a
ji
= (A
)
ij
= (A
)
ij
.
4.2 Linealidad
En matematica elemental, el termino funcion lineal se reere a lineas rectas, pero en matematica
avanzada la linealidad signica algo mas general. Recordando, una funcion f es una regla que
asocia puntos de un conjunto D, llamado dominio de f , con puntos en otro conjunto R, el
rango de f. Una funcion lineal es un tipo particular de funcion la cual es caracterizada por la
siguiente dos propiedades.
Denicion 4.2.1 (Funcion lineal). Suponga que D y R son conjuntos, los cuales poseen las
operaciones adicion matricial y multiplicacion escalar. Una funcion f la cual mapea puntos
de D a R se dice que es una funcion lineal si f satisface:
f(x + y) = f(x) +f(y) (4.1)
y
f(x) = f(x), (4.2)
para cada x y y en D y para toda real . Estas dos condiciones pueden ser cambiadas, i.e. f
es una funcion lineal si:
f(x + y) = f(x) +f(y), (4.3)
para todo escalar a y para todo x, y D.
Una de las funciones lineales mas simple es:
f(x) = x,
cuya graca en IR
2
es una linea recta.
Veriquemos que f(x) = x es efectivamente una funcion lineal, usando (4.3). Sean x
1
, x
2
IR
y
escalar, entonces
f(
x
1
+x
2
) = (
x
1
+x
2
) = (
x
1
) +x
2
=
(x
1
) +x
2
=
f(x
1
) +f(x
2
).
4.2. LINEALIDAD 33
En IR
3
, la supercie descrita por la funcion
f(x
1
, x
2
) =
1
x
1
+
2
x
2
es una funcion lineal ya que para (y
1
, y
2
), (z
1
, z
2
) IR
2
y para todo escalar se tienen:
f((y
1
, y
2
) + (z
1
, z
2
)) = f(y
1
+ z
1
, y
2
+ z
2
) =
1
(y
1
+ z
1
) +
2
(y
2
+ z
2
) =
(
1
y
1
+
2
y
2
) + (
1
z
1
+
2
z
2
) = f(y
1
, y
2
) +f(z
1
, z
2
).
As, podemos generalizar diciendo que la funcion
f(x
1
, x
2
, , x
n
) =
1
x
1
+
2
x
2
+ +
n
x
n
es una funcion lineal.
La linealidad es encontrada en diferentes familias de operaciones. Por ejemplo en la diferen-
ciacion y en la integracion.
Dado que
d(f +g)
dx
=
df
dx
+
dg
dx
y
d(f)
dx
=
df
dx
,
el operador diferenciacion denida por D
x
(f) =
df
dx
cumple las condiciones para ser una funcion
lineal.
Similarmente
_
(f + g)dx =
_
fdx +
_
gdx y
_
fdx =
_
fdx,
signica que el operador integral I(f) =
_
fdx es una funcion lineal.
Ahora, considere el operador transpuesta y de sus propiedades se tiene que:
(A+ B)
= A
+ B
y (A)
= A
.
Esto signica que la funcion transpuesta ()
ITULO 4.
ALGEBRA MATRICIAL
Ejemplo 4.2.1. Para una matriz A = (a
ij
) IR
nn
, la traza de A es denida como la suma
de las entradas de las diagonal principal de A. Esto es:
tr(A) =
n
i=1
a
ii
.
La traza es una funcion lineal por que las propiedades
tr(A+ B) = tr(A) +tr(B) y tr(A) = tr(A),
se cumplen para A, B IR
nn
y para todo escalar . Veriquemos tales propiedades.
Sea f(A) = tr(A) : IR
nn
IR, y sea A = (a
ij
) y B = (b
ij
), entonces
tr(A + B) =
n
i=1
(A +B)
ii
=
n
i=1
(a
ii
+ b
ii
) =
n
i=1
a
ii
+
n
i=1
b
ii
=
tr(A) + tr(B).
Ejemplo 4.2.2. Para una matriz dada A = (a
ij
) IR
mn
, muestre que la funcion U = f(x)
la cual mapea puntos
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ IR
n
en puntos U =
_
_
_
u
1
.
.
.
u
n
_
_
_ IR
m
de acuedo a la regla
a
11
x
1
+ + a
1n
x
n
= u
1
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ + a
mn
x
n
= u
m
AX = U, es lineal.
Solucion: Exprese la imagen de un punto arbitrario x como
f(x) = f
_
_
_
x
1
.
.
.
x
n
_
_
_ =
_
_
_
a
11
x
1
+ +a
1n
x
n
= u
1
.
.
.
a
m1
x
1
+ +a
mn
x
n
= u
m
_
_
_ = x
1
_
_
_
a
11
.
.
.
a
m1
_
_
_ + +
x
n
_
_
_
a
1n
.
.
.
a
mn
_
_
_ = x
1
A
1
+ +x
n
A
n
=
n
j=1
x
j
A
j
,
donde A
j
es la j-esima columna de A.
Ahora, para cada par de puntos
4.3. MULTIPLICACI
ON MATRICIAL 35
X =
_
_
_
x
1
.
.
.
x
n
_
_
_ y Y =
_
_
_
y
1
.
.
.
y
n
_
_
_
y para todo escalar , tenemos
f(x + y) = f
_
_
_
x
1
+y
1
.
.
.
x
n
+y
n
_
_
_ =
n
j=1
(x
j
+ y
j
) A
j
=
n
j=1
(x
j
A
j
+ y
j
A
j
) =
n
j=1
x
j
A
j
+
n
j=1
y
j
A
j
= f(x) + f(y).
De acuerdo a (4.3), la funcion f es lineal.
La funcion lineal en el ejemplo anterior toma la forma
f(x) = x
1
A
1
+ x
2
A
2
+ + x
n
A
n
=
n
j=1
x
j
A
j
,
donde las x
j
s son escalares y las A
j
s son columnas, es llamada combinacion lineal.
Denicion 4.2.2 (Combinacion lineal). Para escalares
j
y matrices o columnas X
j
, la
expresion
1
X
1
+ +
n
X
n
=
n
j=1
j
X
j
,
es llamada una combinacion lineal de las x
j
s.
4.3 Multiplicacion Matricial
En esta seccion desarrollamos el concepto de multiplicacion matricial. Para esto, es util comen-
zar por multiplicacion de un renglon y una columna, si
R
= (r
1
, r
2
, r
n
) y C =
_
_
_
c
1
.
.
.
c
n
_
_
_,
el producto interno (o producto punto) de R y C se dene como el escalar:
R
C = r
1
c
1
+r
2
c
2
+ r
n
c
n
=
n
i=1
r
i
c
i
36 CAP
ITULO 4.
ALGEBRA MATRICIAL
Ejemplo 4.3.1. Aplicando la denicion de producto interno, se tiene que
_
2 4 2
_
_
_
1
2
3
_
_
= (2 + 8 6) = 4.
Se dice que las matrices A y B son conformables si el n umero de columna de A es el mismo
que el n umero de renglones de B. i.e. A IR
mp
y B IR
pn
.
Denicion 4.3.1 (Multiplicacion matricial). Para matrices conformables A
mp
= (a
ij
)
y B
pn
= (b
ij
), el producto matricial AB es la matriz m n cuyo ij- esimo elemento es el
producto interno del i-esimo rengl on de A y la j-esima columna de B. i.e.
(AB)
ij
= A
i
B
j
=
p
k=1
a
ik
b
kj
.
En caso de que A y B no sean conformables, entonces AB no esta denido.
Ejemplo 4.3.2. Si las entradas de A y B son:
A =
_
2 1 4
3 0 5
_
y B =
_
_
1 3 3 2
2 5 1 8
1 2 0 2
_
_
,
entonces el producto AB es
AB =
_
2 1 4
3 0 5
_
_
_
1 3 3 2
2 5 1 8
1 2 0 2
_
_
=
_
8 3 7 4
8 1 9 4
_
.
Note que el producto BA no esta denido ya que B y A no son conformables, ya que B IR
34
y A IR
23
.
A un cuando el producto AB y BA existen y tienen la misma forma, ellos no necesariamente
son iguales.
Ejemplo 4.3.3. Si A y B son matrices tales que
A =
_
1 1
1 1
_
y B =
_
1 1
1 1
_
,
4.3. MULTIPLICACI
ON MATRICIAL 37
entonces
AB =
_
0 0
0 0
_
y BA =
_
2 2
2 2
_
.
Esta es una de las principales diferencia entre el algebra escalar y el algebra matricial. As, la
multiplicacion matricial no es conmutativa. Otra diferencia se muestra acontinuaion.
Para escalares
= 0 implica que = 0 o = 0.
Lo cual no se cumple para la multiplcacion matricial. Pues es posible que AB = 0 con A ,= 0
y B ,= 0.
Otra diferencia es la ley de cancelacion, para escalares, esta ley dice que:
= y ,= 0 implica que = .
Lo cual no se cumple para la multiplicacion matricial, como se muestra en el siguiente ejemplo.
Ejemplo 4.3.4. La ley de cancelacion falla para la multiplicacion matricial, si
A =
_
1 1
1 1
_
, B =
_
2 2
2 2
_
y C =
_
3 1
1 3
_
,
entonces
AB =
_
4 4
4 4
_
= AC, pero B ,= C.
Los Renglones de un Producto
Para matrices A
mp
= (a
ij
) y B
pn
= (b
ij
), el i-esimo renglon de AB es dado por:
(AB)
i
= A
i
B.
Esto es (i-esimo renglon de AB) = (i-esimo renglon de A)B, Ademas:
(AB)
i
= a
i1
B
1
+ a
i2
B
2
+ +a
ip
B
p
=
p
k=1
a
ip
B
p
.
Esto es, el i-esimo renglon de AB es una combinacion lineal de los renglones de B.
38 CAP
ITULO 4.
ALGEBRA MATRICIAL
Las Columnas de un Producto
Para matrices A
mp
= (a
ij
) y B
pn
= (b
ij
), la j-esima columna de AB es:
(AB)
j
= AB
j
.
Esto es, la (j-esima columna de AB) =A(j-esimo renglon de B). Ademas
(AB)
j
= A
1
b
1j
+A
2
b
2j
+ +A
p
b
pj
=
p
k=1
A
k
b
kj
Esto es, la j-esima columna de AB es una combinaci on lineal de las columnas de A.
As, AB =
_
_
A
1
B
.
.
.
A
p
B
_
_ =
_
AB
1
AB
p
_
.
4.3.1 Propiedades de la Multiplicacion Matricial
Teorema 4.3.1. Para matrices conformables se tiene:
i) A(B + C) = AB +AC (Ley distributiva del lado izquierdo)
ii) (D +E)F = DF +EF (Ley distributiva del lado derecho)
iii) A(BC) = (AB)C (Ley asociativa).
Demostracion.
i) Se demostrara que [A(B + C)]
ij
= [AB + AC]
ij
.
Por denicion de multiplicacion matricial se tiene:
[A(B +C)]
ij
= A
i
(B +C)
j
=
k
a
ik
(B +C)
kj
=
k
a
ik
(b
kj
+c
kj
) =
k
a
ik
b
kj
+
k
a
ik
c
kj
= A
i
B
j
+A
i
C
j
= (AB)
ij
+ (AC)
ij
= (AB + AC)
ij
.
ii) Analogamante a i).
iii) [A(BC)]
ij
= A
i
(BC)
j
= A
k
B
k
c
kj
=
k
A
i
B
k
c
kj
=
k
(AB)
ik
c
kj
= (AB)
i
C
j
=
[(AB) C]
ij
.
Denicion 4.3.2 (Matriz identidad). La matriz n n con 1s en la diagonal principal y
0s fuera de ella,
I
n
=
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
,
4.3. MULTIPLICACI
ON MATRICIAL 39
es llamada matriz identidad de orden n.
Para cada matriz A
AI
n
= A y I
n
A = A.
ya que
(AI
n
)
ij
= A
i
I
j
=
k
a
ik
(I)
kj
= a
ij
.
Por tanto
AI
n
= A.
De igual forma se demuestra que I
n
A = A.
Analogamente al algebra escalar se dene, para una matriz A IR
nn
.
A
0
= I
n
y A
n
= AA A
. .
n veces
.
Se generaliza la ley usual de exponentes. Para enteros no negativos r, s.
A
r
A
s
= A
r+s
y (A
r
)
s
= A
rs
.
Teorema 4.3.2. Para matrices conformables A y B,
(AB)
= B
.
Demostracion. Por denicion de transpuesta y multiplicacion matricial, se verica la sigui-
ente cadena de igualdades:
(AB)
ij
= (AB)
ji
= A
j
B
i
=
k
a
jk
b
kj
=
k
b
ki
a
jk
=
k
(B
)
ik
(A
)
kj
= (B
)
ij
.
Ejemplo 4.3.5. Para cada matriz A IR
mn
, los productos A
A y AA
son matrices
simetricas por que:
(A
A)
= A
(A
= A
A y (AA
= (A
= AA
.
Ejemplo 4.3.6. Demuestre que
tr(AB) = tr(BA).
Solucion: Por la denicion de traza y del producto de matrices, se tiene que
tr(AB) =
i
(AB)
ii
=
i
A
i
B
i
=
i
j
a
ij
b
ji
=
j
i
b
ji
a
ij
=
j
B
j
A
j
=
j
(BA)
jj
= tr(BA).
40 CAP
ITULO 4.
ALGEBRA MATRICIAL
4.4 Multiplicacion de Matrices Particionadas
Supongase que A y B son particionadas en submatrices, tambien llamadas bloques, como se
indica a continuacion:
A =
_
_
_
_
_
A
11
A
12
A
1r
A
21
A
22
A
2r
.
.
.
.
.
.
.
.
.
.
.
.
A
s1
A
s2
A
sr
_
_
_
_
_
y B =
_
_
_
_
_
B
11
B
12
B
1t
B
21
B
22
B
2t
.
.
.
.
.
.
.
.
.
.
.
.
B
r1
B
r2
B
rt
_
_
_
_
_
.
Si los pares (A
ik
, B
kj
) son conformables, entonces A y B se dicen que son particionadas con-
formables. Para tales matrices, el producto AB es formado por la combinacion de los bloques
de la misma forma como los escalares, son combinados en la multiplicacion ordinaria, esto es,
el (i, j) - bloque en AB es:
A
i1
B
1j
+A
i2
B
2j
+ + A
ir
B
rj
.
Ejemplo: Considere las matrices particionadas
A =
_
_
_
_
1 2 1 0
3 4 0 1
1 0 0 0
0 1 0 0
_
_
_
_
=
_
C I
I 0
_
, B =
_
_
_
_
1 0 0 0
0 1 0 0
1 2 1 2
3 4 3 4
_
_
_
_
=
_
I 0
C C
_
As
AB =
_
C I
I 0
__
I 0
C C
_
=
_
2CI CI
I
2
0
_
=
_
_
_
_
2 4 1 2
6 8 3 4
1 0 0 0
0 1 0 0
_
_
_
_
.
Denicion 4.4.1 (Matriz Inversa). Para una matriz cuadrada A
nn
, la matriz B
nn
, la
cual satisface que:
AB = BA = I
n
,
es llamada la inversa de A, y es denotada por:
B = A
1
.
No toda la matriz cuadrada tiene inversa. La matriz cero es un ejemplo trivial. Una matriz
que tiene inversa es llamada matriz no singular y si no posee inversa inversa es llamada matriz
singular.
Ejemplo: Si
4.4. MULTIPLICACI
ON DE MATRICES PARTICIONADAS 41
A =
_
a b
c d
_
donde = ad bc ,= 0.
Entonces
A
1
=
1
_
d b
c a
_
,
ya que
AA
1
= A
1
A = I.
Teorema 4.4.1 (Unicidad de la Inversa). Para una matriz singular A, A
1
= B es unica.
Demostracion. Supongamos que existe C tal que AC = CA = I. As, C = CI = C(AB) =
(CA)B = IB = B. Por tanto B = A
1
es unica.
Calculo de la Inversa de una Matriz
Una matriz A IR
nn
es no singular si y solo si la matriz aumentada [A [ I] puede ser reducida
por renglones a la forma [I [ X], en cuyo caso X = A
1
. Esto es
[A [ I]
GaussJordan
[I [ X].
La matriz es singular si y solo si la reduccion falla.
Ejemplo: Si es posible encuentra la inversa de A =
_
_
1 1 1
1 2 2
1 2 3
_
_
.
Solucion.
(A [ I) =
_
_
1 1 1 1 0 0
1 2 2 0 1 0
1 2 3 0 0 1
_
_
_
_
1 1 1 1 0 0
0 1 1 -1 1 0
0 1 2 -1 0 1
_
_
_
_
1 0 0 2 -1 0
0 1 1 -1 1 0
0 0 1 0 -1 1
_
_
_
_
1 0 0 2 -1 0
0 1 0 -1 2 -1
0 0 1 0 -1 1
_
_
.
As, A
1
=
_
_
2 1 0
1 2 1
0 1 1
_
_
.
Teorema 4.4.2 (Existencia de una Inversa). Para una matriz A IR
nn
, los siguientes
enunciados son equivalentes para decir que A
1
existe:
42 CAP
ITULO 4.
ALGEBRA MATRICIAL
r(A) = n
Ax = 0 implica que x = 0.
Demostracion. A es no singular, si cada ecuacion Ax = I
j
, tiene una unica solucion. De
resultados de sistemas consistentes Ax = b tiene solucion unica si y solo si r(A) = n. De
resultados del sistema homogeneo Ax = 0 tiene solucion unica, x = 0, si r(A) = n.
Propiedades de la matriz inversa
Si A y B son matrices no singulares, entonces se cumple lo siguiente:
i) (A
1
)
1
= A
ii) El producto AB es no singular.
iii) (AB)
1
= B
1
A
1
.
iv) (A
1
)
= (A
)
1
Demostracion. i) Sigue inmediato de la denicion de inversa.
iii) Sea x = B
1
A
1
, entonces
(AB)x = ABB
1
A
1
= AA
1
= I. As, (AB)
1
= B
1
A
1
, y por consiguiente AB es no
singular, demostrando ii).
iv) Sea x = (A
1
)
, as A
x = A
(A
1
)
= (A
1
A)
= I. Por tanto (A
)
1
= (A
1
)
.
Teorema 4.4.3. Si A
1
, A
2
, , A
k
son matrices n n singulares, entonces el producto
A
1
A
2
A
k
es no singular y
(A
1
A
2
A
k
)
1
= A
1
k
A
2
k1
A
1
1
.
Demostracion. Utilizando iii) e induccion completa.
Ejemplo 4.4.1 (Teorema de Sherman-Morrison). Si A IR
nn
es no singular y si c y
d son columnas n 1 tal que 1 + d
A
1
c ,= 0, entonces la suma A + cd
es no sincgular, y su
inversa es:
(A+ cd
)
1
= A
1
A
1
cd
A
1
1 +d
A
1
c
ya que
(A+ cd
) (A+ cd
)
1
= (A+cd
)
_
A
1
A
1
cd
A
1
1 +d
A
1
c
_
= I
cd
A
1
1 + d
A
1
c
+cd
A
1
cd
A
1
cd
A
1
1 +d
A
1
c
= I +
c
1 + d
A
1
c
__
1 + d
A
1
c
_
I I d
A
1
c
A
1
= I.
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 43
Teorema 4.4.4 (Teorema de Sherman-Morrison-Woodbury). Si A IR
nn
es una
matriz no singular y si C IR
nk
y D IR
kn
son matrices tal que I + D
A
1
C es no
singular, entonces la suma A+ CD
es no singular y
(A+ CD
)
1
= A
1
A
1
C
_
I + D
A
1
C
_
1
D
A
1
.
Demostracion.
(A+ CD
)
_
A
1
A
1
C
_
I + D
A
1
C
_
1
D
A
1
_
= I C
_
I +D
A
1
C
_
1
D
A
1
+CD
A
1
CD
A
1
C
_
I + D
A
1
C
_
1
D
A
1
=
I +C
__
I + D
A
1
C
_
I D
A
1
C
_
I + D
A
1
C
_
1
D
A
1
= I
4.5 Matrices Elementales y Equivalentes
4.5.1 Matrices Elementales
Denicion 4.5.1 (Matrices elementales). Matrices de la forma I uv
, donde u y v son
columnas n 1 tal que v
)
1
= I
uv
u 1
. (4.4)
Note que la inversa de una matriz elemntal es de nuevo una matriz elemental.
Estamos interesados en matrices elementales asociadas con las tres operaciones elementales de
renglones, por ejemplo las matrices
E
1
=
_
_
0 1 0
1 0 0
0 0 1
_
_
, E
2
=
_
_
1 0 0
0 0
0 0 1
_
_
, E
3
=
_
_
1 0 0
0 1 0
0 1
_
_
, (4.5)
son matrices elementales asociadas a las operaciones elementales de renglones Tipo I,Tipo II
y Tipo III, respectivamente.
Para ver que las matrices dadas en (4.5) son elementales observe que
E
1
= I uu
, donde u = e
1
-e
2
=
_
_
1
0
0
_
_
_
_
0
1
0
_
_
=
_
_
1
1
0
_
_
44 CAP
ITULO 4.
ALGEBRA MATRICIAL
E
2
= I (1 )e
2
e
2
,
E
3
= I +e
3
e
1
.
En general se tiene. Sea I la matriz identidad de orden n, y sean e
i
y e
j
la i-esima y la j-esima
columna unitaria. Las matrices elementales asociadas a las operaciones elementales de renglon
(o columnas) son:
Tipo I: I uu
Donde u =e
i
-e
j
Tipo II: I (1 )e
i
e
i
Donde ,= 0
Tipo III: I + e
j
e
i
Donde ,= 0
Teorema 4.5.1 (Propiedades de Matrices Elementales). Las matrices elementales tienen
las siguientes propiedades:
i) Cuando usamos como multiplo de lado izquierdo, una matriz elemental de tipo # ejecuta
una operacion de renglon de tipo #.
ii) Cuando usamos como multiplo de lado derecho, una matriz elemental de tipo # ejecuta una
operacion de columna de tipo #.
iii) La inversa de una matriz elemental de tipo # es de nuevo una matriz elemental de tipo #.
Mas especicamente:
(I uu
)
1
= I uu
Donde u=e
i
-e
j
(I (1 )e
i
e
i
)
1
= I (1 )e
i
e
i
Donde ,= 0
(I + e
j
e
i
)
1
= I + e
j
e
i
Para i ,= j.
Demostracion. Se probara las primeras dos propiedades, i) y ii), para el casa de operaciones
de Tipo III. Usamos I + e
j
e
i
como multiplo de lado izquierdo sobre A se tiene
(I +e
j
e
i
) A = A +e
j
e
i
A = A +e
j
A
i
= A+
_
_
_
_
_
_
_
_
0 0 0
.
.
.
.
.
.
.
.
.
a
i1
a
i2
a
in
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
Esta es exatamente la matriz producida por una operacion de renglon de tipo III en la cual el
i-esimo renglon de A es multiplicado por y el resultado es sumado al j-esimo renglon.
Cuando I + e
j
e
i
es usado como multiplo de lado derecho sobre A, se tiene
A(I +e
j
e
i
)= A+Ae
j
e
i
= A +A
j
e
i
= A+ =
_
_
_
_
_
0 a
1j
0
0 a
2j
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 a
mj
0
_
_
_
_
_
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 45
Este es resultado de la operacion de columnas de Tipo III, en la cual la j-esima es multiplicada
por y despues es sumada a la i-esima columna.
Para mostrar iii) aplique (4.4).
Ejemplo 4.5.1. Las operaciones elementales por renglones para reducir a
A =
_
_
1 2 4
2 4 8
3 6 13
_
_
en E
A
son mostradas de la forma siguiente.
A =
_
_
1 2 4
2 4 8
3 6 13
_
_
R
2
2R
1
R
3
3R
1
_
_
1 2 4
0 0 0
0 0 1
_
_
R
2
por R
3
_
_
1 2 4
0 0 1
0 0 0
_
_
R
1
4R
2
_
_
1 2 0
0 0 1
0 0 0
_
_
= E
A
.
Las reduccion puede llevarse acabo por una secuencia de multiplicaciones de lado izquierdo de
matrices elementales.
_
_
1 4 0
0 1 0
0 0 1
_
_
_
_
1 0 0
0 0 1
0 1 0
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
1 0 0
2 1 0
0 0 1
_
_
A = E
A
.
El producto de estas matrices elementales es P =
_
_
13 0 4
3 0 1
2 1 0
_
_
, y se puede vericar que
PA = E
A
.
Teorema 4.5.2. Una matriz A es no singular si y solo si A es producto de matrices elementales
de Tipo I,II o III.
Demostracion. Si A es no singular, el metodo de Gauss-Jordan reduce a A en I por opera-
ciones de renglon, si G
1
,G
2
, G
k
, es la secuencia de matrices elementales correspondientes a
las operaciones de renglones empleadas, entonces
G
k
G
2
G
1
A = I, o equivalentemente A = G
1
1
G
1
2
G
1
k
.
Dado que la inversa de una matriz elemental es de nuevo una matriz elemental del mismo tipo,
esto pueba que Q
ITULO 4.
ALGEBRA MATRICIAL
4.5.2 Matrices Equivalentes
Denicion 4.5.2 (Matrices equivalentes). Si B puede ser derivada de A por una com-
binacion de operaciones elementales de renglones y columnas, escribase AB, decimos que A
y B son matrices equivalentes. Dado que las operaciones elementales de renglones y columnas
son multiplicaciones por la izquierda y la derecha de matrices elementales, se puede escribir
A B matrices P y Q no singular tal que PAQ = B
Si B puede ser obtenida de A mediante una secuencia solo de operaciones de renglones,
escribase A
row
B, decimos que A y B son equivalentes por renglones.
A
row
B P no singular tal que PA = B.
Si B puede ser obtenida de A mediante operaciones elementales de columnas, solamente,
escribase A
col
B, decimos que A y B son equivalentes por columnas.
A
col
B Q no singular tal que AQ = B.
Si es posible ir de A a B mediante operaciones elementales de renglones y columnas, entonces
es claro que es posible comenzar con B y regresar a A porque las operaciones elementales son
reversibles, i.e. PAQ = B P
1
BQ
1
= A. Por tanto tiene sentido hablar acerca de la
equivalencia de un par de matrices sin considerar el orden. En otras palabras, A B B A.
Ademas, no es dicil ver que cada tipo de equivalencia es transitiva. Por ejemplo,
A
row
B y B
row
C A
row
C.
Teorema 4.5.3 (La forma normal de rango). Si A IR
mn
es una matriz tal que r(A) = r,
entonces
A N
r
=
_
I
r
0
0 0
_
.
La matriz N
r
es llamada la forma normal de rango de A. N
r
es el producto nal de una
reduccion completa de A pero usando operaciones de renglones y columnas.
Demostracion. Siempre es verdad que A
row
E
A
, as que hay una matriz no singular P tal
que PA = E
A
. Si r(A) = r, entonces las columnas base en E
A
son r columnas unitarias. Apli-
cando intercambio de columnas a E
A
para remover estas columnas unitarias al lado izquierdo
superior. Si Q
1
es el producto de estas matrices elementales que corresponden al intercambio
de columnas, entonces PAQ
1
tiene la forma
PAQ
1
= E
A
Q
1
=
_
I
r
J
0 0
_
.
4.5. MATRICES ELEMENTALES Y EQUIVALENTES 47
Posmultiplicando ambos lados de la ecuacion por la matriz no singular
Q
2
=
_
I
r
J
0 I
_
,
produce
PAQ
1
Q
2
=
_
I
r
J
0 0
__
I
r
J
0 I
_
=
_
I
r
0
0 0
_
.
Dado que el producto Q = Q
1
Q
2
es no singular, entonces A N
r
.
Ejemplo 4.5.2. Problema: Explicar porque el r
_
A 0
0 B
_
= r(A) +r(B).
Solucion: Si r(A) = r y r(B) = s, entonces A N
r
y B N
s
, por lo que
_
A 0
0 B
_
_
N
r
0
0 N
s
_
r
_
A 0
0 B
_
= r
_
N
r
0
0 N
s
_
= r +s.
Teorema 4.5.4. Para matrices A, B IR
mn
se cumple lo siguiente:
i) A B si y solo si r(A) = r(B).
ii) A
row
B si y solo si E
A
= E
B
.
iii) A
col
B si y solo si E
A
= E
B
.
Demostracion.
i) Si r(A) = r(B), entonces A N
r
y B N
r
. Por tanto A N
r
B, de donde A B.
Por otro lado si A B, donde r(A) = r y r(B) = s, entonces A N
r
y B N
s
, as
N
r
A B N
s
, de donde N
r
N
s
. Por tanto r = s.
ii) Suponga que A
row
B. Dado que B
row
E
B
, entonces A
row
E
B
. Pero la forma escalonada
reducida es unica, por tanto E
A
= E
B
. Inversamente, E
A
= E
B
, entonces
A
row
E
A
= E
B
row
B A
row
B.
iii) Sigue de ii) considerando la transpuesta, i.e.
A
col
B AQ = B Q
= B
row
B
.
Teorema 4.5.5. La transposicion no cambia el rango, i.e. para toda matriz mn se cumple
que r(A) = r(A
).
48 CAP
ITULO 4.
ALGEBRA MATRICIAL
Demostracion. Suponga que r(A) = r as que existen matrices no singulares P y Q tal que
PAQ = N
r
=
_
I
r
0
rnr
0
mrr
0
mrnr
_
.
Aplicando transpuesta se tiene
Q
= N
r
, por lo que A
r
,
y por lo tanto
r(A
) = r(N
r
) = r
_
I
r
0
rnr
0
mrr
0
mrnr
_
= r = r(A).
Ejemplo [Factorizacion de rango completo]. Sea A IR
mn
. Si r(A) = r, con r distinto de m
y n, mostrar que existe B IR
mr
y C IR
rn
tal que A = BC, donde r(B) = r(C) = r.
Solucion. Si r(A) = r, entonces A N
r
lo que implica que PAQ = N
r
, por lo que A =
P
1
_
I
r
0
_
_
I
r
0
_
Q
1
= BC.
4.6 Factorizaci on LU
Si Ax = b es un sistema no homogeneo, entonces el objeto de la eliminacion gaussiana es reducir
a A en una matriz triangular superior usando operaciones elementales de renglones. Si ning un
pivote es cero, entonces no es necesario intercambiar renglones y la reduccion puede hacerse
usando solamente operaciones elementales de renglones de tipo III. Por ejemplo, sonsidere
reducir la matriz
A =
_
_
2 2 2
4 7 7
6 18 22
_
_
a una forma triangular superior como se muestra abajo.
_
_
2 2 2
4 7 7
6 18 22
_
_
R
2
2R
1
R
3
3R
1
_
_
2 2 2
0 3 3
0 12 16
_
_
R
3
4R
2
_
_
2 2 2
0 3 3
0 0 4
_
_
= U.
Todas las operaciones son de tipo III, y el producto de matrices elementales es
G
3
G
2
G
1
=
_
_
1 0 0
0 1 0
0 4 1
_
_
_
_
1 0 0
0 1 0
3 0 1
_
_
_
_
1 0 0
2 1 0
0 0 1
_
_
=
_
_
1 0 0
2 1 0
3 4 1
_
_
.
4.6. FACTORIZACI
ON LU 49
Los resultados de las secciones previas garantizan que G
3
G
2
G
1
A = U, as que
A = G
1
1
G
1
2
G
1
3
U = LU,
donde L es una matriz triangular inferior
L = G
1
1
G
1
2
G
1
3
=
_
_
1 0 0
2 1 0
3 4 1
_
_
.
As, A = LU es el producto de una matriz triangular inferior L y una matriz triangular superior
U. Naturalmente, esto es llamado la factorizacion LU de A.
Observe que U es el producto nal de la eliminacion gaussiana y tiene los pivotes sobre su
diagonal principal, mientras que L tiene 1s en su diagonal. Mas a un cada entrada por debajo
de la diagonal de L, es el m ultiplo usado para ajustar la posicion (i, j) (considerando la entrada
l
ij
).
Para desarrollar la teora general, es conveniente introducir el concepto matriz triangular infe-
rior elemental, la cual es denida como una matriz triangular de la forma
T
k
= I c
k
e
k
donde c
k
es una columna con ceros en las primeras k posiciones. En particular si
c
k
=
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
k+1
.
.
.
n
_
_
_
_
_
_
_
_
_
_
, entonces T
k
=
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
0 1
_
_
_
_
_
_
_
_
_
_
_
_
.
Note que e
k
c
k
= 0, por lo que
T
1
k
= I + c
k
e
k
=
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0 0
0 0
k+1
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
0 1
_
_
_
_
_
_
_
_
_
_
_
_
.
Observe que T
1
k
es tambien una matriz triangular inferior elemental.
50 CAP
ITULO 4.
ALGEBRA MATRICIAL
La utilidad de las matrices triangulares inferiores elementales radica en el hecho de que todas
las operaciones de tipo III necesarias para eliminar las entradas de bajo del k-esimo pivote
pueden realizarse con una multiplicacion con T
k
. Si
A
k1
=
_
_
_
_
_
_
_
_
_
_
_
_
1
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
k
0 0
k+1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
n
_
_
_
_
_
_
_
_
_
_
_
_
es el resultado triangular parcial despues de k 1 pasos de eliminacion, entonces T
k
A
k1
=
(I c
k
e
k
)A
k1
= A
k1
c
k
e
k
A
k1
=
_
_
_
_
_
_
_
_
_
_
_
_
1
0
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0
k
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
, donde c
k
=
_
_
_
_
_
_
_
_
_
_
_
_
0
0
.
.
.
0
k+1
/
k
.
.
.
n
/
k
_
_
_
_
_
_
_
_
_
_
_
_
contiene los m ultiplos usados para eliminar aquellas entradas de bajo de
k
. Note que T
k
no
altera las primeras k 1 columnas de A
k1
porque
e
k
[A
k1
]
j
= 0 si j k 1.
Por tant, si no se requiere intercambiar renglones, entonces reducir A a una matriz triangular
superior usando eliminacion gaussiana es equivalente a ejecutar una sucesion de n 1 multi-
plicaciones de lado izquierdo con matrices triangulares inferiores elementales. Esto es,
T
n1
T
2
T
1
A = U.
de donde
A = T
1
1
T
1
2
T
1
n1
U.
Dado que T
1
k
= I +c
k
e
k
, entonces T
1
1
T
1
2
T
1
n1
= (I +c
1
e
1
)(I + c
2
e
2
) (I + c
n1
e
n1
)
= I + c
1
e
1
+ c
2
e
2
+ + c
n1
e
n1
.
4.6. FACTORIZACI
ON LU 51
Pero observe que
c
k
e
k
=
_
_
_
_
_
_
_
_
_
_
_
_
0 0 0 0 0
0 0 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0
0 0 l
k+1,k
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 l
n,k
0 0
_
_
_
_
_
_
_
_
_
_
_
_
,
donde las l
i,k
s son los m ultiplos usados en la k-esima etapa para eliminar las entradas de bajo
del k-esimo pivote. As,
A = LU
donde
L = I + c
1
e
1
+ c
2
e
2
+ + c
n1
e
n1
=
_
_
_
_
_
_
_
1 0 0 0
l
2,1
1 0 0
l
3,1
l
3,2
1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
l
n,1
l
n,2
l
n,3
1
_
_
_
_
_
_
_
.
52 CAP
ITULO 4.
ALGEBRA MATRICIAL
Captulo 5
Espacios vectoriales
5.1 Introduccion
Los espacios vectoriales involucran 4 cosas. Un conjunto 1 cuyos elementos son llamados
vectores, un conjunto T denominado campo y dos operaciones (+, adicion) y (, producto
escalar).
1 es un conjunto no vacio de elementos llamados vectores. El termino vector puede ser usado
de forma general. Aqui lo utilizamos para referirnos a las n-tuplas.
T es un campo escalar, para nosotros T sera IR.
+ Es la operacion de adicion entre los elementos de 1.
Es el producto escalar entre los elementos de 1 Y T.
Denicion 5.1.1 (Espacio vectorial). Sean 1, T, +, denidos anteriormente. El conjunto
1 es llamado espacio vectorial sobre T cuando + y satisfacen las siguientes propiedades.
A1. Cerradura: X +Y 1 para X, Y 1.
A2. Asociativa: (X + Y ) +Z = X + (Y + Z); para X, Y, Z 1.
A3. Conmutativa: X + Y = Y + X para X, Y 1.
A4. Neutro aditivo: X + 0 = X para cada X 1 con 0 1.
A5. Inverso aditivo: X + (X) = 0 para cada X 1 con (X) 1.
M1. Cerradura: X 1, donde X 1 Y T.
M2. Asociativa: () X = (X), para todo , T y cada X 1.
M3. Distributiva: (X + Y ) = X +Y , para cada T y para todo X, Y 1.
M4. Distributiva: ( + ) X = X +X, para todo , T y cada X 1.
M5. Neutro m ultiplicativo: 1X = X, para cada X 1.
53
54 CAP
ON 55
el conjunto de todas las posibles combinaciones lineales de los V
i
s es un subespacio de 1 por
que las dos propiedades de cerradura (A1) y (M1) son satisfechas. Esto es claro pues si
X =
1
V
1
+ ... +
r
V
r
y Y =
1
V
1
+ ... +
r
V
r
son dos combinaciones lineales de o), entonces la suma
X + Y = (
1
+
1
)V
1
+... + (
r
+
r
)V
r
=
1
V
1
+ ... +
r
V
r
tambien es una combinacion lineal de o). Similarmente, si IR, entonces
X = (
1
)V
1
+ ... + (
r
)V
r
es de nuevo una combinacion lineal de o).
Denicion 5.1.3 (Conjunto generador). Sea 1 un espacio vectorial sobre T y sea o =
V
1
, V
2
, ..., V
r
un conjunto de vectores de 1.
El subespacio
o) =
1
V
1
+ ... +
r
V
r
[
i
T
generado por todas las combinaciones lineales de los vectores de S es llamado el espacio
generado por S.
Si 1 = o), entonces S es el conjunto generador de 1.
o genera a 1 s y solo s cada V 1 es una combinacion lineal de los elementos de o.
Ejemplo 5.1.4. Los siguientes son ejemplos de conjuntos generadores:
(i) o =
__
1
1
_
,
_
2
2
__
genera a y = x en IR
2
.
(ii) o =
__
1
0
_
,
_
0
1
__
genera a IR
2
.
(iii) o = e
n
1
...e
n
n
donde e
n
i
= [00...010...0]
IR
n
genera a IR
n
.
(iv) El conjunto nito o =
_
1, X, X
2
, ..., X
n
_
genera a los polinomios cuyo grado es menor
o igual a n. El conjunto innito S =
_
1, X, X
2
, ..., X
n
, X
n+1
, ...
_
genera al conjunto de todos
los polinomios.
56 CAP
,
_
1 1 1
_
,
_
3 1 1
_
_
no genera a IR
3
porque el sistema
_
_
1 1 3
1 1 1
1 1 1
_
_
_
_
x
1
x
2
x
3
_
_
=
_
_
b
1
b
2
b
3
_
_
no es consistente. Recuerde que un sistema es consistente s y solo s r(A[b) = r(A). En
este caso, r(A) = 2 y r(A[b) = 3 vericandose la inconsistencia del sistema. Por otro lado el
sistema
o =
_
_
1 1 1
_
,
_
1 1 1
_
,
_
3 1 2
_
_
es un conjunto generador de IR
3
por que
A =
_
_
1 1 3
1 1 1
1 1 2
_
_
es no singular, y as el sistema Ax = b es consistente.
Denicion 5.1.4 (Suma de subespacios vectoriales). Si A e son subespacios vectoriales
de un espacio vectorial 1, entonces la suma de A e se dene como
A + = x +y [ x A e y .
Teorema 5.1.2. Sea A + la suma de dos subespacios vectoriales.
i) A + es un subespacio vectorial.
ii) Si o
X
genera a A y o
Y
genera a , entonces o
X
o
Y
genera a A +.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 57
Demostracion. i) Sean u, w A + entonces u = x
1
+ y
1
y w = x
2
+ y
2
con x
1
, x
2
A y
y
1
, y
2
. Luego
u +w = (x
1
+y
1
) + (x
2
+ y
2
) = (x
1
+ x
2
) + (y
1
+y
2
) A +
dado que (x
1
+ x
2
) A y (y
1
+ y
2
) . Por otro lado si x
1
A y y
1
para todo
IR, entonces
u = (x
1
+ y
1
) = x
1
+ y
1
A +.
ii) Denase o
X
= x
1
, x
2
, ..., x
r
y o
Y
= y
1
, y
2
, ..., y
r
de tal forma que A = o
X
) y Y = o
Y
).
Note que
o
X
_
o
Y
= x
1
, x
2
, ..., x
r
, y
1
, y
2
, ..., y
r
entonces
_
o
X
_
o
Y
_
=
1
x
1
+, ..., +
r
x
r
+
1
y
1
+, ... +
r
y
r
[
i
,
i
T .
As Z o
X
o
Y
) s y solo s Z =
r
i=1
i
X
i
+
t
i=1
i
Y
i
, pero
r
i=1
i
X
i
X y
t
i=1
i
Y
i
Y , por
tanto Z A +.
5.2 Los Cuatro Subespacios Fundamentales
Para una matriz A IR
mn
de n umeros reales, hay cuatro subespacios importantes, dos en
IR
m
y dos en IR
n
, los cuales estan asociados con A. El proposito de esta seccion es introducir
estos cuatro subespacios. Dos de ellos son denidos por los renglones y las columnas de A.
Denicion 5.2.1 (Espacio renglon y espacio columna). Si A IR
mn
, entonces el
espacio
A
=
A
1
, ..., A
m
_
IR
n
generado por los renglones de A, se llama espacio renglon de A. Similarmente, el espacio
(
A
= A
1
, ..., A
n
) IR
m
generado por las columnas de A, se llama espacio columna de A.
Teorema 5.2.1. Sean a
IR
n
, b IR
m
y A IR
mn
.
i) a
A
existe y
tal que y
A = a
.
ii) b (
A
existe x tal que Ax = b.
Demostracion. i) Si a
A
= A
1
, ..., A
m
), entonces
a
=
m
i=1
i
A
i
=
_
1
2
m
_
_
_
_
_
_
A
1
A
2
.
.
.
A
m
_
_
_
_
_
= y
A
58 CAP
=
_
1
2
m
_
. Similarmente, note que si b (
A
entonces
b =
n
i=1
i
A
i
=
_
A
1
A
2
A
n
_
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
= Ax
donde x =
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
.
Observe que una matriz A IR
mn
, dene una funcion lineal de IR
n
a IR
m
, mediante la
expresion f(x) = Ax : IR
n
IR
m
para f(x) = Ax. El dominio de f(x) es D = x [ x IR
n
i=1
i
A
i
[
i
IR
_
. Entonces, se puede decir que el
espacio columna es igual al conjunto imagen o rango de la funcion f(x) = Ax, as (
A
= Im(A).
Por otro lado Im(A
) es el espacio columna de A
) =
A
.
Ejemplo 5.2.1. Problema: Describir la Im(A) y la Im(A
) para la matriz A =
_
1 2 3
2 4 6
_
Solucion: Recuerde que Im(A) = (
A
, entonces
Im(A) = A
1
, A
2
, A
3
) =
1
A
1
+
2
A
2
+
3
A
3
[
1
,
2
,
3
IR .
Sin embargo, por simple inspeccion note que A
2
= 2A
1
y A
3
= 3A
1
, entonces debe ser claro
que
1
A
1
+
2
A
2
+
3
A
3
[
1
,
2
,
3
IR = A
1
[ IR ,
y as Im(A) = A
1
). Geometricamente, esta es la linea en IR
2
que pasa por el origen y el punto
(1, 2). Similarmente, Im(A
) =
A
, por tanto
Im(A
) = A
1
, A
2
) =
1
A
1
+
2
A
2
[
1
,
2
IR.
Pero A
2
= 2A
1
lo cual implica que
1
A
1
+
2
A
2
[
1
,
2
IR = A
1
[ IR,
as Im(A
) = A
1
). Esto es la linea en IR
3
que pasa por el origen y el punto (1, 2, 3).
En ocasiones es de interes conocer si dos matrices tienen el mismo espacio columna o el mismo
espacio renglon. El siguiente teorema resuelve este problema.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 59
Teorema 5.2.2. [Igualdad de espacio renglon o columna] Para dos matrices A y B de la misma
forma:
i) Im(A) = Im(B) si y solo si A
col
B
ii) Im(A
) = Im(B
) si y solo si A
row
B
Por denicion, los renglones de A generan Im(A
).
ii) Las columnas basicas en A generan Im(A).
Ejemplo 5.2.2. Problema: Determine los conjuntos generadores para Im(A) y Im(A
) donde
A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_
.
Solucion: Reduciendo a A a cualquier forma escalonada U se obtendra la solucion, ya que las
columnas basicas en A corresponden a las posiciones pivotales en U, y los renglones no cero
de U generan el espacio vector de A. Usando E
A
=
_
_
1 2 0 1
0 0 1 1
0 0 0 0
_
_
se tiene que Im(A) =
_
_
_
1
2
3
_
_
,
_
_
2
1
1
_
_
_
y
Im(A
) =
_
_
_
_
_
1
2
0
1
_
_
_
_
,
_
_
_
_
0
0
1
1
_
_
_
_
_
.
Se comento que hay cuatro subespacios asociados con una matriz, pero unicamente hemos
discutido dos de ellos, los espacios renglon y columna. Ahora se introducen los otros dos.
Denicion 5.2.2 (Espacios nulos). Para una matriz A IR
mn
, el conjunto
^(/) = x IR
n
[ Ax = 0 IR
n
60 CAP
) = y IR
m
[ y
A = 0
IR
m
es llamado espacio nulo izquierdo de A porque ^(/
A = 0
.
Cada espacio nulo es ademas un subespacio vectorial porque las propiedades de cerradura de
la adicion vectorial y de la m ultiplicacion escalar son satisfechas. Por ejemplo, si x, y ^(/),
entonces A(x + y) = Ax + Ay = 0 + 0 = 0, as (x + y) ^(/). Por otro lado para IR se
tiene A(x) = Ax = 0 = 0, y as x ^(/) si x ^(/).
Para determinar un conjunto generador para ^(/) donde r(A) = r, con A IR
mn
, se tiene
que reducir a A a una forma escalonada U, y resolver Ux = 0 para las variables basicas en
terminos de las variables libres para producir la solucion general de Ax = 0 en la forma
x = x
f
1
h
1
+ x
f
2
h
2
+ + x
f
nr
h
nr
.
El conjunto
o = h
1
, h
2
, , hn r
es el unico conjunto generador para ^(/). Se puede probar que o es unico en el sentido de
que o es independiente de la forma escalonada U.
Ejemplo 5.2.3. Problema: Determine el conjunto generador para ^(/) donde A =
_
1 2 3
2 4 6
_
.
Solucion: Usemos la forma escalonada reducida E
A
=
_
1 2 3
0 0 0
_
, de donde se tiene que
x
1
= 2x
2
3x
3
, as x
2
y x
3
son las variables libres. Aqu, la solucion general de Ax = 0 es
_
_
x
1
x
2
x
3
_
_
=
_
_
2x
2
3x
3
x
2
x
3
_
_
= x
2
_
_
2
1
0
_
_
+x
3
_
_
3
0
1
_
_
.
As, el conjunto o =
_
_
_
_
_
2
1
0
_
_
,
_
_
3
0
1
_
_
_
_
_
, es un conjunto que genera a ^(/).
Teorema 5.2.4. Si A IR
mn
, entonces:
i) ^(/) = 0 si y solo si r(A) = n.
ii) ^(/
) = 0 si y solo si r(A) = m.
5.2. LOS CUATRO SUBESPACIOS FUNDAMENTALES 61
Demostracion. Recuerde que la solucion trivial x = 0 es la unica solucion para Ax = 0 si y
solo si r(A) = n. Analogamente, la solucion trivial y = 0 es la unica solucion para A
y = 0 si
y solo si r(A
) = m, pero r(A
) = r(A).
Para obtener un conjunto generador para ^(/
a
una forma escalonada U y extraer la solucion general para A
).
En otras palabras, si P =
_
P
1
P
2
_
donde P
2
IR
mrm
, entonces
^(/
) = Im(P
2
).
Ejemplo 5.2.4. Problema: Determinar un conjunto generador para ^(/
) donde A =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
_
_
.
Solucion: Utilizando el metodo de Gauss-Jordan se obtiene la forma escalonada reducida de A
(A[I) =
_
_
1 2 2 3
2 4 1 3
3 6 1 4
1 0 0
0 1 0
0 0 1
_
_
_
_
1 2 0 1
0 0 1 1
0 0 0 0
1/3 2/3 0
2/3 1/3 0
1/3 5/3 1
_
_
.
Por tanto, r(A) = 2 y P =
_
_
1/3 2/3 0
2/3 1/3 0
1/3 5/3 1
_
_
, de donde se tiene que ^(/
) =
_
_
_
1/3
5/3
1
_
_
_
.
Teorema 5.2.6. Para dos matrices A y B de la misma forma:
i) ^(/) = N(B) si y solo si A
row
B.
ii) ^(/
) = N(B
) si y solo si A
col
B.
Todos los resultados obtenidos en esta seccion son presentados en el siguiente resumen.
Resumen
Los cuatro subespacios fundamentales asociados a una matriz A IR
mn
son los siguientes
La imagen o espacio columna: Im(A) = (
A
= Ax IR
m
.
La imagen izquierda o espacio reglon: Im(A
) =
A
= A
y IR
n
.
62 CAP
) = y [ A
y = 0 IR
m
.
Si A y B tienen la misma forma, entonces:
A
row
B ^(/) = ^(B) Im(A
) = Im(B
).
A
col
B Im(A) = Im(B) ^(/
) = ^(B
).
Si r(A) = r y P es una matriz no singular tal que PA = U donde U es una forma escalonada,
entonces
Las columnas basicas de A generan a Im(A).
Los renglones distintos de cero generan a Im(A
).
Resolver Ux = 0 para las variables basicas en terminos de las variables libres, y escribir
la solucion como x =
nr
i=1
x
f
i
h
i
. Las h
i
s generan a ^(/).
Los ultimos mr renglones de P generan a ^(/
).
5.3 Independencia Lineal
Para un conjunto de vectores S = v
1
, v
2
, , v
n
puede o no haber dependencia entre los
vectores, en el sentido de que ning un vector v
i
S puede ser expresado como una combinacion
lineal de los v
j
restantes de S. Por ejemplo para el conjunto
/ =
_
_
_
_
_
1
1
2
_
_
,
_
_
3
0
1
_
_
,
_
_
9
3
4
_
_
_
_
_
,
es obvio que v
3
= 3v
1
+ 2v
2
, es decir existe una dependencia del vector v
3
con v
1
y v
2
. Tal
dependencia siempre puede expresarse en terminos de un sistema homogeneo escribiendo
3v
1
+ 2v
2
v
3
= 0.
Por otro lado el conjunto
B =
_
_
_
_
_
1
0
0
_
_
,
_
_
0
1
0
_
_
,
_
_
0
0
1
_
_
_
_
_
,
representa un conjunto cuyos vectores no presentan una relacion de dependencia, ya que ni
uno de los vectores puede expresarse como una combinacion de los otros. Otra forma de decir
esto es que no hay soluciones
1
,
2
y
3
para el sistema homogeneo
1
v
1
+
2
v
2
+
3
v
3
= 0
distintas a la solucion trivial
1
=
2
=
3
= 0. Estas observaciones nos dan la base para la
siguiente denicion.
5.3. INDEPENDENCIA LINEAL 63
Teorema 5.3.1. [Independencia Lineal] Un conjunto de vectores o = v
1
, v
2
, , v
n
se dice
que es un conjunto linealmente independiente si la unica solucion para el sistema homogeneo
1
v
1
+
2
v
2
+ +
n
v
n
= 0
es la solucion trivial
1
=
2
= =
n
= 0. Si existe al menos una solucion distinta a la
trivial, para el sistema homogeneo, se dice que el conjunto es linealmente dependiente.
Ejemplo 5.3.1. Problema: Determine si el conjunto
S =
_
_
_
_
_
1
2
1
_
_
,
_
_
1
0
2
_
_
,
_
_
5
6
7
_
_
_
_
_
es linealmente independiente.
Solucion: Lo anterior equivale a encontrar las soluciones, si las hay, del sistema homogeneo,
Ax = 0 donde: A =
_
_
1 1 5
2 0 6
1 2 7
_
_
, as, aplicando el metodo de Gauss-Jordan se tiene
_
_
1 1 5
2 0 6
1 2 7
_
_
_
_
1 1 5
0 2 4
0 1 2
_
_
_
_
1 1 5
0 1 2
0 1 2
_
_
_
_
1 1 5
0 1 2
0 0 0
_
_
_
_
1 0 3
0 1 2
0 0 0
_
_
de donde se tiene que si A =
_
_
1 1 5
2 0 6
1 2 7
_
_
, entonces E
A
=
_
_
1 0 3
0 1 2
0 0 0
_
_
y por tanto existen
soluciones distintas a la trivial. Mas a un, E
A
revela la relacion de dependencia de S ya que se
observa que A
3
= 3A
1
+2A
2
. Este ejemplo indica por que la cuestion de que sin un subconjuto
de IR
m
es o no linealmente independiente es realmente una pregunta acerca de que si o no el
espacio nulo asociado con una matriz es el trivial. El siguiente teorema establece formalmente
este hecho.
Teorema 5.3.2. Para una matriz A IR
mn
:
Se tiene que los siguientes enunciados son equivalentes a decir que las columnas de A
forman un conjunto linealmente independiente.
i) ^(/) = 0
ii) r(A) = n
Los siguientes enunciados son equivalentes a decir que los reglones de A forman un
conjunto linealmente independiente.
iii) N(A
T
) = 0
iv) r(A) = m
64 CAP
n
_
_
_
_
tiene unicamente la solucion trivial
1
=
2
= =
n
= 0, lo cual es equivalente a decir
que ^(/) = 0. El hecho de que el ^(/) = 0 implica que r(A) = n, as i) y ii) son
demostradas. Ahora, para demostrar iii) y iv) sustituya A
ON 65
Para un conjunto no vacio de vectores o = u
1
, u
2
, , u
n
de un espacio vectorial 1, las
siguientes propisiciones son verdaderas
Si o contiene un subconjunto linealmente independiente, entoces o debe ser en si mismo
linealmente dependiente.
Si o es linealmente independiente, entonces cada subconjunto de o es tambien linealmente
independiente.
Si o es linealmente independiente y si v 1, entonces el conjunto extension o
ext
= o
v
es linealmente independiente si v / o).
Si o IR
m
y si n > m, entonces o debe ser linealmente dependiente.
5.4 Base y dimension
Recuerde que S es un conjunto generador de un espacio vectorial 1 si y solo si cada vector en 1
es una combinacion lineal de los vectores de S. Sin embargo los conjuntos generadores pueden
tener vectores redundantes. Por ejemplo, un subespacio L denido por una recta que pasa por
el origen en IR
2
puede ser generador para cualquier numero de vectores no ceros v
1
, v
2
, , v
k
ON 67
Teorema 5.4.1. Si / y ^ son espacios vectoriales tal que / ^ entonces:
i) dim/ ^.
ii) Si dim/= dim^, entonces /= ^.
Demostracion. Sea dim/= m y dim^ = n, y usando argumentos indirectos se demostara
i). Si m > n, entonces existe un subconjunto linealmente independiente de ^ (una base de
/) que contiene mas de n vectores. Pero esto es imposible porque dim^ es el tama no de un
subconjunto maximal independiente de ^. As m n. Ahora se probara ii). Si m = n pero
/,= ^, entonces existe un vector x tal que
x ^ pero x / /.
Si B es una base para /, entonces x / B), y el conjunto extension = B
x es un
subconjunto linealmente independiente de ^. Pero contiene m+ 1 = n + 1 vectores, lo cual
es imposible por que dim^ = n es el tama no de un subconjunto maximal independiente de
^. As /= ^.
Ahora, es facil determinar la dimesion de cada uno de los cuatro subespacios fundamentales
asociados a una matriz A.
Teorema 5.4.2. [Dimensiones de los cuatros subespacios fundamentales] Sea A IR
mn
tal
que r(A) = r, entonces
i) dimIm(A) = r
ii) dim^(/) = n r
iii) dimIm(A
) = r
iv) dim^(/
) = mr
Demostracion. i) El conjunto B que contiene las r columnas basicas de A es una base de
Im(A) porque B es un conjunto generador independiente para el conjunto Im(A). Por tanto
dimIm(A) = r.
iii) Recuerde que dimIm(A
) = r(A
), pero r(A
) = r.
iv) Recuerde que si P es una matriz no singular tal que PA = U es una forma escalonada,
entonces los ultimo mr renglones de P generan a ^(/
) = mr.
ii) Note que en palabras iv) dice que dim^(/
) es el n umero de renglones
en A
menos el r(A
). Pero A
= A y r(A
), as que
dimo) = dimIm(B
) = r(B) = r(U) = 2,
y una base de o) = Im(B
).