Você está na página 1de 232

APUNTES DE MATEMÁTICAS

IV
Autor:Jorge Garcı́a Nieva

Tecnológico de Estudios Superiores


del Oriente del Estado de México

29 de julio de 2010

1
INTRODUCCIÓN

El Algebra Lineal es el estudio de los espacios vectoriales y


de los conceptos derivados de ellos, como son las combinaciones
lineales, los conjuntos bases y la representación de los elementos
de un espacio vectorial mediante ellas, las bases ortogonales , las
transformaciones lineales y sus representación matricial, los espa-
cios asociados a los autovalores y vectores propios de una trans-
formación lineal(descomposición espectral), etc.
El conocimiento de los conceptos anteriores y su interrelación,
proporciona a los estudiantes de las áreas de ingenierı́a una sólida
base para trabajar en la modelación matemática de los fenómenos
fı́sicos dentro de sus respectivas áreas.En efecto,la teorı́a de los
espacios vectoriales tiene amplias aplicaciones , interviniendo por
ejemplo en la resolución matemática de problemas de optimización,
como sucede con el método simplex en la Ingenierı́a Industrial, o
bien en el tratamiento simplificado y elegante de la teorı́a de la
regresión lineal y multilineal, la estadı́stica avanzada , la teorı́a
del control de calidad, la teorı́a de la simulación, la teorı́a de las
ecuaciones diferenciales,etc.
Por lo anterior, es muy importante proporcionar a los estudi-
antes material didáctico de calidad, que no se reduzca a la repro-
ducción sin sentido de cálculos, sino que tenga un nivel adecuado
de la exposición de la parte teórica. Es con este fin como el autor
de estas notas ha recolectado una serie de resultados importantes
dentro del Álgebra Lineal que han sido considerados tradicional-
mente como fundamentales por los especialistas de esta área y que
son consideradas básicas dentro de un curso básico de eta asig-
natura.
Estas notas comienzan con una exposición acerca de los números

2
complejos, lo cual es importante para abordar el tema de las ma-
trices ortogonales y sus aplicaciones en la descripción geométri-
ca de fenómenos fı́sicos,amén de que interviene en el tratamiento
algebraico de la diagonalización de la representación de transfor-
maciones lineales mediante matrices y su ulterior aplicación en el
tratamiento de sistemas dinámicos.
El capı́tulo 2,trata de las matrices , sus propiedades y con-
ceptos fundamentales asociados.Los conceptos estudiados en este
capı́tulo tienen relación directa con el capı́tulo 3, el cual trata sobre
los sistemas lineales y su resolución mediante matrices, expresa-
do esto en el procedimiento de Gauss-Jordan , en el método de
Cramer y en el método de la inversa de la matriz de coeficientes
de un sistema lineal. Cabe notar que los conceptos estudiados en
las unidades 2 y 3 son de amplia apliacación en varios campos den-
tro de la ingenierı́a,como por ejemplo,las ecuaciones diferenciales,
la Investigación de operaciones y la estadı́stica multivariable. En
la unidad 4 se estudian los espacios vectoriales, los cuales repre-
sentan una generalización de la geometrı́a plana y del espacio a
espacios multidimensionales, ası́ como a espacios con objetos no
necesariamente geométricos, como lo son los espacios de matri-
ces o de soluciones de un sistema de ecuaciones ya sea algebraico
lineal o de ecuaciones diferenciales lineales , y que en ingenierı́a
son de suma importancia para estudiar fenómenos o sistemas de
tipo lineal. En la unidad 5 se estudian las transformaciones lin-
eales, las cuales aparecen en la práctica en el análisis de objetos
que se pueden ampliar, reducir,transladar o rotar; desde luego,su
aplicación a la robótica es ineludible,ası́ como en la programación
de gráficos.

3
Índice general

Introducción 2

1 Números Complejos complejos. 6


1.1. Definición y origen de los números complejos. . . 6
1.2. Operaciones fundamentales con números complejos 6
1.3. Potencias de “i”, módulo o valor absoluto de un
número complejo. . . . . . . . . . . . . . . . . . . 11
1.4. Forma polar y exponencial de un número complejo 12
1.5. Teorema de De Moivre, potencias y extracción de
raı́ces de un número complejo. . . . . . . . 13
2 Matrices y determinantes. 20

2.1. Definición de matriz, notación y orden. . . . . . . . 20


2.2. Clasificación de las matrices. . . . . . . . . . . . 22
2.3. Operaciones con matrices. . . . . . . . . . . . . . 23
2.4. Transformaciones elementales por renglón. Escalonamiento
de una matriz. Rango de una matriz. . 38
2.5. Cálculo de la inversa de una matriz. . . . . . . . . . 45
2.6. Definición de determinante de una matriz. . . . . . 46
2.7. Inversa de una matriz cuadrada a través de la adjunta. 49
2.8. Aplicación de matrices y determinantes . . . . . . . 66

3 Sistemas de ecuaciones Lineales. 71


3.1. Definición de sistemas de ecuaciones lineales. . . . . 71
3.2. Clasificación de los sistemas de ecuaciones lineales y
tipos de solución. . . . . . . . . . . . . . . . . . . 72
3.3. Interpretación geométrica de las soluciones. . . . . . 81

4
5
Índice general

3.4. Métodos de solución de un sistema de ecuaciones


lineales: Gauss, Gauss-Jordan, inversa de una ma-
triz y regla de Cramer. . . . . . . . . . . . . . . . 101
3.5. Aplicaciones. . . . . . . . . . . . . . . . . . . . . . 124

4 Espacios vectoriales. 128


4.1. Definición de espacio vectorial. . . . . . . . . . . . 128
4.2. Definición de subespacio vectorial y sus propiedades. 135
4.3. Combinación lineal. Independencia lineal. . . . . . . 140
4.4. Base y dimensión de un espacio vectorial, cambio de
base. . . . . . . . . . . . . . . . . . . . . . . . 153
4.5. Espacio vectorial con producto interno y sus
propiedades. 179
4.6. Base ortonormal, proceso de ortonormalización de
Gram-Schmidt. . . . . . . . . . . . . . . . . . . . 183

5 Transformaciones lineales. 15
193
5.1. Introducción a las transformaciones lineales. . . . . 193
5.2. Núcleo e imagen de una transformación lineal. . . . 212
5.3. La matriz de una transformación lineal 205
5.4. Aplicación de las transformaciones lineales: reflexión,
dilatación, contracción y rotación . . . . . . . 219

5
UNIDAD I. Los números complejos
Origen y definición. Operaciones con complejos. Forma polar. Teorema
de DeMoivre. Potencias y raíces de complejos

1.1. Definición y origen de los números complejos.


Los números complejos aparecieron históricamente cuando Cardano,en
1539,trató ecuaciones como x2 + 1 = 0 ,la cual no tiene solución en R.
Posteriormente Gauss desarrolló la teoría con mayor formalidad. La impos-
ibilidad de resolver estaclase de ecuaciones en el campo real crea la necesidad
de ampliar R construyendo un supercuerpo conmutativo K en el que todo
elemento admita una raíz cuadrada y, en consecu.encia, que la ecuación
anterior tenga solución.
Supongamos que K existe y sea i un elemento de K que satisface i2 + 1 = 0.
Vamos a ver que el subconjunto K 0 de K engendrado por R ∪ {i} y descrito por
los elementos de la forma
a + bi

en donde a, b ∈ R es un cuerpo. Es evidente que

a + bi = 0 =⇒a = b = 0
ya que de lo contrario, para b 6= 0 se deduciría que i es un elemento de R y esto
no es posible.

1.2. Operaciones fundamentales con números


complejos.
Por otro lado, de las reglas de cálculo en el cuerpo conmutativo K y teniendo
en cuenta que i2 = −1, se deduce
Las igualdades demuestran que:
(a + bi) + (c + di) = (a + b) + (b + d)i
a + bi = c + di ⇐⇒ a = b y c = d

y , que:
(a + bi) · (a − bi) = a2 + b2

Puesto que en R se cumple

a2 + b2 = 0 ⇐⇒ a=b=0

6
UNIDAD I. LOS NÚMEROS COMPLEJOS

entonces, si a + bi 6= 0
1 a − bi
=
a + bi (a + bi) · (a − bi)
a − bi
=
a2 + b2
a −b
= 2 2
+ 2 i
a +b a + b2

Luego, si K existe y i2 + 1 = 0, entonces

K0 = {a + bi : a, b ∈ R}

es un cuerpo.
No obstante, si existe otro elemento i1 ∈ K tal que i21 + 1 = 0, entonces
podemos determinar
K01 = {a + bi1 : a, b ∈ R}
y es claro que K0 y K01 son isomorfos. Por tanto, K0 es único salvo un isomorfismo.
Por otra parte, si K0 existe, (22.4) muestra que hay una biyección entre K0
y R×R
f : R × R −→ K0
(a, b) 7−→ a + bi
Además, es claro que f es un isomorfismo de grupos aditivos, en donde R × R
está dotado con la siguiente adición

(a, b) + (c, d) = (a + b, c + d)

pues, se cumple
f ((a, b) + (c, d)) = f (a, b) + f (c, d)
Podemos dotar a R×R con la siguiente multiplicación (a, b)(c, d) = (ac − bd, ad

+ bc)

y entonces demuestra que

f ((a, b) · (c, d)) = f (a, b) · f (c, d)

De este modo, si demostramos que R × R dotado con las operaciones suma y


multiplicación es un cuerpo, habremos probado la existencia de K0 .

En el conjunto R × R definimos las dos operaciones siguientes

(a, b) + (c, d) = (a + b, c + d)

y
(a, b) · (c, d) = (ac − bd, ad + bc)
Es fácil comprobar las siguientes propiedades:

7
UNIDAD I. LOS NÚMEROS COMPLEJOS

1. (R × R, +) es un grupo conmutativo de elemento neutro (0, 0), en el que


(−a, −b) es el simétrico de (a, b).
2. La multiplicación es distributiva respecto a la suma .
3. (R × R − {(0, 0)}, ·) es un grupo conmutativo de elemento neutro (1, 0),
en el que el simétrico de (a, b) es
µ ¶
a −b
,
a2 + b2 a2 + b2

Como consecuencia, (R × R, +, ·) es un cuerpo conmutativo al que denom-


inaremos cuerpo de los números complejos y designamos por C. Un número
complejo es un elemento de C, o lo que es lo mismo, un par ordenado de
números reales.
Identificamos el número real a con el número complejo (a, 0), pues la apli-
cación
f : R −→ C
a 7−→ (a, 0)
es un homomorfismo inyectivo entre (R, +, ·) y (C, +, ·). En efecto,

f (a + b) = (a + b, 0)
= (a, 0) + (b, 0)
= f (a) + f (b)

f (a · b) = (ab, 0)
= (a, 0) · (b, 0)
= f (a) · f (b)

y
f (a) = f (b) ⇐⇒ (a, 0) = (b, 0) ⇐⇒ a = b
Como consecuencia, podemos considerar R como un subcuerpo de C, y entonces
es natural afirmar que C es una extensión de R.
Puesto que
(0, 1) · (0, 1) = (−1, 0)
es natural escribir (0, 1) = i, cumpliéndose entonces que i2 = −1, y, por tanto,
−1 posee raíz cuadrada en C. Además, si b es un número real, entonces se cumple

(0, 1) · (b, 0) = (0, b)

y podemos escribir ib en lugar de (0, b). De este modo, si z es el número complejo


(a, b), entonces podemos escribirlo de manera única bajo la forma

(a, b) = (a, 0) + (0, b)

y, en consecuencia, es natural escribir z como a + ib. Esta manera de representar


un número complejo se llama forma binómica. Entonces, a a se le llama parte
real de z y se escribe Re z = a, y a b se le llama parte imaginaria de z y
se escribe Im z = b. Si b = 0, se dice que z es un número imaginario puro

8
UNIDAD I. LOS NÚMEROS COMPLEJOS

ysi a =0,sediceque z es un número real.Alnúmerocomplejo i se le llama unid-


ad imaginaria. Las operaciones (22.7) y (22.8), pueden escribirse en forma binómica,
operando como en el caso de números reales, sin más que tener en cuenta que i2
= −1.

(a + ib) + (c + id) = (a + b) + i(b + d)

(a + ib) · (c + id) = (ac − bd) + i(ad + bc)

Observación. El conjunto C de los números complejos puede ordenarse de varias


maneras. Sin embargo, no existe relación de orden total sobre C de manera que
C seauncuerpo ordenado(como lo es R), pues, 1=12 y −1= i2
son cuadrados en C y entonces los dos deberían ser mayores que cero, no siendo
nulos. Ahora bien, −1 y 1 son opuestos y, por tanto, no es posible que los dos
sean estrictamente mayores que cero.

El cuerpo de los números complejos dotado con las dos operaciones siguientes

(a + ib) + (c + id) = (a + c) + i(b + d)

y
λ(a + ib) = λa + iλb (λ ∈ R)
es un espacio vectorial sobre R. Es inmediato comprobarlo. Además, (1, i) for-
man una base de este espacio, pues son generadores

a + ib = a · 1 + b · i

Además , son linealmente independientes

λ · 1 + µ · i = 0 + 0 · i ⇐⇒ λ = µ = 0

La geometría ordinaria del plano proporciona una imagen adecuada del cuer-
po de los números complejos. Consideremos en el plano euclídeo un origen O y
unos ejes rectángulares Ox y Oy. Sean e1 , e2 los vectores de la base ortonormal
correspondiente. Entonces, entre el espacio vectorial de los vectores libres del
plano y el cuerpo de los números complejos, considerado como espacio vectorial
real de base (1, i), existe un isomorfismo definido por la aplicación

x + yi 7−→ xe1 + ye2

Al vector v = xe1 + ye2 corresponde un representante de origen O y extremo el


punto P de coordenadas (x, y) que se llama afijo del número complejo x + iy.
En forma breve, el vector imagen de z = x + iy es el vector

9
UNIDAD I.LOS NÚMEROS COMPLEJOS

−→
v = OP , siendo P el afijo de z. De este modo, entre el plano euclídeo y el cuerpo
de los números complejos queda establecida una biyección que lo convierte en
el plano complejo. Los complejos que son números reales tienen por afijos
los puntos del eje Ox, y los que son números imaginarios puros, los puntos
del eje Oy. Esta es la razón por la cual estos ejes se denominan entonces eje
real y eje imaginario del plano complejo, respectivamente. Sin embargo, estas
denominaciones son un abuso del lenguaje, pues, tanto el eje Oy como el plano
Oxy están descritos por puntos de coordenadas reales.
Esta representación geométrica de los números complejos permite interpretar
fácilmente la adición de los números complejos: si P y Q son los afijos de z1 y
z2 y se tiene,
−→ −→ −→
OP + OQ = OR

entonces R es el afijo de z1 + z2 , ya que para sumar vectores de origen O basta


con sumar sus componentes respecto de los ejes de coordenadas; obsérvese que
z1 + z2 es por tanto la diagonal del paralelogramo que determinan z1 y z2 .

En particular, los afijos de los números complejos z y −z son dos puntos simétri-
cos respecto a O.
Con la representación geométrica, aparecen de manera natural los conceptos
de módulo y argumento de un número complejo.

10
UNIDAD I. LOS NÚMEROS COMPLEJOS

1.3. Valor absoluto de un número complejo.


Se llama módulo de un número complejo z = x + iy y se denota por |z| a
la norma del vector imagen correspondiente xe1 + ye2 , es decir,
p
|z| = kxe1 + ye2 k = x2 + y 2

De las propiedades de la norma euclídea se deducen enseguida las propiedades


del módulo de un número complejo:

1. |z| = 0 si y sólo si z = 0
2. |zz 0 | = |z| |z 0 |
3. |z + z 0 | ≤ |z| + |z 0 |

y de este modo la aplicación

C −→ R+
z 7−→ |z|

es un valor absoluto en C. Podemos entonces llamar a |z| valor absoluto de z,


pero la costumbre hace que se prefiera el término módulo.

Se llama argumento de un número complejo z = x + iy no nulo y se denota


por arg z, la medida del ángulo θ que determinan los vectores e1 y xe1 +
ye2 .
Recordemos que esta medida es un número real módulo 2π, es decir, si θ0 es
una medida de dicho ángulo, también lo son θ0 + 2kπ para k ∈ Z. Para evitar
ambigüedades, a menudo es conveniente utilizar el valor principal para el
argumento de z, el cual se define mediante 0 ≤ θ < 2π.
Si un número complejo z 6= 0 tiene módulo r y argumento θ, se denomina
forma polar o módulo-argumental de z al par (r, θ), representado a menudo
por rθ . De este modo, tenemos

(r, θ) = (r0 , θ0 ) ⇐⇒ r = r0 y θ0 = θ + k · 2π

Dado un número complejo z = x + iy no nulo, entonces las siguientes relaciones


2
p x+2 y
r=

11
UNIDAD I. LOS NÚMEROS COMPLEJOS

y ³y ´
θ = arctan (x 6= 0)
x
permiten determinar la forma polar de z. Si x = 0, podemos tomar θ = π/2 si
y > 0, y θ = 3π/2 cuando y < 0.

1.4.Formas trigonométrica y exponencial de un número


complejo
Dado un número complejo z = (r, θ) en forma polar, la siguiente figura

muestra que se cumplen las siguientes relaciones

x = r cos θ y y = r sin θ

de manera que cualquier número complejo no nulo de módulo r y argumento θ


se puede escribir como

z = r cos θ + ir sin θ
= r(cos θ + i sin θ)

que se llama forma trigonométrica de z. Obsérvese que si z 6= 0 está dado en


forma binómica, entonces las siguientes relaciones
p
r = x2 + y 2

y
y x
sin θ = p y cos θ = p
x + y2
2 x2 + y2
permiten determinar la forma trigonométrica.
La forma trigonométrica nos permite dar una interpretación geométrica del
producto de dos números complejos. En efecto, si

z1 = r1 (cos θ1 + i sin θ1 ) y z2 = r2 (cos θ2 + i sin θ2 )

entonces

z1 z2 = r1 r2 (cos θ1 + i sin θ1 )(cos θ2 + i sin θ2 )


= r1 r2 [(cos θ1 cos θ2 − sin θ1 sin θ2 ) + i(cos θ1 sin θ2 + sin θ1 cos θ2 )]
= r1 r2 [cos(θ1 + θ2 ) + i sin(θ1 + θ2 )]

12
UNIDAD I. LOS NÚMEROS COMPLEJOS

Por tanto,
|z1 z2 | = |z1 | |z2 | y arg(z1 z2 ) = arg z1 + arg z2

Este resultado se interpreta de la siguiente manera: el afijo del producto z1 z2


se construye como tercer vértice del triángulo que tenga uno en O, otro en
el afijo de z2 y sea semejante al triángulo que tiene como vértices homólogos
respectivamente el afijo de z1 , O y el afijo de e1 . Dicho de otro modo, se aplica
una homotecia de centro el origen y razón r2 al triángulo de vértices O, el afijo
de z1 y el de e1 , y después un giro de centro el origen y ángulo θ2 , formándose
el triángulo semejante de vértices O, el afijo de z1 z2 y el de z2 .
De la misma forma se interpretan las relaciones siguientes
¯ −1
z ¯ = |z|
−1
y arg z −1 = − arg z

que se obtienen al hacer en (22.9) z1 = z y z2 = z −1 , y también


µ ¶
¯ z1 ¯ = |z1 | y arg z1 = arg z1 − arg z2
z2 |z2 | z2

1.5.Teorema de DeMoivre.Cálculo de potencias .


Es claro que (22.9) se extiende por inducción a un producto de un número
finito de números complejos, cumpliéndose !
Yn ¯ Y n n n
¯ zi = ÃY X
|zi | y arg zi = arg zi
i=1 i=1 i=1 i=1

En particular, para n ∈ Z tenemos

z n = rn [cos(nθ) + i sin(nθ)]

y si, además r = 1, entonces tenemos la fórmula de De Moivre

(cos θ + i sin θ)n = cos nθ + i sin nθ

Puesto que
X xn
ex =
n!
n≥0

13
UNIDAD I. LOS NÚMEROS COMPLEJOS

para todo x ∈ R, podemos escribir formalmente


θ2 θ3 θ4 θ5
eiθ = 1 + iθ − −i + + i − ···
2! 3! 4! 5!
obteniendo
θ2 θ4 X (−1)n
Re eiθ = 1 − + − ··· = θ2n = cos θ
2! 4! (2n)!
n≥0

y
θ3 θ5 X (−1)n 2n+1
Im eiθ = θ − + − ··· = θ = sin θ
3! 5! (2n + 1)!
n≥0

De este modo, deducimos que


eiθ = cos θ + i sin θ
De aquí, como un número complejo z se expresa en forma trigonométrica como
z = r(cos θ + i sin θ)
tenemos
z = reiθ
que se llama forma exponencial del número complejo z.

Números complejos conjugados


Con la ayuda de la representación geométrica vamos a considerar una trans-
formación de C que deja invariante R, elemento a elemento. Esto resulta de la
simetría respecto del eje real entre afijos

es decir,
C −→ C
z = x + iy 7−→ z = x − iy
El complejo z se llama conjugado de z. Es claro que se trata de una biyección
y, además, transforma la suma y el producto en la suma y producto de los
conjugados. Se tiene entonces que
z=z z + z0 = z + z0

zz 0 = zz 0

14
UNIDAD I. LOS NÚMEROS COMPLEJOS

Es evidente que

Re z = Re z Im z = − Im z

Re z = 12 (z + z) Im z = 1
2i (z − z)

También es claro que un número complejo z es real si y sólo si z = z, y es


imaginario puro si y sólo si z + z = 0. Si z = x + iy, entonces

zz = (x + iy) · (x − iy)
= x2 + y 2

es decir, zz es un número real positivo. Además, se cumple



|z| = zz

y, para todo número complejo z 6= 0,


z z
z −1 = = 2
zz |z|

En particular, de aquí se deduce que un número complejo z es unitario (tiene


módulo 1) si y sólo si z −1 = z.

Ejemplo. Efectuar las siguientes operaciones con números complejos, ex-


presando el resultado en forma binómica:
(i−1)3 −5+3i 1+i −1+i
a) i+1 b) (1+i)2
c) (2 + i)(8 + 5i)i d) 2+i ÷ −2+i

Solución: (a) Expresando z1 = −1 + i en forma polar tenemos


√ 3π
r1 = 2 y θ1 = arctan(−1) =
4
Del mismo modo, para z2 = 1 + i tenemos
√ π
r2 = 2 y θ2 = arctan 1 =
4
Por tanto,
√ 3π
z13 = (( 2)3 , 3 · )
4
√ 9π
= (2 2, )
4
y, en consecuencia,

z13 2 2 9π π
= (√ , − )
z2 2 4 4
= (2, 2π)

o bien, en forma binómica


z13
=2
z2

15
UNIDAD I. LOS NÚMEROS COMPLEJOS

(b) Tenemos
−5 + 3i −5 + 3i
=
(1 + i)2 (1 − i)2
−5 + 3i
=
−2i
−5i − 3
=
2
3 5
= − − i
2 2
(c) Tenemos
(2 + i)(8 + 5i)i = (11 + 18i)i
= −18 + 11i
(d) Tenemos
1 + i −1 + i (1 + i)(−2 + i)
÷ =
2 + i −2 + i (2 + i)(−1 + i)
−3 − i −3 − i
= ·
−3 + i −3 − i
8 + 6i
=
10
4 3
= + i
5 5

Ejemplo Utilizando la fórmula de De Moivre, expresar cos 5x en términos de


sin x y cos x.
Solución: Según esta fórmula, tenemos
(cos x + i sin x)5 = cos 5x + i sin 5x
Por tanto,
cos 5x = Re(cos x + i sin x)5
Mediante la fórmula del binomio de Newton, obtenemos
cos 5x = cos5 x − 10 cos3 x sin2 x + 5 cos x sin4 x

1.6 . Ecuaciones polinómicas .


Un número complejo z 0 = r0 (cos θ0 + i sin θ0 ) se llama raíz n-ésima de un
número complejo z = r(cos θ + i sin θ) si
(z 0 )n = z
Por consiguiente, tenemos
£ 0 ¤n
r (cos θ0 + i sin θ0 ) = r(cos θ + i sin θ)
0 n 0 0
(r ) (cos nθ + i sin nθ ) = r(cos θ + i sin θ)

16
UNIDAD I. LOS NÚMEROS COMPLEJOS

y, por tanto,
(r0 )n = r y nθ0 ≡ θ (mod 2π)
o de forma equivalente,
√ θ 2kπ
r0 = n
r y θ0 = + (k = 0, 1, 2, ..., n − 1)
n n
Como consecuencia, todo número complejo z = r(cos θ + i sin θ) no nulo tiene n
raíces n-ésimas
µ ¶

n
θ + 2kπ θ + 2kπ
zk = r cos + i sin (k = 0, 1, 2, ..., n − 1)
n n

Es evidente que se cumple



|zk+1 | = |zk | y arg zk+1 ≡ arg zk + (mod 2π)
n
y, por tanto, para n > 2, las n raíces n-ésimas de un número complejo no nulo
son los afijos de los vértices de un polígono regular de √
n lados. Estos afijos se
encuentran sobre la circunferencia de centro O y radio n r.

Observación. 1. En el caso particular de n = 2, tenemos


√ θ θ
z0 = r(cos + i sin )
2 2
y
· µ ¶ µ ¶¸
√ θ θ
z1 = r cos + π + i sin +π
2 2
√ θ θ
= r(− cos − i sin )
2 2
= −z0

es decir, encontramos que las dos raíces son opuestas y, como consecuen-
cia, son los afijos de dos puntos simétricos respecto al origen.
2. En particular, las raíces n-ésimas de la unidad son las soluciones de la
ecuación z n = 1. Vienen dadas por la fórmula
2kπ 2kπ
zk = cos + i sin (k = 0, 1, 2, ..., n − 1)
n n
En este caso el polígono que forman sus afijos está inscrito en la circun-
ferencia de radio 1, siendo uno de sus vértices el punto z0 = 1.
3. Las raíces n-ésimas de un número complejo cualquiera son los productos
de una de ellas por las raíces n-ésimas de la unidad, pues, si u0 es una
raíz particular de orden n de z, y u es una cualquiera de las otras, se tiene
³ ´n
u
un = un0 = z =⇒ u0 =1

y el cociente u/u0 es una cualquiera de las raíces n-ésimas de la unidad.

17
UNIDAD I. LOS NÚMEROS COMPLEJOS
p
5

Ejemplo. Calcular 1 − 3i.√
Solución: Expresando z = 1 − 3i en forma polar, obtenemos
√ 5π
|z| = 2 y arg z = arctan(− 3) =
3
En consecuencia, las raíces quintas de z vienen dadas por
µ ¶

5 5π/3 + 2kπ 5π/3 + 2kπ
zk = 2 cos + i sin (k = 0, 1, 2, 3, 4)
5 5
es decir, √ ¡ ¢
z1 = 5
√ 2 cos π3 + i sin π3 ¢
5 11π 11π
z2 = √ 2 ¡ cos 15 + i sin 15
z3 = 5
√ 2 cos 17π 17π
15 + i sin 15 ¢
z4 = 5
√ 2 ¡cos 15 + i sin 23π
23π
15
z5 = 5
2 cos 29π 29π
15 + i sin 15

Ejemplo. Hallar las raíces de la ecuación

(1 + i)z 3 − 2i = 0

Solución: Es claro que


2i
z3 =
1+i
2i 1−i
= ·
1+i 1−i
2 + 2i
=
2
= 1+i

Por tanto, z = 3 1 + i. Para determinar las raíces cúbicas de este complejo,
determinamos primero el módulo y el argumento de z 0 = 1 + i. Obtenemos
√ π
|z 0 | = 2 y arg z 0 = arctan 1 =
4
Por lo tanto, tenemos
µ ¶
√3 π/4 + 2kπ π/4 + 2kπ
zk = 2 cos 3 + i sin (k = 0, 1, 2)
3 3
es decir, √3 π π
z1 = √ 2 ¡ cos 12 + i sin 12 ¢
3 9π 9π
z2 =√ 2¡ cos 12 + i sin 12 ¢
z3 = 3 2 cos 17π 17π
12 + i sin 12


Ejemplo. Expresar en forma binómica e i .
Solución: Puesto que
√ π/2 + 2kπ π/2 + 2kπ
i = cos + i sin (k = 0, 1)
2 2

18
UNIDAD I. LOS NÚMEROS COMPLEJOS

obtenemos ( √ √
√ cos π4 + i sin π4 = 22 + i 2
i= √ 2 √
2 2
cos 5π 5π
4 + i sin 4 = − 2 − i 2

Por tanto,
 √ √ √ √ √ ³
√ √ ´
√  e
2
2 +i 2
2
=e 2
2
ei 2
2
=e 2
2
cos 22 + i sin 22
√ ³ √ ´
i
e = √ √ √ √ √
 e− 2
2 −i 2
2
= e− 2
2
e−i 2
2 2
= e− 2 cos 22 − i sin 22

Ejemplo. Dados los números complejos z1 = −1 + i y z = −2 + 3i, cal-


cular dos números complejos z2 , z3 tales que los afijos de z1 , z2 y z3 formen un
triángulo equilatero de centro el afijo de z.
Solución: Sabemos que los afijos de las raíces cúbicas de un número com-
plejo w son los vértices de un
p triángulo equilatero inscrito en una circunferencia
de centro el origen y radio 3 |w|. Puesto que nuestro triángulo ha de estar cen-
trado en el afijo de z, deberemos efectuar una traslación de vector el asociado a
z. De este modo, se tiene

zi = z + 3 w (i = 1, 2, 3)

Como una de las raíces cúbicas de w es z1 −z, podemos obtener las raíces cúbicas
de w multiplicando z1 − z por las raíces cúbicas de la unidad. Las raíces cúbicas
de la unidad son
u1 = 1 √
u2 = cos 2π 2π 1
3 + i sin 3 = − 2 + i √2
3

u3 = cos 4π 4π 1
3 + i sin 3 = − 2 − i 2
3

Por tanto, las raíces cúbicas de w son

w1 = 1 − 2i ³
√ ´ √ ³√ ´
w2 = (1 − 2i) − 12 + i 23 = − 12 + 3 + i 23 + 1
√ √ √ ´
w3 = (1 − 2i) − 12 − i 23 = − 12 − 3 + i − 23 + 1

y, en consecuencia, los números complejos que buscamos son

z1 = z + w1 = −1 + i ³√ ´

z2 = z + w2 = − 52 + 3 + i 23 + 4
√ √ ´
z3 = z + w3 = − 52 − 3 + i − 23 + 4

19
Unidad II. Matrices y Determinantes
Operaciones con matrices. Matrices especiales . Operaciones por
filas. Matrices escalonadas. Determinantes

2.1. Definición de matriz.Notación y orden.

Definición 1.1. Sean m, n ∈ Z+ . Una matriz real A de orden m por n (m × n) es un


arreglo bidimensional de números reales dispuestos en m filas y n columnas como sigue
   
a11 a12 ··· a1n a11 a12 ··· a1n
a a22 · · · a2n   a21 a22 · · · a2n
21
A = (aij )m×n = . . . = . . . 
 . . .   . . . 
am1 am2 · · · amn am1 am2 · · · amn
donde aij ∈ R para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, el cual es llamado componente
ij-ésima de A.
Para cada i ∈ {1, . . . , m} la i-ésima fila de A la denotaremos por A(i) y está dada por
h i
A(i) = ai1 ai2 · · · ain

Para cada j ∈ {1, . . . , n} la j-ésima columna de A la denotaremos por A(j) y está dada por
 
a1j
a 
2j
A(j) =
.
 
amj

Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las
componentes a11 , a22 , . . . , ann forman lo que llamaremos diagonal principal de A.
Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una
matriz columna.
La notación A = (aij )m×n , significa que A es la matriz de orden m × n cuya ij-ésima compo-
nente es aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
El conjunto formado por todas las matrices reales de orden m×n lo denotaremos por Mm×n (R).

20
UNIDAD II. MATRICES Y DETERMINANTES

Observación 1.1. Podemos considerar matrices sobre un campo K ,l, por ejem plo K =
C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son
elementos de K.

Observación 1.2. Se debe tener cuidado cuando se usa la notación (aij )m×n , el cambio de
ı́ndices no significa que se trata de otra matriz, los ı́ndices son “mudos”, esto es

(aij )m×n = (akr )m×n = (apq )m×n = (aji )m×n

Ejemplo 2.1.
"
√ #
1. A = −2 0 5
es una matriz real de orden 2 × 3, la componente 2, 1 de A es a2,1 = 23 ,
2
3
4 1
" √ #
h i 5
la fila 2 de A es A(2) = 2
3
4 1 , la columna 3 de A es A(3) =
1
 
−1 4 0
 
2. B =  5 12 −3  es una matriz cuadrada real de orden 3, las componentes de la
0 2 −8
diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8.
(
1 si i = j
3. La matriz In = (δij )n×n , donde δij = , para cada i, j ∈ {1, . . . , n}, es llamada
0 si i 6= j
matriz identidad de orden n, esto es,
 
1 0 ··· 0
0 1 . . . . 
In = . .
.. ... 0
. 
0 ··· 0 1
n×n

4. La matriz 0/m×n = (ξij )m×n , donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n},
es llamada matriz nula de orden m × n, es decir
 
0 ··· 0
.
0/m×n =  . .

0 ··· 0
m×n

21
UNIDAD II. MATRICES Y DETERMINANTES

Cuando m = n, sólo escribiremos 0/n en lugar de 0/n×n , es decir,


 
0 ··· 0
. . .
0/n =  . . . .
0 ··· 0
n×n


2.2.Clasificación de las matrices.
Definición 2.2 Sea A ∈ Mn×n (R). Diremos que A = (aij )n×n es

1. Triangular superior si aij = 0 para i, j ∈ {1, . . . , n} con i > j.

2. Triangular inferior si aij = 0 para i, j ∈ {1, . . . , n} con i < j.

3. Diagonal si aij = 0 para i, j ∈ {1, . . . , n} con i 6= j, es decir, A es triangular superior e


inferior simultáneamente.

4. Escalar si es diagonal y existe λ ∈ R tal que aii = λ para i ∈ {1, . . . , n}.

Observación 2.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y


sólo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a
cero.

Observación 2.4. Cuando A ∈ Mn×n (R) es diagonal y las componentes en la diagonal principal
son λ 1 , λ 2 , . . . , λ n ∈ R, entonces escribiremos A = diag(λ 1 , λ 2 , . . . , λ n )

Ejemplo 2.2

1. Para cada n ∈ Z+ , In y 0/n son matrices escalares, y por lo tanto diagonales y consecuente-
mente triangulares superior e inferior.
 
−5 4 0 −7
 0 3 12 5
2. A = es triangular superior.
 0 0 2 1 
0 0 0 0
 
−5 0 0 0
 0 4 0 0
3. A = es triangular inferior.
 0 −1 0 0 
9 13 −3 8

22
Unidad II.Matrices y Determinantes

 
6 0 0 0
 0 −3 0 0
4. A = es diagonal, en cuyo caso podemos escribir A = diag(6, −3, −5, 0).
0 0 −5 0 
 
0 0 0 0
 
8 0 0 0
 0 8 0 0
5. A = es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8).
 0 0 8 0 
0 0 0 8

Definición 2 .3 Sean A, B ∈ Mm×n (R). Diremos que A y B son matrices iguales, lo cual
denotaremos por A = B, si la componente ij-ésima de A es igual a la componente ij-ésima de
B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, es decir, si A = (aij )m×n y B = (bij )m×n ,
diremos que A y B son iguales si

aij = bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

Observación 2.5. Nótese que para que dos matrices sean iguales, en primer lugar deben ser
del mismo orden.
   
" # 5 7 x 7
5 −1 0    
Ejemplo 2.3 Si A = ;B= 0 y  y C =  0 −3 , entonces A 6= B
−6 8 3
−2 4 −2 4
pues ni siquiera son del mismo orden; B = C si y sólo si x = 5 e y = −3. 

El siguiente teorema es una consecuencia directa de la definición de igualdad de matrices, su


demostración la dejamos como ejercicio.

Teorema.2.1 Sean A, B ∈ Mm×n (R). Entonces las siguientes proposiciones son equivalentes

1. A = B.

2. A(i) = B(i) para cada i ∈ {1, . . . , m}.

3. A(j) = B (j) para cada j ∈ {1, . . . , n}.

Demostración. Hacerlo como ejercicio .

23
UNIDAD II. MATRICES Y DETERMINANTES

2.3. Operaciones con matrices.


En esta sección definiremos dos operaciones con matrices que dotarán al conjunto Mm×n (R)
de una estructura algebraica conocida como espacio vectorial , dicha estructura será tratada
en el capt́ulo 2 del presente trabajo.

Definición 2.4. Sean A, B ∈ Mm×n(R) con A = (aij)m×n y B = (bij)m×n. Definiremos la matriz


suma de A con B, como la matriz A + B ∈ Mm×n(R) cuya ij-´esima componente viene dada por
aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, esto es, si A + B = (cij)m×n, entonces
cij = aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.

Observación 2.6. Para poder sumar dos matrices estas deben ser del mismo orden.
   
4 −9 0 8 −3 9 5 −4
   
Ejemplo 2.4. Si A =  −7 3 5 −12  y B =  1 −13 3 9 , entonces
1 0 −6 2 10 4 7 11
   
4 −9 0 8 −3 9 5 −4
   
A + B =  −7 3 5 −12  +  1 −13 3 9 
1 0 −6 2 10 4 7 11
   
4 + (−3) −9 + 9 0 + 5 8 + (−4) 1 0 5 4
   
=  −7 + 1 3 + (−13) 5 + 3 −12 + 9  =  −6 −10 8 −3 
1 + 10 0 + 4 −6 + 7 2 + 11 11 4 1 13

Definición 2.5. Sean A ∈ Mm×n (R) y α ∈ R (α es llamado escalar), con A = (aij )m×n .
Definiremos la multiplicación de α por A ( multiplicación por escalar) como la matriz
α · A ´o simplemente αA cuya ij-´esima componente es αaij para cada i ∈ {1, . . . , m} y cada j ∈
{1, . . . , n}, esto es, si αA = (bij)m×n, entonces bij = αaij para cada i ∈ {1, . . . , m} y cada j ∈ {1,
. . . , n}.

Observación 2.7. La notación de multiplicación por escalar es α · A o α A y no A · α ni Aα


, se debe colocar primero el escalar luego la matriz.

Observación 2.8. Toda matriz escalar de orden n es un múltiplo escalar de In , ms an, A


∈ Mn×n (R) es una matriz escalar si y sólo si existe λ ∈ R tal que A = λIn .

24
UNIDAD II. MATRICES Y DETERMINANTES

Ejemplo 2.5.  2.4, entonces


 Sea A la matriz del ejemplo 
4 −9 0 8 2 · 4 2(−9) 2·0 2·8
   
2 · A = 2 ·  −7 3 5 −12  =  2(−7) 2·3 2 · 5 2(−12) 
1 0 −6 2 2·1 2 · 0 2(−6) 2·2
 
8 −18 0 16
 
=  −14 6 10 −24 
2 0 −12 4


Teorema 2.2 Sean A, B, C ∈ Mm×n (R) y α ,β ∈ R


cualesquiera. Entonces

1. A + B = B + A (conmutatividad de la suma).

2. (A + B) + C = A + (B + C) (asociatividad de la suma).

3. A + 0/m×n = A = 0/m×n +A (neutro aditivo).


/
m×n = D + A (opuesto aditivo).
4. Existe una matriz D ∈ Mm×n (R) tal que A + D = 0
5. α(A + B) = α A + αB (distributividad de la multiplicación por escalar respecto a
la suma
matricial).

6. (α + β )A = α A + β A (distributividad de la multiplicación por escalar respecto


a la suma
escalar).

7. α(βA) = (αβ)A = β (αA) (asociatividad de la multiplicación por escalar).

8. 1 · A = A (neutro de la multiplicación por escalar).

Demostración. Sean A = (aij )m×n , B = (bij )m×n y C = (cij )m×n .

1. Hagamos A + B = E = (eij )m×n y B + A = F = (fij )m×n . Por definición de suma de


matrices, tenemos que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + bij = bij + aij = fij

Luego A + B = E = F = B + A (definición de igualdad de matrices).

25
UNIDAD II. MATRICES Y DETERMINANTES

2. Hagamos A + B = E = (eij )m×n , (A + B) + C = E + C = F = (fij )m×n , B + C = G =


(gij )m×n y A + (B + C) = A + G = H = (hij )m×n . Ası́ que por definición de suma de
matrices

fij = eij + cij = (aij + bij ) + cij = aij + (bij + cij ) = aij + gij = hij

De donde (A + B) + C = F = H = A + (B + C) (definición de igualdad de matrices).

3. Recordemos que 0/m×n = (ξij )m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈
{1, . . . , n}. Ası́ que si A + 0/m×n = E = (eij )m×n , entonces, por definición de suma de
matrices, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + ξij = aij + 0 = aij

Por lo tanto A + 0/m×n = E = A y por conmutatividad

A + 0/m×n = A = 0/m×n +A

4. Definamos D = (dij )m×n con dij = −aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.
Hagamos A + D = E = (eij )m×n . Entonces, por definición de suma de matrices, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + dij = aij + (−aij ) = 0

Por lo tanto A + D = E = 0/m×n y por conmutatividad

A + D = 0/m×n = D + A

5. Hagamos A + B = E = (eij )m×n , α (A + B) = α E = F = (fij )m×n , α A =


G = (gij )m×n ,
αB = H = (hij )m×n y α A+α B = G+H =
P = (pij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} tenemos que

fij = αeij (definición de multiplicación por escalar)


= α(aij + bij ) (definición de suma de matrices)
= gij + hij (definición de multiplicación por escalar)
= pij (definición de suma de matrices)

Luego
α(A + B) = F = P = α A +Bα

26
UNIDAD II. MATRICES Y DETERMINANTES

6. Hagamos (α + β )A = E = (eij )m×n , α A = F = (fij )m×n , β A = G = (gij )m×n


F + G = H = (hij )m×n . En consecuencia, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}
se tiene que

eij = (α+ β )aij (definición de multiplicación por escalar)


= αaij + β aij
= fij + gij (definición de multiplicación por escalar)
= hij (definición de suma de matrices)

De donde
E=H=α A +Aβ

7. Hagamos β A = E = (eij )m×n , E = F = (fij )m×n y (αβ)A = G =


(gij )m×n .
Ası́ que, por definición de multiplicación de por escalar, para cada i ∈ {1, . . . , m} y cada
j ∈ {1, . . . , n} obtenemos

fij = α eij = (αβ)A= α (βaij ) = (αβ)aij = gij

Luego α (βA) = F = G = (αβ)A y en consecuencia

β(αA) = (βα)A = (αβ)A

Por lo tanto
α(βA) = (αβ)A = β (αA)

8. Hagamos 1 · A = E = (eij )m×n . Ası́ que al usar la definición de multiplicación por escalar,
se tiene que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = 1 · aij = aij

En consecuencia
1·A=E =A

27
UNIDAD II. MATRICES Y DETERMINANTES

2. Para cada matriz A ∈ Mm×n (R), existe una única matriz D ∈ Mm×n (R) tal que A + D =
0/m×n = D + A, tal matriz D es llamada matriz opuesta de A y se denota por −A.

Demostración. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/m×n satisface que para
cada A ∈ Mm×n (R) se cumple que A + 0/m×n = A = 0/m×n +A. Además, la existencia de la matriz
D es garantizada en la parte 4 del mismo teorema. Sólo faltarı́a probar la unicidad de ambas
matrices.

1. Supongamos que P ∈ Mm×n (R) es tal que A + P = A = P + A para cada A ∈ Mm×n (R),
luego

P = P + 0/m×n (por la parte 3 del teorema 1.2)


= 0/m×n (hipótesis)

2. Sea A ∈ Mm×n (R) cualquiera. Supongamos que existen D, E ∈ Mm×n (R) tales que

A + D = 0/m×n = D + A (2.1)
A + E = 0/m×n = E + A (2.2)

En consecuencia

D = D + 0/m×n (teorema 1.2 parte 3)


= D + (A + E) (por la ecuación 1.2)
= (D + A) + E (teorema 1.2 parte 2)
= 0/m×n +E (por la ecuación 1.1)
= E (teorema 1.2 parte 3)

Teorema 2.4. Sean A, B, C ∈ Mm×n (R) tales que A + B = A + C. Entonces B =


C.

Demostración. Hacer como ejercicio.

28
UNIDAD II. MATRICES Y DETERMINANTES

2. α 0/m×n = 0/m×n .

3. (−1)A = −A.

4. Si αA = 0/m×n , entonces α = 0 ó A = 0/m×n .

Demostración.

1. Sabemos que
0 · A + 0/m×n = 0 · A (¿por qué?)

además
0 · A = (0 + 0)A = 0 · A + 0 · A

ası́ que
0 · A + 0 · A = 0 · A + 0/m×n

y por el teorema 1.4, se tiene que 0 · A = 0/m×n

2. Por un lado
α · 0/m×n = α · 0/m×n + 0 m×n

por otro lado


α · 0/m×n = α(0/m×n + 0/m×n ) = α · 0/m×n +α · 0/m×n

luego
α · 0/m×n + 0/m×n = α · 0/m×n +α · 0/m×n

y nuevamente, usando el teorema 1.4, tenemos que α 0/m×n = 0/m×n

3. Basta probar que A + (−1)A = 0/m×n , y por unicidad, obtendrı́amos el resultado. Veamos

A + (−1)A = 1 · A + (−1)A (teorema 2.2 parte 8)


= (1 + (−1))A (teorema 2.2 parte 6)
= 0·A
= 0/m×n (por la parte 1)

Luego, por unicidad de la matriz opuesta, (−1)A = −A

29
UNIDAD II. MATRICES Y DETERMINANTES

4. Supongamos que αA = 0/m×n . Si α = 0, no hay nada que probar, supongamos entonces que
α 6= 0, ası́ que

A = 1 · A (teorema 2.2 parte 8)


= (α−1 α)A

−1 −1
A = α (α A) (teorema 2.2 parte 7) α 0
(por hipótesis)
= 0 (por la parte 2)

Con lo cual, se concluye la prueba.

Definición 2.6. Sean A, B ∈ Mm×n (R). Definiremos A − B = A + (−B).


   
4 −12 0 5 −10 −6
 −6
5 −3   6 −1 11 
Ejemplo 2.6. Si A = yB= , entonces
−1
 6 2   4 0 5 
7 0 1 −2 −6 −1
    
4 −12 0 5 −10 −6
 −6 5 −3    6 −1 11 
A − B = A + (−B) = + −
 6 −1 2    4 0 5 
7 0 1 −2 −6 −1
     
4 −12 0 −5 10 6 −1 −2 6
 −6 5 −3   −6 1 −11   −12 6 −14 
= + =
 6 −1 2   −4 0 −5   2 −1 −3 
7 0 1 2 6 1 9 6 2

Producto de Matrices
A diferencia de las dos operaciones definidas en la sección anterior, la multiplicación de matrices
no se define de manera “natural”, como veremos luego, no por ello deja de ser importante dicha
operación.

30
UNIDAD II. MATRICES Y DETERMINANTES

Definición.2.7. Sean A = (aij)m×n ∈ Mm×n(R) y B = (bjk)n×p ∈ Mn×p(R). Definiremos el pro-


ducto de A por B como la matriz C = (cik)m×p ∈ Mm×p(R), denotada por AB ´o A · B, tal que
para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} se tiene que
n
X
cik = aij bjk = ai1 b1k + ai2 b2k + · · · + ain bnk
j=1

Observación 2.9Nótese que para poder definir el producto AB, la cantidad de columnas d
A debe coincidir con la cantidad de filas de B, además, la matriz resultante, es una matriz cuya
cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la
cantidad de columnas de B.
 
" # 3 1 0
2 −1 0  
Ejemplo 2.7. Sean A = yB= 2 −1 −2 . Entonces
0 3 1
−4 −2 3

AB = A · B
" #
2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3
=
0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3
" # " #
6−2+0 2+1+0 0+2+0 4 3 2
= =
0+6−4 0−3−2 0−6+3 2 −5 −3

Observación 2.10. Nótese que en el ejemplo anterior, el producto BA no está definido, esto
nos dice que el producto de matrices no es conmutativo, más aún, a pesar de que ambos
productos
están definidos, AB y BA, no necesariamente son ambos del mismo orden, además, siendo ambos
productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo
orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando
AB = BA, se dice que A y B son matrices que conmutan.

A continuación enunciaremos un teorema que expone las principales propiedades del producto
de matrices

Teorema 2.6. Sean A ∈ Mm×n (R); B, C ∈ Mn×p (R); C ∈ Mp×q (R) y α ∈ R. Entonces

1. (AB)D = A(BD) (asociatividad del producto de matrices).

2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).

31
UNIDAD II. MATRICES Y DETERMINANTES

3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).

4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicación por


escalar).

5. Im A = A = AIn (neutros del producto de matrices).

6. B 0/p×q = 0/n×q y 0/m×n B = 0/m×p .

Demostración. Sean A = (aij )m×n ; B = (bjk )n×p ; C = (cjk )n×p y D = (dkl )p×q .

1. Hagamos AB = E = (eik )m×p ; (AB)D = ED = F = (fil )m×q ; BD = G = (gjl )n×q y


A(BD) = AG = H = (hil )m×q . Entonces, usando la definición de producto matricial, para
cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}
n
X
eik = aij bjk
j=1

para cada j ∈ {1, . . . , n} y cada l ∈ {1, . . . , q}


p
X
gjl = bjk dkl
k=1

y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q}


p n
X X
fil = eik dkl ; hil = aij gjl
k=1 j=1

Luego
p p n
! p n p
n X
X X X X X X
fil = eik dkl = aij bjk dkl = aij bjk dkl = aij bjk dkl
k=1 k=1 j=1 k=1 j=1 j=1 k=1
n p
! n
X X X
= aij bjk dkl = aij gjl = hil
j=1 k=1 j=1

Por lo tanto, usando la definición de igualdad de matrices

(AB)D = F = H = A(BD)

32
UNIDAD II. MATRICES Y DETERMINANTES

2. Hagamos B + C = E = (ejk )n×p ; A(B + C) = AE = F = (fik )m×p ; AB = G =


(gik )m×p ;
AC = H = (hik )m×p y AB + AC = G + H = R = (rik )m×p . Entonces, para cada i ∈
{1, . . . , m} y cada k ∈ {1,n . . . , p}
X
aij ejk (definición de producto de matrices)
fik = j=1
Xn
= aij (bjk + cjk ) (definición de suma de matrices)
j=1
n
X n
X n
X
= (aij bjk + aij cjk ) = aij bjk + aij cjk
j=1 j=1 j=1
= gik + hik (definición de producto de matrices)
= rik (definición de suma de matrices)

En consecuencia
A(B + C) = F = R = AB + AC

3. Análogo a la demostración de la parte 2.

4. Sean AB = E = (eik )m×p ; α (AB) = α E = F = (fik )m×p ; α A=G=


(gij )m×n y (α A)B =
GB = H = (hik )m×p . Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}

fik = α nX eik
(definici aijón
bjk (d
d
e finición de proónducto
multiplicaci de matrices)
por escalar)
j=1
n
X n
X
= α(aij bjk ) = (αaij )bjk
j=1 j=1
Xn
= α gij bjk (definición de multiplicación por escalar)
j=1
= hik (definición de producto de matrices)

De donde α (AB) = F = H = (αA)B. De manera análoga se prueba que α (AB) = A(α


B),
ası́ que
α(AB) = (αA)B = A(αB)

(2.3)

33
UNIDAD II. MATRICES Y DETERMINANTES

Hagamos AIn = E = (eik )m×n . Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , n}
n
X
eik = aij δjk (definición de producto de matrices)
j=1
= ai1 δ1k + · · · + ai(k−1) δ(k−1)k + aik δkk + ai(k+1) δ(k+1)k + · · · + ain δnk
= ai1 · 0 + · · · + ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · · + ain · 0 (por 1.3)
= aik

Por lo tanto AIn = E = A, análogamente puede probarse que Im A = A, en consecuencia

AIn = A = Im A

Ejercicio 2.1. Pruebe que si A ∈ Mm×n (R) y B ∈ Mn×p (R), entonces


h
1. AB =
i
AB (1) AB (2) · · · AB (p) (desarrollo por columnas del producto AB), es decir,
la k-ésima columna de AB, que es (AB)(k) , es igual a A por la k-ésima columna de B,
AB (k) , para cada k ∈ {1, . . . , p}.
 
A(1) B
 A(2) B 
2. AB = . (desarrollo por filas del producto AB), es decir, la i-ésima fila de AB,
 . 
A(m) B
que es (AB)(i) , es igual a la i-ésima fila de A por B, A(i) B, para cada i ∈ {1, . . . , m}.

Definición 2.8. Una matriz N ∈ Mn×n (R) es llamada nilpotente si existe p ∈ N tal que
N p = 0/n , además, si p es tal que N p−1 6= 0/n , diremos que N es nilpotente de orden p.

34
UNIDAD II. MATRICES Y DETERMINANTES

Observación 2.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente


de orden 0.

Ejemplo 2.8. Las siguientes matrices son nilpotentes


   
−1 1 0 0 0 1 0 0
 −1 0 1 0   0 0 1 0
N1 = ; N2 =
 −1 0 1 0   0 0 0 1 
−1 0 1 0 0 0 0 0
N1 es de orden 3 y N2 es de orden 4 (Probarlo como ejercicio)

Transposición de Matrices
Definición 2.9. Sea A = (aij )m×n ∈ Mm×n (R). Definiremos la transpuesta o traspuesta de
A como la matriz AT = (bji )n×m ∈ Mn×m (R) tal que

bji = aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

Ejemplo 2.9. Sea  


−2 5 0 7
 
A= 3 1 −6 0
−5 12 −2 9
Entonces  
−2 3 −5
 5 0 12 
AT =
 0 1 −2 
7 −6 9


Observación 2.12. Nótese que las filas de A “pasan” a ser las columnas de AT y las columnas
de A “pasan” a ser las filas de AT , más propiamente
T (i)
A(i) = AT para cada i ∈ {1, . . . , m}
T 
A(j) = AT (j)
para cada j ∈ {1, . . . , n}

Teorema 2.7. Sean A, B ∈ Mm×n (R), C ∈ Mn×p (R) y α ∈ R. Entonces

35
UNIDAD II. MATRICES Y DETERMINANTES

T
1. AT = A (propiedad de involución de la transposición de matrices)

2. (A + B)T = AT + B T (transpuesta de la suma)

3. (αA)T = αAT (transpuesta de la multiplicación por escalar)

4. (AC)T = C T AT (transpuesta del producto matricial)

5. (In )T = In y (0/m×n )T = 0/n×m

Demostración. Sean A = (aij )m×n ; B = (bij )m×n y C = (cjk )n×p .


T
1. Hagamos AT = D = (dji)n×m y AT = D T = E = (eij )m×n . Entonces, para cada
i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, por definición de transpuesta

eij = dji = aij

Luego
T
AT =E=A

2. Sean A + B = D = (dij )m×n ; (A + B)T = D T = E = (eji)n×m ; AT = F = (fji )n×m ;


B T = G = (gji)n×m y AT +B T = F +G = H = (hji )n×m . Entonces, para cada i ∈ {1, . . . , m}
y cada j ∈ {1, . . . , n}

eji = dij (definición de transpuesta)


= aij + bij (definición de suma de matrices)
= fji + gji (definición de transpuesta)
= hji (definición de suma de matrices)

Por lo tanto
(A + B)T = E = H = AT + B T

3. Hagamos α A = D = (dij )m×n ; (αA)T = D T = E = (eji )n×m ; AT = F = (fji )n×m ;


y α AT = αF = G = (gji)n×m . Entonces, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eji = dij (definición de transpuesta)


= αaij (definición de multiplicación por escalar)
= αfji (definición de transpuesta)
= gji (definición de multiplicación por escalar)

36
UNIDAD II. MATRICES Y DETERMINANTES

Ası́ que
(αA)T = E = G = αAT

4. Sean AC = D = (dik )m×p ; (AC)T = D T = E = (eki )p×m ; C T = F = (fkj )p×n ; AT =


G = (gji)n×m y C T AT = F G = H = (hki )p×m . Entonces, para cada i ∈ {1, . . . , m} y cada
k ∈ {1, . . . , p}

eki = dik (definición de transpuesta)


Xn
= aij cjk (definición de producto)
j=1
Xn
= gjifkj (definición de transpuesta)
j=1
Xn
= fkj gji = hki (definición de producto)
j=1

De donde
(AC)T = E = H = C T AT

Definición 2.10. Sea A ∈ Mn×n (R). Diremos que

1. A es simétrica si AT = A.

2. A es antisimétrica si AT = −A.

Ejemplo 2.10.

1. In es simétrica para todo n ∈ N.

2. 0/n es simétrica y antisimétrica para todo n ∈ N ¿existe alguna otra matriz que sea simétrica
y antisimétrica simultáneamente?

3. La matriz

A=
 
0 5 7 −6
 −5 0 −4 8

 −7 4 0 12 
6 −8 −12 0

37
UNIDAD II. MATRICES Y DETERMINANTES

es antisimétrica pues  
0 −5 −7 6
5 0 4 −8
AT = = −A
 7 −4 0 −12 
 
−6 8 12 0

4. La matriz  
5 −9 3 0
 −9 2 −1 13
A=
 3 −1 0 7 

0 13 7 −3
es simétrica ya que  
5 −9 3 0
 −9 2 −1 13 
AT = =A
 3 −1 0 7 
0 13 7 −3

Teorema 2.8. Sea A ∈ Mn×n (R). Entonces

1. A es simétrica si y sólo si aij = aji para cualesquiera i, j ∈ {1, . . . , n}.

2. A es antisimétrica si y sólo si aij = −aji para cualesquiera i, j ∈ {1, . . . ,


n}.

3. Si A es antisimétrica, entonces aii = 0 para cualquiera i ∈ {1, . . . , n}.

Demostración. ¡Ejercicio!

2.4 Operaciones Elementales por Filas.Escalonamiento


de una matriz.

Las operaciones elementales por filas son herramientas usadas con mucha frecuencia en
la resolución de los sistemas de ecuaciones lineales al igual que en cálculo de la inversa
de una matriz cuadrada. Estas operaciones las usaremos a lo largo de todo el curso, por ello
deben ser manejadas con la mayor perfección posible por parte del estudiante que desee aprender
la materia. Comencemos por definir dichas operaciones.
Denotemos por Fm (R) el conjunto formado por todas las matrices reales con m filas.

38
UNIDAD II. MATRICES Y DETERMINANTES

Definición 2.11. Una operación elemental por filas (OEF) es una función f : Fm (R) →
Fm (R) la cual es de uno de los siguientes tipos

OEF Tipo 1. Si f (A) = B, entonces existen s ∈ {1, . . . , m} y α 6= 0 tales que B(i) = A(i)
para cada i ∈ {1, . . . , m}, con i 6= s, y además B(s) = αA(s) , esto es, una de las
filas
de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales.
   
A(1) A(1)
 .  . 
.

 A(s−1)  A(s−1)
  
f (A) = f A(s) = αA(s) =B
 A(s+1)  A(s+1)
 .  
. .
   
A(m) A(m)
Fs → αFs
Por comodidad, en lugar de escribir B = f (A), escribiremos A → B.

OEF Tipo 2. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m}, con s 6= t, y α ∈ R tales


que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i 6= s, y además B(s) = A(s) + αA(t) ,
es decir, a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A,
distinta de la primera, dejando el resto de las filas intactas.

   
A(1) A(1)
 .   . 
A(s−1) A(s−1)
   
f (A) = f A(s) = A(s) + αA(t) =B
A(s+1) A(s+1)
 .   . 
 .   . 
A(m) A(m)
Fs → Fs + αFt
Al igual que antes, en lugar de escribir B = f (A), escribiremos A → B.

OEF Tipo 3. Si f (A) = B, entonces existen s, t ∈ {1, . . . , m} tales que B(i) = A(i) para
cada i ∈ {1, . . . , m}, con i 6= s e i 6= t y además B(s) = A(t) y B(t) = A(s) , dicho de
otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.

39
UNIDAD II. MATRICES Y DETERMINANTES

   
A(1) A(1)
 .  .
.
 A(s−1)   A(s−1) 
 
A(s) A(t)
 A(s+1)   A(s+1) 
 
. .
f (A) = f . = . =B
   
 A(t−1)  A(t−1)
A(t) A(s)
   
 A(t+1)  A(t+1)
 .   . 
 .   
A(m) A(m)
Fs ↔ Ft
Nuevamente, en lugar de escribir B = f (A), escribiremos A → B.

Observación 1.1.3. Nótese que si A ∈ Mm×n (R) y f : Fm (R) → Fm (R) es una OEF,
entonces
f (A) ∈ Mm×n (R).

Ejercicio 2.1.3. Pruebe que toda OEF f : Fm (R) → Fm (R) es una función invertible y que
su
inversa f −1 : Fm (R) → Fm (R) es tambiénuna OEF del mismo
 tipo que f .
−2 4 −5
Ejemplo 2.1.1. Sea  6 3 4

 2 −1 8 
A= −6 21 −15
Entonces
     
−2 4 −5 2 −1 8 2 −1 8
6 3 F1 ↔ F3
4 6 3 4 F4 → 13 F4 6 3 4
A= → →
 2 −1 8   4 −5   4 −5 
  (OEF 3)  −2  (OEF 1)  −2 
−6 21 −15 −6 21 −15 −2 7 −5
 
2 −1 8
F3 → F3 + F1 6 3 4
→  =B
(OEF 2)  0 3 3 
−2 7 −5

40
UNIDAD II. MATRICES Y DETERMINANTES

Observación 2.14. Se pueden aplicar más de dos operaciones por filas en un solo paso, lo único
que debemos cuidar es no transformar, en el mismo paso, una fila más de una vez y no transform-
ar, en el mismo paso, una fila que va ser usada para transformar a otra(s).

Observación 2.15. De manera análoga a como se definieron las operaciones elementales por
filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas últimas
sólo se usarán para el cálculo de determinantes y no para la resolución de sistemas de ecuaciones
lineales ni para hallar la inversa de una matriz cuadrada, en estos últimos dos problemas sólo
usaremos las operaciones elementales por filas.

Definición 2.12. Sea A = (aij )m×n ∈ Mm×n (R). Diremos que A es una matriz

Escalonada

1. Si todas las filas nulas de A, si las hay, estan ubicadas en las útimas posiciones, esto es,
si A(i) es una fila no nula de A, entonces A(s) también es no nula para cada 1 ≤ s < i.

2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de
A(i) (contada de izquierda a derecha) está mas a la izquierda de la primera compon-
ente no nula de A(i+1), es decir, si j, k ∈ {1, . . . , n} son tales que aij 6 = 0; a(i+1)k 6 = 0 y
ais = 0 = a(i+1)t para cada 1 ≤ s < j y cada 1 ≤ t < k, entonces j < k.

Reducida por Filas (RF)

1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es


igual a 1 (uno), dicha componente es llamada pivote, es decir, si j ∈ {1, . . . , n} es
tal que aij 6= 0 y ais = 0 para cada 1 ≤ s < j, entonces aij = 1.

2. Si A(j) es una columna de A que tiene un pivote, entonces el resto de las componentes
de A(j) son iguales a 0 (cero), esto es, si i ∈ {1, . . . , m} es tal que aij = 1 y ais = 0
para cada 1 ≤ s < j, entonces akj = 0 para cada k ∈ {1, . . . , m} con k 6= i.

Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simultánea
mente.

Ejemplo 2.12.

41
UNIDAD II. MATRICES Y DETERMINANTES

1. Para cualesquiera m, n ∈ Z+ , In y 0/m×n son matrices escalonadas reducidas por filas.


 
2 −1 3 8 3
 0 5 1 6 −4 
2. E = es escalonada pero no es reducida por filas.
 0 0 0 8 −7 
0 0 0 0 0
 
1 0 0 7
 0 0 0 0
3. R = 0 0 1 −9  es reducida por filas pero no es escalonada.

 0 0 0 6 
0 1 0 1
 
1 0 −5 0 8
 0 1 3 0 −1 
4. F = 0 0 0 1 −2 es escalonada reducida por filas.
 
 0 0 0 0 0 
0 0 0 0 0

Ejercicio 2.4. Sea A ∈ Mm×n (R). Pruebe que:

1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo sumo,


el mı́nimo entre m y n.

2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mı́nimo entre
m y n.

Ejercicio 2.5. Pruebe que si A ∈ Mn×n (R) es una matriz escalonada, entonces A es triangular
superior.

Definición 2.13. Sean A, B ∈ Mm×n (R). Diremos que B es equivalente por filas a A si
existen OEF f1 , f2 , . . . , fr : Fm (R) → Fm (R) tales que B = (f1 ◦ f2 ◦ · · · ◦ fr )(A)

Ejemplo 2.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente
por filas a A (¿por qué?). 

Teorema 2.9. Sean A, B, C ∈ Mm×n (R). Tenemos que

42
UNIDAD II. MATRICES Y DETERMINANTES

1. A es equivalente por filas a A.

2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.

3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es equivalente


por filas a A.

Demostración. ¡Ejercicio!

Observación 2.16. La parte 2 del teorema 2.9, nos permite decir A y B son equivalentes por
filas en lugar de B es equivalente por filas a A ó A es equivalente por filas a B.

Teorema 2.10. Toda matriz A ∈ Mm×n (R) es equivalente por filas a

1. Una matriz escalonada.

2. Una matriz reducida por filas.

3. Una única matriz escalonada reducida por filas, la cual llamaremos la forma escalonada
reducida por filas (FERF) de A.

Demostración.

Observación 2.17. A ∈ Mn×n (R) es equivalente por filas a In si y sólo si In es la FERF de A.

El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.

Ejemplo 2.14. Hallar la FERF de


 
6 −1 −15 2 13
 −1 0 2 −1 −3 
A=
 0 −3 −9 0 9 
7 1 −11 3 10

Solución.
   
6 −1 −15 2 13 −1 0 2 −1 −3
 −1 0 2 −1 −3   6 −1 −15 2 13 
A= F1 ↔ F2

 0 −3 −9 0 9   0 −3 −9 0 9 
7 1 −11 3 10 7 1 −11 3 10

43
UNIDAD II. MATRICES Y DETERMINANTES

   
1 0 −2 1 3 1 0 −2 1 3
 6 −1 −15 2 13 F2 → F2 − 6F1 0 −1 −3 −4 −5 
F1 → −F1 →
→  
 0 −3 −9 0 9  F4 → F4 − 7F1  0 −3 −9 0 9 
7 1 −11 3 10 0 1 3 −4 −11
   
1 0 −2 1 3 1 0 −2 1 3
 0 1 3 4 F3 → F3 + 3F2
5 0 1 3 4 5 
F2 → −F2 →
→ 9 
 0 −3 −9 0  F4 → F4 − F2  0 0 0 12 24 
0 1 3 −4 −11 0 0 0 −8 −16
   
1 0 −2 1 3 1 0 −2 0 1
F1 → F1 − F3
1  0 1 3 4 5 0 1 3 0 −3 
F3 → F
12 3 F2 → F2 − 4F3
→ 0 0 0 1 2  → 
  F → F + 8F  0 0 0 1 2 
4 4 3
0 0 0 −8 −16 0 0 0 0 0

Ası́ que la FERF de A es


 
1 0 −2 0 1
 0 1 3 0 −3 
C=
 0 0 0 1 2 
0 0 0 0 0

Definición 2.14. Una matriz E ∈ Mn×n (R) es llamada matriz elemental si existe una OEF
f : Fn (R) → Fn (R) tal que E = f (In ), es decir, E se obtiene de In por medio de una única
OEF.

Ejemplo 1.15.
 
1 0 0 0
 0 1 0 0
1. E1 = es elemental, pues
 −5 0 1 0 
0 0 0 1
   
1 0 0 0 1 0 0 0
 0 1 0 0 0 1 0 0
I4 = F3 → F3 − 5F1 = E1
0 0 1 0  →  −5 0 1 0 
   
0 0 0 1 0 0 0 1

44
.UNIDAD II. MATRICES Y DETERMINANTES

 
1 0 0
 
2. E2 =  0 4 0  es elemental, ya que
0 0 1
   
1 0 0 1 0 0
   
I3 =  0 1 0  F2 → 4F2→  0 4 0  = E2
0 0 1 0 0 1
 
1 0 0 0 0
 0 0 0 0 1 
3. E3 = 0 0 1 0 0 es elemental, dado que
 
 0 0 0 1 0 
0 1 0 0 0
   
1 0 0 0 0 1 0 0 0 0
 0 1 0 0 0   0 0 0 0 1

I5 = 0 0 1 0 0 F2 ↔ F5→ 0 0 1 0 0 = E3
   
 0 0 0 1 0   0 0 0 1 0 
0 0 0 0 1 0 1 0 0 0

Teorema 2.11. Sean A ∈ Mm×n (R), B ∈ Mn×p (R) y f : Fm (R) → Fm (R) una OEF. Entonces

1. f (AB) = f (A)B.

2. (f (A))(j) = f A(j) para cada j ∈ {1, . . . , n} de donde
   
f (A) = f A(1) f A(2) · · · f A(n)

es decir, la fila j-ésima de f (A) es igual a f aplicada a la j-ésima fila de A.

2.5. Inversa de una matriz


Otra consecuencia del mismo teorema, en conjunción con el corolario anterior,
es la siguiente.

Corolario 2.13. Sean A, B ∈ Mm×n (R) dos matrices equivalentes por filas.
Entonces existen matrices elementales E1 , E2 , . . . , Er ∈ Mm×m (R) tales que B =
E1 E2 · · · Er A

45
Ası́ que la única solución del sistema homogéneo Bx = 0/n×1 es la trivial, y en virtud del teorema
1.22, B es invertible. Además

A = AIn (teorema 1.6 parte 5)


= A(BB −1 ) (definición de matriz inversa)
= (AB)B −1 (teorema 1.6 parte 1)
= In B −1 (por hipótesis)
= B −1 (teorema 1.6 parte 5)

Por lo tanto BA = In (definición de inversa) y como consecuencia de la parte 1 del teorema 3.20
A−1 = (B −1 )−1 = B.

Observación 3.22. El teorema 1.23 nos permite garantizar que A−1 = B sólo con probar que
AB = In ó BA = In .

Ejercicio 3.7. Sean A, B ∈ Mn×n (R). Pruebe que si AB es invertible, entonces A y B también
son invertibles

2.6. Definición de determinante de una matriz

En esta sección trataremos los determinantes y algunas de sus propiedades, en primer lugar
definiremos los determinantes de orden 2, continuando luego con los determinantes de
orden 3, para finalmente definir los determinantes de orden n.
" #
a11 a12
Definición 2.17. Sea A = ∈ M2×2 (R). Definiremos el determinante de A, como
a21 a22
el número real det(A) = |A|, dado por

a
11 a12
det(A) = |A| = = a11 a22 − a12 a21
a21 a22

este tipo de determinante se suele llamar determinante de orden 2.


" #
−6 5
Ejemplo 2.22. Hallar det(A) para A =
−7 6

46
UNIDAD II. MATRICES Y DETERMINANTES

−6 5
Solución. det(A) = = (−6)6 − 5(−7) = −36 + 35 = −1
−7 6

" #
a11 a12
Ejercicio 2.8. Pruebe que A = ∈ M2×2 (R) es invertible si y sólo si det(A) 6= 0.
a21 a22
" #
1 a22 −a12
Además, si A es invertible, entonces A−1 =
det(A) −a21 a11

Definición 2.18. Dada la matriz


 
a11 a12 a13
 
A =  a21 a22 a23  ∈ M3×3 (R)
a31 a32 a33

Definiremos el determinante de A, denotado por det(A) ó |A|, como

a
11 a12 a13 a a a
22 a23 21 a23 21 a22
det(A) = |A| = a21 a22 a23 = a11 − a12 + a13
a32 a33 a31 a33 a31 a32
a31 a32 a33

este tipo de determinante es llamado determinante de orden 3.

Observación 2.23. Nótese que estamos definiendo el determinante de orden 3 en función de


determinantes de orden 2.
 
2 −3 −1
 
Ejemplo 2.23. Hallar det(A) para A =  −6 1 5 
−7 0 6

Solución.
2 −3 −1
1 5 −6 5 −6 1
det(A) = |A| = −6 1 5 = 2 − (−3) + (−1)
0 6 −7 6 −7 0
−7 0 6
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2

47
UNIDAD II. MATRICES Y DETERMINANTES

Observación 2.24. Una forma muy sencilla recordar la fórmula de determinantes de orden 3
es la siguiente

a11 a12 a13


ց ւ
a21 a22 a23 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23
ւ
ց ւ
ց − a13 a22 a31 − a23 a32 a11 − a33 a12 a21

a31 a32 a33

ւ
ց ւ
ց 
 
a11 a12 a13 no es parte del determinante, es sólo para

ւ ց  ayudar a recordar la fórmula

a21 a22 a23

Los productos generados por las flechas rojas (ց) se colocan con signo positivo, los que son
generados por las flechas azules (ւ) se colocan con signo negativo.
Puede verificar que la igualdad anterior es cierta. También se puede hacer el cálculo si en lugar
de colocar las dos primeras filas al final, se colocan las dos últimas filas en la parte superior, las
dos primeras columnas a la derecha o las dos últimas columnas a la izquierda.
Este método se conoce como la método de Sarrus para el cálculo de determinantes de orden
3 y sólo es aplicable a determinantes de orden 3.

Ejemplo 2.24. Calculemos el determinante del ejemplo 2.23 usando este método.

Solución.
2 −3 −1
−6 1 5 = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5 − (−1)1(−7) − 5 · 0 · 2 − 6(−3)(−6)

−7 0 6

2 −3 −1
−6 1 5
2 −3 −1
−6 1 5 = 12 + 0 + 105 − 7 − 0 − 108 = 2

−7 0 6

Compare este resultado con el obtenido en el ejemplo 2.23.

48
UNIDAD II. MATRICES Y DETERMINANTES

2.7. Propiedades de los determinantes.


Definición 2.19. Sea A =∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definamos la matriz MijA ∈
M(n−1)×(n−1) (R) que se obtiene de A al eliminar su i-ésima fila y su j-ésima columna, dicha
matriz es llamada ij-ésimo menor de A.

Observación 2.25. Si en lugar de eliminar una fila y una columna de A, eliminamos dos filas
y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A
estas matrices se denotan por Mij,kl , lo que significa que se han eliminado las filas i e j
(con i 6= j) y las columnas k y l (con k 6= l) de A. De manera análoga se pueden definir
menores de
A ∈ Mn×n (R) hasta de orden n − 1.

A A A A
Observación 2.26. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l ∈ {1, . . . ,
n} con i 6= j y k 6= l.
 
Ejemplo 2.25. Consideremos la matriz −9 2 −1 4
 0 8 −5 7

 1 6 3 −6 
A= −4 1 0 3

A A A
Hallar M23 ; M42 y M22 .

Solución.
     
−9 2 4 −9 −1 4 −9 −1 4
A
  A
  A
 
M23 = 1 6 −6  ; M42 = 0 −5 7  y M22 = 1 3 −6 
−4 1 3 1 3 −6 −4 0 3

Definición 2.20. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-ésimo co-
factor de A como el número real CijA dado por
Ejemplo 2.26. Para la matriz del ejemplo 2.25 se tiene que
CijA = (−1)i+j det MijA

49
UNIDAD II. MATRICES Y DETERMINANTES

−9 2 4
A 2+3 A
C23 = (−1) det M23 =− 1 6 −6 = −(−162 + 4 + 48 + 96 − 54 − 6) = 74

−4 1 3

−9 −1 4
A
C42 = (−1)4+2 det M42
A
= 0 −5 7 = −270 + 0 − 7 + 20 + 189 − 0 = −68

1 3 −6

−9 −1 4
A 2+2 A
C22 = (−1) det M22 = 1 3 −6 = −81 + 0 − 24 + 48 − 0 + 3 = −54
−4 0 3


Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la fórmula
dada en la definición 2.18 puede ser escrita como

A A A
det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta fórmula para una matriz A de orden n.

Definición 2.21. Sea A ∈ Mn×n (R). Definiremos el determinante de A, determinante de


orden n, como el número real det(A) = |A| dado por

a11 a12 · · · a1n


n
X Xn
a21 a22 · · · a2n A

det(A) = |A| = . . .. . = a1j C1j = a1j (−1)1+j det M1j
A

. . . . j=1 j=1

an1 an2 · · · ann


Ejemplo 2.27. Hallar el determinante de la matriz del ejemplo 2.25

Solución.

−9 2 −1 4
0 8 −5 7
det(A) = |A| =
1 6 3 −6
−4 1 0 3
  
= (−9)(−1)1+1 det M11 + 2(−1)1+2 det M12
AA
+ (−1)(−1)1+3 det M13
A


+4(−1)1+4 det M14
A

50
UNIDAD II. MATRICES Y DETERMINANTES

8 −5 7 0 −5 7 0 8 7 0 8 −5
det(A) = −9 6 3 −6 − 2 1 3 −6 − 1 6 −6 − 4 1 6 3

1 0 3 −4 0 3 −4 1 3 −4 1 0
= −9(72 + 0 + 30 − 21 − 0 + 90) − 2(0 + 0 − 120 + 84 − 0 + 15)
−(0 + 7 + 192 + 168 − 0 − 24) − 4(0 − 5 − 96 − 120 − 0 − 0)
= −1539 + 42 − 343 + 884 = −956

Ejemplo 2.28. Calcular el determinante de la matriz


 
2 0 0 0 0
12 1 0 0 0
A= −3 0 −3 0 0
 
 5 −8 7 −1 0 
−9 6 −7 0 −6

Solución. Notemos primero que A es triangular inferior.

2 0 0 0 0
12 1 0 0 0
det(A) = |A| = −3 0 −3 0 0
5 −8 7 −1 0

−9
6 −7 0 −6
  
= 2(−1)1+1 det M11A
+ 0(−1)1+2 det M12A
+ 0(−1)1+3 det M13
A

 
+0(−1)1+4 det M14 A
+ 0(−1)1+5 det M15A

  
= 2(−1)1+1 det M11A
+ 0(−1)1+2 det M12A
+ 0(−1)1+3 det M13
A

 
+0(−1)1+4 det M14 A
+ 0(−1)1+5 det M15A


1 0 0 0
0 −3 0 0
= 2
−8 7 −1 0

6 −7 0 −6

51
UNIDAD II. MATRICES Y DETERMINANTES


−3 0 0 0 0 0

det(A) = 2 1(−1)1+1 7 −1 0 + 0(−1)1+2 −8 −1 0

−7 0 −6 6 0 −6

0 −3 0 0 −3 0
1+3 1+4

+0(−1) −8 0 + 0(−1)
7 −8 7 −1 

6 −7 −6 6 −7 0
−3 0 0
= 2·1 7 −1 0

−7 0 −6
!
−1 0 7 0 7 −1
= 2 · 1 (−3)(−1)1+1 + 0(−1)1+2 + 0(−1)1+3
0 −6 −7 −6 −7 0

−1 0
= 2 · 1(−3) = 2 · 1(−3)((−1)(−6) − 0 · 0)
0 −6
= 2 · 1(−3)(−1)(−6) = −36

El determinante de A es el producto de las componentes de la diagonal principal. Este resultado


se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

La demostración del teorema que enunciaremos a continuación escapa del objetivo del curso,
sin embargo, de él se derivan el resto de las propiedades que serán enunciadas más adelante, en
el apéndice D se puede encontrar una demostración de este.

Teorema 2.24. Si A = (aij )n×n ∈ Mn×n (R), entonces


n
X n
X 
1. det(A) = aij CijA = aij (−1)i+j det MijA para cada i ∈ {1, . . . , n} (Desarrollo del
j=1 j=1
determinante de A mediante la fila i-ésima).
n
X n
X 
2. det(A) = aij CijA = aij (−1)i+j det MijA para cada j ∈ {1, . . . , n} (Desarrollo del
i=1 i=1
determinante de A mediante la columna j-ésima).

52
UNIDAD II. MATRICES Y DETERMINANTES

Ejemplo 2.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de


terminante mediante la tercera fila y mediante la segunda columna.

Solución. En primer lugar hallemos el determinante de A desarrollándolo mediante la tercera


fila.
2 −3 −1
det(A) = |A| = −6 1 5

−7 0 6
−3 −1 2 −1 2 −3
= −7(−1)3+1 + 0(−1)3+2 + 6(−1)3+3
1 5 −6 5 −6 1
= −7(−15 + 1) + 0 + 6(2 − 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna.


2 −3 −1
det(A) = |A| = −6 1 5

−7 0 6
−6 5 2 −1 2 −1
= −3(−1)1+2 + 1(−1)2+2 + 0(−1)3+2
−7 6 −7 6 −6 5
= 3(−36 + 35) + (12 − 7) + 0 = 2


Teorema 2.25. Si A ∈ Mn×n (R), entonces det AT = det(A).

Demostración. (Ejercicio)
Sugerencia: proceder por inducción sobre n y usar el teorema 1.24

Teorema 2.26. Si A = (aij )n×n ∈ Mn×n (R) una matriz triangular (superior o inferior), en-
tonces det(A) = a11 a22 · · · ann .

Demostración. Procedamos por inducción sobre n. Supongamos, sin perder generalidad que
A es una matriz triangular superior.
Verifiquemos que la tesis se cumple para n = 2. Sea
" #
a11 a12
A=
0 a22

53
UNIDAD II. MATRICES Y DETERMINANTES

Entonces
det(A) = a11 a22 − a12 · 0 = a11 a22

Supongamos ahora que la tesis se cumple para n − 1, esto es, supongamos que para cualquier
matriz triangular superior A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R) se cumple que det(A) =
a11 a22 · · · a(n−1)(n−1) (Hipótesis Inductiva).
Probemos ahora que se cumple para n. Sea
 
a11 a12 · · · a1n
0 a22 · · · a2n 
A=
 .. ..
.
..
.
.
. 

0 ··· 0 ann

Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos

A A A

det(A) = 0 · Cn1 + · · · + 0 · Cn(n−1) + ann Cnn = ann (−1)n+n det(Mnn
A A
) = ann det Mnn

Pero
 
a11 a12 · · · a1(n−1)
 0 a22 · · · a2(n−1) 
A
Mnn = . .. ..
 . . . . 
0 ··· 0 a(n−1)(n−1)
A
es decir, Mnn es una matriz triangular superior de orden (n−1), por lo tanto, usando la Hipótesis
A

Inductiva, se tiene que det Mnn = a11 a22 · · · a(n−1)(n−1) . Luego

det(A) = ann a11 a22 · · · a(n−1)(n−1) = a11 a22 · · · a(n−1)(n−1) ann

Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuación, nos presentan las propiedades básicas del
determinante, estas propiedades nos permitirán hallar el determinante de una matriz sin hacer
demasiados cálculos. Los enunciados de estas propiedades se darán sólo para filas, sin embargo,
en virtud del teorema 1.25, se pueden enunciar propiedades análogas para columnas.

Teorema 2.27. Sea A ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.

54
UNIDAD II. MATRICES Y DETERMINANTES

Demostración. Sea A = (aij )n×n . Como A(s) = 0/1×n , entonces asj = 0 para cada j ∈ {1, . . . , n}.
Ası́ que, al desarrollar el determinante de A por medio de la fila s, se tiene que
n
X n
X
A A
det(A) = asj Csj = 0 · Csj =0
j=1 j=1

Teorema 2.28. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = αA(s) y
B(i) = A(i) para i 6 = s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A por un
escalar α, entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por α.

Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = αA(s) y B(i) = A(i) para i 6= s,
entonces bsj = αasj para cada j ∈ {1, . . . , n} y además, la matriz que se obtiene al eliminar la
A B
fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego Msj = Msj para
cada j ∈ {1, . . . , n} (¿por qué?).
Por lo tanto
B
Csj = (−1)s+j det(Msj
B
) = (−1)s+j det(Msj
A A
) = Csj

para cada j ∈ {1, . . . , n}.


Ası́, al desarrollar el determinante de B por medio de la fila s, obtenemos
n
X n
X n
X
B A A
det(B) = bsj Csj = αasj Csj =α asj Csj = α det(A)
j=1 j=1 j=1

Ejemplo 2.30. Sea  


2 −1 2
 
A =  12 −16 4 
−2 0 3
Entonces
2 −1 2 2 −1 2 2 −1 2
det(A) = 12 −16 4 = 4 · 3 4(−4) 4 · 1 = 4 3 −4 1

−2 0 3 −2 0 3 −2 0 3
= 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3]
= 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116

55
UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.29. Sean A, B, C ∈ Mn×n(R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s) y C(i)
= B(i) = A(i) para i 6 = s, entonces det(C) = det(A) + det(B), dicho de otra manera, si tenemos
tres matrices A, B, C cuyas filas son id´enticas excepto la fila s, y que la fila s de C es
igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.

Demostración. Sean A = (aij )n×n , B = (bij )n×n y C = (cij )n×n . Sean A, B, C ∈ Mn×n (R).
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i 6= s, entonces csj = asj + bsj para cada
j ∈ {1, . . . , n} y además, las matrices que se obtienen al eliminar la fila s de A, B y C son
A B C
iguales, ası́ que Msj = Msj = Msj para cada j ∈ {1, . . . , n}.
Por lo tanto
C B A
Csj = Csj = Csj

para cada j ∈ {1, . . . , n} (¿por qué?).


En consecuencia
n
X n
X n
X n
X
C C C C
det(C) = csj Csj = (asj + bsj )Csj = asj Csj + bsj Csj
j=1 j=1 j=1 j=1
n
X n
X
A B
= asj Csj + bsj Csj = det(A) + det(B)
j=1 j=1

Ejemplo2.31. Sea A la matriz del ejemplo 1.30. Entonces


2 −1 2 4 + (−2) −1 2 4 −1 2 −2 −1 2
det(A) = 12 −16 4 = 6 + 6 −16 4 = 6 −16 4 + 6 −16 4

−2 0 3 1 + (−3) 0 3 1 0 3 −3 0 3
= [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] +
[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6]
= [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18]
= −146 + 30 = −116

Teorema 2.30. Sean A, B ∈ Mn×n(R). Si existen s, t ∈ {1, . . . , n} tales que s 6 = t, B(s) = A(t),
B(t) = A(s) y B(i) = A(i) para i 6 = s y i 6 = t, entonces det(B) = − det(A), en otras palabras, si
intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por −1.

56
UNIDAD II. MATRICES Y DETERMINANTES

Demostración. Ejercicio

Ejemplo 2.32. Sea A la matriz del ejemplo 2.30 y sea


 
2 −1 2
 
B =  4 −16 12 
3 0 −2
Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las fila 2 de B es igual
a la fila 2 de A. Además
2 −1 2
det(B) = 4 −16 12

3 0 −2
= 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12 − 2(−16)3 − 12 · 0 · 2 − (−2)(−1)4
= 64 + 0 − 36 + 96 − 0 − 8 = 116 = − det(A)

Teorema 2.31. Sea A ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.

Demostración. Sea B ∈ Mn×n (R) la matriz que se obtiene al intercambiar las filas s y t de A.
Como A(s) = A(t) , entonces B = A y ası́ det(B) = det(A).
Por otro lado, dado que s 6= t y según el teorema 1.30, det(B) = −
det(A). Ası́ que det(A) = det(B) = − det(A) y en consecuencia det(A) =
0.


Ejemplo 2.33. Sea 2 −1 −2

4 −16 12 
2 −1 −2
Entonces
A=
2 −1 −2
det(A) = 4 −16 12
2 −1 −2
= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4
= 64 + 8 − 24 − 64 + 24 − 8 = 0

57
UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.32. Sean A ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6= t y


A(s) = αA(t) , entonces det(A) = 0, esto es, si una fila de A es un múltiplo escalar de alguna otra
fila de A, su determinante es igual a cero.

Demostración. Sea B ∈ Mn×n (R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i 6= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 2.31, se tiene que det(B) = 0.
Por otro lado, como A(s) = αA(t) = αB(t) = αB(s) , entonces, usando el teorema 2.28, se
tiene
que det(A) = α det(B) = α0 = 0.


Ejemplo 2.34. Sea  2 8 2

 −4 −16 1 
A=
3 12 −2
Entonces la columna A(2) = 4A(1) , además
2 8 2
det(A) = −4 −16 1

3 12 −2
= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4)
= 64 − 96 + 24 + 96 − 24 − 64 = 0

Teorema 2.33. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6 = t, B(s)


= A(s) + αA(t) y B(i) = A(i) para i 6 = s, entonces det(B) = det(A), dicho de otra forma, si a una
fila de A le sumamos un m´ultiplo escalar de alguna otra fila de A, el determinante de la
matriz resultante es igual al determinante de A.

Demostración. Sea C ∈ Mn×n (R) tal que C(i) = B(i) = A(i) para i 6= s y C( s) = αA(t) . Por lo
tanto, dado que s 6= t y en virtud del teorema 1.32, det(C) = 0.
Además, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 1.29

det(B) = det(A) + det(C) = det(A) + 0 = det(A)

58
UNIDAD II. MATRICES Y DETERMINANTES

Ejemplo 2.35. Sea A la matriz del ejemplo 2.30 y sea


 
2 −1 2
 
B =  −2 −9 −10 
−2 0 3

Ası́ que B(2) = A(2) − 7A(1) (¡verifı́quelo!). Además

2 −1 2
det(B) = −2 −9 −10

−2 0 3
= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2)
= −54 + 0 − 20 − 36 − 0 − 6 = −116 = det(A)

El siguiente ejemplo nos da un método para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el cálculo resulta
mucho más sencillo que al usar la definición.
Como se dijo en la observación 1.15, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el cálculo de determinantes, estas operaciones las indicaremos de manera
análoga a las OEF, salvo que en lugar de usar F usaremos C.

Ejemplo 2.36. Hallar el determinante de la matriz


 
6 −1 2 13 2
−1 0 −1 −3 −1
A= 0 −3 0 9 0
 
 7 1 3 12 3
0 −2 4 1 −3

Solución.

6 −1 2 13 2 6 −1 2 10 2
−1 0 −1 −3 −1 −1 0 −1 −3 −1 !
C4 → C4 + 3C2
det(A) = 0 −3 0 9 0 = 0 −3 0 0 0
por teorema 2.33
7 1 3 12 3 7 1 3 15 3
1.2.33
0 −2 4 1 −3 0 −2 4 −5 −3

59
UNIDAD II. MATRICES Y DETERMINANTES


6 2 10 2
!
−1 −1 −3 −1 desarrollando el determinante
det(A) = −3(−1)3+2
7 3 15 3 mediante la tercera fila
0 4 −5 −3

0 −4 −8 −4  
F1 → F1 + 6F2
−1 −1 −3 −1  
= 3  F3 → F3 + 7F2 
0 −4 −6 −4
por teorema 1.33
0 4 −5 −3
−4 −8 −4 !
desarrollando el determinante
= 3(−1)(−1)2+1 −4 −6 −4
mediante la primera columna
4 −5 −3
 
0 −13 −7 F1 → F1 + F3
 
= 3 0 −11 −7  F2 → F2 + F3 

4 −5 −3 por teorema 1.33
!
−13 −7 desarrollando el determinante
= 3 · 4(−1)3+1
−11 −7 mediante la primera columna
= 12(−13(−7) − (−7)(−11)) = 12 · 14 = 168

Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos métodos ¿cuál de los dos
le parece más sencillo?

Teorema 2.34. Sea A = (aij )n×n ∈ Mn×n (R). Entonces para cualesquiera s, t ∈ {1, . . . , n} con
s 6= t se tiene que
n
X n
X
A A
ask Ctk =0 y aks Ckt =0
k=1 k=1

Demostración. Sea s, t ∈ {1, . . . , n} con s 6= t. Definamos B = (bij )n×n tal que B(i) = A(i)
para cada i ∈ {1, . . . , n} con i 6= t y B(t) = A(s) . Ası́ que, usando el teorema 1.31, det(B) = 0.
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son iguales,
B A B A
por lo tanto Mtk = Mtk para cada k ∈ {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el
determinante de B mediante la fila t, se tiene que
n
X n
X
B A
det(B) = btk Ctk = ask Ctk
k=1 k=1
n
X n
X
A A
En consecuencia ask Ctk = 0, análogamente se prueba que aks Ckt = 0.
k=1 k=1

60
UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.35. Si E ∈ Mn×n (R) es una matriz elemental, entonces para cada A ∈ Mn×n (R) se
tiene que det(EB) = det(E) det(B).

Demostración. Como E ∈ Mn×n (R) es una matriz elemental, existe una OEF f : Fn (R) →
Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A =
f (A).
Debemos proceder por casos sobre el tipo de OEF.

Caso 1. f es una OEF tipo 1. As que existen s ∈ {1, . . . , n} y α 6= 0 tales que E(s) = α (In )(s)
(donde (In )(s) es la fila s de In ) y para i 6= s se tiene que E(i) = (In )(i) . Luego
(f (A))(s) = αA(s) y para i 6= s tenemos (f (A))(i) = A(i) .

Por lo tanto, según el teorema 1.28,

det(E) = α det(In ) = α · 1 = α

y
det(EA) = det(f (A)) = α det(A) = det(E) det(A).

Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s 6= t, y α ∈ R tales que
(In )(t) y E(i) = (In )(i) para i 6= s. As que (f (A))(s) = A(s) + α
E(s) = (In )(s) + α A(t) y
(f (A))(i) = A(i) para i 6= s.

Usando el teorema 1.33, tenemos que

det(E) = det(In ) = 1

y
det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)

Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . . , n} tales que E(s) = (In )
(t) ,

E(t) = (In )(s) y E(i) = (In )(i) para i 6= s e i 6= t. De donde (f (A))(s) = A(s) + α
A(t) y
(f (A))(i) = A(i) para i 6= s e i 6= t.

Si s = t, entonces E = In y f (A) = A, as que

det(E) = det(In ) = 1

61
UNIDAD II. MATRICES Y DETERMIN-
ANTES
y
det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)

Si s 6= t, podemos usar el teorema 1.30 y obtenemos

det(E) = − det(In ) = −1

y
det(EA) = det(f (A)) = − det(A) = (−1) det(A) = det(E) det(A)

Observación 2.27. De la prueba del teorema 1.35, se tiene que si E ∈ Mn×n (R) es una matriz
elemental, entonces det(E) 6= 0.

Corolario 2.36. Sean E1 , E2 , . . . , Er ∈ Mn×n (R) matrices elementales. Entonces, para cada
A ∈ Mn×n (R), se tiene que det(E1 E2 · · · Er A) = det(E1 ) det(E2 ) · · · det(Er ) det(A).

Demostración. Hacerlo como ejercicio.

Teorema 2.37. Si A ∈ Mn×n (R) es una matriz ERF, entonces det(A) 6= 0 si y sólo si A = In .

Demostración. Sea A = (aij )n×n . Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.5), ası́ que aij = 0 para i > j y det(A) = a11 a22 · · · ann .
Supongamos que det(A) 6 = 0. Luego aii 6 = 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para i > j,
entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-´esima fila es aii, y por
ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii es un pivote y
por lo tanto aij = 0 para i 6 = j (¿por qu´e?). En resumen
(
1 si i = j
aij =
0 si i 6= j

Es decir, A = In .
Recı́procamente, si A = In , entonces det(A) = 1 6= 0.

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada.

62
UNIDAD II. MATRICES Y DETERMINANTES

Teorema 2.38. Sea A ∈ Mn×n (R). Entonces A es invertible si y sólo si det(A) 6= 0.

Demostración. Sea B ∈ Mn×n (R) la FERF A. Entonces existen matrices elementales E1 , E2 , . . . , Er ∈


Mn×n (R) tales que B = E1 E2 · · · Er A. Como det(Ei ) 6= 0 para cada i ∈ {1, . . . , r}, entonces
det(A) 6= 0 si y sólo si det(B) 6= 0; y usando el teorema 1.37 se tiene que B = In . Por lo tanto
det(A) 6= 0 si y sólo si la FERF de A es In , lo cual concluye la prueba.

Teorema 2.39. Sean A, B ∈ Mn×n (R). Entonces det(AB) = det(A) det(B).

Demostración.

Caso 1. det(A) = 0. Ası́ que, en virtud del teorema 1.38, A no es invertible. Luego, usando
el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se
tiene que det(AB) = 0. Por lo tanto

det(AB) = 0 = 0 det(B) = det(A) det(B)

Caso 2. det(A) 6= 0. Luego A es invertible, en virtud del teorema 1.38. Ası́ que, al usar
el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R)
tales que A = E1 E2 · · · Er . Luego, por el corolario 1.36

det(A) = det(E1 E2 · · · Er ) = det(E1 ) det(E2 ) · · · det(Er ) y

det(AB) = det(E1 E2 · · · Er B) = det(E1 ) det(E2 ) · · · det(Er ) det(B) = det(A) det(B)

2.8. Inversa de una matriz cuadrada a través de la adjunta.

En esta sección definiremos la adjunta de una matriz y enunciaremos la regla de Cramer ,


que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicación
de los determinantes.

Definición 2.22. Sea A ∈ Mn×n (R). Se define la matriz adjunta de A como la matriz adj(A) ∈
Mn×n (R) cuya ij-ésima componente es el ji-ésimo cofactor de A para cada i, j ∈ {1, . . . , n}, es
A
decir, si adj(A) = (bij )n×n , entonces bij = Cji para cualesquiera i, j ∈ {1, . . . , n}.

63
UNIDAD II. MATRICES Y DETERMINANTES

Observación 2.28. Si C = (CijA )n×n , es decir, si C es la matriz real cuadrada cuya ij-
ésima componente es el ij-ésimo cofactor de A para cada i, j ∈ {1, . . . , n}, entonces adj(A) =
CT .

Ejemplo 2.37. Hallar la adjunta de 


2 −1 3

1 0 2 
4 −1 7

Solución. Necesitamos hallar cada uno de los cofactores de A. Veamos

0 2 1 2 1 0
A
C11 = (−1)1+1 = 2; A
C12 = (−1)1+2 = 1; A
C13 = (−1)1+3 = −1;
−1 7 4 7 4 −1

−1 3 2 3 2 −1
A 2+1 A 2+2 A 2+3
C21 = (−1) = 4; C22 = (−1) = 2; C23 = (−1) = −2;
−1 7 4 7 4 −1
−1 3 2 3 2 −1
A
C31 = (−1)3+1 = −2; A
C32 = (−1)3+2 = −1; A
C33 = (−1)3+3 = 1;
0 2 1 2 1 0
As que    
A A A
C11 C21 C31 2 4 −2
adj(A) =  CA CA CA = 1 2 −1 
 12 22 32   
A A A
C13 C23 C33 −1 −2 1

Teorema 2.40. Sea A ∈ Mn×n (R). Entonces A adj(A) = det(A)In = adj(A)A.

Demostración. Hagamos adj(A) = (bjk )n×n . Ası́ que para cada j, k ∈ {1, . . . , n}, se tiene que
A
bjk = Ckj .
Si hacemos A adj(A) = D = (dik )n×n , entonces, para cada i, k ∈ {1, . . . , n}, tenemos que
n
X n
X
A
dik = aij bjk = aij Ckj .
j=1 j=1

Pero n
X
aij CijA = det(A)
j=1

64
UNIDAD II. MATRICES Y DETERMINANTES

y según el teorema 2.34, si i 6= k,


entonces n
X
A
aij Ckj =0
j=1

Por lo tanto
(
det(A) si i = k
dik =
0 si i 6= k
(
1 si i = k
= det(A)
0 si i 6= k
= det(A)δik

donde In = (δik )n×n . En consecuencia A adj(A) = det(A)In . De manera análoga se prueba que
adj(A)A = det(A)In , lo cual concluye la prueba.

1 1
Teorema 2.41. Si A ∈ Mn×n (R) es invertible, entonces det(A−1 ) = y A−1 = adj(A).
det(A) det(A)
Demostración. Como A es invertible, entonces existe A−1 ∈ Mn×n (R) tal que AA−1 = In =
A−1 A, y por el teorema 1.39

det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1.

Luego
1
det(A−1 ) = .
det(A)
Por otro lado, usando el teorema 1.40, se tiene que
 
1 1 1
A adj(A) = A adj(A) = det(A)In = In .
det(A) det(A) det(A)
De donde
1
A−1 = adj(A).
det(A)

Ejercicio 2.9. Sea A ∈ Mn×n (R) una matriz invertible. Pruebe que adj(A) también es invertible
y además (adj(A))−1 = adj(A−1 ).

65
2.9. APLICACIONES

Si A es invertible, entonces la única solución de dicha ecuación está dada por x = A−1 b,
ası́ que, una forma de hallar la
solución de la ecuación en cuestión, es calcular la inversa de A y multiplicarla por b, pero quizás
esto es mucho más complicado y costoso (en términos de cálculos) que hallar la FERF de la
matriz [A|b].
En el siguiente teorema presentaremos una herramienta que permite resolver la ecuación an
terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha
herramienta se conoce con el nombre de la regla de Cramer .

  2.42 (Regla de Cramer). Sea A ∈ Mn×n (R) una matriz invertible y b ∈ Mn×1 (R). Si
Teorema
x1
x2 det(Abj )
x= .  es la solución de la ecuación Ax = b, entonces, para cada j ∈ {1, . . . , n}, xj = ,
. det(A)
 
xn
donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es,
h i
b (1) (j−1) (j+1) (n)
Aj = A ··· A b A ··· A

Demostración. Como A = (aij )n×n es invertible, entonces la única solución del sistema Ax
 =b
b1
1 1  b2 
−1 −1
es x = A b, pero A = adj(A), ası́ que x = adj(A)b, por lo tanto, si b = ,
det(A) det(A) .
 
bn
n
1 X A
entonces xj = C bi para cada j ∈ {1, . . . , n}.
det(A) i=1 ij
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que
 
a11 · · · a1(j−1) b1 a1(j+1) · · · a1n
. . . . .
. . . .
a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n
Abj = ai1 ··· ai(j−1) bi ai(j+1) ··· ain
 a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n 
. . . . .
 . . . . . 
an1 · · · an(j−1) bn an(j+1) · · · ann
Ab
Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que Mij j = MijA y ası́
Ab
 Ab  
Cij j = (−1)i+j det Mij j = (−1)i+j det MijA = CijA

66
UNIDAD II. MATRICES Y DETERMINANTES

Luego, al desarrollar el determinante de Abj por medio de la j-ésima columna, obtenemos


n
X n
X
Ab
det(Abj ) = Cij j bi = CijA bi
i=1 i=1

En consecuencia, para cada j ∈ {1, . . . , n} tenemos que


det(Abj )
xj =
det(A)

Ejemplo 2.38. Verificar que la matriz del sistema



 x +2z −w = 3
 x +y +2z +w = 2

 4x +2y +2z −3w = 1


 2y +z +4w = 1
es invertible y usar la regla de Cramer para hallar la solución del sistema.

Solución. La matriz del sistema es


 
1 0 2 −1
1 1 2 1
A=
 4 2 2 −3 
 
0 2 1 4
hallemos su determinante
1 0 2 −1 1 0 2 −1 1 0 2 1 0 0
1 1 2 1 0 1 0 2
det(A) = = = 2 −6 1 = 2 −6 −3
4 2 2 −3 0 2 −6 1
2 1 4

2 1 0

0 2 1 4 0 2 1 4
−6 −3
= = 3 6= 0.
1 0
Por lo tanto la matriz del sistema es invertible, ası́ que podemos aplicar la regla de Cramer para
resolverlo. En este caso la matriz de términos independientes es
 
3
2
b=
 1
 
1

67
UNIDAD II. MATRICES Y DETERMINANTES

Luego

3 0 2 −1 0 −6 −1 −13
−6 −1 −13
2 1 2 1 0 −3 0 −7
det Ab1 = = = − −3 0 −7
1 2 2 −3 0 0 1 −7
0 1 −7
1 2 1 4 1 2 1 4
−6 0 −20
−6 −20
= − −3 0 −7 = = 42 − 60 = −18.
−3 −7
0 1 −7

1 3 2 −1 1 3 2 −1
−1 0 2
1 2 2 1 0 −1 0 2
det Ab2 = = = −11 −6 1
4 1 2 −3 0 −11 −6 1
1 1 4
0 1 1 4 0 1 1 4
−1 0 0 −6 −21
= −11 −6 −21 = − = −(−36 + 21) = 15.
1 6
1 1 6

1 0 3 −1 1 0 2 −1
1 −1 2 1 −1 2
1 1 2 1 0 1 −1 2
det Ab3 = = = 2 −11 1 = 0 −9 −3
4 2 1 −3 0 2 −11 1
2 1 4 0 3 0
0 2 1 4 0 2 1 4

−9 −3
= = 9.
3 0

1 0 2 3 1 0 2 3
1 0 −1 1 0 0
1 1 2 2 0 1 0 −1
det Ab4 = = = 2 −6 −11 = 2 −6 −9
4 2 2 1 0 2 −6 −11
2 1 1

2 1 3

0 2 1 1 0 2 1 1
−6 −9
= = −18 + 9 = −9.
1 3

68
UNIDAD II. MATRICES Y DETERMINANTES

  
det Ab1 −18 det Ab2 15 det Ab3 9
En consecuencia x = = = −6; y = = = 5; z = = = 3;
 det(A) 3 det(A) 3 det(A) 3
det Ab4 −9
w= = = −3, es decir, la solución del sistema dado es:
det(A) 3
   
x −6
 y   5
=
 z   3 
w −3

Ejemplo 2.39. Una fábrica produce tres tipos de productos, mezclando para ello tres materias primas.
Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la materia prima
1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para fabricar una
unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la materia prima
2; finalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades de la materia
prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la fábrica cuenta con
seis millones de unidades de la materia prima 1, 12 millones de unidades de la materia prima 2 y
seis millones de la materia prima 3 cuántas unidades de cada producto puede producir la f´abrica
usando el total de las materias primas?

Solución. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fábrica.
Por lo tanto, la cantidad de unidades (en millones) que se usarán es:

x1 + x2 + 3x3 de la materia 1

3x1 + 3x2 + 3x3 de la materia 2

2x1 + 2x3 de la materia 3

Como se quiere usar el total de las materias primas, entonces



 x1 +x2 +3x3 = 6

3x +3x2 +3x3 = 12
 1
 2x +2x = 6
1 3

69
UNIDAD II. MATRICES Y DETERMINANTES

En este caso, la matriz del sistema, la matriz de incógnitas y la matriz de términos


independientes son, respectivamente:
     
1 1 3 x1 6
A= 
 3 3 3 ; x= 
 x2  y b= 
 12 
2 0 2 x3 6

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la


matriz del sistema.
1 1 3 1 1 3
0 −6
det(A) = 3 3 3 = 0 0 −6 =− = −12 6= 0.
2 2
2 0 2 2 0 2

Como la matriz del sistema es invertible, podemos usar la regla de Cramer.


6 1 3 6 1 3
 −6 −6
det Ab1 = 12 3 3 = −6 0 −6 =− = −(−12 + 36) = −24.
6 2
6 0 2 6 0 2

1 6 3 1 6 3
 −6 −6
det Ab2 = 3 12 3 = 0 −6 −6 = = 24 − 36 = −12.
−6 −4
2 6 2 0 −6 −4

1 1 6 1 1 6 0 −6

det Ab3 = 3 3 12 = 0 0 −6 =− = −12.
2 6
2 0 6 2 0 6
−24 −12 −12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
−12 −12 −12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millón de
unidades de cada uno de los productos 2 y 3.

70
Unidad III.Sistemas de Ecuaciones Lineales
Concepto.Clasificación de los sistemas lineales.Tipos de solución.Método de Gauss-Jordan.

La presente sección esta muy relacionada con las OEF y las matrices, y es quizás, junto con la
sección anterior, la más importante del presente obra por su relación con otras materias.

3.1.Definición de Sistemas de Ecuaciones Lineales


de
Definición 3.1. Un sistema de ecuaciones lineales con m ecuaciones y n incógnitas es
un conjunto de ecuaciones de la forma

a11 x1 + a12 x2 + · · · + a1n xn = b


1

. . . . .
. . . (3.1)
am1 x1 + am2 x2 + · · · + amn xn = bm

a21 x1 + a22 x2 + · · · + a2n xn = b2

donde x1, x2, . . . , xn son las incógnitas del sistema 3.4 y toman valores en R; aij ∈ R son n
´umeros fijos para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes del
sistema 3.4 y b1, b2, . . . , bm ∈ R son fijos y son los t´erminos independientes del sistema 3.4.
Si b1 = b2 = · · · = bm = 0, diremos que el sistema 3.4 es homogéneo, en caso contrario
diremos que es no homogéneo.
Cuando m = n, se dice que el sistema 3.1 es un sistema cuadrado.

71
III. Sistemas de Ecuaciones Lineales

Si hacemos
     
a11 a12 ··· a1n b1 x1
a a22 ··· a2n b x
21 2 2
A = (aij )m×n = ; b= y x= ,
. . .  . .
     
am1 am2 · · · amn bm xn

el sistema 3.1 puede escribirse como la ecuación matricial Ax = b (comprobarlo), que llamare
mos representación matricial del sistema 3.1. La matriz A es llamada matriz de coefi-
cientes o matriz del sistema 3.1, la matriz
 
a11 a12 ··· a1n b1
a21 a22 · · · a2n b2 
[A|b] =
 .. .
.
.
. .
 
am1 am2 · · · amn bm

es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incógnita
o matriz de incógnitas y b es conocida como matriz de términos independientes.
El sistema
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
. . . . . (3.2)
. . . . .
am1 x1 + am2 x2 + · · · + amn xn = 0
es llamado sistema homogéneo asociado al sistema 3.1.
3.2. Clasificación de los sistemas de ecuaciones lineales y sus soluciones

Diremos que c1 , c2 , . . . , cn es una solución del sistema 2.4 si al sustituir x1 = c1 , x2 =


c2 , . . . , xn = cn en 3.4, las igualdades son satisfechas.
Se dice que el sistema 3.4 es

Inconsistente si no tiene solución alguna.

Consistente si tiene al menos una solución, cuando tiene una única solución, se dice que
es consistente determinado, si tiene más de una solución, se dice que es consistente
indeterminado.

Observación 3.18. En general, no haremos diferencia al referirnos al sistema y a su repre


sentación matricial.

72
III. Sistemas de Ecuaciones Lineales

Observación 3.1. Todo sistema homogéneo Ax = 0 /m×1 es consistente, x = 0/n×1 es solución


de éste, la cual es llamada solución trivial.
 
x1
x2 
Observación 3.2. Es claro si A ∈ Mm×n (R) y x = ∈ Mn×1 (R), entonces
 ..
 
xn

Ax = x1 A(1) + x2 A(2) + · · · + xn A(n)

Ejemplo 3.1.
(
3x1 +2x2 −6x3 = 0
1.
−x1 +5x2 −7x3 = 4
es un sistema de ecuaciones lineales de dos ecuaciones y tres incógnitas, es no homogéneo,
su representación matricial es

 
" # x1 " #
3 2 −6   0
 x2  =
−1 5 −7 4
x3

La matriz es y la matriz ampliada del sistema son, respectivamente

" # " #
3 2 −6 3 2 −6 0
y
−1 5 −7 −1 5 −7 4

las matrices incógnitas y de términos independientes son, respectivamente

 
x1 " #
 0
 y
 x2 
4
x3

 6x −2y +9z = 1

2. −5x +12y −3z = −2

 x 6z = 6
es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incógnitas, es no
homogéneo y su representación matricial es

73
UNIDAD III. SISTEMAS DE ECUCIONES LINEALES

    
6 −2 9 x 1
    
 −5 12 −3   y  =  −2 
1 0 6 z 6

El sistema homogéneo asociado a este sistema es


6x −2y +9z = 0
−5x +12y −3z = 0
x 6z = 0

Una pregunta que surge de manera inmediata es ¿cómo garantizar que un sistema de ecuaciones
lineales es consistente o inconsistente? y en caso de que sea consistente ¿cómo resolver dicho
sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes
daremos las bases teóricas que nos permitan usar dichas herramientas.

Teorema 3.1. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de


ecuaciones lineales con m ecuaciones y n incógnitas. Supongamos que las matrices [A|b] y [C|d]
son equivalentes por filas. Entonces ambos sistemas tienen exactamente las mismas soluciones o
ninguno tiene solución.

Demostración. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen
OEF f1 , f2 , . . . , fr : Fm (R) → Fm (R) tales que

(f1 ◦ f2 ◦ · · · ◦ fr )([A|b]) = [C|d]

por la parte 3 del corolario 3.1

(f1 ◦ f2 ◦ · · · ◦ fr )(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d

y por la parte 2 del mismo corolario, tenemos que

(f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x

Ası́ que, si Ax = b, entonces

Cx = (f1 ◦ f2 ◦ · · · ◦ fr )(A)x = (f1 ◦ f2 ◦ · · · ◦ fr )(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr )(b) = d

74
UNIDAD III. SISTEMAS DE ECUACIONES LINEALES

Además, en virtud del ejercicio 1.3, f1 , f2 , . . . , fr son invertibles y f1−1 , f2−1 , . . . , fr−1
son también OEF sobre Fm (R), luego, si Cx = d, entonces
Ax = (f1 ◦ f2 ◦ · · · ◦ fr )−1 (C)x = (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(C)x
= (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(Cx) = (fr−1 ◦ · · · ◦ f2−1 ◦ f1−1 )(d) = (f1 ◦ f2
◦ · · · ◦ fr )−1 (d) = b
Por lo tanto Ax = b si y sólo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o
ambos tienen la(s) misma(s) solución(es).

Observación 3.2. Cuando la matriz del sistema es una matriz ERF, es fácil decidir si el sistema
es o no consistente, y en caso de serlo, es sencillo hallar la(s) solución(es) de este. La idea es hal-
lar la FERF de la matriz ampliada del sistema, y en virtud del teorema 3.14, resolver, de manera
sencilla, el sistema dado.

Corolario 3.1. Sean A, C ∈ Mm×n (R) y b, d ∈ Mm×1 (R) tales que [C|d] es la FERF de [A|b].
El sistema Ax = b tiene solución si y sólo si el número de filas no nulas de [C|d] es igual al
número de filas no nulas de C.
Demostración. Reralizarlo como ejercicio.

Ejemplo 3.2. Decidir cuál de los siguientes sistemas son consistentes y cuáles no, en caso de
serlo, mostrar su(s) solución(es).

 2x +y −z = 1

1. 2x −y +5z = 5

 −y +3z = 2

 2x +y −z = 2
 x −2y +4z = −3
2.
 5x −4y +8z = −9
 −y +3z = 2

 x +y −2z +w = 1

3. 4x +2y +2z = −2

 2y −10z +3w = 3

75
III. Sistemas de Ecuaciones Lineales


 x
 +y −2z +w = 1
4. 4x +2y +2z = −2

 2y −10z +4w = 3

Solución.

1. La matriz ampliada del sistema es


 
2 1 −1 1
 
 2 −1 5 5 
0 −1 3 2

Hallemos su FERF

     
1
2 1 −1 1 1 2
− 12 1
2
1 1
2
− 12 1
2
     
 2 −1 5 5  F1 → 12 F1  2 −1 5 5  F2 → F2 − 2F1  0 −2
→ 6 4 

0 −1 3 2 0 −1 3 2 0 −1 3 2
   
1
1 − 12 1
1 0 1 3
 2 2
 F1 → F1 − 12 F2  2

1
F1 → − 2 F1  0 1 −3 −2  → 0 1 −3 −2
→  
F3 → F3 + F2
0 −1 3 2 0 0 0 0
La última fila de esta última matriz equivale a la ecuación 0 · x + 0 · y + 0 · z = 0, que no
aporta nada a la solución. Ası́ que el sistema dado es equivalente al sistema
(
3
x +z = 2
y −3z = −2

que a su vez equivale a (


3
x = −z + 2
y = 3z − 2
Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obtenemos
3
x = −α + ; y = 3α − 2
2
En consecuencia la solución del sistema dado viene dada por
3
x = −α + ; y = 3α − 2; z = α; con α ∈ R
2

76
III. Sistemas de Ecuaciones Lineales

o bien        
x −α + 32 −1 3
2
       
y =
   3α −2  = α  3  +  −2  ; con α ∈ R
z α 1 0

2. En este caso la matriz del sistema es


 
2 1 −1 2
 1 −2 4 −3 

 5 −4 8 −9 
0 −1 3 2

Vamos a hallar su FERF

   
2 1 −1 2 1 −2 4 −3
 1 −2 4 −3   2 1 −1 2
F1 ↔ F2

 5 −4 8 −9   5 −4 8 −9 
0 −1 3 2 0 −1 3 2
   
1 −2 4 −3 1 −2 4 −3
F2 → F2 − 2F1  0 5 −9 8   0 −1 3 2
→ F2 ↔ F4
F3 → F3 − 5F1  0 6 −12 6  → 0 6 −12 6 

0 −1 3 2 0 5 −9 8
   
1 −2 4 −3 1 0 −2 −7
F1 → F1 + 2F2
 0 1 −3 −2  →  0 1 −3 −2 
F2 → −F2 F → F − 6F
→ 0 6 −12 6 
3 3 2
  0 0 6 18 
F4 → F4 − 5F2
0 5 −9 8 0 0 6 18
   
1 0 −2 −7 1 0 0 −1
 0 1 −3 −2  F 1 → F1 + 2F 3
→  0 1 0 7
F3 → 16 F3 F2 → F2 + 3F3
→ 0 0 1 3  0 0 1 3 
 F4 → F4 − 6F3 
0 0 6 18 0 0 0 0
Luego, el sistema dado es equivalente al sistema


 x = −1

y = 7

 z = 3

77
III. Sistemas de Ecuaciones Lineales

Por lo tanto el sistema es consistente determinado y su solución es

x = −1; y = 7; z=3

o bien    
x −1
   
 y = 7 
z 3

3. Hallemos la FERF de la matriz ampliada del sistema que es


 
1 1 −2 1 1
 
 4 2 2 0 −2 
0 2 −10 3 3

   
1 1 −2 1 1 1 1 −2 1 1
   
 4 2 2 0 −2  F 2 → F2 − 4F1 0 −2 10 −4 −6
→ 
0 2 −10 3 3 0 2 −10 3 3
   
1 1 −2 1 1 1 0 3 −1 −2
  F1 → F1 − F2  
F2 → − 12 F2  0 1 −5 2 3  → 0 1 −5 2 3
→  
F3 → F3 − 2F2
0 2 −10 3 3 0 0 0 −1 −3
   
1 0 3 −1 −2 1 0 3 0 1
  F1 → F1 + F3  
F3 → −F3  0 1 −5 2 3 → 0 1 −5 0 −3
→   
F2 → F2 − 2F3
0 0 0 1 3 0 0 0 1 3
En consecuencia el sistema dado es equivalente al sistema


 x +3z = 1

y −5z = −3

 w = 3
o equivalentemente 
 x = −3z + 1

y = 5z − 3

 w = 3

78
III. Sistemas de Ecuaciones Lineales

Por lo tanto el sistema original es consistente indeterminado. Haciendo z = α , con α ∈


R,
tenemos que la solución
 del sistema 
es    
 x −3α +1 −3 1
y  5α −3  5  −3
 = =α + ; con α ∈ R
z   α 


 1   0 

 w 3 0 3

4. Hallemos la FERF de la matriz


 
1 1 −2 1 1
 
 4 2 2 0 −2 
0 2 −10 4 3

que es la matriz ampliada del sistema


   
1 1 −2 1 1 1 1 −2 1 1
   
 4 2 2 0 −2  F 2 → F2 − 4F1 0 −2 10 −4 −6
→ 
0 2 −10 4 3 0 2 −10 4 3
 
1 1 −2 1 1
 
F3 → F3 + F2  0 −2 10 −4 −6 

0 0 0 0 −3
Sin necesidad de llegar a la FERF de la matriz, vemos que la última fila de esta última
matriz equivale a la ecuación

0 · x + 0 · y + 0 · z + 0 · w = −3

la cual es contradictoria, en consecuencia, el sistema original es inconsistente.

Teorema 3.4. El sistema homogéneo Ax = 0 /m×1 , con A ∈ Mm×n (R), tiene infinitas soluciones
si m < n, esto es, si el sistema homogéneo Ax = 0/m×1 tiene más incógnitas que ecuaciones,
entonces es consistente indeterminado.

Demostración. Hacerlo como ejercicio.

79
III. Sistemas de Ecuaciones Lineales

Teorema 3.2. Sea A ∈ Mm×n (R). Supongamos que x1 , x2 ∈ Mn×1 (R) son soluciones del
sistema homogéneo Ax = 0/m×1 . Entonces, para cada α ∈ R, se tiene que x1 + x2 y α x1 son
también soluciones del sistema.

Demostración. Hacerlo como ejercicio.

Teorema 3.3. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Supongamos que xp es una solución del
sistema Ax = b. Entonces, para cada solución xg del sistema Ax = b, existe una solución xh de
Ax = 0/m×1 tal que xg = xh + xp .

Demostración. Dado que xp es solución del sistema Ax = b, tenemos que Axp = b.


Sea xg una solución cualquiera de Ax = b. Entonces Axg = b. Sea xh = xg − xp . Ası́que

Axh = A(xg − xp ) = Axg − Axp = b − b = 0

es decir, xp es solución del sistema homogéneo Ax = 0/m×1 y además xg = xh + xp .

Ejemplo 3.3. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que
   
3
−1
 2   
xp =  −2  ; xh = α  3  ; con α ∈ R
0 1
Para el sistema de la parte 2 del mismo ejemplo, se tiene que
   
−1 0
   
xp =  7 ; xh =  0 
3 0
Nótese que en este caso xg = xp .
Finalmente, para el sistema de la parte 3 del ejemplo en cuestión
   
1 −3
 −3   5
xp = ; xh = α ; con α ∈ R
 0   1 
3 0


Ejercicio 3.1. Sea A ∈ Mm×n (R). Pruebe que si el sistema Ax = b tiene solución para cada
b ∈ Mm×1 (R), entonces m ≤ n.

80
3.3. Interpretación geométrica de las soluciones.

Se denomina ecuación lineal a aquella que tiene la forma de un polinomio de primer grado.
Es decir, que las incógnitas no esten elevadas a alguna potencia.
Por ejemplo, 3x + 2y + 6z = 6 es una ecuación lineal con tres incógnitas.
Como es bien sabido, las ecuaciones lineales con 2 incógnitas representan una recta en el pla-
no. Si la ecuación lineal tiene 3 incógnitas, su representación gráfica es un plano en el espacio.
Un ejemplo de ambas representaciones puede observarse en la figura:

Figura 3.1: Representación gráfica de la recta −x + 2y = 3 en el plano y del del plano x + y + z = 1


en el espacio.

El objetivo del tema es el estudio de los sistemas de ecuaciones lineales, es decir, un conjunto de
varias ecuaciones lineales. Diremos que dos ecuaciones son equivalentes si tienen las mismas soluciones,
o geométricamente representan la misma recta o plano.

81
III. Sistemas de Ecuaciones Lineales

En general,buscaremos las soluciones de los sistemas en los números reales R. Dependiendo


del posible número de tales soluciones reales que tenga un sistema, éstos de pueden clasificar en:

 * INCOMPATIBLES (No tienen solución)→ S.I.
 * COMPATIBLES (Tienen solución)

* DETERMINADOS (Solución única)→ S.C.D.
* INDETERMINADOS (Infinitas soluciones)→ S.C.I.

La geometría de los sistemas con dos incógnitas

Los sistemas más sencillos son aquellos en los que sólo hay dos incógnitas y 2 ecuaciones, y que ya
son conocidos de cursos pasados.
Hay varios sistemas para resolverlos, los más habituales:
* Reducción
* Igualación
* Sustitución
en los que ya no nos entretendremos.

Como cada ecuación lineal con 2 incógnitas se interpreta geométricamente como una recta, el estudio
de la solución del sistema se limita a estudiar la posición de 2 rectas en el plano.
Veamos algunos  ejemplos con los tres casos que se pueden presentar. Resolver e interpretar el
x + 2y = −3
sistema: .
−2x + y = 1

Por reducción:
2x+4y=-6
-2x+ y=1
5y=-5

de donde y = -1 y sustituyendo x + 2·(-1) = -3, x = -1.


Es decir, la solución del sistema es única, x = -1, y = -1 lo que significa que el sistema es compatible
y determinado, y que las rectas se cortan en un punto, precisamente el (-1,-1):

Figura 3.2: Solución del sistema, punto (-1,-1)

82
III. Sistemas de Ecuaciones Lineales


x + 2y = −3
Resolver e interpretar el sistema: .
−2x − 4y = 5

x = −3 − 2y
Por igualación: 5 + 4y de donde:
x= 
−2
5 + 4y
−3 − 2y = =⇒ 4y + 6 = 5 + 4y =⇒ 0y = −1 =⇒ 0 = −1
−2
lo cuál es imposible y por tanto el sistema no tiene solución, es un sistema incompatible y por
tanto las rectas son paralelas. Geométricamente:

Figura 3.3: Sistema sin solución. Rectas paralelas


x + 2y = −3
Resolver e interpretar el sistema: .
3x + 6y = −9

Por sustitución, como x = −2y − 3 resulta 3(−2y − 3) + 6y = −9, es decir −6y − 9 + 6y = −9, por
tanto 0y = 0, 0 = 0.
Como 0 = 0 es una igualdad siempre cierta, quiere decir que el sistema tiene infinitas soluciones,
es compatible indeterminado, o que las rectas son la misma.

Figura 3.4: Infinitas soluciones. Las rectas coinciden

Lo expresaremos ası́. Como x = −2y − 3, dando valores a y se obtiene x.


Ası́ si le damos a y el valor arbitrario de λ (lambda), entonces expresaremos la solución como:

x = −2λ − 3
siendo λ ∈ R
y=λ

y como λ puede ser cualquier número real, hay infinitas soluciones.


Estos son los únicos casos que pueden darse con dos ecuaciones y dos incógnitas, y su interpretación
geométrica.

83
III. Sistemas de Ecuaciones Lineales

Ejercicio 3.2 Estudiar la solución de los siguientes sistemas e interpretarla geom


étricamente:  
 x + y = 5 b) 2x + y = 1 c) x + 2y = 3
2x − y = 7 3x + 2y = 4 x−y = 4
a)

Discución de sistemas de 2 ecuaciones con 2 incógnitas



ax + 3y = 5
Si alguno de los coeficientes del sistema es desconocido, por ejemplo, , no estamos
2x − y = 6
ante un sólo sistema, sino ante infinitos, uno para cada valor de a, y cada sistema será distinto en
función del valor que tome dicha letra (llamada parámetro).
Para estudiarlo, se resuelve el sistema como habitualmente y se estudian los distintos casos que se
pueden dar. Por ejemplo , por reducción:
ax+3y=5
6x-3y=18
ax+6x =23
por tanto, x(6 + a) = 23. Entonces, si 6 + a = 0 no podremos despejar x, es decir si a = −6, obtenemos
una ecuación del tipo 0 = 23, es decir, imposible.
Por tanto, si a = −6 el sistema es incompatible.
23
En cualquier otro caso, podemos despejar x,x = , y se puede sacar y sustituyendo, por tanto,
6+a
si a = −6, el sistema es compatible determinado.

Ejercicio 3.3 Discutir los sistemas en función del parámetro


desconocido:
 
x+y =5 ky + x = 2
a) b)
ax + 2y = 10 3x+y=1
3.4.Metódo de Gauss-Jordan
ecuaciones lineales: Gauss, Gauss-Jordan,inversa de una matriz y regla deCramer.
Podemos añadir a los clásicos sistemas de 2 ecuaciones y 2 incógnitas cuantas ecuaciones queramos
para obtener diferentes tipos de sistemas con 3, 4, 5 o más ecuaciones.
En cualquier caso, los tipos de sistemas a los que dan lugar son los mismos reseñados anteriormente.
Al aumentar el número de ecuaciones, la resolución del sistema por alguno de los tres métodos
clásicos se vuelve más farragoso, por lo que conviene aplicar ya el conocido método de Gauss para
determinar el tipo de sistema.
Para ello expresaremos el sistema en la forma matricial, analizando la matriz ampliada asociada,
que tendrá 2 columnas y tantas filas como ecuaciones tengamos.
Analizaremos tan sólo aquellos sistemas con 3 ecuaciones y 2 incógnitas.
La matriz ampliada genérica es:
 
a11 a12 b1
(A|B) = a21 a22 b2 
a31 a32 b3

Aplicar el método de Gauss consiste en realizar transformaciones elementales mediante las filas de la
matriz para obtener la matriz escalonada siguiente:
 
a11 a12 b1
(A|B) =  0 a∗22 b∗2 
0 0 b∗3

Recordemos que las operaciones elementales permitidas en las filas de la matriz (ecuaciones del sistema)
eran:

84
III. Sistemas de Ecuaciones Lineales

T1) Multiplicar o dividir una fila por un número real distinto de cero.
T2) Sumar o restar a una fila otra multiplicada por un número real no nulo.
T3) Intercambiar el lugar de dos filas entre sı́.
Utilizando estas transformaciones, los sucesivos sistemas que se obtienen son equivalentes al pri-
mero, es decir, tienen las mismas soluciones.
Debemos eliminar, en este orden, el elemento a21 utilizando la fila 1, el elemento a31 , utilizando
también la fila 1, y por último el elemento a32 utilizando la fila 2, de modo análogo al método de
Gauss-Jordan para la inversa.
Además, es conveniente en cada paso indicar la operación realizada con las filas, poniendo en
primer lugar aquella que se va a sustituir por otra.
Llegados a la matriz ampliada escalonada al final del proceso, pueden darse los casos siguientes:
1. a∗22 = 0. Entonces hay dos posibilidades:
a) b∗3 = 0. Sistema incompatible (hay una ecuación del tipo 0=k), sin solución.
Geométricamente, puede ocurrir que:
a) Dos rectas sean paralelas y la otra las corte.
b) Las rectas se corten dos a dos (formen un triángulo).

b) b∗3 = 0. Aparece una ecuación 0=0 que no influye en la resolución del sistema, que redu
cido a las dos ecuaciones iniciales tiene solución única, es decir, el Sistema es
Compatible
Determinado.
Geométricamente:
a) Dos rectas son coincidentes y la otra las corta.
b) Las tres rectas se cortan en un mismo punto.

2. a∗22 = 0. Entonces hay tres posibilidades:


a) Si b∗2 = b∗3 = 0, aparecen dos ecuaciones 0=0, que no influyen en la resolución del siste-
ma, que ahora tiene infinitas soluciones (1 ecuación y dos incógnitas). Sistema compatible
indeterminado.

85
III. Sistemas de Ecuaciones Lineales

Geométricamente, las tres rectas coinciden (son la misma):

b) Si b∗2  = 0, b∗3 = 0 o b ien b∗2 = 0, b∗3  = 0, aparece una ecuación 0=0 (que no influye) y
otra
0=k (que es imposible). El sistema es incompat-
ible. Geométricamente:
a) Dos rectas son paralelas y la otra las corta.
b) Dos rectas coinciden y la otra es paralela.

c) Si b∗2 = 0, b∗3 = 0, hay dos ecuaciones 0=k que son imposibles, el sistema es incompatible.
Geométricamente, las tres rectas son paralelas o dos son coincidentes y una paralela.

En cada uno de los casos, para determinar la posición concreta de las rectas, basta representarlas.

Ejemplo 3.4 Estudiar el sistema siguiente, dando la interpretación geométrica:



−x + 2y = 5 
3x + y = 7

2x + 3y = 12

86
III. Sistemas de Ecuaciones Lineales

A partir de la matriz ampliada y aplicando el método de Gauss, obtenemos:


     
−1 2 5 −1 2 5 −1 2 5
F +3F1  F −F2 
(A|B) =  3 1 7  −2−−−→ 0 7 22 −−3−−→ 0 7 22
F3 +2F1
2 3 12 0 7 22 0 0 0
En este caso aparece una ecuación 0=0 que no influye y el elemento a∗22 es no nulo. El sistema es
compatible determinado, tiene solución única.
Geométricamente, puede ocurrir que:
a) Dos rectas son coincidentes y la otra las corta.
b) Las tres rectas se cortan en un mismo punto.
Resolviendo y dibujando, obtenemos:

−x + 2y = 5
7y = 22
22 9
De donde y = y sustituyendo es x = (compruébalo).
7 7
Dibujando las rectas:

Figura 3.5: SS olución geométrica del sistema.

 Se observa
 que las rectas se cortan en un punto, precisamente el punto solución del sistema: P =
9 22
, .
7 7

Ejercicios 3.4
a) Resuelve e interpreta geométricamente los sistemas:
  
 x+y =0  x − y = −2  2x + y = 2
a) −x + y = 2 b) x + 2y = 1 c) −x + y = −3
  
x + 3y = −2 4x − 10y = −14 y = −2x
b) Discute y resuelve en función del parámetro:
 
 x−y = 1  2x + y = 3
a) x + 2y = −1 b) −x + 3y = 0
 
2x + my = 0 mx + 4y = 3

87
III. Sistemas de Ecuaciones Lineales

Cuando los sistemas tienen más de dos ecuaciones y tres o más incógnitas se utilizará el ya conocido
método de Gauss.
Ahora partiremos de la matriz ampliada:
 
a11 a12 a13 b1
(A|B) = a21 a22 a23 b2 
a31 a32 a33 b3

para dejar dicha matriz escalonada, es decir, del tipo:


 
a11 a12 a13 b1
 0 a∗22 a∗23 b∗2 

0 0 a∗33 b∗3

utilizando las transformaciones conocidas, y de la forma indicada en ocasiones anteriores.


Los tipos de sistema que pueden obtenerse dependiendo del número de soluciones son los reseñados
en apartados anteriores.
Al aplicar el método de Gauss podemos encontrarnos con distintos casos:
* Si se obtiene un sistema escalonado con coeficientes no nulos, el sistema es compatible determi-
nado, tiene solución única.
* Si se obtiene una o más filas en las que todos los elementos sean cero, el sistema tiene infinitas
soluciones, y hay que despejar una o varias incógnitas en función de otras, es un sistema compatible
indeterminado.
* Si se obtiene una o más filas de ceros, salvo el elemento correspondiente al término independiente,
que es distinto de cero, digamos k, entonces como la fila en cuestión corresponderı́a a una ecuación
del tipo 0 = k , lo que es imposible, el sistema no tiene solución y por tanto es incompatible.
Veamos un ejemplo:

 2x + y − z = 11
Ejemplo 3.5. Resolver por Gauss: x − 3y = −20 .

4x + 2y + 5z = 8
 
2 1 −1 11
La matriz ampliada es (A|B) = 1 −3 0 −20. Aplicando el método de Gauss:
4 2 5 8
    
2 1 −1 11 2 1 −1 11  2x + y − z = 11
2F2 −F1
1 −3 0 −20 − −−−→ 0 −7 1 −51 =⇒
  −7y + z = −51
F3 −2F1 
4 2 5 8 0 0 7 −14 7z = −14

obtenemos un sistema escalonado, que es compatible y determinado, pués podemos despejar z,


obteniendo z = −2, y luego −7y − 2 = −51, de donde −7y = −49 es decir y = 7 y sustituyendo en la
primera ecuación es 2x + 7 + 2 = 11, luego 2x = 2 , es decir x = 1.
La solución es (1, 7, −2).
Este proceso de resolución, que comienza calculando z y permite calcular las demás incógnitas
sustituyendo en las ecuaciones anteriores se denomina sustitución regresiva.

Interpretación geométrica de los sistemas con 3 ecuaciones y 3 incógnitas


Como cada ecuación lineal con 3 incógnitas corresponde a un plano en el espacio, la solución del
sistema correspoderá a la posición en que dichos planos estén en el espacio.
Lo más sencillo es saber que ocurre con los planos 2 a 2, pues en el espacio dos planos sólo pueden
estar en 3 posiciones:

88
III. Sistemas de Ecuaciones Lineales

* Son coincidentes: Lo cuál es fácil de saber porque sus correspondientes ecuaciones tienen coefi-
cientes de las incógnitas y los términos independientes proporcionales, es decir, si los planos son:

α ≡ Ax + By + Cz = D
β ≡ A x + B  y + C  z = D 

entonces se verifica:
A B C D

=  =  = 
A B C D
(siempre que se puedan realizar las divisiones).
Por ejemplo, los planos 2x + 3y − z = 5, y −10x − 15y + 5z = −15 son coincidentes.
* Son paralelos: También es sencillo de saber porque los coeficientes de las incógnitas son propor-
cionales, pero los términos independientes NO. Es decir, en este caso:

α ≡ Ax + By + Cz = D
β ≡ A x + B  y + C  z = D 

entonces se verifica:
A B C D

=  =  = 
A B C D
(siempre que se puedan realizar las divisiones).
Por ejemplo, los planos 2x + 3y − z = 5 y −10x − 15y + 5z = 7 son paralelos.
* Son secantes: Simplemente los coeficientes no son proporcionales, es decir:

α ≡ Ax + By + Cz = D
β ≡ A x + B  y + C  z = D 

entonces se verifica:
A B C D

=  =  = 
A B C D
(siempre que se puedan realizar las divisiones, y basta con que un par de ellas correspondientes a las
incógnitas sean diferentes).
Por ejemplo, los planos 7x + 3y − z = 5 y −10x − 15y + 5z = 7 son secantes.

Puesto que podemos determinar la posición de los planos 2 a 2, podemos determinar en qué posición
se encuentran los 3 a la vez, fijándonos en los casos:

1. Si el sistema es S.C.D. (Solución única), es que los tres planos se cortan en un punto, que es la
solución del sistema.

2. Si el sistema es S.C.I. (Infinitas soluciones), puede ocurrir que:

a) Los tres planos se corten en una recta.


b) Dos planos son coincidentes y el otro los corta en una recta.
c) Los tres planos son coincidentes.

89
III. Sistemas de Ecuaciones Lineales

Y determinaremos la opción correspondiente estudiándolos de dos en dos.

3. Si el sistema es S.I. (Sin solución), puede ocurrir que:

a) Los planos se cortan dos a dos.


b) Dos planos son paralelos y el otro los corta.
c) Los tres planos son paralelos.
d ) Dos planos son paralelos y el otro coincidente con uno de ellos.

Y determinaremos la opción correspondiente estudiándolos de dos en dos.

Ejemplo 3.6 .Estudiar el sistema e interpretarlo geométricamente:



 2x + y − z = −6
3x − y + z = −5

4x + 2y − 2z = −1
 
2 1 −1 −6
Aplicando Gauss a (A|B) = 3 −1 1 −5, se obtiene:
4 2 −2 −1
    
2 1 −1 −6 2 1 −1 −6  2x + y − z = −6
3 −1 1 −5 −2F2 −3F1 
−− −−→ 0 −5 5 8  =⇒ −5y + 5z = 8
F3 −2F1 
4 2 −2 −1 0 0 0 11 0 = 11

Lo que indica que el sistema es incompatible y por tanto no tiene solución, los planos no tienen puntos
comunes.

90
III. Sistemas de Ecuaciones Lineales

Si estudiamos la posición de los planos 2 a 2, se obtiene que el primero y el segundo tienen


coeficientes que no son proporcionales, luego se cortan.
El primero y el tercero tienen coeficientes proporcionales pero no los términos independientes,
luego son paralelos.
Y el segundo y el tercero no tienen coeficientes proporcionales, por lo que se cortan.
Concluimos por tanto que los planos primero y tercero son paralelos y son cortados por el segundo
plano, ésta es la interpretación geométrica:

Ejercicios 3.7 Estudiar e interpretar geométricamente los


sistemas: 
   x+y+z = 8
 2x − y + 3z = −1 b)  x + y + z = 2 c) x + y − z = −2 d) 7x + y + 6z = 7

a) 4x − 2y + 6z = −5  2x + y + 3z = 1 2x − y + 3z = −5 x + 7y + z = 1

−2x + y − 3z = −7 x + 2y + z = 4 3x + 2z = −7

Si aparece algún coeficiente desconocido,aplicaremos el método de Gauss e investigaremos según


los valores del parámetro la posibilidad de que aparezca o no una fila de ceros.

x + y + z = m+1
Ejemplo 3.7. Discutir según los valores de m x + y + (m − 1)z = m
x + 7y + z = 1
Aplicando Gauss a la matriz ampliada:
   
1 1 1 m + 1 1 1 1 m + 1
F2 −mF1 F −F1
m 1 m − 1 m  − −−−−→ 0 1 − m −1 −m2  −−3−−→
(m=0)
1 m 1 1 1 7 1 1
   
1 1 1 m+1 1 1 1 m+1
F −F1 F3 +F2
−−3−−→ 0 1 − m −1 −m2  −
−−−→ 0 1 − m −1 −m2 
0 m − 1 0 −m 0 0 −1 −m − m2
Debemos, llegados a este punto, fijarnos en dos aspectos:
a) El desarrollo anterior sólo es posible si m = 0, luego el caso m = 0 debe estudiarse por separado.
b) En el sistema escalonado final, hay problemas cuando el valor 1 − m = 0, es decir, cuando
m = 1. En cualquier otro caso, no hay problemas.
De modo que, resumiendo, si m = 0 y m = 1, el sistema es S.C.D.
Estudiemos ahora cada caso por separado:
Si m = 0, al aplicar Gauss, queda:
     
1 1 1 1 1 1 1 1 1 1 1 1
F3 −F1 F +F2
0 1 −1 0 − −−−→ 0 1 −1 0 −−3−−→ 0 1 −1 0

1 0 1 1 0 −1 0 0 0 0 −1 0

91
III. Sistemas de Ecuaciones Lineales

3.4.1. Inversa de una Matriz Cuadrada

En la presente sección, presentaremos un breve estudio sobre las matrices invertibles y


sus aplicaciones en la resolución de los sistemas de ecuaciones, cabe destacar que se pueden
definir inversas laterales de matrices no cuadradas, sin embargo, sólo estudiaremos el caso de
matrices cuadradas.

Definición 3.1 sea A ∈ Mn×n (R). diremos que A es invertible si existe una matriz B ∈
Mn×n (R) tal que
AB = In = BA

Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.


" # " #
2 −2 2 1
Ejemplo 3.8. Si A = , entonces B = es una inversa de A ya que
3
−3 4 2
1
" #" # " # " #
2 −2 2 1 4−3 2−2 1 0
AB = = = = I2
3
−3 4 2
1 3 − 3 −3 + 4 0 1
" #" # " # " #
2 1 2 −2 4 − 3 −4 + 4 1 0
AB = = = = I2
3
2
1 −3 4 3 − 3 −3 + 4 0 1


Teorema 3.5. Si A ∈ Mn×n (R) es invertible, entonces A tiene sólo una inversa, es decir,
existe una única matriz B ∈ Mn×n (R) tal que AB = In = BA, tal matriz es denotada por A−1 .

Demostración. Supongamos que A ∈ Mn×n (R) es invertible y que B, C ∈ Mn×n (R) son
inversas de A. Entonces

AB = In = BA (3.6)
AC = In = CA (3.7)

Luego

C = CIn
= C(AB)
= (CA)B
= In B
= B

92
III. Sistemas de Ecuaciones Lineales

Teorema 3.6. Sean A, B ∈ Mn×n (R) dos matrices invertibles y α ∈ R con α 6= 0. Entonces

−1
1. A−1 es invertible y (A−1 ) = A (propiedad involutiva de la inversa)

2. AB es invertible y (AB)−1 = B −1 A−1 (inversa del producto matricial)

3. αA es invertible y (αA)−1 = α −1 A−1 (inversa del múltiplo escalar)


−1 T
4. AT es invertible y (AT = (A−1 ) (inversa de la transpuesta)

Demostración.

1. Se deduce directamente de la definición de matriz invertible.

2. En primer lugar

(AB)(B −1 A−1 ) = ABB −1 A−1


= A(BB −1 )A−1
= AIn A−1
= (AIn )A−1 =
AA−1
= In (definición de matriz inversa)

Además

(B −1 A−1 )(AB) = B −1 A−1 AB


= B −1 (A−1 A)B
= B −1 In B=
(B −1 In )B =
B −1 B
= In (definición de matriz inversa)
Luego, por el teorema 2.19, tenemos que AB es invertible y (AB)−1 = B −1 A−1 .

93
III. Sistemas de Ecuaciones Lineales

3. Veamos
−1
(α A))A−1 (αA)(α−1A−1 )
=

= ((α −1 α )A)A−1
= (1 · A)A−1
= AA−1
= In

Análogamente, se prueba que (α −1 A−1 )(α A) = In . Nuevamente, usando el teorema


2.19,se tiene que α A es invertible y (αA)−1 = α −1 A−1 .
4. Por un lado

AT (A−1 )T = (A−1TA)T
= (In )
= In

Por otro lado

(A−1 )T AT = (AA−1 )T
= (In )T
= In

Teorema 3.6. Toda matriz elemental es invertible y su inversa es también una matriz elemen
tal.

Demostración. Sea E ∈ Mn×n (R) una matriz elemental. Entonces existe una OEF f : Fn (R) →
Fn (R) tal que E = f (In ). El ejercicio 2.3 garantiza que f es invertible y su inversa f −1 es también
una OEF sobre Fn (R), ası́ que F = f −1 (In ) es una matriz elemental, además

EF = f (In )f −1 (In )
= f (f −1(In )) = In

94
III. Sistemas de Ecuaciones Lineales

F E = f −1 (In )f (In )
= f −1 (f (In )) =
In

Luego, E es invertible y E −1 = F , es decir, (f (In ))−1 = f −1 (In ).

Ahora bien ¿cómo saber si una matriz cuadrada A es o no invertible? y en caso de que lo
sea ¿cómo hallar A−1 ? Estas dos preguntas pueden ser respondidas mediante un procedimiento
único. Daremos un ejemplo sencillo que ilustrará tal procedimiento.

Ejemplo 3.9. En cada uno de los siguientes casos decidir si A es o no invertible, en caso
afirmativo, hallar A−1 .
" #
2 −2
1. A =
−3 4
" #
2 −8
2. A =
−3 12

Solución.

1. Supongamos que A es invertible y sea


" #
x y
B=
z w

tal que AB = I2 , ası́ que


" # " # " # " #
x 1 y 0
A = y A =
z 0 w 1

como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera


simultánea considerando la siguiente matriz 2 veces ampliada
" #
2 −2 1 0
[A|I2 ] =
−3 4 0 1

95
III Sistemas de Ecuaciones Lineales

Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos darán, respectivamente,
las soluciones del primer y segundo sistema, si existen, que a su vez nos darán, respecti-
vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de
esta matriz.
" # " #
1
2 −2 1 0 1 −1 2
0
[A|I2 ] = F1 → 12 F1
−3 4 0 1 → −3 4 0 1
" # " #
1 −1 12 0 1 0 2 1
F2 → F2 + 3F1 F1 → F1 + F2
→ 0 1 32 1 → 0 1 3 1
2

Por lo tanto " #


2 1
B=
3
2
1
El lector puede verificar que BA = I2 , por lo tanto, A es invertible y
" #
2 1
A−1 = B =
3
2
1

2. Como en el caso anterior, supongamos que existe


" #
x y
B=
z w

tal que AB = I2 , al igual que antes, hallemos la FERF de la matriz [A|I2 ]


" # " #
1
2 −8 1 0 1 −4 2
0
[A|I2 ] = F1 → 12 F1
−3 12 0 1 → −3 12 0 1
" #
1 −1 12 0
F2 → F2 + 3F1
→ 0 0 3 1 2

La última fila de esta última matriz equivale a las ecuaciones


3
0·x+0·z = 0·y+0·w =1
2
Por lo tanto, no existe matriz B tal que AB = I2 , en consecuencia, A no es invertible.

96
III. Sistemas de Ecuaciones Lineales

Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una
matriz cuadrada A es o no invertible, además, en caso afirmativo, nos permite hallar A−1 .

Algoritmo para decidir si una matriz A ∈ Mn×n (R) es o no invertible, y en caso


afirmativo mostrar la matriz A−1 .

Paso 1. Formar la matriz ampliada [A|In ].

Paso 2. Hallar la FERF de la matriz en el paso previo.

Paso 3. Si la matriz en el paso previo es [In |B], entonces A es invertible y A−1 = B, sino
A no es invertible.

Ejemplo 3.10. Decidir si la matriz


 
2 0 3 1
 −1 1 1 3 
A=
 1 −1 2 −2 
0 1 −1 2

es invertible o no, en caso afirmativo, hallar A−1 .

Solución.
   
2 0 3 1 1 0 0 0 1 −1 2 −2 0 0 1 0
 −1 1 1 3 0 1 0 0  −1 1 1 3 0 1 0 0
F1 ↔ F3
1 −1 2 −2 0 0 1 0 → 2 0 3 1 1 0 0 0 
  
0 1 −1 2 0 0 0 1 0 1 −1 2 0 0 0 1
 
1 −1 2 −2 0 0 1 0
F2 → F2 + F1  0 0 3 1 0 1 1 0

F3 → F3 − 2F1  0 2 −1 1 0 −2 0 
5
0 1 −1 2 0 0 0 1
 
1 −1 2 −2 0 0 1 0
 0 1 −1 2 0 0 0 1
F2 ↔ F4
→ 0 2 −1 5 1 0 −2 0 

0 0 3 1 0 1 1 0

97
Matrices y Sistemas de Ecuaciones Lineales

 
1 0 1 0 0 0 1 1
F1 → F1 + F2 0 1 −1 2 0 0 0 1

F3 → F3 + 2F2  0 0 1 1 1 0 −2 −2 

0 0 3 1 0 1 1 0
 
1 0 0 −1 −1 0 3 3
F1 → F1 − F3
→ 1 0 −2 −1 
 0 1 0 3
F2 → F2 + F3
0 0 1 1 1 0 −2 −2 
F4 → F4 − 3F3 
0 0 0 −2 −3 1 7 6
 
1 0 0 −1 −1 0 3 3
 0 1 0 3 1 0 −2 −1 
F4 → − 12 F4
→ 0 −2 −2 
 0 0 1 1 1
3
0 0 0 1 2
− 12 − 72 −3
 
1
1 0 0 0 2
− 12 − 12 0
F1 → F1 + F4
→ −2 7 3 17
 0 1 0 0 2 2
8
F2 → F2 − 3F4
0 0 1 0 − 21 1 3
1 
F3 → F3 − F4 
2 2
3
0 0 0 1 2
− 12 − 72 −3

Luego A es invertible y
   
1
2
− 12 − 12 0 1 −1 −1 0
7 3 17
 −2 2 2
8  1  −7 3 17 16 
A−1 = =
 − 12 1
2
3
2
1  2  −1 1 3 2 
3
2
− 12 − 72 −3 3 −1 −7 −6

El siguiente teorema nos será muy útil a la hora de saber si una matriz es o no
invertible.

Teorema 3.7. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.

1. A es invertible.

2. El sistema Ax = b tiene una única solución para cada b ∈ Mn×1 (R).

3. El sistema homogéneo Ax = 0/n×1 tiene como única solución la trivial.

4. A es equivalente por filas a In .

98
III. Sistemas de Ecuaciones Lineales

5. Existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R) tales que A = E1 E2 · · · Er .

Demostración.

(1. ⇒ 2.) Supongamos que A es invertible. Entonces, por definición de matriz inversa, existe
A−1 ∈ Mn×n (R) tal que AA−1 = In = A−1 A

Sean b ∈ Mn×1 (R) cualquiera y x0 ∈ Mn×1 (R) una solución del sistema Ax = b. Entonces
x0 = In x0
= (A−1 A)x0
= A−1 (Ax0 )
= A−1 b (pues x0 es solución del sistema Ax = b)

Ası́ que el sistema Ax = b tiene como única solución x0 = A−1 b.

(2. ⇒ 3.) Supongamos que el sistema Ax = b tiene una única solución para cada b ∈
Mn×1 (R). Entonces el sistema Ax = 0 tiene una única solución, pero sabemos que

x = 0/n×1 es solución de este sistema (observación 2.19), ası́ que la única solución de
dicho sistema es la solución trivial.

(3. ⇒ 4.) Supongamos que el sistema homogóneo Ax = 0/n×1 tiene como única solución la trivial.

Procederemos por reducción al absurdo. Supongamos que A no es equivalente por filas a


In . Por lo tanto, usando la observación 2.17, si CA es la FERF de A, entonces CA debe
tener alguna fila nula, la cual debe estar ubicada en la última posición pues CA es escal-
onada reducida por filas, esta fila equivale a la ecuación

0 · x1 + 0 · x2 + · · · + 0 · xn = 0

donde  
x1
x 
2
x= .
.
xn
y en consecuencia no aporta ninguna información a la solución del sistema Ax = 0/n×1 .

Definamos DA ∈ M(n−1)×n (R) la matriz que se obtiene al eliminar la última fila de CA .


Luego el sistema homogéneo Ax = 0/n×1 es equivalente al sistema homogéneo DA x = 0/(n−1)×1

99
III. Sistemas de Ecuaciones Lineales

el cual, en virtud del teorema 2.16, tiene infinitas soluciones, de donde, el sistema Ax = 0/n×1
tiene infinitas soluciones, lo cual contradice la hipótesis, por lo tanto A es equivalente por
filas a In .

(4. ⇒ 5.) Supongamos que A es equivalente por filas a In . Entonces existen OEF f1 , f2 , . . . , fr :
Fn (R) → Fn (R) tales que
A = (f1 ◦ f2 ◦ · · · ◦ fr )(In )

Luego, usando recursivamente el corolario 2.12 partes 1 y 2, tenemos que

A = f1 (In )f2 (In ) · · · fr (In )

Ası́ que la matriz Ei = fi (In ) es elemental para cada i ∈ {1, . . . , r} y además

A = E1 E2 · · · Er

(5. ⇒ 1.) Supongamos que A = E1 E2 · · · Er donde E1 , E2 , . . . , Er ∈ Mn×n (R) son matrices ele-
mentales. Dado que toda matriz elemental es invertible (teorema 2.21) y usando recur-
sivamente la parte 2 del teorema 2.20, se tiene que A es invertible.

Lo cual concluye la prueba.

Teorema 3.8.Sean A, B ∈ Mn×n (R). Si AB = In , entonces BA = In ; y en consecuencia


A−1 = B.

Demostración. Supongamos que AB = In . Sea xh una solución del sistema homogéneo Bx =


0/n×1 . Entonces
Bxh = 0/n×1 (3.8)

Luego

xh = In xh
= (AB)xh
= A(Bxh ) =
A 0/n×1

100
III. Sistemas de Ecuaciones Lineales

Ası́ que la única solución del sistema homogéneo Bx = 0/n×1 es la trivial, y en virtud del teorema
2.22, B es invertible. Además

A = AIn
= A(BB −1 ) =
(AB)B −1
= In B −1
= B −1

Por lo tanto BA = In (definición de inversa) y como consecuencia A−1 = (B −1 )−1 = B.

Observación 3.1. El teorema 2.23 nos permite garantizar que A−1 = B sólo con probar que
AB = In ó BA = In .

Ejercicio 3.5. Sean A, B ∈ Mn×n (R). Pruebe que si AB es invertible, entonces A y B también
son invertibles.

3.4. Metodos de solucion de un sistema. de ecuaciones lineales.

En esta sección trataremos los determinantes y algunas de sus propiedades, en primer lugar
definiremos los determinantes de orden 2, continuando luego con los determinantes de
orden 3, para finalmente definir los determinantes de orden n.
" #
a11 a12
Definición 3.2. Sea A = ∈ M2×2 (R). Definiremos el determinante de A, como
a21 a22
el número real det(A) = |A|, dado por

a
11 a12
det(A) = |A| = = a11 a22 − a12 a21
a21 a22

este tipo de determinante se suele llamar determinante de orden 2.


" #
−6 5
Ejemplo 3.11. Hallar det(A) para A =
−7 6

101
III. Sistemas de Ecuaciones Lineales

−6 5
Solución. det(A) = = (−6)6 − 5(−7) = −36 + 35 = −1
−7 6

" #
a11 a12
Ejercicio 3.6. Pruebe que A = ∈ M2×2 (R) es invertible si y sólo si det(A) 6= 0.
a21 a22
" #
1 a22 −a12
Además, si A es invertible, entonces A−1 =
det(A) −a21 a11

Definición 3.2. Dada la matriz


 
a11 a12 a13
 
A =  a21 a22 a23  ∈ M3×3 (R)
a31 a32 a33

Definiremos el determinante de A, denotado por det(A) ó |A|, como

a
11 a12 a13 a a a
22 a23 21 a23 21 a22
det(A) = |A| = a21 a22 a23 = a11 − a12 + a13
a32 a33 a31 a33 a31 a32
a31 a32 a33

este tipo de determinante es llamado determinante de orden 3.

Observación 3.1Nótese que estamos definiendo el determinante de orden 3 en función de


determinantes de orden 2.
 
2 −3 −1
 
Ejemplo 3.12. Hallar det(A) para A =  −6 1 5 
−7 0 6

Solución.
2 −3 −1
1 5 −6 5 −6 1
det(A) = |A| = −6 1 5 = 2 − (−3) + (−1)
0 6 −7 6 −7 0
−7 0 6
= 2(6 − 0) + 3(−36 + 35) − (0 + 7) = 2

102
III. Sistemas de Ecuaciones Lineales

Observación 3.2. Una forma muy sencilla recordar la fórmula de determinantes de orden 3
es la siguiente

a11 a12 a13


ց ւ
a21 a22 a23 = a11 a22 a33 + a21 a32 a13 + a31 a12 a23
ւ
ց ւ
ց − a13 a22 a31 − a23 a32 a11 − a33 a12 a21

a31 a32 a33

ւ
ց 

a11 ւ a12 a13  no es parte del determinante, es sólo para
ց ←
ւ ց ayudar a recordar la fórmula
a21 a22 a23

Los productos generados por las flechas rojas (ց) se colocan con signo positivo, los que son
generados por las flechas azules (ւ) se colocan con signo negativo.
Puede verificar que la igualdad anterior es cierta. También se puede hacer el cálculo si en lugar
de colocar las dos primeras filas al final, se colocan las dos últimas filas en la parte superior, las
dos primeras columnas a la derecha o las dos últimas columnas a la izquierda.
Este método se conoce como la método de Sarrus para el cálculo de determinantes de orden
3 y sólo es aplicable a determinantes de orden 3.

Ejemplo 3.12. Calculemos el determinante del ejemplo 1.23 usando este método.

Solución.
2 −3 −1
−6 1 5 = 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5 − (−1)1(−7) − 5 · 0 · 2 − 6(−3)(−6)

−7 0 6

2 −3 −1
−6 1 5
2 −3 −1
−6 1 5 = 12 + 0 + 105 − 7 − 0 − 108 = 2

−7 0 6

Que es lo mismo que el resultado obtenido antes.

103
III. Sistemas de Ecuaciones Lineales

Antes de definir determinantes de orden n, daremos dos definiciones previas.

Definición 3.3. Sea A =∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definamos la matriz MijA ∈
M(n−1)×(n−1) (R) que se obtiene de A al eliminar su i-ésima fila y su j-ésima columna, dicha
matriz es llamada ij-ésimo menor de A.

Observación 3.4. Si en lugar de eliminar una fila y una columna de A, eliminamos dos filas
y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,
A
estas matrices se denotan por Mij,kl , lo que significa que se han eliminado las filas i e j
(con i 6= j) y las columnas k y l (con k 6= l) de A. De manera análoga se pueden definir
menores de
A ∈ Mn×n (R) hasta de orden n − 1.

A A A A
Observación 3.5. Es claro que Mij,kl = Mji,lk = Mji,kl = Mij,lk para cada i, j, k, l ∈ {1, . . . ,
n} con i 6= j y k 6= l.

Ejemplo 3.14. Consideremos la matriz 


−9 2 −1 4
 0 8 −5 7
1 6 3 −6 
A=
−4 1 0 3

A A A
Hallar M23 ; M42 y M22 .

Solución.
     
−9 2 4 −9 −1 4 −9 −1 4
A
  A
  A
 
M23 = 1 6 −6  ; M42 = 0 −5 7  y M22 = 1 3 −6 
−4 1 3 1 3 −6 −4 0 3

Definición 3.4. Sea A ∈ Mn×n (R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-ésimo co-
factor de A como el número real CijA dado por

CijA = (−1)i+j det MijA

Ejemplo 3.13 Para la matriz del ejemplo 2.25 se tiene que

104
III. Sistemas de Ecuaciones Lineales

−9 2 4
A 2+3 A

C23 = (−1) det M23 =− 1 6 −6 = −(−162 + 4 + 48 + 96 − 54 − 6) = 74

−4 1 3

−9 −1 4
A

C42 = (−1)4+2 det M42
A
= 0 −5 7 = −270 + 0 − 7 + 20 + 189 − 0 = −68

1 3 −6

−9 −1 4
A 2+2 A

C22 = (−1) det M22 = 1 3 −6 = −81 + 0 − 24 + 48 − 0 + 3 = −54
−4 0 3


Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la fórmula
dada en la definición 2.18 puede ser escrita como

A A A
det(A) = |A| = a11 C11 + a12 C12 + a13 C13

La idea es generalizar esta fórmula para una matriz A de orden n.

Definición 3.5. Sea A ∈ Mn×n (R). Definiremos el determinante de A, determinante de


orden n, como el número real det(A) = |A| dado por

a11 a12 · · · a1n


n
X Xn
a21 a22 · · · a2n A

det(A) = |A| = . . .. . = a1j C1j = a1j (−1)1+j det M1j
A

. . . . j=1 j=1

an1 an2 · · · ann


Ejemplo 3.14. Hallar el determinante de la matriz del ejemplo
2.25

Solución.
−9 2 −1 4
0 8 −5 7

det(A) = |A| = 1 6 3 −6
−4 1 0 3
  
= (−9)(−1)1+1 det M11 + 2(−1)1+2 det M12
A A
+ (−1)(−1)1+3 det M13
A


+4(−1)1+4 det M14
A

105
III. Sistemas de Ecuaciones Lineales

8 −5 7 0 −5 7 0 8 7 0 8 −5
det(A) = −9 6 3 −6 − 2 1 3 −6 − 1 6 −6 − 4 1 6 3

1 0 3 −4 0 3 −4 1 3 −4 1 0
= −9(72 + 0 + 30 − 21 − 0 + 90) − 2(0 + 0 − 120 + 84 − 0 + 15)
−(0 + 7 + 192 + 168 − 0 − 24) − 4(0 − 5 − 96 − 120 − 0 − 0)
= −1539 + 42 − 343 + 884 = −956

Ejemplo 3.15. Calcular el determinante de la matriz


 
2 0 0 0 0
12 1 0 0 0
A= −3 0 −3 0 0
 
 5 −8 7 −1 0 
−9 6 −7 0 −6

Solución. Notemos primero que A es triangular inferior.

2 0 0 0 0
12 1 0 0 0
det(A) = |A| = −3 0 −3 0 0
5 −8 7 −1 0

−9
6 −7 0 −6
  
= 2(−1)1+1 det M11A
+ 0(−1)1+2 det M12A
+ 0(−1)1+3 det M13
A

 
+0(−1)1+4 det M14 A
+ 0(−1)1+5 det M15A

  
= 2(−1)1+1 det M11A
+ 0(−1)1+2 det M12A
+ 0(−1)1+3 det M13
A

 
+0(−1)1+4 det M14 A
+ 0(−1)1+5 det M15A


1 0 0 0
0 −3 0 0
= 2
−8 7 −1 0

6 −7 0 −6

106
III. Sistemas de Ecuaciones Lineales


−3 0 0 0 0 0

det(A) = 2 1(−1)1+1 7 −1 0 + 0(−1)1+2 −8 −1 0

−7 0 −6 6 0 −6

0 −3 0 0 −3 0
1+3 1+4

+0(−1) −8 0 + 0(−1)
7 −8 7 −1 

6 −7 −6 6 −7 0
−3 0 0
= 2·1 7 −1 0

−7 0 −6
!
−1 0 7 0 7 −1
= 2 · 1 (−3)(−1)1+1 + 0(−1)1+2 + 0(−1)1+3
0 −6 −7 −6 −7 0

−1 0
= 2 · 1(−3) = 2 · 1(−3)((−1)(−6) − 0 · 0)
0 −6
= 2 · 1(−3)(−1)(−6) = −36

El determinante de A es el producto de las componentes de la diagonal principal. Este resultado


se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

La demostración del teorema que enunciaremos a continuación escapa del objetivo del curso,
sin embargo, de él se derivan el resto de las propiedades que serán enunciadas más adelante.el
Teorema 3.9. Si A = (aij )n×n ∈ Mn×n (R), entonces

1. det(A) =
n
X n
X 
aij CijA = aij (−1)i+j det MijA para cada i ∈ {1, . . . , n} (Desarrollo del
j=1 j=1
determinante de A mediante la fila i-ésima).
n
X n
X 
2. det(A) = aij CijA = aij (−1)i+j det MijA para cada j ∈ {1, . . . , n} (Desarrollo del
i=1 i=1
determinante de A mediante la columna j-ésima).

Demostración. Investigarlo .

107
III. Sistemas de Ecuaciones Lineales

Ejemplo 3.16. Calcular el determinante de la matriz A del ejemplo 2.23 al desarrollar el de


terminante mediante la tercera fila y mediante la segunda columna.

Solución. En primer lugar hallemos el determinante de A desarrollándolo mediante la tercera


fila.
2 −3 −1
det(A) = |A| = −6 1 5

−7 0 6
−3 −1 2 −1 2 −3
= −7(−1)3+1 + 0(−1)3+2 + 6(−1)3+3
1 5 −6 5 −6 1
= −7(−15 + 1) + 0 + 6(2 − 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna.


2 −3 −1
det(A) = |A| = −6 1 5

−7 0 6
−6 5 2 −1 2 −1
= −3(−1)1+2 + 1(−1)2+2 + 0(−1)3+2
−7 6 −7 6 −6 5
= 3(−36 + 35) + (12 − 7) + 0 = 2

Teorema 3.10. Si A ∈ M×n (R), entonces det= det(A).

Demostración. Se deja como ejercicio.


Sugerencia: proceder por inducción sobre n y usar el teorema 2.24

Teorema 3.11. Si A = (aij )n×n ∈ Mn×n (R) una matriz triangular (superior o inferior), en-
tonces det(A) = a11 a22 · · · ann .

Demostración. Procedamos por inducción sobre n. Supongamos, sin perder generalidad que
A es una matriz triangular superior.
Verifiquemos que la tesis se cumple para n = 2. Sea
" #
a11 a12
A=
0 a22

108
III. Sistemas de Ecuaciones Lineales

Entonces
det(A) = a11 a22 − a12 · 0 = a11 a22

Supongamos ahora que la tesis se cumple para n − 1, esto es, supongamos que para cualquier
matriz triangular superior A = (aij )(n−1)×(n−1) ∈ M(n−1)×(n−1) (R) se cumple que det(A) =
a11 a22 · · · a(n−1)(n−1) (Hipótesis Inductiva).
Probemos ahora que se cumple para n. Sea
 
a11 a12 · · · a1n
0 a22 · · · a2n 
A=
 .. ..
.
..
.
.
. 

0 ··· 0 ann

Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos

A A A

det(A) = 0 · Cn1 + · · · + 0 · Cn(n−1) + ann Cnn = ann (−1)n+n det(Mnn
A A
) = ann det Mnn

Pero
 
a11 a12 · · · a1(n−1)
 0 a22 · · · a2(n−1) 
A
Mnn = . .. ..
 . . . . 
0 ··· 0 a(n−1)(n−1)
A
es decir, Mnn es una matriz triangular superior de orden (n−1), por lo tanto, usando la Hipótesis
A

Inductiva, se tiene que det Mnn = a11 a22 · · · a(n−1)(n−1) . Luego

det(A) = ann a11 a22 · · · a(n−1)(n−1) = a11 a22 · · · a(n−1)(n−1) ann

Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuación, nos presentan las propiedades básicas del
determinante, estas propiedades nos permitirán hallar el determinante de una matriz sin hacer
demasiados cálculos. Los enunciados de estas propiedades se darán sólo para filas, sin embargo,
en virtud del teorema 2.25, se pueden enunciar propiedades análogas para columnas.

Teorema 3.12. Sea A ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n , entonces
det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.

109
III. Sistemas de Ecuaciones Lineales

Demostración. Sea A = (aij )n×n . Como A(s) = 0/1×n , entonces asj = 0 para cada j ∈ {1, . . . , n}.
Ası́ que, al desarrollar el determinante de A por medio de la fila s, se tiene que
n
X n
X
A A
det(A) = asj Csj = 0 · Csj =0
j=1 j=1

Teorema 3.14. Sean A, B ∈ Mn×n (R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = α A(s)
y B(i) = A(i) para i 6= s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A
por un escalar α, entonces el determinante de la matriz resultante es igual al determinante de A
multiplicado por α .

Demostración. Sean A = (aij )n×n y B = (bij )n×n . Como B(s) = αA(s) y B(i) = A(i) para i 6=
s, entonces bsj = α asj para cada j ∈ {1, . . . , n} y además, la matriz que se obtiene al eliminar
A B
la fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego Msj = Msj
para
cada j ∈ {1, . . . , n}
Por lo tanto
B
Csj = (−1)s+j det(Msj
B
) = (−1)s+j det(Msj
A
)=
A
Csj para cada j ∈ {1, . . . , n}.

Ejemplo 3.17. Sea  


2 −1 2
 
A =  12 −16 4 
−2 0 3
Entonces
2 −1 2 2 −1 2 2 −1 2
det(A) = 12 −16 4 = 4 · 3 4(−4) 4 · 1 = 4 3 −4 1

−2 0 3 −2 0 3 −2 0 3
= 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1 − 2(−4)(−2) − 1 · 0 · 2 − 3(−1)3]
= 4[−24 + 0 + 2 − 16 − 0 + 9] = 4(−29) = −116

110
III. Sistemas de Ecuaciones Lineales

Teorema 3.15. Sean A, B, C ∈ Mn×n (R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s)
y C(i) = B(i) = A(i) para i 6= s, entonces det(C) = det(A) + det(B), dicho de otra manera, si
tenemos tres matrices A, B, C cuyas filas son idénticas excepto la fila s, y que la fila s de C es
igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la
suma del determinante de A con el determinante de B.

Demostración. Sean A = (aij )n×n , B = (bij )n×n y C = (cij )n×n . Sean A, B, C ∈ Mn×n (R).
Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i 6= s, entonces csj = asj + bsj para cada
j ∈ {1, . . . , n} y además, las matrices que se obtienen al eliminar la fila s de A, B y C son
A B C
iguales, ası́ que Msj = Msj = Msj para cada j ∈ {1, . . . , n}.
Por lo tanto
C B A
Csj = Csj = Csj

para cada j ∈ {1, . . . , n}


En consecuencia
n
X n
X n
X n
X
C C C C
det(C) = csj Csj = (asj + bsj )Csj = asj Csj + bsj Csj
j=1 j=1 j=1 j=1
n
X n
X
A B
= asj Csj + bsj Csj = det(A) + det(B)
j=1 j=1

Ejemplo 3.18 Sea A la matriz del ejemplo 2.30. Entonces


2 −1 2 4 + (−2) −1 2 4 −1 2 −2 −1 2
det(A) = 12 −16 4 = 6 + 6 −16 4 = 6 −16 4 + 6 −16 4

−2 0 3 1 + (−3) 0 3 1 0 3 −3 0 3
= [4(−16)3 + 6 · 0 · 2 + 1(−1)4 − 2(−16)1 − 4 · 0 · 4 − 3(−1)6] +
[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4 − 2(−16)(−3) − 4 · 0(−2) − 3(−1)6]
= [−192 + 0 − 4 + 32 − 0 + 18] + [96 + 0 + 12 − 96 − 0 + 18]
= −146 + 30 = −116

Teorema 3.16. Sean A, B ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t, B(s) = A(t) ,
B(t) = A(s) y B(i) = A(i) para i 6= s y i 6= t, entonces det(B) = − det(A), en otras palabras,
si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al
determinante de A multiplicado por −1.

111
III. Sistemas de Ecuaciones Lineales

Ejemplo 3.19. Sea A la matriz del ejemplo 2.30 sea


2 −1 2

B= 4 −16 12 
3 −2 -2
Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las fila 2 de B es igual
a la fila 2 de A. Además
2 −1 2
det(B) = 4 −16 12

3 0 −2
= 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12 − 2(−16)3 − 12 · 0 · 2 − (−2)(−1)4
= 64 + 0 − 36 + 96 − 0 − 8 = 116 = − det(A)

Teorema 3.17. Sea A ∈ Mn×n (R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t y A(s) = A(t) ,
entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.

Demostración. Sea B ∈ Mn×n (R) la matriz que se obtiene al intercambiar las filas s y t de A.
Como A(s) = A(t) , entonces B = A y ası́ det(B) = det(A).
Por otro lado, dado que s 6= t y según el teorema 1.30, det(B) = −det(A).
Ası́ que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.

Ejemplo 3.20. Sea  


2 −1 −2
 
A =  4 −16 12 
2 −1 −2
Entonces
2 −1 −2
det(A) = 4 −16 12

2 −1 −2
= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12 − (−2)(−16)2 − 12(−1)2 − (−2)(−1)4
= 64 + 8 − 24 − 64 + 24 − 8 = 0

112
III. Sistemas de Ecuaciones Lineales

Teorema 3.18. Sean A ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6= t y


A(s) = αA(t) , entonces det(A) = 0, esto es, si una fila de A es un múltiplo escalar de alguna otra
fila de A, su determinante es igual a cero.

Demostración. Sea B ∈ Mn×n (R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i 6= s y
B(s) = A(t) = B(t) . Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0.
Por otro lado, como A(s) = αA(t) = αB(t) = αB(s) , entonces, usando el teorema 2.28, se
tiene
que det(A) = α det(B) = α0 = 0.


Ejemplo 3.21. Sea  2 8 2

 −4 −16 1 
A=
3 12 −2
Entonces la columna A(2) = 4A(1) , además
2 8 2
det(A) = −4 −16 1

3 12 −2
= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1 − 2(−16)3 − 1 · 12 · 2 − (−2)8(−4)
= 64 − 96 + 24 + 96 − 24 − 64 = 0

Teorema 3.19.Sean A, B ∈ Mn×n (R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6= t,


B(s) = A(s) + αA(t) y B(i) = A(i) para i 6= s, entonces det(B) = det(A), dicho de otra forma, si
a una fila de A le sumamos un múltiplo escalar de alguna otra fila de A, el determinante de la
matriz resultante es igual al determinante de A.

Demostración. Sea C ∈ Mn×n (R) tal que C(i) = B(i) = A(i) para i 6= s y C( s) = αA(t) . Por
lo tanto, dado que s 6= t y en virtud del teorema 1.32, det(C) = 0.
Además, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 1.29

det(B) = det(A) + det(C) = det(A) + 0 = det(A)

113
III. Sistemas de Ecuaciones Lineales

Ejemplo 3.22. Sea A la matriz del ejemplo 2.30 y sea


 
2 −1 2
 
B =  −2 −9 −10 
−2 0 3

Ası́ que B(2) = A(2) − 7A(1) .Además

2 −1 2
det(B) = −2 −9 −10

−2 0 3
= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10) − 2(−9)(−2) − (−10)0 · 2 − 3(−1)(−2)
= −54 + 0 − 20 − 36 − 0 − 6 = −116 = det(A)

El siguiente ejemplo nos da un método para calcular el determinante de una matriz A haciendo
uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el cálculo resulta
mucho más sencillo que al usar la definición.
Como se dijo en la observación 2.15, usaremos tanto OEF como operaciones elementales por
columnas (OEC) para el cálculo de determinantes, estas operaciones las indicaremos de manera
análoga a las OEF, salvo que en lugar de usar F usaremos C.

Ejemplo 3.23. Hallar el determinante de la matriz


 
6 −1 2 13 2
 −1 0 −1 −3 −1 
A= 0 −3 0 9 0
 
 7 1 3 12 3 
0 −2 4 1 −3

Solución.

6 −1 2 13 2 6 −1 2 10 2
−1 0 −1 −3 −1 −1 0 −1 −3 −1 !
C4 → C4 + 3C2
det(A) = 0 −3 0 9 0 = 0 −3 0 0 0
por teorema 2.33
7 1 3 12 3 7 1 3 15 3
0 −2 4 1 −3 0 −2 4 −5 −3

114
III. Sistemas de Ecuaciones Lineales


6 2 10 2
!
−1 −1 −3 −1 desarrollando el determinante
det(A) = −3(−1)3+2
7 3 15 3 mediante la tercera fila
0 4 −5 −3

0 −4 −8 −4  
F1 → F1 + 6F2
−1 −1 −3 −1  
= 3  F3 → F3 + 7F2 
0 −4 −6 −4
por teorema 1.33
0 4 −5 −3
−4 −8 −4 !
desarrollando el determinante
= 3(−1)(−1)2+1 −4 −6 −4
mediante la primera columna
4 −5 −3
 
0 −13 −7 F1 → F1 + F3
 
= 3 0 −11 −7  F2 → F2 + F3 

4 −5 −3 por teorema 1.33
!
−13 −7 desarrollando el determinante
= 3 · 4(−1)3+1
−11 −7 mediante la primera columna
= 12(−13(−7) − (−7)(−11)) = 12 · 14 = 168

Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos métodos ¿cuál de los dos
le parece más sencillo?

Teorema 3.19. Sea A = (aij )n×n ∈ Mn×n (R). Entonces para cualesquiera s, t ∈ {1, . . . , n} con
s 6= t se tiene que
n
X n
X
A A
ask Ctk =0 y aks Ckt =0
k=1 k=1

Demostración. Sea s, t ∈ {1, . . . , n} con s 6= t. Definamos B = (bij )n×n tal que B(i) = A(i)
para cada i ∈ {1, . . . , n} con i 6= t y B(t) = A(s) . Ası́ que, usando el teorema 1.31, det(B) = 0.
Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son iguales,
B A B A
por lo tanto Mtk = Mtk para cada k ∈ {1, . . . , n}, de donde Ctk = Ctk . Luego, al desarrollar el
determinante de B mediante la fila t, se tiene que
n
X n
X
B A
det(B) = btk Ctk = ask Ctk
k=1 k=1
n
X n
X
A A
En consecuencia ask Ctk = 0, análogamente se prueba que aks Ckt = 0.
k=1 k=1

115
III. Sistemas de Ecuaciones Lineales

Teorema 3.20. Si E ∈ Mn×n (R) es una matriz elemental, entonces para cada A ∈ Mn×n (R) se
tiene que det(EB) = det(E) det(B).

Demostración. Como E ∈ Mn×n (R) es una matriz elemental, existe una OEF f : Fn (R) →
Fn (R) tal que E = f (In ). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f (In )A =
f (A).
Debemos proceder por casos sobre el tipo de OEF.

Caso 1. f es una OEF tipo 1. As que existen s ∈ {1, . . . , n} y α 6= 0 tales que E(s) = α (In )(s)
(donde (In )(s) es la fila s de In ) y para i 6= s se tiene que E(i) = (In )(i) . Luego
(f (A))(s) = αA(s) y para i 6= s tenemos (f (A))(i) = A(i) .

Por lo tanto, según el teorema 2.28,

det(E) = α det(In ) = α · 1 = α

y
det(EA) = det(f (A)) = α det(A) = det(E) det(A).

Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s 6= t, y α ∈ R tales que
(In )(t) y E(i) = (In )(i) para i 6= s. As que (f (A))(s) = A(s) + α
E(s) = (In )(s) + α A(t) y
(f (A))(i) = A(i) para i 6= s.

Usando el teorema 2.33, tenemos que

det(E) = det(In ) = 1

y
det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)

Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . . , n} tales que E(s) = (In )
(t) ,

E(t) = (In )(s) y E(i) = (In )(i) para i 6= s e i 6= t. De donde (f (A))(s) = A(s) + α
A(t) y
(f (A))(i) = A(i) para i 6= s e i 6= t.

Si s = t, entonces E = In y f (A) = A, as que

det(E) = det(In ) = 1

116
III. Sistemas de Ecuaciones Lineales

y
det(EA) = det(f (A)) = det(A) = 1 · det(A) = det(E) det(A)

Si s 6= t, podemos usar el teorema 1.30 y obtenemos

det(E) = − det(In ) = −1

y
det(EA) = det(f (A)) = − det(A) = (−1) det(A) = det(E) det(A)

Observación De la prueba del teorema 1.35, se tiene que si E ∈ Mn×n (R) es una matriz
elemental, entonces det(E) 6= 0.

Corolario Sean E1 , E2 , . . . , Er ∈ Mn×n (R) matrices elementales. Entonces, para cada A ∈


Mn×n (R), se tiene que det(E1 E2 · · · Er A) = det(E1 ) det(E2 ) · · · det(Er ) det(A).

Demostración. ¡Ejercicio!

orema 3.21. Si A ∈ Mn×n (R) es una matriz ERF, entonces det(A) 6= 0 si y sólo si A = In .

Demostración. Sea A = (aij )n×n . Como A es ERF, entonces A es triangular superior (ver
ejercicio 1.5), ası́ que aij = 0 para i > j y det(A) = a11 a22 · · · ann .
Supongamos que det(A) 6= 0. Luego aii 6= 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para i > j,
entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-ésima fila es aii , y por
ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii es un pivote y
por lo tanto aij = 0 para i 6= j (¿por qué?). En resumen
(
1 si i = j
aij =
0 si i 6= j

Es decir, A = In .
Recı́procamente, si A = In , entonces det(A) = 1 6= 0.

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz
cuadrada.

117
III. Sistemas de Ecuaciones Lineales

Teorema 3.22. Sea A ∈ Mn×n (R). Entonces A es invertible si y sólo si det(A) 6= 0.

Demostración. Sea B ∈ Mn×n (R) la FERF A. Entonces existen matrices elementales E1 , E2 , . . . , Er ∈


Mn×n (R) tales que B = E1 E2 · · · Er A. Como det(Ei ) 6= 0 para cada i ∈ {1, . . . , r}, entonces
det(A) 6= 0 si y sólo si det(B) 6= 0; y usando el teorema 1.37 se tiene que B = In . Por lo tanto
det(A) 6= 0 si y sólo si la FERF de A es In , lo cual concluye la prueba.

Teorema 3.23 Sean A, B ∈ Mn×n (R). Entonces det(AB) = det(A) det(B).

Demostración.

Caso 1. det(A) = 0. Ası́ que, en virtud del teorema 1.38, A no es invertible. Luego, usando
el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se
tiene que det(AB) = 0. Por lo tanto

det(AB) = 0 = 0 det(B) = det(A) det(B)

Caso 2. det(A) 6= 0. Luego A es invertible, en virtud del teorema 1.38. Ası́ que, al usar
el teorema 1.22, tenemos que existen matrices elementales E1 , E2 , . . . , Er ∈ Mn×n (R)
tales que A = E1 E2 · · · Er . Luego, por el corolario 1.36

det(A) = det(E1 E2 · · · Er ) = det(E1 ) det(E2 ) · · · det(Er ) y

det(AB) = det(E1 E2 · · · Er B) = det(E1 ) det(E2 ) · · · det(Er ) det(B) = det(A) det(B)

Regla de Cramer
En esta sección definiremos la adjunta de una matriz y enunciaremos la regla de Cramer ,
que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicación
de los determinantes.

Definición 3.22. Sea A ∈ Mn×n (R). Se define la matriz adjunta de A como la matriz adj(A) ∈
Mn×n (R) cuya ij-ésima componente es el ji-ésimo cofactor de A para cada i, j ∈ {1, . . . , n}, es
A
decir, si adj(A) = (bij )n×n , entonces bij = Cji para cualesquiera i, j ∈ {1, . . . , n}.

118
Sistemas de Ecuaciones Lineales

Observación Si C = (CijA )n×n , es decir, si C es la matriz real cuadrada cuya ij-ésima


componente es el ij-ésimo cofactor de A para cada i, j ∈ {1, . . . , n}, entonces adj(A) = C T .

Ejemplo 3.24 Hallar la adjunta de


 
2 −1 3
 
A= 1 0 2 
4 −1 7

Solución. Necesitamos hallar cada uno de los cofactores de A. Veamos

0 2 1 2 1 0
A
C11 = (−1)1+1 = 2; A
C12 = (−1)1+2 = 1; A
C13 = (−1)1+3 = −1;
−1 7 4 7 4 −1

−1 3 2 3 2 −1
A 2+1 A 2+2 A 2+3
C21 = (−1) = 4; C22 = (−1) = 2; C23 = (−1) = −2;
−1 7 4 7 4 −1

A −1 3 2 3 2 −1
C31 = (−1)3+1 = −2; A
C32 = (−1)3+2 = −1; A
C33 = (−1)3+3 = 1;
0 2 1 2 1 0
As que    
A A A
C11 C21 C31 2 4 −2
 A A A   
adj(A) =  C12 C22 C32 = 1 2 −1 
A A A
C13 C23 C33 −1 −2 1

Teorema 3.24 Sea A ∈ Mn×n (R). Entonces A adj(A) = det(A)In = adj(A)A.

Demostración. Hagamos adj(A) = (bjk )n×n . Ası́ que para cada j, k ∈ {1, . . . , n}, se tiene que
A
bjk = Ckj .
Si hacemos A adj(A) = D = (dik )n×n , entonces, para cada i, k ∈ {1, . . . , n}, tenemos que
n
X n
X
A
dik = aij bjk = aij Ckj .
j=1 j=1

Pero n
X
aij CijA = det(A)
j=1

119
III. Sistemas de Ecuaciones Lineales

, si i 6= k, entonces
n
X
A
aij Ckj =0
j=1

Por lo tanto
(
det(A) si i = k
dik =
0 si i 6= k
(
1 si i = k
= det(A)
0 si i 6= k
= det(A)δik

donde In = (δik )n×n . En consecuencia A adj(A) = det(A)In . De manera análoga se prueba que
adj(A)A = det(A)In , lo cual concluye la prueba.

1 1
Teorema 3.25. Si A ∈ Mn×n (R) es invertible, entonces det(A−1 ) = y A−1 = adj(A).
det(A) det(A)
Demostración. Como A es invertible, entonces existe A−1 ∈ Mn×n (R) tal que AA−1 = In =
A−1 A, y por el teorema 1.39

det(A) det(A−1 ) = det(AA−1 ) = det(In ) = 1.

Luego
1
det(A−1 ) = .
det(A)
Por otro lado, usando el teorema 1.40, se tiene que
 
1 1 1
A adj(A) = A adj(A) = det(A)In = In .
det(A) det(A) det(A)
De donde
1
A−1 = adj(A).
det(A)

Ejercicio Sea A ∈ Mn×n (R) una matriz invertible. Pruebe que adj(A) también es invertible y
además (adj(A))−1 = adj(A−1 ).

120
III. Sistemas de Ecuaciones Lineales

Consideremos la ecuación matricial Ax = b, donde A ∈ Mn×n (R). Si A es invertible, entonces


la única solución de dicha ecuación está dada por x = A−1 b, ası́ que, una forma de hallar la
solución de la ecuación en cuestión, es calcular la inversa de A y multiplicarla por b, pero quizás
esto es mucho más complicado y costoso (en términos de cálculos) que hallar la FERF de la
matriz [A|b].
En el siguiente teorema presentaremos una herramienta que permite resolver la ecuación an-
terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha
herramienta se conoce con el nombre de la regla de Cramer .

  3.25(Regla de Cramer). Sea A ∈ Mn×n (R) una matriz invertible y b ∈ Mn×1 (R). Si
Teorema
x1
x2  det(Abj )
x= es la solución de la ecuación Ax = b, entonces, para cada j ∈ {1, . . . , n}, xj = ,
. det(A)
 
xn
donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es,
h i
Abj = A(1) · · · A(j−1) b A(j+1) · · · A(n)

Demostración. Como A = (aij )n×n es invertible, entonces la única solución del sistema Ax
 =b
b1
1 1 b 
−1 −1 2
es x = A b, pero A = adj(A), ası́ que x = adj(A)b, por lo tanto, si b = . ,
det(A) det(A)
.
bn
n
1 X A
entonces xj = C bi para cada j ∈ {1, . . . , n}.
det(A) i=1 ij
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que
 
a11 ··· a1(j−1) b1 a1(j+1) ··· a1n
. . . . .
. . . . .
a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n
Abj = ai1 ··· ai(j−1) bi ai(j+1) ··· ain
 a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n 
. . . . .
 . 
an1 ··· an(j−1) bn an(j+1) ··· ann
Ab
Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que Mij j = MijA y ası́
Abj
 Ab  
Cij = (−1) det Mij j = (−1)i+j det MijA = CijA
i+j

121
III. Sistemas de Ecuaciones Lineales

Luego, al desarrollar el determinante de Abj por medio de la j-ésima columna, obtenemos


n
X n
X
Ab
det(Abj ) = Cij j bi = CijA bi
i=1 i=1

En consecuencia, para cada j ∈ {1, . . . , n} tenemos que


det(Abj )
xj =
det(A)

Ejemplo 3.25. Verificar que la matriz del sis-


tema
 x +2z −w = 3
 x +y +2z +w = 2

4x +2y +2z −3w = 1
 2y +z +4w = 1

es invertible y usar la regla de Cramer para hallar la solución del sistema.

Solución. La matriz del sistema es


 
1 0 2 −1
 1 1 2 1
A=
 4 2 2 −3 
0 2 1 4
hallemos su determinante
1 0 2 −1 1 0 2 −1 1 0 2 1 0 0
1 1 2 1 0 1 0 2
det(A) = = = 2 −6 1 = 2 −6 −3
4 2 2 −3 0 2 −6 1
2 1 4

2 1 0

0 2 1 4 0 2 1 4
−6 −3
= = 3 6= 0.
1 0
Por lo tanto la matriz del sistema es invertible, ası́ que podemos aplicar la regla de Cramer para
resolverlo. En este caso la matriz de términos independientes es
 
3
 2
b=
 1 
1

122
III. Sistemas de Ecuaciones Lineales

Luego

3 0 2 −1 0 −6 −1 −13 −6 −1 −13
 2 1 2 1 0 −3 0 −7
det Ab1 = = = − −3 0 −7
1 2 2 −3 0 0 1 −7
0 1 −7
1 2 1 4 1 2 1 4
−6 0 −20
−6 −20
= − −3 0 −7 = = 42 − 60 = −18.
−3 −7
0 1 −7


1 3 2 −1 1 3 2 −1
−1 0 2
 1 2 2
1 0 −1 0 2
det Ab2 = = = −11 −6 1
4 1 2 −3 0 −11 −6 1
1 1 4
0 1 1 4 0 1 1 4
−1 0 0 −6 −21
= −11 −6 −21 = − = −(−36 + 21) = 15.
1 6
1 1 6

1 0 3 −1 1 0 2 −1 1 −1 2 1 −1 2
 1 1 2 1 0 1 −1 2
det Ab3 = = = 2 −11 1 = 0 −9 −3
4 2 1 −3 0 2 −11 1
2 1 4

0 3 0

0 2 1 4 0 2 1 4
−9 −3

= = 9.
3 0

1 0 2 3 1 0 2 3
1 0 −1 1 0 0
 1 1 2 2 0 1 0 −1
det Ab4 = = = 2 −6 −11 = 2 −6 −9
4 2 2 1 0 2 −6 −11
2 1 1

2 1 3

0 2 1 1 0 2 1 1
−6 −9
= = −18 + 9 = −9.
1 3

123
Sistemas de Ecuaciones Lineales

  
det Ab1 −18 det Ab2 15 det Ab3 9
En consecuencia x = = = −6; y = = = 5; z = = = 3;
 det(A) 3 det(A) 3 det(A) 3
b
det A4 −9
w= = = −3, es decir, la solución del sistema dado es:
det(A) 3
   
x −6
 y   5
=
 z   3 
w −3

3.5. Aplicaciones
Ejemplo 3.26 Una fábrica produce tres tipos de productos, mezclando para ello tres materias
primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la
materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para
fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la
materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades
de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la
fábrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de
la materia prima 2 y seis millones de la materia prima 3 cuántas unidades de cada producto
puede producir la fábrica usando el total de las materias primas?

Solución. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede
producir la fábrica.
Por lo tanto, la cantidad de unidades (en millones) que se usarán es:

x1 + x2 + 3x3 de la materia 1

3x1 + 3x2 + 3x3 de la materia 2

2x1 + 2x3 de la materia 3

Como se quiere usar el total de las materias primas, entonces



 x1 +x2 +3x3 = 6

3x +3x2 +3x3 = 12
 1
 2x +2x = 6
1 3

124
III. Sistemas de Ecuaciones Lineales

En este caso, la matriz del sistema, la matriz de incógnitas y la matriz de términos indepen-
dientes son, respectivamente:
     
1 1 3 x1 6
     
A =  3 3 3 ; x =  x2  y b =  12 
2 0 2 x3 6

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la


matriz del sistema.
1 1 3 1 1 3
0 −6
det(A) = 3 3 3 = 0 0 −6 =− = −12 6= 0.
2 2
2 0 2 2 0 2

Como la matriz del sistema es invertible, podemos usar la regla de Cramer.


6 1 3 6 1 3
 −6 −6
det Ab1 = 12 3 3 = −6 0 −6 =− = −(−12 + 36) = −24.
6 2
6 0 2 6 0 2

1 6 3 1 6 3
 −6 −6
det Ab2 = 3 12 3 = 0 −6 −6 = = 24 − 36 = −12.
−6 −4
2 6 2 0 −6 −4

1 1 6 1 1 6 0 −6

det Ab3 = 3 3 12 = 0 0 −6 =− = −12.
2 6
2 0 6 2 0 6
−24 −12 −12
Por lo tanto x1 = = 2; x2 = = 1 y x3 = = 1, es decir, usando el total de
−12 −12 −12
la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millón de
unidades de cada uno de los productos 2 y 3.

Los sistemas de ecuaciones, en conjunción con las matrices son ampliamente usados en el planteami-
ento y resolución de problemas que aparecen en la tecnología; por ejemplo en el análisis de circuitos
eléctricos, problemas de química como dce mezclado y de determinación de los coeficientes en las
ecuaciones químicas.

Aparte de los problemas mencionados, el uso de sistemas de ecuaciones es común en la ingeniería


civil en el análisis de fuerzas que intervienen en estructuras. También encontramos aplicaciones en el
análisis de sistemas económicos.

125
UNIDAD III.. SISTEMAS DE ECUACIONES LINEALES

En un curso de Algebra Lineal elemental, no es posible dar una visión amplia acerca de las extensas
aplicaciones que tendrían los sistemas lineales y las matrices o sus derivados que son los determin-
antes; más bien, en un cursos de este estilo, es convenienete adaptarse a la enseñanza y manejo de los
principios básicos.
Desde luego, lo anterior no significa que los ejemplos simples que se den en este curso no tengan pos-
teriormente que ver con la formulación de sistemas en problemas de Investigación de Operaciones, o
en la teoría de la Regresión Lineal y Multilineal, materias fundamentales de los ingenieros industriales
o en sistemas computacionales.

Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasificar
valores numéricos atendiendo a dos criterios o variables.
Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos
ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la
tabla siguiente: A
2 unid. 5 unid. 10 unid.
Color N 0’0
0’04 0’08 0’12
Color F 40’03 0’05 0’08

Sabiendo que en un año se venden el siguiente número de paquetes:

Color N Color F
2 unid. 700000 50000
5 unid. 600000 40000
10 unid. 500000 500000

Resumir la información anterior en 2 matrices A y B, de tamaño respectivo 2x3 y 3x2 que recojan las
ventas en un año (A) y los precios (B).

Nos piden que organicemos la información anterior en dos matrices de tamaño concreto. Si nos fijamos
en las tablas, es sencillo obtener las matrices:

N F
2 ud 5 ud 10 ud   
  0 04 0 03 2 ud
700000 600000 500000 N
A= B = 0 08
 0 05 5 ud
50000 40000 500000 F
0 12 0 08 10 ud

Estas matrices se denominan matrices de información, y simplemente recogen los datos numéricos del
problema en cuestión.
Otras matrices son las llamadas matrices de relación, que indican si ciertos elementos están o no
relacionados entre sı́. En general, la existencia de relación se expresa con un 1 en la matriz y la ausencia
de dicha relación de expresa con un 0.
Estas matrices se utilizan cuando queremos trasladar la información dada por un grafo y expresarla
numéricamente.

126
UNIDAD III.. SISTEMAS DE ECUACIONES LINEALES

En Matemáticas, un grafo es una colección cualquiera de puntos conectados por lineas.


Existen muchos tipos de grafos. Entre ellos, podemos destacar:
* Grafo simple: Es el grafo que no contiene ciclos, es decir, lineas que unan un punto consigo
mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos.
* Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea, mediante una flecha.
Estos tipos de grafo pueden verse en la figura:

Fig. Grafo, Grafo simple y Grafo dirigido.

Relacionadas con los grafos se pueden definir algunas matrices. Entre todas ellas, nosotros nos
fijaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos exclusivamente,
de tal forma que:
* un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la fila i hasta el punto de la
columna j mediante una linea que los una directamente.
* un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante una
linea que los una directamente.

La matriz de adyacencia del grafo dirigido de la figura anterior será:

A B C D
 
A 0 1 0 1
B 0 0 1 0
C 1 0 0 0
D 0 0 0 0

Ejercicio
1) Escribe las correspondientes matrices de adyacencia de los grafos:

2) Dibuja los grafos dirigidos que correspondan a las matrices de adyacencia:

A B C D
A B C  
  A 0 1 1 1
A 0 1 0
B 0 0 0 1
B 1 0 1
C 1 0 0 0
C 0 0 0
D 0 1 1 0

127
UNIDAD IV

Espacios Vectoriales
Espacios Vectoriales, subespacios, combinaciones lineales y
bases.

4.1.Definición de espacio vectorial


DdenEspacios Vectoriales
Definición 4.1. Un espacio vectorial real es una terna (V, +, · ) formada por un
conjunto no vacı́o V, cuyos elementos llamaremos vectores, y dos operaciones binarias + :
V × V −→
V, llamada adición vectorial, y · : R × V −→ V, llamada multiplicación por escalar,
satisfaciendo las siguientes condiciones

A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adición vectorial)

A1. u + v = v + u para cualesquiera u, v ∈ V (conmutatividad de la adición vectorial)

A2. (u + v) + w = u + (v + w) para cualesquiera u, v, w ∈ V (asociatividad de la adición


vectorial)
V ∈ V tal que v + 0V = v para cada v ∈ V (existencia de un elemento
/ /

A3. neutro
Existe 0 para la adición vectorial)

A4. Para cada v ∈ V existe v ′ ∈ V tal que v + v ′ = 0/V (existencia de un elemento


opuesto para la adición vectorial)

M0. α · v ∈ V para cualesquiera α ∈ R y v ∈ V (cerradura de la multiplicación por


escalar)

M1. (α + β ) · v = α · v + β · v para cualesquiera α , β ∈ R y v ∈ V (distributividad


de la multiplicación por escalar respecto a la adición escalar)

M2. α · (u + v) = α · u + α · v para cualesquiera α ∈ R y u, v ∈ V (distributividad de la


multiplicación por escalar respecto a la adición vectorial)

128
IV.Espacios Vectoriales

M3. (αβ) · v = α · (β · v) = β · (α · v) para cualesquiera α ,β ∈ R y v ∈ V


(asociatividad de la multiplicación escalar y la multiplicación por escalar)

M4. 1 · v = v para cada v ∈ V (existencia de un elemento neutro para la multi-


plicación por escalar)

Observación 4.1. Es de hacer notar que las expresiones a la derecha de las igualdades en
M1.
y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operación + tiene mayor jerarquı́a
que la operación · , esto es, (α · u) + v puede ser escrito como α · u + v pero en la expresi
ón α · (u + v) no pueden suprimirse los paréntesis.

Observación 4.2. La definición 2.1 se puede extender considerando un campo cualquiera K


(ver apéndices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial
y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este
caso V es llamado espacio vectorial complejo.
En lo que resta del curso, sólo consideraremos espacios vectoriales reales, salvo que se diga
lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios
vectoriales reales, a menos que haya error a confusión.

Observación 4.3. En adelante, siempre que no haya error a confusión, en lugar de


escribir
α · v escribiremos α v.

Observación 4.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no
se
), sobrentendiendo las operaciones + y · tienda a confusión, en lugar de la terna (V, +, ·

Ejemplo 4.1.

1. El conjunto Rn = {(x1 , x2 , . . . , xn ) : xi ∈ R para cada i ∈ {1, . . . , n}} junto con las opera-
ciones + y · dadas como sigue

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ) α ·

(x1 , x2 , . . . , xn ) = (αx1 , α x 2 , . . . , α x n )

donde α ∈ R y (x1 , x2 , . . . , xn ), (y1 , y2, . . . , yn ) ∈ Rn , es un espacio vectorial (¡verifı́quelo!)

129
IV.Espacios Vectoriales

2. El conjunto Mm×n (R) junto con las operaciones + y · , dadas en las definiciones 1.4 y
1.5 respectivamente, del capı́tulo 1, es un espacio vectorial

3. Consideremos una matriz A ∈ Mm×n (R). Los conjuntos

S = {x ∈ Mn×1 (R) : Ax = 0/m×1 }

R = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}


junto con las operaciones + y · definidas en el capı́tulo 1, son espacios vectoriales (¡pruébe-
lo!)

S es llamado espacio solución del sistema homogéneo Ax = 0/ o espacio nulo de


m×1

A, y R es llamado el espacio imagen de A. Estos espacios serán tratados formalmente


y en detalle en la sección 2.6 del presente capı́tulo. 

4. Sea n ∈ N. Definamos

Pn [x] = {a0 + a1 x + · · · + an xn : a0 , a1 , . . . , an ∈ R}

Es decir, Pn [x] está formado por todos los polinomios con coeficientes reales en la variable
x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn [x] consideremos las
operaciones usuales de adición de polinomios y multiplicación de un número real por un
polinomio. Entonces Pn [x] es un espacio vectorial (¡pruébelo!)

En general, si definimos el conjunto

P[x] = {p(x) : p(x) es un polinomio en la variable x}

entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas
(¡pruébelo!)

Es de hacer notar que el polinomio nulo O(x) = 0 ¡no tiene grado! (¿por qué?), además,
para cada n ∈ N se tiene que Pn [x] 6= ∅ (¿por qué?) y Pn [x] ⊂ Pn+1 [x] ⊂ P[x] (¿por qué?)

5. Sean a, b ∈ R con a < b. Definamos el conjunto F [ a , b ] de todas las funciones reales


definidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adición de
funciones y multiplicación de una función por un número real, entonces F [ a , b ]
es un espacio vectorial (¿pruébelo!) 

130
Espacios Vectoriales

6. El conjunto
V = {(x, y) ∈ R2 : y = x + 1}

junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio vectorial
ya que (2, 3), (0, 1) ∈ V (¿por qué?) pero

(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) ∈


/V

pues 4 6= 3 = 2 + 1, es decir, la adición no es cerrada en V o V no es cerrado bajo la


adición.

Sin embargo, si definimos sobre V las operaciones

(x, y) + (z, w) = (x + z, y + w − 1)

α · (x, y) = (αx, α(y − 1) + 1)

entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) ∈ V y α, β ∈ R
cualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.

De donde
y + w − 1 = x + 1 + z + 1 − 1 = (x + z) + 1

y por lo tanto
(x, y) + (z, w) = (x + z, y + w − 1) ∈ V

cumpliéndose A0.

(x, y) + (z, w) = (x + z, y + w − 1) = (z + x, w + y − 1) = (z, w) + (x, y)

por lo que A1. es satisfecha.

((x, y) + (z, w)) + (a, b) = (x + z, y + w − 1) + (a, b)


= ((x + z) + a, (y + w − 1) + b − 1)
= (x + (z + a), y + (w + b − 1) − 1)
= (x, y) + (z + a, w + b − 1)
= (x, y) + ((z, w) + (a, b))

ası́ que A2. se cumple.

131
IV. Espacios Vectoriales

Definamos 0/V = (0, 1). Entonces 0/V ∈ V (¿por qué?) y además

(x, y) + (0, 1) = (x + 0, y + 1 − 1) = (x, y)

luego se satisface A3.

Si (x, y) ∈ V, entonces (−x, −y + 2) ∈ V ya que

−y + 2 = −(x + 1) + 2 (¿por qué?)


= −x − 1 + 2 = −x + 1

Además

(x, y) + (−x, −y + 2) = (x + (−x), y + (−y + 2) − 1) = (0, 1) = 0/V

en consecuencia se cumple A4.

Verifique que se cumple el resto de la propiedades en la definición 2.1. ¿Qué podrı́a concluir
a partir de este ejemplo? 

7. Dado un espacio vectorial V. Es fácil probar que el conjunto {0/V }, junto con las operaciones
+ y · definidas sobre V, es un espacio vectorial. 

Teorema 4.1. Los elementos 0/V y v ′ dados en A3. y A4. respectivamente, son
únicoselementos de V que satisfacen dichas propiedades.

Demostración. Supongamos que existe x ∈ V tal que v + x = v para cada v ∈ V. Luego, para
/ ∈ V, se tiene que
v = 0V
0/V +x = 0/V (4.1)

Por lo tanto

x = x + 0/V (por A3.)


= 0/V +x (por A1.)
= 0/V (por (2.1))

Lo que prueba la unicidad de 0/V .


Supongamos ahora que para v ∈ V existen v ′ , b
v ∈ V tales que

v + v ′ = 0/V (4.2)
v+b
v = 0/V (4.3)

132
IV.Espacios Vectoriales

Luego

v = b
b v + 0/V (por A3.)
= v + (v + v ′ ) (por 4.2)
v + v) + v ′
= (b (por A2.)
v) + v ′
= (v + b (por A1.)
= 0/V +v ′ (por 4.3)
= v ′ + 0/V (por A1.)
= v′ (por A3.)

con lo cual se obtiene la unicidad del opuesto aditivo.

Observación 4.5. Al vector 0/V se le denomina vector nulo y el vector v ′ es llamado opuesto
(aditivo) de v y es denotado por −v.
Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como
sigue.

A’3. Existe un único 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia y unicidad
del elemento neutro para la adición vectorial)

A’4. Para cada v ∈ V existe un único −v ∈ V tal que v + (−v) = v − v = 0/V (existencia
y unicidad del elemento opuesto para la adición vectorial)

Definición 4.2. Sean V un espacio vectorial y u, v ∈ V cualesquiera. Definiremos el


vector u − v, vector diferencia de u con v, como u − v = u + (−v)

Ejercicio 4.1. Sean V un espacio vectorial, v1 , v2 , . . . , vn , v ∈ V y α 1 , α2 , . . . , αn , α ∈ R


cualesquiera. Pruebe que

1. (α 1 + α2 + · · · + αn )v = α 1 v + α2 v + · · · + αn v.

2. α (v1 + v2 + · · · + vn ) = αv1 + αv2 + · · · + αvn .

Ejercicio 4.2 (Ley de Cancelación). Sea V un espacio vectorial y u, v, w ∈ V. Si u + v = u +


w, entonces v = w.

133
IV. Espacios Vectoriales

Teorema 4.2. Sea V un espacio vectorial.


Entonces

1. α 0/V = 0/V para cada α ∈ R.

2. 0v = 0/V para cada v ∈ V.

3. Si α v = /0V , entonces α = 0 ó v = 0/V .


4. (−α)v = α(−v) = −(αv) para cualesquiera α ∈ R y v ∈ V. En consecuencia (−1)v = −v.

Demostración.

1. Sea α ∈ R cualquiera. Entonces

α 0/V +α 0/V = α(0/V + 0/V ) (por M2.)


= α 0/V (por A3.)
= α 0/V + 0/V (por A3.)

Y por la ley de cancelación (ejercicio 2.2) se tiene que α 0/V = 0/V .

2. ¡Ejercicio!

3. Supongamos que αv = 0/V .

Si α = 0, no hay nada que probar, supongamos entonces que α 6= 0 y probemos que v = 0/V .

Por ser α 6= 0, existe α −1 ∈ R tal que α −1 α = 1 = α α −1 . Por lo


tanto

v = 1v (por M4.)
= (α−1 α)v
= α−1 (αv) (por M3.)
= α−1 0/V (por hipótesis)
/
V (por la parte 1)
= 0
Con lo que culmina la prueba de la parte 3.

4. Sean α ∈ R y v ∈ V cualesquiera. Entonces

αv + (−α)v = (α + (−α))v (por M1.)


= 0v
= 0/V (por la parte 2)

134
IV. Espacios Vectoriales

Luego, por A’4. (unicidad del opuesto aditivo), se tiene que (−α)v = −(αv). De manera
análoga se prueba que α(−v) = −(αv). Finalmente, haciendo α = 1 y por M4., obtenemos

(−1)v = −(1v) = −v.

Observación 4.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos
escribir
−αv en lugar de −(α v) sin error a confusión.

4.2. Definicion de subespaciovectorial y sus propiedades.


Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, consideran-
do sobre ellos las operaciones + y · de V. En esta sección nos ocuparemos de dichos espacios
vectoriales los cuales son llamados subespacios vectoriales de V.

Definición 4.3. Sea W un subconjunto no vacı́o de un espacio vectorial V. Diremos que W


es
un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y
· de V es un espacio vectorial.

Ejemplo 4.2.1. Dado un espacio vectorial V, entonces W = {0


/ } es un subespacio de V, el cual es llamado
V

espacio vectorial nulo, ası́ como también V (ver ejemplo 4.1 parte 7). Estos subespacios
son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de
estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado
subespacio propio. 

2. Dada una matriz real A ∈ Mm×n (R). Los espacios S y R, dados en la parte 3 del ejemplo
4.1, son subespacios de Mn×1 (R) y Mm×1 (R) respectivamente. 

3. De la parte 4 del ejemplo 4.1 podemos garantizar que para cada n ∈ N se tiene que Pn [x]
es un subespacio de Pn+1 [x] y de P[x]. 

4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo
cerrado [ a , b ], es un subespacio de F [ a , b ].

En efecto, es claro que C [ a , b ] ⊂ F [ a , b ] (¿por qué?) y además, la función nula está en


C [ a , b ] (¿por qué?), por lo tanto C [ a , b ] es un subconjunto no vacı́o de F [ a , b ].

135
IV. Espacios Vectoriales

Si f, g ∈ C [ a , b ] y α ∈ R, entonces, por un resultado de Cálculo, f + g, αf ∈ C [ a , b ],


cumpliéndose A0. y M0.

Finalmente, no es difı́cil probar que el resto de las propiedades en la definición 2.1 son
satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ]. 

Antes de dar algún otro ejemplo de subespacio vectorial, debemos hacer notar que en
realidad,
para probar que un subconjunto no vacı́o de un espacio vectorial es un subespacio de este último,
sólo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente
teorema.

Teorema 4.3. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial


de V si y sólo si

1. W 6= ∅.

2. u + v ∈ W para cualesquiera u, v ∈ W, es decir, W es cerrado bajo la adición vectorial


(definida sobre V).

3. α v ∈ W para cualesquiera α ∈ R y v ∈ V, es decir, W es cerrado bajo la multiplicación


por escalar (definida sobre V).

Demostración. Sean V un espacio vectorial y W ⊂ V.


Supongamos que W es un subespacio de V. Entonces por definición 4.3 tenemos que W 6 = ∅ y
adem´as W es un espacio vectorial con las operaciones + y · definidas sobre V, por lo tanto u + v, α
v ∈ W para cualesquiera α ∈ R y u, v ∈ W.
Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.
Debemos probar que W junto con las operaciones + y · definidas sobre V es un espacio vectorial.
Seg´un las hip´otesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W ⊂ V
y las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w ∈ V,
entonces dichas condiciones
/
s cumplen r
W ∈ W y que −v ∈ W pa
cad
ua v ∈ W. u, v, w ∈ W y α
a lesquiera , β
∈ R. As ´ı
Como Wque s ´olo
6= ∅, resta
existe v ∈probar que 0 en virtud de la condición 3, 0v ∈ W, pero por la parte
W. Entonces,
0 0

2 del teorema 4.2 se tiene que 0v0 = 0/V , ası́ que 0/V ∈ W y en consecuencia existe 0/V ∈ W tal que
para cada v ∈ W se tiene que v + 0/V = v, es decir, la condición A3. se satisface si sustituimos V
por W. Esto último significa que 0/W = 0/V , es decir, el vector nulo en todos los subespacios de V
es el mismo.

136
IV. Espacios Vectoriales

Finalmente, sea v ∈ W cualquiera. Entonces, por la condición 3, tenemos que (−1)v ∈ W y dado
que (−1)v = −v (por la parte 4 del teorema 4.2), entonces −v ∈ W, en consecuencia para cada v
∈ W existe −v ∈ W tal que v + (−v) = 0 /
V, es decir, la condición A4. se satisface si
sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto
aditivo de cualquier vector en un subespacio, es también un vector del subespacio.

Observación 4.7. Según la demostración del teorema 4.3, si W es un subespacio vectorial


de
V ∈ W.
/

unAsı́
espacio vectorial V, entonces 0
que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este
último, lo primero que debemos probar es que 0/V ∈ W, esto a su vez garantiza que W 6= ∅. Si
0/V ∈
/ W, entonces W no es un subespacio de V.

El teorema 4.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio


de este sólo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la
misma pruebo con sólo verificar dos condiciones.

Corolario 4.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y


sólo si

1. W 6= ∅.

2. u + vα∈ W para cualesquiera α ∈ R y u, v ∈ W.

Demostración. Supongamos primero que W es un subespacio vectorial de V y probemos que


las condiciones 1 y 2 se cumplen. En primer lugar W 6 = ∅ por definici´on 2.3. Sean α ∈ R y u, v ∈
W cualesquiera. Entonces, por la parte 3 del teorema 2.3, tenemos que αv ∈ W, luego, por la parte
2 del mismo teorema, se tiene que u + αv ∈ W.
Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio
vectorial de V. Como W 6 = ∅, sólo debemos probar que se satisfacen las condiciones 2 y 3
del teorema 2.3.
Sean u, v ∈ W cualesquiera. Entonces u + v = u + 1v ∈ W (tomando α = 1 en la condición 2
de la hipótesis).
Por otro lado, sean α ∈ R y v ∈ W cualesquiera. Entonces 0/V = v + (−v) = v + (−1)v ∈ W
(tomando α = −1 y u = v en la condición 2 de la hipótesis) ası́ que α v/V=+α
0 v∈W
u = 0/V en la condición 2 de la hipótesis). Lo cual concluye la prueba. (tomando

137
IV. Espacios Vectoriales

Observación 4.8. Según la observación 2.7, la condición 1 en el teorema 2.3 y la condición


1
en el corolario 2.4, pueden ser sustituidas por la siguiente condición.
V ∈ W.
/

1. 0
Observación 4.9. Recordemos que para probar que los conjuntos S y R, definidos en la parte 3
del ejemplo 4.1, son subespacios de Mn×1 (R) y Mm×1 (R), respectivamente (ver parte 2 del ejemplo
4.2), fue necesario probar que eran espacios vectoriales (se dejó como ejercicio), sin embargo, al
usar el teorema 4.3 o el corolario 4.4, vemos que no es necesario.

Ejercicio 4.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y


V es un subespacio de U, entonces W es un subespacio de U.

Ejemplo 4.3. Pruebe que W = {a+bx+cx2 +dx3 ∈ P3 [x] : 2a−b+3c−d = 0; a+b−4c−2d = 0}


es un subespacio de P3 [x].

Solución. Es claro que W ⊂ P3 [x].


Por otro lado, el polinomio nulo O(x) = 0 = 0 + 0x + 0x2 + 0x3 (vector nulo de P3 [x]) pertenece
a W ya que (

2 · 0 −0 +3 · 0 −0 = 0
0 +0 −4 · 0 −2 · 0 = 0
Sean p(x) = a1 + b1 x + c1 x2 + d1 x3 y q(x) = a2 + b2 x + c2 x2 + d2 x3 polinomios cualesquiera en
W y α ∈ R cualquiera. Entonces
( (
2a1 −b1 +3c1 −d1 = 0 2a2 −b2 +3c2 −d2 = 0
y
a1 +b1 −4c1 −2d1 = 0 a2 +b2 −4c2 −2d2 = 0
Según el corolario 2.4 y la observación 2.8, sólo falta probar que p(x) + αq(x) ∈ W. Pero

p(x) + αq(x) = (a1 + b1 x + c1 x2 + d1 x3 ) + α(a2 + b2 x + c2 x2 + d2 x3 )


= (a1 + αa2 ) + (b1 + αb2 )x + (c1 + αc2 )x2 + (d1 + αd2 )x3

Además

2(a1 + αa2 ) − (b1 + αb2 ) + 3(c1 + αc2 ) − (d1 + αd2 )


= 2a1 + 2αa2 − b1 − αb2 + 3c1 + 3αc2 − d1 − αd2
= (2a1 − b1 + 3c1 − d1 ) + α(2a2 − b2 + 3c2 − d2 ) = 0 (¿por qué?)

138
IV. Espacios Vectoriales

(a1 + αa2 ) + (b1 + αb2 ) − 4(c1 + αc2 ) − 2(d1 + αd2 )


= a1 + αa2 + b1 + αb2 − 4c1 − 4αc2 − 2d1 − 2αd2
= (a1 + b1 − 4c1 − 2d1) + α(a2 + b2 − 4c2 − 2d2 ) = 0 (¿por qué?)

Por lo tanto p(x) + αq(x) ∈ W y en consecuencia, W es un subespacio de P3 [x].

Teorema 4.5. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 ∩ W2 es un


subespacio de V.

Demostración. Dado que W1 , W2 ⊂ V (ya que W1 y W2 son subespacios de V), entonces


W1 ∩ W2 ⊂ V, además, debido a la observación 4.7, se tiene que 0/V ∈ W1 y 0/V ∈ W2 y por lo
tanto 0/V ∈ W1 ∩ W2 .
Sean α ∈ R, u, v ∈ W1 ∩W2 cualesquiera. Entonces u, v ∈ W1 y u, v ∈ W2 y dado que W1 y W2
son subespacios de V, tenemos que u + αv ∈ W1 y u + αv ∈ W2 y por lo tanto u + αv ∈ W1 ∩ W2 .
Luego, en virtud del corolario 4.4 y la observación 4.8, tenemos que W1 ∩ W2 es un subespacio
de V.

Ejercicio 4.4. Dados dos subconjuntos A y B de un espacio vectorial V, definamos el conjunto

A + B = {a + b : a ∈ A y b ∈ B}

Pruebe que si W1 y W2 son subespacios de V, entonces W1 + W2 es un subespacio de V.

Ejercicio 4.5. Sean W1 y W2 dos subespacios de un espacio vectorial V tales que W1 ∩W2 = {0/V }
y V = W1 + W2 . Pruebe que para cada v ∈ V existen únicos vectores w1 ∈ W1 y w2 ∈ W2 tales
que v = w1 + w2 .

Ejercicio 4.6. Sean W1 , W2, . . . , Wn subespacios de un espacio vectorial V. Demuestre que


W1 ∩ W2 ∩ · · · Wn es un subespacio de V.
Sugerencia: Proceda por inducción matemática sobre n y use el teorema 4.5.

139
IV. Espacios Vectoriales

4.3. Combinación Lineal.Indepencia Lineal.


Consideremos una matriz real cuadrada de orden 2
" #
a b
c d

Entonces " # " # " # " # " #


a b 1 0 0 1 0 0 0 0
=a +b +c +d
c d 0 0 0 0 1 0 0 1
Esta expresión es llamada combinación lineal , definamos formalmente este concepto.

Definición 4.4. Sean V un espacio vectorial y v1 , v2 , . . . , vn , v ∈ V. Diremos que v es


combinación lineal de v1 , v2 , . . . , vn si existen escalares α 1 , α2 , . . . , αn ∈ R tales que

v = α 1 v1 + α2 v2 + · · · + αn vn .

Observación 4.10. En la definición 2.4, podemos escoger una cantidad infinita de vectores en
V, en lugar de v1 , v2 , . . . , vn ∈ V, para definir combinación lineal (ver apéndice B).

Ejemplo 4.4.

1. El ejemplo hecho al comienzo de la sección nos dice que cualquier matriz real cuadrada de
orden 2 es combinación lineal de las matrices
" # " # " # " #
1 0 0 1 0 0 0 0
, , , .
0 0 0 0 1 0 0 1

En general, si para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} definimos la matriz Eij ∈


Mm×n (R) como aquella matriz cuya ij-ésima componente es igual a 1 y el resto es 0,
entonces toda matriz A ∈ Mm×n (R) es combinación lineal de las matrices

E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn

2. Cualquier vector p(x) ∈ Pn [x] es combinación lineal de los polinomios 1, x, . . . , xn (¿por


qué?) 

140
Espacios Vectoriales

3. Cualquier vector (x1 , x2 , . . . , xn ) ∈ Rn es combinación lineal de los vectores de Rn

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)

Ejemplo 4.5. Determine si el vector v = (9, 5, 6) es combinación lineal o no de los vectores


v1 = (3, −2, 6) y v2 = (−1, −3, 2)

Solución. Supongamos que el vector v es combinación lineal de los vectores v1 y v2 . Entonces


existen α 1 , α2 ∈ R tales que v = α 1 v1 + α2 v2 , es decir,

(9, 5, 6) = α 1 (3, −2, 6) + α2 (−1, −3, 2) = (3α 1 − α2 , −2α1 − 3α2 , 6α1 + 2α2 )

de donde 
 3α1 −α2 = 9

−2α1 −3α2 = 5

 6α1 +2α2 = 6
Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es
 
3 −1 9
 
 −2 −3 5 
6 2 6

Hallemos la FERF de esta matriz


     
3 −1 9 1 −4 14 1 −4 14
    F2 → F2 + 2F1  
−2 −3 5 F1 → F1 + F 2 −2 −3 5 → 0 −11 33
  →   
F3 → F3 − 6F1
6 2 6 6 2 6 0 26 −78
   
1 −4 14 1 0 2
  F1 → F1 + 4F2  
1
F2 → − 11 F2  0 1 −3  → 0 1 −3
→  
F3 → F3 − 26F2
0 26 −78 0 0 0

Obteniedo α1 = 2 y α2 = −3, por lo tanto v = 2v1 − 3v2 , es decir, v es combinación lineal de


v1 y v2 .

Ejemplo 4.6. Consideremos los polinomios p(x) = −5 − 4x + 9x2 , p1 (x) = 2 − x + 2x2 , p2 (x) =
2 − 2x + 6x2 y p3 (x) = x − 4x2 ¿Es p combinación lineal de p1 , p2 y p3 ?

141
IV. Espacios Vectoriales

Solución. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta
es sı́, entonces existen α1 , α2 , α3 ∈ R tales que p(x) = α1 p1 (x) + α2 p2 (x) + α3 p3 (x), para cada
x ∈ R, esto es,

−5 − 4x + 9x2 = α1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 ) (para cada x ∈ R)

obteniendo el sistema de ecuaciones



 2α1 +2α2 = −5

−α1 −2α2 +α3 = −4

 2α +6α −4α = 9
1 2 3

La matriz ampliada de este sistema es equivalente por filas a la matriz


 
1 0 1 −9
 
1 (¡verifı́quelo!)
 0 1 −1 2 
0 0 0 −12

por lo tanto, el sistema original no tiene solución (¿por qué?), en consecuencia, p no es combi
nación lineal de p1 , p2 y p3 .
Si consideramos el polinomio p4 (x) = 1 − 2x + 3x2 ¿Es p combinación lineal de p1 , p2 , p3 y
p4 ?

Observación 4.11. En términos generales, el problema de decidir si un vector v en un espacio


vectorial V es combinación lineal de algunos vectores v1 , v2 , . . . , vn ∈ V, está relacionado con la
resolución de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 4.5 y 4.6.

Ejercicio 4.7. Pruebe que si A, B ∈ Mm×n (R) son equivalentes por filas, entonces cada fila de
B es combinación lineal de las filas de A y viceversa.

Definición 4.5. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. El conjunto

gen({v1 , v2 , . . . , vn }) =
para algunos escalares α1 , α2 , . . . , αn ∈ R}
v
{w ∈ V : w = α 1 v1 + α 2 v2 + · · · + α n n
es llamado el espacio generado por los vectores v1 , v2 , . . . , vn . Es decir, gen({v1 , v2 , . . . , vn }) es
el conjunto formado por todas las combinaciones lineales de v1 , v2 , . . . , vn .

142
IV. Espacios Vectoriales

1. Según la parte 1 del ejemplo 4.4 se tiene que

Mm×n (R) = gen({E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn })

y según las partes 2 y 3 del mismo ejemplo, tenemos que

Pn [x] = gen({1, x, . . . , xn }) y Rn = gen({e1 , e2 , . . . , en })

2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3, −2, 6), (−1, −3, 2)}) (ver ejemplo 4.5)

3. Del ejemplo 4.6 podemos garantizar que

−5 − 4x + 9x2 ∈
/ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 })

Ejemplo 4.8. Hallar gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 })

Solución. Nótese primero que a + bx + cx2 ∈ gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) si y sólo
si existen escalares α 1 , α2 , α3 ∈ R tales que, para cada x ∈ R,

a + bx + cx2 = α 1 (2 − x + 2x2 ) + α2 (2 − 2x + 6x2 ) + α3 (x − 4x2 )


= (2α 1 + 2α2 ) + (−α1 − 2α2 + α3 )x + (2α1 + 6α2 − 4α3 )x2

Lo que equivale a decir que el sistema de ecuaciones

2α1 +2α2 = a
−α1 −2α2 +α3 = b
2α1 +6α2 −4α3 = c

tiene al menos una solución.


Resolvamos este sistema. La matriz ampliada del sistema es
 
2 2 0 a
 
 −1 −2 1 b 
2 6 −4 c

143
IV. Espacios Vectoriales

Hallemos la FERF de esta matriz


   
2 2 0 a 1 0 1 a+b
   
 −1 −2 1 b  F1 → F1 + F2 −1 −2 1 b
→ 
2 6 −4 c 2 6 −4 c
   
1 0 1 a+b 1 0 1 a+b
F2 → F2 + F1    
→ 0 −2 2 a + 2b F2 → − 1
F2 0 1 −1 − 1
a − b
  2
→ 2 
F3 → F3 − 2F1
0 6 −6 −2a − 2b + c 0 6 −6 −2a − 2b + c
 
1 0 1 a+b
 
F3 → F3 − 6F2  0 1 −1 − 12 a − b 

0 0 0 a + 4b + c

Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solución
si y sólo si a + 4b + c = 0.
En consecuencia

gen({2 − x + 2x2 , 2 − 2x + 6x2 , x − 4x2 }) = {a + bx + cx2 ∈ P3 [x] : a + 4b + c = 0}

Es de hacer notar que el conjunto W, hallado en el ejemplo 4.8, es un subespacio de P3 [x]


. Este resultado no es casual, como veremos en el siguiente teorema.

Teorema 4.6. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Entonces gen({v1 , v2 , . . . , vn })


es un subespacio de V.

Demostración. Definamos S = {v1 , v2 , . . . , vn }. Por definición, gen(S) = gen({v1 , v2 , . . . , vn })


es un subconjunto de V. Además, por la parte 2 del teorema 4.2 y la parte 2 del ejercicio 4.1

0/V = 0(v1 + v2 + · · · + vn ) = 0 · v1 + 0 · v2 + · · · + 0 · vn ∈ gen(S).

Finalmente, sean α ∈ R y u, v ∈ gen(S) cualesquiera. Entonces, por definición de gen(S),


existen β 1 , β2 , . . . , βn , α1 , α2 , . . . , αn ∈ R tales que

u = α 1 v1 + α2 v2 + · · · + αn vn y v = β1 v1 + β2 v2 + · · · + βn vn

Por lo tanto

u + αv = (α1 v1 + α2 v2 + · · · + αn vn ) + α(β1 v1 + β2 v2 + · · · + βn vn )
= (α1 + αβ1 )v1 + (α2 + αβ2 )v2 + · · · + (αn + αβn )vn

144
IV. Espacios Vectoriales

Ası́ que u + αv ∈ gen(S) y en consecuencia gen(S) es un subespacio de V.

Definicion 2.6. Sean V un espacio vectorial y v1, v2, . . . , vn ∈ V. Diremos que v1, v2, . . . , vn
generan a V o que el conjunto S = {v1, v2, . . . , vn} genera a V o que S es un conjunto gen-
erador de V si V = gen(S) = gen({v1, v2, . . . , vn}).

Ejemplo 4.9. Por la parte 1 del ejemplo 4.7 podemos decir que:

1. Los vectores (matrices) E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn generan
a Mm×n (R). 

2. El conjunto {1, x, . . . , xn } genera a Pn [x]. 

3. {e1 , e2 , . . . , en } es un conjunto generador de Rn . 

Ejemplo 4.10. Hallar un conjunto generador del subespacio W de P3 [x] dado en el ejemplo 2.3

Solución. Sabemos que

W = {a + bx + cx2 + dx3 ∈ P3 [x] : 2a − b + 3c − d = 0; a + b − 4c − 2d = 0}

Ası́ que a + bx + cx2 + dx3 ∈ W si y sólo si


(
2a −b +3c −d = 0
a +b −4c −2d = 0

resolvamos este sistema homogéneo. La matriz del sistema es


" #
2 −1 3 −1
1 1 −4 −2

La FERF de esta matriz es


" #
1 0 − 13 −1
(¡verifı́quelo!)
0 1 − 11
3
−1

Por lo tanto, a + bx + cx2 + dx3 ∈ W si y sólo si


(
a − 13 c −d = 0
b − 11
3
c −d = 0

145
IVEspacios Vectoriales

o equivalentemente (
1
a = 3
c +d
11
b = 3
c +d
Haciendo c = 3α y d = β, con α, β ∈ R, obtenemos

a + bx + cx2 + dx3 = (α + β) + (11α + β)x + 3αx2 + βx3 = α(1 + 11x + 3x2 ) + β(1 + x + x3 )

para cada x ∈ R. Luego


W = gen({1 + 11x + 3x2 , 1 + x + x3 })
En consecuencia {1 + 11x + 3x2 , 1 + x + x3 } es un conjunto generador de W.

Teorema 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn , u ∈ V. Si u ∈ gen({v1 , v2 , . . . , vn }),


entonces
gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn })
Demostración. Escojamos un vector v ∈ gen({v1 , v2 , . . . , vn , u}) cualquiera. Entonces existen
α1 , α2 , . . . , αn , α ∈ R tales que v = α1 v1 + α2 v2 + · · · + αn vn + αu.
Pero por hipótesis u ∈ gen({v1 , v2 , . . . , vn }), entonces existen β1 , β2 , . . . , βn ∈ R tales que
u = β1 v1 + β2 v2 + · · · + βn vn .
Luego

v = α1 v1 + α2 v2 + · · · + αn vn + α(β1 v1 + β2 v2 + · · · + βn vn ) = (α1 + αβ1 )v1 + · · · + (αn + αβn )vn

en consecuencia
v ∈ gen({v1 , v2 , . . . , vn })
por lo tanto
gen({v1 , v2 , . . . , vn , u}) ⊂ gen({v1 , v2 , . . . , vn }) (4.4)
Por otro lado, sea v ∈ gen({v1 , v2 , . . . , vn }) cualquiera. Entonces existen α1 , α2 , . . . , αn ∈ R
tales que v = α1 v1 + α2 v2 + · · · + αn vn ası́ que

v = α1 v1 + α2 v2 + · · · + αn vn = α1 v1 + α2 v2 + · · · + αn vn + 0/V = α1 v1 + α2 v2 + · · · + αn vn + 0u

es decir, v ∈ gen({v1 , v2 , . . . , vn , u}) de donde

gen({v1 , v2 , . . . , vn }) ⊂ gen({v1 , v2 , . . . , vn , u}) (4.5)

De (4.4) y (4.5) obtenemos que

gen({v1 , v2 , . . . , vn , u}) = gen({v1 , v2 , . . . , vn })

146
IV. Espacios Vectoriales

Independencia y Dependencia Lineal

Uno de los conceptos más importantes en espacios vectoriales, y en el álgebra lineal en general,
es el de independencia lineal , por lo que pedimos se estudie con mucha detenimiento y cuidado
la presente sección del capı́tulo. Daremos una variedad de ejemplos para tratar de explicar lo
mejor posible dicho concepto.
Dados un espacio vectorial V y vectores v1 , v2 , . . . , vn ∈ V, entonces 0/V = 0v1 +0v2 +· · ·+0vn , es
decir, siempre podemos escribir el vector nulo 0/V como combinación lineal de cualquier cantidad
finita de vectores en V.
Ahora bien, en M2×3 (R) escojamos los vectores
" # " # " #
1 0 −2 2 −3 −4 −4 9 8
A1 = , A2 = y A3 =
−2 5 −3 −1 1 0 −1 7 −6

entonces
" # " # " # " #
0 0 0 1 0 −2 2 −3 −4 −4 9 8
= 2 · A1 − 3 · A2 − A3 = 2 · −3· −
0 0 0 −2 5 −3 −1 1 0 −1 7 −6

En conclusión, la única manera de escribir al vector nulo, como combinación lineal de


una cantidad finita de vectores, no necesariamente es única.
Estos dos ejemplos dan pie a la siguiente definición.

Definición 4.7. Sean V un espacio vectorial y v1 , v2 , . . . , vn ∈ V. Diremos v1 , v2 , . . . , vn son


linealmente independientes o que {v1 , v2 , . . . , vn } es un conjunto linealmente indepen
diente si la única manera de escribir el vector nulo 0/V, como combinaci´on lineal de los vec-
tores v1, v2, . . . , vn, es aquella en la cual todos los escalares son iguales a cero (0), esto es, si α 1v1
+ α2v2 + · · · + αnvn = 0 n = 0. /V , entonces α 1 = α 2 = · · · = α
Diremos que v1 , v2 , . . . , vn son linealmente dependientes o que {v1 , v2 , . . . , vn } es un con-
junto linealmente dependiente si v1 , v2 , . . . , vn no son linealmente independientes, es de-
cir, existen escalares α 1 , α 2 , . . . , α n ∈ R, no todos nulos, tales que α 1 v1 + α 2 v2 + · · · + α /nVv.n
=0
Ejemplo 4.11.

1. Según el ejemplo dado previamente a la definición 4.7, se tiene que A1 , A2 , A3 son lineal
mente dependientes. 

147
IV. Espacios Vectoriales

2. No es difı́cil probar que los conjuntos

{1, x, . . . , xn }, {e1 , e2 , . . . , en } y

{E11 , E12 , . . . , E1 n, E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn }

son linealmente independientes (en sus correspondientes espacios). 

3. Dados un espacio vectorial V y v1 , v2 , . . . , vn ∈ V, entonces {v1 , v2 , . . . , vn , 0/V } es linealmen-


te dependiente pues
0/V = 0v1 + 0v2 + · · · + 0vn + 1 0/V

es decir, en un espacio vectorial, cualquier conjunto finito de vectores que contenga al vector
nulo, es linealmente dependiente. 

4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es linealmente


independiente ya que si αv = 0/V y dado que v 6= 0/V , entonces α = 0 (en virtud de la parte
3 del teorema 4.2). 

Antes de dar algún otro ejemplo, debemos hacer notar que para determinar si un conjunto de
vectores {v1 , v2 , . . . , vn }, en un espacio vectorial V, es linealmente independiente o dependiente,
debemos plantearnos la ecuación α1 v1 + α2 v2 + · · · + αn vn = 0/V , la cual conduce, en general, a
n. Si la solución de 2 , . . . , α un sistema de ecuaciones homogéneo con n incógnitas, a saber, α 1 , α
este sistema es única, y en consecuencia α 1 = α 2 = · · · = α n = 0, entonces {v1 , v2 , . . . , vn } es un
conjunto linealmente independiente, en caso contrario, {v1 , v2 , . . . , vn } es un conjunto linealmente
dependiente.

Ejemplo 4.12. Consideremos los vectores p1 (x), p2 (x), p3 (x), p4 (x) ∈ P2 [x] dados en el
ejemplo
4.6. Decidir si estos vectores son o no linealmente independientes.

Solución. Como se comentó antes del ejemplo, debemos estudiar la ecuación


(para todo x ∈ R)
α1 p1 (x) + α 2 p2 (x) + α 3 p3 (x) + α 4 p4 (x) = 0
Pero

α1 p1 (x) + α 2 p2 (x) + α 3 p3 (x) + α 4 p4 (x) = α 1 (2 − x + 2x2 ) + α 2 (2 − 2x + 6x2 ) + α 3 (x −


4x2 )
+α4 (1 − 2x + 3x2 )
= (2α1 + 2α 2 + α 4 ) + (−α1 − 2α 2 + α 3 − 2α

4 )x

+(2α1 + 6α 2 − 4α 3 + 3α 4 )x2

148
IV. Espacios Vectoriales

Obteniendo el siguiente sistema de ecuaciones homogéneo



 2α1 +2α2
 +α4 = 0
−α1 −2α2 +α3 −2α4 = 0

 2α +6α −4α +3α = 0
1 2 3 4

El cual sabemos tiene infinitas soluciones (¿por qué?) y en consecuencia los polinomios p1 (x),
p2 (x), p3 (x) y p4 (x) son linealmente dependientes.

Ejemplo 4.13. Consideremos los polinomios p1 (x), p2 (x) y p4 (x) del ejemplo anterior ¿son
linealmente independientes?

Solución. Como en el ejemplo anterior, debemos plantearnos la ecuación

α1 p1 (x) + α2 p2 (x) + α4 p4 (x) = 0 (para todo x ∈ R) (4.6)

Obteniendo el sistema 
 2α1 +2α2 +α4 = 0

−α1 −2α2 −2α4 = 0

 2α +6α +3α = 0
1 2 4

La matriz de este sistema es  


2 2 1
 −1 −2 −2 
 
2 6 3
Hallemos su FERF.
     
2 2 1 1 0 −1 1 0 −1
    F2 → F2 + F1  
−1 −2 −2 F → F + F →
  1 1 2
→  −1 −2 −2 
F3 → F3 − 2F1
 0 −2 −3 
2 6 3 2 6 3 0 6 5
     
1 0 −1 1 0 −1 1 0 −1

F2 → − 2 F2 
1
0 1 3  F → F − 6F 3 F → − F 1  0 3 
→ 2  3 3 2
→ 0 1 2  3 4 3
→
1 2 
0 6 5 0 0 −4 0 0 1
 
1 0 0
F1 → F1 + F3 
→  0 1 0
 
F2 → F2 − 32 F3
0 0 1

149
IV. Espacios Vectoriales

De donde
α1 = α2 = α4 = 0

En consecuencia la ecuación 4.6 tiene como única solución la trivial y por lo tanto p1 (x), p2 (x)
y
p4 (x) son linealmente independientes.
# " # " #
5 4 3 −1 1 −1
, A2 = y A3 = . ¿Es
Ejemplo 4.14. Sean A1 = 2 −1 1 3 −4 5
{A1 , A2 , A3 } un conjunto linealmente independiente?

Solución. Sean α1 , α2 , α3 ∈ R tales que α1 A1 + α2 A2 + α3 A3 = 0/2 . Entonces


" " # " #
5α1 + 3α2 + α3 4α1 − α2 − α3 0 0
=
2α1 + α2 − 4α3 −α1 + 3α2 + 5α3 0 0

De donde 
 5α1 +3α2 +α3 = 0
 4α −α2 −α3 = 0
1

 2α1 +α2 −4α3 = 0


 −α +3α +5α = 0
1 2 3

Resolvamos este sistema. La matriz del sistema es


 
5 3 1
 4 −1 −1 

 2 1 −4 
−1 3 5

Hallemos su FERF.
     
5 3 1 1 4 2 1 4 2
F2 → F2 − 4F1
4 −1 −1  4 −1 −1  → −17 −9 
   0
F1 → F1 − F2 F3 → F3 − 2F1
2 1 −4  → 2 1 −4  0 −7 −8 
  F4 → F4 + F1 
−1 3 5 −1 3 5 0 7 7
     
1 4 2 1 4 2 1 0 −2
F1 → F1 − 4F2

 0 7
7  0 1 1  0 1 1
F2 ↔ F4 F2 → 17 F2 F3 → F3 + 7F2
→ −7 −8  → 0 −7 −8 
 0  F4 → F4 + 17F2  0 0 −1 
0 −17 −9 0 −17 −9 0 0 8

150
IV. Espacios
Vectoriales
   
1 0 −2 1 0 0
F1 → F1 + 2F3

 0 1 1  0 1 0
F3 → −F3 F2 → F2 − F3
→ 1 1
 0 0  F → F − 8F  0 0 
4 4 3
0 0 8 0 0 0

Por lo tanto α1 = α2 = α3 = 0 y en consecuencia {A1 , A2 , A3 } es linealmente independiente.

Teorema 4.8. Sean V un espacio vectorial y u, v ∈ V. Los vectores u, v son linealmente depen
dientes si y sólo si existe α ∈ R tal que u = αv ó v = αu.

Demostración. Supongamos que u, v son linealmente dependientes. Entonces existen λ, β ∈


R,
noSiambos β + βv = 0/V . β
λ 6= 0,nulos, talesuque
entonces = −λuv. Haciendo α = − , obtenemos que u = αv.
λ λ
Si λ = 0, entonces βv = 0/V y además, por hipótesis, β 6= 0 y en consecuencia v = 0/V = 0u.
Haciendo α = 0, obtenemos v = αu.
Supongamos ahora que existe α ∈ R tal que u = αv ó v = αu. En consecuencia 1u+(−α)v = 0/V
ó αu + (−1)v = 0/V , en cualquier caso, concluimos que u, v son linealmente dependientes.

Teorema 4.9. Sea A ∈ Mm×n (R). Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente
dependientes en Mm×1 (R) si y sólo si el sistema Ax = 0/m×1 tiene soluciones no triviales.

Demostración. Sea A ∈ Mm×n (R). Entonces A(1) , A(2) , . . . , A(n) son linealmente dependientes
si y sólo si existen escalares α 1 , α2 , . . . , αn ∈ R, no todos nulos, tales que

α1 A(1) + α2 A(2) + · · · + αn A(n) = 0/m×1

Por la observación 4.20


 
α1
α 
2
α1 A(1) + α2 A(2) + · · · + αn A(n) = A .
 . 
αn

Ası́ que A(1) , A(2) , . . . , A(n) son linealmente dependientes si y sólo si el sistema Ax = 0/m×1 tiene
soluciones no triviales.

151
IV. Espacios Vectoriales

Como consecuencia del teorema 4.9 obtenemos los siguientes corolarios.

Corolario 4.10. Sea A ∈ Mn×n (R). Entonces las siguientes proposiciones son equivalentes.

1. det(A) 6= 0.

2. Las columnas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.

3. Las filas de A, A(1) , A(2) , . . . , A(n) , son linealmente independientes.

Demostración. (Ejercicio)

Corolario 4.11. Sea A ∈ Mm×n (R). Si F es la FERF de A, entonces las columnas de F


con los pivotes, representan las columnas de A que son linealmente independientes, es decir, si
F (j1 ) , F (j2 ) , . . . , F (jr ) son las columnas de F con los pivotes, entonces A(j1 ) , A(j2 ) , . . . , A(jr ) son las
columnas de A que son linealmente independientes.

Demostración. (Ejercicio)

Teorema 4.12. Sean {v1 , v2 , . . . , vn } un subconjunto linealmente independiente de un espacio


vectorial V y u ∈ V tal que u ∈
/ gen({v1 , v2 , . . . , vn }). Entonces {v1 , v2 , . . . , vn , u} es linealmente
independiente.

Demostración. Sean α1 , α2 , . . . , αn , α ∈ R tales que

α1 v1 + α2 v2 + · · · + αn vn + αu = 0/V

Si α 6= 0, entonces
 α   α   α 
1 2 n
u= − v1 + − v2 + · · · + − vn
α α α
lo que contradice la hipótesis de que u ∈
/ gen({v1 , v2 , . . . , vn }). Por lo tanto α = 0, de donde

α1 v1 + α2 v2 + · · · + αn vn = 0/V

y dado que {v1 , v2 , . . . , vn } es linealmente independiente, se tiene que α1 = α2 = · · · = αn = 0.


En consecuencia {v1 , v2 , . . . , vn , u} es linealmente independiente.

152
IV. Espacios Vectoriales

4.4.Base y dimensión un espacio


vectorial,cambio de base.
Según el ejemplo 4.9 y la parte 2 del ejemplo 4.11 tenemos que:

1. {1, x, . . . , xn } es un conjunto generador de Pn [x] y además es linealmente independiente.

2. {e1 , e2 , . . . , en } es un conjunto linealmente independiente y genera a Rn .

3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es un conjunto generador de
Mm×n (R) y es linealmente independiente.

Conjuntos con estas caracterı́sticas nos son de mucha utilidad en el estudio de los espacios
vectoriales y dan pie a la siguiente definición.

Definición 4.8. Sea V un espacio vectorial. Un conjunto {v1 , v2 , . . . , vn } ⊂ V es una base de


V si gen({v1 , v2 , . . . , vn }) = V, es decir, {v1 , v2 , . . . , vn } es un conjunto generador de V.2. {v1 ,
v2 , . . . , vn } es linealmente independiente.

Ejemplo 4.15.

1. {1, x, . . . , xn } es una base de Pn [x].


2. {e1 , e2 , . . . , en } es una base de
Rn .

3. {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n . . . , Em1 , Em2 , . . . , Emn } es una base de Mm×n (R).

Cada una de estas bases es llamada base canónica o estándar del correspondiente espacio.

Ejemplo 4.16. Ningún conjunto finito de polinomios en x es una base de P[x], en efecto, consi
deremos un conjunto finito cualquiera de polinomios, digamos {p1 (x), p2 (x), . . . , pn (x)}, entonces
para cualesquiera α1 , α2 , . . . , αn ∈ R tenemos que α1 p1 (x)+α2 p2 (x)+· · ·+αn pn (x) es un polinomio
a lo sumo de grado k, donde k es el máximo entre los grados de los polinomios p1 , p2 , . . . , pn ,
es decir, cualquier combinación lineal de los polinomios p1 , p2 , . . . , pn es un polinomio a lo sumo

153
IV. Espacios Vectoriales

de grado k, en consecuencia p(x) = xk+1 ∈ P[x] pero p(x) ∈


/ gen({p1 (x), p2 (x), . . . , pn (x)}), de
donde gen({p1 (x), p2 (x), . . . , pn (x)}) 6= P[x]. Lo cual prueba lo afirmado al principio.
Lo anterior nos dice que P[x] no tiene una base finita. Aunque en este capı́tulo no trataremos
las bases infinitas (ver apéndice B), afirmamos que una base para P[x] es

{1, x, x2 , . . . , xn , . . .}

Ejemplo 4.17. Hallar una base del subespacio


(" # )
a b
W= : −5a + 6b + 4c − 2d = 0
c d
" #
a b 5
Solución. ∈ W si y sólo si −5a+ 6b+ 4c −2d = 0 o bien, si y sólo si d = − a+ 3b+ 2c.
c d 2
Ası́" que #
a b
∈ W si y sólo si
c d
" # " # " # " # " #
a b a b 1 0 0 1 0 0
= =a +b +c
c d c − 52 a + 3b + 2c 0 − 52 0 3 1 2

Por lo tanto (" # " # " #)!


1 0 0 1 0 0
W = gen , ,
0 − 52 0 3 1 2
No es difı́cil probar que (" # " # " #)
1 0 0 1 0 0
, ,
0 − 52 0 3 1 2
es linealmente independiente, y en consecuencia es una base de W.

Ejemplo 4.18. Considere los polinomios p1 (x), p2 (2), p4 (x) ∈ P2 [x] del ejemplo 4.13. Pruebe que
β = {p1 (x), p2 (x), p4 (x)} es una base de P2 [x].

Solución. Sabemos que el conjunto β = {p1 (x), p2 (x), p4 (x)} es linealmente independiente, en
virtud del ejemplo 4.13, ası́ que sólo falta probar que dicho conjunto genera a P2 [x]. Sea p(x) = a+
bx + cx2 ∈ P2 [x] cualquiera, queremos probar que la ecuación α 1 p1 (x) + α 2 p2 (x) + α 4 p4 (x) =
p(x),

154
IV. Espacios Vectoriales

para todo x ∈ R, tiene solución para α1 , α2 , α4 ∈ R. Pero dicha ecuación es equivalente al sistema
de ecuaciones 
 2α1 +2α2 +α4 = a

−α1 −2α2 −2α4 = b

 2α +6α +3α = c
1 2 4

La matriz de este sistema es  


2 2 1
 
 −1 −2 −2 
2 6 3
y por el ejemplo 4.13, sabemos que es equivalente por filas a I3 , en consecuencia, el sistema en
cuestión, tiene solución (única), lo cual concluye la prueba.

Ejemplo 4.19. Considere los polinomios p1 (x), p2 (x), p3 (x) y p4 (x) del ejemplo 2.12. Entonces
{p1(x), p2(x), p3(x), p4(x)} no es una base de P2[x], por ser linealmente dependiente, sin embargo
es un conjunto generador de P2[x]. El conjunto {p1(x), p2(x)} tampoco es una base de P2[x], por
no ser un conjunto generador de P2[x], pero es linealmente independiente. 

La unicidad de los escalares en el ejemplo 4.18 es una regla la cual enunciaremos en el siguiente
teorema.

Teorema 4.13. Sea β = {v1 , v2 , . . . , vn } una base de un espacio vectorial V. Entonces para cada
v ∈ V existen únicos escalares α 1 , α2 , . . . , αn ∈ R tales que v = α 1 v1 + α2 v2 + · · · + αn vn .

Demostración. Sea v ∈ V un vector cualquiera. Dado que β = {v1 , v2 , . . . , vn } es una base


de V, entonces β genera a V, ası́ que la existencia de los escalares en el enunciado del teorema
está garantizada. Supongamos que existen escalares α 1 , α2 , . . . , αn , λ1 , λ2 , . . . , λn ∈ R tales que

v = α 1 v1 + α2 v2 + · · · + αn vn y v = λ1 v1 + λ2 v2 + · · · + λn vn

Luego

0/V = v − v
= (α1 v1 + α2 v2 + · · · + αn vn ) − (λ1 v1 + λ2 v2 + · · · + λn vn )
= (α1 − λ1 )v1 + (α2 − λ2 )v2 + · · · + (αn − λn )vn

Como β = {v1 , v2 , . . . , vn } es una base, entonces β es linealmente independiente, por lo tanto

α1 − λ1 = α 2 − λ2 = · · · = αn − λn = 0

155
IV. Espacios Vectoriales

es decir,
α1 = λ1 , α2 = λ2 , . . . , αn = λn

con lo cual obtenemos la unicidad de los escalares.

N´otese que hemos hallado dos bases de P2[x], a saber la base can´onica β c = {1, x, x2} y la
base β = {p1(x), p2(x), p4(x)} del ejemplo 4.18, y ambas tienen la misma cantidad de vectores, en
este caso tres (3), esta situaci´on no es para nada casual, como veremos en el siguiente teorema.

Teorema 4.14.Sean β 1 = {u1 , u2 , . . . , un } y β 2 = {v1 , v2 , . . . , vm } dos bases de un


espacio vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base
finita,entonces todas sus bases tienen la misma cantidad de elementos.
Demostración. Supongamos que m < n. Dado que β 2 es una base de V, entonces, para
cada
1j , α2j , . . . , αmj ∈ R tales que j ∈ {1, . . . , n}, existen escalares α

uj = α 1j v1 + α2j v2 + · · · + αmj vm

Sean λ 1 , λ2 , . . . , λn ∈ R tales que


/
V
λ1 u1 + λ2 u2 + · · · + λn un = 0
Luego

0/V = λ1 (α11 v1 + α21 v2 + · · · + αm1 vm ) + λ2 (α12 v1 + α22 v2 + · · · + αm2 vm ) + · · · +


+λn (α1n v1 + α2n v2 + · · · + αmn vm )
= (α11 λ1 + α12 λ2 + · · · + α1n λn )v1 + (α21 λ1 + α22 λ2 + · · · + α2n λn )v2 + · · · +
+(αm1 λ1 + αm2 λ2 + · · · + αmn λn )vm

Pero β 2 = {v1 , v2 , . . . , vm } es linealmente independiente, por ser una base de V, ası́ que

 α11 λ1 + α12 λ2 + · · · + α1n λn = 0
 α λ +α λ +···+α λ = 0
21 1 22 2 2n n
. . . . .
 . .

αm1 λ1 + αm2 λ2 + · · · + αmn λn = 0
Este es un sistema de ecuaciones lineales con m ecuaciones y n incógnitas que son λ1 , λ2 , . . . , λn .
Como m < n, al usar el teorema 4.16, concluimos que el sistema anterior tiene soluciones no
triviales, es decir, existen λ1 , λ2 , . . . , λn ∈ R, no todos nulos, tales que

λ1 u1 + λ2 u2 + · · · + λn un = 0/V

156
IV. Espacios Vectoriales

es decir, β1 = {u1 , u2 , . . . , un } es linealmente dependiente, lo que contradice el hecho de que β1


es una base de V, por lo tanto m ≥ n. Análogamente se prueba que m ≤ n y por lo tanto m = n.

El teorema 2.14 da pie a la siguiente definición.

Definición 4.9. Sea V un espacio vectorial. Diremos que V tiene dimensión cero ó dimen
sión nula si V = {0/V }, diremos que la dimensión de V es n si V tiene una base con n elementos,
en ambos casos diremos que V tiene dimensión finita. Si V no posee una base finita, diremos
que V tiene dimensión infinita. En todos los casos la dimensión de V se denota por dim(V).

Ejemplo 4.20.

1. Del ejemplo 4.15 podemos garantizar que dim(Pn [x]) = n + 1, dim(Mm×n (R)) = mn y
dim(Rn ) = n.

2. Si W es el subespacio del ejemplo 4.17, entonces dim(W) = 3.

3. El espacio vectorial P[x] es un espacio de dimensión infinita (ver ejemplo 4.16).

Observación 4.13. El problema de encontrar la dimensión de un espacio vectorial está rela


cionado con la búsqueda de una base de dicho espacio, como vimos en el ejemplo 4.20.

Teorema 4.15. Sean V un espacio vectorial de dimensión n y v1 , v2 , . . . , vm ∈ V.

1. Si {v1 , v2 , . . . , vm } es linealmente independiente, entonces m ≤ n.

2. Si {v1 , v2 , . . . , vm } genera a V, entonces m ≥ n.

Demostración. Sea β = {u1 , u2 , . . . , un } una base de V.

1. Suponga que m > n y haga una prueba análoga a la del teorema 4.14.

2. ¡Ejercicio!

Como consecuencia del teorema 4.15 se tiene el siguiente teorema.

157
IV. Espacios Vectoriales

Teorema 4.16. Sean V un espacio vectorial de dimensión n y S = {v1 , v2 , . . . , vn } ⊂ V.

1. Si S es linealmente independiente, entonces S es una base de V.

2. Si S genera a V, entonces S es una base de V.

Demostración. ¡Ejercicio!
Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el
teorema 4.12 y para la parte 2 use el teorema 4.7.

Teorema 4.17. Sea W un subespacio de un espacio vectorial de dimensión finita V. Entonces


dim(W) ≤ dim(V). Además, si dim(W) = dim(V), entonces W = V.

Demostración. Sean dim(V) = n y β W una base de W. Entonces β W es linealmente


indepen
diente en W, luego β W es linealmente independiente en V (¿por qué?). Por lo tanto, por la
parte
1 el teorema 2.15, β W tiene a lo sumo n elementos, esto es, dim(W) ≤ n = dim(V).
Además, si dim(W) = dim(V), entonces β W es un conjunto linealmente independiente con
n
elementos. Por lo tanto β W es una base de V (¿por qué?). En consecuencia W = gen(β W ) = V.

Observación 4.14. Todo espacio vectorial que contenga un subespacio de dimensién infinita,
es también de dimensión infinita.

Ejemplo 4.21. Sean a, b ∈ R cualesquiera. Entonces P[x] puede verse como un subespacio de
C [ a , b ] (¿por qué?) y como P[x] tiene dimensión finita (ver parte 3 de ejemplo 4.20), entonces,
por la observación 4.14, C [ a , b ] de dimensión infinita.

Teorema 4.18. Sea V un espacio vectorial de dimensión n y S = {v1 , v2 , . . . , vm } ⊂ V.

1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β .

2. Si S genera a V, entonces existe una base β de V tal que β ⊂ S.

Demostración.

1. Dado que S es linealmente independiente, entonces m ≤ n, según la parte 1 del


teorema
2.15. 158
IV. Espacios Vectoriales

Si S genera a V, entonces S es una base de V, ası́ que β = S es una base de V que contiene
a S. De lo contrario, existe un vector vm+1 ∈ V tal que vm+1 ∈
/ gen({v1 , v2 , . . . , vm }). Luego
{v1 , v2 , . . . , vm , vm+1 } es linealmente independiente, en virtud del teorema 4.12.

Si {v1 , v2 , . . . , vm , vm+1 } genera a V, entonces β = {v1 , v2 , . . . , vm , vm+1 } es una base de V


tal que S ⊂ β . Sino, podemos escoger vm+2 ∈ V tal que vm+2 ∈/ gen({v1 , v2 , . . . , vm , vm+1 })
y al igual que antes {v1 , v2 , . . . , vm , vm+1 , vm+2 } es linealmente independiente.

Continuamos con este proceso hasta completar un conjunto linealmente independiente β =


{v1 , v2 , . . . , vm , vm+1 , . . . , vn }, el cual es, por lo tanto, una base de V y además S ⊂ β .

2. ¡Ejercicio!

Sugerencia: Si S es linealmente independiente, entonces β = S es la base buscada, de lo


contrario existe k ∈ {1, . . . , m} tal que vk ∈ gen({v1 , v2 , . . . , vk−1, vk+1 , . . . , vm }). Continuar
este proceso hasta obtener la base β buscada.

4.4.2 Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz

En la observación 4.9 se afirmó que en la presente sección se probarı́a formalmente, usando el


corolario 2.4, que los conjuntos S y R, definidos en la parte 3 del ejemplo 2.1, son subespacios
de Mn×1 (R) y Mm×1 (R), respectivamente. Antes que nada definiremos más formalmente dichos
conjuntos.

Definición 4.10. Consideremos una matriz A ∈ Mm×n (R). El conjunto

N(A) = Ker(A) = {x ∈ Mn×1 (R) : Ax = 0/m×1 }

es llamado espacio nulo, núcleo o kernel de A; y el conjunto

Im(A) = {y ∈ Mm×1 (R) : Ax = y para algún x ∈ Mn×1 (R)}

se conoce como imagen o recorrido de A.

Observación 4.15. Notemos que por definición y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R) tal
que Ax = y.

159
IV. Espacios Vectoriales

 
1 0 2 −3
 
F1 ↔ F2  0 1 −1 4 

0 0 0 0
 
x1
x2
Ası́ que ∈ N(A) si y sólo si
 x3 
 
x4
(
x1 +2x3 −3x4 = 0
x2 −x3 +4x4 = 0
o bien (
x1 = −2x3 + 3x4
x2 = x3 − 4x4
De donde        
x1 −2x3 + 3x4 −2 3
 x2   x3 − 4x4   1  −4 
= = x3 + x4
x
 3   x3   1   0 
x4 x4 0 1
Por lo tanto    
 −2 3 
 
  1   −4  
N(A) = gen ,
 1   0 
 0 1 
No es difı́cil probar que el conjunto
   
 −2 3 
 1 −4 

,
 
 1   0 
 0 1 

es linealmente independiente (¡pruébelo!) y por lo tanto es una base de N(A). Ası́ que n(A)
 =
 2.
  x1
y1
Por otro lado, sea y =  y  ∈ M3×1 (R). Entonces y ∈ Im(A) si y sólo si existe x =  x2 ∈
 2  
y3  x3 
x4
M4×1 (R) tal que Ax = y, es decir, y ∈ Im(A) si y sólo si el sistema Ax = y tiene solución.

160
IV. Espacios Vectoriales

Resolvamos entonces este sistema, la matriz ampliada de este sistema es


 
2 −3 7 −18 y1
 
[A|y] =  −2 0 −4 6 y2 
2 −9 13 −42 y3
La cual es equivalente por filas a la matriz (¡verifı́quelo!)
 
1 0 2 −3 − 12 y2
 
1 1
 0 1 −1 4 − y
3 1
− y
3 2 
0 0 0 0 −3y1 − 2y2 + y3
Por lo tanto y ∈ Im(A) si y sólo si

−3y1 − 2y2 + y3 = 0 (¿por qué?)

o equivalentemente
y3 = 3y1 + 2y2

En consecuencia        
y1 y1 1 0
       
y =  y2  =  y2  = y 1 0
  + y 1  1 
y3 3y1 + 2y2 3 2
y por lo tanto    
 1 0 
   
Im(A) = gen   0  ,  1  
 
 3 2 
Al igual que antes, no es difı́cil probar que
   
 1 
   0 
0 , 1
   
 3 2 
es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.

Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A están en las
columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,
   
2 −3
 −2  ,  0
   
2 −9

161
IV. Espacios Vectoriales

son linealmente independientes (use el corolario 2.11) y además


   
1   1  
 0 2 −3 7 −18 2
  0   
A =  −2 0 −4 6  =  −2 
  0
 0  2 −9 13 −42   2
0 0

y    
0   0  
 1 2 −3 7 −18 −3
  1  
A =  −2 0 −4 6  = 0 
 0 
 0  2 −9 13 −42   −9
0 0
es decir    
2 −3
   
 −2 ,
  0  ∈ Im(A)
2 −9
y por lo tanto    

 2 −3 
  
 −2  ,  0 

 
2 −9 
es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 4.16
tenemos que    
 2 −3 
   
−2  ,  0 
 
 2 −9 
es una base para Im(A).
Este procedimiento es válido al momento de hallar una base para Im(A) y es una manera más
sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no
es necesario saber para que valores de y el sistema Ax = y tiene solución.
Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A).

Algoritmo para hallar bases para N(A) e Im(A), donde A ∈ Mm×n (R).

Paso 1. Hallar la FERF de la matriz A.

162
IV. Espacios Vectoriales

Paso 2. La matriz hallada en el paso previo, nos permite escribir la solución del sistema
Ax = 0/m×1 como combinación lineal de ciertos vectores linealmente independientes,
dichos vectores forman un base para N(A).

Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan
las columnas de A que forman una base para Im(A).

Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados. Con-
sideremos una matriz A ∈ Mm×n (R). Denotaremos por C(A) al espacio generado por las
columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio
generado por las filas de A, el cual es llamado espacio fila de A, esto es

C(A) = gen({A(1) , A(2) , . . . , A(n) })

y
R(A) = gen({A(1) , A(2) , . . . , A(m) })

Teorema 4.20. Si A, B ∈ Mm×n (R) son tales que A y B son equivalentes por filas, entonces

1. C(A) = Im(A).

2. R(A) = R(B).

3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A).

4. r(A) = r(B) y n(A) = n(B).

5. r(A) + n(A) = n.

Demostración.

1. Por definición de Im(A) sabemos que y ∈ Im(A) si y sólo si existe x ∈ Mn×1 (R) tal que
Ax = y.
 
x1
 x2 
Si hacemos x = . , entonces
.
xn

y = Ax = x1 A(1) + x2 A(2) + · · · + xn A(n) (ver observación 1.20)

es decir, y ∈ Im(A) si y sólo si y ∈ gen({A(1) , A(2) , . . . , A(n) }) = C(A).

En consecuencia C(A) = Im(A).

163
IV. Espacios Vectoriales

2. Como A y B son equivalentes por filas, entonces cada fila de B es combinación lineal de
las filas de A y viceversa (ver ejercicio 4.7), es decir, para cada i ∈ {1, . . . , m} se tiene que
B(i) ∈ gen({A(1) , A(2) , . . . , A(m) }) y A(i) ∈ gen({B(1) , B(2) , . . . , B(m) }). En consecuencia

R(A) = R(B)

3. Sea F ∈ Mm×n (R) la FERF de A. Entonces las filas no nulas de F son linealmente indepen
dientes (¿por qué?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el
número de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 R(A) = R(F
), ası́ que dim(R(A)) = dim(R(F )) = k.
Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son
linealmente independientes (en virtud del corolario 4.11) y que en consecuencia forman una
base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) = k =
dim(R(A)) y por la parte 1 tenemos que

dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A)

4.Queda como ejercicio.

5.Queda como ejercicio.

Corolario 4.21. A ∈ Mn×n (R) es invertible si y sólo si r(A) = n.

Demostración. ¡Ejercicio!

Corolario 4.22. Sean A ∈ Mm×n (R) y b ∈ Mm×1 (R). Entonces el sistema Ax = b tiene al
menos una solución si y sólo si r([A|b]) = r(A).

Demostración. ¡Ejercicio!

Ejemplo 4.23. Hallar el espacio fila, el espacio columna, el espacio nulo, la imagen, y una base
para cada uno de estos espacios; y la nulidad y el rango de la matriz
 
2 2 −6 1 8
 −4 −1 −3 −2 −19 
A=
 1 1 −3 1 6 
2 4 −16 3 14

164
IV. Espacios Vectoriales

Solución. Sólo hace falta hallar la FERF de A.


   
2 2 −6 1 8 1 1 −3 1 6
−4 −1 −3 −2 −19  −4 −1 −3 −2 −19 
A= F1 ↔ F3
 1 1 −3 1 6  → 2 2 −6 1 8 
 
2 4 −16 3 14 2 4 −16 3 14
   
1 1 −3 1 6 1 1 −3 1 6
F2 → F2 + 4F1
→  0 3 −15 2 5   0 1 −5 1 3
F3 → F3 − 2F1 F2 ↔ F2 − F4
0 0 0 −1 −4  → 0 0 0 −1 −4 
F4 → F4 − 2F1  
0 2 −10 1 2 0 2 −10 1 2
   
1 0 2 0 3 1 0 2 0 3
F1 → F1 − F2 0 1 −5 1 3  F2 → F2 + F3 0 1 −5 0 −1 
→ →
F4 → F4 − 2F2  0 0 0 −1 −4  F4 → F4 − F3   0 0 0 −1 −4 
0 0 0 −1 −4 0 0 0 0 0
 
1 0 2 0 3
 0 1 −5 0 −1 
F3 → −F3
→ 0 0 0 1 4 

0 0 0 0 0
 
x1
x2
Ası́ que x3 ∈ N(A) si y sólo si
 
 x4 
x5

 x1
 +2x3 +3x5 = 0
x2 −5x3 −x5 = 0

 x4 +4x5 = 0

o equivalentemente 
 x1 = −2x3 − 3x5

x = 5x3 + x5
 2
 x = −4x
4 5

165
IV. Espacios Vectoriales

Luego        
x1 −2x3 − 3x5 −2 −3
x2   5x3 + x5 5  1
 x3 = x3  = x3  1 + x5 0
   
 x4   −4x5   0   −4 
x5 x5 0 1
Por lo tanto, una base para el espacio nulo de A es:
   
−2 −3
 
5   1 

 1 , 0 
 
 
 0   −4 
 0 1 

y ası́    


−2 −3
 
  5  1 

N(A) = gen 1 , 0
     
 0   −4 
 
 0 1 
Además, una base para el espacio fila de A es:
nh i h i h io
1 0 2 0 3 , 0 1 −5 0 −1 , 0 0 0 1 4

luego
nh i h i h io
R(A) = gen 1 0 2 0 3 , 0 1 −5 0 −1 , 0 0 0 1 4

Como los pivotes de la FERF de A están en las columnas 1,2 y 4, entonces las columnas 1,2 y
4 de A forman una base para el espacio imagen o espacio columna de A, es decir,
     
 2 2 1 
 −4   −1   −2 
, ,
 1   1   1 
 2 4 3 

es una base para C(A) = Im(A) y en consecuencia

166
IV. Espacios Vectoriales

     
 2 2 1 
 −4   −1   −2 
C(A) = Im(A) = gen , ,
 1   1   1 
 2 4 3 
Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) =
dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.

Ejercicio 4.8. Pruebe que si A ∈ Mn×n (R), entonces existe k ≤ n tal que para cada r ≥ k
se
cumple
2 k

 y {0
/
n×1 } ⊂ N(A) ⊂ N(A ) ⊂ · · · ⊂ N A .
1. N (Ar ) = N Ak  
2. Im (Ar ) = Im Ak e Im Ak ⊂ · · · ⊂ Im(A2 ) ⊂ Im(A) ⊂ Mn×1 (R).

Además, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias.

167
IV. Espacios Vectoriales

Matriz de Cambio de Base.

En este capı́tulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales
reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones y teoremas
expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales
reales.

Sea V un espacio vectorial de dimensión n. Dada una base β = {v1 , v2 , . . . , vn } de V, existen


muchas formas de ordenar los vectores en β , a saber n! formas distintas, haremos una diferen-
cia
entre unas y otras definiendo lo que llamaremos base ordenada.

Definición 4.3.1. Sea V un espacio vectorial de dimensión n. Una base ordenada de V es


una
n-upla ordenada (v1 , v2 , . . . , vn ) tal que {v1 , v2 , . . . , vn } es una base de V.

Observación 4.3.1. Para no recargar mucho la notación escribiremos {v1 , v2 , . . . , vn } en


lugar de (v1 , v2 , . . . , vn ) y para no caer en confusión diremos {v1 , v2 , . . . , vn } es una base
ordenada de
V.

Ejemplo 4.3.1.

1. En R2 dos bases ordenadas distintas son: βc = {(1, 0), (0, 1)} y β = {(0, 1), (1, 0)} la primera
2. se Rn las bases
Endenomina ordenadas
la base canónica = {(1, 0, . . ó. , simplemente
βc ordenada 0), (0, 1, 0, . . . base
, 0), . .canónica
. , (0, . . . , 0,de1)}
R2 .yNótese
β =
{(0, β
que . . . ,y0,β1),
son(0,iguales
. . . , 0, 1, 0), . .bases
como . , (1, de
0, . R
. .2,,0)}
peroson distintas,
distintas como perobases
comoordenadas.
bases son iguales. βc
c
es llamada base canónica ordenada ó simplemente base canónica de Rn . 

3. En Pn [x] las siguientes bases β c = {1, x, . . . , xn } y β = {xn , . . . , x, 1} son bases orde-


nadas distintas, pero como bases iguales. β c es llamada base canónica ordenada ó
simplemente 
base canónica de Pn [x].

168
IV. Espacios Vectoriales

4. En el espacio de las matrices Mm×n (R), para cada i ∈ {1, . . . , n} y j ∈ {1, . . . , m}, con-
sideremos la matriz Eij , cuya componente ij es igual a 1 y las restantes son iguales a 0
(cero).
La base β c = {E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn } es llamada
la base canónica ordenada ó simplemente base canónica de Mm×n (R). Las
siguientes
son bases ordenadas de Mm×n (R), distintas entre si y distintas de β c :

a) β1 = {E11 , E21 , . . . , Em1 , E12 , E22 , . . . , Em2 , . . . , E1n , E2n , . . . , Emn }

b) β2 = {Emn , . . . , Em2 , Em1 , . . . , E2n , . . . , E22 , E21 , E1n , . . . , E12 , E11 }

c) β3 = {Emn , . . . , E2n , E1n , . . . , Em2 , . . . , E22 , E12 , Em1 , . . . , E21 , E11 }



d) β4 = {E1n , . . . , E12 , E11 , E2n , . . . , E22 , E21 , . . . , Emn , . . . , Em2 , Em1 }
Dada una base {v1 , v2 , . . . , vn } de V, sabemos que para cada v ∈ V existen únicos escalares
Todas estas bases son iguales como bases (no ordenadas).
α1 , α2 , . . . , αn R tales que
v = α1 v1 + α2 v2 + · · · + αn vn .

Si {v1 , v2 , . . . , vn } es una base ordenada, entonces los escalares α1 , α2 , . . . , αn ∈ R son únicos y


están ordenados de forma única, lo que da pie a la siguiente definición.

Definición 4.3.2. Sea β = {v1 , v2 , . . . , vn } una base ordenada de V y sea v ∈ V. Definiremos


la matriz de coordenadas de v en la base β como la única matriz
 
α1
α 
2
[v]β = .
.
αn

tal que v = α1 v1 + α2 v2 + · · · + αn vn .

Ejemplo 4.3.2. El conjunto β = {1 + x, x + x2 , 1 + x2 } es una base de P2 [x] (¡pruébelo!).


Para cualquier p(x) ∈ P2 [x], encuentre [p(x)]β .

Solución. Sea p(x) = a0 + a1 x + a2 x2 con a0 , a1 , a2 ∈ R y sea


 
α1

[p(x)]β = α2 
α3

169
IV. Espacios Vectoriales

Entonces, para cada x ∈ R, tenemos

p(x) = α1 (1 + x) + α2 (x + x2 ) + α3 (1 + x2 )
= (α1 + α3 ) + (α1 + α2 )x + (α2 + α3 )x2

De donde se obtiene el sistema



 α1
 +α3 = a0
α1 +α2 = a1

 α2 +α3 = a2
Resolvemos el sistema
   
1 0 1 a0 1 0 1 a0
  
 1 1 0 a1 F2 → F2 − F1 0 1 −1 −a + a
  →  0 1 
0 1 1 a3 0 1 1 a2
   
1 0 1 a0 1 0 1 a0
  1
 
F3 → F3 − F2  0 1 −1 −a0 + a1  F3 → 2 F3  0 1 −1 −a0 + a1 
→ →
1
0 0 2 a0 − a1 + a2 0 0 1 a
2 0
− 12 a1 + 12 a2
 
1 0 0 12 a0 + 12 a1 − 12 a2
F1 → F1 − F3  
→ 1 1 1
 0 1 0 − 2 a0 + 2 a1 + 2 a2 
F2 → F2 + F3
0 0 1 12 a0 − 12 a1 + 12 a2
Luego
   
1 1 1
a0 + 2 a1 − 2 a2 a0 + a1 − a2
2
 2  1 
[p(x)]β = [a0 + a1 x + a2 x ]β = − 2 a0 + 12 a1 + 12 a2 
1 =  −a0 + a1 + a2 
2
1
a − 12 a1 + 12 a2
2 0
a0 − a1 + a2
    
1 1 −1 a0 1 1 −1
1   1 
= −1 1 1  a1  = −1 1 1  [p(x)]βc
2 2
1 −1 1 a2 1 −1 1

Teorema 4.3.1. Sea β una base ordenada de un espacio vectorial V de dimensión n. Para
cualesquiera u, v ∈ V y α ∈ R se cumple que

1. [u + v]β = [u]β + [v]β

170
IV. Espacios Vectoriales

2. [αu]β = α[u]β

Demostración. ¡Ejercicio!

Teorema 4.3.2. Sean β 1 = {v1 , v2 , . . . , vn } y β 2 = {u1 , u2, . . . , un } bases ordenadas de un


espacio vectorial V. Entonces existe una única matriz A ∈ Mn×n (R) tal que

[v]β2 = A[v]β1 para cada v ∈ V (4.1)

Demostración. Para cada j ∈ {1, . . . , n} hagamos


 
α1j
 α2j 
[vj ]β2 = .
 . 
αnj

Entonces
vj = α1j u1 + α2j u2 + · · · + αnj un

Sea v ∈ V cualquiera. Hagamos


   
λ1 α1
λ  α 
2 2
[v]β1 = . y [v]β2 = .
.  . 
λn αn

Entonces
α1 u1 + α2 u2 + · · · + αn un = v

= λ1 v1 + λ2 v2 + · · · + λn vn
= λ1 (α11 u1 + α21 u2 + · · · + αn1 un ) + λ2 (α12 u1 + α22 u2 + · · · + αn2 un ) + · · · +
+λn (α1n u1 + α2n u2 + · · · + αnn un )
= (α11 λ1 + α12 λ2 + · · · + α1n λn )u1 + (α21 λ1 + α22 λ2 + · · · + α2n λn )u2 + · · · +
+(αn1 λ1 + αn2 λ2 + · · · + αnn λn )un

171
IV. Espacios Vectoriales

Por lo tanto
      
α1 α11 λ1 + α12 λ2 + · · · + α1n λn α11 α12 · · · α1n λ1
α α λ + α λ + ··· + α λ α α2n  λ2
2 21 1 22 2 2n n 21 α22 · · ·
= =
.  . .  . . .  .
      
αn αn1 λ1 + αn2 λ2 + · · · + αnn λn αn1 αn2 · · · αnn λn

De donde  
α11 α12 · · · α1n
α
21 α22 · · · α2n
[v]β2 = [v]
. . .  β1
 
αn1 αn2 · · · αnn
Haciendo
 
α11 α12 · · · α1n
α α2n  h i
21 α22 · · ·
A = [αij ]n×n = . . . = [v ]
1 β2 [v ]
2 β2 · · · [v ]
n β2
 . . . 
αn1 αn2 · · · αnn

obtenemos la existencia de la matriz A que satisface (3.1)


Para probar la unicidad de A, notemos primero que la j-ésima columna de A está dada por
 
α1j
α 
(j) 2j
A = . = [vj ]β2
 . 
αnj

Supongamos que B ∈ Mn×n (R) es tal que

[v]β2 = B[v]β1 para cada v ∈ V

Ası́ que, para cada j ∈ {1, . . . , n}, tenemos que

[vj ]β2 = B[vj ]β1

172
IV. Espacios Vectoriales

Pero  
0
.
.

0

[vj ]β1 = 1 −→ j-ésima fila
0

.
 
0
Luego
 
0
.
.
0
(j)
A = [vj ]β2 = B[vj ]β1 = B 1 = B (j)
0
.
.
0
Por lo tanto B = A.

Definición 4.4.3. La matriz A en el teorema anterior es llamada matriz de transición


o matriz de cambio de base de β 1 a β 2 y se denota por Mβ 1 ,β 2 .

Como su nombre lo indica, la matriz Mβ1 ,β2 permite hallar la matriz de coordenadas de un
vector v ∈ V en la base β2 conociendo la matriz de coordenadas de v en la base β1 . Nótese
además que por su definición, la columna j-ésima de Mβ1 ,β2 , representa la matriz de coordenadas
del j-ésimo vector de β1 respecto a la base β2 , esto es, si β1 = {v1 , v2 , . . . , vn }, entonces
h i
Mβ1 ,β2 = [v1 ]β2 [v2 ]β2 · · · [vn ]β2

Ejemplo 4.3.3. Sea β la base ordenada de P2 [x] dada en el ejemplo 3.2. Entonces, según el
ejemplo en cuestión, tenemos que
 
1 1 −1
1
Mβc ,β = −1 1 1 (¿por qué?)
2 
1 −1 1

173
IV. Espacios Vectoriales

donde βc es la base canónica ordenada de P2 [x]. 

Antes de dar algún otro ejemplo, enunciaremos un primer resultado que involucra matrices
de
transición.

Teorema 4.3.3. Si V es un espacio vectorial de dimensión n y β 1 y β 2 son dos bases


ordenadas
de V, entonces la matriz Mβ 1 ,β 2 es invertible y su inversa es Mβ 2 ,β 1 .

Demostración. Sea v ∈ V cualquiera. Entonces


y [v]β1 = Mβ2 ,β1 [v]β2

Por lo tanto, si β2 = {v1 , v2[v]


, . .β.2 ,= }, βentonces
vnM 1 ,β 2 [v]β
1 para cada j ∈ {1, . . . , n} se tiene que
 
0
.

0

j-ésima fila ←− 1 = [vj ]β2 = Mβ1 ,β2 [vj ]β1 = Mβ1 ,β2 Mβ2 ,β1 [vj ]β2 = C (j)
0
.
.
0

donde C (j) es la j-ésima columna de Mβ1 ,β2 Mβ2 ,β1 .


En consecuencia Mβ1 ,β2 Mβ2 ,β1 = In y por lo tanto (Mβ1 ,β2 )−1 = Mβ2 ,β1 .

Ejemplo 4.3.4. Consideremos las siguientes bases ordenadas de


R3

β1 = {(1, −2, 0), (3, −1, 1), (0, 1, 3)}


y
β2 = {(0, 2, 1), (−1, 0, 1), (3, −1, 2)}
βc la base canónica.

Hallar Mβ1 ,β2 , Mβc ,β2 y Mβ2 ,β1 .

Solución. Para hallar Mβ1 ,β2 debemos hallar las matrices de coordenadas de cada uno de los
vectores de β1 respecto a la base β2 . Sean
     
α11 α12 α13
  
[(1, −2, 0)]β2 =  α
 21  , [(3, −1, 1)]β 2 =  α
 22  y [(0, 1, 3)]β2 = α
 23 
α31 α32 α33

174
IV. Espacios Vectoriales

Entonces

(1, −2, 0) = α 11 (0, 2, 1) +α

21 (−1, 0, 1) + α 31 (3, −1, 2)


= (−α21 + 3α31 , 2α 11 − α31 , α 11 + α21 + 2α 31 )

(3, −1, 1) = α 12 (0, 2, 1) + α22 (−1, 0, 1) + α32 (3, −1, 2)


= (−α22 + 3α32 , 2α 12 − α32 , α 12 + α22 + 2α
32 )

(0, 1, 3) = α 13 (0, 2, 1) + α23 (−1, 0, 1) + α33 (3, −1, 2)


De donde
 − α33 , α 13 + α23 + 2α
= (−α23 + 3α33 , 2α 13
 −α21 +3α31 = 1  −α22 +3α32 = 3
 33 )

2α11 −α31 = −2 , 2α12 −α32 = −1
 
 α +α21 +2α31 = 0  α12 +α22 +2α32 = 1
11



 −α23 +3α33 = 0
y 2α13 −α33 = 1

 α
13 +α23 +2α33 = 3

Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de
manera simultánea considerando la siguiente matriz tres veces ampliada
 
0 −1 3 1 3 0
 
 2 0 −1 −2 −1 1 
1 1 2 0 1 3
Nótese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de
cada uno de los vectores de la base β 2 respecto a la base canónica, y las tres últimas colum
nas, son las matrices de coordenadas de cada uno de los vectores de la base β 1 respecto a la
base
canónica. Este procedimiento es estándar cada vez que busquemos una matriz de cambio de base.
  
 0 −1 3 1 3 0 1 1 2 0 1 3

2 0 −1 −2 −1 1   F1 ↔ F3→  2 0 −1 −2 −1 1  

 1 1 2 0 1 3 0 −1 3 1 3 0

175
IV. Espacios Vectoriales

   
1 1 2 0 1 3 1 1 2 0 1 3
   
F2 → F2 − 2F1  0 −2 −5 −2 −3 −5  F2 ↔ F3→  0 −1 3 1 3 0 

0 −1 3 1 3 0 0 −2 −5 −2 −3 −5
   
1 1 2 0 1 3 1 0 5 1 4 3
  F1 → F1 − F2  
F2 → −F2  0 1 −3 −1 −3 0  → 0 1 −3 −1 −3 0
→  
F3 → F3 + 2F2
0 −2 −5 −2 −3 −5 0 0 −11 −4 −9 −5
   
9 1 8
1 0 5 1 4 3 1 0 0 − 11 − 11 11
  F1 → F1 − 5F3  
1
F3 → − 11 F3  0 1 −3 −1 −3 0  → 0 1 0 1
− 6 15
→  11 11 11 
4 9 5
F2 → F2 + 3F3 4 9 5
0 0 1 11 11 11 0 0 1 11 11 11
Ası́ que    
9 1 8
− 11 − 11 11
−9 −1 8
  1  
Mβ1 ,β2 =  1 6 15 =
11
− 11 11  11  1 −6 15 
4 9 5
11 11 11
4 9 5
Hallemos ahora Mβc ,β2 . En este caso la matriz aumentada que obtenemos es
 
0 −1 3 1 0 0
 
 2 0 −1 0 1 0 
1 1 2 0 0 1
Vemos que para obtener Mβc ,β2 necesitamos aplicar, en el mismo orden, las mismas OEF que
aplicamos anteriormente (¿por qué?), y obtenemos
 
1 5 1
1 0 0 11 11 11
 
5 3 6
 0 1 0 − 11 − 11 11 
2 1 2
0 0 1 11
− 11 11

Por lo tanto
   
1 5 1
11 11 11
1 5 1
Mβc ,β2 =  5
− 11 3
− 11 6  = 1  −5 −3 6 
 11  11  
2 1 2
11
− 11 11
2 −1 2
Nótese que la matriz obtenida no es mas que la inversa de
 
0 −1 3

Mβ2 ,βc =  2 0 −1 

1 1 2

176
IV. Espacios Vectoriales

Finalmente (¡verifı́quelo!)
   
− 15
14
1
2
3
14
−15 7 3
  1  
Mβ2 ,β1 = (Mβ1 ,β2 )−1 =  5
14
1
−2 13
14
=
 14  5 −7 13 
3 1 5
14 2 14
3 7 5

Algoritmo para hallar la matriz de transición Mβ1 ,β2 , donde β1 y β2 son bases ordenadas
de un espacio vectorial V de dimensión n y βc es la base canónica ordenada de V. En general
V = Rn , V = Pn−1 [x] ó V = Mp×q (R) con pq = n.

Paso 1. Hallar las matrices Mβ2 ,βc y Mβ1 ,βc .

Paso 2. Formar la la matriz ampliada [Mβ2 ,βc |Mβ1 ,βc ].

Paso 3. Hallar la FERF de la matriz en el paso previo.

Paso 4. La matriz hallada en el paso previo tiene la forma [In |B]. Entonces Mβ1 ,β2 = B.

Ejemplo 3.5. Sean β1 , β2 y βc como en el ejemplo anterior. Dado (x, y, z) ∈ R3 , hallar


[(x, y, z)]β2 y [(x, y, z)]β1 .
 
x
 
Solución. Sabemos que [(x, y, z)]βc = y  por lo tanto
z
    
1 x 5 1 x + 5y + z
1    1  
[(x, y, z)]β2 = Mβc ,β2 [(x, y, z)]βc = −5 −3 6 y = −5x − 3y + 6z
11     11  
2 −1 2 z 2x − y + 2z
   
−15 7 3 x + 5y + z
1  1  
[(x, y, z)]β1 = Mβ2 ,β1 [(x, y, z)]β2 = 5 −7 13  −5x − 3y + 6z 
14    11  
3 7 5 2x − y + 2z
 
−4x − 9y + 3z
1 
[(x, y, z)]β1 = 6x + 3y − z 
14  
−2x − y + 5z

177
IV. Espacios Vectoriales

En este último ejemplo se verifica que


   
−15 7 3 1 5 1
1  1  
Mβc ,β1 = Mβ2 ,β1 Mβc ,β2 = 5 −7 13  
  11  −5 −3 6 
14 
3 7 5 2 −1 2
 
−4 −9 3
1  
Mβc ,β1 = 6 3 −1 
14 
−2 −1 5
Este resultado no es casual, como se puede ver en el siguiente teorema

Teorema 4.4.4. Sean β 1 , β 2 y β 3 bases ordenadas de un espacio vectorial V de dimensi


ón n. Entonces
Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2

Demostración. Sea v ∈ V cualquiera. Entonces

[v]β3 = Mβ2 ,β3 [v]β2 y [v]β2 = Mβ1 ,β2 [v]β1

Luego
[v]β3 = Mβ2 ,β3 [v]β2 = Mβ2 ,β3 Mβ1 ,β2 [v]β1

Por unicidad de la matriz Mβ1 ,β3 concluimos que

Mβ1 ,β3 = Mβ2 ,β3 Mβ1 ,β2

Teorema 4.4.5. Sea β una base ordenada de un espacio vectorial V de dimensión n.


Entonces
{v1 , v2 , . . . , vn } es una base de V si y sólo si la matriz cuadrada de orden n, cuya j-ésima columna
es [vj ]β , tiene determinante distinto de cero.

Demostración. Sea A ∈ Mn×n (R) la matriz cuya j-ésima columna es [vj ]β . Sean α1 , α2 , . . . , αn ∈
R tales que
α1 v1 + α2 v2 + · · · + αn vn = 0
Ası́ que

178
IV. Espacios Vectoriales

0/n×1 = [0/V ]β = [α1 v1 + α2 v2 + · · · + αn vn ]β = α1 [v1 ]β + α2 [v2 ]β + · · · + αn [vn ]β


   
α1 α1
 α2   α2 
= [[v1 ]β [v2 ]β · · · [vn ]β ] =A
. .
   
αn αn
 
α1
α2 
Pero det(A) 6= 0 si y sólo si el sistema A = 0/n×1 tiene como única solución la trivial, es
 .
 
αn
decir, si y sólo si {v1 , v2 , . . . , vn } es linealmente independiente que a su vez, dado que dim(V) = n,
equivale a que {v1 , v2 , . . . , vn } es una base de V.

El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1 , v2 , . . . , vn },
en un espacio vectorial de dimensión n, es una base para dicho espacio.

4.5. Espacio vectorial con producto interno y sus propiedades.

Definición 4.5.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una funci
ón
que asocia, a cada par de vectores u, v ∈ V, un único número real denotado por hu , vi, u · v
óuv satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w ∈ V y cada α ∈ R

1. hu , vi = hv , ui.

2. hu + v , wi = hu , wi + hv , wi.

3. hα u , vi = α hu , vi..
hv , vi ≥ 0 y además hv , vi = 0 si y sólo si v = 0/V .

Un espacio vectorial real, en el cual se define un producto interno, es llamado espacio


(vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a
los productos internos son producto interior, producto escalar y producto punto.

Ejemplo 4.5.6. Las siguientes funciones son productos internos sobre Rn

179
IV. Espacios Vectoriales

n
X
1. hu , vi = ui vi donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ).
i=1
En efecto, sean u, v, w ∈ Rn y α ∈ R con u = (u1 , u2, . . . , un ); v = (v1 , v2 , . . . , vn ) y
w = (w1 , w2 , . . . , wn ). Entonces
n
X n
X
hu , vi = ui vi = vi ui = hv , ui
i=1 i=1

u + v = (u1 , u2 , . . . , un ) + (v1 , v2 , . . . , vn ) = (u1 + v1 , u2 + v2 , . . . , un + vn ), ası́ que


n
X n
X n
X n
X
hu + v , wi = (ui + vi )wi = (ui wi + vi wi ) = u i wi + vi wi = hu , wi + hv , wi
i=1 i=1 i=1 i=1

αu = α(u1, u2 , . . . , un ) = (αu1 , αu2, . . . , αun ), luego


n
X n
X
hαu , vi = αuivi = α uivi = α hu , vi
i=1 i=1

Finalmente n n
X X
hu , ui = ui ui = u2i ≥ 0
i=1 i=1

Además, hu , ui = 0 si y sólo si u2i = 0 para cada i ∈ {1, . . . , n} (¿por qué?), esto es, si y
sólo si u = 0/Rn .

Este producto interno es llamado producto interno euclidiano, usual o estándar de


Rn , salvo que se indique lo contrario, este es el producto interno que consideraremos sobre
Rn .
n
X
2. hu , vi = pi ui vi donde p1 , p2 , . . . , pn son números reales positivos fijos, u = (u1 , u2, . . . , un )
i=1
y v = (v1 , v2 , . . . , vn ). Este producto interno es lo que se denomina producto interno
ponderado, si p1 = · · · = pn = 1, este producto interno coincide con el producto interno
euclidiano. Pruebe que esta función es un producto interno. 

Ejemplo 4.5.7. En Mm×n (R) la siguiente función define un producto interno (¡pruébelo!), el
cual
se conoce como producto interno euclidiano, usual o estándar, al igual que en el caso de
Rn , salvo que se indique otra cosa, este es el producto
m X ninterno que consideraremos sobre Mm×n (R).
X
aij bij
hA , Bi = i=1 j=1
donde A = (aij )m×n y B = (bij )m×n . 

180
IV. Espacios Vectoriales
Ejemplo 4.5.8. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C [ a,b],
la función Z b
hf , gi = f (x)g(x)dx
a
es un producto interno, en efecto, sean f, g, h ∈ C [ a , b ] y α ∈ R. Entonces
Z b Z b
hf , gi = f (x)g(x)dx = g(x)f (x)dx = hg , f i
a a

Z b Z b
hf + g , hi = (f (x) + g(x))h(x)dx = (f (x)h(x) + g(x)h(x))dx
a a
Z b Z b
= f (x)h(x)dx + g(x)h(x)dx = hf , hi + hg , hi
a a

Z b Z b
hαf , gi = αf (x)g(x)dx = α f (x)g(x)dx = α hf , gi
a a

Z b Z b
hf , f i = f (x)f (x)dx = [f (x)]2 dx ≥ 0
a a
Además hf , f i = 0 si y sólo si f (x) = 0 para cada x ∈ [ a , b ] (¿por qué?), es decir, si y sólo
si f = O, donde O es la función nula sobre [ a , b ], esto es, O(x) = 0 para todo x ∈ [ a , b ].
Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre
C [ a , b ]. 

Ejemplo 4.5.9. En Pn [x] las siguientes funciones son productos internos.

1. Como Pn [x] es un subespacio de C [ a , b ], entonces el producto interno definido en el ejemplo


anterior, es un producto interno sobre Pn [x].
n
X
2. hp , qi = p(i)q(i). En Efecto, sean p, q, r ∈ Pn [x] y α ∈ R. Entonces
i=0
Xn n
X
hp , qi = p(i)q(i) = q(i)p(i) = hq , pi.
i=0 i=0
n
X n
X
hp + q , ri = [p(i) + q(i)]r(i) = [p(i)r(i) + q(i)r(i)]
i=0 i=0
n
X n
X
= p(i)r(i) + q(i)r(i) = hp , ri + hq , ri.
i=0 i=0

181
IV. Espacios Vectoriales
n
X n
X
hp , pi = p(i)p(i) = [p(i)]2 ≥ 0.
i=0 i=0

Además, hp , pi = 0 si y sólo si p(i) = 0 para cada i ∈ {0, . . . , n}.

Pero el único polinomio en Pn [x], que tiene más de n raı́ces, es el polinomio nulo (¿por
qué?), es decir, hp , pi = 0 si y sólo si p es el polinomio nulo.
n
X
3. hp , qi = ai bi , con p(x) = a0 + a1 x + · · · + an xn y q(x) = b0 + b1 x + · · · + bn xn . (¡pruébe-
i=0
lo!). 

Teorema 4.5.6. Sea V un espacio con producto interno h , i.


Entonces

1. hu , v + wi = hu , vi + hu , wi para cualesquiera u, v, w ∈ V.

2. hu , α vi = α hu , vi para cualesquiera u, v ∈ V y α ∈ R.

3. hu − v , wi = hu , wi − hv , wi para cualesquiera u, v, w ∈ V.

4. hu , v − wi = hu , vi − hu , wi para cualesquiera u, v, w ∈ V.
/ i = 0 = h0
/ , vi para todo v ∈ V.
V V
5. hv , 0
6. Si hu , vi = 0 para cada v ∈ V, entonces u = 0/V .

Demostración.

1. Sean u, v, w ∈ V cualesquiera. Entonces

hu , v + wi = hv + w , ui = hv , ui + hw , ui = hu , vi + hu , wi .

2. Sean u, v ∈ V y α ∈ R cualesquiera. Ası́ que


ello debemos hallar la FERF de A.
hu , αvi = hαv , ui = α hv , ui = α hu , vi .

A3.=Sean u, v, w ∈ V cualesquiera. Luego

hu − v , wi = hu + (−v) , wi = hu , wi + h−v , wi = hu , wi + h(−1)v , wi


= hu , wi + (−1) hv , wi = hu , wi − hv , wi .

182
IV. Espacios Vectoriales

4. Sean u, v, w ∈ V cualesquiera. Ası́ que

hu , v − wi = hv − w , ui = hv , ui − hw , ui = hu , vi − hu , wi .

5. Sea v ∈ V cualquiera. Entonces

hv , 0/V i = hv , 0/V + 0/V i = hv , 0/V i + hv , 0/V i .

Ası́ que hv , 0/V i = 0 y además h0/V , vi = hv , 0/V i = 0.

6. Como hu , vi = 0 para cada v ∈ V, entonces hu , ui = 0 (tomando v = u), luego u = 0/V


(¿por qué?).

4.6. Bases Ortonormales . Proceso de Ortonormalización


de Gram-Schmidt
Definición 4.6.5. Sea h , i un producto interno sobre un espacio vectorial V y sean u, v ∈
V. Diremos que u es ortogonal a v si hu , vi = 0, en cuyo caso escribiremos u ⊥ v.

Observación 4.6.2. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia,


podemos
escribir u y v son ortogonales en lugar de u es ortogonal a v.

Ejemplo 4.6.10.

1. Sean x = (2, −1, −3) e y = (3, 3, 1). Entonces

hx , yi = (2)(3) + (−1)(3) + (−3)(1) = 6 − 3 − 3 = 0

ası́ que x ⊥ y.

2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto
interno, el vector nulo 0/V es ortogonal a cualquier vector v ∈ V, además, la parte 6 de este
mismo teorema, nos dice que el único vector que es ortogonal a todo vector v ∈ V, es el
vector nulo.

3. Las funciones f (x) = sen(x) y g(x) = cos(x), en C [ −π , π ], son ortogonales.

183
IV. Espacios Vectoriales

4. En P2 [x], los polinomios p(x) = 1+2x2 y q(x) = −2+x2 son ortogonales si consideramos el
producto interno definido en la parte 3 del ejemplo 3.9 (¡verifı́quelo!), pero si consideramos
el producto interno definido en la parte 2 del mismo ejemplo, estos polinomios no son
ortogonales (¡verifı́quelo!).

Definición 4.6.6. Sea h , i un producto interno sobre el espacio vectorial V. Definiremos la


nor-ma, magnitud, módulo o longitud (inducida por el producto interno) de v ∈ V,
como el número real kvk dado por
p
kvk = hv , vi

Diremos que v ∈ V es unitario si kvk = 1.

Observación 4.6.3. La norma de un vector no siempre está definida en términos del


producto
interno (ver B), sin embargo, en este capı́tulo nos ocuparemos de las normas inducidas por un
producto interno.
Dado que hv , vi ≥ 0 para cada v ∈ V, entonces la definición anterior está bien fundada.

Ejemplo 4.6.11. Consideremos sobre R4 el producto interno p euclidiano. Entonces√


p 0, −3, 2) , (1, 0, −3, 2)i = 12 + 02 + (−3)2 + 22 = 14
k(1, 0, −3, 2)k = h(1,


Ejem. 4.6.12. En P2 [x] consideremos el polinomio p(x) = 3 − x2 . Hallar kpk considerando:

1. El producto interno definido en la parte 1 del ejemplo 3.9 con a = −1 y b = 1.

2. El producto interno definido en la parte 2 del ejemplo 3.9.

3. El producto interno definido en la parte 3 del ejemplo 3.9.

Solución.
sZ sZ s 1
1 1
x5
1. kpk = (3 − x2 )2 dx
= (9 − + 6x2 = x4 )dx
9x − 2x3 +
−1 −1 5 −1
s   r r
1 36 2
= 2 9−2+ = 2 =6
5 5 5
p p √
2. kpk = [p(0)]2 + [p(1)]2 + [p(2)]2 = 32 + 22 + (−1)2 = 14

184
IV. Espacios Vectoriales
p √
3. kpk = 32 + 02 + (−1)2 = 10

A continuación enunciaremos un teorema donde se dan a conocer algunas propiedades de la


norma, y que son consecuencia directa las propiedades del producto interno, su demostración se
deja como ejercicio.

Teo.4.6.7. Sea V un EPI. Entonces para cada α ∈ R y cualesquiera u, v ∈ V se cumple que:

1. kuk ≥ 0 y kuk = 0 si y sólo si u = 0/V .

2. kαuk = |α| · kuk.

3. ku ± vk2 = kuk2 ± 2 hu , vi + kvk2 .

El siguiente lema nos permitirá demostrar el teorema que le sigue.

Lema 4.6..1. Sean u y v dos vectores unitarios en un EPI. Entonces | hu , vi | ≤ 1.

Demostración. Usando la parte 3 del teorema 3.7, tenemos que

0 ≤ ku + vk2 = kuk2 + 2 hu , vi + kvk2 = 1 + 2 hu , vi + 1 = 2[1 + hu , vi]

Ası́ que
hu , vi ≥ −1

Nuevamente, por la parte 3 del teorema 4.6.7, obtenemos

0 ≤ ku − vk2 = kuk2 − 2 hu , vi + kvk2 = 1 − 2 hu , vi + 1 = 2[1 − hu , vi]

luego
hu , vi ≤ 1

En consecuencia
| hu , vi | ≤ 1

En el teorema que enunciaremos a continuación, se dan dos propiedades muy importantes de


la norma.

185
IV. Espacios Vectoriales

Teo-4.6.8. Sean u y v dos vectores en un EPI. Entonces

1. | hu , vi | ≤ kuk · kvk (Desigualdad de Cauchy-Schwarz).

2. ku + vk ≤ kuk + kvk (Desigualdad Triangular).

Las igualdades se cumplen si y sólo si uno de los vectores es múltiplo escalar del otro (¡pru
ébelo!)

Demostración.

1. Si u = 0/V o v = 0/V , entonces | hu , vi | = 0 = kuk · kvk. u v


V 6= v y por lo tanto los vectores u
b= yb
v= son unitarios,
/
kuk kvk
Enpor
y caso lema 4.1 u 6= 0
el contrario,
| hb vi | ≤ 1
u, b

Pero  
u v 1
hb
u , vbi = , = hu , vi
kuk kvk kuk · kvk
1
Por lo tanto hu , vi ≤ 1, es decir, hu , vi ≤ kuk · kvk.
kuk · kvk
2. Por la parte 3 del teorema 4.7 tenemos que

ku + vk2 = kuk2 + 2 hu , vi + kvk2

y por la parte 1 (desigualdad de Cauchy-Schwarz)

hu , vi ≤ | hu , vi | ≤ kuk · kvk

Ası́ que
ku + vk2 ≤ kuk2 + 2kuk · kvk + kvk2 = (kuk + kvk)2

Luego ku + vk ≤ kuk + kvk.

Def.4.6.7. Sea V un EPI y sean u, v ∈ V vectores no nulos. Definiremos el ángulo entre u y


v como el número real ∡(u, v) ∈ [ 0 , π ] tal que
hu , vi
cos(∡(u, v)) = kuk · kvk
es decir,  
hu , vi
∡(u, v) = arc cos
kuk · kvk

186
IV. Espacios Vectoriales

Ejem. 4.6.13. Hallar el ángulo entre los vectores u = (0, −3, 3) y v = (2, 2, −1)

Solución. hu , vi = 0 · 2 + (−3)2 + 3(−1) = −9


p √ √
kuk = 02 + (−3)2 + 32 = 18 = 3 2
p √
kvk 22 + 22 + (−1)2 = 9 = 3
Ası́ que
    √ !
hu , vi −9 − 2 3π
∡(u, v) = arc cos = arc cos √ = arc cos =
kuk · kvk 3 2·3 2 4

Def.4.6.8. Sea V un EPI y sea S = {v1, v2, . . . , vk} ⊂ V. Diremos que S es un conjunto orto-
gonal si vi ⊥ vj para cualesquiera i, j ∈ {1, . . . , k} con i 6 = j. Si adicionalmente vi es unitario
para cada i ∈ {1, . . . , k}, diremos que S es un conjunto ortonormal.

Ejem. 4.6.14. Consideremos las siguientes matrices en M2×2 (R)


" # " # " #
1 0 0 2 0 1
A1 = ; A2 = y A3 =
0 0 −2 0 1 3

¿Es S = {A1 , A2 , A3 } un conjunto ortogonal? ¿Es S ortonormal?

Solución.
hA1 , A2 i = 1 · 0 + 0 · 2 + 0(−2) + 0 · 0 = 0

hA1 , A3 i = 1 · 0 + 0 · 1 + 0 · 1 + 0 · 3 = 0

hA2 , A3 i = 0 · 0 + 2 · 1 + (−2)1 + 0 · 3 = 0

Ası́ que S es ortogonal. Pero


p √
kA2 k = 02 + 22 + (−2)2 + 02 = 2 2 6= 1

Por lo tanto S no es ortonormal, sin embargo, S0 = {B1 , B2 , B3 }, donde


1 1 1 1 1
B1 = A1 = A1 , B2 = A2 = A3 = √ A3
kA1 k kA2 k √ A2 y B3 = kA3 k 11
2 2
sı́ es un conjunto ortonormal (¡verifı́quelo!).

Teorema4.6.9. Todo conjunto ortogonal finito de vectores no nulos en un EPI es lineal-


mente
independiente.

187
IV. Espacios Vectoriales

Demostración. Sea V un EPI y sea S = {v1 , v2 , . . . , vk } ⊂ V un conjunto ortogonal de vectores


no nulos.
Sean α1 , α2 , . . . , αk ∈ R tales que

α1 v1 + α2 v2 + · · · + αk vk = 0/V

Entonces, para cada j ∈ {1, . . . , k}, se tiene que


k
X k
X
0 = hvj , 0V i = hvj , α1 v1 + α2 v2 + · · · + αk vk i =
/ hvj , αi vi i = αi hvj , vi i = αj hvj , vj i
i=1 i=1
= αj kvj k2
y dado que vj es no nulo, entonces αj = 0.
Por lo tanto S es linealmente independiente.

Def.4.6.9. Sean V un .EPI y β = {v1 , v2 , . . . , vn } una base de V. Diremos que β es una


base ortogonal (respectivamente ortonormal) si β es un conjunto ortogonal (respectivamente
ortonormal).

Ejemplo 4.6.15.

1. Las bases canónicas de Rn y Mm×n (R) son bases ortonormales.

2. Una base ortogonal de M2×2 (R) es


(" # " # " # " #)
1 0 0 2 0 1 0 3
β= ; ; ;
0 0 −2 0 1 3 3 −2

pero no es ortonormal.

3. Una base ortonormal de P2 [x], considerando el producto interno definido en la parte 1 del
ejemplo 4.6 .9 con a = 1 y b = −1, es
( r √ )
1 3 5 
β= √ , x , √ −1 + 3x2 .
2 2 2 2

En efecto,  2 Z
1 2 1 2 1 1 1
√ = √ k1k = dx = 2 = 1
2 2 2 −1 2
r r ! Z
3 2 3
2
3 1 2 3 x3
1
2
x = kxk = x dx = =1
2 2 2 −1 2 3 −1

188
IV. Espacios Vectoriales

√ 2 √ !2 Z
5 2
 5
2 2 5 1 2
√ −1 + 3x = √ −1 + 3x = −1 + 3x2 dx
2 2 2 2 8 −1
Z 1  1
5 2 4
 5 3 9 5
= 1 − 6x + 9x dx = x − 2x + x dx = 1
8 −1 8 5 −1

Además * r + r √ Z 1
1 3 1 3 3
√ , x =√ h1 , xi = xdx = 0
2 2 2 2 2 −1
* √ + √ √ Z 1
1 5 2
 1 5
2
5 
√ , √ −1 + 3x = √ √ 1 , −1 + 3x = −1 + 3x2 dx
2 2 2 22 2 4 −1

5  1
= −x + x3 −1 = 0
4
*r √ + r √ √ Z 1
3 5 2
 3 5
2
15 
x , √ −1 + 3x = √ x , −1 + 3x = x −1 + 3x2 dx = 0
2 2 2 22 2 4 −1

Para finalizar esta sección, nos plantearemos y solucionaremos el problema de hallar una base
ortonormal para un EPI de dimensión finita o para un subespacio de dimensión finita de un EPI,
comenzaremos con un ejemplo el cual ilustrará un procedimiento, conocido como proceso de
ortonormalización de Gram-Schmidt, que nos permite encontrar tal base.

Ejem. 4.6.16. En P2 [x] consideremos el producto interno dado en el ejemplo 3.15 y considere-
mos la base de P2 [x] β = {1 , x , x2 }. Hallar una base ortonormal de P2 [x] partiendo de la base
β.

Solución. Hagamos
v1 = 1 , v2 = x y v3 = x2

Entonces sZ
1 √
kv1 k = dx = 2
−1

Sea
1 1
u1 = v1 = √
kv1 k 2
Ası́ que ku1 k = 1.
Ahora hagamos
w2 = v2 − hv2 , u1 i u1

189
IV. Espacios Vectoriales

Pero   Z 1
1 1 1
hv2 , u1 i = x, √ = √ hx , 1i = √ xdx = 0.
2 2 2 −1

Luego w2 = v2 = x, además
sZ s r
1 1
x3 2
kw2 k = x2 dx = =
−1 3 −1 3

Si hacemos r
1 3
u2 = w2 = x
kw2k 2
entonces ku2 k = 1 y u1 ⊥ u2 (ver ejemplo 3.15).
Consideremos
w3 = v3 − hv3 , u1 i u1 − hv3 , u2 i u2

Pero   Z 1 1
2 1 1
2 1 1 x3 2
hv3 , u1 i = x , √ =√ x ,1 =√ x2 dx = √ = √
2 2 2 −1 2 3 −1 3 2
* r + r r Z 1
3 3
2 3
hv3 , u2 i = x2 , x = x ,x = x3 dx = 0
2 2 2 −1
De donde
2 1 1
w3 = x2 − √ √ = − + x2
3 2 2 3
y s sZ  s
Z 1 2 1  
5 1
1 1 2 1 2 x
kw3 k = − + x2 dx = − x2 + x4 dx = x − x3 +
−1 3 −1 9 3 9 9 5 −1
r √
8 2 2
= = √
45 3 5

Finalmente, hagamos
√   √
1 3 5 1 5 
u3 = w3 = √ − + x = √ −1 + 3x2
2
kw3 k 2 2 3 2 2
Entonces ku3 k = 1 , u3 ⊥ u1 y u3 ⊥ u2 (ver ejemplo 3.15).
Por lo tanto ( r √ )
1 3 5 
{u1 , u2 , u3} = √ , x , √ −1 + 3x2
2 2 2 2
es una base ortonormal de P2 [x], la cual se obtuvo de β.

190
IV. Espacios Vectoriales

El teorema siguiente generaliza el procedimiento que se usó en ejemplo anterior.

Teo.4.6.10 (Proceso de Ortonormalización de Gram-Schmidt). Sea V un EPI. Si W es un


subespacio de dimensión finita de V, entonces W posee una base ortonormal. En Particular, si
V tiene dimensión finita, entonces V posee una base ortonormal.

Demostración. Sea βW = {v1 , v2 , . . . , vm } una base de W. Procederemos a construir la base


ortonormal de W a partir de βW .
En primer lugar, notemos que kvi k 6= 0/V para cada i ∈ {1, . . . , m}.
1 v1
Paso 1. Sea u1 = v1 = . Entonces gen({u1 }) = gen({v1 }) (¿por qué?) y
kv1 k kv1 k
v1 1
ku1 k = = kv1 k = 1
kv1 k kv1 k

Paso 2. Sea w2 = v2 − hv2 , u1 i u1 . Entonces w2 6= 0/V , pues de lo contrario


hv2 , u1 i
v2 = hv2 , u1 i u1 = v1
kv1 k
lo cual contradice el hecho de que {v1 , v2 } es linealmente independiente.

Además

hw2 , u1 i = hv2 − hv2 , u1 i u1 , u1 i = hv2 , u1 i − hhv2 , u1 i u1 , u1 i


= hv2 , u1 i − hv2 , u1i hu1 , u1 i = hv2 , u1 i − hv2 , u1 i = 0

Con lo que w2 ⊥ u1 .
1 w2
Paso 3. Sea u2 = w2 = . Entonces ku2k = 1 y u1 ⊥ u2 . Ası́ que {u1 , u2} es un
kw2 k kw2 k
conjunto ortonormal.

Además gen({u1, u2 }) = gen({v1 , v2 }). En efecto, sea v ∈ gen({u1, u2 } cualquiera.


Entonces existen α1 , α2 ∈ R tales que v = α1 u1 + α2 u2 .

Luego

v = α1 u1 + α2 u2
1 1
= α1 v1 + α2 w2
kv1 k kw2 k
α1 α2
= v1 + (v2 − hv2 , u1 i u1 )
kv1 k kw2 k
 
α1 α2 1
= v1 + v2 − hv2 , u1 i v1
kv1 k kw2 k kv1 k
 
α1 α2 hv2 , u1 i α2
= − v1 + v2
kv1 k kw2 kkv1 k kw2 k

191
IV. Espacios Vectoriales

De donde v ∈ gen({v1 , v2 }), por tanto gen({u1 , u2 }) ⊂ gen({v1 , v2 }) y ası́ gen({u1 , u2})
es un subespacio de gen({v1 , v2 }), como {u1 , u2} es un conjunto ortonormal, y en
consecuencia linealmente independiente (¿por qué?), entonces dim(gen({u1, u2 })) =
2 = dim(gen({v1 , v2 })), ası́ que

gen({u1 , u2 }) = gen({v1 , v2 }) (¿por qué?)

De manera recursiva, para k < m, obtenemos un conjunto ortonormal {u1 , u2 , . . . , uk } tal que

gen({u1 , u2, . . . , uk }) = gen({v1 , v2 , . . . , vk })

Paso 4. Sea

wk+1 = vk+1 − hvk+1 , u1i u1 − hvk+1 , u2 i u2 − · · · − hvk+1 , uk i uk


Xk
= vk+1 − hvk+1 , ui i ui
i=1

Entonces wk+1 ∈ W, wk+1 6= 0/V y para cada j ∈ {1, . . . , k} tenemos que


* k
+
X
hwk+1 , uj i = vk+1 − hvk+1 , ui i ui , uj
i=1
* k
+
X
= hvk+1 , uj i − hvk+1 , uii ui , uj
i=1
k
X
= hvk+1 , uj i − hhvk+1 , ui i ui , uj i
i=1
k
X
= hvk+1 , uj i − hvk+1 , ui i hui ,
i=1 uj i
(¿por qué?)
= hvk+1 , uj i − hvk+1 , uj i huj , uj i
= hvk+1 , uj i − hvk+1 , uj i (¿por qué?)
= 0

es decir, wk+1 ⊥ uj para cada j ∈ {1, . . . , k}.


1 wk+1
Paso 5. Hagamos uk+1 = wk+1 = . Entonces {u1 , u2, . . . , uk , uk+1} es un
kwk+1k kwk+1 k
conjunto ortonormal y gen({u1 , u2 , . . . , uk , uk+1}) = gen({v1 , v2 , . . . , vk , vk+1}) (¿por
qué?).

Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1 , u2 , . . . , um}
en W, y por lo tanto, una base ortonormal de W.

192
Capı́tulo V
Transformaciones Lineales. Autovalores y Autovectores de una
Matriz

5.1. Introducción a lasTransformaciones Lineales

Definición 5.1. Sean V y W dos espacios vectoriales y T : V −→ W una función. Diremos que
T es una transformación lineal si para cualesquiera u, v ∈ V y α ∈ R se cumple que

1. T (u + v) = T (u) + T (v).

2. T (αu) = αT (u).

Ejemplo 5.11. Sean V y W dos espacios vectoriales. La transformación O : V −→ W, dada por


O(v) = 0
/
W

para cada v ∈ V, es una transformación lineal (¡pruébelo!), llamada transformación nula.

2. Sea V un espacio vectorial. Definamos IV : V −→ V como sigue, IV (v) = v para cada v ∈ V.


Entonces IV es una transformación lineal (¡pruébelo!), la cual es llamada transformación
identidad sobre V. 

3. Sean V un espacio vectorial de dimensión n y β una base ordenada de V. Entonces T :


V −→ Mn×1 (R) dada por T (v) = [v]β es una transformación lineal (ver teorema 3.1 en el
capı́tulo anterior). 

4. T : R3 −→ R2 , dada por T (x, y, z) = (2x + y, x − z), es una transformación lineal, en


efecto, dados (x, y, z), (a, b, c) ∈ R3 y α ∈ R, se tiene que

T ((x, y, z) + (a, b, c)) = T (x + a, y + b, z + c)


= (2(x + a) + (y + b), (x + a) − (z + c))
= (2x + 2a + y + b, x + a − z − c)
= (2x + y, x − z) + (2a + b, a − c)
= T (x, y, z) + T (a, b, c)

193
V.Transformaciones Lineales.

T (α(x, y, z)) = T (αx, αy, αz)


= (2(αx) + (αy), (αx) − (αz))
= (α(2x + y), α(x − z))
= α(2x + y, x − z)
= αT (x, y, z)

5. La función T : R2 −→ R3 dada por

T (x, y) = (x2 , x + y, xy)

no es una transformación lineal, en efecto,

T (1, 0) = (12 , 1 + 0, 1 · 0) = (1, 1, 0)

T (2(1, 0)) = T (2, 0) = (22 , 2 + 0, 2 · 0) = (4, 2, 0)

2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) 6= (4, 2, 0) = T (2(1, 0))

6. T : P2 [x] −→ R2 dada por T (a + bx + cx2 ) = (2a + c + 3, b − c) no es una transformación


lineal, en efecto,
T (0) = (2 · 0 + 0 + 3, 0 − 0) = (3, 0)

T (0) + T (0) = (3, 0) + (3, 0) = (6, 0)

T (0 + 0) = T (0) = (3, 0) 6= (6, 0) = T (0) + T (0)

7. Consideremos T : M2×2 (R) −→ P3 [x] dada por


" #!
a b
T = a + bx + cx2 + dx3
c d

Entonces T es lineal (¡pruébelo!). 

8. T : R3 −→ P3 [x] dada por

T (a, b, c) = b + (2a + c)x + (b − 3c)x3

194
V. Transformaciones Lineales.

es lineal. En efecto, sean u, v ∈ R3 y α ∈ R cualesquiera, con u = (a1 , b1 , c1 ) y v =


(a2 , b2 , c2 ). Entonces

T (u + v) = T ((a1 , b1 , c1 ) + (a2 , b2 , c2 ))
= T (a1 + a2 , b1 + b2 , c1 + c2 )
= (b1 + b2 ) + [2(a1 + a2 ) + (c1 + c2 )]x + [(b1 + b2 ) − 3(c1 + c2 )]x3
= (b1 + b2 ) + (2a1 + 2a2 + c1 + c2 )x + (b1 + b2 − 3c1 − 3c2 )x3
= [b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ] + [b2 + (2a2 + c2 )x + (b2 − 3c2 )x3 ]
= T (a1 , b1 , c1 ) + T (a2 , b2 , c2 )
= T (u) + T (v)

T (αu) = T (α(a1 , b1 , c1 ))

1, α c)=
T (αa1 , α b
= αb1 + (2α c1 )x + (αb1 − 3αc1 )x3
a1 + α
= αb1 + α (b1 − 3c1 )x3
(2a1 + c1 )x + α
= α[b1 + (2a1 + c1 )x + (b1 − 3c1 )x3 ]
= αT (a1 , b1 , c1 )
= αT (u)

9. Sea A ∈ Mm×n (R). Definamos T : Mn×1 (R) −→ Mm×1 (R) como T (x) = Ax. No es difı́cil
probar que T es una transformación lineal .
Este ´ultimo ejemplo nos dice que toda matriz define una transformaci´on lineal, m´as adelante
veremos que toda transformaci´on lineal, entre espacios vectoriales de dimensi´on finita, est´a
asociada con una matriz.
El siguiente teorema nos será de gran utilidad a la hora de decidir si una función T es una
transformación lineal.

Teorema 5.1. Sean V y W dos espacios vectoriales. Una función T : V −→ W es una trans-
formación lineal si y sólo si para cualesquiera u, v ∈ V y α ∈ R se cumple que T (u + αv)
=T (u) + αT (v)
T (u) + αT (v).

195
V.Transformaciones Lineales.

Demostración. Supongamos que T : V −→ W es una transformación lineal. Sean u, v ∈ V y


α ∈ R cualesquiera. Entonces

T (u + αv) = T (u) + T (αv) (por la condicin 1 de la definición 4.1)


= T (u) + αT (v) (por la condicin 2 de la definición 4.1)

Supongamos ahora que T : V −→ W es tal que para cualesquiera u, v ∈ V y α ∈ R se cumple


que
T (u + αv) = T (u) + αT (v)

Sean u, v ∈ V y α ∈ R cualesquiera. Entonces

T (u + v) = T (u + 1 · v) = T (u) + 1 · T (v) = T (u) + T (v)

y además
T (0/V ) = T (u + (−1)u) = T (u) + (−1)T (u) = 0/W

luego
T (αv) = T (0/V +αv) = T (0/V ) + αT (v) = 0/W +αT (v) = αT (v)

Por lo tanto T es lineal.

De ahora en adelante, gracias a este último teorema, cuando queramos probar que una fun-
ción T, entre espacios vectoriales, es una transformación lineal, no será necesario probar las dos
condiciones en la definición 4.1, sólo bastará probar la condición en el teorema anterior.

Teorema 5.2. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.


Entonces, para cualesquiera u, v, v1 , v2 , . . . , vn ∈ V y α 1 , α2 , . . . , αn ∈ R, se cumple que

1. T (0/V ) = 0/W .

2. T (u − v) = T (u) − T (v).

3. T (α1 v1 + α2 v2 + · · · + αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )

Demostración.

1. Sea v0 ∈ V cualquiera pero fijo. Entonces

T (0/V ) = T (0 · v0 ) = 0 · T (v0 ) = 0/W

196
V.Transformaciones Lineales.

2. En virtud del teorema 4.1

T (u − v) = T (u + (−1)v) = T (u) + (−1)T (v) = T (u) − T (v)

3. Procederemos por inducción.

a) Veamos que se cumple para n = 2.


T (α1 v1 + α2 v2 ) = T (α1 v1 ) + T (α2 v2 ) = α 1 T (v1 ) + α2 T (v2 )

b) (Hipótesis Inductiva) Supongamos que se cumple para n − 1, esto es, supongamos que

T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn−1 T (vn−1 )

c) Probemos que se cumple para n.

T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 + αn vn )


= T ((α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + αn vn )
= T (α1 v1 + α2 v2 + · · · + αn−1 vn−1 ) + T (αn vn )
(Hipótesis Inductiva) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn−1 T (vn−1 ) + αn T (vn )

Teorema 5.3. Sean U, V y W espacios vectoriales y L : U −→ V y T : V −→ W dos trans-


formaciones lineales. Entonces T ◦ L : U −→ W es también una transformación lineal.

Demostración. Sean u1 , u2 ∈ U y α ∈ R cualesquiera. Entonces

(T ◦ L)(u1 + αu2 ) = T (L(u1 + αu2)) (definición de composición de funciones)


= T (L(u1 ) + αL(u2 )) (ya que L es lineal)
= T (L(u1 )) + αT (L(u2)) (ya que T es lineal)
= (T ◦ L)(u1 ) + α(T ◦ L)(u2 ) (definición de composición de funciones)

Por lo tanto T ◦ L es lineal.

Teorema 5.4. Sean V y W dos espacios vectoriales, T, L : V −→ W dos transformaciones


lineales y λ ∈ R. Entonces T + λL : V −→ W es también una transformación lineal.

197
V.Transformaciones Lineales.

Demostración. Sean v1 , v2 ∈ V y α ∈ R cualesquiera. Entonces

(T + λ
L)(v1 + α
v2 ) = T (v1 + α
v2 ) + (λL)(v1 + α
v2 ) (definición de suma de funciones)
= T (v1 + α
v2 ) + λL(v1 + α
v2 )
(definición de múltiplo escalar de funciones)
= T (v1 ) + α
T (v2 ) + λ
(L(v1 ) + α
L(v2 )) (pues T y L son lineales)
= T (v1 ) + α
T (v2 ) + λ
L(v1 ) + λ
α
L(v2 )
= T (v1 ) + λ
L(v1 ) + α
T (v2 ) + λ
α
L(v2 )
= T (v1 ) + λ
L(v1 ) + α
(T (v2 ) + λ
L(v2 ))
= T (v1 ) + (λL)(v1 ) + α
(T (v2 ) + (λL)(v2 ))
(definición de múltiplo escalar de funciones)
= (T + λ
L)(v1 ) + α
(T + λ
L)(v2 ) (definición de suma de funciones)

En consecuencia T + λ
L es lineal.

Dado dos espacios vectoriales V y W, este último teorema nos dice que el conjunto
formado
por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de
funciones y multiplicación por escalar, forman un espacio vectorial.

Teorema 5.5. Sean V y W dos espacios vectoriales y β = {v1 , v2 , . . . , vn } una base de V.


Supongamos que T y L son dos transformaciones lineales de V en W tales que T (vi ) =
L(vi )
para cada i ∈ {1, . . . , n}. Entonces T = L, esto es, T (v) = L(v) para cada v ∈ V.

1, α 2, . . . , α n ∈ R tales que Demostración. Sea v ∈ V cualquiera. Existen (únicos) escalares α

n vn v = α 1 v1 + α 2 v2 + · · · + α

ası́ que
(teorema 5.2 parte 3)
n vn ) T (v) = T (α1 v1 + α 2 v2 + · · · + α
= α1 L(v1 ) + α2 L(v2 ) + · · · + αn L(vn ) (hipótesis)
= α 1 T (v1 ) + α 2 T (v2 ) + · · · + α n T (vn )
= L(α 1 v1 + α2 v2 + · · · + αn vn ) (teorema 5.2 parte
3) = L(v)

198
V.Transformaciones Lineales.

Luego T = L.

El teorema anterior nos dice que si T : V −→ W es una transformación lineal y V tiene


dimensión finita, basta con conocer como actúa T en una base cualquiera de V, para saber como
actúa T en cualquier v ∈ V.

Ejemplo 5.2. Hallar la transformación lineal T de P2 [x] en R2 tal que

T (1) = (2, −1); T (x) = (3, 4); T (x2 ) = (−1, 5)

Solución.

T (a0 + a1 x + a2 x2 ) = T (a0 · 1 + a1 x + a2 x2 )
= a0 T (1) + a1 T (x) + a2 T (x2 )
= a0 (2, −1) + a1 (3, 4) + a2 (−1, 5)
= (2a0 + 3a1 − a2 , −a0 + 4a1 + 5a2 )

Teorema 5.6 (Existencia y Unicidad de una Transformación Lineal). Sean V y W dos espacios
vectoriales, β = {v1 , v2 , . . . , vn } una base de V y w1 , w2 , . . . , wn ∈ W. Entonces existe una
única transformación lineal T : V −→ W tal que T (vi ) = wi para cada i ∈ {1, . . . , n}.

Demostración. Dado v ∈ V cualquiera, existen únicos escalares, α 1 , α2 , . . . , αn ∈ R, tales que


n
X
v = α1 v1 + α2 v2 + · · · + αn vn = αi vi
i=1

Definamos n
X
T (v) = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1

La unicidad de los escalares α1 , α2 , . . . , αn ∈ R, garantiza que T es una función, además, dado


que w1 , w2 , . . . , wn ∈ W y W es un espacio vectorial, se tiene que T (v) ∈ W, por lo tanto T es
una función de V en W. n
X
Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que vj = λi vi , donde λi = 0 si i 6= j y
i=1
λj = 1, ası́ que
n
X
T (vj ) = λi w i = λj w j = w j
i=1

199
V. Transformaciones Lineales.

Probemos ahora que T es lineal. Sean u, v ∈ V y λ ∈ R cualesquiera, entonces existen únicos


escalares α1 , α2 , . . . , αn , β1 , β2 , . . . , βn ∈ R tales que
n
X
u = α1 v1 + α2 v2 + · · · + αn vn = αi vi
i=1
n
X
v = β1 v1 + β2 v2 + · · · + βn vn = βi vi
i=1
Ası́ que
n
X
T (u) = α1 w1 + α2 w2 + · · · + αn wn = αi wi
i=1
Xn
T (v) = β1 w1 + β2 w2 + · · · + βn wn = βi wi
i=1
Además n n n
X X X
u + λv = αi vi + λ βi vi = (αi + λβi )vi
i=1 i=1 i=1
Por lo tanto
n
X n
X n
X
T (u + λv) = (αi + λβi )wi = αi wi + λ βi wi = T (u) + λT (v)
i=1 i=1 i=1

En consecuencia T es lineal.
Finalmente, probemos que T es única. Supongamos que existe otra transformación lineal L :
V −→ W tal que L(vi ) = wi para cada i ∈ {1, . . . , n}.
Luego, por el teorema 5.5, se tiene que L = T .

Ejemplo 5.3. Hallar una transformación lineal T : R3 −→ M2×2 (R) (si existe) tal que
" # " #
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;
1 −2 4 3
" # " #
2 1 4 −2
T (−2, 1, 2) = ; T (1, −1, 0) =
−3 −5 1 0
Solución. Veamos cuales de los vectores (−2, 2, −1), (0, 1, −3), (−2, 1, 2), (1, −1, 0) son lineal-
mente independientes, para ello, consideremos la matriz
 
−2 0 −2 1

 2 1 1 −1  
−1 −3 2 0

200
V. Transformaciones Lineales.

y hallemos su FERF.
     
−2 0 −2 1 −1 −3 2 0 1 3 −2 0
     
 2 1 1 −1  F1 ↔ F3→  2 1 1 −1  F1 → −F1→  2 1 1 −1 
−1 −3 2 0 −2 0 −2 1 −2 0 −2 1
   
1 3 −2 0 1 3 −2 0
F2 → F2 − 2F1    
→ 0 −5 5 −1 F 2 → F2 + F3 0 1 −1 0
  → 
F3 → F3 + 2F1
0 6 −6 1 0 6 −6 1
 
1 0 1 0
F1 → F1 − 3F2  
→ 0 1 −1 0
 
F3 → F3 − 6F2
0 0 0 1
Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores

(−2, 2, −1), (0, 1, −3), (1, −1, 0)

son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema
4.6, concluimos que existe una única transformación lineal tal que
" # " #
2 0 0 −1
T (−2, 2, −1) = ; T (0, 1, −3) = ;
1 −2 4 3
" #
4 −2
T (1, −1, 0) =
1 0
Hallemos T . Sea (x, y, z) ∈ R3 cualquiera. Hagamos

β = {(−2, 2, −1), (0, 1, −3), (1, −1, 0)}

debemos hallar [(x, y, z)]β , para ello hallemos la matriz Mβc ,β .


   
−2 0 1 1 0 0 −1 −3 0 0 0 1
 
 2 1 −1 0 1 0  F1 ↔ F3 
→ 1 −1 0 1 0 
2 
−1 −3 0 0 0 1 −2 0 1 1 0 0
   
1 3 0 0 0 −1 1 3 0 0 0 −1
 F2 → F2 − 2F1
F1 → −F1  2 1 −1 0 1 0  →  0 −5 −1 0 1 2 
→   
F3 → F3 + 2F1
−2 0 1 1 0 0 0 6 1 1 0 −2

201
V. Transformaciones Lineales.

   
1 3 0 0 0 −1 1 0 0 −3 −3 −1
  F1 → F1 − 3F2  
F2 → F2 + F3  0 1 0 1 1 0 → 0 1 0 1 1 0
→   
F3 → F3 − 6F2
0 6 1 1 0 −2 0 0 1 −5 −6 −2
Por lo tanto  
−3 −3 −1
 
Mβc ,β =  1 1 0 
−5 −6 −2
En consecuencia
    
−3 −3 −1 x −3x − 3y − z
    
[(x, y, z)]β = Mβc ,β [(x, y, z)]βc =  1 1 0  y  =  x+y 
−5 −6 −2 z −5x − 6y − 2z
Es decir

(x, y, z) = (−3x − 3y − z)(−2, 2, −1) + (x + y)(0, 1, 3) + (−5x − 6y − 2z)(1, −1, 0)

De donde

T (x, y, z) = (−3x − 3y − z)T (−2, 2, −1) + (x + y)T (0, 1, 3)


+(−5x − 6y − 2z)T (1, −1, 0)
" # " #
2 0 0 −1
= (−3x − 3y − z) + (x + y)
1 −2 4 3
" #
4 −2
+(−5x − 6y − 2z)
1 0
" #
−26x − 30y − 10z 9x + 11y + 4z
=
−4x − 5y − 3z 9x + 9y + 2z
Por último
" # " #
−26(−2) − 30(1) − 10(2) 9(−2) + 11(1) + 4(2) 2 1
T (−2, 1, 2) = =
−4(−2) − 5(1) − 3(2) 9(−2) + 9(1) + 2(2) −3 −5
Por lo tanto, T es la transformación lineal requerida (además, es única).

Ejemplo 5.4. Hallar una transformación lineal (si existe) T : R4 −→ M3×1 (R) tal que
   
1 0
T (1, −2, 1, 1) =   
 2  ; T (2, 1, 3, 0) =  −1 

−3 2

202
V.Transformaciones Lineales.

   
−2 3
   
T (0, 5, 1, −2) =  −5  ; T (1, −7, 0, 3) =  7 
8 −11

Solución. Veamos si el conjunto S = {(1, −2, 1, 1); (2, 1, 3, 0); (0, 5, 1, −2); (1, −7, 0, 3)} es li-
nealmente independiente, para ello consideremos la matriz
 
1 2 0 1
 −2 1 5 −7

 1 3 1 0 

1 0 −2 3

y hallemos su FERF
     
1 2 0 1 1 2 0 1 1 2 0 1
F2 → F2 + 2F1
 −2 1 5 −7   0 5 5 −5   0 1 1 −1 
F3 → F3 − F1 F2 ↔ F3
→ 1 −1  → 5 −5 
 1 3 1 0 
F4 → F4 − F1 
0 1  0 5
1 0 −2 3 0 −2 −2 2 0 −2 −2 2
 
1 0 −2 3
F1 → F1 − 2F2
 0 1 1 −1 
F3 → F3 − 5F2
→ 0 0 0 0 
F4 → F4 + 2F2 
0 0 0 0
Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos
proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo
de estos dos vectores (el teorema de completación de bases nos lo permite) ¿cómo hacerlo?,
escojamos estos vectores entre los canónicos, para saber cuál de ellos escoger, consideremos la
siguiente matriz  
1 2 1 0 0 0
 −2 1 0 1 0 0 

 1 3 0 0 1 0 
1 0 0 0 0 1
hallemos su FERF.

203
V. Transformaciones Lineales.

   
1 2 1 0 0 0 1 2 1 0 0 0
F2 → F2 + 2F1
 −2 1 0 1 0 0  0 5 2 1 0 0
F3 → F3 − F1
 → 1 −1 0 1 0 
 1 3 0 0 1 0  F →F −F  0 
4 4 1
1 0 0 0 0 1 0 −2 −1 0 0 1
   
1 2 1 0 0 0 1 0 3 0 −2 0
F1 → F1 − 2F2
 0 1 −1 0 1 0  0 1 −1 0 1 0
F2 ↔ F3 F 3 → F 3 − 5F 2
→ 0 5 2 1 0 0  → −5 0 
  F → F + 2F  0 0 7 1 
4 4 2
0 −2 −1 0 0 1 0 0 −3 0 2 1
   
1 0 3 0 −2 0 1 0 0 − 37 1
7
0
F1 → F1 − 3F3 1 2
 0 1 −1 0 1 0  0 1 0 7 7
0
F3 → 17 F3 F 2 → F 2 + F 3
→ 0 0 1 5
1 7 −7 0  →  0 0 1 1
− 57 0 
 F4 → F4 + 3F3  7
3
0 0 −3 0 2 1 0 0 0 7
− 17 1

Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base
de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir,

β = {(1, −2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)}

es una base de R4 , haciendo


 
0

T (1, 0, 0, 0) = T (0, 1, 0, 0) =  0
 
0
garantizamos, según el teorema 4.6, que existe una única transformación lineal

T : R4 −→ M1×3 (R)

que satisface las dos primeras igualdades en el enunciado del ejercicio y


 
0
 
T (1, 0, 0, 0) = T (0, 1, 0, 0) =  0 
0
Hallemos T . Al calcular la matriz de coordenadas de (x, y, z, w) ∈ R4 cualquiera, respecto a la
base β, obtenemos (¡verificarlo!)
 
w
h i 1
z − 13 w
 3 
(x, y, z, w) =
β
 x − 23 z − 13 w 
y − 13 z + 73 w

204
V. Transformaciones Lineales.

Por lo tanto
  
1 1
T (x, y, z, w) = T w(1, −2, 1, 1) + z − w (2, 1, 3, 0)
3 3
    
2 1 1 7
+ x− z− (1, 0, 0, 0) + y − z + w (0, 1, 0, 0)
3 3 3 3
 
1 1
= wT (1, −2, 1, 1) + z − w T (2, 1, 3, 0)
3 3
   
2 1 1 7
+ x− z− T (1, 0, 0, 0) + y − z + w T (0, 1, 0, 0)
3 3 3 3
     
1   0   0
  1 1   1 1  
= w 2 + z − w  −1  + z− w  0 
3 3 3 3
−3 2 0
 
  0
1 7
+ y− z+ w   0 

3 3
0

 
w
 
T (x, y, z, w) =  − 13 z + 73 w 
2
3
z − 113
w
Se puede verificar que T satisface las últimas dos igualdades en el enunciado del ejercicio,
ası́ que T es la transformación buscada, pero a diferencia de la transformación hallada en el
ejercicio anterior, esta no es única, depende de la escogencia de los vectores que completan la
base del espacio de partida y la escogencia de las imágenes de estos.

5.2. Matriz de una Transformación Lineal

En la sección anterior, vimos que toda matriz A ∈ Mm×n (R), define una transformación lineal
de Mn×1 (R) en Mm×1 (R), además, se comentó que toda transformación lineal, entre espacios
vectoriales de dimensión finita, está asociada con una matriz, a continuación enunciaremos y
demostraremos un teorema que garantiza esta última afirmación.

205
V. Transformaciones Lineales.

Teorema 5.7. Sean V y W dos espacios vectoriales, β V = {v1 , v2 , . . . , vn } una base ordenada
de V, β W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una transformación
lineal.
Entonces existe un única matriz A ∈ Mm×n (R) tal que para cada v ∈ V

[T (v)]βW = A[v]β V
1j , α 2j , . . . , α mj ∈
R tales que
Demostración. Para cada j ∈ {1, . . . , n}, existen escalares α
mj wm

T (vj ) = α 1j w1 + α 2j w2 + ·· · + α


α1j
α2j
es decir
 .. 
 
αmj
[T (vj )]βW =
Dado v ∈ V cualquiera, hagamos  
λ1
λ 
2
[v]βV = .
.
λn
es decir
v = λ1 v1 + λ2 v2 + · · · + λn vn

De donde
n vn )

T (v) = T (λ1 v1 + λ 2 v2 + · · · + λ

n T (vn )=
λ1 T (v1 ) + λ 2 T (v2 ) + · · · + λ
= λ1 (α11 w1 + α 21 w2 + · · · + α m1 wm ) + λ 2 (α12 w1 + α 22 w2 + · · · + α m2 wm ) + · · ·
+
mn wm ) +λ n (α1n w1 + α 2n w2 + · · · + α
= (α11 λ1 + α 12 λ 2 + · · · + α 1n λ n )w1 + (α21 λ1 + α 22 λ 2 + · · · + α 2n λ n )w2 + · · ·
+
    
α11λλn1 )w
mn +mα12
+(αλ2 m1
+λ · ·1·+
+αα λλ+
1n2 n
m2 · · · + α α11 α12 · · · α 1n λ1
α21 λ1 + α22 λ2 + · · · + α2n λn  α21 α22 · · · α2n  λ2
[T (v)]βW = = = A[v]βV
Por lo tanto  .  . . .  .
    
αm1 λ1 + αm2 λ2 + · · · + αmn λn αm1 αm2 · · · αmn λn

206
V. Transformaciones Lineales.

donde  
α11 α12 ··· α1n
h i
 α21 α22 · · · α2n 
A= . . . = [T (v )]
1 βW · · · [T (v )]
n βW
 . . . 
αm1 αm2 · · · αmn
Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos
ahora su unicidad. Supongamos que B ∈ Mm×n (R) es tal que para cada v ∈ V

[T (v)]βW = B[v]βV

Luego, para cada j ∈ {1, . . . , n}, tenemos que

[T (vj )]βW = B[vj ]βV

Pero  
0
 .. 
0
 
[vj ]βV = 1 −→ j-ésima fila
0
.
.
0
Luego
A(j) = [T (vj )]βW = B[vj ]βV = B (j)

Por lo tanto B = A.

Definición 5.2. La matriz A en el teorema anterior, se denomina representación matricial


de T respecto a las bases β V y β W , y la denotaremos por [T ]βV ,βW .

Observación 5.1. Cuando W = V y β W = β V = β, escribiremos [T ]β en lugar de [T ]β,β.

Ejemplo 5.5.

1. Si Ves un espacio vectorial de dimensión n, W es un espacio vectorial de dimensión m, β


V

y β W son bases ordenadas de V y W respectivamente, entonces [O]β V ,β W = /0m×n , donde O



es la transformación nula de V en W.

207
V. Transformaciones Lineales.

2. Si V es un espacio vectorial de dimensión n y β es una base ordenada de V, entonces


[IV ]β = In , donde IV es la transformación identidad sobre V. 

Ejemplo 5.6. Definamos T : M2×2 (R) −→ R3 como sigue


!
x y
T = (2y − z, x − y + w, 3x − y − z + w)
z w
no es difı́cil probar que T es lineal (¡pruébelo!). Consideremos las bases canónicas ordenadas βV
de M2×2 (R) y βW de R3 . Hallar [T ]βV ,βW .

Solución. En primer lugar


! !
1 0 0 1
T = (0, 1, 3) ; T = (2, −1, −1)
0 0 0 0
! !
0 0 0 0
T = (−1, 0, −1) ; T = (0, 1, 1)
1 0 0 1
y as, por definición de la matriz [T ]βV ,βW
" !# " !# " !# " !# 
1 0 0 1 0 0 0 0
[T ]βV ,βW =  T T T T 
0 0 0 0 1 0 0 1
βW βW βW βW
h i
= [(0, 1, 3)]βW [(2, −1, −1)]βW [(−1, 0, −1)]βW [(0, 1, 1)]βW
 
0 2 −1 0
 
=  1 −1 0 1 
3 −1 −1 1

Ejemplo 5.7. Consideremos la transformación lineal T : M2×2 (R) −→ P2 [x] dada por
!
a b
T = (a + b − c) + (a + 2b + c + d)x + (−a − 3b − 3c − 2d)x2
c d
Sean βV la base canónica ordenada de M2×2 (R), βW la base canónica ordenada de P2 [x] y
( ! ! ! !)
1 2 −1 0 2 3 −2 1
βbV = ; ; ;
−1 0 1 1 1 −1 3 2


βbW = 1 + x; x + x2 ; 1 − 2x2

bases ordenadas de M2×2 (R) y P2 [x], respectivamente. Hallar [T ]βV ,βW y [T ]βbV ,βbW .

208
V. Transformaciones Lineales.

Solución. En primer lugar, hallaremos las imágenes, a través de T , de cada uno de los vectores
de la base canónica βV .
! !
1 0 0 1
T = 1 + x − x2 ; T = 1 + 2x − 3x2
0 0 0 0
! !
0 0 0 0
T = −1 + x − 3x2 ; T = x − 2x2
1 0 0 1
Al igual que en ejemplo 4.6, por definición de la matriz [T ]βV ,βW
" !# " !# " !# " !# 
1 0 0 1 0 0 0 0
[T ]βV ,βW =  T T T T 
0 0 0 0 1 0 0 1
βW βW βW βW
h        i
= 1 + x − x2 β 1 + 2x − 3x2 β −1 + x − 3x2 β x − 2x2 β
W W W W
 
1 1 −1 0
 
=  1 2 1 1 
−1 −3 −3 −2

Análogamente, para hallar [T ]βbV ,βbW , hallemos primero las imágenes, a través de T , de cada uno
de los vectores de la base βbV .
! !
1 2 −1 0
T = 4 + 4x − 4x2 ; T = −2 + x − 4x2
−1 0 1 1
! !
2 3 −2 1
T = 4 + 8x − 12x2 ; T = −4 + 5x − 14x2
1 −1 3 2
Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base
βbW . Para ello consideremos la siguiente matriz cuatro veces ampliada (¿por qué?).
 
1 0 1 4 −2 4 −4
 1 1 0 4 1 8 5 
 
0 1 −2 −4 −4 −12 −14
las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base βbW ,
respecto a la base canónica βW , el resto de las columnas, son las coordenadas de los vectores,
hallados previamente, respecto a la base canónica βW , esto es, las tres primeras columnas de esta
matriz representan la matriz MβbW ,βW y las últimas 4 columnas reperesentan la matriz [T ]βbV ,βW .
La FERF de esta matriz es

209
V. Transformaciones Lineales.

 
1 0 0 0 −9 −12 −27
 
 0 1 0 4 10 20 32 
0 0 1 4 7 16 23
Por lo tanto  
0 −9 −12 −27
 
[T ]βbV ,βbW =  4 10 20 32 
4 7 16 23

El ejemplo 5.7 nos permite escribir el siguiente algoritmo.


Algoritmo para hallar la matriz [T ]βV ,βW , donde T : V −→ W es una transformación lineal;
βV = {v1 , v2 , . . . , vn } es una base ordenada de V; βW es una base ordenada del espacio vectorial
c
W de dimensión m; y βW es la base canónica ordenada de W. En general W = Rm , W = Pm−1 [x]
ó W = Mp×q (R) con pq = m.

Paso 1. Hallar T (v1 ), T (v2 ), . . . , T (vn ).

Paso 2. Hallar las matrices MβW ,βWc y [T ]βV ,βWc .


 
Paso 3. Formar la la matriz ampliada MβW ,βWc |[T ]βV ,βWc .

Paso 4. Hallar la FERF de la matriz en el paso previo.

Paso 5. La matriz hallada en el paso previo tiene la forma [Im |B]. Entonces [T ]βV ,βW = B.

Teorema 5.8. Sean U, V y W espacios vectoriales, L : U −→ V y T : V −→ W dos trans-


formaciones lineales y β U , β V y β W bases ordenadas de U, V y W respectivamente. Entonces

[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV

Demostración. Sea u ∈ U cualquiera. Entonces

([T ]βV ,βW [L]βU ,βV )[u]βU = [T ]βV ,βW ([L]βU ,βV [u]βU )
= [T ]βV ,βW [L(u)]βV

([T ]βV ,βW [L]βU ,βV )[u]βU = [T (L(u))]βW


= [(T ◦ L)(u)]βW .

210
V. Transformaciones Lineales.

Luego, por unicidad de la matriz [T ◦ L]βU ,βW , se tiene que

[T ◦ L]βU ,βW = [T ]βV ,βW [L]βU ,βV

Teorema 5.9. Sean V y W dos espacios vectoriales de dimensión finita; β V y βbV bases ordenadas
de V; βW y βbW bases ordenadas de W y T : V −→ W una transformación lineal. Entonces

[T ]βbV ,βbW = MβW ,βbW [T ]βV ,βW MβbV ,βV

Demostración. Sea v ∈ V cualquiera. Entonces

[T (v)]βW = [T ]βV ,βW [v]βV

[v]βV = MβbV ,βV [v]βbV

Luego

[T (v)]βbW = MβW ,βbW [T (v)]βW = MβW ,βbW [T ]βV ,βW [v]βV = MβW ,βbW [T ]βV ,βW MβbV ,βV [v]βbV

Por unicidad de la matriz [T ]βbV ,βbW , se tiene que

[T ]βbV ,βbW = MβW ,βbW [T ]βV ,βW MβbV ,βV

Ejemplo 5.8. Consideremos T , β V , β W , βbV y βbW como en el ejemplo 5.7. Verificar el teorema
5.9.

Solución. Sabemos que  


0 −9 −12 −27
 
[T ]βbV ,βbW =  4 1032  20
4 7 16 23
 
1 1 −1 0
[T ]βV ,βW =
 1 2 1 1
−1 −3 −3 −2
Por otro lado, fácilmente obtenemos que
 
1 −1 2 −2
 2 0 3 1
MβbV ,βV =
 −1 1 1 3 
0 1 −1 2

211
V. Transformaciones Lineales.

y haciendo algunos cálculos (no muchos ni muy complicados) obtenemos


 
2 −1 1
 
MβW ,βbW , =  −2 2 −1 
−1 1 −1

Al sustituir, se obtiene que


[T ]βbV ,βbW = MβW ,βbW [T ]βV ,βW MβbV ,βV

Corolario 5.10. Sea V un espacio vectorial de dimensión finita; β V y βbV dos bases ordenadas
de V y T : V −→ V una transformación lineal. Entonces

[T ]βbV = MβV ,βbV [T ]βV MβbV ,βV

Demostración. ¡Ejercicio!

5.3. Núcleo e Imagen de una Transformación Lineal


Definición 5.3. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.
Definiremos

1. El núcleo o kernel de T como el conjunto

N(T ) = Ker(T ) = {v ∈ V : T (v) = 0/W }

2. La imagen o recorrido de T como el conjunto

Im(T ) = {w ∈ W : T (v) = w para algún v ∈ V}

Observación 5.2. w ∈ Im(T ) si y sólo si existe v ∈ V tal que T (v) = w.

Teorema 5.11. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.


Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de W.

212
V. Transformaciones Lineales.

Demostración. Es claro que N(T ) ⊂ V e Im(T ) ⊂ W.


Por la parte 1 del teorema 4.2, se tiene que T (0/V ) = 0/W , ası́ que 0/V ∈ N(T ) y 0/W ∈ Im(T ), de
donde, N(T ) 6= ∅ e Im(T ) 6= ∅.
Por otro lado, sean v1 , v2 ∈ N(T ) y α ∈ R cualesquiera. Entonces

T (v1 ) = 0/W = T (v2 )

Ası́ que
T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = 0/W +α 0/W = 0/W

Por lo tanto v1 + αv2 ∈ N(T ), en consecuencia, N(T ) es un subespacio de V.


Finalmente, sean w1 , w2 ∈ Im(T ) y α ∈ R cualesquiera. Entonces, existen v1 , v2 ∈ V tales que
T (v1 ) = w1 y T (v2 ) = w2 .
Consideremos v = v1 + αv2 . Ası́ que v ∈ V y

T (v) = T (v1 + αv2 ) = T (v1 ) + αT (v2 ) = w1 + αw2

De donde w1 + αw2 ∈ Im(T ), luego Im(T ) es un subespacio de W.

Definición 5.4. Sean V y W dos espacios vectoriales y T : V −→ W una transformación lineal.


Definiremos

1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )).

2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )).

Ejemplo 5.9.

1. Consideremos la transformación nula O : V −→ W. Entonces N(O) = V e Im(O) = {0/W }


(¡pruébelo!). 

2. Para la transformación identidad sobre V, IV : V −→ V, se puede probar que Im(IV ) = V


y N(IV ) = {0/V } (¡pruébelo!). 

Ejemplo 5.10. Sea T la transformación dada en el ejemplo 4.6. Hallar n(T ) y r(T ).

213
V. Transformaciones Lineales.

Solución. Por definición


( ! ! )
x y x y
N(T ) = ∈ M2×2 (R) : T = (0, 0, 0)
z w z w
!
x y
Pero T = (0, 0, 0) si y sólo si
z w

 2y −z = 0

x −y +w = 0 (5.1)

 3x −y −z +w = 0
!
x y
Es decir ∈ N(T ) si y sólo si se satisface el sistema (4.1). Resolvamos este sistema.
z w
     
0 2 −1 0 1 −1 0 1 1 −1 0 1
     
 1 −1 0 1  F1 ↔ F2  0 2 −1 0  F3 → F3 − 3F1  0 2 −1 0 
→ →
3 −1 −1 1 3 −1 −1 1 0 2 −1 −2
   
1 −1 0 1 1 0 − 12 1
  F1 → F1 + F2  
1
F2 → 2 F2  0 1 − 12 0  → 0 1 − 1
0
→  2 
F3 → F3 − 2F2
0 2 −1 −2 0 0 0 −2
   
1 0 − 12 1 1 0 − 12 0
   
F3 → − 12 F3  0 1 − 12 0  F1 → F1 − F3→  0 1 − 12 0 

0 0 0 1 0 0 0 1
De donde
 
 x − 12 z = 0 1
  x =
 2
z
y − 12 z = 0 ; o bien y = 1
z
 
2
 w = 0  w = 0
Haciendo z = 2α, con α ∈ R, obtenemos
! ! !
x y α α 1 1
= =α
z w 2α 0 2 0
Por lo tanto ( !)!
1 1
N(T ) = gen
2 0

214
V. Transformaciones Lineales.

y la nulidad de T es
n(T ) = dim(N(T )) = 1

Por otro lado


( ! ! )
3 x y x y
Im(T ) = (a, b, c) ∈ R : T = (a, b, c) para algún ∈ M2×2 (R)
z w z w
!
x y
Pero T = (a, b, c) si y sólo si
z w

 2y −z = a

x −y +w = b (5.2)

 3x −y −z +w = c

En consecuencia (a, b, c) ∈ Im(T ) si y sólo si el sistema (4.2) tiene solución. Al resolver este
sistema, obtenemos
 
 x − 12 z = − 12 b + 1
c 1
− 12 b + 12 c
 2  x =
 2
z
y − 12 z = 1
a ; o bien y = 1
z+ 1
a

2  2 2
 w = 1
a + 32 b − 1
c  w = 1
a 3
+ 2b − 1
c
2 2 2 2

Por lo tanto, el sistema (4.2) tiene solución para cada (a, b, c) ∈ R3 , en consecuencia Im(T ) = R3
y r(T ) = 3.

Observacci´on ó 5.3. Nótese que la matriz de los sistemas (5.2) y (5.1) no es otra que la que la mat-
riz [T ]βV,βW, donde βV y βW son las bases canónicas de lo5 espacios M2×2(R) y R3 respectivamente .

Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz
de este sistema nos da toda la información, pero a diferencia del caso matricial, los pivotes de esta
matriz nos dan las coordenadas, respecto a la base canónica de R3, de los vectores que forman una
base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo.

Ejemplo 5.11. Hallar el núcleo, la nulidad, la imagen y el rango de la transformación lineal


T dada en el ejemplo 4.7.
!
a b
Solución. ∈ N(T ) si y sólo si
c d

215
V. Transformaciones Lineales.



 a +b −c = 0
a +2b +c +d = 0 (5.3)

 −a −3b −3c −2d = 0

La matriz de este sistema es


 
1 1 −1 0
 
[T ]βV ,βW =  1 1  2 1
−1 −3 −3 −2

donde βV y βW son las bases canónicas de M2×2 (R) y P2 [x] respectivamente. Su FERF es
 
1 0 −3 −1
 
 0 1 2 1 
0 0 0 0
Por lo tanto
( (
a −3c −d = 0 a = 3c + d
; o bien
b +2c +d = 0 b = −2c − d
Ası́ que ! ! ! !
a b 3c + d −2c − d 3 −2 1 −1
= =c +d
c d c d 1 0 0 1
En consecuencia ( ! !)!
3 −2 1 −1
N(T ) = gen ;
1 0 0 1
y una base para N(T ) es
( ! !)
3 −2 1 −1
;
1 0 0 1
luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, están en las colum-
nas 1 y 2, ası́ que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto
a βW , de dos vectores que forman una base para Im(T ), por lo tanto r(T ) = dim(Im(T )) = 2,
además

 
Im(T ) = gen 1 + x − x2 ; 1 + 2x − 3x2

216
V. Transformaciones Lineales.

y una base para Im(T ) es



1 + x − x2 ; 1 + 2x − 3x2

La observación 5.3 puede ser generalizada de la siguiente manera.

Teorema 5.12. Sean V y W dos espacios vectoriales, β V = {v1 , v2 , . . . , vn } una base


ordenada de V, β W = {w1 , w2 , . . . , wm } una base ordenada de W y T : V −→ W una
transformación lineal.
Entonces

1. {u1 , u2 , . . . , uk } es una base para N(T ) si y sólo si {[u1 ]β V , [u2 ]βV , . . . , [uk ]βV } es una base
para N([T ]Vβ,β W )

2. {z1 , z2 , . . . , zr } es una base para Im(T ) si y sólo si {[z1 ]β W , [z2 ]βW , . . . , [zr ]βW } es una base
para Im([T ]Vβ,β W )

Demostración. Ver Apéndice D.

Corolario 5.13. Sean V, W, β V , β W y T como en el teorema 5.12.


Entonces

1. n(T ) = n ([T ]Vβ,β W )

2. r(T ) = r ([T ]Vβ,β W )

3. n(T ) + r(T ) = n = dim(V)

Demostración. ¡Ejercicio!

El siguiente ejemplo ilustra estos resultados.


Sean βV y βbW como en el ejemplo 5.7. Usar la matriz [T ]βbV , bβW para hallar el
núcleo, la nulidad, la imagen y el rango de la transformación lineal T .

Ejemplo 4.12.
Solución. , b recordemos que
Sean Tlugar,
En primer
( ! ! ! !)
1 2 −1 0 2 3 −2 1
βbV = ; ; ;
−1 0 1 1 1 −1 3 2

217
V. Transformaciones Lineales.


βbW = 1 + x; x + x2 ; 1 − 2x2

Sabemos que  
0 −9 −12 −27
 
[T ]βbV ,βbW =  4 10 20 32 
4 7 16 23
Sin mucha dificultad, obtenemos que la FERF de esta matriz es
 
1 0 53 12
 
4
 0 1 3 3 
0 0 0 0
 
Luego una base para N [T ]βbV ,βbW es
   
 −5 −1 
 −4 −6 

;
 
 3   0 
 0 2 

y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resd-
pecto a la base βbV de dos vectores que forman una base para N(T ), hallemos estos vectores.
! ! ! ! !
1 2 −1 0 2 3 −2 1 5 −1
(−5) + (−4) +3 +0 =
−1 0 1 1 1 −1 3 2 4 −7
! ! ! ! !
1 2 −1 0 2 3 −2 1 1 0
(−1) + (−6) +0 +2 =
−1 0 1 1 1 −1 3 2 1 −2
Luego, una base para N(T ) es
( ! !)
5 −1 1 0
;
4 −7 1 −2

y ası́ ( ! !)!
5 −1 1 0
N(T ) = gen ;
4 −7 1 −2
y n(T ) = 2.

Calcular el conjunto imagen y su dimensise queda como


ejercicio.

218
5.4. Aplicaciones de las transformaciones: reflexión,
dilatación,contracción y rotación.

Dilatación o escalamiento 2D

El escalamiento 2D implica el cambio de tamaño de un polígono, donde cada punto

p = ( x1 , x 2 ) es transformado por la multiplicación de dos factores de escalamiento: s1 y s2 a

lo largo de los ejes X1 y X2 respectivamente, de esta forma, las coordenadas del nuevo punto

p ' = ( x1 ' , x 2 ' ) se obtienen como:

x1 ' = x1 ⋅ s1
x2 ' = x2 ⋅ s2

Sea s = ( s1 , s 2 ) el vector de factores de escalamiento, y S(s) la matriz de

escalamiento, en coordenadas homogéneas el escalamiento de un punto p en 2D se puede

expresar como el producto matricial p' = p ⋅ S ( s ) , es decir:

⎡ s1 0 0⎤
[x1 ' x 2 ' 1] = [x1 x2 1] ⋅ ⎢⎢ 0 s2 0⎥⎥
⎢⎣ 0 0 1⎥⎦

Ecuación 5.1: Expresión matricial para el escalamiento 2D.

La Figura 5.1 muestra el efecto de escalamiento de una figura con s1 = 1.5 y s2 = 2.


X2 X2

5 5

4 4

3 3

2 2

1 1

X1 X1
1 2 3 4 5 1 2 3 4 5

Figura 5.1: Ejemplo de escalamiento 2D.

219
V. Transformaciones Lineales.

Dilatación o escalamineto 3D

Extendiendo la idea anterior a 3D, el escalamiento implica el cambio de tamaño de un

poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es transformado por la multiplicación de tres

factores de escalamiento: s1, s2 y s3 a lo largo de los ejes X1, X2 y X3 respectivamente, de

esta forma, las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como:

x1 ' = x1 ⋅ s1
x2 ' = x2 ⋅ s2
x3 ' = x3 ⋅ s 3

Sea s = ( s1 , s 2 , s3 ) el vector de factores de escalamiento, y S(s) la matriz de

escalamiento, en coordenadas homogéneas el escalamiento de un punto p en 3D se puede

expresar como el producto matricial p' = p ⋅ S ( s ) , es decir:

⎡ s1 0 0 0⎤
⎢0 s2 0 0⎥⎥
[x1 ' x 2 ' x3 ' 1] = [x1 x2 x3 1] ⋅ ⎢
⎢0 0 s3 0⎥
⎢ ⎥
⎣0 0 0 1⎦

Ecuación 5.2: Expresión matricial para el escalamiento 3D.

La Figura 5.2 muestra el efecto de escalamiento de una figura con s1 = 2, s2 = 2.5 y

s3 = 1.5.

220
V. Transformaciones Lineales.

X2 X2
5 5

4 4

3 3

2 2

1 1

X1 X1
1 2 3 4 5 1 2 3 4 5
1 1
2 2
3 3
X3 4 X3 4
5 5

Figura 5.2: Ejemplo de escalamiento 3D.

Escalamiento o dilatación 4D

Extendiendo nuevamente la idea anterior a 4D, el escalamiento implica el cambio de

tamaño de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es transformado por la

multiplicación de cuatro factores de escalamiento: s1, s2, s3 y s4 a lo largo de ejes que

forman el espacio 4D, de esta forma, las coordenadas del nuevo punto

p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtienen como:

x1 ' = x1 ⋅ s1
x2 ' = x2 ⋅ s2
x3 ' = x3 ⋅ s 3
x4 ' = x4 ⋅ s4

Sea s = ( s1 , s 2 , s3 , s 4 ) el vector de factores de escalamiento, y S(s) la matriz de

escalamiento, en coordenadas homogéneas el escalamiento de un punto p en 4D se puede

expresar como el producto matricial p' = p ⋅ S ( s ) , es decir:

221
V. Transformaciones Lineales.

⎡ s1 0 0 0 0⎤
⎢0 s2 0 0 0⎥⎥

[x1 ' x 2 ' x3 ' x 4 ' 1] = [x1 x2 x3 x4 1] ⋅ ⎢ 0 0 s3 0 0⎥
⎢ ⎥
⎢0 0 0 s4 0⎥
⎢⎣ 0 0 0 0 1⎥⎦

Ecuación 5.3: Expresión matricial para el escalamiento 4D.

Escalamiento o dilatación nD

De esta forma, el escalamiento nD implica el cambio de tamaño de un politopo nD en

todas sus dimensiones, como se observó anteriormente, se puede representar el

escalamiento nD en su forma matricial, donde los factores de escalamiento se localizan en

la diagonal principal, cada uno colocado en la columna que le corresponde a su respectivo

eje. Así, se obtiene la expresión matricial de escalamiento para cualquier dimensión:

⎡ s1 0 0 K 0 0⎤
⎢0 s2 0 K 0 0⎥⎥

⎢0 0 s3 K 0 0⎥
[x1 ' x 2 ' x3 ' K x n ' 1] = [x1 x2 x3 K x n 1] ⋅ ⎢ ⎥
⎢M M M O M M⎥
⎢0 0 0 K sn 0⎥
⎢ ⎥
⎣⎢ 0 0 0 K 0 1⎦⎥

Ecuación 5.4: Expresión matricial para el escalamiento nD.

En general, la matriz de escalamiento S(s) para nD en coordenadas homogéneas tendrá

un tamaño de (n+1) × (n+1), en la cual, si se sustituyen los valores para n=2 y n=3, se

obtienen las matrices de escalamiento 2D y 3D respectivamente.

Translación
La translación permite desplazar un objeto a lo largo de sus dimensiones, como

resultado se obtiene un cambio de posición.

222
V. Transformaciones Lineales
Lineales.
Translación 2D

La translación 2D implica el desplazamiento de un polígono, donde cada punto

p = ( x1 , x 2 ) es trasladado d1 unidades en el eje X1 y d2 unidades en el eje X2, de esta forma,

las coordenadas del nuevo punto p' = ( x1 ' , x 2 ' ) , se obtienen como:

x1 ' = x1 + d1
x2 ' = x2 + d 2

Sea d = (d 1 , d 2 ) el vector de distancias, y T(d) la matriz de translación, en

coordenadas homogéneas la translación de un punto p en 2D se puede expresar como el

producto matricial p' = p ⋅ T (d ) , es decir:

⎡1 0 0⎤
[x1 ' x 2 ' 1] = [x1 x2 1] ⋅ ⎢⎢ 0 1 0⎥⎥
⎢⎣d1 d2 1⎥⎦

Ecuación 5.5: Expresión matricial para la translación 2D.

La Figura 3.3 muestra el efecto de translación de una figura con d1 = 1 y d2 = 2.

X2 X2
5 5

4 4

3 3

2 2

1 1

X1 X1
1 2 3 4 5 1 2 3 4 5

Figura 5.3: Ejemplo de translación 2D.

Translación 3D

Basándose en la idea anterior, se tiene que la translación 3D implica el

desplazamiento de un poliedro, donde cada punto p = ( x1 , x 2 , x3 ) es trasladado d1 unidades

223
V. Transformaciones Lineales.
en el eje X1 , d2 unidades en el eje X2 y d3 unidades en el eje X3, de esta forma, las

coordenadas del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) se obtienen como:

x1 ' = x1 + d1
x2 ' = x2 + d 2
x3 ' = x 3 + d 3

Sea d = (d1 , d 2 , d 3 ) el vector de distancias, y T(d) la matriz de translación, en

coordenadas homogéneas la translación de un punto p en 3D se puede expresar como el

producto matricial p' = p ⋅ T (d ) , es decir:

⎡1 0 0 0⎤
⎢0 1 0 0⎥⎥
[x1 ' x 2 ' x3 ' 1] = [x1 x2 x3 1] ⋅ ⎢
⎢0 0 1 0⎥
⎢ ⎥
⎣d1 d2 d3 1⎦

Ecuación 5.6: Expresión matricial para la translación 3D.

La Figura 5.4 muestra el efecto de translación de una figura con d1 = 2, d2 = 0 y d3 = 2.

X2 X2
5 5

4 4

3 3

2 2

1 1

X1 X1
1 2 3 4 5 1 2 3 4 5
1 1
2 2
3 3
X3 4 X3 4
5 5

Figura 5.4: Ejemplo de translación 3D.

224
V. Transformaciones Lineales.
Translación 4D

Nuevamente tomando como base esta idea, se tiene que la translación 4D implica el

desplazamiento de un politopo 4D, donde cada punto p = ( x1 , x 2 , x3 , x 4 ) es trasladado por

la suma de cuatro distancias: d1, d2, d3, d4 a cada uno de los ejes que forman el espacio 4D,

de esta forma, las coordenadas del nuevo punto p ' = ( x1 ' , x 2 ' , x3 ' , x 4 ' ) se obtiene como:

x1 ' = x1 + d1
x2 ' = x2 + d 2
x3 ' = x 3 + d 3
x4 ' = x4 + d 4

Sea d = (d1 , d 2 , d 3 ,d 4 ) el vector de distancias, y T(d) la matriz de translación, en

coordenadas homogéneas la translación de un punto p en 4D se puede expresar como el

producto matricial p' = p ⋅ T (d ) , es decir:

⎡1 0 0 0 0⎤
⎢0 1 0 0 0⎥⎥

[x1 ' x 2 ' x3 ' x 4 ' 1] = [x1 x2 x3 x4 1] ⋅ ⎢ 0 0 1 0 0⎥
⎢ ⎥
⎢0 0 0 1 0⎥
⎢⎣d1 d2 d3 d4 1⎥⎦

Ecuación 5.7: Expresión matricial para la translación 4D.

Translación nD

De esta forma, la translación nD implica el desplazamiento de un politopo nD

sumando parámetros de distancias a todas sus dimensiones, como se observó anteriormente,

se puede representar la translación nD en su forma matricial, donde los parámetros de

distancia se localizan en el último renglón de la matriz, cada uno colocado en la columna

que le corresponde a su respectivo eje, y colocando valores de 1 en la diagonal principal.

Así, se obtiene la expresión matricial de translación para cualquier dimensión:

225
V. Transformaciones Lineales.
⎡1 0 0 K 0 0⎤
⎢0 1 0 K 0 0⎥⎥

⎢0 0 1 K 0 0⎥
[x1 ' x 2 ' x3 ' K x n ' 1] = [x1 x2 x3 K x n 1] ⋅ ⎢ ⎥
⎢M M M O M M⎥
⎢0 0 0 K 1 0⎥
⎢ ⎥
⎢⎣d1 d2 d3 K d n 1⎥⎦

Ecuación 5.8: Expresión matricial para la translación nD.

En general, la matriz de translación T(d) para nD en coordenadas homogéneas tendrá

un tamaño de (n+1) × (n+1), en la cual, si se substituyen los valores para n=2 y n=3, se

obtienen las matrices de translación 2D y 3D respectivamente.

Rotación
La rotación permite girar un objeto sobre un eje de rotación, dado un valor de ángulo

de rotación θ y su dirección.

Rotaciones 2D

La rotación de un objeto en 2D se lleva a cabo alrededor de un punto, que es el eje

puntual (cero-dimensional) de rotación. Las rotaciones principales 2D son aquellas que se

llevan a cabo alrededor del origen, las rotaciones sobre cualquier otro punto arbitrario se

llaman rotaciones generales 2D. En esta Sección 5.5 , se analizan sólo las rotaciones prin-

cipales para todas las dimensiones, en la Sección 5.6 se discuten las rotaciones generales.

Para generar una rotación, se especifica el ángulo de rotación θ, y el punto de rotación

(pivote) sobre el cuál el objeto será rotado. Los ángulos de rotación positivos definen una

rotación en sentido contrario a las manecillas del reloj sobre el punto pivote (del eje X1 al

eje X2), entonces los ángulos de rotación negativos producen una rotación en el sentido de

226
V. Transformaciones Lineales.

las manecillas (del eje X2 al eje X1). [Hearn 95] describe la rotación 2D como el giro sobre

el eje de rotación que es perpendicular al plano X1X2 (mejor conocido como plano XY) y

que pasa a través del punto pivote.

Si el punto pivote se encuentra sobre el origen (Figura 5.5), se tiene que: r es la

distancia del punto p = ( x1 , x 2 ) al origen, φ define la posición angular del punto p desde la

horizontal, y θ el ángulo de rotación de p para producir el nuevo punto p ' = ( x1 ' , x 2 ' ) .

X2 p’=(x1’,x2’)

r
p=(x1,x2)
r
θ

φ X1

Figura 5.5: Rotación de un punto en 2D alrededor del origen.

Utilizando coordenadas polares, el punto p = ( x1 , x 2 ) se puede escribir como

p = (r , φ ) y el punto p ' = ( x1 ' , x 2 ' ) como p ' = (r , φ + θ ) . Pasando después estos puntos de

coordenadas polares a rectangulares se tiene que:

x1 = r cos(φ ) x 2 = r sin(φ )
x1 ' = r cos(φ + θ ) x 2 ' = r sin(φ + θ )

Aplicando algunas propiedades trigonométricas:

x1 ' = r cos(θ + φ ) = r cos φ cos θ − r sin φ sin θ


x 2 ' = r sin(θ + φ ) = r cos φ sin θ + r sin φ cos θ

Substituyendo los valores de x1 = r cos(φ ) y x 2 = r sin(φ ) se obtienen las ecuaciones para

rotar un punto p = ( x1 , x 2 ) alrededor del origen dado un ángulo θ:

227
V. Transformaciones Lineales.

x1 ' = x1 cos θ − x 2 sin θ

x2 ' = x1 sin θ + x2 cosθ

Ecuación 5.9: Fórmulas para la rotación 2D alrededor del origen.

Sea R(θ) la matriz de rotación sobre el origen, en coordenadas homogéneas la rotación


de un punto p alrededor del origen en 2D se puede expresar como el producto matricial

p = p⋅R , es decir:

⎡ cos θ sin θ 0⎤
[x1 ' x 2 ' 1] = [x1 x2 1] ⋅ ⎢⎢− sin θ cos θ 0⎥⎥
⎢⎣ 0 0 1⎥⎦

Ecuación 5.10: Expresión matricial para la rotación 2D.

La Figura 5.6 muestra el efecto de rotación de una figura con θ =


45°.
X2 X2

2 2

1 1

X1 X1
-1 -2 1 2 -1 -2 1 2

-1 -1

-2 -2

Figura 5.6: Ejemplo de rotación 2D.

Rotaciones 3D

A diferencia de la rotación en el espacio 2D, donde para hacer rotar un objeto se

necesita un punto (cero-dimensional), en 3D para hacer rotar un objeto se necesitan dos

puntos no coincidentes que determinan un segmento de recta, cuya línea de soporte define

un eje lineal (uni-dimensional) de rotación.

228
V. Transformaciones Lineales.

Las rotaciones principales 3D, son aquellas cuando el eje de rotación se encuentra

sobre alguno de los tres ejes principales: X1, X2 o X3, las rotaciones sobre cualquier otro eje

arbitrario son llamadas rotaciones generales 3D. Se recuerda que inicialmente, se analizan

las rotaciones principales.

Por convención, los ángulos de rotación positivos producen rotaciones en contra de

las manecillas del reloj sobre el eje de rotación, esto es si se observa el giro desde la parte

positiva del eje hacia el origen. Otra forma de determinar la dirección de un giro positivo es

mediante la regla de la mano derecha (Figura 5.7), que dice que: “Si se coloca el dedo

pulgar de la mano derecha sobre el eje de rotación apuntando hacia la parte positiva de

dicho eje, el giro natural del resto de los dedos indica la dirección positiva del giro”.

X2 X2 X2

X1 X1 X1

X3 X3 X3

Figura 5.7: Regla de la mano derecha para obtener la dirección de un giro positivo en 3D.

Para entender el concepto de rotación en 3D como una extensión de la rotación 2D,

hay que recordar que la rotación 2D es el giro sobre el eje de rotación, que es perpendicular

al plano X1X2, el cual en 3D corresponde al eje X3, entonces se tiene la primera de las rota-

ciones principales .

De esta forma, por cada punto p = ( x1 , x 2 , x3 ) dado un ángulo θ, puede ser rotado

sobre el eje X3 en sentido contrario a las manecillas del reloj, obteniendo las coordenadas

del nuevo punto p' = ( x1 ' , x 2 ' , x3 ' ) de la misma forma en como se analizó en el espacio 2D

229
V. Transformaciones Lineales.

quedando la coordenada x3 sin cambio, entonces, se extienden las formulas para la

rotación 2D (Ecuación 3.9) a 3D como:

x1 ' = x1 cos θ − x 2 sin θ

x 2 ' = x1 sin θ + x 2 cos θ

x3 ' = x3

Ecuación 5.11: Fórmulas para la rotación 3D alrededor del eje X3.

Sea R3(θ) la matriz de rotación alrededor del eje X3, en coordenadas homogéneas la
rotación de un punto p alrededor de dicho eje, se puede expresar como el producto matricial

' ( )
p = p ⋅ R3 θ , es decir:

⎡ cos θ sin θ 0 0⎤
⎢− sin θ cos θ 0 0⎥⎥
[x1 ' x 2 ' x3 ' 1] = [x1 x2 x3 1] ⋅ ⎢
⎢ 0 0 1 0⎥
⎢ ⎥
⎣ 0 0 0 1⎦

Ecuación 5.12: Expresión matricial para la rotación 3D alrededor del eje X3.

La Figura 5.8 muestra el efecto de rotación sobre el eje X3 de una figura con θ = 20°.

X2 X2
5 5

4 4

3 3

2 2

1 1

X1 X1
1 2 3 4 5 1 2 3 4 5
1 1
2 2
3 3
X3 4 X3 4
5 5

Figura 5.8: Ejemplo de rotación 3D sobre el eje X3.

230
V. Transformaciones Lineales.

Las ecuaciones para las rotaciones sobre el eje X1, y eje X2, pueden ser obtenidas

mediante las permutaciones cíclicas de los parámetros x1, x2, x3:

x1 → x2 → x3 → x1

como se muestra en la Figura 3.9

X2 X3 X1

X1 X2 X3

X3 X1 X2

Figura 5.9: Permutaciones cíclicas de los ejes coordenados

Entonces, aplicando estas substituciones cíclicas en la Ecuación 5.11, se obtienen las

ecuaciones para la rotación alrededor del eje X1 dado un ángulo θ.


x 2 ' = x 2 cos θ − x 3 sin θ x1 ' = x1

x 3 ' = x 2 sin θ + x 3 cos θ x 2 ' = x 2 cos θ − x 3 sin θ

x1 ' = x1 x 3 ' = x 2 sin θ + x 3 cos θ

Ecuación 5.13: Fórmulas para la rotación 3D alrededor del eje X1.

Sea R1(θ) la matriz de rotación alrededor del eje X1, en coordenadas homogéneas la
rotación de un punto p alrededor de dicho eje, se puede expresar como el producto matricial

p = p ⋅ R1 θ , es decir:

⎡1 0 0 0⎤
⎢0 cos θ sin θ 0⎥⎥
[x1 ' x 2 ' x3 ' 1] = [x1 x2 x3 1] ⋅ ⎢
⎢0 − sin θ cos θ 0⎥
⎢ ⎥
⎣0 0 0 1⎦

Ecuación 5.14: Expresión matricial para la rotación 3D alrededor del eje X1.

231
V. Transformaciones Lineales.

Aplicando nuevamente las substituciones cíclicas en la Ecuación 3.13, se obtienen las

fórmulas para la rotación alrededor del eje X2 dado un ángulo θ.

x 3 ' = x 3 cos θ − x1 sin θ x1 ' = x1 cos θ + x 3 sin θ

x1 ' = x 3 sin θ + x1 cos θ x2 ' = x2

x2 ' = x2 x 3 ' = − x1 sin θ + x 3 cos θ

Ecuación 5.15: Fórmulas para la rotación 3D alrededor del eje X2.

Sea R2(θ) la matriz de rotación alrededor del eje X2, en coordenadas homogéneas la
rotación de un punto p alrededor de dicho eje, se puede expresar como el producto matricial

p = p ⋅ R2 θ , es decir:

⎡cos θ 0 − sin θ 0⎤
⎢ 0 1 0 0⎥⎥
[x1 ' x 2 ' x3 ' 1] = [x1 x2 x3 1] ⋅ ⎢
⎢ sin θ 0 cos θ 0⎥
⎢ ⎥
⎣ 0 0 0 1⎦

Ecuación 3.16: Expresión matricial para la rotación 3D alrededor del eje X2.

232

Você também pode gostar