Escolar Documentos
Profissional Documentos
Cultura Documentos
2016
ii
Índice general
I Espacios vectoriales 3
1. Campos 5
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2. Espacios vectoriales 19
2.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3. Bases y dimensión 29
iii
iv ÍNDICE GENERAL
1
2 ÍNDICE GENERAL
Parte I
Espacios vectoriales
3
Capítulo 1
Campos
S3: Existe un elemento 0 ∈ F tal que a + 0 = a para todo a ∈ F (Existecia del neutro
de la suma)
S4: Para todo a ∈ F existe −a ∈ F tal que a + (−a) = 0 (Existencia del inverso
aditivo)
P4: Para todo a ∈ F , a 6= 0, existe a−1 ∈ F tal que a • a−1 = 1 (Existencia del inverso
multiplicativo)
5
6 CAPÍTULO 1. CAMPOS
Ejemplo 1. Los ejemplos más naturales, dado que aparecen todo el tiempo en los cursos
básicos de matemáticas, son:
C = {a + bi : a, b ∈ R},
√
donde i = −1 ∈
/ R, con las operaciones usuales
Note que todos los ejemplos anteriores, son campos que contienen al campo de los
números racionales Q.
Los siguientes dos ejemplos que quiero mostrar, son por un lado un caso particular de
√
las extensiones simples Q(α), y es precisamente el campo Q( n), donde n es un natural
libre de cuadrados, y por el otro lado, un campo finito muy importante en matemáticas
denotado Zp .
Para discutir estos dos ejemplos es necesario primero introducir ciertas nociones de teoría
de números y hablar de relaciones de equivalencia.
1. d|a y d|b
con 0 ≤ ri+2 < ri+1 < · · · < r1 < r < b. Así, para algún n, rn = 0 y por lo tanto como
rn−2 = qn rn−1 + rn , entonces rn−2 = qn rn−1 .
Veamos que rn−1 es el número buscado.
En efecto, rn−1 |rn−2 y como rn−3 = qn−1 rn−2 + rn−1 , entonces rn−1 |rn−3 . Por lo tan-
to, si rn−1 |rj para j = n − 2, n − 3, · · · , n − k, entonces rn−1 |rn−k−1 ya que rn−k−1 =
(qn−k−1+2 )(rn−k−1+1 ) + (rn−k−1+2 ), es decir, rn−k−1 = (qn−k+1 )(rn−k ) + (rn−k+1 ) y
como rn−1 |rn−k y rn−1 |rn−k+1 entonces rn |rn−k−1 . Esto implica que continuando recur-
sivamente, obtenemos que rn−1 |a y rn−1 |b.
Si otro número k es tal que k|a y k|b, entonces k|r1 . Pero si k|b y k|r1 entonces k|r2 .
Nuevamente de manera recursiva, veamos que si k|ri para todo i < j entonces k|rj . En
efecto, como rj−2 = qj rj−1 + rj entonces rj = rj−2 − qj rj−1 . Por lo tanto, ya que k|rj−2
y k|rj−1 , entonces k|rj . Esto muestra que continuando de esta manera obtenemos que
k|rn−1 .
Por lo tanto rn−1 es el número que estabamos buscando.
La unicidad se deja como ejercicio.
nos queda que ri+2 = ti a+si b−qi+2 (ti+1 a+si+1 b), de donde agrupando términos resulta
que ri+2 = ti+2 a + si+2 b, para ciertos ti+2 , si+2 ∈ Z. Esto muestra que continuando de
esta forma obtenemos finalmente que rn−3 = tn−3 a + sn−3 b y rn−2 = tn−2 a + sn−2 b,
de donde nuevamente de la ecuación rn−3 = qn−1 rn−2 + rn−1 , obtenemos que rn−1 =
rn−3 − qn−1 rn−2 y por lo tanto rn−1 = (a, b) = ta + sb, para ciertos t, s ∈ Z.
ab
mcm(a, b) =
(a, b)
Proposición 3. Sea p ∈ Z un número primo. Entonces si p|ab, se tiene que p|a o p|b.
Demostración. Supongamos que p|ab y que p - a. Veamos entonces que p|b. En efecto,
como p|ab entonces ab = kp. Como p - a entonces (a, p) = 1, es decir, a y p son primos
relativos. Por lo tanto tenemos que 1 = ta + sp, de donde, multiplicando a ambos lados b
se sigue que b = t(ab) + (sb)p, luego b = (tk)p + (sb)p, y así b = (tk + sb)p. Esto muestra
que p|b.
n es libre de cuadrados, entonces n|a y por lo tanto a = kn. Así, k 2 n2 = nb2 y luego
k 2 n = b2 . Esto implica que n|b2 y como n es libre de cuadrados entonces n|b. Por lo
tanto n|a y n|b, lo cual es absurdo ya que (a, b) = 1.
Observación 2. Tenga en cuenta que como dijimos anteriormente, dado cualquier ele-
mento α ∈ C \ Q, Q(α) es un campo. El ejemplo anterior simplemente muestra que
√
cuando α = n donde n es libre de cuadrados, entonces en este caso es sencillo demos-
√
trar que Q( n) es un campo.
Por ejemplo, si n = 360 = 23 32 5, claramente en este caso n no es libre de cuadrados. Sin
√ √
embargo, Q( 360) = Q( 10), donde 10 es libre de cuadrados.
Las relaciones de equivalencia se acostumbran denotar con el símbolo ∼, por lo tanto las
propiedades anteriores se puede enunciar como:
Simétrica: Si a ∼ b entonces b ∼ a
Transitiva: Si a ∼ b y b ∼ c, entonces a ∼ c
[a] = a = {b ∈ K : b ∼ a},
K/ ∼ = {[a] : a ∈ K}
[(a, b)] + [(c, d)] = [(ad + bc, bd)] y [(a, b)][(c, d)] = [(ac, bd)],
a + b = a + b y ab = ab
Se deja como ejercicio para el lector, demostrar que estas operaciones están bien defini-
das.
Ejemplo 5. La Proposición anterior, nos muestra una forma de construir campos fini-
tos, es decir, por cada número primo p, tenemos un campo finito Zp . Esto muestra la
existencia de campos que no contienen a Q.
Esto nos permite concluir que tenemos campos que contiene a Q y campos que no lo
contienen.
Por lo tanto, concluimos que los campos pueden tener característica cero o caracte-
rística prima.
1.3. Ejercicios
2. Sean a y b números naturales. Si k = mcm(a, b), demuestre que a|k y b|k, y que si
a|c y b|c entonces k|c.
4. Demuestre que si n ∈ N, n 6= 1 es tal que cada vez que n|ab se tiene que n|a o n|b,
entonces n es un número primo. Esta es una manera equivalente de definir un
número primo.
8. Demuestre que las operaciones del Ejemplo 3 están bien definidas, es decir, de-
muestre que si [(a, b)] = [(r, s)] y [(c, d)] = [(p, q)], entonces [(a, b)] + [(c, d)] =
[(r, s)] + [(p, q)] y [(a, b)][(c, d)] = [(r, s)][(p, q)].
Demuestre además que, (Z × Z∗ )/ ∼ con estas operaciones es un campo.
10. Demuestre que las operaciones definidas en el Ejemplo 4, están bien definidas, es
decir, si a = c y b = d, entonces a + b = c + d, y ab = cd.
18 CAPÍTULO 1. CAMPOS
Espacios vectoriales
19
20 CAPÍTULO 2. ESPACIOS VECTORIALES
2. Note que es necesario hacer una distinción entre el neutro del campo, 0 ∈ K, y el
neutro de V , O ∈ V .
2.1. Ejemplos
Ejemplo 14. Sea K un campo. Una expresión de la forma p(x) = an xn + an−1 xn−1 +
· · · + a1 x + a0 , con ai ∈ K para todo i = 0, 1, 2, . . . , n, es lo que se conoce como un
polinomio con coeficientes en K. El conjunto de todos los polinomios con coeficientes en
K se denota por K[x].
En K[x] podemos definir una suma de la siguiente forma: si p(x) = an xn + an−1 xn−1 +
· · · + a1 x + a0 y q(x) = bm xm + bm−1 xm−1 + · · · + b1 x + b0 , entonces si suponemos
que n ≥ m, podemos escribir q(x) = bn xn + bn−1 xn−1 + · · · + bm+1 xm+1 + bm xm +
bm−1 xm−1 + · · · + b1 x + b0 , donde bn = bn−1 = · · · = bm+1 = 0, y por lo tanto podemos
definir p(x) + q(x) = (an + bn )xn + · · · + (a1 + b1 )x + (a0 + b0 ). La multiplicación por
escalar, simplemente se define como c · (an xn + · · · + a1 x + a0 ) = can xn + · · · + ca1 x + ca0 .
K[x] con estas dos operaciones, es un K-espacio vectorial.
1. u · v = v · u para todo u, v ∈ K n
2. (u + v) · w = u · w + v · w para todo u, v, w ∈ K n .
U ⊥ = {v ∈ K n : v · u = 0 para todo u ∈ U }
24 CAPÍTULO 2. ESPACIOS VECTORIALES
subespacio vectorial de Q.
Definición 9. Dada una matriz A ∈ Mn (K), decimos que A es invertible, si existe una
matriz B ∈ Mn (K) tal que AB = In = BA, donde In denota la matriz identidad n × n
definida como: In = [aij ] donde aii = 1 para todo i = 1, 2, . . . , n y aij = 0 para todo
i 6= j, es decir:
1 0 ··· 0
0 1 ··· 0
In =
.. .. . . ..
. . . .
0 0 ··· 1
Demostración. Claramente W ∩ W 0 ⊂ V y W + W 0 ⊂ V .
Veamos primero que W ∩W 0 es un subespacio vectorial. Por la Proposición 6, es suficiente
demostrar que dados c ∈ K y u, v ∈ W ∩ W 0 , se tiene que cu + v ∈ W + W 0 . Como
u, v ∈ W ∩W 0 entonces u, v ∈ W y u, v ∈ W 0 y como W y W 0 son subespacios vectoriales,
entonces nuevamente por la Proposición 6, cu + v ∈ W y cu + v ∈ W 0 . Por lo tanto
cu + v ∈ W ∩ W 0 . Esto muestra que W ∩ W 0 es un subespacio vectorial.
De igual forma, si c ∈ K y w + w0 , v + v 0 ∈ W + W 0 , es decir, w, v ∈ W y w0 , v 0 ∈ W 0 ,
entonces c(w + w0 ) + (v + v 0 ) = (cw + v) + (cw0 + v 0 ) ∈ W + W 0 ya que W y W 0 son
subespacios vectoriales. Esto muestra que W + W 0 es un subespacio vectorial.
Ejemplo 21. En R3 , la intersección de dos planos que pasen por el origen es un subes-
pacio.
es un subespacio vectorial de V .
La demostración es igual al caso de una intersección de dos subespacios, y por lo tanto
se deja como ejercicio para el lector.
2.4. Ejercicios
0 · v = O para todo v ∈ V
Para todo c ∈ K, c · O = O
U ⊥ = {v ∈ K n : v · u = 0 para todo u ∈ U },
es un subespacio vectorial.
Bases y dimensión
a1 v1 + · · · + an vn ,
con a1 , . . . , an ∈ K.
Consideremos
\
T = W,
v1 ,...,vn ∈W ⊂V
hv1 , . . . , vn i = {v = a1 v1 + · · · + an vn : a1 , . . . , an ∈ K}.
29
30 CAPÍTULO 3. BASES Y DIMENSIÓN
Demostración. Note primero que todo, que hv1 , . . . , vn i es el conjunto de todas las posi-
bles combinaciones lineales de los vectores v1 , . . . , vn .
Veamos que T = hv1 , . . . , vn i.
Comencemos demostrando que hv1 , . . . , vn i es un subespacio vectorial. Claramente hv1 , . . . , vn i ⊂
V . Consideremos c ∈ K y tomemos v = a1 v1 + · · · + an vn , v 0 = b1 v1 + · · · + bn vn ∈
hv1 , . . . , vn i. Entonces, cv + v 0 = (ca1 + b1 )v1 + · · · + (can + bn )vn ∈ hv1 , . . . , vn i, lo que
muestra que hv1 , . . . , vn i es un subespacio vectorial.
Ahora, note que v1 , . . . , vn ∈ hv1 , . . . , vn i, por lo tanto de la definición de T se sigue que
T ⊂ hv1 , . . . , vn i.
Reciprocamente, si W ⊂ V es un subespacio tal que v1 , . . . , vn ∈ W , de la definición de
subespacio se tiene que cualquier combinación lineal a1 v1 +· · ·+an vn ∈ W . Esto muestra
que hv1 , . . . , vn i ⊂ W . En otras palabras, todo subespacio W que contenga v1 , . . . , vn ,
contiene a hv1 , . . . , vn i. Por lo tanto, hv1 , . . . , vn i ⊂ T .
no pertenece a hex , e−x i, porque si αex + βe−x ≡ 1 entonces con x = 1 tenemos que
αe + β 1e = 1 y con x = −1 tenemos que α 1e + βe = 1, y por lo tanto αe2 + β = e y
α + βe2 = e. Así, αe2 + β = α + βe2 , luego e2 (α − β) = α − β. Note que si α 6= β,
entonces la última ecuación implica que e2 = 1, lo cual es una contradicción. Si α = β
entonces αex + αe−x ≡ 1, de donde con x = 0 se tiene que α = 12 . Luego 12 ex + 12 e−x ≡ 1,
1
y esto implica con x = 0 que e + e = 2, de donde e2 + 1 = 2e que equivale a decir que
e2 − 2e + 1 = 0, lo que implica que (e − 1)2 = 0, y así e = 1, lo cual es una contradicción.
Este sistema matricial usando Eliminación de Gauss se puede llevar al siguiente sistema
equivalente:
1 2 0 x 0
0 1 1 y = 0
0 0 0 z 0
donde la forma que tiene la última matriz se conoce como forma escalonada.
Este último sistema se puede ver que tiene infinitas soluciones, ya que escrito en forma
de ecuaciones lineales es
x + 2y = 0
y+z =0
Por lo tanto y = −z y x = −2y = 2z. en otras palabras, todas las soluciones de este
sistema son de la forma:
x 2
y = −1 z
z 1
Por cada valor de z tenemos una solución. Luego, si tomamos por ejemplo z = 1, tenemos
que con a1 = 2, a2 = −1 y a3 = 1, a1 v1 + a2 v2 + a3 v3 = 0. Esto muestra que el conjunto
{v1 , v2 , v3 } es linealmente dependiente.
El ejemplo anterior motiva discutir más a fondo, como solucionar en general sistemas
de ecuaciones lineales.
34 CAPÍTULO 3. BASES Y DIMENSIÓN
Consideremos
a11 x1 + a12 x2 + · · · + a1n xn = b1 (R1 )
a21 x1 + a22 x2 + · · · + a2n xn = b2 (R2 )
E= .. (3.3)
.
a x + a x + ··· + a x = b
m1 1 m2 2 mn n m (Rm )
Por lo tanto, con esta notación, (c1 , . . . , cn ) ∈ Rn es solución del sistema E si y sólo si
Ri (c1 , . . . , cn ) = 0 para todo i = 1, 2, . . . , m.
Definición 12. Decimos que dos sistemas lineales E1 y E2 son equivalentes, si y sólo si
tienen exactamente las mismas soluciones.
Dado un sistema lineal E, definimos tres operaciones que llamaremos operaciones fila
elementales.
3.2. SISTEMAS DE ECUACIONES LINEALES 35
Ri → Ri + cRj : Si la ecuación Ri es
y la ecuación Rj es
Demostración. Verifiquemos que aplicar cada una de las operaciones fila elementales
definidas anteriormente, produce un nuevo sistema lineal con exactamente las mismas
soluciones.
36 CAPÍTULO 3. BASES Y DIMENSIÓN
R1
R2
..
.
Ri
E= ..
.
Rj
..
.
R
m
como en 3.4.
Al aplicarle la operación Ri ↔ Rj obtenemos el nuevo sistema lineal
R1
R2
..
.
Rj
0
E =
..
.
Ri
.
..
R
m
al sistema lineal E 0 .
Denotemos
a11 a12 ··· a1n b1
a
21 a22 ··· a2n
b
2
A=
. .. .. ..
y b=
.
.. ..
. . .
am1 am2 · · · amn bm
a11 a12 ··· a1n | b1
a
21 a22 ··· a2n | b2
[A|b] =
. .. .. ..
..
. . | .
am1 am2 · · · amn | bm
Es fácil ver que las operaciones fila elementales definidas anteriormente, corresponden a
las siguientes operaciones fila aplicadas a la matriz aumentada [A|b]
3.2. SISTEMAS DE ECUACIONES LINEALES 39
Ri → Ri + cRj : Cambia la fila i-ésima por la fila i-ésima más c veces la fila j-ésima
a11 a12 ··· a1n | b1 a11 a12 ··· a1n | b1
.. .. .. .. .. .. .. ..
.
. . | .
. . . | .
ai1 ai2 ··· ain | bi ai1 + caj1 ai2 + caj2 · · · ain + cajn | bi + cbj
. .. .. .. .. .. .. ..
..
. . | . → . . . | .
aj1
aj2 ajn | bj
aj1 aj2 ajn | bj
. .. .. .. .. .. .. ..
.
| |
. . . . . . . .
am1 am2 · · · amn | bm am1 am2 ··· amn | bm
Definimos como operaciones fila elementales para matrices, a estas tres operaciones, es
decir, intercambiar dos filas de la matriz, cambiar una fila por un múltiplo no nulo de
40 CAPÍTULO 3. BASES Y DIMENSIÓN
ella y cambiar una fila por ella más un múltiplo de otra fila.
Lo que vamos a ver a continuación, es que usando solamente estas tres operaciones
elementales un número finito de veces, cualquier matriz se puede llevar a una forma
escalonada.
Definición 13. Decimos que una matriz A = [aij ]m×n está en la forma escalonada si:
Observación 10. Dada una matriz A en forma escalonada, las primeras entradas no
nulas de cada fila reciben el nombre de pivotes de la matriz A.
Teorema 3. Dada una matriz A ∈ Mm×n (K), un número finito de operaciones fila
elementales aplicado a la matriz A, produce una matriz escalonada.
Demostración. Sea A = [aij ]m×n . Vamos a hacer la prueba por inducción sobre m.
Claramente el resultado es trivial para m = 1.
3.2. SISTEMAS DE ECUACIONES LINEALES 41
medio de la tercer operación elemental podemos cancelar todos los términos no nulos de
la primer columna que están por debajo de c1s . De esta manera obtenemos una matriz
que tiene la forma
0 ··· 0 1 c12 c13 ··· c1n
0 ··· 0 0 c22 c23 ··· c2n
.. .. .. .. .. .. ..
(3.6)
. . . . . . ··· .
0 ··· 0 0 cm2 cm3 · · · cmn
Por la hipótesis inductiva, el resultado es cierto para la matriz
c22 c23 ··· c2n
c
32 c33 ··· c3n
C0 =
. .. ..
..
. ··· .
cm1 cm2 · · · cmn
(m−1)×n
es decir, por medio de operaciones elementales fila, se puede llevar la matriz C 0 a una
forma escalonada. Ahora, note que aplicarle cualquier operación elemental que no in-
volucre la primer fila, a la matriz 3.6, es equivalente a aplicarle la respectiva operación
elemental a la matriz C 0 .
Esto muestra que las operaciones que llevan a C 0 a la forma escalonada, aplicadas a la
matriz 3.6, producen una matriz escalonada.
a la forma escalonada.
Siguiendo el algoritmo anterior, aplicamos la operación R1 ↔ R2 y obtenemos la matriz
1 −1 0
−2 3
0
2 0 1
Ejemplo 30. Consideremos v1 = (1, −1, 1, 1), v2 = (2, 1, 3, 1), v3 = (1, 0, −1, 1) y v4 =
(−1, 2, 1, 1). Demuestre que el vector v = (10, −5, 9, 1) pertenece a hv1 , v2 , v3 , v4 i.
Queremos ver que v = av1 + bv2 + cv3 + dv4 , es decir, queremos resolver el sistema lineal
1 2 1 −1 10
−1 1 0 2 −5
x
+y
+z
+w
=
1 3 −1 1 9
1 1 1 1 1
aumentada
1 2 1 −1 | 10
0
1 −2 2 | −1
0
3 1 1 | 5
0 −1 0 2 | −9
Con las operaciones R3 → R3 − 3R2 y R4 → R4 + R2 , obtenemos un sistema equivalente
con matriz aumentada
1 2 1 −1 | 10
0 1
−2 2 | −1
0 0
7 −5 | 8
0 0 −2 4 | −10
Note que esta matriz aumentada final, representa el siguiente sistema lineal:
w = −3
z − 2w = 5
y − 2z + 2w = −1
x + 2y + z − w = 10
En esta sección definimos lo que significa una base para un espacio vectorial, concepto
que permite definir la dimensión de un espacio vectorial.
Cuando definimos el subespacio vectorial generado por finitos vectores, v1 , . . . , vn ∈ V , lo
definimos como la intersección de todos los subespacios de V conteniendo a los vectores
v1 , . . . , vn , y lo denotamos por hv1 , . . . , vn i.
De manera más general, dado un subconjunto S ⊂ V de un espacio vectorial V , definimos
46 CAPÍTULO 3. BASES Y DIMENSIÓN
Ejemplo 31. Definamos R∞ como el conjunto de tuplas infinitas que son cero a partir
de un punto, es decir,
Más adelante veremos que R∞ si se puede generar, pero con un conjunto infinito de
vectores.
3.3. BASES PARA ESPACIOS VECTORIALES 47
Claramente f ∈ V , pero f ∈
/ hf1 , . . . , fn i, ya que si f = a1 f1 + · · · + an fn , como para
cada i = 1, . . . , n fi (x) = 0 para todo x ≥ N , entonces se tendría que 1 = f (N ) =
a1 f1 (N ) + · · · + an fn (N ) = 0, lo cual es absurdo.
Ejemplo 33. K[x] es un espacio vectorial que no puede ser generado por finitos poli-
nomios.
Supongamos que K[x] = hp1 (x), . . . , pm (x)i, donde cada pi (x) es un polinomio de grado
ni . Si tomamos N = max{n1 , . . . , nm }, entonces el polinomio xN +1 ∈ K[x] no pertenece
a hp1 (x), . . . , pm (x)i. Esto muestra que K[x] no se puede generar con finitos polinomios.
i1 i2 in
(0, . . . , 0, ai1 , 0, . . . , ai2 , 0, . . . , ain , 0, . . . ) = (0, 0, . . . , 0, . . . )
Definición 14. Sea V un espacio vectorial. Decimos que B ⊂ V es una base para V , si
hBi = V y B es linealmente independiente.
Observación 11. Dado un espacio vectorial V , note de los ejemplos anteriores, que en
algunos casos V tiene una base finita y en otros casos infinita.
No es claro que todo espacio vectorial necesariamente tenga una base. Sin embargo,
como una consecuencia del Lema de Zorn, todo espacio vectorial tiene una base.
a ≤ a (Reflexiva)
a ≤ b y b ≤ a implica a = b (Antisimétrica)
a ≤ b y b ≤ c entonces a ≤ c (Transitiva)
Un conjunto S junto con una relación de orde parcial ≤, se llama un conjunto par-
cialmente ordenado. Decimos que (S, ≤) es un conjunto parcialmente ordenado.
Si la relación ≤, además de las propiedades anteriores, satisface que para todo par de
elementos a, b ∈ S se tiene que a ≤ b o b ≤ a, entonces decimos que la relación es de
orden total, y decimos que (S, ≤) es un conjunto totalmente ordenado.
Definición 16. Dado un conjunto parcialmente ordenado (S, ≤), definimos una cadena
de S, como un subconjunto de S que con esta relación es totalmente ordenado.
Ejemplo 41. Sabemos que los números reales R son un campo ordenado, es decir, en R
existe una relación de orden total, que acostumbramos denotar por ≤. En otras palabras,
(R, ≤) es un conjunto totalmente ordenado.
Ahora, si consideramos el campo de los números complejos C, los complejos con la
relación de orden de los números reales es un conjunto parcialmente ordenado, es decir,
(C, ≤) es un conjunto parcialmente ordenado.
Si consideramos R ⊂ C, tenemos entonces que R es una cadena en C.
Este subconjunto es una cadena que además tiene una cota superior, que es precisamente
el conjunto N.
Usando el lema anterior, podemos demostrar que todo espacio vectorial tiene una
base.
r1 rn
v = (− )b1 + · · · + (− )bn
r r
En esta sección vamos a ver como por medio de la noción de base para un espacio
vectorial, es posible definir la dimensión de un espacio vectorial.
Comenzaremos obsevando que, si V tiene una base finita B = {v1 , . . . , vn }, entonces
cualquier otra base para V tiene n elementos.
1 r2 rn
v1 = w1 + (− )v2 + · · · + (− )vn
r1 r1 r1
r1 1 r3 rn
v2 = (− )w1 + w2 + (− )v3 + · · · + (− )vn
r2 r2 r2 r2
r1 r2 rn−1 1
vn = (− )w1 + (− )w2 + · · · + (− )wn−1 + wn
rn rn rn rn
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 53
Definición 18. Sea V un K-espacio vectorial. Si V tiene una base finita, definimos la
dimensión de V como K-espacio vectorial, como el cardinal de cualquier base para V , y
la denotamos por dimK (V ).
54 CAPÍTULO 3. BASES Y DIMENSIÓN
Ejemplo 46. Del ejemplo anterior se sigue que C como C-espacio vectorial tiene dimen-
sión dimC C = 1.
Ahora, si vemos a C como R-espacio vectorial, en este caso B = {1, i} es una base. Por
lo tanto, dimR C = 2.
Demostración. Veamos que hSi = V . Supongamos por el absurdo que hSi ( V , luego
existe v ∈ V tal que v ∈
/ hSi. En particular v ∈
/ S. Luego S ∪ {v} es un conjunto
linealmente dependiente y por lo tanto existe una combinación lineal α1 v1 + · · · + αn vn +
αv = 0, con vi ∈ S, i = 1, . . . , n y donde algún αi 6= 0 o α 6= 0. Note que si α = 0
entonces α1 v1 + · · · + αn vn = 0 pero S es linealmente independiente y por lo tanto
αi = 0 para todo i = 1, . . . , n, contradiciendo el hecho de que algún escalar era diferente
de cero. Por lo tanto α 6= 0, de donde tenemos que
−α1 −αn
v=( )v1 + · · · + ( )vn ,
α α
Observación 13. Note que en el caso en que V sea de dimensión finita, digamos
dimK V = n, la proposición anterior implica que todo subconjunto linealmente inde-
pendiente con n vectores {v1 , . . . , vn }, es una base para V .
Ejemplo 52. En R3 , es fácil ver que el subconjunto S = {(1, −2, 1), (0, 1, 1)} es lineal-
mente independiente. Como dimR R3 = 3, por la proposición anterior, el conjunto S se
puede completar hasta obtener una base para V , es decir, existe un vector (a, b, c) ∈ R3
tal que B = {(1, −2, 1), (0, 1, 1), (a, b, c)} es una base para R3 . Si obsevamos la prueba de
esta última proposición, notamos que basta escoger (a, b, c) ∈
/ h(1, 2, −1), (0, 1, 1)i. Note
que (a, b, c) = (0, 0, 1) ∈
/ h(1, 2, −1), (0, 1, 1)i, ya que (0, 0, 1) = α(1, 2, −1) + β(0, 1, 1)
implica que 0 = α, 0 = 2α + β y 1 = −α + β, de donde α = 0 y β = 0, pero la última
ecuación implica que 1 = 0, absurdo. Por lo tanto B = {(1, 2, −1), (0, 1, 1), (0, 0, 1)} es
una base para R3 .
Más adelante veremos que, escogiendo el vector (a, b, c) en el complemento ortogonal del
subespacio W = h(1, 2, −1), (0, 1, 1)i, siempre se obtiene que h(1, 2, −1), (0, 1, 1), (a, b, c)i
es una base para R3 .
Demostración. Primero que todo note que W tiene que tener dimensión finita, ya que
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 57
bs+1 us+1 + · · · + bk uk = (−a1 )v1 + · · · + (−as )vs + (−cs+1 )ws+1 + · · · + (−cn )wn
y esto implica que bs+1 us+1 +· · ·+bk uk ∈ W2 , pero claramente bs+1 us+1 +· · ·+bk uk ∈ W1 ,
por lo tanto bs+1 us+1 +· · ·+bk uk ∈ W1 ∩W2 . Como B es una base para W1 ∩W2 , tenemos
que
bs+1 us+1 + · · · + bk uk = r1 v1 + · · · + rs vs
de donde
bs+1 us+1 + · · · + bk uk + (−r1 )v1 + · · · + (−rs )vs = 0
a1 v1 + · · · + as vs + cs+1 ws+1 + · · · + cn wn = 0
3.4. DIMENSIÓN DE UN ESPACIO VECTORIAL 59
W1 = {(x, y, z) ∈ R3 : 2x − y + z = 0}
W2 = {(x, y, z) ∈ R3 : x + y − z = 0}
Más adelante veremos que estos subespacios corresponden a planos en R3 que pasan por
el origen.
Supongamos que queremos calcular la dimensión del subespacio W1 + W2 . Del Teorema
anterior sabemos que dim(W1 + W2 ) = k + n − s = dimW1 + dimW2 − dim(W1 ∩ W2 ).
Calculemos primero la dimensión de W1 y W2 .
Como los vectores (x, y, z) de W1 satisfacen que 2x − y + z = 0, entonces tenemos
1
que x = 2y − 21 z, de donde (x, y, z) = (1/2, 1, 0)y + (−1/2, 0, 1)z. Esto muestra que
W1 = h(1/2, 1, 0), (−1/2, 0, 1)i y es fácil ver que {(1/2, 1, 0), (−1/2, 0, 1)} es linealmente
independiente, por lo tanto {(1/2, 1, 0), (−1/2, 0, 1)} es una base para W1 . Así, dimW1 =
2.
De igual forma se ve que dimW2 = 2.
Por otro lado, W1 ∩ W2 = {(x, y, z) ∈ R3 : 2x − y + z = 0 y x + y − z = 0}. Note que
los puntos de W1 ∩ W2 son precisamente las soluciones del sistema de ecuaciones lineales
x 0
2 1 −1
y = 0
1 1 −1
z 0
60 CAPÍTULO 3. BASES Y DIMENSIÓN
que con operaciones elementales fila se puede convertir en el siguiente sistema equiva-
lente:
x 0
1 1 −1
y = 0
0 1 −1
z 0
que implica que y − z = 0 y x + y − z = 0, de donde y = z y x = 0. Por lo tanto las
soluciones de este sistema lineal son todos los vectores de la forma
x 0
y = 1 z
z 1
V =U +W
n(n+1)
Por la proposición anterior, dim(Sn ⊕ An ) = 2 + n(n−1)
2 = n2 . Por lo tanto, Sn ⊕ An
es un subespacio de Mn de dimensión n2 , lo que implica que Sn ⊕ An = Mn .
Demostración. Sea {u1 , . . . , uk } una base para U . Como vimos antes, existen vecto-
res w1 , . . . , wn tales que {u1 , . . . , uk , w1 , . . . , wn } es una base para V . Definamos W =
hw1 , . . . , wn i. Es claro que V = U +W . Ahora notemos que U ∩W = {0}, ya que si existe
un x ∈ U ∩ W , entonces x = a1 u1 + · · · + ak uk , y x = b1 w1 + · · · + bn wn , de donde se sigue
que 0 = a1 u1 + · · · + ak uk + (−b1 )w1 + · · · + (−bn )wn , y como {u1 , . . . , uk , w1 , . . . , wn }
es una base, entonces a1 = a2 = · · · = ak = 0, lo que implica que x = 0.
Concluimos entonces que V = U ⊕ W .
El siguiente ejemplo, muestra que el subespacio W del teorema anterior, puede ser
escogido de muchas formas distintas, es decir, dado U ⊂ V un subespacio vectorial de V ,
es posible encontrat W1 , W2 ⊂ V , con W1 6= W2 , tales que V = U ⊕ W1 y V = U ⊕ W2 .
5. hx, xi = 0 si y sólo si x = 0
Los espacios vectoriales con producto interno, tienen propiedades importantes que
no tienen en general todos los espacios vectoriales. Por ejemplo, en ellos es posible definir
el complemento ortogonal de un subespacio vectorial, se puede hablar de ortogonalidad
entre vectores del espacio vectorial, lo que permite a su vez tener una versión del Teorema
de Pitágoras, también es posible definir la noción de bases ortogonales, etc. Todas estas
nociones vienen motivadas por lo que ocurre en el espacio vectorial Rn . Por esta razón,
a continuación haremos una pequeña disgresión para recordar propiedades del espacio
vectorial Rn .
3.6.1. Vectores en Rn
En muchos casos, por ejemplo en problemas relacionados con física, es más útil ver
→
los puntos de Rn como vectores, donde un vector P Q, se define como el segmento de
recta dirigido que une los puntos P y Q,
→ q
||P Q|| = (b1 − a1 )2 + · · · + (bn − cn )2
66 CAPÍTULO 3. BASES Y DIMENSIÓN
y la dirección como los ángulos que forma el vector con los ejes coordenados.
−−→
Dado un vector P Q, una cantidad que determina la magnitud y dirección es Q − P .
−−→
Recordemos que P Q = {X = (1 − t)P + tQ : t ∈ [0, 1]}, que escrito de otra forma es
−−→
P Q = {X = t(Q − P ) + P : t ∈ [0, 1]}
−−→ −−−−−−−→
Note que el vector P Q y el vector O(Q − P ) están ambos determinados por el punto
Q − P , y por lo tanto tiene la misma magnitud.
−−→ −−−−−−−→
P Q = {X = t(Q − P ) + P : t ∈ [0, 1]} y O(Q − P ) = {X = t(Q − P ) : t ∈ [0, 1]}
→ → → →
Dados dos vectores [P Q] y [RS], definimos la suma [P Q] + [RS] por medio de la
regla del palalelogramo, como se muestra en la siguiente figura:
T S
→ →
[P Q] + [RS]
Q R
→ → → → → →
donde, [P Q] + [RS] = [P Q] + [QT ], ya que [RS] = [QT ], y por lo tanto,
→ → →
[P Q] + [RS] = [P T ]
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 67
→
Por otro lado, dado un escalar α ∈ R definimos α[P Q] como la clase de equivalencia
−−−−−−−→
[(αP )(αQ)], es decir, la clase de equivalencia del vector que comienza en el punto αP y
termina en el punto αQ.
Con estas dos operaciones, el conjunto Vect(Rn )/ ∼ tiene estructura de espacio vectorial.
→ −−−−−−−→
Más aún, ya que cada vector P Q está en la clase de equivalencia del vector O(Q − P ),
el espacio vectorial Vect(Rn )/ ∼ se puede identificar con el espacio vectorial Rn , simple-
→
mente bajo la correspondencia [P Q] ↔ Q − P .
Esta correspondencia no es solo una biyección, tiene además la propiedad de enviar la
suma y el producto escalar de Vect(Rn )/ ∼ a la suma y el producto escalar de Rn . En
−−→ −→ −−→
otras palabras, [P Q] + [RS] = (Q − P ) + (S − R), y c(P Q) = c(Q − P ).
Q
α
P
→
Definimos la dirección del vector P Q, como este ángulo α.
−−−−−−−→ →
Note que el vector O(Q − P ) tiene la misma magnitud y dirección que el vector P Q
68 CAPÍTULO 3. BASES Y DIMENSIÓN
Q-P
α
P
α
O
→
Luego, dado un vector [P Q] lo podemos identificar con el punto Q − P .
√
Si P = (a, b) ∈ R2 , entonces usando trigonometría sabemos que a = a2 + b2 cosα y
√
b = a2 + b2 senα
P = (a, b)
β a
α
√
es decir, si P = (a, b), entonces ||P || = a2 + b2 , y si α es la dirección del vector
→
OP , tenemos que P = ||P ||(cosα, senα).
π
Por otro lado, si β = 2 − α, sabemos que cosβ = cos(π/2 − α) = senα. Por lo tanto,
→
En R3 , la dirección de un vector P Q se define como una terna de ángulos (α, β, γ),
como se muestra en la siguiente figura:
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 69
γ Q
β
P
α
→ −−−−−−−→
El vector P Q está en la clase de equivalencia del vector O(Q − P ), lo que permite
→
identificar el vector [P Q] con el punto Q − P ∈ R3 .
−−→
Dado el vector OP con dirección (α, β, γ), donde P = (a, b, c), como se muestra en la
gráfica
γ P = (a, b, c)
β
O S
α
R
P P P
||P || ||P || ||P ||
α β γ
O R O S O T
a b c
√
donde ||P || = a2 + b2 + c2 .
−−→
Por lo tanto, a = ||P ||cosα, b = ||P ||cosβ y c = ||P ||cosγ. En resumen, si el vector OP
tiene dirección (α, β, γ), entonces P = ||P ||(cosα, cosβ, cosγ).
70 CAPÍTULO 3. BASES Y DIMENSIÓN
q
||P || = ||P ||||(cosα, cosβ, cosγ)|| = ||P || cos2 α + cos2 β + cos2 γ) ,
Note que la última igualdad no es una identidad trigonométrica, es decir, existen ángulos
α, β y γ tales que cos2 α+cos2 β +cos2 γ 6= 1. Por ejemplo, si α = π/6, β = π/3 y γ = π/4,
entonces
h(a1 , . . . , an ), (b1 , . . . , bn )i = a1 b1 + · · · + an bn
−−→ −→
Ejemplo 62. Consideremos los vectores en R2 , P Q y RS, donde P = (−1, 1), Q = (1, 2),
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 71
Q S−R
Q−P
P S
−−→ −→
El producto interno hP Q, RSi = hQ − P, S − Ri = h(2, 1), (2, 2)i = 2 · 2 + 1 · 2 = 4 + 2 = 6.
−−→ −→
Dados dos vectores P Q y RS, definimos el ángulo entre ellos, como el ángulo α ∈ [0, π]
que forman los dos vectores, como se muestra en la siguiente figura:
Q
α
P S
−→ −→
donde note que el vector RS está en la clase de equivalencia del vector P T .
−−→ −→
Definición 21. Decimos que dos vectores P Q y RS son ortogonales o perpendiculares,
si el ángulo entre ellos es π/2.
−−→ −→
Decimos que dos vectores P Q y RS son paralelos si el ángulo entre ellos es 0 o π.
||Q|| ||Q − P ||
P
α
||P ||
de donde
hP, Qi = ||P || · ||Q||cosα
De lo anterior tenemos que el producto interno de dos vectores, está determinado por
−−→
sus magnitudes y por el coseno del ángulo entre ellos, es decir, dados dos vectores P Q y
−→ −−−−−−−→
RS, considerando los respectivos vectores en el origen, es decir, los vectores O(Q − P )
−−−−−−→
y O(S − R), tenemos de lo anterior que
−−→ −→ −−→ −→
hP Q, RSi = ||P Q|| · ||RS||cosα,
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 73
−−→ −→
donde α es el ángulo entre los vectores P Q y RS.
Lo anterior implica la siguiente proposición.
−−→ −→ −−→ −→
Proposición 17. i) P Q y RS son ortogonales si y sólo si hP Q, RSi = 0.
−−→ −→ −−→ −→
ii) P Q y RS son paralelos si y sólo si P Q = c(RS) para cierto c ∈ R.
Demostración. Ejercicio.
R
O
−−→ −−→
Para encontrar el vector OR con las propiedades anteriores, note que OR tiene que
−−→ −−→ −−→
ser paralelo al vector OQ, es decir, OR = c(OQ), esto implica que R − O = c(Q − O),
−−→ −→
así R = cQ. Por otro lado, como queremos que OR sea perpendicular a RP , entonces
−−→ −→
hOQ, RP i = 0 y por lo tanto hQ, P − Ri = 0, y como R = cQ entonces hP − cQ, Qi = 0.
hP,Qi
Esto implica que hP, Qi − chQ, Qi = 0. Luego, c = hQ,Qi .
hP,Qi
Por lo tanto, R = hQ,Qi Q.
−−→ −−→ −−→
El vector OR recibe el nombre de proyección ortogonal de OP sobre OQ, y en general
74 CAPÍTULO 3. BASES Y DIMENSIÓN
−−→ −−→
se escribe OR = proy−→ OP , o lo que es equivalente, R = proyQ P .
−
OQ
−−→ −→ −−→
En general, dados dos vectores P Q y RS, definimos proy− → P Q = proy(S−R) (Q − P ), o
RS
lo que es equivalente,
−−→ −→
−−→ hP Q, RSi −→
proy−→ P Q = −→ −→ RS
RS
hRS, RSi
R
O
−−→ hQ,P i
Demostración. Por la forma como se construyo el vector OR, tenemos que R = hQ,Qi Q.
Por lo tanto,
−−→ −→
De manera más general, el teorema anterior nos dice que dados vectores P Q y RS,
−→ −−→ −→ −→ −−→
si U T es la proyección del vector P Q sobre el vector RS, es decir, U T = proy−→ P Q,
RS
entonces
−→ −−→ −→
hU T , P Q − U T i = 0
Veamos que esta versión del Teorema de Pitágoras coincide con la versión tradicional
para triángulos rectángulos.
En efecto, supongamos que tenemos un triángulo rectángulo cuyos vértices son los puntos
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 75
||Q − P ||
||Q − S||
P
||S − P ||
S
Veamos que
||Q − P ||2 = ||S − P ||2 + ||Q − S||2 , (3.8)
−→ −−→ −→
hP S, P Q − P Si = 0
−−→ −→ −→
Ahora, note que P Q − P S = SQ, por lo tanto tenemos que
−→ −→
hP S, SQi = 0
hS − P, Q − Si = 0
hQ − P, Q − P i = hS − P, S − P i + hQ − S, Q − Si
hS − P, Q − Si = 0
Demostración. Supongamos primero que ||P || = 1 = ||Q||, es decir, que P y Q son vec-
tores unitarios. Veamos que |hP, Qi| ≤ 1.
En efecto, por propiedades del producto interno sabemos que hP − Q, P − Qi ≥ 0 y
hP + Q, P + Qi ≥ 0. Por lo tanto hP, P i − 2hP, Qi + hQ, Qi ≥ 0 y como hP, P i = ||P ||2
y hQ, Qi = ||Q||2 , se sigue que 2 − 2hP, Qi ≥ 0, de donde hP, Qi ≤ 1.
De igual forma, hP +Q, P +Qi = hP, P i+2hP, Qi+hQ, Qi ≥ 0, de donde, 2+2hP, Qi ≥ 0.
Por lo tanto, hP, Qi ≥ −1.
Así, −1 ≤ hP, Qi ≤ 1. Esto muestra que |hP, Qi| ≤ 1.
En el caso general, cuando P y Q no son unitarios, es decir, no tienen norma 1, note
primero que todo que la desigualdad es trivial si P = O o Q = O. Por lo tanto podemos
suponer que P y Q son vectores no nulos y podemos demostrar la desigualdad norma-
P Q
lizando los vectores, es decir, dividiendo por su norma. En otras palabras, ||P || y ||Q||
P Q
|h , i| ≤ 1
||P || ||Q||
P Q 1 1
h , i= hP, Qi
||P || ||Q|| ||P || ||Q||
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 77
P
||P + Q|| ||P ||
||Q||
O
Demostración.
Así, ||P + Q||2 ≤ (||P || + ||Q||)2 y por lo tanto ||P + Q|| ≤ ||P || + ||Q||.
el eje y.
Esta definición permite generalizar la noción de recta a cualquier Rn , teniendo en cuenta
que ya en vez de pendiente podemos hablar de vector director de la recta, y en vez del
intersecto podemos hablar de un punto sobre la recta.
−−→
Supongamos que tenemos un vector P Q en Rn y un punto R ∈ Rn , y queremos construir
−−→
una recta que vaya en la misma dirección del vector P Q y que pase por R.
Q
L
P
R
−−→
Para que el punto X este sobre la recta L, es necesario que el vector RX sea paralelo
−−→ −−→ −−→
al vector P Q, es decir, RX = t(P Q) para cierto t ∈ R. Por lo tanto, X − R = t(Q − P ),
de donde X = t(Q − P ) + R.
−−→
Definición 22. Dado un punto R ∈ Rn y un vector P Q, definimos la recta con vector
−−→
director P Q que pasa por el punto R, como el conjunto de puntos
L = {X ∈ Rn : X = t(Q − P ) + R, t ∈ R}
Ejemplo 63. Halle la ecuación de la recta L en R3 que pasa por los puntos P = (−1, 0, 3)
y Q = (1, 2, −1).
−−→
Note que al pasar la recta por los puntos P y Q, el vector P Q es un vector director de
la recta L. Por lo tanto, la recta L es el conjunto de puntos
L = {X = t(Q − P ) + P : t ∈ R},
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 79
es decir, son los puntos de la forma (x, y, z) = t(2, 2, −4)+(−1, 0, 3) = (2t−1, 2t, −4t+3).
En este caso que el vector director (2, 2, −4) no tiene entradas nulas, podemos describir
los puntos de la recta L como los puntos (x, y, z) tales que:
x+1 y 3−z
= = ,
2 2 4
x+1 y 3−z
ya que t = 2 , t = 2 y t = 4 . Estas ecuaciones se conocen como las ecuaciones
simétricas de la recta L.
−−→
Definición 23. Sea R ∈ Rn y sea P Q un vector en Rn . Definimos el plano P en Rn que
−−→ −−→
pasa por R y tiene vector normal P Q, como el conjunto de puntos X ∈ Rn tales que XR
−−→
es perpendicular a P Q, es decir, todos los puntos X ∈ Rn tales que hX − R, Q − P i = 0.
En otras palabras,
P = {X ∈ Rn : hX − R, Q − P i = 0}
X
P
Ejemplo 64. En R3 por ejemplo, la ecuación de un plano P que pase por el punto
80 CAPÍTULO 3. BASES Y DIMENSIÓN
donde (a, b, c) es el vector normal al plano y el plano pasa por el punto (x0 , y0 , z0 )
Volvamos a los espacios vectoriales con producto interno. Todo lo que discutimos
anteriormente sobre Rn , se puede generalizar a cualquier espacio vectorial con producto
interno.
Definición 24. Sea V un espacio vectorial con producto interno h·, ·i.
1. ρ(a · v) = |a|ρ(v)
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 81
3. ρ(v) = 0 ⇒ v = 0
Proposición 19. Sea V un espacio vectorial con producto interno h·, ·i y || · || la norma
inducida por este producto interno. Entonces
V = W ⊕ W⊥
s−1
X
hu1 , us i = hu1 , vs − proyui vs i
i=1
s−1
X
= hu1 , vs − proyu1 vs i − hu1 , proyui vs i
i=2
=0
s−1
X
hu2 , us i = hu2 , vs − proyui vs i
i=1
s−1
X
= hu2 , vs − proyu2 vs i − hu2 , proyui vs i
i=1,i6=2
=0
l−1
X
hul , ui i = hvl − proyuj vl , ui i
j=1
l−1
X
= hvl − proyui vl , ui i − hproyuj vl , ui i
j=1,j6=i
=0
84 CAPÍTULO 3. BASES Y DIMENSIÓN
=0
=0
Observación 14. Sea V un espacio vectorial con producto interno, dim(V ) < ∞ y sea
W ⊂ V un subespacio vectorial. Consideremos B = {w1 , . . . , wk } una base para W . Por
el teorema anterior, sabemos que es posible ortogonalizar esta base, es decir, tomando
u1 = w1 , u2 = w2 − proyu1 w2 , . . . y en general
i−1
X
ui = wi − proyuj wi
j=1
Teorema 11. Sea V un espacio vectorial de dimensión finita con producto interno y
sea W ⊂ V un subespacio vectorial. Entonces V = W ⊕ W ⊥ .
= hv, wj i − hproywj v, wj i
hv, wj i
= hv, wj i − hwj , wj i
hwj , wj i
=0
Observación 15. Sea V un espacio vectorial de dimensión finita con producto interno
y sea W ⊂ V un subespacio. Si B = {w1 , . . . , wk } es una base ortogonal para W ,
sabemos que esta base se puede completar hasta obtener una base para V . Tomemos
Pk
v1 ∈
/ hw1 , . . . , wk i = W y consideremos u1 = v1 − j=1 proywj v1 . Note que u1 ∈
/ W , ya
Pk
que j=1 proywj v1 ∈ W . Por lo tanto tenemos un conjunto linealmente independiente
{w1 , . . . , wk , u1 }, donde hu1 , wj i = 0 para todo j = 1, . . . , k. Continuamos de esta ma-
Pk
nera, es decir, tomamos v2 ∈
/ hw1 , . . . , wk , u1 i y consideramos u2 = v2 − j=1 proywj v2 .
Ejemplo 67. En R3 , consideremos el subespacio W = h(1, 0, −1), (1, 2, 1)i, que corres-
ponde a un plano que pasa por el origen, ya que {(1, 0, −1), (1, 2, 1)} es linealmente
3.6. ESPACIOS VECTORIALES CON PRODUCTO INTERNO 87
independiente.
(1, 2, 1)
(1, 0, −1)
ortogonales, por lo tanto {(1, 0, −1), (1, 2, 1)} ya es una base ortogonal para W . Ahora
completemos esta base hasta obtener una base para R3 . Recordemos que esto se logra
escogiendo un vector ∈ R3 que no pertenezca a W = h(1, 0, −1), (1, 2, 1)i, es decir, un
vector v = (a, b, c) tal que (a, b, c) 6= x(1, 0, −1) + y(1, 2, 1) para todo x, y ∈ R. Esto es
equivalente a escoger a, b, c ∈ R tales que el sistema lineal
1 1 a
x
= b
0 2
y
−1 1 c
sea inconsistente.
Considerando la matriz aumentada asociada a este sistema y luego escalonándola por
medio de operaciones elementales fila, obtenemos
1 1 | a 1 1 | a
2 | → 0 2 |
0
b
b
−1 1 | c 0 0 | a+c−b
88 CAPÍTULO 3. BASES Y DIMENSIÓN
(1, 0, −1)
3.7. Ejercicios
1. Sea A ∈ Mn×n una matriz cuadrada. Demuestre que si al aplicarle una operación
elemental fila a la matriz A, obtenemos una matriz B, entonces al aplicarle la mis-
ma operación elemental fila a la matriz identidad, se obtiene una matriz E, tal que
EA = B.
Definimos una matriz elemental, simplemente como una matriz cuadrada n × n
que se obtiene al aplicarle una operación elemental a la matriz identidad In .
Este ejercicio muestra, que escalonar una matriz cuadrada A, corresponde a mul-
tiplicar por la izquierda la matriz A por matrices elementales.
2. Demuestre que si A es una matriz, tal que las entradas de cada columna suman
3.7. EJERCICIOS 89
cero, entonces existe una forma escalonada de A con una fila de ceros.
hSi = {v ∈ V : v = a1 s1 + · · · + an sn con s1 , . . . , sn ∈ S y a1 , . . . , an ∈ K}
12. Dada una matriz A = [aij ], definimos su transpuesta AT = [aji ]. Decimos que una
matriz cuadrada A es simétrica, si AT = A, y decimos que es antisimétrica, si
AT = −A.
15. Use el hecho de que R no es contable y Qn es contable, para demostrar que dimQ R =
∞.
21. Demuestre que el conjunto Vect(Rn )/ ∼ con la suma y el producto escalar definidos
en esta sección, es un espacio vectorial.
y
−−→
α · [P Q] → α · (Q − P )
25. Demuestre que toda recta L en Rn que pase por el origen, es un subespacio vectorial
generado por un solo vector hP i. Concluya que las rectas que pasa por el origen
son subespacios vectoriales de dimensión 1.
27. Con la misma notación del ejercicio anterior, demuestre que la distancia de R a
la recta L, se puede calcular de la siguiente forma: tome P, S ∈ L y considere los
−→ −→
vectores P R y P S, que se pueden identificar con los puntos R − P y S − P . La
distancia de R a la recta L es precisamente
28. Demuestre que todo plano P en Rn que pase por el origen, es un subespacio vec-
torial generado por dos vectores linealmente independientes P = hR, Si. Concluya
que los planos que pasan por el origen son subespacios vectoriales de dimensión 2.
||proyN (R − Q)||
34. Sea V un espacio vectorial con producto interno. Demuestre que si {v1 , . . . , vn }
es un conjunto ortogonal de vectores no nulos, es decir, hvi , vj i = 0 para i 6= j,
entonces {v1 , . . . , vn } es linealmente independiente.
35. Sea V un espacio vectorial con producto interno y sea W un subespacio vectorial
de V . Supongamos que B = {w1 , . . . , wk } es una base para W . Demuestre que si
v ∈ V es tal que hv, wi i = 0 para i = 1, . . . , k, entonces v ∈ W ⊥ .
36. Sea V un espacio vectorial de dimensión finita con producto interno. Sea W ⊂ V un
subespacio vectorial. Si B = {w1 , . . . , wk } es una base ortogonal para W , sabemos
que existen vectories v1 , . . . , vs ∈ V tales que C = {w1 , . . . , wk , v1 , . . . , vs } es una
Pk
base para V . Defina para i = 1, . . . , s, ui = vi − j=1 proywj vi . Demuestre que
{w1 , . . . , wk , u1 , . . . , us } es una base para V , y que hu1 , . . . , us i = W ⊥ .
P∞
37. Demuestre que en R∞ , (ai )∞ ∞
i=1 ·(bi )i=1 = i=1 ai bi es un producto interno. Recuerde
que un elemento (ai )∞
i=1 = (a1 , a2 , . . . ) ∈ R
∞ si a 6= 0 solo para finitos i’s.
i
39. Sea V un espacio vectorial de dimensión finita con producto interno h·, ·i. Demues-
tre que
||u + v||2 + ||u − v||2 = 2(||u||2 + ||v||2 )
40. Sea V un espacio vectorial de dimensión finita con producto interno y sea W ⊂ V
un subespacio. Demuestre que (W ⊥ )⊥ = W .
41. De un ejemplo para mostrar que en general, no es cierto que en un espacio vectorial
de dimensión finita con producto interno, si W1 y W2 son subespacios vectoriales
con W1 ∩ W2 = {0}, entonces W1⊥ ∩ W2⊥ = {0}.
94 CAPÍTULO 3. BASES Y DIMENSIÓN
Capítulo 4
En este capítulo hablaremos solo de matrices cuadradas, es decir, matrices que tiene
igual número de filas que de columnas.
4.1. Matrices
donde aij ∈ K para todo i, j = 1, . . . , n. Por comodidad, denotaremos las matrices por
[aij ], y como vamos a trabajar solo con matrices cuadradas, queda claro en la notación
que i, j = 1, 2, . . . , n.
El conjunto de matrices n × n con coeficientes en K, será denotado por Mn (K), y como
95
96CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
vimos anteriormente, este conjunto es un espacio vectorial con las operaciones suma:
α[aij ] = [αaij ]
Más aún, sabemos que Mn (K) es un espacio vectorial de dimensión n2 , donde la base
canónica para Mn (K) está dada por las matrices ekl = [aij ] donde aij = 0 si i 6= k y
j 6= l y akl = 1, es decir, es la matriz que tiene un 1 en la posición kl y cero en las demás
entradas.
El conjunto Mn (K) además de la estructura de espacio vectorial, tiene una estructura
de anillo, es decir, se puede definir en Mn (K) una multiplicación de matrices, inducida
por el producto interno entre vectores.
Dada una matriz
b1
b2
∈ Kn
A = [aij ] ∈ Mn (K) y un vector b =
..
.
bn
definimos
a11 a12 ··· a1n b1 a11 b1 + a12 b2 + · · · + a1n bn
a
21 a22 ··· a2n
b2 a b + a b + ··· + a b
21 1 22 2 2n n
A·b=
. .. ..
..
=
.
(4.1)
.. ..
. ··· .
.
an1 an2 · · · ann bn an1 b1 + an2 b2 + · · · + ann bn
donde la entrada cij corresponde al producto punto entre la fila i-ésima de [aij ] con la
columna j-ésima de [bij ], es decir,
cij = (ai1 , ai2 , . . . , ain ) · (b1j , b2j , . . . , bnj ) = ai1 b1j + ai2 b2j + · · · + ain bnj
Note que
1 −1 0 1 −1 0
AB = =
0 1 1 1 1 1
y
0 1 1 −1 0 1
BA = =
1 1 0 1 1 0
Por lo tanto AB 6= BA.
A(BC) = (AB)C
(AB) · v = A · (B · v)
A · (v + w) = (A · v) + (A · w)
Demostración. Ejercicio
Definición 27. Decimos que una matriz A ∈ Mn (K) es invertible, si existe una matriz
B ∈ Mn (K) tal que
AB = In y BA = In ,
Observación 16. Más adelante veremos que dada una matriz A ∈ Mn (K), si existe
una matriz B ∈ Mn (K) tal que AB = In , entonces también se tiene que BA = In . Esto
muestra que en la definición de matriz invertible, basta con pedir que AB = In .
Recordemos que anteriormente habíamos visto que toda matriz A ∈ Mn (K), se puede
llevar a una forma escalonada por medio de operaciones elementales fila.
con bii 6= 0 para todo i = 1, 2, . . . , n, entonces U se puede llevar por medio de operaciones
elementales fila a la matriz identidad In .
4.1. MATRICES 99
Demostración. Ejercicio.
Demostración. Probemos a): Note que (AB)(B −1 A−1 ) = A(BB −1 )A−1 = A(In )A−1 =
AA−1 = In . Esto muestra que AB es invertible y que (AB)−1 = B −1 A−1 .
Probemos b): Supongamos que A es invertible. Entonces multiplicando la ecuación Ax =
b por A−1 a ambos lados, obtenemos que A−1 (Ax) = A−1 b, lo que implica que In · x =
A−1 b, de donde x = A−1 b es la única solución del sistema.
Recíprocamente, si Ax = b tiene solución única para todo b ∈ Rn , entonces en particular
Ax = 0 tiene solución única. Por medio de operaciones elementales fila, sabemos que es
posible llevar la matriz A a una matriz escalonada U , y que además el sistema Ax = 0 es
equivalente al sistema U x = 0, por lo tanto U x = 0 también tiene como única solución
al vector (0, 0, . . . , 0).
Veamos que U es una matriz triangular superior con las entradas de la diagonal principal
no nulas, es decir,
b11 b12 b13 · · · b1n
0 b22 b23 · · · b2n
U =
0 0 b33 · · · b3n
.. .. .. .. ..
.
. . . .
0 0 0 ··· bnn
con bii 6= 0 para todo i = 1, 2, . . . , n
100CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
El siguiente corolario muestra que para que una matriz sea invertible, es suficiente
con que tenga inversa a un lado.
Corolario 3. Sea A ∈ Mn (K) una matriz tal que existe una matriz B ∈ Mn (K) con
AB = In . Entonces BA = In y por lo tanto A es invertible.
En el espacio de matrices existen dos funciones escalares que juegan un papel muy
importante en el álgebra lineal, la función determinante y la función traza. Más adelante
hablaremos en detalle de estas funciones, sin embargo introduciremos la función traza en
este capítulo, ya que su definición no requiere de ninguna herramienta sofisticada, pero
esta función permite definir un producto interno en el espacio vectorial Mn (K).
Definición 28. Dada una matriz A = [aij ] ∈ Mn (K), definimos su traza que denotare-
mos por tr(A) como
tr(AT ) = tr(A)
tr(AB) = tr(BA)
Demostración. Ejercicio.
A∗ = (A)T
Dada una matriz A ∈ Mm×n (K), asociados a ella hay dos subespacios, el espacio
nulo o kernel de A y el espacio columna o imagen de A. Estos dos subespacios se definen
de la siguiente manera:
Definición 30. Sea A ∈ Mm×n (K). Definimos el espacio nulo o kernel de A como
ker(A) = {v ∈ K n : A · v = 0}
im(A) = hC1 , . . . , Cn i,
Esto muestra que ker(A) = h(4/5, −6/5, 1)i. Por lo tanto dim(ker(A)) = 1.
Por otro lado, im(A) = h(3, −1, 1), (2, 1, 4), (0, 2, 4)i. Computemos la dimensión del
subespacio im(A). Si suponemos que
3 2 0 0
−1 x + 1 y + 2 z = 0 ,
1 4 4 0
que tiene como soluciones todos los múltiplos del vector (4/5, −6/5, 1). Esto muestra por
104CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
ejemplo que
3 2 0 0
4 6
−1 − 1 + 2 = 0 ,
5 5
1 4 4 0
de donde concluimos que (0, 2, 4) ∈ h(3, −1, 1), (2, 1, 4)i. De aquí se sigue que im(A) =
h(3, −1, 1), (2, 1, 4)i y como {(3, −1, 1), (2, 1, 4)} es linealmente independiente, entonces
dim(im(A)) = 2.
Por un ejercicio, dim(im(A)) es el número de pivotes de una forma escalonada para A,
en este caso, una forma escalonada para A vimos que es
1 4 4
0 5 6
0 0 0
Ejemplo 70. Consideremos el espacio vectorial R3 . Sabemos que una base para R3
es por ejemplo B = {e1 , e2 , e3 }. Dado cualquier vector v = (a, b, c) ∈ R3 , (a, b, c) =
ae1 + be2 + ce3 . Más adelante denotaremos el elemento (a, b, c) como las coordenadas del
vector v = (a, b, c) en la base B = {e1 , e2 , e3 }. Si consideramos la base B 0 = {e2 , e3 , e1 },
claramente sigue siendo base para R3 , pero ya el vector v = (a, b, c) se escribe en términos
de esta base como v = be2 + ce3 + ae1 , es decir, el vector de coordenadas de v en esta
base es (b, c, a).
4.2. BASES ORDENADAS 105
Definición 31. Sea V un espacio vectorial de dimensión finita. Definimos una base
ordenada para V , como un subconjunto B = {v1 , v2 , . . . , vn }, donde los elementos de la
base están ordenados.
4.2.1. Coordenadas
v = a1 v1 + a2 v2 + · · · + an vn
Usaremos la notación
[v]B = (a1 , . . . , an )
B = {1, x, x2 , x3 } y C = {2, 3 − x, x2 + 1, 1 − x3 }
Consideremos la siguiente matriz que denotaremos por [Id]C,B y que será llamada la
matriz de cambio de base de la base B a la base C:
a11 a12 ··· a1n
a
21 a22 ··· a2n
[Id]C,B =
. .. ..
..
. ··· .
an1 an2 · · · ann
Ejemplo 73. En R3 consideremos las bases ordenadas B = {(1, 0, 1), (2, 1, 0), (0, 1, 1)}
y C = {(1, 0, 0), (0, 1, 0), (1, 0, 1)}. Hallemos la matriz de cambio de base [Id]C,B .
4.2. BASES ORDENADAS 107
Por lo tanto
0 2 −1
[Id]C,B = 0 1
1
1 0 1
wi = a1i v1 + · · · ani vn
y reagrupando términos
n n n
! ! !
X X X
v= ci a1i v1 + ci a2i v2 + · · · + ci ani vn
i=1 i=1 i=1
108CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
n
X
bj = ci aji
i=1
para todo j = 1, 2, . . . , n.
Así,
P
n
b1 i=1 ci a1i
P
b n
i=1 ci a2i
2
[v]B = . =
..
..
.
Pn
bn i=1 ci ani
(−1, 2)
(0, 1)
(1, 1)
(1, 0)
Tomemos un vector v = (v1 , v2 ) ∈ R2 . Es claro que [v]B = (v1 , v2 ). Veamos cuales son
las coordenadas de v en la base C, es decir, encontremos [v]C .
Sabemos que
y además sabemos que para contruir la matriz [Id]CB necesitamos escribir los vectores
de B en términos de la base C. Note que
1 2 1 1 −1
= −
3 3
0 1 2
y
0 1 1 1 −1
= +
3 3
1 1 2
Por lo tanto,
2/3 1/3
[Id]CB =
−1/3 1/3
i) [Id]B,B = In
vi = 0 · v1 + · · · + 0 · · · vi−1 + 1 · vi + 0 · vi+1 + · · · + 0 · vn ,
La prueba de iii) se sigue de ii) y de i), ya que demostrar iii) es equivalente a probar
que
[Id]B,A · [Id]A,B = In
y que
[Id]A,B · [Id]B,A = In
pero
[Id]B,A · [Id]A,B = [Id]B,B = In
y
[Id]A,B · [Id]B,A = [Id]A,A = In
En esta sección queremos definir funciones entre espacios vectoriales, que respeten las
operaciones de suma y producto escalar. Funciones con estas propiedades serán llamadas
transformaciones lineales
donde λ1 , . . . , λn ∈ K, v1 , . . . , vn ∈ V
= (x1 + y1 , 0, x1 − y1 ) + (x2 + y2 , 0, x2 − y2 )
= T ((x1 , y1 )) + T ((x2 , y2 ))
y
T (λ(x, y)) = T ((λx, λy)) = (λx + λy, 0, λx − λy)
= λ(x + y, 0, x − y) = λT (x, y)
y
T (λp(x)) = λp(0) = λT (p(x))
cuando λ2 6= λ y xy 6= 0.
i) ker(T ) = {v ∈ V : T (v) = 0}
Demostración. Ejercicio
que se observa fácilmente que tiene como única solución al vector (0, 0). Esto muestra
que ker(T ) = {(0, 0)} y por la Proposición anterior T es inyectiva.
w = T (v) = T (a1 v1 +· · · ak vk +b1 u1 +· · · bs us ) = a1 T (v1 )+· · · ak T (vk )+b1 T (u1 )+· · ·+bs T (us ),
lo que muestra que im(T ) = hT (u1 ), . . . , T (us )i. Por lo tanto {T (u1 ), . . . , T (us )} es una
base para im(T ).
Tenemos entonces que dim(V ) = k + s = dim(ker(T )) + dim(im(T )).
Demostración. Ejercicio.
T ◦ S = IdW y S ◦ T = IdV
ϕVB : V → Kn
v 7→ [v]B
A : Kn → Km
v 7→ A · v
V
T /W
ϕV
B ϕW
C
[T ]C,B
Kn / Km
es decir, ϕW V
C ◦ T = [T ]C,B ◦ ϕB .
pero
m
X
T (vi ) = aji wj
j=1
Concluimos entonces que la matriz [T ]C,B construida de esta manera, satisface que
M2 (K),
denotemos
a los elementos de esta base por [e1 ], [e2 ], [e3 ] y [e4 ]; y tomemos
1 0
C= , la base ordenada canónica para K 2 . Hallemos la matriz asociada
0
1
a b
Esto quiere decir que si A = ∈ M2 (K), entonces como A = a[e1 ] + b[e2 ] +
c d
c[e3 ] + d[e4 ], se sigue que [A]B = (a, b, c, d) y por otro lado T (A) = (av1 + bv2 , cv1 + dv2 ),
122CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
de donde tenemos que [T (A)]C = (av1 + bv2 , cv1 + dv2 ). Por lo tanto
a
av1 + bv2 v1 v2 0 b
0
[T (A)]C = =
cv1 + dv2 0 0 v1 v2 c
d
Una de las razones por las cuales es importante asociarle a una transformación lineal
una matriz, es que la matriz y la transformación lineal comparten propiedades similares.
ii) w ∈ im(T ) si y sólo si para toda base ordenada B de V y toda base ordenada C de
W , [w]C ∈ im([T ]C,B )
iii) T es invertible si y sólo si para toda base ordenada B de V y toda base ordenada C
de W , la matriz [T ]C,B es invertible. Más aún,
pero como T (v) = 0 entonces [T (v)]C = 0. Luego [T ]C,B · [v]B = 0 lo que implica
que [v]B ∈ ker([T ]C,B ).
4.3. TRANSFORMACIONES LINEALES 123
ii) Supongamos que w ∈ im(T ), entonces existe v ∈ V tal que T (v) = w. Si B y C son
bases ordenadas para V y W respectivamente, sabemos que
iii) Supongamos que T es invertible. Ya vimos que esto implica que T es un isomorfis-
mo y por lo tanto dim(V ) = dim(W ). Si B y C son bases ordenadas para V y W
respectivamente, note que la matriz [T ]C,B es una matriz cuadrada. Además como
T es inyectiva entonces ker(T ) = {0} y de la parte i) se sigue que ker([T ]C,B ) = {0}.
Es decir, el sistema homogeneo [T ]C,B · x = 0 tiene solución única. Por un teorema
visto anteriormente, esto implica que la matriz [T ]C,B es invertible.
Recíprocamente, si [T ]C,B es invertible entonces [T ]C,B tiene que ser una matriz cua-
drada y por lo tanto dim(V ) = dim(W ). Además, ker([T ]C,B ) = {0} y nuevamente
por la parte i) tenemos que ker(T ) = {0}. Esto implica que T es un isomorfismo.
Finalmente, demostremos que si T es invertible, entonces
Sabemos que
[T −1 ]B,C · [T ]C,B = Id
Observación 19. 1. Del teorema anterior se puede concluir que una transformación
lineal T : V → W es inyectiva, si y sólo si la matriz asociada [T ]C,B tiene kernel
cero, donde B y C son bases ordenadas para V y W respectivamente; y T : V → W
es sobreyectiva si y sólo si im([T ]C,B ) = W .
tenemos que
a11 a12 a13 ··· a1n α1
a
21 a22 a23 ··· a2n
α2
[T (v)]C =
. .. .. ..
..
..
. . ··· .
.
am1 am2 am3 · · · amn αn
es decir,
P
n
j=1 a1j αj
P
n
j=1 a2j αj
[T (v)]C =
..
.
Pn
j=1 amj αj
Por lo tanto
n
X n
X n
X
T (v) = a1j αj w1 + a2j αj w2 + · · · + amj αj wm
j=1 j=1 j=1
Ejemplo 85. Considere la función T : P3 → P3 dada por T (p(x)) = (xp(x))0 = xp0 (x) +
p(x). No es difícil ver que T es una transformación lineal. Veamos que T es invertible y
hallemos su inversa T −1 .
Para ver que T es invertible, basta ver que T es inyectiva. Para esto podemos tomar la
base canónica de P3 , B = {1, x, x2 , x3 }. Calculemos la matriz asociada a T en esta base,
es decir [T ]B,B . Note que T (1) = 1, T (x) = 2x, T (x2 ) = 3x2 y T (x3 ) = 4x3 . Por lo tanto
1 0 0 0
0 2 0 0
[T ]B,B =
0 0 3 0
0 0 0 4
126CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
Como esta matriz es invertible ya que sus columnas son linealmente independientes,
entonces ker([T ]B,B ) = {(0, 0, 0, 0)}, y por lo tanto ker(T ) = {0}. Esto muestra que T
es una transformación lineal inyectiva de un espacio en si mismo, y por lo tanto es un
isomorfismo. Luego T es invertible. Por el teorema anterior, sabemos que [T −1 ]B,B =
([T ]B,B )−1 , pero es fácil ver que la inversa de [T ]B,B es
1 0 0 0
1
0 0 0
−1 2
[T ]B,B =
1
0 0 0
3
1
0 0 0 4
Por lo tanto, si p(x) = a + bx + cx2 + dx3 , entonces [p(x)]B = (a, b, c, d), luego
1 0 0 0 a
1
0 0 b
0
−1 2
[T (p(x))]B =
1
0
0 3 0 c
1
0 0 0 4 d
b c d
T −1 (p(x)) = a + x + x2 + x3 .
2 3 4
Note que
1
Z
−1
T (p(x)) = p(x)dx
x
Proposición 27. Sean T : U → V y S : V → W transformaciones lineales entre
espacios vectoriales finito dimensionales. Sean B, C y D bases ordenadas para U , V y W
respectivamente. Entonces
Como esta igualdad se tiene para todo [u]B , se sigue la igualdad de matrices
Definición 35. Sean V y W espacios vectoriales con producto interno, digamos h·, ·iV
y h·, ·iW sus respectivos productos internos. Decimos que una transformación lineal T :
V → W es una isometría, si
para todo v1 , v2 ∈ V .
Observación 20. Recordemos que dado un espacio vectorial V con producto interno
p
h·, ·iV , este producto interno induce una norma en V dada por || · ||V = h·, ·iV .
Por lo tanto, si T : V → W es una isometría, entonces
T es una isometría, ya que si denotamos A a esta matriz de rotación, note que las
columnas de A son ortonormales, es decir, si las columnas de A las nombramos A1 y A2 ,
entonces A1 · A2 = 0 y Ai · Ai = 1 para i = 1, 2. Por lo tanto,
= x1 x2 + y1 y2 = h(x1 , y1 ), (x2 , y2 )i
Que T sea una isometría se sigue del hecho de que A es una matriz ortonormal. Esto
no es una coincidencia, se puede demostrar que toda transformación lineal entre espa-
cios vectoriales con producto interno que esté dada por una matriz ortonormal es una
isometría. El recíproco también es cierto. (Ejercicio).
En esta sección mostraremos que para cada natural n ∈ N, existe una única función
F : K n × · · · × K n → K, multilineal, alternante y tal que F (e1 , . . . , en ) = 1. Esta única
n−veces
función recibe el nombre de función determinante.
F (A1 , . . . , A, . . . , A, . . . , An ) = 0,
es decir, la función es cero cada vez que dos entradas distintas son iguales.
F (A1 , . . . , Ai , . . . , Aj , . . . , An ) = −F (A1 , . . . , Aj , . . . , Ai , . . . , An ),
F (A1 , . . . , Ai + Aj , . . . , Ai + Aj , . . . , An ) = 0
F (A1 , . . . , Ai + Aj , . . . , Ai + Aj , . . . , An ) = F (A1 , . . . , Ai , . . . , Ai + Aj , . . . , An )+
+ F (A1 , . . . , Aj , . . . , Ai + Aj , . . . , An )
= F (A1 , . . . , Ai , . . . , Ai , . . . , An ) + F (A1 , . . . , Ai , . . . , Aj , . . . , An )
+ F (A1 , . . . , Aj , . . . , Ai , . . . , An ) + F (A1 , . . . , Aj , . . . , Aj , . . . , An )
= F (A1 , . . . , Ai , . . . , Aj , . . . , An ) + F (A1 , . . . , Aj , . . . , Ai , . . . , An )
F (A1 , . . . , Ai , . . . , Aj , . . . , An ) = −F (A1 , . . . , Aj , . . . , Ai , . . . , An )
a2i
a
3i
Ai− =
. ,
..
asi
Entonces definimos
s
(−1)1+i a1i · det(A1− , · · · , Ai−1 i+1
X
det(A1 , · · · , As ) = i s
− , A− , A− , · · · , A− ),
d
i=1
donde el símbolo b significa que se está removiendo el vector que se encuentra en esa
posición.
Se deja como ejercicio para el lector, demostrar que esta función es multilineal, al-
ternante y que det(e1 , . . . , es ) = 1.
0 1 0 2
1 0 1 0
A=
−1 2 0 3
1 1 0 1
Hallemos el determinante de A.
132CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
= −4 + 6 = 2
Unicidad
Vamos a demostrar que para cada natural n ∈ N, existe una única función F : K n × · · · × K n →
n−veces
K, multilineal, alternante con F (e1 , . . . , en ) = 1.
Para esto es necesario hacer una pequeña introducción sobre permutaciones.
4.4.1. Permutaciones
τ ◦ σ = τ1 ◦ τ2 ◦ · · · ◦ τs ,
det(Aσ(1) , . . . , Aσ(n) )
(σ) = ,
det(A1 , . . . , An )
Proposición 30. : Sn → {1, −1} es una función tal que si τ ∈ Sn es una transposición,
entonces (τ ) = −1, y dadas σ, γ ∈ Sn , (σ ◦ γ) = (σ)(γ)
4.4. FUNCIÓN DETERMINANTE 135
Demostración. Note que : Sn → {1, −1} está bien definida, ya que dada una permuta-
ción σ ∈ Sn ,
det(Aσ(1) , . . . , Aσ(n) ) = (σ)det(A1 , . . . , An ),
= −det(A1 , . . . , Ai , . . . , Aj , . . . , An ),
= (σ)(γ)det(A1 , . . . , An ).
σ = τ1 ◦ τ2 ◦ · · · ◦ τs
Lo prueba de la siguiente proposición se deja como ejercicio para el lector, sin embargo
mostraremos su prueba en el caso n = 2 y n = 3.
entonces
X
F (A1 , . . . , An ) = (σ)aσ(1)1 aσ(2)2 · · · aσ(n)n F (X 1 , . . . , X n )
σ∈Sn
X
F (A1 , . . . , An ) = (σ)aσ(1)1 aσ(2)2 · · · aσ(n)n .
σ∈Sn
Demostración. (Ejercicio)
entonces
X
F (A1 , . . . , An ) = (σ)aσ(1)1 aσ(2)2 · · · aσ(n)n ,
σ∈Sn
4.5. VALORES Y VECTORES PROPIOS 137
lo que muestra que existe una única función F multilineal, alternante con F (e1 , . . . , en ) =
1.
Lo primero que debemos notar, es que para entender los valores propios de transfor-
maciones lineales, basta saber entender los valores propios de matrices, ya que dada una
transformación lineal T : V → V , si fijamos una base ordenada B = {v1 , . . . , vn } para
138CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
V
T /V
ϕB ϕB
[T ]B,B
C n / Cn
es decir,
ϕB ◦ T = [T ]B,B ◦ ϕB
Note que en la definición anterior, A·v = λ·v es equivalente a decir que (λI −A)·v = 0
para cierto v 6= 0. Y esto equivale a decir que la matriz λI − A no es invertible, en otras
palabras, det(λI − A) = 0.
Esta última observación, nos da un método para encontrar los valores propios de una
matriz A, que consiste simplemente en encontrar las raices del polinomio PA (x) =
det(xI − A).
PA (x) = det(xI − A)
(x, y)
Tenemos entonces que los valores propios de A son x = i y x = −i, que son precisamente
las raices del polinomio característico PA (x).
Nuevamente por lo que dijimos anteriormente, podemos pensar más bien en encontrar
vectores propios y subespacios propios de matrices.
Dada una matriz A ∈ Mn (C), si v ∈ Cn es un vector propio asociado a un valor propio
λ, entonces A · v = λ · v, o de manera equivalente, (λI − A) · v = 0. Por lo tanto
Eλ = {v ∈ Cn : A · v = λ · v} = ker(λI − A). Esta observación nos muestra como
computar los subespacios propios de una matriz.
2 2
Ejemplo 90. Consideremos anterior, T : C → C la transformación lineal
el ejemplo
01
definida por la matriz A = .
−1 0
Ya vimos que los valores propios de A son x = i y x = −i.
Calculemos los subespacios propios Ei y E−i .
De lo anterior sabemos que Ei = ker(iI − A), pero
i −1
iI − A = .
1 i
E1 (1, 2) E1
(2, 1)
T
E−1 E−1
Demostración. Una prueba de este hecho se sigue por inducción sobre k. (Ejercicio para
4.5. VALORES Y VECTORES PROPIOS 143
el lector).
4.5.3. Diagonalización
Note que las matrices diagonales son en general muy fáciles de manipular, esto hace
importante estudiar matrices que sean semejantes a matrices diagonales. Vamos a ver
a continuación, que para ciertas transformaciones lineales T : V → V donde V es un
espacio vectorial real de dimensión finita, es posible encontrar una base ordenada B de
V tal que la matriz asociada a T en esta base, [T ]B,B , sea una matriz diagonal. Cuando
esto sea posible, diremos que T es diagonalizable.
[T ]B,B
Kn / Kn
[Id]C,B [Id]C,B
[T ]C,C
Rn / Kn
coincide con el término independiente del polinomio característico. Se puede ver (ejerci-
cio), que la traza de una matriz coincide con el negativo del coeficiente del término xn−1
del polinomio caracterísitico. Por lo tanto, matrices semejantes tienen igual traza.
Definición 44. Sea A ∈ Mn (K). Decimos que A es diagonalizable, si existe una matriz
diagonal D ∈ Mn (K) tal que A es semejante a D, es decir, existe una matriz invertible
C ∈ Mn (K) tal que A = CDC −1 .
y que por alguna razón necesitamos elevar esta matriz a una potencia muy alta (esto
es necesario por ejemplo cuando se define la exponencial de una matriz), por decir algo,
queremos hallar A2017 . Claramente efectuar el producto de A con A 2017 veces no parece
una opción viable. Sin embargo, si A es diagonalizable que en este caso lo es, aunque aún
no lo hemos verificado, resulta muy sencillo computar A2017 , esto ya que si A = CDC −1
donde D es una matriz diagonal, entonces A2017 = CD2017 C −1 . Además, como D es
diagonal, D2017 es simplemente la matriz cuyas entradas de la diagonal son las potencias
2017 de las entradas de la diagonal de D.
Más adelante mostraremos que si los valores propios de A son todos distintos y no se
repiten, entonces A es diagonalizable. Note que PA (x) = det(xI − A) = (x + 1)(x − 3) y
por lo tanto los valores propios de A son x = −1 y x = 3, que son todos distintos y sin
repeticiones, así A es diagonalizable.
146CAPÍTULO 4. MATRICES, BASES ORDENADAS Y TRANSFORMACIONES LINEALES
Para ver como diagonaliza A, encontremos los espacios propios asociados a los valores
propios de A.
* +
−2
E−1 = Ker(−I − A) y haciendo las cuentas necesarias obtenemos que E−1 =
1
* +
2
De igual forma, E3 = Ker(3I − A), de donde E3 = .
1
−2 2
Consideremos C = , que es la matriz cuyas columnas corresponden a los
1 1
espacios propios de A. Como el determinante de esta matriz es −4 6= 0 entonces es
invertible. Es fácil ver que
A = CDC −1
−1 0
donde D = .
0 3
2017
(−1) 0 −1 0
De aquí se sigue que A2017 = CD2017 C −1 , y D2017 = = .
0 0 32017 32017
Implicitamente en el ejemplo anterior, hay un método para determinar cuando una ma-
triz es diagonalizable, y si es diagonalizable encontrar su diagonalización. A continuación,
mostramos un criterio para determinar cuando una matriz diagonaliza.
Teorema 17. Sea A ∈ Mn (K) y supongamos que λ1 , . . . , λk son los distintos valores
propios de A. Denotemos por Eλ1 , . . . , Eλk a los espacios propios asociados a los distintos
valores propios λ1 , . . . , λk de A, en ese orden. Supongamos que cada Eλi = hvi1 , . . . , vini i,
para i = 1, 2, . . . , k.
Entonces A es diagonalizable si y sólo si el conjunto
forma una base para K n , en otras palabras, si y sólo si K n tiene una base de vectores
propios de A.
4.5. VALORES Y VECTORES PROPIOS 147
Note que la prueba anterior, muestra en el caso en que una matriz A es diagonali-
zable, como construir la matriz invertible C y la matriz diagonal D tal que A = CDC −1 .
4.6. Ejercicios
1. Demuestre que en Mn (K), las matrices que conmutan con todas, tienen la forma
cIn , es decir, los múltiplos de la identidad, en otras palabras
3. Sean A, B ∈ Mn (C).
c) Defina hA, Bi = tr(B ∗ A). Demuetre que este es un producto interno para
Mn (C).
10. Demostrar la unicidad en el Teorema 12, es decir, si A ∈ Mn (K) es otra matriz tal
que para todo vector v ∈ V ,
[v]B = A · [v]C ,
entonces A = [Id]B,C
14. Sea V un K-espacio vectorial con base ordenada B = {v1 , . . . , vn }. Demuestre que
T : V → K n definida como T (v) = [v]B , es una transformación lineal.
h(a1 , . . . , an ), (b1 , . . . , bn )i = a1 b1 + · · · + an bn
es un producto interno.
18. Sea T : V → W una transformación lineal entre espacios vectoriales finito dimen-
sionales. Demuestre que si T es una isometría, entonces T es inyectiva.
19. Sea T : V → W una transformación lineal entre espacios vectoriales finito dimen-
sionales. Demuestre que T es una isometría si y sólo si para cualquier par de bases
ordenadas ortonormales B y C para V y W respectivamente, la matriz [T ]C,B es
ortonormal.
22. Demuestre que Sn tiene n! elementos, donde recuerde que n! = 123 · · · (n − 1)n.
27. Demuestre que si A ∈ Mn (K) es una matriz tal que sus columnas son linealmente
dependientes, entonces det(A) = 0.
entonces PA (x) = (x − a11 )(x − a22 ) · · · (x − ann ). Por lo tanto los valores propios
de A son a11 , a22 , . . . , ann .
donde bn−1 = −(λ1 + · · · + λn ). Muestre además que tr(A) = a11 + a22 + · · · + ann =
−bn−1 .
35. Sea A ∈ Mn (R). Demuestre que si todos los valores propios de A son distintos,
entonces A es diagonalizable.
Muestre con un ejemplo que el recíproco no es cierto, es decir, que existen matrices
diagonalizables con valores propios repetidos.
1
A−1 = adj(A)
det(A)