Escolar Documentos
Profissional Documentos
Cultura Documentos
Parte II
Algebra Lineal
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
41 Matematicas I : Algebra Lineal
Tema 4
Espacios vectoriales reales
Definici
on 88.- Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con
dos operaciones, una que recibe el nombre de suma de vectores y otra que recibe el nombre de producto de
vectores por n
umeros reales o producto por escalares, que verifican las siguientes propiedades:
(1) u + v V ; u, v V .
(2) u + v = v + u ; u, v V .
(3) u + ( v + w ) = ( u + v ) + w ; u, v , w V .
(4) Existe un vector, llamado vector cero y denotado por 0 , tal que: 0 + u = u + 0 = u ; u V.
(5) Para cada u V , existe un vector de V , llamado opuesto de u y denotado por u , tal que
u + ( u ) = 0 .
(6) k u V ; k IR y u V .
(7) k( u + v ) = k u + k v ; k IR y u , v V .
(8) (k + l) u = k u + l u ; k, l IR y u V .
(9) (kl) u = k(l u ); k, l IR y u V .
(10) 1u = u ; u V.
Por ser los escalares de IR , se dice que V es un IR -espacio vectorial. Se pueden considerar espacios vectoriales
sobre otros cuerpos de escalares, como C .
Ejemplo Los conjuntos IRn , los conjuntos de polinomios Pn [X] = {P (X) IR[X] : gr(P ) n} y los conjuntos
de matrices reales Mmn = {matrices de tamano mn }, con las operaciones usuales en cada uno de ellos, son
espacios vectoriales reales.
Propiedades 89.- Algunas propiedades que se deducen de las anteriores son:
(iv) k u = 0 k = 0 o u = 0 .
(v) El vector cero de un espacio vectorial es u
nico.
(vi) El vector opuesto de cada vector del espacio vectorial es u
nico. .
Definici
on 90.- Un subconjunto W de un espacio vectorial V se dice que es un subespacio vectorial de V ,
si W es un espacio vectorial con las operaciones definidas en V .
Como W V , todos los vectores de W verifican las propiedades 2 a 5 y 7 a 10, por tanto es suficiente
probar que las operaciones suma y producto por escalares son internas en W , es decir, que se verifican las
propiedades (1) y (6) en W :
( 1 ) u + v W ; u, v W ( 6 ) k u W ; u W y k IR
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
42 Matematicas I : Algebra Lineal 4.3 Base y dimensi
on
Ejemplo P2 [X] es un subespacio de P4 [X], pues es un subconjunto suyo y si P (X), Q(X) P2 [X], el grado de
kP (X) + lQ(X) es gr(kP + lQ) = max{gr(kP ), gr(lQ)} max{gr(P ), gr(Q)} 2, por lo que esta en P2 [X].
Sin embargo, {P (X) : gr(P ) = 2} no es un subespacio de P4 [X], por dos razones: primero, porque no contiene
al polinomio cero; y segundo, no verifica la propiedad (1 ) ya que X2 y 2X X2 son polinomios del conjunto
pero su suma X2 + (2X X2 ) = 2X es un polinomio de grado 1 que no esta en el conjunto. 4
Definici on 91.- Se dice que un vector v V es una combinaci on lineal de los vectores v1 , v2 , . . . , vn si,
y solo si, c1 , c2 , . . . , cn IR tales que v = c1 v1 + c2 v2 + + cn vn .
Nota: Si los vectores { v1 , v2 , . . . , vk } son linealmente dependientes, al menos uno de ellos se puede escribir
como una combinacion lineal de los restantes; y si son linealmente independientes ninguno de ellos puede ser
generado por los restantes. Es decir, se tiene la siguiente caracterizacion para que un conjunto de dos o mas
vectores sea linealmente dependiente (ver ejercicio 4.7):
Un conjunto de dos o mas vectores es linealmente dependiente si, y solo si, al menos uno
de los vectores es una combinacion lineal de los restantes.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
43 Matematicas I : Algebra Lineal 4.3 Base y dimensi
on
Observacion: El comentario anterior a esta definicion nos indica la manera de reducir un conjunto generador
del espacio a una base.
Igualmente, podemos construir una base a partir de un conjunto linealmente independiente de vectores: si
S es linealmente independiente y lin S 6= V , tomando v V pero que v / lin S , el conjunto S { v } es
linealmente independiente (ver el Lema 96 siguiente); y as, se a
naden vectores a S hasta generar V .
De cierta forma, estamos diciendo que una base tiene el menor n umero posible de generadores y el mayor
n
umero posible de vectores linealmente independientes (ver Lema 97 siguiente); luego no tendra una base un
n
umero fijo de vectores? La respuesta la proporciona el Teorema de la base.
Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto { v1 , v2 , . . . , vm } de vectores de V, con m > n , es linealmente dependiente. .
Teorema de la base 98.- Cualesquiera dos bases de un espacio vectorial tienen el mismo n
umero de elementos.
Demostracion:
La demostracion es muy sencilla si tenemos en cuenta el Lema anterior, pues si B1 es una base de n elementos
y B2 es una base de m elementos, por ser B1 base y B2 linealmente independiente, m 6> n y por ser B2 base
y B1 linealmente independiente n 6> m , luego n = m.
Definici
on 99.- Un espacio vectorial V se dice de dimensi on finita si tiene un conjunto finito de vectores
que forman una base, y llamaremos dimensi on de V , dim V , al n
umero de vectores de cualquier base de V .
Al espacio vectorial V = {0 } le consideramos de dimension finita, de dimension cero, a
un cuando no tiene
conjuntos linealmente independientes.
Si no existe un conjunto finito de este tipo, se dice que V es de dimensi
on infinita (y no nos son ajenos pues
IR[X] es un espacio vectorial de dimensi
on infinita).
Ejemplo P2 [X] = {P (X) IR[X] : gr(P ) 2} tiene dimension 3, pues B = {1, X, X2 } forman una base. En
general, dim(Pn [X]) = n + 1 y B = {1, X, . . . , Xn } es una base suya.
Ejemplo 100 Los conjuntos IRn = IR IR IR = {(x1 , . . . , xn ) : xi IR, i} con las operaciones
habituales de suma y producto por escalares
x + y = (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
x = (x1 , . . . , xn ) = (x1 , . . . , xn )
son espacios vectoriales con dim IRn = n , ya que cualquier vector x IRn puede escribirse de la forma
x = (x1 , x2 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, . . . , 0) + + xn (0, 0, . . . , 1)
y este conjunto de vectores
n o
B = e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1)
onica de IRn .
es linealmente independiente. A esta base se la denomina base can 4
Conocer a priori la dimension de un espacio facilita la obtencion de bases:
Proposici on 101.- Si V es un espacio vectorial, con dim V = n. Entonces, un conjunto de n vectores de V
es base de V ,
a) si el conjunto es linealmente independiente, o b) si genera a V . .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
44 Matematicas I : Algebra Lineal 4.3 Base y dimensi
on
Nota: Al usar vectores de coordenadas, es imprescindible mantener el orden de los vectores. Si, en el ejemplo
anterior, tomamos como base B1 = { v2 , v3 , v1 }, tenemos que ( v )B1 = (1, 2, 1) que es un vector de
coordenadas distinto de ( v )B = (1, 1, 2).
Fijada una base, la unicidad de las coordenadas asigna a cada vector de V un u nico vector de IRn , de manera
que disponer de las coordenadas es, en el fondo, disponer del vector. Ademas, se cumple (ver ejercicio 4.14):
[ v + w ]B = [ v ]B + [w ]B y [ v ]B = [v ]B , luego [1 v1 + +n vn ]B = 1 [v1 ]B + + n [ vn ]B
por lo que se puede trabajar sobre las coordenadas en lugar de sobre los vectores.
Proposicion 104.- Si A es una matriz de tamano mn , entonces las operaciones elementales sobre las filas
(resp. columnas) de A no cambian el espacio de las filas (resp. columnas) de A.
Demostracion:
Puesto que hacer operaciones elementales sobre las filas es hacer combinaciones lineales de los vectores fila, el
subespacio lineal generado es el mismo. (Igual para las columnas.)
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
45 Matematicas I : Algebra Lineal 4.4 Cambios de base
Estos resultados nos permiten usar el metodo de Gauss, y por lo tanto nos ofrecen un operativo sencillo, para
comprobar cuando un conjunto de vectores es linealmente independiente y para obtener bases.
2
(X 1)B 1 0 1 0 1 1 0 0 1
Por lo anterior, los vectores fila de la u ltima matriz son linealmente independientes y dim Ef (A) = 3 . En
consecuencia, los tres vectores fila de la matriz A inicial que generan Ef (A) son tambien base, luego linealmente
independientes y los polinomios del enunciado tambien son linealmente independientes.
Ademas, forman una base de P2 [X] (por que?). 4
es decir, la columna i -esima esta constituida por las coordenadas en la base B2 , del vector ui de la base B1 .
En otras palabras, la matriz de cambio de base tiene por columnas las coordenadas en la base de llegada de
los vectores de la base de partida.
El porque la matriz de paso se contruye as, puede observarse en la prueba de la proposicion siguiente:
Proposici
on 108.- Sea P la matriz de paso de una base B1 en otra base B2 de un espacio V . Entonces:
1.- x V se tiene que [ x ]B2 = P [x ]B1 .
Apartado 2: como los vectores de la base B1 son linealmente independientes, sus vectores de coordenadas en
la base B2 tambien lo son. Luego las columnas de P son vectores linealmente independientes y rg(P ) = n,
por lo que P es inversible.
Ademas, [ x ]B2 = P [ x ]B1 = P 1 [x ]B2 = P 1 P [x ]B1 = P 1 [x ]B2 = [ x ]B1 y P 1 es la matriz
de cambio de la base B2 en la base B1 .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
46 Matematicas I : Algebra Lineal 4.5 Espacios vectoriales con producto interior
la matriz de paso de B a B1 .
Ejemplo Consideremos en IR3 la base can onica Bc = { e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} y la base
B1 = {v1 = (1, 0, 1), v2 = (2, 1, 1), v3 = (0, 1, 1)}.
Como v1 = 1(1, 0, 0) + 0(0, 1, 0) 1(0, 0, 1) = e1 e3 , se tiene que ( v1 )Bc = (1, 0, 1) ; y lo mismo para
los otros vectores, luego la matriz de paso de la base B1 a la base Bc sera:
1
1 2 0 1 2 0
P = [v1 ]Bc [v2 ]Bc [v3 ]Bc = 0 1 1 y P 1 = 0 1 1
1 1 1 1 1 1
Nota: A la vista del ejemplo anterior, obtener las coordenadas de un vector de IRn en la base canonica de IRn
es inmediato, pues ( x )Bc = x . Pero ciudado!, al trabajar con vectores de IRn no hay que confundir el vector
con las coordenadas en una base, pues la igualdad anterior u nicamente es cierta en la base canonica.
1.- h u , v i = h v , u i ; u , v V .
2.- h u + v , w i = h u , w i + h v , w i ; u , v , w V .
3.- hk u, v i = kh u , v i ; u , v V y k IR .
4.- h u , u i 0; u V y h u , u i = 0 u = 0 .
Ejemplo Considerar en P2 [X], la funcion hP (X), Q(X)i = P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1) .
(1) hP (X), Q(X)i = P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1)
= Q(1)P (1) + Q0 (1)P 0 (1) + Q00 (1)P 00 (1) = hQ(X), P (X)i
(2) hP (X) + R(X), Q(X)i = P (1) + R(1) Q(1) + P 0 (1) + R0 (1) Q0 (1) + P 00 (1) + R00 (1) Q00 (1)
= P (1)Q(1)+P 0 (1)Q0 (1)+P 00 (1)Q00 (1) + R(1)Q(1)+R0 (1)Q0 (1)+R00 (1)Q00 (1)
= hP (X), Q(X)i + hR(X), Q(X)i
0 0 00 00
(3) hkP (X), Q(X)i = kP
(1)Q(1) + kP (1)Q (1) + kP (1)Q (1)
= k P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1) = khP (X), Q(X)i
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
47 Matematicas I : Algebra Lineal 4.5 Espacios vectoriales con producto interior
2 2 2
(4) hP (X), P (X)i = P (1)P (1) + P 0 (1)P 0 (1) + P 00 (1)P 00 (1) = P (1) + P 0 (1) + P 00 (1) 0 .
Y, se da la igualdad si y solo si, P (1) = P 0 (1) = P 00 (1) = 0. Entonces, sea P (X) = a + bX + cX2 , de donde
P (X) = b + 2cX y P 00 (X) = 2c ; de las igualdades se
0
tiene:
a+b+c=0
P (1) = P 0 (1) = P 00 (1) = 0 b + 2c = 0 a = b = c = 0 P (X) = 0 .
2c = 0
Luego tenemos un producto interno definido en P2 [X] . 4
A partir de un producto interior sobre un espacio V se definen los conceptos de norma, distancia y angulo.
Definici
on 110.- Si V es un espacio vectorial con producto interior, entonces la norma (o longitud o
m
odulo) de un vector v V se denota mediante kv k y se define como
p
k v k = + h v , v i.
Desigualdad de Cauchy-Schwarz 111.- Para todo u , v V, espacio con producto interior, se tiene
2 2
hu, vi2 kuk kvk o en la forma |hu, vi| kuk kvk . .
Propiedades b
asicas de la norma 112.- Propiedades b
asicas de la distancia 113.-
1.- ku k 0 ; u V 1.- d( u , v ) 0; u , v V
2.- ku k = 0 u = 0 2.- d( u , v ) = 0 u = v
luego, fijada una base, un producto interior se puede obtener a partir de las coordenadas en la base. La matriz
QB obtenida se denomina matriz de Gram o matriz metrica. Por las propiedades del producto interior, QB
es simetrica y los elementos de la diagonal positivos.
on 114.- Sobre el espacio vectorial IRn definimos la funcion que a cada x , y IRn le asocia
Definici
P
n
h x , y i = x y = (x1 , . . . , xn ) (y1 , . . . , yn ) = x1 y1 + + xn yn = xi yi
i=1
Como puede comprobarse facilmente dicha funcion es un producto interior, el que se conoce como producto
interior eucldeo o producto escalar eucldeo (ya usado en IR2 y IR3 ).
Este producto interior da lugar a la norma y distancia eucldeas, ya conocidas:
p p
k x k = x21 + + x2n y d( x , y ) = kx y k = (x1 y1 )2 + + (xn yn )2 .
Se llama espacio eucldeo n -dimensional a IRn con el producto interior eucldeo.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
48 Matematicas I : Algebra Lineal 4.5 Espacios vectoriales con producto interior
Nota: Si la matriz metrica del producto interior en la base B , QB , es la identidad, el producto interior se
reduce al producto escalar eucldeo de los vectores de coordenadas. Esto ocurre precisamente para las bases
ortonormales que se estudian en la siguiente seccion.
4.5.2 Ortogonalidad
Definici
on 115.- Si u y v son vectores distintos de cero de un espacio con producto interior, como conse-
cuencia de la desigualdad de Cauchy-Schwarz se tiene que 1 khuukk ,v i
v k 1 y, por tanto, existe un u
nico
angulo, , tal que
hu, v i
cos = , con 0
k uk k v k
Definicion 116.- En un espacio vectorial con producto interior, dos vectores u y v se dicen que son orto-
gonales si h u, v i = 0. Suele denotarse por u v .
Si u es ortogonal a todos los vectores de un conjunto W , se dice que u es ortogonal a W .
Se dice que S = {v1 , v2 , . . . , vk } es un conjunto ortogonal si los vectores son ortogonales dos a dos, es
decir, si vi vj para todo i 6= j .
Ejemplo Los vectores de la base canonica de IR3 con el producto escalar eucldeo son ortogonales entre si,
pero no lo son si el producto interior definido es: h v , w i = v1 w1 + v1 w2 + v2 w1 + 2v2 w2 + v3 w3 . (Pruebese
que es un producto interior). En efecto: h e1 , e2 i = h(1, 0, 0), (0, 1, 0)i = 0 + 1 + 0 + 0 + 0 = 1 6= 0. 4
Nota: Si dos vectores son ortogonales, el angulo que forman es de radianes (los famosos 90 grados). De hecho,
en IRn con el producto escalar eucldeo, la ortogonalidad coincide con la perpendicularidad.
Una curiosidad:
Teorema general de Pit agoras 117.- Si u y v son dos vectores ortogonales de un espacio vectorial con
producto interior, entonces
2 2 2
ku + v k = kuk + kv k .
Este resultado, de facil comprobacion, se reduce en IR2 con el producto escalar al Teorema de Pitagoras.
Tambien es sencillo probar el resultado siguiente (ver ejercicio 4.21):
Proposici
on 118.- Si w { v1 , v2 , . . . , vk } , entonces w lin{ v1 , v2 , . . . , vk } .
Definici
on 120.- Sean V un espacio vectorial de dimension n con producto interior. Se dice que la base
B = {v1 , v2 , . . . , vn } es una base ortonormal de V , si B es un conjunto ortogonal y kvi k = 1 , i .
n o
Ejemplo Las bases canonica y B1 = 1 , 1 , 1 1
, son ortonormales en IR2 con el producto escalar
2 2 2 2
eucldeo. La base B2 = {(2, 0), (0, 2)} es ortonormal para el producto interior hx, yi = x14y1 + x22y2 . 4
Teorema 121.- Si B = {v1 , v2 , . . . , vn }es una base ortonormal para un espacio V con producto interior,
entonces v V se tiene que ( v )B = h v , v1 i, hv , v2 i, . . . , h v , vn i . Es decir,
v = h v , v1 i v1 + h v , v2 i v2 + + h v , vn i vn ,
Demostracion:
Si v = c1 v1 + + ci vi + + cn vn , para cada i, se tiene que
hv, vi i = hc1 v1 + + ci vi + + cn vn , vi i
2
= c1 hv1 , vi i + + ci hvi , vi i + + cn hvn , vi i = ci hvi , vi i = ci kvi k = ci
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
49 Matematicas I : Algebra Lineal 4.6 Ejercicios
Es decir, en una base ortonormal, la obtencion de cordenadas puede resultar mas sencilla. Pero no solo eso, si
no que tambien se tiene:
Teorema 122.- Si P es la matriz de paso de una base ortonormal B1 a otra base ortonormal B2 , entonces
P es una matriz ortogonal (es decir, P 1 = P t ).
La prueba es puramente operativa, usando la definicion de matriz de paso y el apartado b) del ejercicio 4.24
(ver tambien el ejercicio 4.29).
Definici
on 123.- Sean V un espacio vectorial con producto interior, W subespacio de V y B =
{ w1 , w2 , . . . , wk } una base ortonormal de W . Para cada v V , llamaremos proyecci on ortogonal
de v sobre W al vector de W
ProyW ( v ) = h v , w1 i w1 + h v , w2 i w2 + + h v , wk iwk .
Al vector v ProyW ( v ) se le llama componente ortogonal de v sobre W .
El vector proyeccion ortogonal no depende la base ortonormal elegida, es decir, tomando cualquier base
ortonormal se obtiene el mismo vector. La prueba puede encontrarse en el Anexo 1, pag. 49, tras la demostracion
del Lema 124 siguiente.
Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base orto-
normal de W . Entonces para cada v V , el vector v ProyW ( v ) es ortogonal a W . .
Proceso de ortonormalizaci on de Gram-Schmidt 125.- Sean V un espacio vectorial con producto interior y
de dimension finita. Vamos a describir este proceso que construye a partir de una base B = { v1 , v2 , . . . , vn }
una base ortonormal B = { u1 , u2 , . . . , un } .
Demostracion:
v1
1 a etapa.- Como v1 6= 0 por ser de B , el vector u1 = tiene norma 1 y lin{u1 } = lin{v1 } .
kv1 k
2 a etapa.- Sea W1 = lin{ u1 }, por el Lema anterior, el vector v2 ProyW1 ( v2 ) es ortogonal a W1 , en
particular a u1 , y es distinto del vector 0 pues ProyW1 ( v2 ) W1 y v2
/ W1 = lin{ v1 }, entonces tiene que
v2 ProyW1 ( v2 ) v2 h v2 , u1 i u1
u2 =
v2 ProyW ( v2 ) = k v2 h v2 , u1 i u1 k lin{ v1 , v2 }
1
4.6 Ejercicios
4.1 Determinar si son espacios vectoriales los siguientes conjuntos:
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
50 Matematicas I : Algebra Lineal 4.6 Ejercicios
4.2 Cuales de los siguientes conjuntos son subespacios vectoriales de IR3 o IR4 ?
4.3 Sean v1 = (2, 1, 0, 3) , v2 = (3, 1, 5, 2) y v3 = (1, 0, 2, 1) vectores de IR4 . Cuales de los vectores
(2, 3, 7, 3) , (0, 0, 0, 0), (1, 1, 1, 1) y (4, 6, 13, 4) , estan en lin{ v1 , v2 , v3 } ?
4.7 Probar que si los vectores v1 , . . . , vk son linealmente dependientes, al menos uno de ellos se puede
escribir como una combinacion lineal de los restantes.
4.8 Determinar la dimension de los siguientes subespacios de IR4 :
4.9 Demostrar que los vectores solucion de un sistema no homogeneo compatible, AX = B , de m ecuaciones
con n incognitas no forman un subespacio de IRn . Que ocurre si el sistema es homogeneo, es decir, si
B = 0?
4.10 Sean E y F subespacios de un espacio V . Probar que: E F = {v V : v E y v F } es un
subespacio de V .
4.11 Considerar en IR4 los conjuntos de vectores:
A = {(1, 2, 1, 3), (0, 1, 0, 3)} B = {(1, 1, 1, 0), (2, 3, 1, 2), (0, 0, 0, 1)}
a) Hallar las dimensiones de lin(A) y de lin(B), y encontrar una base
b) Hallar las ecuaciones parametricas de lin(A) y de lin(B) .
c) Hallar las ecuaciones cartesianas de lin(A) y de lin(B).
d) Hallar la dimension de lin(A) lin(B) .
4.12 Consideremos en el espacio vectorial IR3 la base B = {u1 , u2 , u3 } . Sea E el subespacio engendrado
por los vectores
v1 = u1 + 3 u3 , v2 = 2 u1 3 u2 + u3 , v3 = 4u1 3u2 + 7 u3 .
Sea F el subespacio engendrado por los vectores
w1 = u1 + u2 + u3 , w2 = 2 u1 + 3 u2 + 4 u3 , w3 = 3 u1 + 4 u2 + 5 u3 .
Hallar una base de E , una base de F , el subespacio E F y una base de E F .
4.13 Sea M22 el espacio vectorial de las matrices cuadradas de orden 2 sobre IR y sea E el subconjunto de
a b+c
M22 formado por las matrices de la forma con a, b, c IR .
b + c a
a) Demostrar que E es un subespacio vectorial.
1 0 0 1 0 1
b) Probar que las matrices A1 = , A2 = y A3 = , forman una base de E .
0 1 1 0 1 0
4.14 Sea B una base de un espacio vectorial V de dimension n. Demostrar que el conjunto {v1 , v2 , . . . , vn }
es una base de V si, y solo si el conjunto {[ v1 ]B , [ v2 ]B , . . . , [vn ]B } es una base de IRn .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
51 Matematicas I : Algebra Lineal 4.6 Ejercicios
4.15 En una cierta base { u1 , u2 , u3 , u4 } de un espacio vectorial V , un vector w tiene por coordenadas
(3, 1, 2, 6). Hallar las coordenadas de W en otra base { v1 , v2 , v3 , v4 } cuyos vectores verifican que
v1 = u1 + u2 , v2 = 2 u4 u1 , v3 = u2 u3 y v4 = 2 u1 u2 .
4.16 En IR3 se consideran las bases B = { v1 = (2, 0, 0), v2 = (0, 1, 2), v3 = (0, 0, 3)} y la base canonica
Bc = {e1 , e2 , e3 }. Hallar las coordenadas respecto de la base B del vector x = 4 e1 + e2 5 e3 .
4.20 Sean a = ( 15 , 1
5
) y b = ( 230 , 330 ) . Demostrar que { a , b} es ortonormal si IR2 tiene el producto
interior h u , v i = 3u1 v1 + 2u2 v2 donde u = (u1 , u2 ) y v = (v1 , v2 ), y que no lo es si IR2 tiene el producto
interior eucldeo.
4.21 Sea V un espacio con producto interior. Demostrar que si w es ortogonal a cada uno de los vectores
v1 , v2 , . . . , vk entonces es ortogonal a lin{v1 , v2 , . . . , vk }.
4.22 Considera IR3 con el producto interior euclideo. Utiliza el proceso de Gram-Schmidt para transformar,
en cada caso, la base {u1 , u2 , u3 } en una base ortonormal.
a) u1 = (1, 1, 1) , u2 = (1, 1, 0) , u3 = (1, 2, 1).
b) u1 = (1, 0, 0) , u2 = (3, 7, 2) , u3 = (0, 4, 1).
4.23 Sea IR3 con el producto interior h u , v i = u1 v1 + 2u2 v2 + 3u3 v3 . Utilizar el proceso de Gram-Schmidt
para transformar la base formada por los vectores u1 = (1, 1, 1) , u2 = (1, 1, 0) y u3 = (1, 0, 0) en una
base ortonormal.
4.24 Sea B = { v1 , v2 , v3 } una base ortonormal de un espacio V con producto interior. Probar que:
2
a) k w k = h w , v1 i2 + h w , v2 i2 + h w , v3 i2 ; w V.
b) h u , w i = ( u )B ( w )B = [ u ]tB [ w ]B ; u, w V .
4.25 Tomemos en IR4 el producto interior euclideo. Expresar el vector w = (1, 2, 6, 0) en la forma w = w1 +
w2 donde, w1 este en el subespacio W generado por los vectores u1 = (1, 0, 1, 2) y u2 = (0, 1, 0, 1),
y w2 sea ortogonal a W .
a) Hallar un vector ortogonal a u1 = (1, 0, 0, 0) y u4 = (0, 0, 0, 1), y que forme angulos iguales con los
vectores u2 = (0, 1, 0, 0) y u3 = (0, 0, 1, 0) .
b) Hallar un vector x de longitud 1, ortogonal a u1 y a u2 , tal que el coseno del angulo entre x y
u3 sea el doble del coseno del angulo entre x y u4 .
4.27 Hallar la distancia del vector u = (1, 1, 1, 1) de IR4 al subespacio generado por los vectores v1 = (1, 1, 1, 0)
y v2 = (1, 1, 0, 0) .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
52 Matematicas I : Algebra Lineal 4.6 Ejercicios
4.28 Dados los vectores x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) de IR3 , demostrar que la expresion h x , y i =
2x1 y1 + 2x2 y2 + x3 y3 + x1 y2 + x2 y1 define un producto interior.
Encontrar una base { u1 , u2 , u3 } ortonormal respecto al producto interior anterior tal que u2 y u3
tengan igual direccion y sentido que los vectores (0, 1, 0) y (0, 0, 1) , respectivamente.
4.29 Probar que una matriz A de orden n es ortogonal si, y solo si sus vectores fila forman un conjunto
ortonormal en IRn .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
53 Matematicas I : Algebra Lineal
Tema 5
Aplicaciones lineales
5.1 Definici
on. N
ucleo e imagen
Definici
on 126.- Sea f : V W una aplicacion entre los espacios vectoriales reales V y W . Se dice que f
es una aplicaci
on lineal si:
Proposici
on 128.- Si f : V W es una aplicacion lineal, entonces:
a) f ( 0) = 0; b) f (v ) = f (v ); v V
Definici
on 129.- Dada una aplicacion lineal f : V W , se define el n
ucleo o ker(nel) de f , que se denota
por ker(f ) o ker f , como el conjunto:
ker f = { v V : f ( v ) = 0}
y se define la imagen de f , que se denota por Img(f ) o Img f (a veces f (V )), como el conjunto
Definici
on 130.- Si f : V W es una aplicacion lineal, entonces la dimension del n
ucleo se denomina la
nulidad de f y la dimension de la imagen de f se denomina el rango de f .
Proposici
on 131.- Sea f : V W es una aplicacion lineal y B = { v1 , v2 , . . . , vn } una base de V , entonces
Img f = lin{f ( v1 ), f ( v2 ), . . . , f ( vn )}
Demostracion:
En efecto, todo v V puede escribirse como v = k1 v1 + k2 v2 + + kn vn , luego
f (v ) = f (k1 v1 + k2 v2 + + kn vn ) = k1 f ( v1 ) + k2 f (v2 ) + + kn f ( vn )
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
54 Matematicas I : Algebra Lineal 5.2 Matrices de una aplicaci
on lineal
Si probamos que el conjunto formado por esos n r vectores es linealmente independiente, sera una base de la
Img f y habremos probado que
dim(ker f ) + dim(Img f ) = dim V ( r + nr = n )
como queramos. Veamoslo: por ser f una aplicacion lineal,
luego en la base Bker se expresa con r+1 v r+1 + + n vn = 1 u1 + + r ur , para ciertos i . Luego
1 u1 r ur + r+1 v r+1 + + n vn = 0
y 1 = = r = r+1 = = n = 0 por formar esos vectores una base de V . En particular, con
r+1 = = n = 0 se prueba que el conjunto {f ( v r+1 ), . . . , f ( vn )} es un conjunto linealmente independiente
de vectores, que por ser tambien generador de la Img f es una base de ella.
Teorema 133.- Sean V y W espacios vectoriales con dim V = n y dim W = m, y sea f : V W , una
aplicacion lineal. Si B1 = {v1 , v2 , . . . , vn } es una base de V y B2 = { w1 , w2 , . . . , w m } una base de W ,
entonces la matriz
Amn = [f (v1 )]B2 [f (v2 )]B2 [f (vn )]B2
es la u
nica matriz que verifica que [f ( v )]B2 = A[v ]B1 , para cada v V .
Demostracion:
Todo v V se escribe de forma u nica como una combinacion lineal de los vectores de la base, v =
k1 v1 + k2 v2 + + kn vn , luego su imagen f ( v ) = k1 f ( v1 ) + k2 f ( v2 ) + + kn f ( vn ).
Como los vectores f ( v1 ), f ( v2 ), . . . , f ( vn ) son de W , sean sus coordenadas en la base B2 :
f (v1 ) = (a11 , a21 , . . . , am1 )
B 2 f (v1 ) = a11 w1 + a21 w2 + + am1 wm
f (v )
2 = (a12 , a22 , . . . , am2 ) f (v2 ) = a12 w1 + a22 w2 + + am2 wm
B2
f (vn ) f (vn ) = a 1n w1 + a2n w2 + + amn w m
= (a1n , a2n , . . . , amn )
B2
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
55 Matematicas I : Algebra Lineal 5.2 Matrices de una aplicaci
on lineal
Definicion 134.- Sean B1 una base de V , B2 base de W y f : V W una aplicacion lineal. A la u nica
matriz A, tal que [f ( v )]B2 = A[ v ]B1 , para cada v V , se le llama matriz de f respecto de las bases
B1 y B2 .
Si f : V V es un operador lineal y consideramos que tenemos la misma base B en el espacio de partida
y en el de llegada, entonces se habla de matriz de f respecto de la base B .
Ejemplo Sea f : P2 [X] P1 [X] dada por f (P (X)) = P 0 (X). Sean B1 = {1, X, X2 } y B2 = {1, X} bases
respectivas de P2 [X] y P1 [X]. Entonces, comof (1) = 0, f (X) = 1 y f (X2 ) = 2X se tiene que
0 1 0
A = [f (1)]B2 [f (X)]B2 [f (X2 )]B2 = es la matriz de f asociada a B1 y B2 .
0 0 2
En efecto
a
2 2 0 1 0 b
f (a + bX + cX ) = b + 2cX y A[a + bX + cX ]B1 = b = = [b + 2cX]B2 4
0 0 2 2c
c
Observaci
on 135.- Si f : V W es una aplicacion lineal y A la matriz de f respecto de B1 y B2 , entonces
n o n o n o
ker f = v V : f ( v ) = 0 = v V : [f ( v )]B2 = [ 0]B2 = v V : A[v ]B1 = 0
luego las coordenadas en la base B1 de los vectores del ker f son las soluciones del sistema homogeneo Ax = 0 .
n o n o
w Img f = lin f ( v1 ), f ( v2 ), . . . , f ( vn ) [w ]B2 lin [f ( v1 )]B2 , [f ( v2 )]B2 , . . . , [f ( vn )]B2
luego el espacio de las columnas de la matriz A, Ec (A) , esta compuesto por las coordenadas en la base B2 de
los vectores de la Img f . En consecuencia, dim(Img f ) = dim Ec (A) = rg(A).
Ejemplo Sean
B1 = {v1 , v2 , v3 } base de V , B2 = {w1 , w2 , w3 } base de W , f : V W aplicacion
1 0 1
lineal y A = 1 1 1 la matriz de f asociada a B1 y B2 . Encontrar una base de ker f y otra de Img f .
1 1 3
Como A[ v ]B1 = [f ( v )]B2 , v0 ker f A[v0 ]B1 = 0 , luego resolviendo el sistema AX = 0:
1 0 1 1 0 1 1 0 1 x = z x 1
A = 1 1 1 0 1 2 0 1 2 = y = 2z = [v0 ]B1 = y = z 2
1 1 3 0 1 2 0 0 0 z=z z 1
el vector (1, 2, 1) genera las coordenadas en B1 de los vectores del ker f . Luego ker f = lin{v1 2v2 + v3 }.
Ademas, dim(ker f ) = 1 luego dim(Img f ) = 3 1 = 2 = rg(A). Y una base de la imagen se obtendra de
una base del espacio de las columnas de A (para operar sobre las columnas de A , operamos es las filas de At ):
t
1 0 1 1 1 1 1 1 1 1 1 1
At = 1 1 1 = 0 1 1 0 1 1 0 1 1
1 1 3 1 1 3 0 2 2 0 0 0
luego los vectores (1, 1, 1) y (0, 1, 1) generan las coordenadas en la base B2 de los vectores de la Img f . En
consecuencia, Img f = lin{w1 w2 + w3 , w2 + w3 }. 4
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
56 Matematicas I : Algebra Lineal 5.2 Matrices de una aplicaci
on lineal
Observaci on 136.- Pueden obtenerse de una sola vez una base para ker(f ) y otra para la Img(f ) . Basta para
ello, tener en cuenta que las operaciones elementales realizadas sobre las columnas de la matriz, son operaciones
sobre los vectores imagen.
1 2 1 1 0 1
1 1 2 2 1 0
Ejemplo Sea A =
2 1 1 1 1 1 la matriz de la aplicacion f : V W , referida a las bases
1 6 9 7 4 0
B1 = {v1 , v2 , v3 , v4 , v5 , v6 } y B2 = {w1 , w2 , w3 , w4 } . Para obtener una base de la imagen, hacemos
operaciones elementales en las filas de At (en las columnas de A ):
1 1 2 1 : C1 1 1 2 1 : C1 1 1 2 1 : C1
2 1 1 6 : C2 FF232F 1
0 3 5 4 : C2 2C1 0 1 3 0 : C6 C1
F4 F+F1
1 2 1 9 : C 1 0 3 1 8 : C + C F F
6 0 3 1 8 : C3 +C1
t
A = 3 F6 F 1 3 1 2
0 3 3 6 : C4 C1 0 3 3 6 : C4 C1
1 2 1 7 : C4
0 1 1 4 : C5 0 1 1 4 : C5 0 1 1 4 : C5
1 0 1 1 : C6 0 1 3 0 : C6 C1 0 3 5 4 : C2 2C1
1 1 2 1 : C1 1 1 2 1 : C1
F4 3F2 0 0 1 3 0 : C6 C1
F3 +3F2
1 3 0 : C6 C1
F6 3F2 0
F5 F2
0 8 8 : C 3 + C 1 + 3(C 6 C 1 ) F 3 F 5 0 0 4 4 : C 5 C 6 + C 1
0 0 6 6 : C 4 C 1 3(C 6 C 1 ) 0 0 6 6 : C 4 + 2C 1 3C 6
0 0 4 4 : C5 (C6 C1 ) 0 0 8 8 : C3 2C1 + 3C6
0 0 4 4 : C2 2C1 3(C6 C1 ) 0 0 4 4 : C2 + C1 3C6
1 1 2 1 : C1
F4 3 F3 0 1 3 0 : C6 C1
F5 +2F3
2
0 0 4 4 : C5 C6 + C1
F6 F3
0 0 0 0 : C + 1
C 3
C 3
C
4 2 1 2 6 2 5
0 0 0 0 : C3 + C6 + 2C5
0 0 0 0 : C2 2C6 C5
La matriz final es escalonada, luego las tres primeras filas son linealmente independientes, pero estas en realidad
son: C1 = [fn( v1 )]B2 , C6 C1 = [f ( v6 )]B2 [f ( v1 )]oB2 = [f ( v6 v1 )]B2 y C5 C6 +C1 = [f ( v5 v6 + v1 )]B2 .
Por lo que f ( v1 ), f ( v6 v1 ), f ( v5 v6 + v1 ) es base de Img(f ) ( rg(A) = dim(Img f ) = 3 ).
Las tres filas restantes de la matriz son cero, en realidad:
0 = C4 + 12 C1 32 C6 32 C5 = [f (v4 + 12 v1 32 v6 32 v5 )]B2
0 = C3 + C6 + 2C5 = [f (v3 + v6 + 2v5 )]B2
0 = C2 2C6 C5 = [f (v2 2v6 v5 )]B2
luego los vectores v4 + 12 v1 32 v6 32 v5 , v3 +v6 +2v5 y v2 2v6 v5 son vectores de ker(f ). Como
son linealmente independientes (ver justificacion en Anexo 1, pag 77) y dim(ker f ) = 6 dim(Img f ) = 3,
forman una base del ker(f ) .
on 137.- Si f : IRn IRm es una aplicacion lineal, a la matriz de f asociada a las bases canonicas
Definici
de IR y IRm , se le llama la matriz est
n
andar.
on 138.- Para cada matriz Amn , la aplicacion f : IRn IRm definida por f ( x ) = Ax es lineal y A
Definici
es la matriz estandar de f . Se dice que f es una aplicacion matricial.
5.2.1 Composici
on de aplicaciones lineales
Aplicacion y funcion tienen el mismo significado (aunque esta u
ltima denominacion es la que suele usarse en los
temas de Calculo) por lo que la definicion siguiente no debe plantear sorpresas:
Definici
on 139.- Sean f : V W y g: W U aplicaciones lineales. Llamaremos aplicaci
on compuesta
de f y g , a la aplicacion g f : V U definida por
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
57 Matematicas I : Algebra Lineal 5.3 Teorema de Semejanza
Proposici
on 140.- Sean f : V W y g: W U aplicaciones lineales, con dim V = n , dim W = m y
dim U = p, y sean B1 , B2 y B3 bases de V , W y U , respectivamente. Entonces:
a) g f es una aplicacion lineal.
b) Si Amn es la matriz asociada a f respecto de las bases B1 y B2 , y Cpm es la matriz asociada a g
respecto de B2 y B3 , entonces CApn es la matriz asociada a g f respecto de las bases B1 y B3 .
Demostracion:
a) (g f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v))
= (g f )(u) + (g f )(v).
b) Teniendo en cuenta que [g( w )]B3 = C[w ]B2 y [f ( v )]B2 = A[v ]B1 ,
Proposicion 141.- Sea f : V W una aplicacion lineal entre espacios vectoriales, B1 y B1 dos bases de V
y B2 y B2 dos bases de W . Si A1 es la matriz de f asociada a las bases B1 y B2 , P la matriz de cambio
de base la base B1 a la base B1 y Q la matriz de cambio de base de B2 a B2 ; entonces la matriz, A , de f
asociada a las bases B1 y B2 viene dada por
A = QAP
Demostracion:
QAP [v ]B1 = QA[v ]B1 = Q[f (v )]B2 = [f ( v )]B2 = A [v ]B2 , v V. Luego A = QAP .
Teorema de semejanza 142.- Sean f : V V , un operador lineal, A1 la matriz de f respecto de una base
B1 de V , A2 la matriz de f respecto de otra base B2 y P la matriz de paso de B2 a B1 . Entonces
A2 = P 1 A1 P
Observaci on: Una manera de recordar bien este proceso es tener en cuenta los diagramas siguientes, donde la
obtencion de las nuevas matrices se reduce a la b
usqueda de caminos alternativos:
f f
V W V V
A A
1
B1 B2 B1 B1
A = QAP | | A2 = P 1 A1 P
P
| Q P P 1
|
A A
B1 B2 2
B2 B2
No hay que olvidar, que las matrices se operan en orden inverso (las matrices multiplican a los vectores por la
izquierda, sucesivamente). Obviamente, el Teorema de Semejanza es un caso particular de la Proposicion 141.
Definici
on 143.- Dadas dos matrices A y B de orden n, se dice que A y B son semejantes si existe una
matriz P inversible tal que B = P 1 AP .
Corolario 144.- Dos matrices A y B son semejantes si y solo si representan al mismo operador lineal respecto
a dos bases.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
58 Matematicas I : Algebra Lineal 5.4 Ejercicios
5.4 Ejercicios
5.30 Determinar si las siguientes aplicaciones son o no lineales:
a) f : IR2 IR2 definida por f (x, y) = ( 3 x, 3 y)
b) f : IR3 IR2 definida por f (x, y, z) = (2x + y, 3y 4z) .
a b
c) f : M22 IR definida por f = a2 + b2 .
c d
a) Demostrar que el n
ucleo de T es una recta y encontrar sus ecuaciones parametricas.
b) Demostrar que la imagen de T es un plano y hallar su ecuacion (cartesiana).
5.35 Sea B = { v1 = (1, 2, 3), v2 = (2, 5, 3), v3 = (1, 0, 10)} una base de IR3 y f : IR3 IR2 una aplicacion
lineal para la que f ( v1 ) = (1, 0), f ( v2 ) = (0, 1) y f ( v3 ) = (0, 1).
a) Encontrar una matriz de la aplicacion f indicando las bases a las que esta asociada.
b) Calcular f ( v3 v2 2v1 ) y f (1, 1, 1) .
5.36 Encontrar la matriz estandar de cada una de las aplicaciones lineales siguientes:
x1 x4 x1
x1 x1 + 2x2 + x3 x2 x1 x4 x1
x2
a) f x2 = x1 + 5x2 b) f =
x3 x3
c) f
= x1 + x2
x3
x3 x3 x2 x3
x4 x1 x3 x4
Encontrar una base del nucleo y otra de la imagen, para cada una de ellas
5.37 Sea T : IR3 W la proyeccion ortogonal de IR3 sobre el plano W que tiene por ecuacion x + y + z = 0.
Hallar una formula para T y calcular T (3, 8, 4) .
5.38 Se dice que una aplicacion lineal es inyectiva si a cada vector de la imagen le corresponde un u nico
original (es decir, si f ( u) = f (v ) = u = v ). Demostrar que f es inyectiva si y solo si ker f = { 0} .
5.39 Sea T : IR2 IR3 la transformacion lineal definida por T (x1 , x2 ) = (x1 + 2x2 , x1 , 0) .
a) Encontrar
n la matriz de la aplicaci
o on T en las n
bases: o
B1 = u1 = (1, 3), u2 = (2, 4) y B2 = v1 = (1, 1, 1), v2 = (2, 2, 0), v3 = (3, 0, 0) .
b) Usar la matriz obtenida en el apartado anterior para calcular T (8, 3).
a11 a12 1 2 a11 a12
5.40 Sea f : M22 M22 definida por: f = y sean las bases Bc
a21 a22 0 1 a21 a22
(hace
el papel
de la canonica)
y B de M22:
1 0 0 1 0 0 0 0 1 0 0 2 0 1 0 0
Bc = , , , B= , , ,
0 0 0 0 1 0 0 1 0 0 1 0 2 0 0 1
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
59 Matematicas I : Algebra Lineal 5.4 Ejercicios
5.45 Dado el operador lineal T : IR3 IR3 tal que [T (x)]B = A[x]B siendo:
2 a 1 n o
A = 1 2a 1 y B = u1 = (1, 1, 0), u2 = (0, 1, 1), u3 = (1, 0, 0)
1 a 2
a) Calcular los subespacios ker(T ) y Img(T ) seg
un los valores de a.
b) Hallar la matriz estandar de T .
a) Encontrar los valores de y para los cuales la imagen de T sea IR3 . Quien es en ese caso el
n
ucleo?
b) Para = 1 , encontrar una base del n
ucleo.
c) Sea = 1 y = 0 . Se pide:
(c.1) Encontrar
n la matriz de T respecto de la base o
B = u1 = (1, 0, 1), u2 = (0, 1, 0), u3 = (4, 1, 2) .
n o
(c.2) Dada la base B1 = v1 = (1, 1, 2), v2 = (1, 1, 0), v3 = (1, 1, 1) , encontrar la matriz de paso
de B a B1 .
(c.3) Encontrar la matriz de T en la base B1 aplicando el teorema de semejanza.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
60 Matematicas I : Algebra Lineal 5.4 Ejercicios
(i) f (p1 ) = f (2p2 +p4 ) = f (p2 p3 ) (ii) f (p2 ) = v1 +v3 v2 (iii) f (p4 ) = (3, 3, 2)
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
61 Matematicas I : Algebra Lineal
Tema 6
Diagonalizaci
on
Problema de la diagonalizaci on ortogonal Dado un operador lineal f sobre un espacio vectorial V con
producto interior, nos planteamos el problema de cuando es posible encontrar una base ortonormal de V respecto
de la cual la matriz de f sea diagonal. Si V es un espacio con producto interior y las bases son ortonormales
entonces se tendra que P sera ortogonal.
Podemos pues formular los dos problemas anteriores en terminos de matrices.
1.- Dada una matriz cuadrada A , existe una matriz P inversible tal que P 1 AP sea diagonal?
2.- Dada una matriz cuadrada A , existe una matriz ortogonal P tal que P t AP sea diagonal?
Definici
on 146.- Se dice que una matriz A cuadrada es diagonalizable si existe una matriz P inversible tal
que P 1 AP es diagonal. En ese caso se dice que P diagonaliza a la matriz A .
Si existe una matriz ortogonal P tal que P 1 AP es diagonal, entonces se dice que A es diagonalizable
ortogonalmente y que P diagonaliza ortogonalmente a A.
y, como son iguales: A pi = i pi , para todo i = 1, . . . , n . Es decir, han de existir n vectores linealmente
independientes pi ( P es inversible) y n n
umeros i que lo verifiquen.
Definici
on 147.- Si A es una matriz de orden n, diremos que es un valor propio, valor caracterstico,
un p IRn , p 6= 0 , tal que A p = p .
eigenvalor o autovalor de A si existe alg
Del vector p diremos que es un vector propio, vector caracterstico, eigenvector o autovector de
A correspondiente al valor propio .
Del comentario anterior, obtenemos la primera caracterizacion para la diagonalizacion de la matriz:
Teorema 148.- Sea A una matriz de orden n , entonces:
A es diagonalizable A tiene n vectores propios linealmente independientes
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
62 Matematicas I : Algebra Lineal 6.2 Diagonalizaci
on
Demostracion:
Por lo anterior, se tiene que: A es una matriz diagonalizable
P inversible y D diagonal tal que AP = P D
P inversible y D diagonal tal que
AP = Ap1 Ap2 Apn = 1 p1 2 p2 n pn = PD
6.2 Diagonalizaci
on
La primera simplificacion de la b
usqueda se produce, no sobre los vectores propios, sino sobre los autovalores
correspondientes:
Teorema 149.- Si A es una matriz de orden n, las siguientes proposiciones son equivalentes:
a) es un valor propio de A.
b) El sistema de ecuaciones (I A) x = 0 tiene soluciones distintas de la trivial.
c) det(I A) = 0.
Demostracion:
es un valor propio de A existe un vector x IRn , x 6= 0 , tal que A x = x el sistema
x A x = (I A) x = 0 tiene soluciones distintas de la trivial |I A| = 0
Definici
on 150.- Sea A una matriz de orden n . Al polinomio en de grado n , P() = |I A|, se le
denomina polinomio caracterstico de la matriz A .
Si nun valor propio de A , llamaremos
o espacio caracterstico de A correspondiente a al conjunto
V () = x IRn : (I A) x = 0 . Es decir, V () es el conjunto formado por todos los vectores propios de
A correspondientes a , mas el vector cero.
As pues, los autovalores son las raices del polinomio caracterstico y los vectores propios, los vectores
distintos de cero del espacio caracterstico asociado.
Observacion 151.- V () es un subespacio y dim V () 1:
En efecto, es un subespacio por ser el conjunto de soluciones de un sistema homogeneo y como es valor
propio de A, existe x 6= 0 en
n V (), luego lin{ x } V ()
o y 1 = dim(lin{x }) dim V ().
Ademas, dim V () = dim x IRn : (I A) x = 0 = n rg(I A).
Antes de seguir: en el estudio realizado hasta ahora, hemos buscado la diagonalizacion de matrices, separandolo
del operador lineal que aparece en el planteamiento inicial del problema. Sin embargo, todo lo anterior (y lo
siguiente) es valido y aplicable en los terminos del operador. Pueden verse los resultados que lo justifican en el
Anexo 1, pag 78.
Teorema 152.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios 1 ,
2 , . . . , k respectivamente, siendo i 6= j , i 6= j . Entonces el conjunto de vectores { v1 , v2 , . . . , vk } es
linealmente independiente. .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
63 Matematicas I : Algebra Lineal 6.2 Diagonalizaci
on
Proposici
on 154.- Sea A de orden n y k un autovalor de A de multiplicidad mk . Entonces
1 dim V (k ) mk . .
Teorema fundamental de la diagonalizaci on 155.- Sea A una matriz de orden n. Entonces A es diagonali-
zable si y solo si se cumplen las condiciones:
1.- El polinomio caracterstico tiene n raices reales. Es decir, |I A| = ( 1 )m1 ( k )mk con
m1 + m2 + + mk = n .
2.- Para cada espacio caracterstico V (i ) , se cumple que dim V (i ) = mi . .
Aunque omitimos aqu la demostracion por ser demasiado tecnica (puede verse en el Anexo 2), en ella se aporta
el metodo para encontrar los n vectores propios linealmente independientes necesarios en la diagonalizacion:
Si dim V (i ) = mi para todo i = 1, . . . , k y m1 + + mk = n , podemos tomar de cada V (i ) los mi
vectores de una base para conseguir el total de n vectores.
0 0 4
Ejemplo 156 Para la matriz A = 0 4 0 , su polinomio caracterstico es:
4 0 0
0 4
4
P () = |I A| = 0 4 0 = ( 4) = ( 4)(2 42 ) = ( 4)2 ( + 4)
4 4
0
luego los autovalores de A son 1 = 4 con m1 = 2 y 2 = 4 con m2 = 1. Como 1 , 2 IR y m1 + m2 =
2 + 1 = 3 = n, se cumple la primera condicion del Teorema.
Veamos el punto 2: como 1 dim V (4) m2 = 1 la condicion dim V (4) = 1 se cumple de manera
inmediata (y se cumple siempre para cualquier
autovalor
con multiplicidad
1). Para el otro autovalor, 1 = 4:
4 0 4 4 0 4
dim V (4) = 3 rg(4I A) = 3 rg 0 0 0 = 3 rg 0 0 0 = 3 1 = 2 = m1
4 0 4 0 0 0
luego tambien se cumple y, en consecuencia, la matriz diagonaliza.
Como los elementos de V (4) son las soluciones del sistema homogeneo (4I A)X = 0, tenemos que
V (4) = lin{(1, 0, 1), (0, 1, 0)}; y los elementos V (4) las soluciones del sistema (4I A)X = 0, tenemos
que V (4) = lin{(1, 0, 1)}. En consecuencia, los tres vectores son autovectores y linealmente independientes,
cumpliendose que:
1
1 0 1 0 0 4 1 0 1 4 0 0
P 1 AP = 0 1 0 0 4 0 0 1 0 = 0 4 0 = D 4
1 0 1 4 0 0 1 0 1 0 0 4
0 2 4
Ejemplo La matriz A = 0 4 0 tiene por polinomio caracterstico P () = ( 4)2 ( + 4) , luego tiene
4 2 0
por autovalores 1 = 4 con m1 = 2 y 2 = 4 con m2 = 1.
Como m1 + m2 = 2 + 1 = 3 se cumple el primer punto; y por ser m2 = 1, tambien se cumple que
dim V (4) = 1 .Veamos para
el otro autovalor:
4 2 4 4 2 4
rg(4I A) = rg 0 0 0 = rg 0 0 0 = 2 = 3dim V (4) luego dim V (4) = 32 = 1 6= m1 = 2 .
4 2 4 0 4 0
En consecuencia, la matriz A no diagonaliza.
(Si dim V (4) = 1 y dim V (4) = 1 de cada uno de ellos podemos conseguir, a lo mas, un vector propio lineal-
mente independiente; luego en total, podremos conseguir a lo mas dos autovectores linealmente independientes.
No conseguimos los tres necesarios, luego no diagonaliza.) 4
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
64 Matematicas I : Algebra Lineal 6.3 Diagonalizaci
on ortogonal
6.3 Diagonalizaci
on ortogonal
Lema 158.- Si A es una matriz simetrica, entonces los vectores propios que pertenecen a valores propios
distintos son ortogonales.
Demostracion:
Sean 1 y 2 valores propios distintos de una matriz simetrica A y sean u y v vectores propios correspon-
dientes a 1 y 2 respectivamente.
Tenemos que probar que u t v = 0 . (Notar que u t Av es un escalar).
Se tiene que u t A v = ( u t A v )t = v t Au = v t 1 u = 1 v t u = 1 u t v ,
y por otra parte que u t A v = u t 2 v = 2 u t v ,
por tanto 1 u t v = 2 u t v (1 2 ) u t v = 0 y como 1 2 6= 0 , entonces u t v = 0.
El Lema 158 y el resaltado que apostilla el Teorema fundamental de diagonalizacion 155 nos indican la manera
de encontrar los n vectores propios ortonormales linealmente independientes:
Si tomamos en cada V (i ) los vectores de una base ortonormal, conseguiremos el total de n vectores
ortonormales.
0 0 4
Ejemplo La matriz A = 0 4 0 del Ejemplo 156, es simetrica luego diagonaliza ortogonalmente y
4 0 0
V (4) = lin{(1, 0, 1), (0, 1, 0)} y V (4) = lin{(1, 0, 1)} .
Si tomamos una base ortonormal en cada uno de ellos, por ejemplo V (4) = lin{( 12 , 0, 12 ), (0, 1, 0)} y
V (4) = lin{( 12 , 0,
1
2
)} , los tres vectores juntos forman un conjunto ortonormal, cumpliendose que:
1
t 1
2
0 12 0 0 4 2
0 12 4 0 0
P t AP = 0 1 0 0 4 0 0 1 0 = 0 4 0 = D 4
1 0 1
4 0 0 1 0 1
0 0 4
2 2 2 2
6.4 Ejercicios
6.50 Hallar los polinomios caractersticos, los valores propios y bases de los espacios caractersticos de las
siguientes matrices:
5 6 2 4 0 1
2 7
a) b) 0 1 8 c) 2 1 0
1 2
1 0 2 2 0 1
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
65 Matematicas I : Algebra Lineal 6.4 Ejercicios
6.53 Probar que el termino constante del polinomio caracterstico P () = |I A| de una matriz A de orden
n es (1)n det(A).
6.54 Demostrar que si es un valor propio de A entonces 2 es un valor propio de A2 . Demostrar por
induccion que, en general, n es un valor propio de An , n IN .
6.55 Estudiar si son o no diagonalizables las siguientes matrices y en caso de que lo sean hallar una matriz P
1
tal que
P AP =D con D matriz diagonal:
3 0 0 1 4 2
14 12
a) 0 2 0 b) c) 3 4 0
20 17
0 1 2 3 1 3
x1 2x1 x2 x3
6.56 Sea T : IR3 IR3 el operador lineal T x2 = x1 x3 . Hallar una base de IR3 respecto
x3 x1 + x2 + 2x3
de la cual la matriz de T sea diagonal.
6.57 Sea P1 (x) el espacio vectorial de los polinomios de grado menor o igual a 1. Sea T : P1 (x) P1 (x) el
operador lineal T (a0 + a1 x) = a0 + (6a0 a1 )x . Hallar una base de P1 (x) respecto de la cual la matriz
de T sea diagonal.
6.58 Sea A una matriz de orden n y P una matriz inversible de orden n . Demostrar por induccion que
(P 1 AP )k = P 1 Ak P , k IN .
1 0
6.59 Calcular A40 siendo A = .
1 2
6.60 Estudiar
la diagonalizabilidad
de la matriz A, dada en funcion de los parametros a y b, siendo A=
5 0 0
0 1 a . En los casos posibles diagonalizarla.
3 0 b
6.61 Sea A una matriz de orden 2 tal que A2 = I . Probar que A es diagonalizable.
6.62 Hallar una matriz P que diagonalice ortogonalmente a A y calcular P 1 AP para cada una de las
siguientes matrices:
5 2 0 0
2 1 1
7 24 2 2 0 0
a) b) 1 2 1 c) 0
24 7 0 5 2
1 1 2
0 0 2 2
6.63 a) Demostrar que si D es una matriz diagonal con elementos no negativos entonces existe una matriz
S tal que S 2 = D .
b) Demostrar que si A es una matriz diagonalizable con valores propios no negativos entonces existe
una matriz S tal que S 2 = A .
6.64 Probar que A y At tienen los mismos valores propios siendo A una matriz de orden n .
6.65 Sea A una matriz de orden n y P () = |I A|. Probar que el coeficiente de n1 en P () es el opuesto
de la traza de A.
6.66 Sea A una matriz de orden n inversible, demostrar que los valores propios de A1 son los inversos de los
valores propios de A.
6.67 Sea A una matriz de orden n ortogonal, probar que todos los valores propios de A son uno o menos uno.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
66 Matematicas I : Algebra Lineal 6.4 Ejercicios
6.68 Se sabe que (1, 0, 0), (1, 1, 0), (0, 1, 0) y (0, 0, 1) son vectores propios de una matriz de orden 3 y que hay
vectores de IR3 que no lo son. Calcular todos los vectores propios de la matriz.
un = 3un1 + 3vn1
6.69 Se dan las siguientes ecuaciones de recurrencia: . Utilizar la diagonalizacion para
vn = 5un1 + vn1
calcular un y vn en funcion de n, sabiendo que u0 = v0 = 1 .
6.70 Los dos primeros terminos de una sucesion son a0 = 0 y a1 = 1 . Los terminos siguientes se generan a
partir de ak = 2ak1 + ak2 ; k 2. Hallar a127 .
6.71 El propietario de una granja para la cra de conejos observo en la reproduccion de estos que:
i). Cada pareja adulta (con capacidad reproductora) tiene una pareja de conejos cada mes.
ii). Una pareja recien nacida tarda dos meses en tener la primera descendencia.
Si partimos de una pareja adulta y siendo an el n
umero de parejas nacidas en el n-esimo mes ( a0 = 0),
se pide:
a) Obtener una formula recurrente para an en funcion de terminos anteriores.
(1 + 5)n (1 5)n
b) Probar que an =
2n 5
an+1
c) Calcular, si existe: lm .
n an
6.76 Sea f : IR3 IR3 el operador lineal cuya matriz asociada a la base canonica es:
m 0 0
A= 0 m 1
1 n m
a) Determinar para que valores de m y n existe una base de IR3 de tal forma que la matriz en esa base
sea diagonal. En los casos que f sea diagonalizable calcular una base en la cual la matriz de f sea
diagonal.
b) Si n = 0 , observando la matriz A y sin hacer ning
un calculo, determinar un valor propio y un vector
propio asociado a dicho valor propio, razonando la respuesta.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
67 Matematicas I : Algebra Lineal 6.4 Ejercicios
1 0 0 0
a 1 0 0
6.77 Dada la matriz A = b
. Encontrar para que valores de los parametros a, b, c, d, e, f IR
d 1 1
c e f 1
la matriz A es diagonalizable. Para dichos valores encontrar las matrices P y D tales que P 1 AP = D ,
donde D es una matriz diagonal.
6.78 En IR4 consideramos el subconjunto: S = {(x1 , x2 , x3 , x4 ) / x2 x4 = 0}. Sea T : IR4 IR4 el operador
lineal que verifica:
(i) ker(T ) = {x IR4 / < x , y >= 0, y S} .
(ii) T (1, 0, 0, 0) = (1, 3, 1, 2).
(iii) T (1, 1, 1, 1) = (3, m, n, p) .
x1 + x2 + x3 + x4 = 0
(iv) El subespacio solucion del sistema: es el conjunto de vectores propios
x2 + 2x3 + 2x4 = 0
correspondientes a un mismo valor propio de T.
Se pide:
6.79 Sean f : IR4 IR4 un operador lineal, y B = { e 1 , e 2 , e 3 , e 4 } la base canonica de IR4 , verificando lo
siguiente:
(i) f ( e 1 ) H = { x IR4 / x2 = 0}
(ii) f ( e 2 ) S = { x IR4 / x2 = 1 y x4 = 0}
(iii) f ( e 3 ) = (, , 1, 2); f ( e 4 ) = (1, 0, 2, )
2x1 + x2 + 2x3 2x4 = 0
(iv) ker f es el conjunto de soluciones del sistema: 3x1 + 3x2 + x3 + x4 = 0
x1 x2 x3 + 3x4 = 0
(v) Las ecuaciones implcitas de la imagen de f son y1 2y3 y4 = 0 .
(vi) El operador f es diagonalizable.
Hallar una matriz de f , indicando las bases de referencia.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
68 Matematicas I : Algebra Lineal
Tema 7
Formas cuadr
aticas
Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudraticas
ya ha sido estudiado, pues el cuadrado de la norma de un vector no es mas que una forma cuadratica (como
veremos definida positiva). Aqu, las estudiaremos de forma general.
Definicion 160.- Sean V un espacio vectorial de dimension n y B una base V . Si (x1 , . . . , xn ) = [x]tB y
aij IR , con 1 i, j n , se denomina forma cuadr atica sobre V a toda funci
on polin
omica Q: V IR de
la forma
a11 a12 a1n x1
Xn
a21 a22 a2n x2
Q(x) = aij xi xj = x1 x2 xn . .. .. .. .. = [x]tB A [x]B
i,j=1
.. . . . .
an1 an2 ann xn
A+At t At +(At )t At +A
y la matriz S = 2 es simetrica (S t = ( A+A t
2 ) = 2 = 2 = S) . En efecto:
X n
Si en la expresion de la forma cuadratica, Q(x) = aij xi xj , consideramos los pares de sumandos de la
i,j=1
forma aij xi xj y aji xj xi , se tiene que
aij + aji aij + aji
aij xi xj + aji xj xi = (aij + aji )xi xj = xi xj + xj xi = sij xi xj + sji xj xi
2 2
Luego hemos probado el siguiente resultado:
Proposici
on 161.- Toda forma cuadratica Q sobre V , se puede expresar matricialmente como
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
69 Matematicas I : Algebra Lineal 7.1 Diagonalizaci
on de una forma cuadr
atica
Demostracion:
Como P es matriz de cambio de base verifica que [x]B = P [x]B 0 , y , sustituyendo en Q, tenemos que
Definici
on 163.- Dos matrices simetricas se dice que son congruentes cuando son matrices asociadas a la
misma forma cuadratica en distintas bases.
Es decir, A y A0 simetricas son congruentes, si existe P inversible tal que A0 = P t AP .
Nota: Las matrices congruentes no son, en general, semejantes (solo coinciden congruencia y semejanza cuando
la matriz P es ortogonal, P t = P 1 ).
7.1 Diagonalizaci
on de una forma cuadr
atica
La matriz asociada a una forma cuadratica es simetrica, y una matriz simetrica es diagonalizable ortogonalmente,
luego siempre podemos obtener una matriz congruente con la inicial que sea diagonal.
7.1.1 Diagonalizaci
on ortogonal
Sea B una base de V y Q(x) = [x]tB A [x]B la expresion matricial de una forma cuadratica sobre V . Puesto
que A es simetrica, existe una base B tal que la matriz P de cambio de base de B a B es ortogonal y
D = P 1 AP = P t AP , con D diagonal
es decir, que D y A son congruentes (ademas de semejantes). Luego en B , se tiene que
es decir, la forma cuadratica se expresara como una suma de cuadrados, donde (y1 , . . . , yn ) = [x]tB y 1 , . . . , n
son los valores propios de A .
7.1.2 Diagonalizaci
on mediante operaciones elementales
La diagonalizacion ortogonal, propuesta para hallar una matriz asociada a la forma cuadratica que sea diagonal,
puede ser dificil de llevar a cabo (o imposible en ocasiones) pues supone encontrar las raices de un polinomio.
Sin embargo, como se buscan matrices diagonales que sean congruentes y no es necesario que tambien sean
semejantes, es posible disponer de otros metodos mas sencillos pero igualmente eficaces para obtener una matriz
diagonal.
El mas interesante para nosotros, se basa de nuevo en hacer operaciones elementales sobre la matriz. La idea
del metodo es la siguiente: haciendo operaciones elementales en las filas de la matriz podemos conseguir una
matriz triangular inferior, pero como necesitamos que la matriz obtenida sea simetrica (debe ser congruente
con la inicial), despues de cada operacion que hagamos en las filas repetiremos la misma operacion sobre las
columnas. Tras cada doble paso (operacion sobre las filas y misma operacion sobre las columnas) la matriz
obtenida sera simetrica y congruente con la inicial y, al final obtendremos la matriz diagonal.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
70 Matematicas I : Algebra Lineal 7.2 Rango y signatura de una forma cuadr
atica. Clasificaci
on
La justificacion no es dificil si usamos las matrices elementales que representan a cada operacion elemental
(ver la subseccion 2.2.1 sobre matrices elementales en la pagina 17), pues: si E es una matriz elemental, la
matriz EA realiza la operacion elemental sobre las filas de A y tomando la traspuesta de A , EAt realiza la
operacion sobre las columnas de A . Entonces: la matriz E(EA)t realiza la operacion sobre las columnas de la
matriz en la que ya hemos realizado la operacion de las filas; pero como E(EA)t = EAt E t = EAE t (por ser
A simetrica), esta matriz es simetrica y congruente con A (pues E es inversible). Luego repitiendo el proceso
hasta obtener una matriz diagonal:
Ejemplo 166 Se considera Q(x) = 2x2 + 2xy + 2yz + 3z 2 una forma cuadratica sobre IR3 , reducir Q a suma
de cuadrados y hallar la matriz del cambio de base.
2 1 0
Solucion: Si x = (x, y, z), se tiene que A= 1 0 1 , es la matriz de Q en la base canonica. Para obtener
0 1 3
una matriz congruente con A que sea diagonal, hacemos el proceso de (A|I) (D|P ), detallando la primera
vez como deben darse los pasos de efectuar cada operacion:
! ! !
2 1 0 1 0 0 A 1 A 2 1 0 1 0 0 2 0 0 1 0 0
1 A 1 A 1
(A|I) = 1 0 1 0 1 0 F2 2 F1 0 2
1 0 1 0 C2 2 C1 0 2
1 0 1 0
0 1 3 0 0 1 0 1 3 0 0 1 0 1 3 0 0 1
! A A !
2 0 0 1 1
2
0 F3A + 2F2A 2 0 0 1 1
2
1
C2I 21 C1
I
0 1
1 0 1 0 C3 + 2C2 0 1
0 0 1 2 = (D|P )
2 2
0 1 3 0 0 1 C3I + 2C2I 0 0 5 0 0 1
2 0 0 1 12 1
Tenemos entonces la matriz diagonal, D = 0 12 0 , y la matriz, P = 0 1 2 , de paso de
n o 0 0 5 0 0 1
1 t
la base B = (1, 0, 0), ( 2 , 1, 0), (1, 2, 1) a la canonica, que verifican que P AP = D . Por tanto, si
(x , y , z ) = [x]tB , se tiene que Q(x) = 2x2 12 y2 + 5z2 . 4
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
71 Matematicas I : Algebra Lineal 7.2 Rango y signatura de una forma cuadr
atica. Clasificaci
on
por lo que A0 y A son matrices asociadas a la misma aplicacion lineal, luego rg(A) = rg(A0 ) .
Definici
on 168.- Llamaremos rango de una forma cuadratica, al rango de cualquier matriz simetrica asociada
a la forma cuadratica en alguna base.
Observacion:
Del teorema anterior, se deduce entonces que dos cualesquiera matrices diagonales asociadas a la misma forma
cuadratica tienen el mismo n
umero de elementos en la diagonal distintos de cero, pues este n
umero es el rango
de la matriz diagonal.
Teorema de Sylvester o Ley de inercia 169.- Si una forma cuadratica se reduce a la suma de cuadrados en
dos bases diferentes, el numero de terminos que aparecen con coeficientes positivos, as como el n
umero de
terminos con coeficientes negativos es el mismo en ambos casos. .
Definicion 170.- Sea Q una forma cuadratica y D una matriz diagonal asociada a Q. Se define como
signatura de Q al par Sig(Q) = (p, q) donde p es el n
umero de elementos positivos en la diagonal de D y q
es el n
umero de elementos negativos de la misma.
7.2.1 Clasificaci
on de las formas cuadr
aticas
Definici
on 171.- Se dice que una forma cuadratica Q es
a) Nula si Q(x) = 0 para todo x .
Para las formas cuadraticas sobre IR2 , podemos dar una representacion de ellas usando superficies en IR3
asignando a z el valor de la forma cuadratica en (x, y) , es decir, haciendo z = d1 x2 + d2 y 2 . Con estas premisas,
hemos realizado la figura 7.1 que aparece en la pagina 72.
Teorema de clasificaci
on 172.- Sea Q una forma cuadratica en un espacio vectorial de dimension n . Se
verifica:
a) Q es nula Sig(Q) = (0, 0)
b) Q es definida positiva Sig(Q) = (n, 0) .
c) Q es semidefinida positiva Sig(Q) = (p, 0) con 0 < p < n .
Ejemplo Las formas cuadraticas de los ejemplos 164 y 166 anteriores son ambas indefinidas, pues en el
primer ejemplo Q( x ) = 12 x2 12 y2 en una base, luego Sig(Q) = (1, 1). En el segundo ejemplo, se escribe
Q( x ) = 2x2 12 y2 + 5z2 en una base y Sig(Q) = (2, 1).
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
72 Matematicas I : Algebra Lineal 7.3 Ejercicios
Fig. 7.1. Gr aticas de IR2 : definida positiva, definida negativa, indefinida, semidefinida positiva,
aficas de las formas cuadr
semidefinida negativa y nula
Un ejemplo de forma cuadratica definida positiva, lo tenemos con el cuadrado de la norma de un vector
(ver la observacion de la pagina 47 sobre la expresion matricial de un producto interior), pues se verifica que
2
Q( v ) = kv k = h v , v i > 0 si v 6= 0 . 4
Para finalizar y aunque puede obtenerse sin mucho coste una matriz diagonal mediante operaciones elementales
damos, sin demostracion, una proposicion que puede ser u til por su version practica, pues engloba varios
resultados para clasificar una forma cuadratica usando la matriz inicial:
Proposici
on 173.- Sea Q una forma cuadratica y A su matriz asociada. Denotemos por k , el k -esimo
menor principal de A, para cada 1 k n:
a11 a1k
a a
1 = |a11 | 2 = 11 12 k = ... . . . ... n = |A|
a21 a22
ak1 akk
Entonces:
a) Q es definida positiva si, y solo si, k > 0, para 1 k n.
b) Q es definida negativa si, y solo si, (1)k k > 0, para 1 k n.
c) Si n = det(A) 6= 0 y no se esta en alguno de los casos anteriores, entonces Q es indefinida.
d) Si existe i tal que aii 0 (resp. aii 0 ), entonces Q no es definida positiva (resp. no es definida
negativa).
e) Si existen i y j , con i 6= j , tales que aii = 0 y aij 6= 0, entonces Q es indefinida.
7.3 Ejercicios
7.80 Clasificar cada una de las formas cuadraticas siguientes, y reducir a suma de cuadrados:
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
73 Matematicas I : Algebra Lineal 7.3 Ejercicios
7.81 Sean las formas cuadraticas Qi : IRn IR dadas por Qi ( x ) = x t Ai x , con x = (x1 , . . . , xn ), siendo
5 2 0 1 2 0 0 0
1 1 0 3 2 1 2 2 0 1 1 3 2 0
A1 = 1 0 1 A2 = 1 6 2 A3 =
0 3 1 2
A4 =
1 2 1 0
1 0 0 3 0 7
0 0 2 2 0 0 0 1
Obtener, para cada Qi , la matriz asociada a la base canonica del espacio correspondiente, una matriz
diagonal congruente y la base respecto de la que es diagonal.
6 5 3 0
7.82 Sean B1 y B2 bases respectivas de los espacios V y W y sea A = 3 1 0 3 la matriz de una aplica-
3 3 2 1
cion lineal f : V W en las bases B1 y B2 . Tomemos Q: V IR dada por Q( v ) = [f ( v )]tB2 [f ( v )]B2 .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
74 Matematicas I : Algebra Lineal 7.3 Ejercicios
7.88 Sea Q: IRn IR una forma cuadratica no nula cuya matriz asociada en la base canonica es A .
7.89 Sea A la matriz de orden n asociada a una forma cuadratica definida positiva y P una matriz de orden
n.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
75 Matematicas I : Algebra Lineal
Anexo 1: Demostraciones
Espacios vectoriales
Demostracion de: Propiedades 89 de la pagina 41
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
76 Matematicas I : Algebra Lineal Anexo 1
Lema 97.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto {v1 , v2 , . . . , vm } de vectores de V , con m > n , es linealmente dependiente.
Demostracion:
Sea B = {w1 , w2 , . . . , wn } la base de V . Cada vector vk del conjunto {v1 , v2 , . . . , vm } puede expresarse
como combinacion lineal de los vectores de B , en la forma
vk = ak1 w1 + ak2 w2 + + akn wn , para cada k = 1, . . . , m
El conjunto es linealmente dependiente si la ecuacion 1 v1 + 2 v2 + + m vm = 0 tiene m ultiples
soluciones. Sustituyendo:
0 = 1 (a11 w1 + a12 w2 + + a1n wn ) + 2 (a21 w1 + a22 w2 + + a2n wn )
+ + m (am1 w1 + am2 w2 + + amn wn )
= (1 a11 + 2 a21 + + m am1 )w1 + (1 a12 + 2 a22 + + m am2 )w2
+ + (1 a1n + 2 a2n + + m amn )wn
que tiene m incognitas (los k ) y n ecuaciones, con m > n , por lo que no tiene solucion u
nica.
Demostracion:
Sea S el conjunto de n vectores.
Si S es linealmente independiente, tiene que generar V , pues si no: podran a
nadirse vectores linealmente
independientes con lo anteriores hasta formar una base de V (existira al menos un vector vn+1 V lin S ,
tal que S { vn+1 } es linealmente independiente, ver comentarios previos al Lema 97 anterior) que tendra al
menos n + 1 vectores, lo que es absurdo.
Analogamente si S genera V , tiene que ser linealmente independiente, pues si no: podran eliminarse
vectores dependientes de S hasta conseguir una base que tendra menos de n vectores (Lema 94), lo que
tambien es absurdo.
Desigualdad de Cauchy-Schwarz 111.- Para todo u , v V, espacio con producto interior, se tiene
2 2
h u , v i2 k u k kv k o en la forma |hu , v i| ku k k v k .
Demostracion:
2 2
Si v = 0 , es claro que 0 = h u , 0i2 k u k k 0k = 0, u V .
Si v 6= 0 , para todo k IR , se verifica que
2
0 ku k v k = hu k v , u k v i = h u , u i 2kh u , v i + k 2 h v , v i
hu, vi
en particular, para k = hv, vi . Luego
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
77 Matematicas I : Algebra Lineal Anexo 1
hu, vi2 2 2 2
de donde kvk2
kuk y por consiguiente hu, vi2 ku k kvk .
Teorema 119.- Si S = { v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos, entonces
S es linealmente independiente.
Demostracion:
Veamos que en la igualdad 1 v1 + + i vi + + k vk = 0 , cada i tiene que ser cero:
0 = hvi , 0i = hvi , 1 v1 + + i vi + + k vk i = 1 hvi , v1 i + + i hvi , vi i + + k hvi , vk i
2
= 0 + + i hvi , vi i + + 0 = i kvi k
como vi 6= 0 , su norma no es cero por lo que tiene que ser i = 0 .
Lema 124.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal
de W . Entonces para cada v V , el vector v ProyW ( v ) es ortogonal a cada vector de W .
Demostracion:
Por la Proposicion 118, para probar que un vector es ortogonal a todos los vectores de un subespacio, basta
probarlo para los vectores de una base. Sea B = {w1 , w2 , . . . , wk } , para cada wi de B , por ser B ortonormal,
h wi , wi i = 1 y h wi , wj i = 0 , si i 6= j , entonces
hvProyW (v), wi i = hv hv, w1 iw1 hv, wi iwi hv, wk iwk , wi i
= hv, wi i hv, w1 ihw1 , wi i hv, wi ihwi , wi i hv, wk ihwk , wi i
= hv, wi i 0 hv, wi i 1 0 = hv, wi i hv, wi i = 0
Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W .
Unicidad de la proyecci
on ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Para
cada v V , la proyeccion ortogonal de v en W no depende de la base ortonormal elegida.
Es decir, si B1 = {u1 , u2 , . . . , uk } y B2 = {v1 , v2 , . . . , vk } son dos bases ortonormales de W , entonces,
para cada v V , los vectores
(1)
ProyW (v) = w1 = hv, u1 iu1 + hv, u2 iu2 + + hv, uk iuk
(2)
ProyW (v) = w2 = hv, v1 iv1 + hv, v2 iv2 + + hv, vk ivk
son el mismo.
Demostracion:
Como w1 es una proyeccion ortogonal de v sobre W , el vector w1 W y el vector v w1 es ortogonal a
W y, por la misma razon, el vector w2 W y el vector v w2 es ortogonal a W .
Entonces, el vector ( v w1 ) (v w2 ) = w2 w1 cumple que: es ortogonal a todos los vectores de
W por ser diferencia de dos vectores ortogonales a W ; y tambien es un vector de W por ser diferencia de dos
vectores de W . En consecuencia, es ortogonal a si mismo y h w2 w1 , w2 w1 i = 0 , luego es el vector 0 ;
por lo que w1 = w2 y la proyeccion ortogonal no depende de la base.
Aplicaciones lineales
Justificacion del metodo descrito en la Observacion 136, de la pagina 56
Usaremos en la justificacion el mismo ejercicio del ejemplo, pero la prueba es valida en cualquier caso.
t
Haciendo las operaciones elementales sobre la matriz A , que tiene por filas las [f (vi )]B2 , hemos obtenido la
[f (v1 )]B2
[f (v6 v1 )]B2
[f (v5 v6 + v1 )]B2
matriz que tiene por filas
[f (v + 1
v 3
v 3
v )] . Luego si repetimos las mismas operaciones
4 2 1 2 6 2 5 B2
[f (v3 + v6 + 2v5 )]B2
[f (v2 2v6 v5 )]B2
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
78 Matematicas I : Algebra Lineal Anexo 1
[v1 ]B1 [v1 ]B1
[v2 ]B1 [v v1 ]B1
6
[v3 ]B1 [v v + v1 ]B1
sobre la matriz J que tiene por filas
obtendramos K = 5 6
[v4 + 1 v1 3 v6 3 v5 ]B1
.
[v4 ]B1 2 2 2
[v5 ]B1 [v3 + v6 + 2v5 ]B1
[v6 ]B1 [v2 2v6 v5 ]B1
Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K tambien tiene rango 6, por lo
que sus filas son linealmente independientes y en consecuencia los tres u
ltimos vectores (los vectores de ker(f ))
tambien son linealmente independientes.
Diagonalizaci
on
Justificacion de la observacion en Antes de seguir de la pagina 62
Definici
on.- Sea f : V V un operador lineal, diremos que un escalar es un valor propio de f si existe
un vector v V , diferente de cero, tal que f (v) = v .
Al vector v se le denomina vector propio de f correspondiente a .
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
79 Matematicas I : Algebra Lineal Anexo 1
Teorema.- Los vectores propios de f correspondientes al valor propio , son los vectores distintos de cero del
n
ucleo de la aplicacion Id f (denotamos por Id la aplicacion identidad, Id ( v ) = v ).
Llamaremos a dicho n ucleo, espacio caracterstico de f correspondiente al valor propio .
Demostracion:
v un vector propio correspondiente a f (v) = v f (v) = Id (v) Id (v) f (v) = 0
(Id f )(v) = 0 v ker(Id f ).
Teorema 152.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios 1 ,
2 , . . . , k respectivamente, siendo i 6= j , i 6= j . Entonces el conjunto de vectores {v1 , v2 , . . . , vk } es
linealmente independiente.
Demostracion:
Supongamos que v1 , v2 , . . . , vk son linealmente dependientes.
Por definicion, un vector propio es distinto de cero, luego el conjunto { v1 } es linealmente independiente.
Sea r el maximo entero tal que {v1 , v2 , . . . , vr } es linealmente independiente. Puesto que hemos supuesto
que {v1 , v2 , . . . , vk } es linealmente dependiente, r satisface que 1 r < k . Ademas, por la manera en que
se definio r , { v1 , v2 , . . . , vr , vr+1 } es linealmente dependiente. Por tanto, existen escalares c1 , c2 , . . . , cr+1 ,
al menos uno diferente de cero, tales que
Proposici
on 154.- Sea A de orden n y k un autovalor de A de multiplicidad mk . Entonces
1 dim V (k ) mk .
Demostracion:
Como ya observamos anteriormente, dim V (i ) 1.
Supongamos que dim V (k ) = d, y consideremos el operador lineal f : IRn IRn definido por f ( v ) = A v .
Sea { v1 , . . . , vd } una base del espacio caracterstico V (k ) , que podemos completar hasta obtener una base
de IRn , B = { v1 , . . . , vd , vd+1 , . . . , vn } . La matriz A0 , del operador en la base B , sera de la forma
A0 = [f (v1 )]B [f (vd )]B [f (vd+1 )]B [f (vn )]B
k 0
.. .. .
. . .. A012
k [v1 ]B k [v2 ]B [f (vd+1 )]B [f (vn )]B
0 k
= =
0 0
.. .
. .. A022
0 0
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
80 Matematicas I : Algebra Lineal Anexo 1
de donde |I A0 | = (k )d |I A022 |. Pero como A y A0 son matrices semejantes, tienen el mismo polinomio
caracterstico, y ( k )d |I A022 | = |I A0 | = |I A| = ( k )mk Q() , de donde se obtiene que d mk ,
pues mk es la multiplicidad de la raz.
Teorema fundamental de la diagonalizaci on 155.- Sea A una matriz de orden n . Entonces A es diagonali-
zable si y solo si se cumplen las condiciones:
1.- El polinomio caracterstico tiene n raices reales. Es decir, |I A| = ( 1 )m1 ( k )mk con
m1 + m2 + + mk = n .
2.- Para cada espacio caracterstico V (i ) , se cumple que dim V (i ) = mi .
Demostracion:
= Si A es diagonalizable, la matriz diagonal D y A son semejantes ( D = P 1 AP ) y por tanto poseen
el mismo polinomio caracterstico, luego P () = |I A| = |I D| = ( 1 )m1 ( k )mk , donde los
i IR son los valores de la diagonal de D y mi el n umero de veces que se repite. Por tanto, P () tiene todas
sus raices reales y, por ser de grado n , m1 + m2 + + mk = n.
Ademas, por ser A y D matrices semejantes, tambien lo son I A y I D , para todo IR , pues
P 1 (I A)P = P 1 IP P 1 AP = I D , de donde rg(IA) = rg(ID) , para todo . Entonces, para
cada autovalor i se tiene que rg(i I A) = rg(i I D) = n mi y, en consecuencia, que dim V (i ) = mi .
= Si |I A| = ( 1 )m1 ( k )mk , con m1 + m2 + + mk = n, y dim V (i ) = mi para cada
i = 1, . . . , k , consideremos en cada V (i ) una base Bi , de la forma
n o n o n o
B1 = p , . . . , pm , B2 = p , . . . , pm , . . . , Bk = pk , . . . , pkmk
Teorema fundamental de la diagonalizaci on ortogonal 159.- Una matriz A de orden n es diagonalizable or-
togonalmente si y solo si A es simetrica. .
Demostracion:
= A es diagonalizable ortogonalmente = P ortogonal y D diagonal tal que P t AP = D = P
ortogonal y D diagonal tal que A = P DP t = At = (P DP t )t = P DP t = A = A es simetrica.
= Sea A simetrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales:
Sea C un valor propio de A, entonces existe x = (x1 , . . . , xn ) 6= 0 ( xj C ) tal que A x = x . Por
ser A real, su polinomio caracterstico es real y el conjugado de , , es tambien autovalor de A ; ademas,
tomando conjugados en la igualdad anterior, se tiene que Ax = A x = x . Entonces, son iguales los valores
n
X n
X 2
xt Ax = xt (Ax) = xt (x) = xt x = xj xj = |xj |
j=1 j=1
n
X 2
xt Ax = (xt A)x = (xt At )x = (Ax)t x = (x)t x) = xt x = |xj |
j=1
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
81 Matematicas I : Algebra Lineal Anexo 1
P
n
2
y, al ser x 6= 0 , |xj | 6= 0 por lo que = y IR . En consecuencia, si todos los autovalores de A son
j=1
reales, el polinomio caracterstico de A tiene las n raices reales.
Veamos ahora que para cada j se verifica que dim V (j ) = mj .
Sean dim V (j ) = d y Bj = {x1 , . . . , xd } una base ortonormal de V (j ) que ampliamos hasta una base
ortonormal de IRn , B = { x1 , . . . , xd , xd+1 , . . . , xn }.
Consideremos el operador lineal f : IRn IRn dado por f ( x ) = A x , luego A es la matriz de f en la base
canonica que es ortonormal y si A0 es la matriz de f en la base B y P la matriz de paso de B a la canonica,
P es ortogonal y A0 = P t AP . Como A es simetrica, A0 tambien lo sera pues (A0 )t = (P t AP )t = P t At (P t )t =
P t AP = A0 .
0
A = [f (x )]
1 B [f (x )]
d B [f (xd+1 B)] [f (x )]
n B
j 0
.. . . ..
. . A012
.
0 j
= j [x1 ]B j [x2 ]B [f (xd+1 )]B [f (xn )]B = 0 0
. .
.. .. A0
22
0 0
donde A012 = 0 , puesto que A0 es simetrica y A022 cuadrada de orden n d. Luego la matriz j I A0 nos
queda
j j 0 0 0
.. .. .. .. . . ..
. . . 0 . . . 0
0 0 0
0
j I A = j j
0 0 = 0 0
.. .. . .
. . 0
j I A22 . . 0
. . j I A22
0 0 0 0
por lo que rg(j I A0 ) = rg(j I A022 ) . Por ser A y A0 semejantes rg(j I A) = rg(j I A0 ) (ver demostracion
del Teorema 155), y se tiene que rg(j I A022 ) = rg(j I A) = ndim V (j ) = nd por lo que |j I A022 | 6= 0.
Entonces, |I A| = |I A0 | = ( j )d |I A022 | , con |j I A022 | 6= 0 , luego d = mj .
En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caractersticos,
tendremos n vectores propios de norma 1 y, que por el Lema 158, son ortogonales entre s.
Formas cuadr
aticas
Demostracion de: Teorema de Sylvester o Ley de inercia 169 de la pagina 71
Teorema de Sylvester o Ley de inercia 169.- Si una forma cuadratica se reduce a la suma de cuadrados en
dos bases diferentes, el numero de terminos que aparecen con coeficientes positivos, as como el n
umero de
terminos con coeficientes negativos es el mismo en ambos casos.
Demostracion:
Supongamos que respecto a una base B1 = { b1 , b2 , . . . , bn } la matriz de la forma cuadratica Q es una matriz
diagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresion de
la forma cuadratica sera
con ai > 0 para todo i , y (x1 , . . . , xp , xp+1 , . . . , xp+s , xp+s+1 , . . . , xn ) = [ x ]tB1 ; y que respecto a otra base
B2 = {d1 , d2 , . . . , dn } la matriz de la forma cuadratica es tambien diagonal con q elementos positivos y r
negativos, por lo que Q se expresara en la forma
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad
82 Matematicas I : Algebra Lineal Anexo 1
Por el teorema 167 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen que
ser p + s = q + r . Veamos que p = q , con lo que tendremos tambien que s = r .
Si p 6= q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos de
vectores { b1 , . . . , bp } y {dq+1 , . . . , dn }. Si p > q , el conjunto { b1 , . . . , bp , dq+1 , . . . , dn } tiene p+(nq) =
n + (p q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad
1 b1 + + p bp + q+1 dq+1 + + n dn = 0
alguno de los coeficientes no es cero. Entonces, el vector
1 b1 + + p bp = q+1 dq+1 n dn = x
no es el cero (si es cero, todos los i son cero por ser los bi de B1 , y todos los j = 0 por ser los dj B2 ),
con alg
un i y alg un j distintos de cero. Tenemos as que
[x ]tB1 = (1 , . . . , p , 0, . . . , 0) y [ x ]tB2 = (0, . . . , 0, q+1 , . . . , n )
pero calculando Q( x ) respecto a las dos bases obtenemos
Q(x) = a1 21 + + ap 2p ap+1 0 ap+s 0 = a1 21 + + ap 2p > 0
Q(x) = c1 0 + + cq 0 cq+1 (q+1 )2 cq+r (q+r )2 + 0(q+r+1 )2 + + 0(n )2
= cq+1 (q+1 )2 cq+r (q+r )2 0
lo que no puede ser. Por tanto deben ser p = q y s = r , es decir, las dos matrices diagonales tienen el mismo
numero de elementos positivos y negativos.
Teorema de clasificaci
on 172.- Sea Q una forma cuadratica en un espacio de dimension n. Se verifica:
a) Q es nula Sig(Q) = (0, 0)
b) Q es definida positiva Sig(Q) = (n, 0).
c) Q es semidefinida positiva Sig(Q) = (p, 0) con 0 < p < n .
d) Q es definida negativa Sig(Q) = (0, n).
e) Q es semidefinida negativa Sig(Q) = (0, q) con 0 < q < n .
f) Q es indefinida Sig(Q) = (p, q) con 0 < p, q .
Demostracion:
Sea B = { v1 , . . . , vn } una base en la cual, la expresion de Q es Q( x ) = d1 x21 + d2 x22 + + dn x2n
donde (x1 , . . . , xn ) = [ x ]tB . Luego, Q( vi ) = di , para todo i = 1, . . . , n , ya que los vectores de B tiene por
coordenadas [ v1 ]tB = (1, 0, 0, . . . , 0) , [ v2 ]tB = (0, 1, 0, . . . , 0), . . . , [ vn ]tB = (0, 0, 0, . . . , 1). Entonces:
a) Si Q( x ) = 0 , para todo x , se tiene que di = Q( vi ) = 0, para todo i , luego Sig(Q) = (0, 0) .
Reciprocamente, si di = 0 para todo i , entonces Q( x ) = 0 para todo x .
b) Si Q( x ) > 0 para todo x 6= 0 , se tiene que di = Q( vi ) > 0, para todo i, luego Sig(Q) = (n, 0) .
Recprocamente, si di > 0 para todo i , entonces Q( x ) > 0 para todo x 6= 0 .
c) Si Q( x ) 0 para todo x 6= 0 , es di = Q(vi ) 0 para todo i. Como no es nula existe alg
un dj > 0 y
como no es definida positiva existe alg
un dk = 0 , luego Sig(Q) = (p, 0) con 0 < p < n .
Recprocamente, si di 0 para todo i , con alg
un dj > 0 y alg
un dk = 0 , se tiene que Q( x ) 0 para
todo x , que Q( vj ) = dj > 0, por lo que no es nula, y que Q( vk ) = dk = 0 , por lo que no es definida
positiva.
d) y e) Analogos a los casos de definida y semidefinida positiva.
f) Por ser indefinida, Q( x ) 6 0 para todo x , luego di 6 0 para todo i , por lo que existira un dj < 0
y Q( x ) 6 0 para todo x , luego di 6 0 para todo i por lo que existira un dk > 0. En consecuencia,
Sig(Q) = (p, q) con p, q > 0 .
Recprocamente, si existe dj < 0 y dk > 0, seran Q( vj ) = dj < 0 y Q( vk ) = dk > 0 , luego es indefinida.
Prof: Jos
e Antonio Abia Vian I.T.I. en Electricidad