Escolar Documentos
Profissional Documentos
Cultura Documentos
ALGEBRA LINEAL
TEMA 2. ALGEBRA LINEAL 5
' $
Tema 2.
ALGEBRA LINEAL
& %
♦ Espacios Vectoriales
♦ Calculo Matricial
♦ Sistemas de Ecuaciones Lineales
♦ Cambios de Base
♦ Aplicaciones Lineales
♦ Endomorfismos. Diagonalizacion
1. Espacios Vectoriales
1.3. Producto escalar. Otra operación que puede realizarse con vectores es
el producto escalar. Dados dos vectores ~u, ~v de Rn , su producto escalar es el
número
~u • ~v = u1 v1 + · · · + un vn .
Como se ve, esta operación es de un carácter muy diferente al de las dos vistas
en el apartado anterior. De hecho, el producto escalar se utiliza para medir
distancias y ángulos en Rn del modo siguiente
• la longitud (o módulo, o norma) de un vector ~v se define como
√ q
||~v || = ~v • ~v = v12 + · · · + vn2 .
Si ||~v || = 1 decimos que ~v es un vector unitario. En caso contrario (y
si ~v 6= ~0), podemos normalizarlo: ~v /||~v || es unitario y tiene la misma
direción y sentido que ~v .
• El ángulo entre dos vectores ~u y ~v (que denotaremos habitualmente
por ~ud , ~v o ∠(~u, ~v )) se define mediante la relación
~u • ~v
cos(~u
d, ~v ) = .
||~u|| · ||~v ||
Para medir este ángulo tomaremos siempre 0 ≤ ~u
d, ~v ≤ π, es decir,
consideraremos ángulos no orientados.
Diremos que los vectores ~u y ~v son ortogonales (o perpendiculares) si su pro-
ducto escalar es 0, es decir, si forman un ángulo π/2.
Algunas de las propiedades fundamentales del producto escalar son las si-
guientes: dados vectores ~u, ~v , w,
~ y escalares λ, µ,
• ~u • ~v = ~v • ~u (conmutatividad);
• (λ~u + µ~v ) • w ~ = λ(~u • w) ~ + µ(~v • w)
~ (asociatividad);
• ||~u + ~v || ≤ ||~u|| + ||~v || (desigualdad triangular);
• ||λ~u|| = |λ| · ||~u|| (escalado).
1.6. Conjuntos libres. Si ~u ∈ hSi = h~v1 , ~v2 , . . . , ~vm i, puede suceder que ~u se
escriba como combinación lineal de estos vectores de más de una forma. Ası́,
en el ejemplo anterior
(2, 4) = 3(1, 2) − 2(2, 3) + 1(3, 4) = 2(1, 2) + 0(2, 3) + 0(3, 4).
Si tal cosa sucede, decimos que los vectores ~v1 , ~v2 , . . . , ~vm son linealmente de-
pendientes (ó que el conjunto S es ligado). Nótese que si ~u se escribe de más
de una forma como combinación lineal de S, entonces también ~0 se escribe de
más de una forma. En efecto, volviendo al ejemplo anterior, restando las dos
escrituras del vector (2, 4) obtenemos
(0, 0) = (1, 2) − 2(2, 3) + (3, 4)
y siempre (0, 0) = 0(1, 2) + 0(2, 3) + 0(3, 4). Por consiguiente, un conjunto de
vectores es ligado si y sólo si existe alguna combinación lineal de esos vectores
que da como resultado ~0 con coeficientes no todos nulos.
Obsérvese además que en un conjunto ligado algún vector es combinación lineal
de los restantes. En efecto, en el ejemplo anterior, partiendo de la igualdad
(0, 0) = (1, 2) − 2(2, 3) + (3, 4) no hay más que despejar cualquiera de los vec-
tores con coeficiente no nulo, (1, 2) = 2(2, 3)−(3, 4). Estos vectores que pueden
obtenerse como combinación lineal de los restantes son, en cierto modo, redun-
dantes. En efecto, si ~v1 , ~v2 , . . . , ~vm son vectores linealmente dependientes y ~v1
es combinación lineal de los demás, entonces h~v1 , ~v2 , . . . , ~vm i = h~v2 , . . . , ~vm i.
Ejemplo. En virtud de los razonamientos anteriores, {(1, 2), (2, 3), (3, 4)} es
un conjunto ligado. Además h(1, 2), (2, 3), (3, 4)i = h(2, 3), (3, 4)i.
Si S = {~v1 , ~v2 , . . . , ~vm } no es conjunto ligado, diremos que es libre (o que
~v1 , ~v2 , . . . , ~vm son vectores linealmente independientes).
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
H
1 Probar que si S = {~v1 , ~v2 , . . . , ~vm } es libre y ~u ∈ hSi, entonces la expresión
de ~u como combinación lineal de los elementos de S es única.
2 Sea L = {(x, y, z) ∈ R3 | x = y + z}. Mostrar que L es un subespacio. Encon-
trar un conjunto libre de vectores que lo generen. Deducir unas ecuaciones
paramétricas de L. Dibujarlo.
condiciones equivalentes:
(a) S es una base de Rn (o de un subespacio L);
(b) S es un conjunto libre maximal en Rn (o en L);
(c) S es un conjunto generador minimal de Rn (o de L).
Todo espacio vectorial (y todo subespacio) posee alguna base. Además, todas
las bases del mismo espacio están formadas por el mismo número de vectores.
Este número se llama dimensión del espacio (o del subespacio).
Ejemplos.
• Una base de una recta está formada por un solo vector. Las rectas son
subespacios de dimensión 1.
• Una base de un plano está formada por dos vectores. Los plano son
subespacios de dimensión 2.
TEMA 2. ALGEBRA LINEAL 9
• Los vectores ~e1 = (1, 0, . . . , 0), ~e2 = (0, 1, . . . , 0), . . . , ~en = (0, . . . , 0, 1)
forman una base de Rn , llamada base canónica (a la que denotaremos
por C). Por consiguiente, cualquier otra base de Rn debe estar también
formada por n vectores: la dimensión de Rn es n.
• Sea L = {(x, y, z, t) ∈ R4 | x = 0, y = z + t} el subespacio es-
tudiado en un ejemplo anterior. Como hemos visto, si ~u ∈ L en-
tonces ~u = (0, α + β, α, β) = α(0, 1, 1, 0) + β(0, 1, 0, 1). Por tanto
L = h(0, 1, 1, 0), (0, 1, 0, 1)i. Además estos dos vectores son linealmente
independientes, luego constituyen una base de L. En particular, la di-
mensión de L es 2.
Sea pues B = {~v1 , ~v2 , . . . , ~vm } una base (cualquiera) de Rn . Cada vector
~u ∈ Rn puede escribirse como combinación lineal de los elementos de la base
B (puesto que B es generador)
~u = λ1~v1 + · · · + λn~vn .
Además tal combinación lineal es única (puesto que B es libre). Los coeficientes
λ1 , . . . , λn se llaman las coordenadas de ~u en la base B y la igualdad anterior
se representa abreviadamente como ~u = (λ1 , . . . , λn )B o ~uB = (λ1 , . . . , λn ).
Ejemplo. Sea (x, y, z) ∈ R3 . Las coordenadas de (x, y, x) en la base canónica
C son precisamente (x, y, z)C . Por tanto las notaciones (x, y, x) y (x, y, z)C re-
presentan el mismo vector. Es esta razón la que hace especialmente interesante
la base canónica.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
4 Consideramos los vectores ~v1 = (2, 1, 3), ~v2 = (1, 1, −1) y ~v3 = (0, 0, 1).
(a) Comprobar que B = {~v1 , ~v2 , ~v3 } es una base de R3 ;
(b) calcular las coordenadas en B de los vectores (−1, 0, 1) y (1, 2, −3);
(c) calcular las coordenadas en C de los vectores (−1, 0, 1)B y (1, 2, −3)B .
es decir, la expresión del producto escalar para la base canónica sigue siendo
válida para la base B. En consecuencia, cuando en nuestros cálculos inter-
venga el producto escalar (es decir, cuando estemos tratando un problema rela-
cionado con medidas de longitudes o ángulos) deberemos usar una (cualquiera)
base ortonormal.
2. Cálculo Matricial
2.2. Operaciones con matrices. Con las matrices se pueden realizar diver-
sas operaciones, a saber:
• Suma: Si (aij ) y (bij ) ∈ Mm×n , (aij ) + (bij ) = (aij + bij ).
• Producto por escalar: Si (aij ) ∈ Mm×n y λ ∈ R, λ · (aij ) = (λaij ).
• Producto de matrices: Si (aij )P ∈ Mm×n y (bjk ) ∈ Mn×r , su producto
es (cik ) ∈ Mm×r siendo cik = nj=1 aij bjk .
• Traspuesta: Si A = (aij ) ∈ Mm×n , At = (a0ij ) ∈ Mn×m , con a0ij = aji .
2 1 2
Ejemplo. Si A = 1 3 , B = , C = y
−1 3 −1
2 1 3
D= , entonces
−1 1 2
2 −1
0 3 7 7 0
, C2 = , Dt = 1 1 .
AB = −1 , CD =
7 2 7 0 7
3 2
Algunas propiedades de las operaciones definidas son:
• A+B =B+A • A · (B · C) = (A · B) · C
• A + (B + C) = (A + B) + C • c · (A · B) = (c · A) · B
• c · (A + B) = c · A + c · B • (A · B)t = B t · At
• (A + B)t = At + B t • (A · B)−1 = B −1 · A−1
Por supuesto, estas propiedades se verifican siempre que tengan sentido (por
ejemplo, no se pueden sumar matrices de tamaños distintos).
Matriz fila y matriz columna: son las matrices con una sola fila o
una sola columna, respectivamente.
Inversible: A ∈ Mn×n (cuadrada) es inversible si existe B ∈ Mn×n tal
que AB = BA = In . Si existe, la matriz B es única y se denota por
A−1 .
Ortogonal: A ∈ Mn×n (cuadrada) es ortogonal si At A = AAt = In .
Estas propiedades nos permiten convertir A en una matriz con ’muchos’ ceros
y calcular ası́ más fácilmente el determinante.
Ejercicios.∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
siendo aij y bi números reales conocidos. Los aij son los coeficientes del sistema
y los bi sus términos independientes. En particular, cuando b1 = · · · = bn = 0,
se dice que el sistema es homogéneo.
TEMA 2. ALGEBRA LINEAL 13
Por consiguiente, dos son las cuestiones que se presentan: saber si (S) tiene o
no solución (y cuantas soluciones), y en caso afirmativo encontrarlas.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
9 Obtener la dimensión, una base y unas ecuaciones implı́citas del subespacio
L generado por ~u = (1, 2, 0), ~v = (0, 3, 2) y w
~ = (2, 7, 2).
14 TEMA 2. ALGEBRA LINEAL
4. Cambios de Base
4.1. Cambios de base. Sean U = {~u1 , . . . , ~un } y B = {~v1 , . . . , ~vn } dos bases
del espacio Rn . Como sabemos, un vector w ~ posee coordenadas respecto de
ambas bases. El problema que nos ocupa en esta sección es como deducir unas
coordenadas a partir de las otras. En concreto pongamos
w
~ = (α1 , . . . , αn )U = (β1 , . . . , βn )B .
Pongamos tambien que (α1 , . . . , αn ) son conocidos. ¿Cómo deducimos los
valores de (β1 , . . . , βn )?
Naturalmente, para realizar este cálculo debemos conocer la relación entre las
dos bases involucradas. Pongamos que
~ui = (ui1 , . . . , uin )B .
Entonces
~ = α1 ~u1 + · · · + αn ~un
w
= α1 (u11~v1 + · · · + u1n~vn ) + · · · + αn (un1~v1 + · · · + unn~vn )
= (α1 u11 + · · · + αn un1 )~v1 + · · · + (α1 u1n + · · · + αn unn )~vn .
Por consiguiente
(β1 , . . . , βn ) = ((α1 u11 + · · · + αn un1 ), . . . , (α1 u1n + · · · + αn unn )).
20 TEMA 2. ALGEBRA LINEAL
5. Aplicaciones Lineales
Ejemplos.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
5.3. Escritura matricial. En virtud del Teorema del apartado anterior, las
matrices pueden usarse para representar aplicaciones lineales. En efecto, sea
f : Rn −→ Rm una aplicación lineal y sea C = {~e1 , . . . , ~en } la base canónica
de Rn . Si ~v = (λ1 , . . . , λn )C entonces, como sabemos,
f (~v ) = λ1 f (~e1 ) + · · · + λn f (~en ).
Esta igualdad puede expresarse matricialmente como
λ1
f (~v ) = f (~e1 )
f (~e2 ) ··· f (~en ) ..
.
λn
donde la columna i-ésima de la matriz está formada por las coordenadas f (~ei ).
La matriz que aparece en la fórmula se llama matriz de f y se denota por M (f ).
Como hemos visto, proporciona las coordenadas de f (~v ) una vez conocidas las
coordenadas de ~v .
Ejemplo. Retomemos los datos del Ejercicio 19 . La matriz de la aplicación
f es
1 1 1
M (f ) = 1 0 −1
1 1 0
luego
1 1 1 1 6
f (1, 2, 3)t = 1 0 −1 2 = −2 .
1 1 0 3 3
22 TEMA 2. ALGEBRA LINEAL
6. Endomorfismos. Diagonalización
se verifica que f (~v1 ) = λ1~v1 . Análogamente f (~vi ) = λi~vi para cualquier otro
vector de la base. Por consiguiente, los vectores de la base B son tales que su
imagen por f es un múltiplo de sı́ mismos.
Definición. Diremos que ~v es un autovector (o un vector propio) de f (o de
la matriz M ) si existe un escalar λ tal que f (~v ) = λ~v (respectivamente, tal
que M~v t = λ~v t ). Diremos que λ ∈ R es un autovalor (o valor propio) de f (o
de M ) si existe un vector ~v 6= ~0 tal que f (~v ) = λ~v (respectivamente, tal que
M~v t = λ~v t ).
Como consecuencia inmediata de los razonamientos anteriores, obtenemos la
siguiente caracterización.
Teorema. Una aplicación lineal f : Rn → Rn es diagonalizable si y sólo si
existe una base de Rn formada por vectores propios de f .
En secciones sucesivas veremos como evaluar la condición de este teorema.
Aunque nuestro objetivo son los vectores propios, conviene comenzar expli-
cando como calcular los valores propios. Posteriormente determinaremos los
autovectores a partir de los autovalores a los que están asociados.
luego pM (λ) = (1 − λ)(−λ3 + 3λ2 − 4). Los autovalores de M son las raı́ces
reales de pM (λ). Estas raı́ces son 1, 2 (doble) y −1.
Llamaremos multiplicidad algebraica de un autovalor λ a su multiplicidad como
raı́z del polinomio caracterı́stico. En el ejemplo anterior −1 y 1 son autovalores
de multiplicidad 1, mientras que 2 es un autovalor de multiplicidad 2.
TEMA 2. ALGEBRA LINEAL 25
entonces
10 0 0
P −1 AP = 0 1 0 .
0 0 1
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
23 Calcular A1000 siendo
0 1 1
A= 1 0 1 .
1 1 0
TEMA 2. ALGEBRA LINEAL 29
8 rang(A) = 3, rang(B) = 2.
9 La dimensión de L coincide con el rango de la matriz que tiene como filas a ~u, ~v , w,
~
es decir,
1 2 0
dim(L) = rang 0 3 2 = 2.
2 7 2
Una base de L se obtiene eliminando del conjunto generador {~u, ~v , w} ~ los vectores (el
vector en este caso, puesto que dim(L) = 2) que son linealmente dependientes de los
demás. Por ejemplo w ~ es combinación lineal de ~u, ~v , luego {~u, ~v } es una base de L.
Calculemos unas ecuaciones implı́citas de L. Un vector ~x = (x, y, z) está en L si es
combinación lineal de ~u y ~v , es decir si el conjunto {~u, ~v , ~x} es ligado. Esto sucede
cuando
1 2 0
rang 0 3 2 = 2
x y z
es decir, cuando el determinante de esta matriz vale 0. Calculando el determinante,
esta condición queda 4x − 2y + 3z = 0. Esta es una ecuación implı́cita de L.
10 Consideremos el sistema (S) : A~xt = ~bt . Buscar soluciones de (S) equivale a
buscar las combinaciones lineales de las columnas de A que nos den ~bt . Por tanto,
el sistema tiene solución si ~b es combinación lineal de las columnas de A, es decir, si
rang(A) = rang(A∗ ). En tal caso, la solución es única si lo es la escritura de ~b como
combinación lineal de las columnas de A. Hemos visto que esto sucede si las columnas
de A son linealmente independientes, es decir si el rango de A coincide con el número
de columnas de A.
11 Sean A la matriz del sistema y A∗ la matriz ampliada, es decir
1 2 1 1 2 1 2
A = 1 1 2 , A∗ = 1 1 2 3 .
1 2 1 1 2 1 b
Fácilmente se comprueba que rang(A) = 2. Por ejemplo, la tercera columna de A es
combinación de las dos primeras. Por tanto
1 2 2
rang(A∗ ) = rang 1 1 3 .
1 2 b
Ahora bien, como
1 2 2
det 1 1 3 =b−2
1 2 b
se verifica que rang(A) = rang(A∗ ) si y sólo si b = 2. En consecuencia el sistema tiene
solución si b = 2. En tal caso rang(A) = 2 < n = 3, luego la solución no es única.
12 Si A es una matriz cuadrada n × n y det(A) 6= 0 entonces rang(A) = n. Como
rang(A∗ ) ≥ rang(A) y rang(A∗ ) ≤ n (puesto que A∗ tiene n filas), necesariamente
rang(A) = rang(A∗ ) = n y el sistema A~xt = ~bt tiene solución única.
13 En el Ejercicio 10 comprobamos que el sistema tiene solución cuando
b = 2. En este caso la tercera ecuación es redundante y puede ser elimi-
nada. Haciendo esto obtenemos un sistema de dos ecuaciones con tres incogni-
tas. La dimensión del espacio de soluciones del sistema es (número de incógnitas) −
(número de ecuaciones independientes) = 3 − 2 = 1. En efecto, también hemos visto
que la tercera columna de la matriz del sistema original es combinación lineal de
las otras dos. Por consiguiente, la tercera incognita, z, puede pasarse al término
inpendiente de la derecha como parámetro, z = λ ∈ R. Llegamos ası́ al sistema
x +2y = 2−λ
x +y = 3 − 2λ
cuyas soluciones dependen de un parámetro
x = −2 + λ
.
y = −1 + λ
TEMA 2. ALGEBRA LINEAL 31
17 (a) Para probar que B es una base basta comprobar que el determinante de la
matriz que tiene como columnas a ~v1 , ~v2 , ~v3 , es no nulo. Ahora bien, como se calcula
fácilmente
2 1 0
det 1 1 0 = 1.
3 −1 1
(b) Según lo visto en los apartados 4.1 y 4.2,
2 1 0
M (B ; C) = 1 1 0
3 −1 1
1 −1 0
M (C ; B) = M (B ; C)−1 = −1 2 0 .
−4 5 1
(c) Para calcular las coordenadas de (3, 2, 1)C en B hacemos
3 1 −1 0 3 1
M (C ; B) 2 = −1 2 0 2 = 1
1 −4 5 1 1 −1
es decir, (3, 2, 1)C = (1, 1, −1)B . Análogamente, para calcular las coordenadas de
(3, 2, 1)B en C hacemos
3 2 1 0 3 8
M (B ; C) 2 = 1 1 0 2 = 5
1 3 −1 1 1 8
es decir, (3, 2, 1)C = (8, 5, 8)B .
18 (a) y (c) son lineales. (b) no lo es puesto que f (x + y) = (x + y)2 6= x2 + y 2 =
f (x) + f (y).
19 f (1, 2, 3) = 1f (1, 0, 0)+2f (0, 1, 0)+3f (0, 0, 1) = (1, 1, 1)+2(1, 0, 1)+3(1, −1, 0) =
(6, −2, 3).
20 (a) El polinomio caracterı́stico de A es pA (λ) = λ2 + 1, cuyas raı́ces son los
números complejos ±i. Por consiguiente A no es diagonalizable.
(b) El polinomio caracterı́stico de B es pB (λ) = λ4 − 3λ3 + 3λ2 − λ, cuyas raı́ces son
0 (simple) y 3 (triple). Los espacios de autovectores asociados a estos autovalores son
V (0) = h(−1, 2, 1, −5)i y V (1) = h(0, 0, −1, 1)i. Por consiguiente B no es diagonali-
zable.
(c) El polinomio caracterı́stico de C es pC (λ) = λ3 −6λ2 +11λ−6, cuyas raı́ces son 1,2 y
3 (todas ellas simples). Por tener todos sus autovalores distintos, C es diagonalizable.
32 TEMA 2. ALGEBRA LINEAL
Los espacios de autovectores asociados a estos autovalores son V (1) = h(1, 1, 0)i,
V (2) = h(1, 0, 1)i y V (3) = h(0, −2, 3)i. Por consiguiente, la matriz de paso P es
1 1 0 −2 3 2
P = 1 0 −2 con lo que P −1 = 3 −3 −2 .
0 1 3 −1 1 1
Finalmente, la forma diagonal de C es
−2 3 2 4 −3 −2 1 1 0 1 0 0
P −1 CP = 3 −3 −2 4 −3 −4 1 0 −2 = 0 2 0 .
−1 1 1 −3 3 5 0 1 3 0 0 3