Escolar Documentos
Profissional Documentos
Cultura Documentos
⃗v = (v1 , v2 )
23
24 October 2, 2010
w
⃗
⃗v + w
⃗
O
⃗v
Luego v + w es el vector que se construye a partir de v y w siguiendo la regla del paralelogramo.
Y, ahora, el producto por un escalar (un número real)
Gráficamente:
λ⃗v
O ⃗v
Luego λv es un vector que tiene la misma dirección que v, el mismo sentido si λ > 0, sentido
opuesto si λ < 0, y la “longitud” de λv es |λ| veces la de v.
Dado un vector v, se llama vector opuesto a −v = (−1)v.
Ejemplo 2.1.5 Por ejemplo, el vector (2, 2, 1) es una combinación lineal de los vectores (1, 1, 0) y
(0, 0, 1), porque se puede escribir (2, 2, 1) = 2(1, 1, 0) + (0, 0, 1).
En este caso, los coeficientes de la combinación lineal son 2 y 1.
Por tanto, ver si un vector es combinación lineal de otros (o no) es, simplemente, ver si un sistema
es compatible (o no).
Si el sistema es determinado o indeterminado está ligado a otro concepto, el de independencia
lineal.
October 2, 2010 25
Definición 2.1.6 Se dice que los vectores v1 , . . . , vr son linealmente independientes si la única com-
binación lineal que da 0 es la que todos los coeficientes son cero.
λ1 v1 + · · · + λr vr = 0 implica λ1 = · · · = λr = 0. (2.1)
Ejemplo 2.1.7 Ası́, por ejemplo, para ver si los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, 0) son l.i.,
tomamos una combinación lineal de ellos igualada a 0:
λ + ν = 0; λ + µ = 0; λ + ν = 0; µ = 0,
que tienen como solución única λ = 0, µ = 0, ν = 0. Luego son vectores linealmente independientes.
Se dice que los vectores v1 , . . . , vr son linealmente dependientes si no se verifica la propiedad (2.1),
es decir, si existen λ1 , . . . , λr , no todos nulos, tales que λ1 v1 + · · · + λr vr = 0.
Propiedad 2.1.8 Esta claro que v1 , . . . , vr son linealmente dependientes si y sólo si uno de los
vectores vi es combinación lineal de los demás.
Ejemplo 2.1.9 Si consideramos los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, −1), y tomamos una
combinación lineal de ellos igualada a 0:
λ + ν = 0; λ + µ = 0; λ + ν = 0; µ − ν = 0,
cuyas soluciones son todos los λ, µ, ν que verifiquen λ = −ν = −µ. Basta tomar µ = 1 para tener
la igualdad (2.2) con coeficientes no nulos.
Estos conceptos se pueden ver usando la matriz de las coordenadas del conjunto de vectores
{v1 , . . . , vr }:
Propiedad 2.1.10 Los vectores v1 = (v11 , . . . , vn1 ), . . . , vr = (v1r , . . . , vnr ) de V son linealmente
independientes si y solo si la matriz
v11 v12 ··· v1r
v ··· v2r
21 v22
M=
· · · · · · ··· · · ·
vn1 vn2 ··· vnr
tiene rango r (el máximo rango posible). Por tanto, para que sean l.i. ha de ser r ≤ n.
26 October 2, 2010
2.1.3. Bases de Rn
Definición 2.1.11 Una base de Rn es un conjunto de n vectores linealmente independientes.
Ejemplo 2.1.13 1.- El ejemplo inmediato de base es el conjunto de vectores e1 = (1, 0, . . . , 0, 0),
e2 = (0, 1, . . . , 0, 0), . . . , en = (0, 0, . . . , 0, 1), que forman una base de Rn que se llama base canónica.
2.- Como ejemplo menos obvio, comprueba que {(1, 1, 0), (1, −1, 0), (1, 0, 1)} es base de R3 .
Propiedad 2.1.14 En Rn , son equivalentes las siguientes afirmaciones sobre un conjunto de n vec-
tores B = {v1 , . . . , vn }:
(i) Son linealmente independientes,
(ii) Todo v ∈ Rn es combinación lineal de ellos.
Es fácil ver que las componentes de un vector respecto una base son únicas.
Ejemplo 2.1.16 1. En el caso de la base canónica, las coordenadas están claras. Todo v = (v1 , . . . , vn )
se puede escribir como v = v1 e1 + · · · + vn en .
2. Halla las coordenadas de (2, 3, 4) respecto la base (1, 1, 0), (1, −1, 0, ), (1, 0, 1, ).
Matriz de cambio de base. Veamos si el cambio de base lo hacemos algo más institucional.
Dado un vector v y una base B = {v1 , . . . , vn }, si λ1 , . . . , λn son las componentes de v respecto a
B, tenemos v = λ1 v1 + · · · + λn vn . Substituyendo cada vi por sus coordenadas, obtendremos las
coordenadas de v. Matricialmente tenemos
X = M X′
Ejemplo 2.2.2 Por ejemplo, el espacio vectorial generado por los vectores (1, −1, 0) y (0, 1, 1) es el
espacio V formado por todas las combinaciones lineales λ(1, −1, 0) + µ(0, 1, 1), donde λ y µ varı́an
en el conjunto de todos los números reales, es decir
V = {(λ, −λ + µ, µ) | λ, µ ∈ R},
lo que se puede escribir también ası́
V = {(x, −x + z, z) | x, z ∈ R} = {(x, y, z) | y = −x + z}.
v+w ∈V y λv ∈ V. (2.3)
O, equivalentemente
λv + µw ∈ V. (2.4)
Ejemplo 2.2.6 Por ejemplo, son subespacios vectoriales los conjuntos R3 , W = {(y, y, z); y, z ∈ R},
{0} × R2 , R × {(0, 0)}.
Es fácil ver que todo subespacio vectorial de Rn está generado por, como máximo, n vectores.
28 October 2, 2010
v = λ 1 u1 + · · · + λ k uk .
Propiedad 2.2.9 Las componentes son únicas para cada vector una vez fijada la base.
Ejemplo 2.2.10 Entre los ejemplos de subespacio vectorial descritos antes, W = {(y, y, z); y, z ∈
R} y {0} × R2 tienen dimensión 2, y R × {(0, 0)} tiene dimensión 1.
Vamos a encontrar una base de cada uno de estos espacios. Los vectores del espacio W son aquellos
de la forma (y, y, z), luego pueden escribirse en la forma
luego todo vector de W es combinación lineal de (1, 1, 0) y (0, 0, 1), por lo que estos vectores son
un sistema de generadores de W . Para ver que son base, solo falta comprobar que son linealmente
independientes, lo que se deja al lector. Puesto que W tiene una base formada por dos vectores, tiene
dimensión 2.
Análogamente, (0, 1, 0) y (0, 0, 1) forman una base de {0}×R2 y (1, 0, 0) es una base de R×{(0, 0)}.
Corolario 2.2.12 Dos bases de un mismo subespacio vectorial tienen el mismo número de elementos.
También se deduce que el k-plano vectorial generado por r vectores {v1 , . . . , vr } coincide con
el espacio vectorial generado por todos los vectores de entre los {v1 , . . . , vr } que sean linealmente
independientes, ya que el resto de los vectores de {v1 , . . . , vr } están incluidos entre las combinaciones
lineales de los que sean linealmente independientes. Por lo tanto:
Propiedad 2.2.13 La dimensión del espacio vectorial generado por los vectores {v1 , . . . , vr } coincide
con el rango de la matriz de sus componentes.
Ejemplo 2.2.14 ¿Cuál es la dimensión del espacio vectorial generado por los vectores (1, 1, 0, 1),
(1, 0, 0, 1), (2, 1, 0, 2)?.
La dimensión del espacio generado por (1, 1, 0, 1), (1, 0, 0, 1), (2, 1, 0, 2) es la del número de vectores
linealmente independientes que hay entre esos tres, que, según el resultado anterior, coincide con el
rango de la matriz:
1 1 0 1
1 0 0 1 ,
2 1 0 2
que se deja al lector comprobar que es 2, luego el espacio generado por esos vectores es 2.
W = {(x, y, z, w) ∈ R4 | x + y − z = 0, x + y + w = 0}
es un subespacio vectorial.
Los que sean l.i. (en este caso todos), forman una base del subespacio.
30 October 2, 2010
f : Rn −→ Rm , f (x1 , . . . , xn ) = (y1 , . . . , ym ).
es lineal si las coordenadas de la imagen vienen dadas por funciones lineales homogéneas. O sea,
f : R3 −→ R3 ,
Propiedad 2.3.4 Sea f una aplicación lineal y F su matriz asociada. Dado (x1 , . . . , xn ) ∈ Rn , su
imagen f (x1 , . . . , xn ) = (y1 , . . . , ym ) cumple
y1 a11 a12 ... a1n x1
y2 a a22 ... a2n x2
. = .21 ..
. . .. .. .. , (2.8)
. . . . . .
yn am1 am2 . . . amn xn
October 2, 2010 31
Ejemplo 2.3.5 Calcula usando la matriz asociada f (1, 0, −1) siendo f la aplicación lineal del ejem-
plo anterior.
No sólo el uso de matrices facilita el cálculo de las imágenes sino que las operaciones entre
aplicaciones lineales se corresponden perfectamente con las mismas operaciones entre matrices, ası́ la
suma y el producto por un escalar:
Propiedad 2.3.6 Si F y G son matrices m × n asociadas a aplicaciones lineales f, g : Rn −→ Rm ,
entonces:
a) La matriz asociada a f + g es F + G,
b) La matriz asociada a λf es λF .
Y, crucial, la composición de aplicaciones lineales corresponde al producto de matrices:
Propiedad 2.3.7 Si F es la matriz m × n asociada a una aplicación lineal f : Rn −→ Rm y G la
matriz p × m asociada a una aplicación lineal g : Rm −→ Rp , entonces la matriz asociada a g ◦ f es
GF .
Como consecuencia f es biyectiva si y sólo si la matriz asociada F es invertible. Lo que es más,
entonces, la inversa f −1 , que también es lineal, tiene F −1 como matriz asociada.
Antes de seguir veamos otro modo de obtener la matriz de una aplicación lineal conociendo las
imágenes de una base, en vez de la expresión analı́tica:
Sea la base canónica e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) de Rn . Si f
es la aplicación descrita por (2.5) o, equivalentemente, por (2.8), se tiene, sustituyendo la expresión
de los vectores e1 , e2 , . . . , en en (2.5):
f (e1 ) = (a11 , a21 , . . . , am1 ),
f (e2 ) = (a12 , a22 , . . . , am2 )
...... ...
f (en ) = (a1n , a2n , . . . , amn ),
luego la matriz F de la aplicación lineal f se puede obtener escribiendo, como columnas ordenadas,
las imágenes de los vectores e1 , e2 , . . . , en .
Veamos un ejemplo:
Ejemplo 2.3.8 Considera la aplicación lineal f : R3 −→ R3 que lleva los vectores e1 , e2 , e2 en
los vectores (1, 0, 0), (1, 2, 1), (2, 0, 1) respectivamente. Halla su matriz asociada y, usándola, calcula
f (1, 0, −1).
1 1 2 1 1 2 1 2
F = 0 2 0 y f (1, 0, −1) = 0 2 0 3 = 6 .
0 1 1 0 1 1 −1 2
32 October 2, 2010
Definición 2.3.11 El segundo subespacio asociado a una aplicación lineal f está formado por los
vectores v de Rn que cumplen f (v) = 0. Este subespacio vectorial de Rn se llama núcleo de f y se
representa por Ker f o f −1 (0).
Sus soluciones son los vectores de la forma (−y, y, y) = y(−1, 1, 1), de donde se deduce que (−1, 1, 1)
es un sistema de generadores del núcleo de f por lo que su dimensión es 1.
Hay una relación sencilla entre la dimensión del núcleo y el rango de una aplicación lineal f .
Todo subespacio vectorial V de Rn puede representarse como el núcleo de una aplicación lineal
f . Con lo que V viene descrito como el conjunto de vectores v que verifican la ecuación
f (v) = 0. (2.10)
Esta ecuación se la llama ecuación implı́cita del subespacio vectorial V .
Si usamos la matriz A que representa a f , la ecuación (2.10) se escribe como
a11 . . . a1n x1
.. .. .. ..
. . . . = 0,
am1 . . . amn xn
o, realizando el producto de matrices,
a11 x1 + · · · + a1n xn = 0
..................
am1 x1 + · · · + amn xn = 0
que es el modo habitual en que se dan las ecuaciones en implı́citas de un subespacio vectorial.
Si las m ecuaciones son linealmente independientes (lo que es lo mismo que decir que el rango de
la matriz A es m), el subespacio vectorial definido por ellas tiene de dimensión n − m.
2.3.4. Diagonalización
Dada una aplicación lineal f , en general transforma un vector en otro que no está en la misma
dirección. Es interesante ver las ‘direcciones privilegiadas’ de f . O sea vectores que se transforman
en otros en la misma dirección
f (v) = λv.
F X = λX.
Despejando, que haya una solución X no trivial equivale a que el determinante indicado se anule.
La expresión de la aplicación lineal serı́a extremadamente simple si existiera una base de vectores
propios.
Demostración Supongamos que hay un a tal que w = av. Aplicando f obtenemos f (w) = af (v).
Aplicando que son vectores propios tenemos µw = aλv. Luego
µw = λw
lo que es imposible.
Lo mismo es cierto para n vectores propios asociados a n valores propios distintos. Obteniendo