Você está na página 1de 12

Capı́tulo 2

Espacios vectoriales y aplicaciones


lineales

2.1. Estructura vectorial de Rn


En este tema hablamos de la estructura de espacio vectorial en Rn . Los elementos son vectores
v = (v1 , . . . , vn ) ∈ Rn . Por ejemplo, en R2

⃗v = (v1 , v2 )

También podemos representar un vector v = (v1 , . . . , vn ) como una matriz columna:


 
v1
 
 v2 
V = 
 .. 
.
vn

2.1.1. Suma y producto por un escalar en Rn


Empecemos viendo dos operaciones sencillas. Primero la suma

Definición 2.1.1 Dados v = (v1 , . . . , vn ), w = (w1 , . . . , wn ) ∈ Rn , se define su suma como v + w =


(v1 + w1 , . . . , vn + wn ).

Esta definición se puede ver gráficamente:

23
24 October 2, 2010

w

⃗v + w

O
⃗v
Luego v + w es el vector que se construye a partir de v y w siguiendo la regla del paralelogramo.
Y, ahora, el producto por un escalar (un número real)

Definición 2.1.2 Dados v = (v1 , . . . , vn ) ∈ Rn , y λ ∈ R, se define el producto de un escalar por un


vector: λv = (λ v1 , . . . , λ vn )

Gráficamente:

λ⃗v

O ⃗v
Luego λv es un vector que tiene la misma dirección que v, el mismo sentido si λ > 0, sentido
opuesto si λ < 0, y la “longitud” de λv es |λ| veces la de v.
Dado un vector v, se llama vector opuesto a −v = (−1)v.

Propiedad 2.1.3 Las operaciones suma y producto convierten a Rn en un espacio vectorial.

2.1.2. (In)dependencia lineal


El concepto básico en esta sección es el de combinación lineal.

Definición 2.1.4 Diremos que un vector v ∈ Rn es combinación lineal de los vectores v1 , . . . , vr si


existen λ1 , . . . , λr ∈ R tales que
v = λ1 v 1 + · · · + λr v r .
Los λ1 , . . . , λr se llaman coeficientes de la combinación lineal.

Ejemplo 2.1.5 Por ejemplo, el vector (2, 2, 1) es una combinación lineal de los vectores (1, 1, 0) y
(0, 0, 1), porque se puede escribir (2, 2, 1) = 2(1, 1, 0) + (0, 0, 1).
En este caso, los coeficientes de la combinación lineal son 2 y 1.

Por tanto, ver si un vector es combinación lineal de otros (o no) es, simplemente, ver si un sistema
es compatible (o no).
Si el sistema es determinado o indeterminado está ligado a otro concepto, el de independencia
lineal.
October 2, 2010 25

Definición 2.1.6 Se dice que los vectores v1 , . . . , vr son linealmente independientes si la única com-
binación lineal que da 0 es la que todos los coeficientes son cero.

λ1 v1 + · · · + λr vr = 0 implica λ1 = · · · = λr = 0. (2.1)

Ejemplo 2.1.7 Ası́, por ejemplo, para ver si los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, 0) son l.i.,
tomamos una combinación lineal de ellos igualada a 0:

λ(1, 1, 1, 0) + µ(0, 1, 0, 1) + ν(1, 0, 1, 0) = 0,

de donde resultan las ecuaciones:

λ + ν = 0; λ + µ = 0; λ + ν = 0; µ = 0,

que tienen como solución única λ = 0, µ = 0, ν = 0. Luego son vectores linealmente independientes.

Se dice que los vectores v1 , . . . , vr son linealmente dependientes si no se verifica la propiedad (2.1),
es decir, si existen λ1 , . . . , λr , no todos nulos, tales que λ1 v1 + · · · + λr vr = 0.

Propiedad 2.1.8 Esta claro que v1 , . . . , vr son linealmente dependientes si y sólo si uno de los
vectores vi es combinación lineal de los demás.

Veamos algún ejemplo:

Ejemplo 2.1.9 Si consideramos los vectores (1, 1, 1, 0), (0, 1, 0, 1) y (1, 0, 1, −1), y tomamos una
combinación lineal de ellos igualada a 0:

λ(1, 1, 1, 0) + µ(0, 1, 0, 1) + ν(1, 0, 1, −1) = 0, (2.2)

obtenemos las ecuaciones:

λ + ν = 0; λ + µ = 0; λ + ν = 0; µ − ν = 0,

cuyas soluciones son todos los λ, µ, ν que verifiquen λ = −ν = −µ. Basta tomar µ = 1 para tener
la igualdad (2.2) con coeficientes no nulos.

Estos conceptos se pueden ver usando la matriz de las coordenadas del conjunto de vectores
{v1 , . . . , vr }:

Propiedad 2.1.10 Los vectores v1 = (v11 , . . . , vn1 ), . . . , vr = (v1r , . . . , vnr ) de V son linealmente
independientes si y solo si la matriz
 
v11 v12 ··· v1r
v ··· v2r 
 21 v22 
M=  
· · · · · · ··· · · ·
vn1 vn2 ··· vnr
tiene rango r (el máximo rango posible). Por tanto, para que sean l.i. ha de ser r ≤ n.
26 October 2, 2010

2.1.3. Bases de Rn
Definición 2.1.11 Una base de Rn es un conjunto de n vectores linealmente independientes.

Propiedad 2.1.12 Un conjunto de n vectores de Rn es una base si y sólo si la matriz de sus


componentes tiene rango n, (o sea si y sólo si el determinante de la matriz de sus componentes es
̸= 0).

Ejemplo 2.1.13 1.- El ejemplo inmediato de base es el conjunto de vectores e1 = (1, 0, . . . , 0, 0),
e2 = (0, 1, . . . , 0, 0), . . . , en = (0, 0, . . . , 0, 1), que forman una base de Rn que se llama base canónica.
2.- Como ejemplo menos obvio, comprueba que {(1, 1, 0), (1, −1, 0), (1, 0, 1)} es base de R3 .

Propiedad 2.1.14 En Rn , son equivalentes las siguientes afirmaciones sobre un conjunto de n vec-
tores B = {v1 , . . . , vn }:
(i) Son linealmente independientes,
(ii) Todo v ∈ Rn es combinación lineal de ellos.

Definición 2.1.15 Si B = {v1 , . . . , vn } forman una base de Rn , se llaman coordenadas o compo-


nentes de v ∈ Rn respecto de la base B a los números reales λ1 , . . . , λn tales que v = λ1 v1 +· · ·+λn vn .

Es fácil ver que las componentes de un vector respecto una base son únicas.

Ejemplo 2.1.16 1. En el caso de la base canónica, las coordenadas están claras. Todo v = (v1 , . . . , vn )
se puede escribir como v = v1 e1 + · · · + vn en .
2. Halla las coordenadas de (2, 3, 4) respecto la base (1, 1, 0), (1, −1, 0, ), (1, 0, 1, ).

Matriz de cambio de base. Veamos si el cambio de base lo hacemos algo más institucional.
Dado un vector v y una base B = {v1 , . . . , vn }, si λ1 , . . . , λn son las componentes de v respecto a
B, tenemos v = λ1 v1 + · · · + λn vn . Substituyendo cada vi por sus coordenadas, obtendremos las
coordenadas de v. Matricialmente tenemos

X = M X′

donde X es la matriz de las coordenadas de v, X ′ la de las componentes respecto a B y M las de las


coordenadas de v1 , . . . , vn . La matriz M se llama también matriz de cambio.
Si, como es habitual, conocemos las coordenadas X y queremos conocer las componentes X ′ ,
obtenemos
X ′ = M −1 X.

2.2. k-planos vectoriales


Vamos a repetir el estudio de conjuntos l.i. de vectores, etc., en subconjuntos de Rn que lo
permitan. Veamos que tipo de subconjuntos.
October 2, 2010 27

2.2.1. Subespacios vectoriales


Empecemos viendo el subespacio vectorial generado por un conjunto de vectores.

Definición 2.2.1 Sea un conjunto de vectores v1 , . . . , vr ∈ Rn . Se llama subespacio vectorial generado


por v1 , . . . , vr al conjunto V de todas las posibles combinaciones lineales de los vectores v1 , . . . , vr .
Se dice también que v1 , . . . , vr generan V . Se usará la notación

V = < {v1 , . . . , vr } > .

Ejemplo 2.2.2 Por ejemplo, el espacio vectorial generado por los vectores (1, −1, 0) y (0, 1, 1) es el
espacio V formado por todas las combinaciones lineales λ(1, −1, 0) + µ(0, 1, 1), donde λ y µ varı́an
en el conjunto de todos los números reales, es decir
V = {(λ, −λ + µ, µ) | λ, µ ∈ R},
lo que se puede escribir también ası́
V = {(x, −x + z, z) | x, z ∈ R} = {(x, y, z) | y = −x + z}.

Es fácil ver que

Propiedad 2.2.3 Si V ⊆ Rn es el subespacio vectorial generado por v1 , . . . , vr cumple que para


cualesquiera v, w ∈ V y λ ∈ R, se tiene

v+w ∈V y λv ∈ V. (2.3)

O, equivalentemente
λv + µw ∈ V. (2.4)

Nota 2.2.4 En particular, tomando λ = 0 en (2.3), resulta que


1.- 0 := (0, . . . , 0) pertenece a cualquier subespacio vectorial V . Obsérvese que denotamos por 0
tanto el número 0 como el vector (0, . . . , 0).
2.- Si v ∈ V , la recta en la dirección de v que pasa por el origen (es decir, {λ v; λ ∈ R})
está contenida en V .

Pongamos nombre a los subconjuntos de Rn que cumplen (2.4):

Definición 2.2.5 V ⊆ Rn es un subespacio vectorial si y solo si verifica que para cualesquiera


v, w ∈ V y λ ∈ R, se tiene
λv + µw ∈ V.

Ejemplo 2.2.6 Por ejemplo, son subespacios vectoriales los conjuntos R3 , W = {(y, y, z); y, z ∈ R},
{0} × R2 , R × {(0, 0)}.

Es fácil ver que todo subespacio vectorial de Rn está generado por, como máximo, n vectores.
28 October 2, 2010

2.2.2. Base de un subespacio vectorial


Vamos a vueltas con la dimensión de un subespacio vectorial.

Definición 2.2.7 Se llama k-plano vectorial de Rn o subespacio vectorial de dimensión k al sube-


spacio vectorial de Rn generado por k vectores linealmente independientes, que se llaman base del
k-plano vectorial.

Por lo tanto, una base de un subespacio vectorial V de Rn es un conjunto de vectores de Rn


linealmente independientes y que generan V .
Veremos luego que dos bases de un mismo subespacio vectorial tienen el mismo número de ele-
mentos, por lo que la dimensión del subespacio está bien definida.

Definición 2.2.8 Si u1 , . . . , uk es una base cualquiera de un k-plano vectorial V y v ∈ V , se llaman


componentes de v respecto de la base {u1 , . . . , uk } a los números reales λ1 , . . . , λk tales que

v = λ 1 u1 + · · · + λ k uk .

Propiedad 2.2.9 Las componentes son únicas para cada vector una vez fijada la base.

Ejemplo 2.2.10 Entre los ejemplos de subespacio vectorial descritos antes, W = {(y, y, z); y, z ∈
R} y {0} × R2 tienen dimensión 2, y R × {(0, 0)} tiene dimensión 1.
Vamos a encontrar una base de cada uno de estos espacios. Los vectores del espacio W son aquellos
de la forma (y, y, z), luego pueden escribirse en la forma

(y, y, z) = y(1, 1, 0) + z(0, 0, 1),

luego todo vector de W es combinación lineal de (1, 1, 0) y (0, 0, 1), por lo que estos vectores son
un sistema de generadores de W . Para ver que son base, solo falta comprobar que son linealmente
independientes, lo que se deja al lector. Puesto que W tiene una base formada por dos vectores, tiene
dimensión 2.
Análogamente, (0, 1, 0) y (0, 0, 1) forman una base de {0}×R2 y (1, 0, 0) es una base de R×{(0, 0)}.

Como al estudiar independencia lineal en Rn , la podemos reducir al rango de la matriz de sus


componentes. Pero, igualmente se puede reducir el que sea un sistema de generadores. Por tanto:

Propiedad 2.2.11 Si V es un k-plano vectorial, son equivalentes las siguientes afirmaciones:


(i) k vectores {v1 , . . . , vk } de V son linealmente independientes,
(ii) k vectores {v1 , . . . , vk } de V son un sistema de generadores de V , y
En cualquiera de los dos casos, los k vectores {v1 , . . . , vk } son una base de V .
October 2, 2010 29

Corolario 2.2.12 Dos bases de un mismo subespacio vectorial tienen el mismo número de elementos.

También se deduce que el k-plano vectorial generado por r vectores {v1 , . . . , vr } coincide con
el espacio vectorial generado por todos los vectores de entre los {v1 , . . . , vr } que sean linealmente
independientes, ya que el resto de los vectores de {v1 , . . . , vr } están incluidos entre las combinaciones
lineales de los que sean linealmente independientes. Por lo tanto:

Propiedad 2.2.13 La dimensión del espacio vectorial generado por los vectores {v1 , . . . , vr } coincide
con el rango de la matriz de sus componentes.

Veamos un ejemplo de aplicación directa de esta propiedad:

Ejemplo 2.2.14 ¿Cuál es la dimensión del espacio vectorial generado por los vectores (1, 1, 0, 1),
(1, 0, 0, 1), (2, 1, 0, 2)?.
La dimensión del espacio generado por (1, 1, 0, 1), (1, 0, 0, 1), (2, 1, 0, 2) es la del número de vectores
linealmente independientes que hay entre esos tres, que, según el resultado anterior, coincide con el
rango de la matriz:  
1 1 0 1
 
1 0 0 1 ,
2 1 0 2
que se deja al lector comprobar que es 2, luego el espacio generado por esos vectores es 2.

2.2.3. Subespacios vectoriales en forma implı́cita


A veces definimos un subespacio vectorial mediante ecuaciones. Por ejemplo

Ejemplo 2.2.15 Prueba que el subconjunto de R4 definido como

W = {(x, y, z, w) ∈ R4 | x + y − z = 0, x + y + w = 0}

es un subespacio vectorial.

¿Que hacemos para hallar su dimensión (o una base)?


Primero hallamos un sistema de generadores de W resolviendo el sistema

Ejemplo 2.2.16 Ası́, los (x, y, z, w) ∈ W cumplen:


}
x+y−z = 0
, z = x + y y w = −x − y.
x+y+w = 0

Por lo que {(1, 0, 1, −1), (0, 1, 1, −1)} es n sistema de generadores.

Los que sean l.i. (en este caso todos), forman una base del subespacio.
30 October 2, 2010

2.3. Aplicaciones lineales


En esta sección estudiamos el ejemplo más simple de funciones, las lineales.

Definición 2.3.1 Una aplicación

f : Rn −→ Rm , f (x1 , . . . , xn ) = (y1 , . . . , ym ).

es lineal si las coordenadas de la imagen vienen dadas por funciones lineales homogéneas. O sea,

y1 = a11 x1 + a12 x2 + · · · + a1n xn ,


y2 = a21 x1 + a22 x2 + · · · + a2n xn ,
..
. (2.5)
ym = am1 x1 + am2 x2 + · · · + amn xn , (2.6)

2.3.1. La matriz de una aplicación lineal


Una de las utilidades de las matrices es la posibilidad de describir con ellas las aplicaciones
lineales.

Definición 2.3.2 La matriz asociada a la aplicación lineal f de (2.3.1) es la matriz F de tipo m × n


formada por los coeficientes  
a11 a12 . . . a1n
 
 a21 a22 . . . a2n 

F =  . ..  (2.7)
. .. .. 
 . . . . 
am1 am2 . . . amn
Ejemplo 2.3.3 Calcula la matriz asociada a la aplicación lineal

f : R3 −→ R3 ,

dada por y1 = x1 ; y2 = 2x1 + x2 ; y3 = −x1 + 3x2

La matriz asociada permite el cálculo fácil de la imagen de un vector.

Propiedad 2.3.4 Sea f una aplicación lineal y F su matriz asociada. Dado (x1 , . . . , xn ) ∈ Rn , su
imagen f (x1 , . . . , xn ) = (y1 , . . . , ym ) cumple
    
y1 a11 a12 ... a1n x1
    
 y2  a a22 ... a2n   x2 
 .  =  .21 ..   
.  . .. ..   ..  , (2.8)
.  . . . .  . 
yn am1 am2 . . . amn xn
October 2, 2010 31

Ejemplo 2.3.5 Calcula usando la matriz asociada f (1, 0, −1) siendo f la aplicación lineal del ejem-
plo anterior.

No sólo el uso de matrices facilita el cálculo de las imágenes sino que las operaciones entre
aplicaciones lineales se corresponden perfectamente con las mismas operaciones entre matrices, ası́ la
suma y el producto por un escalar:
Propiedad 2.3.6 Si F y G son matrices m × n asociadas a aplicaciones lineales f, g : Rn −→ Rm ,
entonces:
a) La matriz asociada a f + g es F + G,
b) La matriz asociada a λf es λF .
Y, crucial, la composición de aplicaciones lineales corresponde al producto de matrices:
Propiedad 2.3.7 Si F es la matriz m × n asociada a una aplicación lineal f : Rn −→ Rm y G la
matriz p × m asociada a una aplicación lineal g : Rm −→ Rp , entonces la matriz asociada a g ◦ f es
GF .
Como consecuencia f es biyectiva si y sólo si la matriz asociada F es invertible. Lo que es más,
entonces, la inversa f −1 , que también es lineal, tiene F −1 como matriz asociada.
Antes de seguir veamos otro modo de obtener la matriz de una aplicación lineal conociendo las
imágenes de una base, en vez de la expresión analı́tica:
Sea la base canónica e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1) de Rn . Si f
es la aplicación descrita por (2.5) o, equivalentemente, por (2.8), se tiene, sustituyendo la expresión
de los vectores e1 , e2 , . . . , en en (2.5):
f (e1 ) = (a11 , a21 , . . . , am1 ),
f (e2 ) = (a12 , a22 , . . . , am2 )
...... ...
f (en ) = (a1n , a2n , . . . , amn ),
luego la matriz F de la aplicación lineal f se puede obtener escribiendo, como columnas ordenadas,
las imágenes de los vectores e1 , e2 , . . . , en .
Veamos un ejemplo:
Ejemplo 2.3.8 Considera la aplicación lineal f : R3 −→ R3 que lleva los vectores e1 , e2 , e2 en
los vectores (1, 0, 0), (1, 2, 1), (2, 0, 1) respectivamente. Halla su matriz asociada y, usándola, calcula
f (1, 0, −1).
      
1 1 2 1 1 2 1 2
      
F = 0 2 0 y f (1, 0, −1) = 0 2 0  3  = 6 .
0 1 1 0 1 1 −1 2
32 October 2, 2010

2.3.2. Rango y núcleo de una aplicación lineal


Sea f : Rn −→ Rm una aplicación lineal, vamos a estudiar dos subespacios asociados a f que son
muy importantes.

Definición 2.3.9 En primer lugar, el espacio imagen de f que es el subespacio vectorial de Rm


generado por las imágenes de la base canónica de Rn . Se representa por f (Rn ) y su dimensión se
llama rango de f .

De la representación de f como una matriz y de la relación entre la independencia lineal de


vectores y el rango de la matriz de sus componentes se deduce que
El rango de una aplicación lineal f es igual al rango de su matriz F .

Ejemplo 2.3.10 Ası́, la matriz de f : R3 −→ R2 definida como f (x, y, z) = (x + y, y − z), es


( )
1 1 0
0 1 −1

y su rango es el rango de la matriz, o sea 2

Definición 2.3.11 El segundo subespacio asociado a una aplicación lineal f está formado por los
vectores v de Rn que cumplen f (v) = 0. Este subespacio vectorial de Rn se llama núcleo de f y se
representa por Ker f o f −1 (0).

El núcleo es el conjunto de soluciones del sistema de ecuaciones f (v) = 0. Siempre existe la


solución trivial. Cuantas más viene dado por la dimensión del núcleo.

Ejemplo 2.3.12 Encontremos explı́citamente el núcleo de la aplicación anterior f . Hemos de resolver


la ecuación f (x, y, z) = (0, 0), es decir
}
x+y = 0
.
y−z = 0

Sus soluciones son los vectores de la forma (−y, y, y) = y(−1, 1, 1), de donde se deduce que (−1, 1, 1)
es un sistema de generadores del núcleo de f por lo que su dimensión es 1.

Hay una relación sencilla entre la dimensión del núcleo y el rango de una aplicación lineal f .

Propiedad 2.3.13 Si f : Rn −→ Rm es una aplicación lineal,

n = dim(f −1 (0)) + dimf (Rn ). (2.9)


October 2, 2010 33

Ejemplo 2.3.14 En nuestro ejemplo, 3 = 2 + 1.

Todo subespacio vectorial V de Rn puede representarse como el núcleo de una aplicación lineal
f . Con lo que V viene descrito como el conjunto de vectores v que verifican la ecuación
f (v) = 0. (2.10)
Esta ecuación se la llama ecuación implı́cita del subespacio vectorial V .
Si usamos la matriz A que representa a f , la ecuación (2.10) se escribe como
  
a11 . . . a1n x1
 .. .. ..   .. 
 . . .   .  = 0,
am1 . . . amn xn
o, realizando el producto de matrices,


 a11 x1 + · · · + a1n xn = 0
..................


am1 x1 + · · · + amn xn = 0
que es el modo habitual en que se dan las ecuaciones en implı́citas de un subespacio vectorial.
Si las m ecuaciones son linealmente independientes (lo que es lo mismo que decir que el rango de
la matriz A es m), el subespacio vectorial definido por ellas tiene de dimensión n − m.

2.3.3. Cambio de base y la matriz de una aplicación lineal


Recordemos que dada una aplicación lineal f : Rn −→ Rm le hemos asociado una matriz F de
manera que si X es la matriz de coordenadas de un vector v, la matriz Y de coordenadas de su
imagen f (y) se obtiene como
Y = FX
Lo mismo podemos hacer con bases genéricas B y B ′ obteniendo
Y ′ = F ′X ′.
En la subsección 2.1.3 hemos visto que
X = M X′
donde M es la matriz de cambio de la base B respecto a la canónica. Igualmente,
Y ′ = N −1 Y.
Sustituyendo arriba, obtenemos
Y ′ = N −1 Y = N −1 F X = N −1 F M X ′
por lo que
F ′ = N −1 F M.
34 October 2, 2010

2.3.4. Diagonalización
Dada una aplicación lineal f , en general transforma un vector en otro que no está en la misma
dirección. Es interesante ver las ‘direcciones privilegiadas’ de f . O sea vectores que se transforman
en otros en la misma dirección

Definición 2.3.15 Dada una aplicación lineal f : Rn −→ Rn , decimos que un vector v ∈: Rn es un


vector propio (autovector) si hay un número real no nulo λ tal que

f (v) = λv.

Decimos que λ es el valor propio asociado a v. Asimismo, v es un vector propio asociado a λ.

Propiedad 2.3.16 Si F es la matriz n × n asociada a una aplicación lineal f : Rn −→ Rm , λ es un


valor propio de f si y sólo si es raı́z del polinomio | A − λI | (este polinomio se llama caracterı́stico).

Demostración La ecuación anterior expresada matricialmente es

F X = λX.

Despejando, que haya una solución X no trivial equivale a que el determinante indicado se anule. 

La expresión de la aplicación lineal serı́a extremadamente simple si existiera una base de vectores
propios.

Definición 2.3.17 Decimos que una aplicación lineal f : Rn −→ Rn , es diagonalizable si admite


una base de vectores propios.

Respecto a esa base, la matriz de la aplicación lineal es diagonal.


Veamos un caso en el que sucede.

Propiedad 2.3.18 Sea una aplicación lineal f : Rn −→ Rn , v y w vectores propios asociados a


valores propios distintos. Entonces v y w son l.i.

Demostración Supongamos que hay un a tal que w = av. Aplicando f obtenemos f (w) = af (v).
Aplicando que son vectores propios tenemos µw = aλv. Luego

µw = λw

lo que es imposible. 

Lo mismo es cierto para n vectores propios asociados a n valores propios distintos. Obteniendo

Propiedad 2.3.19 Si F es la matriz n × n asociada a una aplicación lineal f : Rn −→ Rn y su


polinomio caracterı́stico tiene n raı́ces simples distintas, existe una base de vectores propios.

Você também pode gostar