Você está na página 1de 130

Índice general

1. Sistema de ecuaciones y Matrices 3


1.1. Sistemas lineales de ecuaciones . . . . . . . . . . . . . . . . . . . 3
1.2. Matrices en un sistema de ecuaciones . . . . . . . . . . . . . . . . 6
1.3. Metódo de eliminación de Gauss - Jordan . . . . . . . . . . . . . 8
1.4. Sistema homogeneo de ecuaciones lineales . . . . . . . . . . . . . 11
1.5. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6. Sistemas no homogeneos de ecuaciones lineales . . . . . . . . . . 13
1.7. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.8. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 17
1.9. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.10. El Determinante de una matriz . . . . . . . . . . . . . . . . . . . 24
1.11. Desarollo del determinante por cofactores . . . . . . . . . . . . . 27
1.12. La adjunta y la inversa de una matriz . . . . . . . . . . . . . . . 31
1.13. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2. Espacios Vectoriales 47
2.1. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . 50
2.2.1. Subespacios generados por un conjunto de vectores . . . . 52
2.2.2. Operaciones con subespacios . . . . . . . . . . . . . . . . 53
2.2.3. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.3. Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4. Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.4.1. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.4.2. Subespacios de espacios de dimensión finita . . . . . . . . 68
2.5. Espacios Vectoriales con producto interno . . . . . . . . . . . . . 69
2.5.1. Norma y distancia . . . . . . . . . . . . . . . . . . . . . . 73
2.5.2. Ángulo entre dos vectores . . . . . . . . . . . . . . . . . . 75
2.6. Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.6.1. Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . 78
2.7. Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 82

1
ÍNDICE GENERAL 2

3. Transformaciones Lineales 89
3.1. Conceptos fundamentales . . . . . . . . . . . . . . . . . . . . . . 89
3.2. Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.3. El teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . 95
3.4. Representación matricial de una transformación lineal . . . . . . 96
3.5. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.6. Operaciones entre transformaciones lineales . . . . . . . . . . . . 108
3.6.1. Suma y multiplicación por escalar . . . . . . . . . . . . . 108
3.6.2. Composición . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.6.3. Inversa de una Transformación lineal . . . . . . . . . . . . 110

4. Valores Propios y vectores propios 117


4.1. Valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.2. Vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.3. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.4. Polinomio mínimo y teorema de Caley - Hamilton . . . . . . . . 128
4.5. Diagonalizaión ortogonal . . . . . . . . . . . . . . . . . . . . . . . 130
Capítulo 1

Sistema de ecuaciones y
Matrices

1.1. Sistemas lineales de ecuaciones


Una ecuación lineal es una expresión del tipo

a1 x1 + a2 x2 · · · + an xn = b

donde a1 , . . . , an b ∈ R.

A continuación daremos la terminología que utilizaremos:

A los números a1 , . . . , an los llamaremos coeficientes, al número b le lla-


maremos término independiente, y a x1 , . . . , xn les llamaremos incognitas.

En el caso que b = 0 a la ecuación le llamaremos homogénea, en caso


contrario le llamaremos no homogénea.
Un sistema lineal de m ecuaciones y n incognitas, es un conjunto de ecua-
ciones lineales de la siguiente forma:

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2 (1.1)
···
am1 x1 + am2 x2 + · · · + amn xn = bm

donde aij ∈ R con i = 1, . . . , m, j = 1, . . . , n, y x1 , . . . , xn las incognitas.

En el caso que b1 = . . . = bm = 0 a la ecuación le llamaremos homogénea,


en caso contrario le llamaremos no homogénea.

3
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 4

Al conjunto de las soluciones del sistema le llamaremos conjunto solución.


Si el sistema tiene solución le llamaremos consistente, en caso contrario
diremos que es inconsistente.

Ejemplos 1

1. Sistema de tres ecuaciones y dos incognitas


2x1 + 3x2 = 0
5x1 + 2x2 = 1

2. Sistema de tres ecuaciones y tres incognitas


3x1 + x2 − x3 = 5
2x1 + 12 x2 + 4x3 = 0
5x1 − 4x2 − x3 = 8

Diremos que dos sistemas de ecuaciones son equivalentes si tienen el mismo nú-
mero de incognitas, ecuaciones y también el mismo conjunto solución.

Para obtener sistemas de ecuaciones equivalentes a 1.1, basta realizar las si-
guientes operaciones (elementales) entre las ecuaciones de 1.1:
Intercambiar de posición las ecuaciones,
Multiplicar una ecuación por una constante (no cero),
Sumar a una ecuación un multiplo de otra.
Para encontrar la solución de 1.1 necesitamos encontrar un sistema equivalente
más sencillo mediante operaciones elementales.

Ejemplos 2

1. Resolver el siguiente sistema lineal

3x1 + 2x2 = 7, E1
x1 + x2 = 3, E2

mediante operaciones elementales.


Intercambiamos las ecuaciones E1 y E2

x1 + x2 = 3, E2
3x1 + 2x2 = 7, E1

A E1 le restamos 3E2

x1 + x2 = 3, E2
−x2 = −2, E1
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 5

multiplicandole −1 a E1
x1 + x2 = 3, E2
x2 = 2, E1
restandole a E2 la ecuación E1
x1 = 1, E2
x2 = 2, E1
así obtuvimos un sistema equivalente más sencillo que nos da la solución
del sistema original.
2. Resolver el siguiente sistema lineal
x1 + x2 + 3x3 = 12, E1
2x1 + 3x2 − 5x3 = −21, E2
5x1 + 2x2 + 5x3 = 23, E3
mediante operaciones elementales.
A E2 le restamos 2E1 , y a E3 le restamos 5E1
x1 + x2 + 3x3 = 12, E1
x2 − 11x3 = −45, E2
−3x2 − 10x3 = −37, E3
a E3 le sumamos 3E2
x1 + x2 + 3x3 = 12, E1
x2 − 11x3 = −45, E2
−43x3 = −172, E3
dividiendo E3 entre −43
x1 + x2 + 3x3 = 12, E1
x2 − 11x3 = −45, E2
x3 = 4, E3
restando a E1 la ecuación 3E3 , y sumando a E2 la ecuación 11E3
x1 + x2 = 0, E1
x2 = −1, E2
x3 = 4, E3
finalmente restando E2 a E1
x1 = 0, E1
x2 = −1, E2
x3 = 4, E3
así obtuvimos un sistema equivalente más sencillo que nos da la solución
del sistema original.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 6

1.2. Matrices en un sistema de ecuaciones


Una matriz A de orden m × n (m filas, n columnas) es un arreglo rectangular
de números reales:  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A= . .. .. ..  ,
 .. . . . 
am1 am2 ··· amn
también se denota
A = (aij )j=1,...,n
i=1,...,m

Observación 1
Dos matrices son iguales si tienen el mismo orden y cada una de sus entradas
coinciden.

Ejemplos 3

1. Matriz 2 × 2 µ ¶
1 2
3 4

2. Matriz 2 × 3 µ ¶
1 5 2
3 3 1

3. Matriz 3 × 3  
1 1 1
 0 1 2 
0 2 1

Dado un sistema de m ecuaciones con n incognitas

a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
..
.
am1 x1 + · · · + amn xn = bm

le asociamos la matriz de orden m × n


 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A= . .. .. .. 
 .. . . . 
am1 am2 ··· amn
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 7

llamada la matriz del sistema, pero tambien le asociamos la matriz


 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
 
Aa =  . .. .. .. 
 .. . . . 
am1 am2 · · · amn bm

llamada la matriz aumentada del sistema.

Ejemplos 4

1. Escribir las matrices asociadas al siguiente sistema

3x1 + 2x2 − x3 = 2
x1 − x2 − x3 = −5
−x1 + x2 − 4x3 = 0.

Las matrices del sistema y aumentada del sistema son


   
1 2 −1 1 2 −1 2
A =  1 −1 −1  , Aa =  1 −1 −1 −5  ,
−1 1 −4 −1 1 −4 0

2. Escribir las matrices asociadas al siguiente sistema

x1 = 2
x2 = 1
x3 = 4.

Las matrices del sistema y aumentada del sistema son


   
1 0 0 1 0 0 2
A= 0 1 0 , Aa =  0 1 0 1 ,
0 0 1 0 0 1 4

Diremos que una matriz A está en la forma escalonada reducida si cumple:


a) Si las lineas que tienen solo ceros se encuentran en la parte inferior de la
matriz,
b) Si para cada linea que no conste de ceros, tiene como primer elemento no
cero a 1,
c) Las lineas estan ordenadas de tal manera que el primer elemento no cero
de la primera linea está a la izquierda del primer elemento de la segunda
linea y este a su vez está a la izquierda del primer elemento de la tercera
linea y así sucesivamente,
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 8

d) Cada columna que contiene el primer elemento no cero de alguna linea,


tiene ceros en las restantes entradas.

Observación 2
Si A solo satisface a), b) y c) diremos que está en la forma escalonada.

Ejemplos 5
Decir cuales matrices estan en la forma escalonada y escalonada reducida
   
1 0 0 2 0 0 1 0 3
 0 1 0 1 ,  0 0 0 1 2 ,
0 0 1 3 0 0 0 0 0
   
1 6 0 1 0 0
 0 0 1 ,  0 1 0 ,
0 0 0 0 0 1
   
1 0 3 2 0 1 2 1
 0 1 0 1 ,  0 0 1 2 ,
0 0 1 4 0 0 0 0
 
0 1 0
 1 0 0 .
0 0 1

1.3. Metódo de eliminación de Gauss - Jordan


El método de Gauss - Jordan nos dice que podemos encontrar la solución de
un sistema de ecuaciones llevando la matriz aumentada del sistema a la forma
escalonada reducida por medio de las siguientes operaciones

a) Intercambiar filas de la matriz,


b) Multiplicar una fila por una constante no cero,

c) Sustituir una linea por ella misma mas (o menos) k veces otra linea de la
matriz.

Observación 3
Así como estas operaciones aplicadas al sistema de ecuaciones nos da un sistema
equivalente al original. Diremos que la matriz resultante de estas operaciones
será equivalente a la matriz original.

Ejemplos 6
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 9

1. Llevar a la forma reducida escalonada la matriz


 
3 −2 2 1 1
 1 −1 −1 −3 0 
 
 2 1 2 4 5 
4 −4 1 2 4

Primero intercambiamos de lugar F1 y F2 , a su vez mediante operaciones


elementales:
   
1 −1 −1 −3 0 1 −1 −1 −3 0
 3 −2 2 1 1   10 1 
  ∼ F2 − 3F1  0 1 5 ∼
 2 1 2 4 5  F3 − 2F1
 0 3 4 10 5  F3 −3F2
F4 − 4F1
4 −4 1 2 4 0 0 5 14 4
   
1 −1 −1 −3 0 1 −1 −1 −3 0
 0 1 5 10 1   0 1 5 10 1 
   
 0 0 −11 −20 2  ∼F3 /−11  0 0 1 20
− 2  ∼F4 −5F3
11 11
0 0 5 14 4 0 0 5 14 4
   
1 −1 −1 −3 0 1 −1 −1 −3 0
 0 1 5 10 1   0 1 5 10 1 
 
2  ∼F4 / 54
 
2  ∼ F3 − 11
 0 0 1 20
− 11 11  0 0 1 20
− 11
20 F
F2 − 10F4
4
11 11
54 54
0 0 0 11 11 0 0 0 1 1 F1 + 3F4

   
1 −1 −1 0 3 1 −1 0 0 1
 0 1 5 0 −9   
  ∼ F1 + F3  0 1 0 0 1  ∼F1 +F2
 0 0 1 0 −2  F2 − 5F3
 0 0 1 0 −2 
0 0 0 1 1 0 0 0 1 1
 
1 0 0 0 2
 0 1 0 0 1 
 
 0 0 1 0 −2  .
0 0 0 1 1

2. Resolver el siguiente sistema de ecuaciones

2x1 + 6x2 + 14x3 + 4x4 = 4


x1 − 2x2 + x3 − 4x4 = 1
x1 − 12x2 − 11x3 − 16x4 = 15

La matriz aumentada del sistema es


   
2 6 14 4 4 1 −2 1 −4 1
 1 −2 1 −4 1  ∼ F1 ↔ F2  2 6 14 4 4 ∼ F2 − 2F1
F3 − F1
1 −12 −11 −16 15 1 −12 −11 −16 15
   
1 −2 1 −4 1 1 −2 1 −4 1
 0 10 12 12 2  ∼ F2 /2  0 5 6 6 1  ∼F3 +F2
1 −10 −12 −12 14 −5 −6 −6 7
F3 /2
0
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 10
 
1 −2 1 −4 1
 0 5 6 6 1 
0 0 0 0 8
así el sistema resultante es
x1 − 2x2 + x3 − 4x4 = 1
5x2 + 6x3 − 6x4 = 1
0 = 8
en donde la última ecuación es una contradicción, lo cual nos indica que
el sistema es inconsistente (no tiene solución).
3. Resolver
2x1 + 2x2 + 4x3 = 10
x2 + 2x3 + 2x4 + 12x5 = 0
x1 + x2 + 2x3 + 5x4 + 30x5 = 0
x1 + x2 + 2x3 + 2x4 + 12x5 = 3
La matriz aumentada del sistema es
   
2 2 4 0 0 10 1 1 2 2 12 3
 0 1 2 2 12 0   0 1 2 2 12 0 
   
 1 1 2 5 30 0  ∼ F1 ↔ F4  1 1 2 5 30 0  ∼F4 /2
1 1 2 2 12 3 2 2 4 0 0 10
   
1 1 2 2 12 3 1 1 2 2 12 3
 0 1 2 2 12 0   0 1 2 2 12 0 
    ∼ F3 /3
 1 1 2 5 30 0  ∼ FF34 − F1
− F1
 0 0 0 3 18 −3  F4 /2

1 1 2 0 0 5 0 0 0 −2 −12 2
   
1 1 2 2 12 3 1 1 2 2 12 3
 0 1 2 2 12 0   
  ∼F4 +F3  0 1 2 2 12 0  ∼ F1 − 2F3
 0 0 0 1 6 −1   0 0 0 1 6 −1  F2 − 2F3

0 0 0 −1 −6 1 0 0 0 0 0 0
   
1 1 2 0 0 5 1 0 0 0 0 3
 0 1 2 0 0 2   0 1 2 0 0 2 
   
 0 0 0 1 6 −1  ∼F1 −F2  0 0 0 1 6 −1 
0 0 0 0 0 0 0 0 0 0 0 0
así el sistema resultante es
x1 = 3
x2 + 2x3 = 2
x4 + 6x5 = −1
de aquí
x1 = 3
x2 = 2(1 − x3 )
x4 = −1 − 6x5 ,
si x3 = t, x5 = s por lo tanto el conjunto solución es
{(3, 2(1 − t), t, −1 − 6s, s)| s, t ∈ R} ⊂ R3
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 11

1.4. Sistema homogeneo de ecuaciones lineales


Consideremos el sistema de ecuaciones homogeneo siguiente

a11 x1 + a12 x2 + · · · + a1n xn = 0


a21 x1 + a22 x2 + · · · + a2n xn = 0
.. .. ..
. . .
am1 x1 + am2 x2 + · · · + amn xn = 0,

notemos que el sistema tendrá al menos una solución (la trivial) x1 = x2 =


· · · = xn = 0. El siguiente teorema nos dice bajo que condiciones podemos saber
si el sistema acepta mas soluciones que la trivial.

Teorema 1
Consideremos un sistema homogeneo con m ecuaciones y n incognitas. Si m <
n, entonces el sistema tiene una infinidad de soluciones.

Demostración

Consideremos la matriz del sistema, llevemosla a la forma reducida escalo-


nada, y supongamos que solo r filas son diferentes de cero, así solo encontramos
solución para r variables (r < n) y n − r variables quedan libres.

1.5. Matrices
Una matriz A de orden m × n (m filas, n columnas) es un arreglo rectangular
de números reales:
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A= . .. .. .. ,
 .. . . . 
am1 am2 ··· amn

también se denota
A = (aij )j=1,...,n
i=1,...,m .

Si m = n a la matriz A le llamaremos cuadrada, y la denotaremos A =


(aij )i,j=1,...,n .

Si A = (aij )i,j=1,...,n es una matriz cuadrada, definimos la diagonal principal


de A como los elementos aii con i = 1, . . . , n:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A= . .. .. ..  .
 .. . . . 
am1 am2 ··· amn
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 12

Definimos la matriz identidad In de orden n × n como la matriz en la que


todos sus elementos fuera de la diagonal son cero y en la diagonal valen 1:
 
1 0 ··· 0
 0 1 ··· 0 
 
In =  . . .
. . ... 
.
 .. .. 
0 0 ··· 1

Definimos la matriz cero de orden m × n como aquella que solo tiene ceros:
 
0 0 ··· 0
 0 0 ··· 0 
 
0m×n =  . . .
. . ... 
.
 .. .. 
0 0 ··· 0

Operaciones

Sean A = (aij ), B = (bij ) matrices de orden m × n. Definimos las siguientes


operaciones:

A ± B = (aij + bij )i,j=1,...,n ,


Si α ∈ R, αA = (αaij )i,j=1,...,n ,

Si C = (crs ) de orden n × l
à !s=1,...,m
X
n
AC = aik cks .
k=1 i=1,...,m

Propiedades de la suma

Sean A, B, y C matrices del mismo orden m × n, entonces


A + B = B + A Conmutativa,

A + (B + C) = (A + B) + C Asociativa,
Existe 0m×n tal que A + 0m×n = A Elemento neutro,

Existe (−A) tal que A + (−A) = 0m×n Inverso aditivo,

α(A + B) = αA + αB Distribución con el producto por escalar


(α + β)A = αA + βA,

(α β)A = α(βA) Asociativo respecto al producto por escalar,


1 A = A Identidad respecto a la multiplicación por escalar.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 13

Propiedades del producto

Sean A, B, C, y D matrices de orden m×n, n×r, r×l, r×l correspondientemente


entonces
A(BC) = (AB)C Asociativa,
A(D + C) = AD + AC Distributiva,

Existe 0m×n tal que 0m×n A = 0 Elemento neutro,


α(AB) = A(αB) Asociativa con el producto por escalar,
I A = AI = A Identidad respecto a la multiplicación .
Observación 4

1. El producto de matrices en general no es conmutativo (AB 6= BA). Ya que


esto solo se cumplirá para matrices particulares que veremos más adelante.
2. La ley de cancelación no se cumple: AB = AC no implica que B = C, por
ejemplo tomando
µ ¶ µ ¶ µ ¶
2 2 2 3 3 −2
A= , B= , C= .
1 1 4 5 3 10

1.6. Sistemas no homogeneos de ecuaciones linea-


les
Consideremos el sistema no homogeneo de ecuaciones lineales
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
.. .. ..
. . .
am1 x1 + · · · + amn xn = bm ,
definimos las matrices
     
a11 a12 ··· a1n b1 x1
 a21 a22 ··· a2n   b2   x2 
     
A= . .. .. .. , B =  .. , y X =  .. ,
 .. . . .   .   . 
am1 am2 ··· amn bm xn
así el sistema de ecuaciones se convierte en la siguiente expresión matricial
AX = B.
El siguiente teorema nos dirá como son las soluciones de un sistema no
homogeneo:
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 14

Teorema 2
Si el sistema AX = B es consistente, entonces la solución general del sistema
puede escribirse como la suma de una solución particular del mismo, más la
solución general del sistema homogeneo AX = 0m×1 .

Observación 5
Como el sistema AX = B puede tener mas de una solución, al decir ’solución
general’ nos referiremos a cualquiera de estas soluciones.

Demostración
Sea X0 solución particular de AX = B y X otra solución del mismo. Definimos
X̃ = X − X0 tenemos que

AX̃ = A(X − X0 ) = AX − AX0 = B − B = 0,

luego X̃ es solución de AX = 0, y por lo tanto

X = X0 + X̃,

es decir, cualquier otra solución de AX = B se ve como la suma de una solución


particular X0 del sistema no homogeneo y una solución X̃ del sistema homo-
geneo. Ahora solo falta ver que si sustituimos X̃ por cualquier otra solución X̂
de AX = 0, X sigue siendo solución de AX = B: En efecto si X := X0 + X̂,
entonces AX = AX0 + AX̂ = B.

Corolario 1
El sistema AX = B cumple alguno de los siguientes incisos
a) No tiene solución,
b) Tiene una única solución,
c) Tiene infinidad de soluciones.

Demostración
Obviamente AX = B puede tener solución o no. Supongamos que tiene solución
y sea X la solución general, entonces

X = X0 + X̃,

como en el teorema. Si AX = 0 tiene solución trivial (X = 0), entonces X = X0 ,


y el sistema tiene solución única.
En caso contrario AX = 0 tiene una infinidad de soluciones y por lo tanto
también
AX = B.

Ejemplos 7
Resolver
x1 + 6x2 − 5x3 = 1
x1 + 2x2 − x3 = 5
3x1 + 2x2 + x3 = 19
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 15

Llevando la matriz aumentada del sistema a la forma escalonada reducida


   
1 6 −5 1 1 6 −5 1
 1 2 −1 5  ∼ F2 − F1  0 −4 4 4  ∼ F2 /(−4)
F3 − 3F1
0 −16 16 16
F3 /(−16)
3 2 1 19
   
1 6 −5 1 1 6 −5 1
 0 1 −1 −1  ∼F3 −F2  0 1 −1 −1  ∼F1 −6F2
0 1 −1 −1 0 0 0 0
 
1 0 1 7
 0 1 −1 −1 
0 0 0 0
así
x1 + x3 = 3
x2 − x3 = −1
entonces x1 = 7 − x3 , y x2 = −1 + x3 , tomando x3 = t ∈ R,

x1 = 7 − t;
x2 = −1 + t.

Una solución particular se tiene cuando t = 0


 
7
X0 =  −1 
0

Por otro lado considerando el sistema homogeneo y llevando su matriz a la forma


escalonada reducida
   
1 6 −5 1 0 1
 1 2 −1  ∼  0 1 −1 
3 2 1 0 0 0,

obtenemos
x1 + x3 = 0
x2 − x3 = 0,
luego tomando x3 = t ∈ R obtenemos la solución general del sistema homogeneo

x1 = −t
x2 = t,

así la solución general de AX = B esta dada por


   
7 −t
X = X0 + X̃ =  −1  +  t 
0 t
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 16

1.7. Matrices elementales


Decimos que la matriz E de orden n × n, es matriz elemental si se puede obtener
de la matriz identidad In mediante operaciones elementales.
Lema 1
Si E es elemental, entonces
E = RI
donde R son las operaciones aplicadas a la identidad para obtener E.
Demostración

Supongamos que E se obtiene intercambiando las filas i e j de la matriz


identidad; esta operación se expresa mediante la matriz
 
1 0 ··· 0
 0 1 ··· 0 
 
 .. .. 
 . . 
 
 0 ··· 0 1 · · · 0 
 
 0 ··· 1 0 · · · 0 
 
 . . . 
 .. .. .. 
0 ··· 1

Supongamos que E se obtiene multiplicando I por la constante α, esto se


expresa mediante  
α 0 ··· 0
 0 α ··· 0 
 
 .. .. . . . 
 . . . .. 
0 ··· α
Supongamos que E se obtiene restando a la fila i la fila j de la matriz
identidad; esta operación se expresa mediante la matriz
 
1 0 ··· ··· ··· 0
 0 1 ··· ··· ··· 0 
 
 .. .. .. .. .. 
 . . . . . 
 
 0 · · · 1 −1 · · · 0 
 
 0 ··· 0 1 ··· 0 
 
 . . 
 .. . . ... ..
.
..
. 
0 ··· ··· ··· ··· 1

Así si matriz E es una combinación de estas operaciones entonces se verá como


un producto de estas matrices que llamaremos R, por lo tanto
E = RI.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 17

Teorema 3
Sean A matriz n × m, y E matriz elemental de orden n, entonces

EA = RA.

Demostración

EA = RIA = RA.

Ejemplos 8

1. Matriz elemental 2 × 2: µ ¶
1 −1
E=
0 1

2. Matriz elemental 3 × 3:
 
1 0 −3
E= 0 1 2 
0 0 1

1.8. Inversa de una matriz


Diremos que una matriz A de orden n × n tiene inversa por la derecha si existe
una matriz B tal que
AB = I,
analogamente diremos que A tiene inversa por la izquierda si existe una matriz
C tal que
CA = I.
Si AB = BA = I, entonces a la matriz B le llamaremos inversa de A, y A se
dice invertible.
Diremos que las matrices A, B son equivalentes si

A = P B,

donde P es el producto de matrices elementales.

Observación 6
Si A tiene inversa por la izquierda C y por la derecha B, entonces B = C. Y por
lo tanto la matriz es invertible. A la inversa de una matriz A la denotaremos
A−1 .

Propiedades
Sean A, B matrices invertibles, y α ∈ R, entonces

a) (A−1 )−1 = A,
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 18

b) (AB)−1 = B −1 A−1 ,
c) (An )−1 = A−n , n ∈ N,
d) (αA)−1 = α−1 A−1 .

Teorema 4
Una matriz elemental es invertible.

Demostración
Sea E = RI, y definimos E 0 = R0 I donde R0 contiene las operaciones inversas
de R, así

EE 0 = RIR0 I = RR0 I = I
E 0 E = R0 IRI = R0 RI = I,

por lo tanto E 0 = E −1 .

Teorema 5
Sea A una matriz de orden n×n, entonces los siguientes incisos son equivalentes
a) A es invertible,
b) A es equivalente a la matriz I de orden n × n,
c) A es un producto de matrices elementales.

Demostración

b) ⇒ c) Inmediato ya que A = P I = P donde P es producto de matrices elemen-


tales.
c) ⇒ a) Como A = P I = P por el teorema anterior existe P −1 y

P −1 A = P −1 P = I
AP −1 = P P −1 = I

por lo tanto P −1 = A−1 , y A es invertible.


a) ⇒ b) Llevando A a la forma reducida escalonada R:

R = E1 · · · Ek A

así
A = E1−1 · · · Ek−1 R,
y como A es invertible, entonces R = I.

Observación 7
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 19

1. Si la matriz A es invertible, existen matrices E1 , . . . , Ek que reducen a A


a la identidad I, y estas mismas matrices aplicadas a A nos dan la inversa
de A.
2. Dos matrices A y B son equivalentes ssi

A = PB

donde P es invertible.

Teorema 6
Sea A una matriz de orden n×n, entonces los siguientes incisos son equivalentes

a) A es invertible,
b) El sistema homogéneo AX = 0 tiene solución trivial,

c) El sistema AX = Y tiene una solución para cada matriz Y de orden n×1.

Demostración

a) ⇒ b) Consideremos AX = 0 y como A es invertible

X = A−1 AX = A−1 0 = 0.

b) ⇒ c) La solución de AX = Y es la suma de una solución particular y la solución


general de AX = 0:
X = X0 + X̃,
pero por hipotesis X̃ = 0, entonces X = X0 .
c) ⇒ a) Tenemos que AX = Y , luego este sistema será equivalente a

RX = Y,

para ver que es la identidad basta ver que la última fila de R no es cero:
Esto se tiene ya que si tomamos
 
0
 0 
Y =  0 

por hipotesis el sistema RX = Y tiene solución, por lo tanto la última fila


de R no es cero.

Corolario 2
Sea A matriz de orden n × n. Si A tiene inversa izquierda o derecha, entonces
es invertible.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 20

Demostración
Supongamos que la matriz A tiene inversa izquierda BA = I, entonces el sistema
AX = 0 tiene solución trivial, luego A es invertible.
Si A tiene inversa derecha AB = I, entonces el sistema BX = 0 tiene solución
trivial y B es invertible.

Corolario 3
Sea A = A1 A2 · · · Ak , donde A1 , . . . , Ak son matrices de orden n × n. Entonces
A es invertible ssi cada Ai es invertible.

Demostración

⇒) Supongamos A invertible, entonces existe B tal que AB = I, así

A1 (A2 · · · Ak B) = I,

y A1 tiene inversa derecha por lo tanto es invertible, luego multiplicando


por la izquierda A−1
1 y por la derecha A1

A2 (A3 · · · Ak BA1 ) = I,

A2 tiene inversa por la derecha y por lo tanto es invertible, y asi sucesiva-


mente obtenemos que los Ai son invertibles.
⇐) Supongamos que cada Ai es invertible, entonces existen A−1 −1
1 , . . . , Ak .
−1 −1
Tomando B = Ak · · · A1 ,
AB = I.

Ejemplos 9

1. Encontrar la inversa de · ¸
2 −1
.
1 3
Consideremos la siguiente matriz y llevemosla a la forma escalonada re-
ducida
· ¯ ¸ · ¯ ¸
2 −1 ¯¯ 1 0 1 3 ¯¯ 0 1
∼ F ↔ F ∼ F2 − 2F1
1 3 ¯ 0 1 1 2
2 −1 ¯ 1 0
· ¯ ¸ · ¯ ¸
1 3 ¯¯ 0 1 1 3 ¯¯ 0 1
∼ F2 /(−7) ∼ F1 − 3F2
0 −7 ¯ 1 −2 0 1 ¯ − 71 2
7
· ¯ ¸
1 0 ¯¯ 73 1
7
0 1 ¯ − 17 72
así la matriz inversa es · 3 1
¸
7 7
− 17 2
7
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 21

2. Encontrar la inversa de la matriz


 
1 2 −1 4
 3 2 1 2 
 .
 5 6 −1 10 
3 −2 5 1
Llevando la matriz a la forma escalonada reducida
 ¯ 
1 2 −1 4 ¯¯ 1 0 0 0
 3 2 1 2 ¯¯ 0 1 0 0 
  ∼ F2 − 3F1
 5 6 −1 10 ¯¯ 0 0 1 0  F3 − 5F1

1 ¯ 0 0 0 1
F4 − 3F1
3 −2 5
 ¯ 
1 2 −1 4 ¯¯ 1 0 0 0
 0 −4 4 −10 ¯¯ −3 1 0 0 
 ∼
 0 −4 4 −10 ¯¯ −5 0 1 0  F3 −F2
0 −8 8 −11 ¯ −3 0 0 1
 ¯ 
1 2 −1 4 ¯¯ 1 0 0 0
 0 −4 4 −10 ¯¯ −3 1 0 0 
 ∼
 0 0 0 ¯
0 ¯ −2 −1 1 0  F4 ↔F3
0 −8 8 −11 ¯ −3 0 0 1
 ¯ 
1 2 −1 4 ¯¯ 1 0 0 0
 0 −4 4 −10 ¯¯ −3 1 0 0 
 
 0 −8 8 −11 ¯ −3 ¯ 0 0 1 
0 0 0 0 ¯ −2 −1 1 0
de aquí se deduce que la matriz no tiene inversa.

1.9. Determinantes
Consideremos el conjunto In = {1, 2, . . . n}. Una permutación es una función
σ : In −→ In biyectiva. Al conjunto de las permutaciones sobre In las denotamos
Sn
Ejemplos 10

1. Las permutaciones en S2 son σ1 , y σ2 , donde


σ1 (1) = 1, σ1 (2) = 2
σ2 (1) = 2, σ2 (2) = 1,
y las denotaremos
µ ¶ µ ¶
1 2 1 2
σ1 = , σ2 = ,
1 2 2 1
o
σ1 = (1 2), σ2 = (2 1).
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 22

2. Sea S3 = {σ1 , σ2 , σ3 , σ4 , σ5 , σ6 }, donde


σ1 = (1 2 3), σ2 = (2 1 3), σ3 = (2 3 1),
σ4 = (3 2 1), σ5 = (1 3 2), σ6 = (3 1 2),

Observación 8
Sn tiene n! permutaciones
Ahora definimos la composición y la inversa de una permutación: Sean
µ ¶ µ ¶
1 2 ··· n 1 2 ··· n
σ1 = , σ2 = ,
σ1 (1) σ1 (2) · · · σ1 (n) σ2 (1) σ2 (2) · · · σ2 (n)
dos permutaciones , definimos la composición
µ ¶
1 2 ··· n
σ1 ◦ σ2 = ,
σ1 (σ2 (1)) σ1 (σ2 (2)) · · · σ1 (σ2 (n))
y la inversa de σ1 como
µ ¶
1 2 ··· n
σ1−1 = ,
σ1−1 (1) σ1−1 (2) · · · σ1−1 (n)
tal que σ1−1 ◦ σ1 = σ1 ◦ σ1−1 = I.
Ejemplos 11
Consideremos S4 , con las siguientes permutaciones
σ1 = (1 2 3 4) σ7 = (2 1 3 4) σ13 = (3 1 2 4) σ19 = (4 1 2 3)
σ2 = (1 2 4 3) σ8 = (2 1 4 3) σ14 = (3 2 1 4) σ20 = (4 2 1 3)
σ3 = (1 3 2 4) σ9 = (2 4 1 3) σ15 = (3 4 1 2) σ21 = (4 2 3 1)
σ4 = (1 3 4 2) σ10 = (2 4 3 1) σ16 = (3 1 4 2) σ22 = (4 1 3 2)
σ5 = (1 4 3 2) σ11 = (2 3 4 1) σ17 = (3 2 4 1) σ23 = (4 3 1 2)
σ6 = (1 4 2 3) σ12 = (2 3 1 4) σ18 = (3 4 2 1) σ24 = (4 3 2 1).
Calculemos σ3 ◦ σ9 , σ6 ◦ σ11 , σ3−1 , σ15
−1 −1
, y σ24 :
σ3 ◦ σ9 = (3 4 1 2) σ22 ◦ σ14 = (3 1 4 2) σ6 ◦ σ11 = (4 2 3 1)
σ3−1 = (1 3 2 4) −1
σ15 = (3 4 1 2) −1
σ24 = (4 3 2 1).

Diremos que una permutación τ es una inversión respecto a i, j ∈ In si


i<j σ(i) > σ(j).
A una permutación σ le llamaremos par si contiene un número par de inversiones
e impar si contiene un número impar de inversiones. Definimos el signo de σ como
Sgn σ = (−1)kσ ,
donde kσ es el número de inversiones que contiene σ.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 23

Ejemplos 12

1. La permutación µ ¶
1 2 3 4
σ=
4 2 3 1
tiene las siguientes inversiones
(4, 2) (4, 3) (4, 1) (2, 1) (3, 1)
así kσ = 5 y Sgn σ = (−1)5 = −1, por lo tanto la permutación es impar.
2. Calcular las inversiones de
µ ¶
1 2 3 4
σ= .
4 1 2 3
Tiene las siguientes inversiones
(4, 1) (4, 2) (4, 3)
así kσ = 3 y Sgn σ = (−1)3 = −1, por lo tanto la permutación es impar.
Observación 9
Una manera sencilla de calcular las inversiones de una permutación es colocando
los números 1, 2, . . . , n en una lista y abajo de ellos los valores σ(1), σ(2), . . . , σ(n),
luego unimos los valores iguales de entre las dos listas, y el número de intersec-
ciones nos da el número de inversiones de σ.
Teorema 7
Sean σ1 y σ2 permutaciones en Sn , entonces
Sgn (σ1 ◦ σ2 ) = (Sgn σ1 )(Sgn σ2 ).
Demostración
Sean kσ1 , kσ2 el número de inversiones en σ1 , y σ2 correspondientemente. No-
temos que
Sgn (σ1 ◦ σ2 ) = (−1)kσ1 +kσ2 −2kσ1 σ2 = (Sgn σ1 )(Sgn σ2 ).
Corolario 4
Si σ es una permutación del conjunto Sn , entonces
Sgn σ = Sgnσ −1

Una permutación τ del conjunto Sn es una transposición de i, j ∈ In si


τ (i) = j, τ (j) = i y τ (k) = k para k 6= i, j.
µ ¶
1 ··· i − 1 i i + 1 ··· j − 1 j j + 1 ··· n
τ= .
1 ··· i − 1 j i + 1 ··· j − 1 i j + 1 ··· n
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 24

Teorema 8
Una transposición es una permutación impar.

Demostración
Al contar las inversiones de la transposicion obtenemos 2(j − i − 1) + 1, por lo
tanto es impar.

Corolario 5
Si σ es una permutación de Sn y τ una transposición, entonces

Sgn τ ◦ σ = −Sgn σ = Sgnσ ◦ τ.

Observación 10
El corolario nos dice que si cambiamos dos elementos de σ entonces el signo
cambia.

1.10. El Determinante de una matriz


Sea la matriz cuadrada n × n
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A= . .. .. .. ,
 .. . . . 
an1 an2 ··· ann

definimos el determinante de A como


X
det A = (Sgn σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn

Observación 11
Al producto a1σ(1) a2σ(2) · · · anσ(n) le llamaremos producto elemental, además no-
temos que contiene un elemento de cada fila.

Ejemplos 13

1. Calcular el determinante de
µ ¶
a11 a12
A= .
a21 a22

Las permutaciones de S2 son σ1 = (1 2), y σ2 = (2 1), además Sgn σ1 = 1,


Sgn σ2 = −1. Por lo tanto

det A = (1)a11 a22 + (−1)a12 a21 = a11 a22 − a12 a21 .


CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 25

2. Calcular el determinante de
 
a11 a12 a13
A =  a21 a22 a23  .
a31 a32 a33

Las permutaciones de S3 son


σ1 = (1 2 3), σ2 = (1 3 2), σ3 = (2 1 3)
σ4 = (2 3 1), σ5 = (3 1 2), σ6 = (3 2 1).

Por lo tanto
det A = (Sgn σ1 )a11 a22 a33 + (Sgn σ2 )a11 a23 a32 + (Sgn σ3 )a12 a21 a33
(Sgn σ4 )a12 a23 a31 + (Sgn σ5 )a13 a21 a32 + (Sgn σ6 )a13 a22 a31
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31

Propiedades
Sea A = (aij )i,j=1,...,n matriz cuadrada n × n.
1. Si los elementos de la k-ésima fila de A tienen la forma akj = a0kj + a00kj ,
entonces
det A = det A0 + det A00
donde A0 y A00 son las matrices que en la fila k-ésima tienen los elementos
a0kj y a00kj correspondientemente, y sus demás filas coinciden con las de A.
2. Si A0 es la matriz que se obtiene de A al multiplicar la k-ésima fila por un
número α, entonces
det A0 = α det A.

3. Si A0 es la matriz que se obtiene de A al intercambiar dos filas de está,


entonces
det A0 = −det A.

4. Si I es la matriz identidad, entonces

det I = 1.

5. Si A tiene dos filas iguales, entonces

det A = 0.

6. Si A tiene una fila de ceros, entonces

det A = 0.

7. Si A0 es la matriz que se obtiene de A al sumarle a una fila de ésta un


multiplo α de otra fila, entonces

det A0 = detA.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 26

Sea A = (aij ) matriz cuadrada n × n, definimos la transpuesta de A como

At = (aji )j,i=1,...,n .

Teorema 9
Sea A una matriz de orden n × n, entonces

det A = det At .

Ejemplos 14

1. Si µ ¶
1 3
A=
5 2
la transpuesta es µ ¶
t 1 5
A = .
3 2

2. Si  
1 −3 3
A= 3 5 1 
2 1 −1
la transpuesta es  
1 3 2
At =  −3 5 1 .
3 1 −1

Diremos que A = (aij )i,j=1,...,n es una matriz triangular superior si aij = 0 para
i > j.  
a11 a12 · · · a1n
 0 a22 · · · a2n 
 
A= . .. .. .. 
 .. . . . 
0 · · · 0 ann
Diremos que es triangular inferior si aij = 0 para i < j.
 
a11 0 ··· 0
 .. 
 a21 a22 · · · . 
A= . 
. . 
 .. .. .. 0 
an1 an2 · · · ann
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 27

Teorema 10
Sea A = (aij ) una matriz triangular (inferior o superior), entonces

det A = a11 a22 · · · ann .

Ejemplos 15

1. Matrices triangular inferior y triangular superior 2 × 2


· ¸ · ¸
−3 0 1 1
−1 2 0 2

2. Matrices triangular inferior y triangular superior 3 × 3


   
2 0 0 1 1 3
 −1 −2 0   0 2 2 
1 1 1 0 0 −1

Lema 2
Sea A una matriz de orden n × n, y sea E una matriz elemental, entonces

det (EA) = (det E)(det A).

Teorema 11
Sean A y B matrices cuadradas, entonces

det (AB) = (det A)(det B).

Corolario 6
Sea A matriz de orden n × n. A es inversible ssi det A 6= 0.

Corolario 7
Si A es una matriz inversible
1
det (A−1 ) = (det A)−1 = .
det A

1.11. Desarollo del determinante por cofactores


Consideremos la matriz
 
a11 a12 ··· a1j ··· a1n
 a21 a22 ··· a2j ··· a2n 
 
 .. .. .. .. .. .. 
 . . . . . . 
A=  ai1
.

 ai2 ··· aij ··· ain 
 . .. .. .. .. .. 
 .. . . . . . 
an1 an2 ··· anj ··· ann
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 28

Definimos las submatrices Mij de orden (n − 1) × (n − 1) que se obtiene de


eliminando la fila i-ésima y la columna j-ésima de la matriz A, así
 
a11 a12 · · · a1j−1 a1j+1 · · · a1n
 a21 a · · · a a · · · a2n 
 22 2j−1 2j+1 
 .. .. .. .. 
 . . . . 
 
Mij =  a i−11 ai−12 · · · ai−1j−1 ai−1j+1 · · · ai−1n
.

 ai+11 ai+12 · · · ai+1j−1 ai+1j+1 · · · ai+1n 
 
 .. .. .. .. 
 . . . . 
an1 an2 ··· anj−1 anj+1 ··· ann

Ejemplos 16
Sea  
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33
las submatrices son
· ¸ · ¸
a22 a23 a21 a23
M11 = , M12 = ,
a32 a33 a31 a33
· ¸ · ¸
a11 a13 a21 a22
M22 = , M13 = ,
a31 a33 a31 a32
· ¸ · ¸
a12 a13 a11 a12
M21 = , M23 = ,
a32 a33 a31 a32
· ¸ · ¸
a12 a13 a11 a13
M31 = , M32 = ,
a22 a23 a21 a23
· ¸
a11 a12
M33 = .
a21 a22

Teorema 12 (Desarollo por cofactores con respecto a la i-ésima fila)


Sea A una matriz n × n y sean Mij las submatrices de A, entonces

X
n
det A = (−1)i+k (det Mik )aik .
k=1

Demostración
Por definición del determinante
X
det A = Sgn (σ) a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 29

Esta forma se puede rearreglar de la siguiente manera


 
 X 
det A =  Sgn (σ) a2σ(2) a3σ(3) · · · anσ(n)  a11
σ ∈ Sn
σ(1) = 1 
 X 
··· + Sgn (σ) a2σ(2) a3σ(3) · · · anσ(n)  a1l
σ ∈ Sn
 σ(1) = l

 X 
··· + Sgn (σ) a2σ(2) a3σ(3) · · · anσ(n)  a1n
σ ∈ Sn
 σ(1) = n 
X X
n

=  Sgn (σ) a2σ(2) a3σ(3) · · · anσ(n)  a1k .
k=1 σ ∈ Sn
σ(1) = k

Ahora solo resta ver que


X
(−1)1+k (det M1k ) = Sgn (σ) a2σ(2) a3σ(3) · · · anσ(n) . (1.2)
σ ∈ Sn
σ(1) = k

Primero demostremoslo para k = 1: por definición


 
a22 a23 · · · a2n
 a32 a33 · · · a3n 
  X
det M11 = det  . .. .. ..  = Sgn (σ) a2σ(2) · · · anσ(n) ,
 .. . . .  σ
an2 an3 ··· ann
donde σ va de {2, . . . , n} a {2, . . . , n}. Notemos que estas permutaciones son las
mismas que las que hay en Sn y que dejan fijo a 1 (σ(1) = 1), por lo tanto
X
det M11 = a2σ(2) a3σ(3) · · · anσ(n) , (1.3)
σ ∈ Sn
σ(1) = 1

finalmente para demostrarlo para k > 1, recorremos la k-ésima columna de A


al lugar de la primera columna
 
a1k a12 ··· a11 ··· a1n
 a2k a22 ··· a21 ··· a2n 
 
 .. .. .. .. .. .. 
 . . . . . . 
ank an2 ··· an1 ··· ann
y aplicando (1.3) a esta matriz obtenemos (1.2). Hasta ahora hemos probado
que
X n
det A = (−1)1+k (det M1k )a1k ,
k=1
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 30

para finalizar recorremos la fila i-ésima al lugar de la primera fila en A, y así

det M1k = (−1)i+1 det Mik ,

y
X
n
det A = (−1)i+k det Mik aik .
k=1

Observación 12

1. De la misma manera se puede desarrollar un determinante con respecto a


la j-ésima columna
X
n
det A = (−1)j+k det Mkj akj .
k=1

2. A los determinantes de las submatrices (det Mik ) les llamaremos menores.


3. Los signos de los menores estan dados por la siguiente distribución
 
+ − + ···
 − + − ··· 
 .
.. .. .. ..
. . . .

Ejemplos 17

Calcular el determinante de
 
2 1 0
A= 1 4 1 
1 1 1

con respecto a la primera fila. Tenemos que

det A = (−1)2 a11 M11 + (−1)1+2 a12 M12 + (−1)1+3 a13 M13
µ ¶ µ ¶
4 1 1 1
= 2 det − 1 det
1 1 1 1

= 2(4 − 1) − 1(1 − 1)
= 6.

Calcular el determinante de
 
2 0 3
A= 1 4 8 
1 0 2
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 31

con respecto a la segunda columna. Tenemos que


µ ¶ µ ¶ µ ¶
1 8 2 3 2 3
det A = 0 det + 4 det − 0 det
1 2 1 2 1 8

= 4.

1.12. La adjunta y la inversa de una matriz


Teorema 13
Sea A = (aij )i,j=1,...,n matriz n × n y Mij sus submatrices, entonces

X
n ½
r+k det A si s = r,
(−1) (det Mrk )ask =
0 6 r.
si s =
k=1

Demostración

Si s = r la igualdad se obtiene de la sección anterior.


Si s 6= r, definimos la matriz A0 = (a0ij ) tal que

a0ij = aij si i 6= s,
a0ij = arj si i = s (r > s)

así A0 tiene dos filas iguales la s-ésima y la r-ésima


 
a11 a12 · · · a1n
 .. .. .. .. 
 . . . . 
 
 ar1 ar2 · · · arn 
 
 .. 
A0 =  ... ..
.
..
. . 
 
 ar1 ar2 · · · arn 
 
 . .. .. .. 
 .. . . . 
an1 an2 · · · ann

por lo tanto det A0 = 0, pero por otro lado calculando su determinante


con respecto a la r-ésima fila
Pn
det A0 = k=1 (−1)
r+k
(det Mrk )ark
Pn r+k
= k=1 (−1) (det Mrk )ask ,

y por lo tanto se tiene el teorema.

Observación 13
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 32

1. Definimos cij := (−1)i+j (det Mij ) con i, j = 1, . . . , n. A estos numeros


les llamaremos cofactores y a la matriz C = (cij )i,j=1,...,n le llamaremos
matriz de cofactores (cada aij tiene asociado al elemento cij ).
2. Sea A matriz n × n, definimos la matriz adjunta de A (adj A) como la
transpuesta de la matriz de cofactores de A.

Ejemplos 18

1. Sea · ¸
1 2
A= .
−1 1
Calcular su adjunta:
La matriz de cofactores es
· ¸
1 1
C= .
−2 1

y la adjunta es · ¸
1 −2
adj A = .
1 1

2. Sea  
1 −1 1
A= 2 1 1 .
0 3 2
Calcular su adjunta:
Los cofactores son
¯ ¯ ¯ ¯
¯ 1 1 ¯ ¯ ¯
c11 = (−1)2 ¯¯ ¯ = −1, c22 = (−1)4 ¯ 1 1 ¯ = 2,
3 2 ¯ ¯ 0 2 ¯
¯ ¯ ¯ ¯
¯
3¯ 2 1 ¯
¯ ¯
5 ¯ 1 −1 ¯
¯
c12 = (−1) ¯ = −4, c23 = (−1) ¯ = −3,
0 2 ¯ 0 3 ¯
¯ ¯ ¯ ¯
¯
4¯ 2 1 ¯
¯ ¯
4 ¯ −1 1 ¯
¯
c13 = (−1) ¯ = 6, c31 = (−1) ¯ = −2,
0 3 ¯ 1 1 ¯
¯ ¯ ¯ ¯
¯ −1 1 ¯ ¯ ¯
c21 = (−1)3 ¯¯ ¯ = 2, c32 = (−1)5 ¯ 1 1 ¯ = 1,
0 2 ¯ ¯ 2 1 ¯
¯ ¯
¯ 1 −1 ¯
c33 = (−1)6 ¯¯ ¯ = 3.
2 1 ¯
La matriz de cofactores es
 
−1 −4 6
C= 2 2 −3  .
−2 1 3
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 33

y la adjunta es  
−1 2 −2
adj A = C t =  −4 2 1 ,
6 −3 3

Ahora veremos la relación que existe entre la matriz adjunta y la matriz


inversa:

Teorema 14
Sea A una matriz n × n, entonces

A (adj A) = (detA) I.

Demostración
Sean A = (aij )i,j=1,...,n y adj A = (bij )i,j=1,...,n , así

A (adj A) = (dij )i,j=1,...,n ,

donde
X
n
dij = aik bkj , y bkj = cjk ,
k=1

por lo tanto
X
n
dij = aik cjk ,
k=1

y por el teorema anterior


 
det A 0 ··· 0
 0 det A ··· 0 
 
A (adj A) =  .. .. .. ..  = (det A)I.
 . . . . 
0 ··· ··· det A

Corolario 8
Si A es invertible, entonces
adj A
A−1 = .
det A
Corolario 9
La matriz A es invertible ssi det A 6= 0.

Ejemplos 19

1. Sea · ¸
1 2
A=
−1 1
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 34

calcular su inversa: Anteriormente vimos que


· ¸
1 −2
adj A = ,
1 1

así · ¸
adj A adj A 1/3 −2/3
A−1 = = = .
det A 3 1/3 1/3

2. Sea  
1 −1 1
A= 2 1 1 
0 3 2
calcular su inversa: Anteriormente vimos que
 
−1 2 −2
adj A =  −4 2 1 ,
6 −3 3

y además
det A = 0 c31 + c32 + 3c33 = 1 + 9 = 10,
por lo tanto
 
−1/10 2/10 −2/10
adj A adj A 
A−1 = = = −4/10 2/10 1/10  .
det A 10
6/10 −3/10 3/10

1.13. Regla de Cramer


Consideremos el sistema de n ecuaciones y n incognitas

a11 x1 + a12 x2 + · · · + a1n xn = b1


a21 x1 + a22 x2 + · · · + a2n xn = b2
.. .. ..
. . .
an1 x1 + an2 x2 + · · · + ann xn = bn

o equivalentemente en su forma matricial

AX = B.

Si la matriz A es invertible, el sistema tiene solución única


µ ¶
adj A
X = A−1 B = B,
det A
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 35

pero observemos que


  
c11 c21 ··· cn1 b1
 c12 c22 ··· cn2  b2 
  
(adj A)B =  .. .. .. ..  .. 
 . . . .  . 
c1n c2n ··· cnn bn
 
c11 b1 + c21 b2 + · · · + cn1 bn
 c12 b1 + c22 b2 + · · · + cn2 bn 
 
=  .. 
 . 
c1n b1 + c2n b2 + · · · + cnn bn
así la fila i-ésima tiene la siguiente forma
c1i b1 + c2i b2 + · · · + cni bn ,
pero esto es equivalente a calcular el determinante de la matriz
 
a11 a12 · · · b1 · · · a1n
 a21 a22 · · · b2 · · · a2n 
 
Ai =  . .. .. .. .. ..  ,
 .. . . . . . 
an1 cn2 · · · bn · · · cnn
con respecto a la i-ésima columna (esta matriz se obtiene remplazando la i-ésima
columna por la matriz B), por lo tanto
detAi
Xi = , i = 1, . . . , n,
det A
y obtenemos de manera explícita la solución del sistema. Este método es llamado
la regla de Cramer.
Ejemplos 20

1. Resolver
2x1 + x2 = 0
3x1 − x2 = 5
el sistema en forma matricial es AX = B, donde
µ ¶ µ ¶
2 1 0
A= yB = .
3 −1 5
Calculando A1 , A2 , det A, det A1 , det A2 tenemos
µ ¶ µ ¶
0 1 2 0
A1 = , A2 = .
5 −1 3 5
y detA = −5, detA1 = −5, det A2 = 10, por lo tanto las soluciones son
−5
x1 = −5 =1 x2 = 10
−5 = −2.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 36

2. Resolver
x1 + 2x2 + 4x3 = 31
5x1 + x2 + 2x3 = 29
3x1 − x2 + x3 = 10.
Tenemos que  
1 2 4
detA = det  5 1 2  = −27,
3 −1 1
 
31 2 4
detA1 = det  29 1 2  = −81,
10 −1 1
 
1 31 4
detA2 = det  5 29 2  = −108,
3 10 1
 
1 2 31
detA3 = det  5 1 29  = −135,
3 −1 10
así
x1 = 3, x2 = 4, x3 = 5
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 37

Lista de ejercicios

1. Determine el conjunto solución de los sistemas de ecuaciones


a)
3x + 2y = 0
x−y = 4

b)
x+y = 0
5x + 5y = 0

c)
3x + 5y = 8
5x − 2y = 3

2. Averiguar si son equivalentes los siguientes sistemas:


a)
2x1 + 3x2 = 5
2x1 + 3x2 = 5
x1 − 4x2 = −3
x1 − 4x2 = −3
2x1 − 8x2 = −6

b)
5x − 2y = 1
5x − 2y = 1
−x + 2y = 2
3x + 4y = 11
4x + 2y = 9

3. Use el método de eliminación de Gauss para resolver los siguientes siste-


mas:
x1 + 2x2 + x3 = 4
2x1 + 3x2 = 5
a) b) 5x1 + x2 + 6x3 = 0
x1 − 7x2 = 4
2x1 + 3x2 + 3x3 = 4
x1 + 2x2 + 3x3 + 4x4 + 5x5 = 15
x1 − 2x2 + x3 − 3x5 = 0
x2 + 2x3 + 3x4 + 4x5 = 10
x1 + 7x2 − 5x3 − 5x4 + 5x5 = 0
c) x3 + 2x4 + 3x5 = 6 (d)
2x1 + x2 − x3 − 4x4 + 4x5 = 0
x4 + 2x5 = 3
3x1 − x2 − 2x3 + x4 − x5 = 0
x5 = 1

4. Escribir la matriz del sistema y la matriz aumentada del sistema


a)
2x1 + 3x2 = 0
2x1 + x2 = 5
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 38

b)
x1 + x2 = 0
x2 + x3 = 1
x4 + x5 = 0
c)
x1 + x2 = 0
x2 + x3 = 1
x4 + x5 = 0

5. Diga cuales de las siguientes matrices estan en forma escalonada y cuales


en forma reducida
a)
µ ¶
1 0 3 1
0 1 2 0
b)
 
0 0 1 2 3 0 0
 0 0 0 0 0 1 0 
 
 0 0 0 0 0 0 1 
0 0 0 0 0 0 0
c)
 
1 0 3 4
 0 −1 0 0 
0 0 1 0

6. Bajo que condiciones la forma escalonada reducida de la matriz


µ ¶
a b
c d
es µ ¶
1 0
0 1
7. Resolver por el método de Gauss - Jordan
x1 + 2x2 + x3 = 4
2x1 + 3x2 = 5
a) b) 5x1 + x2 + 6x3 = 0
x1 − 7x2 = 4
2x1 + 3x2 = 4

x1 + 2x2 + x3 + x4 + 5x5 = 2
2x1 + 3x2 − x3 + 6x4 − x5 = 1 3x2 − x3 + x4 − x5 = 1
c) x1 + 2x2 + x3 − 2x4 + 3x5 = −3 d) x3 + x4 − x5 = 0
2x1 + x2 − 6x3 + 5x4 + 3x5 = 2 x4 + x5 = 0
x5 = 1
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 39

x1 − 2x2 + x3 + 3x4 − 3x5 = 0


x1 − 7x2 − 5x3 − 5x4 + 5x5 = 0
e)
2x1 + x2 − x3 − 4x4 + 4x5 = 0
3x1 − x2 − 2x3 + x4 − x5 = 0

8. Para los siguientes sistemas, determine los valores de a, b para que el sis-
tema tenga solución única:

2x1 + 3x2 + x3 = 5
x1 + ax2 = 1
(1) 3x1 − x2 + ax3 = 2 (2)
ax1 + x2 = a
x1 + 7x2 − 6x3 = b

9. Determinar para que valors de a, y b los sistemas


a) Tiene solución única,
b) No tiene solución,
c) tiene una infinidad de solciones.

2x1 + 3x2 + x3 = 5 ax1 + 2x2 + 4x3 = b+2


a) 3x1 − x2 a + x3 = 2 b) 2x1 + ax2 + 4x3 = 1
x1 + 7x2 − 6x3 = b 2x1 + ax2 + a2 x3 = 1

10. Resuelva los siguientes sistemas homogéneos


a)

3x1 + 2x2 + 5x3 = 0


2x1 + 4x2 + x3 = 0
−4x1 + 2x2 − 9x3 = 0

b)

x1 + 3x2 + 3x3 = 0
2x1 + 7x2 + 7x3 = 0
2x1 + x2 + 6x3 = 0

c)

x1 + x2 − x3 = 0
2x1 − x2 + 3x3 = 0

11. Calcule en cada inciso A ± B, aA, aB, y a(A + B):


a)
   
7 7
A =  −1  , B =  −1  , a = 3.
0 0
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 40

b)
 
· ¸ 5 2 −1
2 5 4
A= , B= 3 2 2  , a = 0.
−2 3 −1
1 0 0

c)
   
2 1 0 1 0 −1
A= 3 2 −2  , B =  2 5 4 , a = −2.
4 1 1 3 2 4

12. Calcule AB, BA y A(B + C) en cada inciso


a)
     
1 0 −1 1 −1 1 0 0
A= 2 1 −1  , B =  −1 3 , C =  0 1 1 
3 −1 1 4 6 1 0 1

b)
   
1 2 3 · ¸ 1 3 3
2 0
A= 3 1 
2 , B= , C= 2 1 2 
1 2
2 1 0 1 1 1

13. Sea la matriz · ¸


7 4
A= ,
−9 −5
demostrar que · ¸
n 1 + 6n 4n
A = ,
−9n 1 − 6n

14. Demuestre que la matriz


 
2 −3 −5
A =  −1 4 5 ,
1 −3 −4

es idempotente (A2 = A).


15. Demuestre que la matriz
 
1 1 3
A= 5 2 6 ,
−2 −1 −3

es nilpotente (existe n ∈ N tal que An = 0).


CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 41

16. Consideremos la matriz


 
a11 0 ··· 0
 0 a22 ··· 0 
 
A= .. .. .. .. ,
 . . . . 
0 ··· 0 ann

todos sus elementos son cero exceptuando los que se encuentran en la


diagonal. A este tipo de matrices les llamaremos diagonales. Demostrar
que
a) La suma de matrices diagonales es una matriz diagonal.
b) El producto de dos matrices diagonales es una matriz diagonal.

17. Consideremos la matriz


 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A= .. .. .. .. ,
 . . . . 
an1 an2 0 ann

definimos la traza de A como


X
n
tr A = a11 + a22 + · · · + ann = aii .
i=1

Sean A = (aij ), B = (bij ) matrices cuadrádas n × n. Demostrar que

a) tr (A + B) = tr A + tr B.
b) tr (AB) = tr (BA)
18. Sea I la matriz identidad de orden 2, y sea
µ ¶
0 −1
A= ,
1 1

Considere las matrices siguientes (de orden 4)


µ ¶ µ ¶ µ ¶ µ ¶
I 0 0 −I A 0 0 A
e= i= j= k=
0 I I 0 0 −A A 0

Demuestre que

ei = ie = i ij = −ij = k i2 = −e
ej = je = j jk = −kj = i j 2 = −e
ek = ke = k ki = −ik = j k 2 = −e
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 42

19. Escriba la solución de los siguientes sistemas como la suma de la solución


general del sistema homogéneo asociado, y una solución particular del
sistema no homogeneo.

x1 + x2 = 1 x1 + x2 − x3 = 2
a) b)
2x1 + 2x2 = 2 2x1 − 2x2 + 2x3 = 2

x1 − x2 + x3 = 1
c) x1 + 32 x2 − 12 x3 = 2
5x1 + 5x2 − x3 = 9

20. Encontrar la inversa de las siguientes matrices


 
  1 0 0 0
5 −4 −6  0 
1 0 0
a)  −9 8 11  b) 
 10 20 −1


0
1 −1 −1
5 −8 0 −1
 
1 2 3
c)  −1 −2 −2 
0 0 0

21. Demostrar que si ad − bc 6= 0, entonces la matriz


· ¸
a b
A=
c d

es invertible.

22. Sea  
3 −1 4
A= 0 2 1 .
1 −1 −2
Demuestre que
A3 − 3A2 − 7A + 18I = 0,
y calcular A−1 .

23. Diga cuales de las siguientes matrices son elementales


 
· ¸ 1 2 0
2 0
a) b)  0 0 1 
0 0
0 1 0
 
1 −1 1
c)  2 1 3 
0 1 1
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 43

24. Consideremos la matriz


 
a11 a12 ··· a1n
 0 a22 ··· a2n 
 
A= .. .. .. .. 
 . . . . 
0 0 ··· ann

donde a11 a22 · · · ann 6= 0. Demostrar que A es inversible.


25. Escriba cada una de las siguientes matrices como el producto de una matriz
inversible Q y la forma escalonada reducida de A
 
· ¸ 3 1 4
1 3 2
a) A = b) A =  2 1 3 
0 1 4
−1 −1 −2
 
2 3
c) A =  1 4 
1 1

26. Resolver los siguientes sistemas de ecuaciones

x1 + x2 − x3 + x4 = 3
2x1 + 3x2 = 1 2x1 − 3x2 + 4x3 − 2x4 = 1
a) b)
3x1 + 4x2 = 2 3x1 − x2 − 2x3 − 2x4 = −2
x1 + x2 − 2x3 + 5x4 = 5

27. Calcular σ1 ◦ σ2 , σ2 ◦ σ1 , σ1 ◦ σ1 ,σ2 ◦ σ2 , σ1−1 , σ2−1 , (σ1 ◦ σ2 )−1 , σ2−1 ◦ σ1−1


de µ ¶ µ ¶
1 2 3 1 2 3
a) σ1 = σ2 =
3 2 1 1 3 2
µ ¶ µ ¶
1 2 3 4 1 2 3 4
b) σ1 = σ2 =
4 3 2 1 3 1 2 4
µ ¶ µ ¶
1 2 3 4 5 6 1 2 3 4 5 6
c) σ1 = σ2 =
2 1 3 5 4 6 1 2 3 4 5 6

28. Determine las inversiones para las permutaciones del ejemplo anterior.
29. Demostrar que si σ1 , σ2 son permutaciones de Sn

(σ1 ◦ σ2 )−1 = σ2−1 ◦ σ1−1 .

30. Calcular el determinante (por definición) de


a)
· ¸
3 1
A=
−1 1
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 44

b)
 
1 1 2
A =  −1 1 5 .
4 2 1

31. Diga si las siguientes matrices son invertibles y calcule su inversa :


 
µ ¶ 1 2 8
1 3  0 6 9 
2 1
0 2 3
   
0 0 1 0 2 3 1 2
 1 0 0 0   1 1 1 −1 
   
 0 1 0 0   1 2 3 4 
0 0 0 1 1 0 −2 −6

32. Suponga que  


a b c
det  d e f  = 3
g h i
Calcule:
   
d e f −i −g −h
det  a b c  det  f + c d+a e+b 
g h i c a b

33. Calcule los determinantes de las siguientes matrices:


 
  1 1 1 1
1 2 3  1 1 0 1 
 2 1 1   
 1 0 1 1 
4 3 2
1 1 0 0
   
0 1 1 1 1 1 1 1
 1 0 1 1   2 4 −2 2 
   
 1 1 0 1   1 2 −1 1 
1 1 1 0 3 6 −3 3

34. Calcular el determinante de


 
5 −1 0
A= 3 2 4 
−1 2 −2

a) Desarrollando por cofactores respecto a la primera linea.


b) Segunda columna.
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 45

c) Segunda linea.
d) Primera columna.
35. Calcular los siguientes determinantes
a)
 
2 1 3
det  0 4 0 .
1 8 2

b)
 
3 1 5
det  2 1 4 .
0 4 2

c)
 
5 2 0 1
det  1 1 0 1 .
9 9 3 6

36. Demostrar que


a)
 
2 1 0 0 ··· 0 0
 1 2 1 0 ··· 0 0 
 
 0 1 2 1 0··· 0 0 
det   = n + 1.
 .. .. .. .. 
 . . . . 
0 0 0 ··· ··· 1 2

b)
 
1 1 1 ··· 1 1
 −1 1 1 ··· 1 1 
 
 0 −1 1 ··· 1 1 
det   = 2n−1 .
 .. .. .. .. 
 . . . . 
0 0 0 ··· 1 1

37. Determine la adjunta de las siguientes matrices


   
a11 a12 a13 a11 0 0
a)  0 a22 a23  b)  0 a22 0 
0 0 a33 0 0 a33
CAPÍTULO 1. SISTEMA DE ECUACIONES Y MATRICES 46

38. Determinar la inversa de


   
1 0 0 2 1 3
a)  1 1 2  b)  −5 7 1 
3 1 4 −1 2 4
 
2 −2 1
c)  3 −1 −1 
8 0 3

39. Resolver los sistemas de ecuaciones con la regla de Cramer

3x1 − 5x2 + x3 = −4
2x1 + 3x2 = 1
a) b) 2x1 − x2 + 3x3 = 9
4x1 − 2x2 = 2
4x1 − 7x2 + x3 = 5

x1 + 2x2 + 2x3 = 4
c) 2x1 + x2 − 2x3 = −1
2x1 − 2x2 + x3 = −6
Capítulo 2

Espacios Vectoriales

2.1. Espacio Vectorial


Campo
Es un conjunto K con las operaciones suma y producto que cumplen las siguien-
tes propiedades

1. α + β = β + α ∀ α, β ∈ K Conmutativa.
2. α + (β + µ) = (β + α) + µ ∀ α, β, µ ∈ K Asociativa .

3. µ(α + β) = µβ + µα ∀ α, β ∈ K Distributiva.
4. α · β = β · α ∀ α, β ∈ K Conmutatividad.

5. α · (β · µ) = (β · α) · µ ∀ α, β, µ ∈ K Asociativa .
6. Existe 0 ∈ K tal que α + 0 = α ∀α∈K Elemento Neutro.

7. ∀ α ∈ K existe −α ∈ K tal que α + (−α) = 0 Inverso Aditivo.


8. Existe 1 ∈ K tal que 1 · α = α ∀α ∈ K.

9. ∀ α ∈ K existe α−1 ∈ K tal que α·α−1 = 1 Inverso Multiplicativo.

Ejemplos 21

1. El conjunto de los números reales R es un campo.


2. El conjunto de los números complejos C es un campo.

3. El conjunto de los números racionales Q es un campo.


4. El conjunto de los números reales positivos R+ no es un campo.

47
CAPÍTULO 2. ESPACIOS VECTORIALES 48

Espacio Vectorial sobre un campo K


Es un conjunto V con las operaciones

+ : V × V −→ V •:K ×V −→ V
(u, v) 7−→ u + v (α, v) 7−→ α · v

que cumplen las siguientes condiciones


1. u + v = v + u ∀ u, v ∈ V Conmutativa.
2. u + (v + w) = (u + v) + w ∀ u, v, w ∈ V Asociativa.
3. α(u + v) = αu + µv ∀ u, v ∈ V , y α ∈ K Distributiva.
4. (α · β)u = α · (βu) ∀ α, β, ∈ K, u ∈ V Asociativa .
5. (α + β)u = αu + βu ∀ u ∈ V , y α, β ∈ K Distributiva.
6. Existe 0 ∈ V tal que u + 0 = u ∀u∈V Elemento Neutro.
7. ∀ u ∈ V existe −u ∈ V tal que u + (−u) = 0 Inverso Aditivo.
8. Existe 1 ∈ K tal que 1 · u = u ∀ u∈V.

Observación 14
A los elementos de un espacio vectorial les llamaremos vectores.

Apartir de la definición se obtienen las siguientes propiedades


0·u=0 ∀ u∈V.
(−1) · u = −u ∀ u∈V.
α·0=0 ∀ α ∈ K.
−(−u) = u ∀ u∈V.
(−α) · u = −(αu) = α(−u) ∀ u ∈ V, α ∈ K.
(−α) · (−u) = αu ∀ u ∈ V, α ∈ K.
u + v = u + w entonces v = w.
Si α ∈ K, α 6= 0, y αu = αv entonces u = v.
Si αv = 0, entonces α = 0 o v = 0.
Demostración
u + 0 · u = (1 + 0)u = u.
u + (−1)u = (1 + (−1))u = 0 · u = 0.
αu + α0 = α(u + 0) = αu.
CAPÍTULO 2. ESPACIOS VECTORIALES 49

−(−u) = (−1)(−u) = (−1)(−1)u.


Por la asociatividad del producto por escalar se tiene.
Igual que el anterior.
u + v = v + w, entonces u = u + v + (−v) = v + w + (−v) = w.
αu = αv, con α 6= 0, multiplicando por α−1 se obtiene el resultado.
Si α 6= 0 por el inciso anterior se obtiene v = 0, en caso contrario por el
primer inciso se obtiene.
Ejemplos 22

1. R2 := {(x, y)| x, y ∈ R} es un espacio vectorial sobre R con la suma y


producto por escalar dados por
(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
α(x, y) = (αx, αy)
Para verificarlo comprobemos las propiedades
a) (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) = (x0 , y 0 ) + (x, y).
b) (x, y) + [(x0 , y 0 ) + (x00 , +y 00 )] = (x, y) + (x0 + x00 , y 0 + y 00 ) = (x + x0 +
x00 , y + y 0 + y 00 ) = [(x, y) + (x0 , y 0 )] + (x00 , +y 00 ).
c) α[(x, y) + (x0 , y 0 )] = (αx + x0 , αy + y 0 ) = α(x, y) + α(x0 , y 0 ).
d) (α · β)(x, y) = (α · βx, αβy) = α[β (x, y)].
e) (α + β)(x, y) = ((α + β)x, (α + β)y) = (αx + βx, αy + βy) = α(x, y) +
β(x, y)
f) (x, y) + (0, 0) = (x, y).
g) (x, y) + (−x, −y) = (0, 0).
h) 1 (x, y) = (1 · x, 1 · y) = (x, y).
2. El conjunto de matrices
½· ¸ ¾
a b
M2×2 = |a, b, c, d ∈ R
c d
es un espacio vectorial sobre R, con las operaciones
· ¸ · 0 ¸ · ¸
a b a b0 a + a0 b + b0
+ = ,
c d c0 d0 c + c0 d + d0
· ¸ · ¸
a b αa αb
α· =
c d αc αd

3. Pn = {a0 + a1 x + · · · + an xn | a0 , . . . , an ∈ R} es un espacio vectorial sobre


R con las operaciones suma y producto por escalar usual de polinomios.
CAPÍTULO 2. ESPACIOS VECTORIALES 50

2.2. Subespacios Vectoriales


Sea V un espacio vectorial. W es un subespacio vectorial de V si

i) W ⊂ V .
ii) W es un espacio vectorial con las operaciones suma y producto por escalar
definidas en V .

Ejemplos 23

1. W = {(x, y)|x, y ∈ R, y > 0} ⊂ R2 no es un subespacio vectorial de R2 :


En efecto pues Si (x, y) ∈ W tenemos que −(x, y) 6= W . (ver figura)

2. W = {(x, y)|x, y ∈ R, y = 2x} ⊂ R2 es un subespacio de R2

Observación 15
Todo espacio vectorial tiene al menos dos subespacios vectoriales: {0}, y el mis-
mo. Los llamaremos subespacios vectoriales triviales.

Las condiciones para ver si un subconjunto es un subespacio se pueden re-


ducir

Teorema 15 Sea V espacio vectorial sobre un campo K, y W ⊂ V no vacio.


W es un subespacio de V ssi

i) Si u, v ∈ W , entonces u + v ∈ W .
ii) Si u ∈ W, α ∈ K, entonces αu ∈ W .

Demostración

⇒) Obvio por las propiedades de W como subespacio.

⇐) Notemos que por i), y ii) las operaciones suma y multiplicación por escalar
son cerradas en W , ahora verifiquemos las condiciones para que W sea
espacio vectorial
u + v = v + u en V , si u, v ∈ W , como es cerrado bajo las operaciones
la igualdad tambien se cumple en W .
Similar al anterior.
Similar al anterior.
Por i), y ii).
Por i), y ii).
Tomando α = 0, y considerando que 0 = αu ∈ W .
Tomando α = −1, y considerando que −u = αu ∈ W .
CAPÍTULO 2. ESPACIOS VECTORIALES 51

Tomando α = 1, y considerando que u = αu ∈ W .

Corolario 10
W es un subespacio vectorial del espacio vectorial V ssi

αu + βv ∈ W

para todo α, β ∈ K, y para todo u, v ∈ W .

Ejemplos 24

1. L ⊂ R2 dado por

L = {(x, y) ∈ R2 |ax + by = 0}, a, b ∈ R (ambos no nulos)

es un subespacio vectorial de R2 : En efecto sean (x, y), (x0 , y 0 ) ∈ L

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 )
a(x + x0 ) + b(y + y 0 ) = ax + ax0 + by + by 0 = 0
α (x, y) = (αx, αy)
a(αx) + b(αy) = α(ax + by) = α · 0 = 0

(figura)
2. El conjunto
C(R) := {f : R −→ R| continuas}
con las operaciones

(f + g)(x) := f (x) + g(x) ∀ f, g ∈ C(R)


(αf )(x) := α f (x) ∀ f ∈ C(R), ∀ α ∈ R.

es un subespacio del espacio vectorial de la funciones definidas en R (F (R)).


3. Consideremos el sistema de ecuaciones
     
a11 · · · a1n x1 0
 .. ..   ..  =  ..  .
 . ··· .   .   . 
am1 · · · amn xn 0

El conjunto de sus soluciones

S := {(x1 , · · · , xn ) ∈ Rn | soluciones del sistema}

es un subespacio de Rn .

Observación 16
Todo subespacio no trivial en R2 es de la misma forma que L.
CAPÍTULO 2. ESPACIOS VECTORIALES 52

2.2.1. Subespacios generados por un conjunto de vectores


Sea V espacio vectorial y, S ⊂ V
Si S es infinito definimos

L(S) := {c1 v1 + · · · + cm vm | c1 , . . . , cm ∈ K, v1 , . . . , vm ∈ S, m ∈ N}

Si S = {v1 , . . . , vn }, definimos

L(S) := {c1 v1 + · · · + cn vn | c1 , . . . , cn ∈ K}

Teorema 16
Sean V espacio vectorial, v1 , . . . , vn ∈ V vectores, entonces

L(v1 , . . . , vn ) := {c1 v1 + · · · + cn vn | c1 , . . . , cn ∈ K}

es un subespacio de V , y es el más pequeño que contiene a v1 , . . . , vn .

Demostración
Tomemos u = c1 v1 + · · · + cn vn ,v = c01 v1 + · · · + c0n vn en L(v1 , . . . , vn ), luego

u+v = (c1 + c01 )v1 + · · · + (cn + c0n )vn ∈ L(v1 , . . . , vn )


αu = (αc1 )v1 + · · · + (αcn )vn ∈ L(v1 , . . . , vn ).

Para ver que es el mas pequeño subespacio sea W subespacio de V que contiene
a v1 , . . . , vn : Como W es subespacio

c1 v1 + · · · + cn vn ∈ W ∀ c1 , . . . , cn ∈ K,

luego
L(v1 , . . . , vn ) ⊂ W,
y como W es arbitrario L(v1 , . . . , vn ) es el más pequeño.

Observación 17
De manera similar se prueba que L(S) es un subespacio de V con S infinito, y
que además es el subespacio más pequeño que contiene a S. A este espacio lo
llamaremos el espacio vectorial generado por S.

Ejemplos 25
Sean v1 = (1, 3, −1), v2 = (2, 1, 3) vectores en R3 , encontrar el subespacio gene-
rado por ellos: Por definición

L(v1 , v2 ) = {c1 (1, 3 − 1) + c2 (2, 1, 3)| c1 , c2 ∈ R}

y de aquí obtenemos el siguiente sistema

c1 + 2c2 = x
3c1 + c2 = y
−c1 + 3c2 = z
CAPÍTULO 2. ESPACIOS VECTORIALES 53

resolviendo por el método de Gaussiana - Jordan


       
1 2 x 1 2 x 1 2 x 1 2 x
 3 1 y ∼ 3 1 y  ∼  0 −5 −3x + y  ∼  0 −5 −3x + y 
−1 3 z 0 3 z+x 0 5 z+x 0 0 −2x + y + z

y de aquí
L(v1 , v2 ) = {(x, y, z) ∈ R3 | − 2x + y + z = 0}

2.2.2. Operaciones con subespacios


Sean W1 , W2 subespacios vectoriales de V , definimos
\
W1 W2 := {v ∈ V |v ∈ W1 y v ∈ W2 }
W1 + W2 := {v ∈ V |v = v1 + v2 , v1 ∈ W1 y v2 ∈ W2 }

fácilmente se puede verificar que son subespacios vectoriales de V . Sin embargo


el conjunto [
W1 W2 := {v ∈ V |v ∈ W1 o v ∈ W2 }
no es un subespacio de V (verificar).
Ahora veremos la condición que se necesita para que la unión sea un subes-
pacio.

Teorema 17 S
Sean W1 ,W2 subespacios vectoriales de V . Si W1 W2 es un subespacio de V ,
entonces W1 ⊂ W2 o W2 ⊂ W1 .

Demostración S S S
Escogemos v1 ∈ W1 ⊂ W1 W2 , v2 ∈ W2 ⊂ W1 W2 , luego v1 + v2 ∈ W1 W2
entonces v1 + v2 ∈ W1 o v1 + v2 ∈ W2 . Si v1 + v2 ∈ W1 entonces v2 = v1 + v2 +
(−v1 ) ∈ W1 y luego W2 ⊂ W1 . Analogamente se obtiene que W1 ⊂ W2 .
Ahora damos la relación entre el generado por la unión de dos subespacios
y la suma de ellos.

Teorema 18 S
Sean W1 , W2 subespacios de V , entonces W1 + W2 = L(W1 W2 ).

Demostración S
Como W1 ⊂ W1 + W2 , y W2 ⊂ W1 + W2 tenemos que L(W1 W2 ) ⊂ W1 + W2 .
Para la otra contensión tomemos v = v1 + v2 ∈ W1 + W2 , luego notemos que

v = 1 · v1 + 1 · v2
S
es decir, se ve como una combinación lineal de elementos de W1 W2 , así obte-
nemos la otra contensión.
CAPÍTULO 2. ESPACIOS VECTORIALES 54

Ejemplos 26
Consideremos M2×2 , y sus subconjuntos
½· ¸ ¾ ½· ¸ ¾
a b a 0
W1 = |a, b, c ∈ R W2 = |a, d, c ∈ R
0 c d c

se prueba fácilmente que W1 , W2 son subespacios de M2×2 . Calculemos su in-


tersección y su suma:
\ ½· ¸ ¾ ½· ¸ ¾
a 0 a b
W1 W2 = |a, c ∈ R W1 +W2 = |a, b, c, d ∈ R = M2×2
0 c d c

Observación 18
La descomposición de M2×2 dada por W1 , y W2 no es única:
· ¸ · ¸ · ¸ · ¸ · ¸
a b a 0 0 b 0 b a 0
= + = +
d c d c 0 0 0 c d 0

A continuación veremos que condición nos dará la únicidad de la descompo-


sición.

2.2.3. Suma Directa


L
W1 W2 es llamada la suma directa de los subespacios W1 , W2 si cada
elemento de ella se puede ver de manera única como la suma de un vector en
W1 , y otro en W2 .

Teorema 19 Sean W1 , W2 subespacios de V , y U = W1 + W2 entonces son


equivalentes
L
1. U = W1 W2 .
2. W1 ∩ W2 = {0}

Demostración
T
1) ⇒ 2) Sea v ∈ W1 W2 ⊂ U , luego

v ∈ W1 v =v+0
⇒ ⇒ v = 0.
v ∈ W2 v =0+v

2) ⇐ 1) Consideremos dos representaciones de v ∈ W1 + W2

v = v2 + v2
⇒ v1 + v2 = w1 + w2 ⇒ v1 − w1 = v2 − w2 ,
v = w1 + w2

pero notemos que v1 − w1 = v2 − w2 ∈ W1 ∩ W2 , así v1 = w1 , y v2 = w2 .


CAPÍTULO 2. ESPACIOS VECTORIALES 55

Ejemplos 27
Consideremos el espacio vectorial F (R), y sus subconjuntos
W1 = {f ∈ F (R)| f (−x) = f (x) ∀ x ∈ R} Pares
W2 = {f ∈ F (R)| f (−x) = −f (x) ∀ x ∈ R} Impares.
L
Veamos que F (R) = W1 W2 :

Todo elemento de F (R) se puede ver como la suma de un elemento en W1


y otro en W2 : En efecto sea f ∈ F (R), luego
f (x) + f (−x) f (x) − f (−x)
f (x) = + .
2 2
La intersección de W1 y W2 es el cero: En efecto sea f ∈ W1 ∩ W2 , luego
f (x) = f (−x) = −f (x) ∀ x ∈ R
por lo tanto f = 0.

2.3. Dependencia Lineal


Sean V espacio vectorial. Los vectores v1 , . . . , vn ∈ V se dicen Linealmente
independientes (l.i.), si
c1 v1 + · · · + cn vn = 0 ⇒ c1 = c2 = · · · = cn = 0.
En caso contrario v1 , . . . , vn ∈ V se dicen Linealmente dependientes (l.d.), es
decir si al menos algún ci con i = 1, . . . , n es diferente de cero.
Ejemplos 28

1. Los vectores V1 = (1, 3, 2),V2 = (−1, 2, 5), y V3 = (0, 1, 4) son l.i. en R3 :


Para verificarlo resolvamos
c1 (1, 3, 2) + c2 (−1, 2, 5) + c3 (0, 1, 4) = 0
de aquí obtenemos el siguiente sistema de ecuaciones
c1 − c2 = 0
3c1 + 2c2 + c3 = 0
2c1 + 5c2 + 4c3 = 0.
Calculemos su determinante para ver si tiene solución trivial.
 
1 −1 0 ¯ ¯ ¯ ¯
¯ 2 1 ¯ ¯ 3 1 ¯

det 3 2 1 = 1 ¯  ¯ ¯ − (−1) ¯¯ ¯ = 13 6= 0
5 4 ¯ 2 4 ¯
2 5 4
luego la matriz es invertible, y la solución al sistema es trivial c1 = c2 =
c3 = 0.
CAPÍTULO 2. ESPACIOS VECTORIALES 56

2. Los vectores
· ¸ · ¸ · ¸
−1 16 2 3 −1 2
v1 = , v2 = , v3 =
−4 13 3 4 −2 1
son l.d. en M2×2 : En efecto resolvamos
· ¸ · ¸ · ¸ · ¸
−1 16 2 3 −1 2 0 0
c1 + c2 + c3 =
−4 13 3 4 −2 1 0 0
de aquí obtenemos
· ¸ · ¸
−c1 + 2c2 − c3 16c1 + 3c2 + 2c3 0 0
= ,
−4c1 + 3c2 − 2c3 13c1 + 4c2 + c3 0 0
lo cual nos da el siguiente sistema de ecuaciones
−c1 + 2c2 − c3 = 0
16c1 + 3c2 + 2c3 = 0
−4c1 + 3c2 − 2c3 = 0
13c1 + 4c2 + c3 = 0
resolviendo por eliminación Gaussiana
     
−1 2 −1 −1 2 −1 −1 2 −1
 16 3 2   16 3 2   16 3 2 
   ∼  ∼
 −4 3 −2  ∼L4 +13L1  −4 3 −2  L4 /2  −4 3 −2  L2 −4L3
13 4 1 0 30 −12 0 15 −6
     
−1 2 −1 −1 2 −1 −1 2 −1
 0 15 −6   −4 3 −2   −4 3 −2 
     ∼
 −4 3 −2  ∼L2 ↔L3  0 15 −6  ∼L4 −L3  0 15 −6  L3 /3
0 15 −6 0 15 −6 0 0 0
     
−1 2 −1 −1 2 −1 −1 2 −1
 −4 3 −2   0 −5 2   0 −5 2 
   ∼  ∼
 0 5 −2  ∼L2 −4L1  0 5 −2  L3 −L2  0 0 0  L2 /5
0 0 0 0 0 0 0 0 0
     
−1 2 −1 −1 0 −1/5 1 0 1/5
 0 −1 2/5   0 −1 2/5   0 1 −2/5 
 ∼  ∼  ,
 0 0 0  L1 +2L2  0 0 0  (−)  0 0 0 
0 0 0 0 0 0 0 0 0
así c1 = −1/5c3 , c2 = 2/5c3 , c3 ∈ R, es decir, la solución es no trivial,
por tanto son l.d.
Observación 19
Notemos que si c3 = 5, entonces c1 = −1, c2 = 2, y v1 se puede escribir como
una combinación lineal de v2 , y v3 .
· ¸ · ¸ · ¸
−1 16 2 3 −1 2
=2 +5
−4 13 3 4 −2 1
CAPÍTULO 2. ESPACIOS VECTORIALES 57

Teorema 20
Los vectores v1 , . . . , vn ∈ V , (n ≥ 2) son l.d. ssi al menos uno de ellos puede
escribirse como combinación lineal de los otros n − 1 vectores restantes.

Demostración

⇒) Si
c1 v1 + · · · + cn vn = 0
alguno de los coeficientes ci , i = 1, . . . , n es diferente de cero. Supongamos
c1 6= 0, luego

c2 v2 + · · · + cn vn = −c1 v1 , y
µ ¶ µ ¶
c2 cn
v2 + · · · + vn = v1
−c1 −c1

⇐) Supongamos vn = c1 v1 + · · · + cn−1 vn−1 , de aquí

c1 v1 + · · · + (−1)vn = 0

por tanto son l.d.

Teorema 21
Sean v1 , . . . , vn ∈ V vectores,

1. Si vi = vj para i 6= j, i, j = 1, . . . , n, entonces son l.i.


2. Si existe algún vi (1 ≤ i ≤ n) tal que vi = 0, entonces los vectores son l.d.

3. Si el conjunto {v1 , . . . , vn } es l.i., entonces cualquier subconjunto de el es


l.i.

4. Si el conjunto {v1 , . . . , vn } es l.d., entonces para cualesquiera vectores


w1 , . . . , wm ∈ V , el conjunto {v1 , . . . , vn , w1 , . . . , wm } es l.d.

El siguiente Teorema nos ayuda a ver cuando un conjunto de vectores es l.i.


o l.d.

Teorema 22
Sean v1 , . . . , vn ∈ Rn vectores, y A la matriz que tiene como columnas a tales
vectores, entonces los vectores v1 , . . . , vn son l.d. (l.i) ssi det A = 0 (det A 6=
0)

Demostración
CAPÍTULO 2. ESPACIOS VECTORIALES 58

⇒) Sean vj = (v1j , . . . , vnj ) con j = 1, . . . , n, y supongamos que vn = c1 v1 +


· · · + cn−1 vn−1 , luego entre las columnas de la matriz
 
v11 · · · v1n
 .. 
A =  ... ..
. . 
vn1 · · · vnn

realizamos las siguientes operaciones


       
v11 v12 v1n−1 v1n
       .. 
c1  ...  + c2  ...  + · · · + cn−1  ..
. − . 
vn1 vn2 vnn−1 vnn

así obtenemos la última columna con ceros, y det A = 0.


⇐) Si det A = 0, entonces el sistema AX = 0 no tiene solución trivial, i.e.,
existe  
c1
 
X0 =  ... 
cn
tal que algún ci (i = 1, . . . , n) es diferente de cero, por lo tanto

c1 v1 + · · · + cn vn = 0

con algún ci 6= 0, (i = 1, . . . , n).

Ejemplos 29

1. Los vectores v1 = (2, 3, 5, −1), v2 = (0, 3, −1, 2), v3 = (0, 0, 4, 8), v4 =


(0, 0, 0, 5) son l.i. en R4 : En efecto consideremos la matriz
 
2 0 0 0
 3 3 0 0 
A=  5 −1 4 0  .

−1 2 8 5

Calculando su determinante obtenemos


¯ ¯
¯ 2 0 0 ¯ ¯ ¯
¯ ¯ ¯ 3 0 ¯
det A = 5 ¯¯ 3 3 0 ¯¯ = 5 · 2 ¯¯ ¯ = 120 6= 0.
¯ 5 −1 4 ¯ −1 4 ¯

2. Consideremos los vectores v1 , . . . , vm ∈ Rn , y supongamos m > n. Afirma-


mos que tales vectores son l.d.: En efecto escribimos vj = (v1j , . . . , vnj ),
con j = 1, . . . , m. Si
c1 v1 + · · · + cm vm = 0
CAPÍTULO 2. ESPACIOS VECTORIALES 59

obtenemos el siguiente sistema de ecuaciones

c1 v11 + c2 v12 + · · · + cn v1m = 0


.. .. . ..
. + . + · · · + .. = .
c1 vn1 + c2 vn2 + · · · + cn vnm = 0

como tiene n ecuaciones y m incognitas el sistema tiene soluciones no


triviales, i.e., existen algún ci 6= 0 , con i = 1, . . . , n.

3. En este ejemplo no se aplica el Teorema anterior pues V 6= Rn . Sean


v1 = ex , v2 = sen x, v3 = cos x vectores en C(R), veamos si son l.d. o l.i:
consideremos la combinación lineal

c1 ex + c2 sen x + c3 cos x = 0.

Como esta combinación se cumple para todo x ∈ R, tomemos x = 0, π/2, π,


y obtenemos el siguiente sistema de ecuaciones

c1 + c3 = 0
c1 eπ/2 + c2 = 0
c1 eπ − c3 = 0.

Calculando su determinante
 
1 0 1 ¯ ¯
¯ eπ/2 1 ¯¯
det  eπ/2 1 0  = −1 + 1 ¯¯ π = −1 − eπ = −(1 + eπ ) 6= 0,
e 0 ¯
eπ 0 −1

por lo tanto los vectores son l.i.

Observación 20 Si en el ejemplo 2, m < n no podemos afirmar nada de los


vectores.

2.4. Bases y dimensión


Sea V un espacio vectorial. Diremos que el conjunto S ⊂ V es una base de
V si
1. S genera a V .

2. S es l.i.

Ejemplos 30

1. Los vectores v1 = (3, 1, −1), v2 = (4, 1, 1), v3 = (1, 2, 3) forman una base
de R3 :
CAPÍTULO 2. ESPACIOS VECTORIALES 60

Veamos primero que generan, es decir, todo vector (x, y, z) ∈ R3 se puede


ver como combinación lineal de v1 , v2 v3 ,
(x, y, z) = c1 (3, 1, −1) + c2 (4, 1, 1) + c3 (1, 2, 3)
de aquí obtenemos el sistema de ecuaciones
3c1 + 4c2 + c3 = x
c1 + c2 + 2c3 = y
−c1 + c2 + 3c3 = z.
Para ver que el sistema tiene solución basta calcular
 
3 4 1 ¯ ¯ ¯ ¯ ¯ ¯
¯ 1 2 ¯ ¯ 4 1 ¯ ¯ 4 1 ¯¯
det  1 1 2  = 3¯¯ ¯ ¯
− 1¯ ¯ − 1 ¯¯ = −15 6= 0
1 3 ¯ 1 3 ¯ 1 2 ¯
−1 1 3
luego el sistema tiene solución única, y como (x, y, z) es arbitrario; v1 , v2 , v3
generan a R3 . Y por el Teorema 22 los vectores son l.i.
2. Los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1) ge-
neran a Rn .
Claramente generan: Sea (x1 , . . . , xn ) ∈ Rn
(x1 , . . . , xn ) = c1 e1 + . . . + cn en
= (c1 , . . . , cn ).
También claramente son l.i.: La matriz formada por estos vectores es
 
1 0 ··· 0
 0 1 ··· 0 
 
 .. .. . . .. 
 . . . . 
0 0 ··· 1
y su determinante es 6= 0.
3. El conjunto de las matrices
j − ésima columna

 
0 ··· 0 ··· 0
 .. .. .. .. .. 
 . . . . . 
 
Eij =  0 · · · 1 · · · 0  ← i − ésima fila

 . .. .. .. .. 
 .. . . . . 
0 ··· 0 ··· 0
con i = 1, . . . , m; j = 1, . . . , n, forman una base de Mm×n : En efecto
claramente se ve que generan,
 
a11 a12 ··· a1n
 .. ..  X
m,n
A= . .. = aij Eij .
. .
am1 ··· amn i,j=1
CAPÍTULO 2. ESPACIOS VECTORIALES 61

Ahora veamos que son l.i.: Notemos que


X
m,n
i = 1, . . . , m.
aij Eij = 0
|{z} ⇒ aij = 0 ∀
i,j=1
j = 1, . . . , n
M atriz m×n Cero

por tanto son l.i.


Verificarlo para M2×2 con
· ¸ · ¸ · ¸ · ¸
1 0 0 1 0 0 0 0
E11 = , E12 = , E21 = , E22 = .
0 0 0 0 1 0 0 1

4. Los vectores v1 = 1, v2 = x, . . . , vn+1 = xn forman una base de Pn =


{a0 + a1 x + · · · + an xn | a0 , . . . , an ∈ R}
5. Consideremos el siguiente sistema de ecuaciones

x1 + 3x2 − 2x3 + x4 = 0
x1 + x2 − 4x3 + 3x4 = 0
−2x1 − 8x2 + 2x3 = 0
−x2 − x3 + x4 = 0,

y encontremos una base para su conjunto solución.


Primero resolvamos el sistema llevando a la forma reducida la matriz que
lo representa
   
1 3 −2 1 1 3 −2 1
 1 1 −4 3   1 1 −4 3 
   
 −2 −8 2 0  ∼L3 +2L1  0 −2 −2 2  ∼L3 /2
0 −1 −1 1 0 −1 −1 1
   
1 3 −2 1 1 3 −2 1
 1 1 −4 3   1 1 −4 3 
   
 0 −1 −1 1  ∼L4 −L3  0 −1 −1 1  ∼L2 −L1
0 −1 −1 1 0 0 0 0
   
1 3 −2 1 1 3 −2 1
 0 −2 −2 2   0 −1 −1 1 
   
 0 −1 −1 1  ∼L2 /2  0 −1 −1 1  ∼L3 −L2
0 0 0 0 0 0 0 0
   
1 3 −2 1 1 0 −5 4
 0 −1 −1 1   0 −1 −1 1 
  ∼   ∼
 0 0 0 0  L1 +3L2  0 0 0 0  −L2
0 0 0 0 0 0 0 0
 
1 0 −5 4
 0 1 1 −1 
 
 0 0 0 0 
0 0 0 0
CAPÍTULO 2. ESPACIOS VECTORIALES 62

así obtenemos
x1 − 5x3 + 4x4 = 0,
x2 + x3 − x4 = 0,
x3 , x4 ∈ R.
Tomando x3 = s ∈ R, y x4 = t ∈ R obtenemos que las soluciones tienen
la siguiente forma:
   
x1 5s − 4t
 x2   −s + t 
X=  
 x3  = 
.

s
x4 t
Notemos que
(5s − 4t, −s + t, s, t) = (5s, −s, s, 0) + (−4t, t, 0, t)
= s(5, −1, 1, 0) + t(−4, 1, 0, 1),
es decir, las soluciones son generadas por (5, −1, 1, 0), (−4, 1, 0, 1), y cla-
ramente se ve que son l.i.; luego estos dos vectores son una base para el
conjunto solución.
Observación 21

1. Los vectores ejemplos30.2 son llamados vectores canónicos de Rn .


2. Si un espacio vectorial V tiene una base finita decimos que V es de di-
mensión finita. En caso contrario decimos que el espacio vectorial es de
dimensión infinita.
Teorema 23
Sea V espacio vectorial. β = {v1 , . . . , vn } ⊂ V es una base ssi todo v ∈ V se
puede ver de manera única como una combinación lineal finita de los v1 , . . . , vn .
Demostración

⇒) Sea β base de V , y v ∈ V , luego


v = c1 v1 + · · · + cn vn .
Supongamos que existe otra combinación, es decir,
v = c01 v1 + · · · + c0n vn .
entonces de las combinaciones tenemos
0 = v − v = (c1 − c10 )v1 + · · · + (cn − c0n )vn ,
y como los v1 , . . . , vn son l.i.(por ser β base)
c1 = c01 = 0, . . . , cn − c0n = 0.
CAPÍTULO 2. ESPACIOS VECTORIALES 63

⇐) Basta ver que los vectores v1 , . . . , vn son l.i., Supongamos que v1 , . . . , vn


son l.d., luego existen c1 , . . . , cn ∈ K no todos nulos tal que

c1 v1 + · · · + cn vn = 0.

Por otro lado


0 · v1 + · · · + 0 · vn = 0.
luego tenemos dos representaciones del vector cero ]c . Por lo tanto los
vectores v1 , . . . , vn son l.i.
El siguiente Teorema nos relaciona el número de vectores que generan a un
espacio vectorial V y el número máximo de vectores l.i. en él.

Teorema 24 Sea V = L(v1 , . . . , vn ), entonces cualquier conjunto de vectores


l.i. en V es finito y no tiene más de n vectores.

Demostración
Sea S = {u1 , . . . , um } con m > n.Veamos que este conjunto es l.d. : Como V es
generado por v1 , . . . , vn tenemos que

ui = ci1 v1 + · · · + cin vn i = 1, . . . , m

luego si

0 = a1 u1 + · · · + am um
= a1 (c11 v1 + · · · + c1n vn ) + · · · + am (cm1 v1 + · · · + cmn vn )
= (a1 c11 + a2 c21 + · · · + am cm1 )v1 + · · · + (a1 c1n + a2 c21 + · · · + am cmn )vn .

Por ser los vectores v1 , . . . , vn l.i. obtenemos el sistema de ecuaciones

a1 c11 + a2 c21 + · · · + am cm1 = 0


.. .. ..
. . .
a1 c1n + a2 c21 + · · · + am cmn = 0

con n ecuaciones y m incoginitas (m > n), luego el sistema tiene una infinidad
de soluciones no triviales, es decir, existe algún ai 6= 0 para i = 1, . . . , m. Por lo
tanto S es l.d.

Corolario 11 Sea V un espacio de dimensión finita. Cualesquiera dos bases


β1 , β2 tienen el mismo número de vectores.

Demostración
Sean
β1 = {v1 , . . . , vn }
β2 = {u1 , . . . , un }
Como V = L(β1 ) y β2 ⊂ V por el Teorema 24 n ≤ m. Analogamente obtenemos
que m ≤ n, Por lo tanto m = n.
CAPÍTULO 2. ESPACIOS VECTORIALES 64

2.4.1. Dimensión
Sea V un espacio vectorial de dimensión finita. Se define la dimensión de V
como el número de vectores en alguna base de V . Y la denotaremos dim V

Ejemplos 31

1. Los vectores e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) forman una base
para R3 , y entonces dim R3 = 3.

2. Los vectores e1 , . . . , en son base de Rn , por lo tanto dim Rn = n.


3. Mm×n tiene como base a los Eij , con i = 1, . . . , m, j = 1, . . . , n, así
dim Mm×n = mn.
4. La dimensión de Pn = {a0 +a1 x+· · ·+an xn | a0 , . . . , an ∈ R} es dim Pn =
n + 1.
5. La dimensión del espacio solución del sistema de ecuaciones visto en ejem-
plos 105 es 2.

A continuación veremos un resultado que nos facilitará verificar si un conjun-


to de vectores en un espacio vectorial, es base o no, cuando sabemos la dimensión
del espacio vectorial V .

Lema 3 Sea S = {v1 , . . . , vn } ⊂ V conjunto de generadores, tal que existe vj ,


1 ≤ j ≤ n tal que puede escribirse como conbinación lineal de los n − 1 vectores
restantes, entonces L(S\{vj }) = L(S).

Lema 4 Sean S ⊂ V l.i., y v ∈ V \S, entonces S 0 = S ∪ {v} es l.i.

Teorema 25 Sea V espacio vectorial de dimensión finita n.

1. Cualquier conjunto de generadores de V contiene una base de V .


2. Si {u1 , . . . , um } es un conjunto l.i. de V , entonces existe un conjunto
{w1 , . . . , wn−m } tal que {u1 , . . . , um , w1 , . . . , wn−m } es base de V .

Demostración

1. Sea S = {v1 , . . . , vn } ⊂ V generadores, entonces si S es l.i., S es la base.


En caso contrario si S es l.d., entonces algún vj , j = 1 . . . , R, se puede ver
como combinación de los otros vectores; Supongamos que VR es tal vector,
luego consideremos
S (1) = S\{VR } ⊂ V,
y por el lema 3
L(S (1) ) = L(S\{vR }) = L(S).
CAPÍTULO 2. ESPACIOS VECTORIALES 65

Ahora repetimos el proceso para S ( 1), Si S (1) es l.i., entonces S (1) es la


base de V . En caso contrario (S ( 1) l.d.), supongamos que vR−1 se ve como
combinación lineal de los otros R − 2 vectores y definimos

S (2) = S (1) \{vR−1 },

y nuevamente
L(S (2) ) = L(S (1) ) = L(S),
así, sucesivamente llegamos a algún conjunto l.i. (base) ya que el proceso
es finito.
2. Definimos S = {v1 , . . . , vn }, y sea V0 = L(S).
Si V0 = V , entonces S es la base de V . En caso contrario V0 V , y existe
w1 ∈ V tal que w1 6= V0 , así por el Lema 4

V1 = L(S ∪ {w1 }) es l.i.

Si V1 = V , entonces S ∪ {w1 } es la base de V . En caso contrario V1 V,


y existe w2 ∈ V tal que w2 6= V1 , y por el Lema 4

V2 := L(S ∪ {w1 , w2 }) es l.i.

Repetimos el proceso anterior y en algún momento obtendremos un con-


junto
S ∪ {w1 , . . . , wR }
tal que VR := L(S ∪ {w1 , . . . , wR }) = V .

Ejemplos 32
Sea V = L(v1 , v2 , v3 , v4 ) con v1 = (1, 2, 3, −1), v2 = (−1, 1, 0, 4), v3 = (3, 4, 7, −5),
v4 = (2, 5, 7, −1). Notemos que V es subespacio de R4 . Por el Teorema 25 del
conjunto {v1 , v2 , v3 , v4 } podemos extraer una base de R4 , para esto consideremos
la combinación

c1 (1, 2, 3, −1) + c2 (−1, 1, 0, 4) + c3 (3, 4, 7, −5) + c4 (2, 5, 7, −1) = (0, 0, 0, 0)(2.1)

luego obtenemos el siguiente sistema

c1 − c2 + 3c3 + 2c4 = 0
2c1 + c2 + 4c3 + 5c4 = 0
3c1 + 7c3 + 7c4 = 0
−c1 + 4c2 − 5c3 − c4 = 0.

Formamos la matriz del sistema y lo llevamos a la reducida


   
1 −1 3 2 1 −1 3 2
 2 1 4 5   2 1 4 5 
 ∼  ∼
 3 0 7 7  L4 +L1  3 0 7 7  L3 −3L1
−1 4 −5 −1 0 3 −2 1
CAPÍTULO 2. ESPACIOS VECTORIALES 66
   
1 −1 3 2 1 −1 3 2
 2 1 4 5   4 5 
  ∼L4 −L3  2 1 ∼
 0 3 −2 1   0 3 −2 1  L2 −2L1
0 3 −2 1 0 0 0 0
   
1 −1 3 2 1 −1 3 2
 0 3 −2 1   0 3 −2 1 
 ∼  ∼
 0 3 −2 1  L3 −L2  0 0 0 0  L2 /3
0 0 0 0 0 0 0 0
   
1 −1 3 2 1 0 7/3 7/3
 0 1 −2/3 1/3   0 1 −2/3 1/3 
 ∼  ,
 0 0 0 0  L1 +L2  0 0 0 0 
0 0 0 0 0 0 0 0
luego se tiene el nuevo sistema

c1 + 7/3c3 + 7/3c4 = 0
c2 − 2/3c3 + 1/3c4 = 0
c3 , c4 ∈ R,

de aquí
c1 = −7/3c3 − 7/3c4
c2 = 2/3c3 − 1/3c4 ,
luego notemos que si c3 = 0, y c4 = 3 de 2.1 obtenemos

−7(1, 2, 3, −1) − 1(−1, 1, 0, 4) = −3(2, 5, 7, −1)


7/3 (1, 2, 3, −1) +1/3 (−1, 1, 0, 4) = (2, 5, 7, −1),
| {z } | {z } | {z }
v1 v2 v4

es decir, v4 es generado por v1 , v2 . Igualmente si c4 = 0, c3 = 3

−7(1, 2, 3, −1) + 2(−1, 1, 0, 4) = −3(3, 4, 7, −5)


7/3 (1, 2, 3, −1) −2/3 (−1, 1, 0, 4) = (3, 4, 7, −5),
| {z } | {z } | {z }
v1 v2 v3

v3 se ve como combinación lineal de v1 , v2 . Tambien observemos que v1 , v2 son


l.i., luego
L(v1 , v2 , v3 , v4 ) = L(v1 , v2 ).
Ahora extenderemos este conjunto a una base de R4 . Es decir necesitamos en-
contrar dos vectores que formen una base con v1 , v2 ( ya que e1 , e2 , e3 , e4 for-
man una base de R4 ). Para esto tomemos un vector en R4 que no pertenezca a
L(v1 , v2 ): Proponemos como tal vector a w1 = (1, 0, 0, 0); veamos que no perte-
nece a L(v1 , v2 ), para esto resolvamos

(1, 0, 0, 0) = c1 (1, 2, 3, −1) + c2 (−1, 1, 0, 4).


CAPÍTULO 2. ESPACIOS VECTORIALES 67

Obtenemos el sistema de ecuaciones


c1 − c2 = 1
2c1 + c2 = 0
3c1 = 0
−c1 + 4c2 = 0,

el cual no tiene solución, por lo tanto w1 6∈ L(v1 , v2 ).


Ahora consideremos L(v1 , v2 , w1 ), y encontremos otro vector que no pertenezca a
L(v1 , v2 , w1 ); proponemos como tal vector a (0, 1, 0, 0) y veamos que no pertenece
a L(v1 , v2 , w1 ). Resolviendo

(0, 1, 0, 0) = c1 (1, 2, 3, −1) + c2 (−1, 1, 0, 4) + c3 (1, 0, 0, 0)

obtenemos
c1 − c2 + c3 = 0
2c1 + c2 = 1
3c1 = 0
−c1 + 4c2 = 0,
y notemos que tal sistema no tiene solución, luego w2 6∈ L(v1 , v2 , w1 ). Así obte-
nemos el siguiente conjunto l.i. {v1 , v2 , w1 , w2 }.
Notemos que este conjunto genera a R4 , ya que si no lo generara podríamos
encontrar w3 ∈ R4 tal que w3 6∈ L(v1 , v2 , w1 , w2 ), luego repitiendo el proceso
aplicado arriba obtendríamos el conjunto l.i.

L(v1 , v2 , w1 , w2 , w3 )

lo cual contradeciría que R4 = L(e1 , e2 , e3 , e4 ) (Teorema 24)

Corolario 12
Sea V espacio vectorial de dimensión n.
1. Cualquier conjunto de n vectores l.i. es una base de V .

2. Cualquier conjunto de vectores n que genera a V es una base de V .

Observación 22
Para ver que un conjunto es base basta probar 1), o 2).

Finalmente con los resultados obtenidos tenemos que

Teorema 26
Sean v1 , . . . , vn ∈ Rn , y la matriz A formada por ellos, entonces v1 , . . . , vn
forman una base ssi det A 6= 0.

Ejemplos 33
¿Que condiciones deben cumplir v1 = (a, b), v2 = (c, d) para formar una base
CAPÍTULO 2. ESPACIOS VECTORIALES 68

de R2 ?
De acuerdo con el Teorema anterior, consideremos la matriz
µ ¶
a c
A=
b d

y calculemos su determinante det A = ad − cb. Luego los vectores v1 , v2 forman


una base de R2 ssi ad − cb 6= 0.

2.4.2. Subespacios de espacios de dimensión finita


Teorema 27
Sea W subespacio del espacio vectorial de dimensión finita V . Entonces W es
de dimensión finita y dim W ≤ dim V .

Ejemplos 34

1. El espacio C([0, 1]) es de dimensión infinita: En efecto sea P el espacio


de los polinomios en [0, 1], si C([0, 1]) fuera de dimensión finita entonces
P sería de dimensión finita lo cual no es posible.

2. Los subespacios de R3 son {0}, las rectas, los planos, y R3 .

Teorema 28
Sean W1 , W2 subespacios del espacio de dimensión finita V . Entonces

dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 ).

Demostración
Sean r = dim W1 ∩ W2 , y β0 = {u1 , . . . , ur } una base de W1 ∩ W2 . Como
W1 ∩W2 es un subespacio de W1 , y de W2 podemos extender esta base a una base
β1 = {u1 , . . . , ur , v1 , . . . , vm } de W1 , y a una base β2 = {u1 , . . . , ur , w1 , . . . , ws }
de W2 . Ahora vemos que β = {u1 , . . . , ur , v1 , . . . , vm , w1 , . . . , ws } es base de
W1 + W2 : Primero veamos que genera, tomemos w = u + v ∈ W1 + W2 como
u ∈ W1 , y v ∈ W2 , entonces

u = c1 u1 + · · · + cr ur + cr+1 v1 + · · · + cr+m vm ,
v = b1 u1 + · · · + br ur + br+1 w1 + · · · + br+s ws ,

y de aquí

w = u+v
= (c1 + b1 )u1 + · · · + (cr + br )ur + cr+1 v1 + · · · + cr+m vm + br+1 w1 + · · · + br+s ws ,

y por lo tanto genera. Ahora demostremos que es l.i.: Si

0 = c1 u1 + · · · + cr ur + cr+1 v1 + · · · + cr+m vm + cr+m+1 w1 + · · · + cr+s+m ws ,


CAPÍTULO 2. ESPACIOS VECTORIALES 69

tenemos que

−br+m+1 w1 − · · · − br+s+m ws = c1 u1 + · · · + cr ur + cr+1 v1 + · · · + cr+m vm ,

notemos que la parte izquierda está en W2 y la parte derecha está en W1 , es


decir,
−br+m+1 w1 − · · · − br+s+m ws ∈ W1 ∩ W2 ,
y como β0 es base de la intersección

d1 u1 + · · · + dr ur = −br+m+1 w1 − · · · − br+s+m ws ,

y
0 = d1 u1 + · · · + dr ur + br+m+1 w1 + · · · + br+s+m ws ,
pero los vectores forman la base β2 por lo tanto son l.i., entonces

d1 = · · · = dr = · · · = br+m+ = · · · = br+s+m = 0.

asií
0 = c1 u1 + · · · + cr ur + cr+1 v1 + · · · + cr+m vm ,
pero estos vectores son l.i. por ser la base β1 por lo tanto

c1 = · · · = cr+m = 0,

y entonces los vectores u1 , . . . , ur , v1 , . . . , vm , w1 , . . . , ws son l.i. y β es base de


W1 + W2 . Entonces

r + m + s = (r + m) + (r + s) − r.

Corolario 13
Sean W1 , W2 subespacios del espacio de dimensión finita V tales que W1 ∩ W2 =
{0}. Entonces
dim V = dim W1 + dim W2 .

Ejemplos 35
Consideremos el ejemplo 26, luego

dim(W1 + W2 ) = dim W1 + dim W2 − dim(W1 ∩ W2 )


4 = 3+3−2

2.5. Espacios Vectoriales con producto interno


Sea V un espacio vectorial sobre R. Un producto interno en V lo definimos
como la función
(·|·) : V × V −→ R
tal que cumple las siguientes condiciones
CAPÍTULO 2. ESPACIOS VECTORIALES 70

1. (v|v) ≥ 0 para todo v ∈ V ,


(v|v) = 0 ssi v = 0,
2. (u|v) = (v|u) para todo u, v ∈ V ,
3. (u + v|w) = (u|w) + (v|w) para todo u, v, w ∈ V ,
4. (αu|v) = α(u|v) para todo α ∈ R.

Observación 23

1. un espacio vectorial V tal que existe un producto interno en el, le llama-


remos espacio vectorial con producto interno.
2. Si V es un espacio vectorial de dimensión finita con producto interno lo
llamaremos espacio Euclideano.

En caso de que V sea un espacio vectorial sobre C (números complejos), el


producto interno se define como la función

(·|·) : V × V −→ C

tal que cumple las siguientes condiciones


1. (v|v) ≥ 0 para todo v ∈ V ,
(v|v) = 0 ssi v = 0,
2. (u|v) = (v|u) para todo u, v ∈ V ,
3. (u + v|w) = (u|w) + (v|w) para todo u, v, w ∈ V ,
4. (αu|v) = α(u|v) para todo α ∈ R.

Observación 24
En nuestro caso trabajaremos con espacios vectoriales sobre R.

Ahora veremos algunas propiedades en los espacios vectoriales con producto


interno, así tambien como las desigualdades más importantes en ellos.

Teorema 29
Sea V un espacio vectorial con producto interno, entonces
1. (v|0) = 0 para todo v ∈ V ,
 ¯ 
X ¯X Xn X
n
¯ n n
2.  ci vi ¯¯ dj vj  = (ci vi |dj vj ) para todo v1 , . . . , vn ∈ V , y todo
i=1 ¯ j=1 i=1 j=1
c1 , . . . , cn ∈ R.

Demostración
CAPÍTULO 2. ESPACIOS VECTORIALES 71

1. (0|v) = (0 u|v) = 0 (u|v) = 0.


2. Inmediata de la condición 3 de la definición de espacio vectorial con pro-
ducto interno.

Ejemplos 36

1. Consideremos Rn . Verificar que la función definida

(x|y) := x1 y1 + · · · + xn yn

con x = (x1 , . . . , xn ), y = (y1 , . . . , yn ), es un producto interno en Rn : En


efecto
a) (x|x) = x21 + · · · + x2n ≥ 0,
(x|x) = 0 ssi x1 = . . . = xn = 0 ssi x = 0.
b) (x|y) = x1 y1 + · · · + xn yn = (y|x).
c) Sea z = (z1 , . . . , zn ) ∈ Rn ,

(x + y|z) = (x1 + y1 )z1 + · · · + (xn + yn )zn


= x1 z1 + y1 z1 + · · · + xn zn + yn zn
= (x1 z1 + · · · + xn zn ) + (y1 z1 + · · · + yn zn )
= (x|z) + (y|z)

d) Sea α ∈ R
(αx|y) = αx1 y1 + · · · + αxn yn
= α(x1 y1 + · · · + xn yn )
= α(x|y)
2. Sea V = C([0, 1]) funciones continuas en [0, 1]. Si f, g ∈ V , definimos
Z 1
(f |g) = f (x)g(x) dx.
0

Verifiquemos que es un producto interno en V : En efecto


R1
a) (f |f ) = 0 f 2 (x) dx ≥ 0, pues f 2 ≥ 0. Ahora demostremos la segunda
parte de la condición 1; notemos que
Z 1
si f = 0 ⇒ (f |f ) = f 2 (x) dx = 0.
0

Para demostrar la implicación contraria

(f |f ) = 0 =⇒ f = 0,

demostremos la negación de esta f 6= 0 =⇒ (f |f ) > 0: Como por


hipotesis f (x) 6= 0 para todo x ∈ [0, 1], existe x0 ∈ [0, 1] tal que
CAPÍTULO 2. ESPACIOS VECTORIALES 72

f (x0 ) 6= 0, y por continuidad existe una vecindad V² (x0 ) = {x|x0 −


epsilon < x < ²+x0 } tal que f (x) 6= 0 para todo x ∈ V² (x0 ), entonces
como f 2 (x0 ) > 0 existe t ∈ R+ tal que
f 2 (x0 ) > t > 0 V² (x0 ),
así Z Z
1 x0 +δ
(f |f ) = f 2 (x) dx > f 2 (x) dx > 2² t > 0
0 x0 −²
que era lo que se quería demostrar.
b) Es inmediato:
Z 1 Z 1
(f |g) = f (x)g(x) dx = g(x)f (x) dx = (g|f )
0 0

c) Es claro de
R1
(f + g|h) = 0 (f (x) + g(x))h(x) dx
R1 R1
= 0 f (x)h(x) dx + 0 g(x)h(x) dx
= (f |h) + (g|h)

d) Se tiene de
Z 1 Z 1
(αf |g) = (αf (x))g(x) dx = α f (x)g(x) dx.
0 0

Observación 25
El producto interno definido en el ejemplo 36.1 es llamado producto interno
canónico de Rn .
Teorema 30 (Desigualdad de Cauchy-Schwartz) Sea V espacio vectorial con
producto interno, entonces
(u|v)2 ≤ (u|u) (v|v) ∀ u, v ∈ V
Demostración
Consideremos u − λv, con λ ∈ R, luego
0 ≤ (u − λv|u − λv)
= (u|u) + (u| − λv) + (−λv|u) + (−λv| − λv)
= (u|u) − 2λ(u|v) + λ2 (v|v),
(u|v)
como λ es arbitrario, en particular tomando λ = (v|v)

0 ≤ (u − λv|u − λv)
µ ¶2
(u|v) (u|v)
= (u|u) − 2 (u|v) + (v|v)
(v|v) (v|v)
(u|v)2
= (u|u) − ,
(v|v)
CAPÍTULO 2. ESPACIOS VECTORIALES 73

así
(u|v)2 ≤ (u|u) (v|v)
Observación 26
La igualdad se cumple ssi u = λv o v = λu con λ ∈ R.
Corolario 14
Sean x1 , . . . , xn , y1 , . . . , yn ∈ R, entonces
à n !2 à n ! à n !
X X X
xi y i ≤ 2
xi 2
yi
i=1 i=1 i=1

Demostración
Aplicar el Teorema 30 a Rn con su producto interno canónico.
Corolario 15 Sean f, g ∈ C([0, 1]), entonces
µZ 1 ¶2 µZ 1 ¶ µZ 1 ¶
f (x)g(x) dx ≤ 2
f (x) dx 2
g (x) dx
0 0 0

Demostración
Aplicar el Teorema anterior a C([0, 1]) con su producto interno.

2.5.1. Norma y distancia


Sea V un espacio vectorial con producto interno. Se define la norma del
vector v ∈ V como p
kvk = (v|v).
Ejemplos 37

1. Sea V = R2 con el producto interno canónico, la norma es definida como


p p
k(x, y)k := ((x, y)|(x, y)) = x2 + y 2 ,
así p √
k(1, 2)k = 12 + 22 = 5.
Similarmente para R la norma se define como
n
q
k(x1 , . . . , xn )k := x21 + . . . + x2n .

2. Si V = C([0, 1]) la norma se define como


s
p Z 1
kf k := (f |f ) = f 2 (x) dx.
0

Por ejemplo
qR q
1 2x
kex k = 0
e dx = 1 2
2 (e − 1)
CAPÍTULO 2. ESPACIOS VECTORIALES 74

Teorema 31 p
Sea V espacio vectorial con producto interno. La norma kuk = (u|u) tiene las
siguientes propiedades
1. kvk ≥ 0 para todo v ∈ V ,
kvk = 0 ssi v = 0,
2. kαvk = |α| kvk para todo α ∈ R, para todo v ∈ V ,
3. ku + vk ≤ kuk + kvk para todo u, v ∈ V (Desigualdad triangular).

Ahora definimos la distancia entre dos vectores u, v ∈ V espacio vectorial


con producto interno como

d(u, v) := ku − vk.

Ejemplos 38

1. La distancia entre los vectores u = (1, 2, 3), v = (3, 6, −2) ∈ R3 es

d(u, v) = ku − vk = k(1, 2, 3) − (3, 6, −2)k


= k(−2, −4, 5)k

= √4 + 16 + 25
= 45.

2. La distancia entre u = sin x, v = cos x ∈ C([0, 1]), es

d(u, v) ku − vk = k sin x − cos xk


= q
R1
= (sin x − cosx)2 dx
qR0 R1 R1
1
= sin2 x dx − 2 0 sin x cos x dx + 0 cos2 x dx
qR 0
R1
1
= dx − 2 0 sin x cos x dx
q 0 R1
= 1 − 22 0 sin 2x dx
q ¯1
= 1 − 12 cos 2x¯0 dx
q
2 − 2 .
1 cos 2
=

Teorema 32
Sea V un espacio vectorial con producto interno. La distancia d(u, v) = ku − vk
con u, v ∈ V tiene las siguientes propiedades
1. d(u, v) ≥ 0 para cualesquiera u, v ∈ V ,
d(u, v) = 0 ssi u = v,
2. d(u, v) = d(v, u) para cualesquiera u, v ∈ V ,
3. d(u, v) ≤ d(u, w) + d(w, v) para cualesquiera u, v, w ∈ V .
CAPÍTULO 2. ESPACIOS VECTORIALES 75

2.5.2. Ángulo entre dos vectores


Sean u, v ∈ V no nulos definimos el ángulo entre u, y v como

(u|v)
θ = arc cos (0 ≤ θ ≤ π)
kuk kvk

Ejemplos 39

1. Sean u = (1, 2, 3), v = (3, 5, 2) ∈ R3 . Encontrar el ángulo entre ellos:

(u|v) = √
3 + 10 + 6 = 19,

kuk = √1 + 4 + 9 = √14,
kvk = 9 + 25 + 4 = 38

por lo tanto µ ¶
19
θ = arc cos √ = 34◦ ,537
532

2. Sean u = (1, 0), v = (3, 1) ∈ R2 . Encontrar el ángulo entre ellos:

(u|v) = √
3,
kuk = √1 = 1, √
kvk = 9 + 1 = 10

por lo tanto µ ¶
3
θ = arc cos √ = 18◦ ,434.
10

Teorema 33 (Ley de los cosenos)


Sean v1 , v2 ∈ V espacio vectorial con producto interno, y θ el ángulo entre ellos,
entonces
kv1 − v2 k2 = kv1 k2 + kv2 k2 − 2kv1 k kv2 k cos θ

Demostración
Es inmediata de

kv1 − v2 k2 = (v1 − v2 |v1 − v2 ) y (v1 |v2 ) = kv1 k kv2 k cos θ.

Observación 27

1. Los vectores v1 , v2 ∈ V son ortogonales si (v1 |v2 ) = 0.

2. Un conjunto se dice ortogonal si cada par de vectores en el es ortogonal.

Ejemplos 40
CAPÍTULO 2. ESPACIOS VECTORIALES 76

1. El vector cero es ortogonal a cualquier otro vector v ∈ V : (0|v) = 0 para


todo v ∈ V .

2. Sea V = M3×2 , los vectores


   
2 0 3 5
A =  1 3 , B =  0 −2 
−2 1 1 2

son ortogonales (aquí el producto interno es la suma del producto de en-


trada por entrada): En efecto

(A|B) = 2(3) + 0(5) + 1(0) + 3(−2) − 2(1) + 1(2) = 0.

2.6. Bases ortonormales


Sea V espacio vectorial de dimensión finita con producto interno. La base
β = {v1 , . . . , vn } de V se dice base ortonormal de V si β es un conjunto ortogonal
de vectores y kvi k = 1 para todo i = 1, . . . , n.

Observación 28
un conjunto ortonormal de V es base ssi el conjunto genera a V .

Ejemplos 41
El conjunto {e1 , . . . , en } ⊂ Rn es base ortonormal con el producto interno ca-
nónico de Rn : En efecto para i, j = 1, . . . , n
½
0 si i 6= j
(ei |ej ) =
1 si i = j,

así kei k = 1, para todo i = 1, . . . , n.

Teorema 34
Sea β = {v1 , . . . , vn } un conjunto ortonormal en un espacio vectorial V con
producto interno. Las siguientes afirmaciones son equivalentes
1. β es base de V .

2. Para todo v ∈ V
X
n
v= (v|vi )vi ,
i=1

3. Para cualesquiera u, v ∈ V ,
X
n
(u|v) = (u|vi ) (vi |v),
i=1
CAPÍTULO 2. ESPACIOS VECTORIALES 77

4. Para cualesquiera vector v ∈ V ,


X
n
kvk2 = (v|vi )2 .
i=1

Demostración

1) ⇒ 2) v ∈ V , entonces
v = c1 vi + · · · + cn vn
y notemos que (v|vi ) = ci para todo i = 1, . . . , n, así
X
n
v= (v|vi )vi
i=1

2) ⇒ 3) Sean u, v ∈ V ,luego
X
n
u= (u|vi )vi ,
i=1

y por lo tanto
X
n
(u|v) = (u|vi )(vi |v).
i=1

3) ⇒ 4) Se tiene de 3, tomando u = v.
4) ⇒ 1) Para v ∈ V
X
n
kvk2 = (u|vi )2 ,
i=1

la igualdad se cumple ssi u ∈ L(v1 , . . . , vn ): En efecto


X
n
u ∈ L(v1 , . . . , vn ) ssi w =u− (u|vi )vi = 0
i=1

ssi
X
n X
n X
n
0 = kwk2 = (u|u) − 2 (u|vi )2 + (u|vi )2 = kuk2 − (u|vi )2 .
i=1 i=1 i=1

Ejemplos 42
Sea β = {u, v, w} ⊂ R3 con u = (2/3, −2/3, 1/3), v = (2/3, 1/3, −2/3), w =
(1/3, 2/3, 2/3) y el producto interno canónico de R3 . β es una base ortonormal
de R3 : En efecto

(u|v) = 4
9 − 2
9 − 2
9 = 0, (u|w) = 2
9 − 4
9 + 2
9 = 0,
(u|v) = 2
9 + 2
9 − 4
9 = 0,
CAPÍTULO 2. ESPACIOS VECTORIALES 78

y q q
kuk = 4
+ 49 +
9
1
9 = 1, kvk = 4
9 + 1
9 + 4
9 = 1,
kwk = 1,
luego β es base ortonormal de R3 (es un conjunto l.i. de tres vectores).
Ahora veamos lo práctico que es tener una base ortonormal; por ejemplo si
queremos expresar u0 = (6, 6, −9) como combinación lineal de la base, para esto
por el Teorema 34

(6, 6, −9) = (u0 |u)u + (u0 |v)v + (u0 |w)w


= (4 − 4 − 3)u + (4 + 2 + 6)v + (2 + 4 − 6)w
= −3u + 12v

Ahora veremos que todo espacio vectorial V dimensión finita con producto
interno posee una base ortonormal.

2.6.1. Proceso de Gram-Schmidt


Sea V espacio vectorial de dimensión finita n, con producto interno, y β =
{v1 , . . . , vn } base de V . Construiremos una base ortonormal βON = {u1 , . . . , un }
y el proceso que utilizaremos es el llamado proceso de ortonormalización de
Gram-Schmidt: si n = 1, tenemos que β = {v1 }, para construir la base ortonor-
mal solo necesitamos normalizar v1 , es decir,
v1
u1 = ,
kv1 k

y claramente ku1 k = kv11 k = 1, por lo tanto βON = {u1 }.


Para n = 2, β = {v1 , v2 }, y para contruir la base ortonormal βON = {u1 , u2 }
primero tomamos
v1
u1 = ,
kv1 k
y como antes ku1 k = 1. Para encontrar u2 descomponemos

v2 = w1 + w2 (2.2)

con w1 ∈ L(u1 ) y w2 ortogonal a u1 , de aquí obtenemos que

w1 = cu1 c escalar (w2 |u1 ) = 0,

por 2.2
w2 = v2 − w1 = v2 − cu1
y entonces
0 = (w2 |u1 ) = (v2 |u1 ) − c(u1 |u1 ) = (v2 |u1 ) − c,
por lo tanto c = (v2 |u1 ), y por 2.2

w2 = v2 − (v2 |u1 )u1


CAPÍTULO 2. ESPACIOS VECTORIALES 79

finalmente normalizemos el vector w2


v2 − (v2 |u1 )u1
u2 = .
kv2 − (v2 |u1 )u1 k
Para n = 3, β = {v1 , v2 , v3 }. Para construir la base ortonormal βON = {u1 , u2 , u3 }
procedemos como antes así
v1
u1 = ,
kv1 k
y
v2 − (v2 |u1 )u1
u2 = ;
kv2 − (v2 |u1 )u1 k
Para calcular u3 descomponemos
v3 = w1 + w2
con w1 ∈ L(u1 , u2 ), y w2 ortogonal a u1 , y u2 , es decir,
w1 = c1 u1 + c2 u2 c1 , c2 escalares,
y
(w2 |u1 ) = 0, (w2 |u2 ) = 0
de aquí
w2 = v3 − w1 = v3 − c1 u1 − c2 u2 ,
y
0 = (w2 |u1 ) = (v3 |u1 ) − c1
0 = (w2 |u2 ) = (v3 |u2 ) − c2
por lo tanto
w2 = v3 − (v3 |u1 )u1 − (v3 |u2 )u2
finalmente
v3 − (v3 |u1 )u1 − (v3 |u2 )u2
u3 =
kv3 − (v3 |u1 )u1 − (v3 |u2 )u2 k
y hemos encontrado la base ortonormal.
El caso general nos lo da el siguiente Teorema
Teorema 35 Sea β = {v1 , . . . , vn } base de V espacio vectorial con producto
interno, entonces βON = {u1 , . . . , un } donde
v1
u1 =
kv1 k
v2 − (v2 |u1 )u1
u2 =
v2 − (v2 |u1 )u1
.. .. ..
. . .
Pn−1
vn − i=1 (vn |ui )ui
un = Pn−1
kvn − i=1 (vn |ui )ui k
es una base ortonormal.
CAPÍTULO 2. ESPACIOS VECTORIALES 80

Demostración
Por indución, supongamos que se cumple para n = r, y veamos que se cum-
ple para r + 1. Sea β = {v1 , . . . , vr+1 } base de V , por hipotesis de inducción
{v1 , . . . , vr } tiene como base ortonormal a βON = {u1 , . . . , ur }, y definimos
Pr
vr+1 − i=1 (vr+1 |ui )ui
ur+1 = Pr
kvr+1 − i=1 (vr+1 |ui )ui k

notemos que ur+1 6= 0 ya que en caso contrario

X
r
vk = (vr+1 |ui ) ∈ L(u1 , . . . , ur+1 ) = L(v1 , . . . , vr+1 )
i=1

lo cual contradice que v1 , . . . , vr+1 son l.i. Claramente se ve que kur+1 k = 1,


ahora veamos que es ortogonal a los otros r vectores: En efecto
" #
1 Xr
(ur+1 |uj ) = Pr (vr+1 |uj ) − (vr+1 |ui ) (ui |uj )
kvr+1 − i=1 (vr+1 |uj )uj k i=1
1
= Pr [(vr+1 |uj ) − (vr+1 |uj ) (uj |uj )]
kvr+1 − i=1 (vr+1 |uj )uj k
= 0.

Finalmente como {u1 , . . . , ur+1 } forma un conjunto ortonormal de r +1 vectores


en el espacio de dimensión r + 1, es una base de V .

Corolario 16
Todo espacio vectorial de dimensión finita con producto interno posee una base
ortonormal.

Ejemplos 43

1. Consideremos R2 y β = {v1 , v2 } ⊂ R2 base con

v1 = (1, 1), v2 = (4, 0).

Encontrar una base ortonormal de R2 . De acuerdo al Teorema anterior


v1 (1, 1)
u1 = =√ = ( √12 , √12 )
kv1 k 12 + 12

v2 − (v2 |u1 )u1


u2 =
kv2 − (v2 |u1 )u1 k
³ ´
(4, 0) − (4, 0)|( √12 , √12 ) ( √12 , √12 )
= ° ³ ´ °
° °
°(4, 0) − (4, 0)|( √12 , √12 ) ( √12 , √12 )°
CAPÍTULO 2. ESPACIOS VECTORIALES 81

(4, 0) − √4 ( √1 , √1 )
= ° 2 2 2
°
° °
°(4, 0) − √4 ( √1 , √1 )°
2 2 2
(4, 0) − (2, 2)
=
k(4, 0) − (2, 2)k
(2, −2)
= p
22 + (−2)2
(2, −2)
= √
2 2
1 1
= (√ , −√ )
2 2

2. Consideremos R3 y β = {v1 , v2 , v3 } ⊂ R3 base con

v1 = (1, 1, 0), v2 = (1, 1, 1), v3 = (0, 1, 1).

Encontrar una base ortonormal de R3 . Deacuerdo al Teorema anterior


v1 (1, 1, 0)
u1 = =√ = ( √12 , √12 , 0)
kv1 k 12 + 12

v2 − (v2 |u1 )u1


u2 =
kv2 − (v2 |u1 )u1 k
³ ´
(1, 1, 1) − (1, 1, 1)|( √12 , √12 , 0) ( √12 , √12 , 0)
= ° ³ ´ °
° °
°(1, 1, 1) − (1, 1, 1)|( √12 , √12 , 0) ( √12 , √12 , 0)°
(1, 1, 1) − √2 ( √1 , √1 , 0)
= ° 2 2 2
°
° °
°(1, 1, 1) − √2 ( √1 , √1 , 0)°
2 2 2
(1, 1, 1) − (1, 1, 0)
=
k(1, 1, 1) − (1, 1, 0)k
(0, 0, 1)
=
1

v3 − (v3 |u1 )u1 − (v3 |u2 )u2


u3 =
kv3 − (v3 |u1 )u1 − (v3 |u2 )u2 k
³ ´
(0, 1, 1) − (0, 1, 1)|( √12 , √12 , 0) ( √12 , √12 , 0) − ((0, 1, 1)|(0, 0, 1)) (0, 0, 1)
= ° ³ ´ °
° °
°(0, 1, 1) − (0, 1, 1)|( √12 , √12 , 0) ( √12 , √12 , 0) − ((0, 1, 1)|(0, 0, 1)) (0, 0, 1)°
(0, 1, 1) − √1 ( √12 , √12 , 0) − (0, 0, 1)
= ° 2
°
° °
°(0, 1, 1) − √1
2
( √12 , √12 , 0) − (0, 0, 1)°
CAPÍTULO 2. ESPACIOS VECTORIALES 82

(0, 1, 1) − ( 12 , 12 , 0) − (0, 0, 1)
= ° °
°(0, 1, 1) − ( 1 , 1 , 0) − (0, 0, 1)°
2 2
(− 1 , 1 , 0)
= ° 21 12 °
°(− , , 0)°
2 2
√ 1 1
= 2 (− , , 0)
2 2

2.7. Proyección ortogonal


Sean v1 , v2 ∈ V espacio vectorial, la proyección ortogonal de v1 a v2 está
dada por
(v1 |v2 )
Pv2 (v1 ) := αv2 , con α= .
kv2 k2

Ejemplos 44

1. Hallar la proyección ortogonal de v1 = (1, 2) sobre v2 = (0, 3):


¾
(v1 |v2 ) = 1(0) + 2(3) = 6 6 2
=⇒ Pv2 (v1 ) = v2 = v2
kv2 k2 = 32 = 9 9 3

2. Hallar la proyección ortogonal de v1 = (−1, 2) en v2 = (3, 1):


¾
(v1 |v2 ) = −1(3) + 2(1) = −1 −1 −3 −1
=⇒ Pv2 (v1 ) = v2 = ( , ).
kv2 k2 = 32 + 12 = 10 10 10 10
CAPÍTULO 2. ESPACIOS VECTORIALES 83

Lista de ejercicios

1. Diga si cada uno de los siguientes subconjuntos del espacio vectorial R3


son o no subespacios vectoriales

a) {(x1 , x2 , x3 )| x1 = x2 = x3 = 0}.
b) {(x1 , x2 , x3 )| x1 + x2 + x3 = 0}.
c) {(x1 , x2 , x3 )| x1 = 0}.
d ) {(x1 , x2 , x3 )| x1 x2 x3 ≥ 3}.
e) {(x1 , x2 , x3 )| x3 = 1}.
2. Diga si cada uno de los siguientes subconjuntos del espacio vectorial Rn
son o no subespacios vectoriales
a) {(x1 , . . . , xn )| c1 x1 + c2 x2 + · · · + cn xn = 0}.
b) {(x1 , . . . , xn )| x1 + · · · + xn = 0}.
c) {(x1 , . . . , xn )| x1 = 0}.
d ) {(x1 , . . . , xn )| x1 x2 x3 ≥ 3}.
e) {(x1 , . . . , xn )| x21 + · · · + x2n = 0}.

3. Diga si cada uno de los siguientes subconjuntos del espacio vectorial P3


son o no subespacios vectoriales

a) {a0 + a1 x + a2 x2 + a3 x3 | a0 + a1 = 0}.
b) {a0 + a1 x + a2 x2 + a3 x3 | a0 = a1 = a2 = a3 = 0}.
c) {a0 + a1 x + a2 x2 + a3 x3 | a3 = 1}.
d ) {a0 + a1 x + a2 x2 + a3 x3 | a0 = a1 = a2 = a3 }.

4. Diga si cada uno de los siguientes subconjuntos del espacio vectorial Mn×n
son o no subespacios vectoriales

a) {A = (aij )i,j=1,...,n | a11 + a22 + · · · + ann = 0}.


b) {A = (aij )i,j=1,...,n | aij = 0 i, j = 1, . . . , n}.
c) {A = (aij )i,j=1,...,n | aij = 0 si i > j}.
5. Demuestre que el vector (2, 5) ∈ R2 es una combinación lineal de los
vectores v1 = (1, 3), v2 = (2, −1).
· ¸
−1 3
6. Demuestre que el vector ∈ M2×2 es una combinación lineal
2 −1
de los vectores
· ¸ · ¸ · ¸ · ¸
1 1 −1 3 0 1 0 0
v1 = , v2 = , v3 = , v4 = ,
1 1 0 4 3 −1 0 1
CAPÍTULO 2. ESPACIOS VECTORIALES 84

7. Determine el menor de los subespacios de R2 en el que se encuentran los


vectores v1 = (1, 3), v2 = (−1, 2).

8. Determine el menor de los subespacios de M2×2 en el que se encuentran


los vectores · ¸ · ¸
1 3 −1 2
v1 = , v2 = ,
8 1 0 1

9. Describa los siguientes subespacios de R3


a) L((1, 2, −1)).
b) L((2, 1, 4), (3, −1, 0)).
c) L((2, 1, 2), (−1, 0, 4), (3, 1, 4)).
d ) L((1, 1, 1), (2, 2, 2), (−3, −3, −3), (4, 4, 4), (−5, −5, −5)).

10. Demuestre que el espacio R3 es generado por cada uno de los siguientes
conjuntos de vectores

a) v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1).


b) v1 = (1, 1, 1), v2 = (2, 3, −5), v3 = (0, 1, 0).
c) v1 = (2, 3, 1), v2 = (3, 4, 2), v3 = (0, 1, 3), v4 = (1, 3, −1).
11. Demuestre que el espacio R4 no es generado por cada uno de los siguientes
conjuntos de vectores
a) v1 = (2, 1, 3, 1), v2 = (3, 1, 1, 1).
b) v1 = (3, 1, 1, 1), v2 = (1, 2, −1, 1), v3 = (5, 5, −1, 3), v4 = (3, 1, 0, 0).

12. Determine cuáles de los siguientes conjuntos de vectores en R3 son lineal-


mente independientes
a) v1 = (2, 3, 5), v2 = (3, 1, 4).
b) v1 = (1, 2, 1).
c) v1 = (1, 1, 2), v2 = (3, 1, 1), v3 = (1, 1, 2).
d ) v1 = (1, 3, 1), v2 = (2, 1, −1), v3 = (0, 3, 2).

13. Demuestre que el vector v1 = (8, 5, 0) ∈ R3 , se puede ver como combina-


ción lineal de los vectores v1 = (3, 1, 1) y v2 = (−1, 2, −3)

14. Determine si los siguientes conjuntos de vectores en M2×2 constituye una


base de este espacio
a)
· ¸ · ¸ · ¸ · ¸
1 0 1 1 1 1 1 1
v1 = , v2 = , v3 = , v4 = .
0 0 0 0 1 0 1 1
CAPÍTULO 2. ESPACIOS VECTORIALES 85

b)
· ¸ · ¸ · ¸ · ¸
1 0 0 1 2 3 −1 4
v1 = , v2 = , v3 = , v4 = .
0 1 1 0 3 2 5 3

15. Determine una base del espacio solución de cada uno de los sistemas ho-
mogeneos de ecuaciones lineales siguientes
a)

x1 + x2 = 0
2x1 + 2x2 = 0

b)

3x1 + x2 − x3 = 0
x1 − x2 + x3 = 0

16. Demostrar que cada uno de los siguientes conjuntos de vectores son base
de R3
a) v1 = (1, 2, 1), v2 = (2, 3, 3), v2 = (3, 7, 1).
b) v1 = (3, 1, 4), v2 = (5, 2, 1), v2 = (1, 1, −6).
17. Encuentre una base β de R3 tal que β contenga a los vectores indicados:
a) v1 = (1, 1, 1).
b) v1 = (2, 3, 1), v2 = (3, 1, 2).
c) v1 = (1, 1, 1), v2 = (3, −1, 4), v3 = (0, 1, 2).
d ) v1 = (1, 2, 3), v2 = (5, 2, 1), v3 = (7, 6, 2), v4 = (3, −1, 4).
18. Considere el siguiente conjunto de vectores en R3

S = {(2, 1, 1), (10, 0, 2), (3, −1, 0), (−3, 6, 3), (0, 1, −1)}

a) Demuestre que S es un conjunto de generadores de R3 .


b) Extraiga una base para R3 .
19. Considere el subsespacio W de R4 generado por los vectores

v1 = (0, 1, −3, 2), v2 = (1, −1, 0, 1), v3 = (3, 0, 1, −1), v4 = (4, 0, −2, 2).

a) Obtenga una base β de W formada por algunos de estos generadores.


b) Complete β para formar una base de R4 .
20. Considere los subespacios W2 y W2 de Mn×n dados por

W1 = {A ∈ Mn×n | A = At } Matrices simétricas,


W2 = {A ∈ Mn×n | A = −At } Matrices antisimétricas,
CAPÍTULO 2. ESPACIOS VECTORIALES 86

a) Determine bases para W1 y W2 .


b) Demuestre que
n(n+1) n(n−1)
dim W1 = 2 dim W2 = 2 .

c) Demuestre que Mn×n = W1 ⊕ W2 .


(Sugerencia para cualquier matriz A de orden n, A + At es simétrica y
A − At es antisimétrica).
21. Considere el espacio R3 con el producto interno canónico. Calcule las nor-
mas de los siguientes vectores:
√ √
a) (1/ 2, 1, 2).
b) (0, −3, −1).
c) (3, 1, 4).
22. Verificar si
(x|y) = x1 y1 + 2x2 y2 + 3x3 y3 ,
es un producto interno de R3 .
23. Verificar si
(x|y) = 3x1 y1 − 2x2 y2 + 3x3 y3 ,
es un producto interno de R3 .
24. En C([−1, 1]) considere el producto interno
Z 1
(f |g) = f (x)g(x) dx.
−1

Calcule las normas de los siguientes vectores


a) f (x) = ex ,
b) f (x) = x2 ex ,
c) f (x) = cos(x).
25. Calcule la distancia entre los siguientes pares de vectores de R3
a) u = (1, 2, −1), v = (2, 0, 1).
b) u = (−1, −2, −1), v = (0, 0, 1).
c) u = (−1, 0, −1), v = (1, 3, 2).
26. Calcule la distancia entre los siguientes pares de vectores de M2×2
a)
· ¸ · ¸
1 3 0 0
u= v= .
2 4 0 0
CAPÍTULO 2. ESPACIOS VECTORIALES 87

b)
· ¸ · ¸
3 1 3 −1
u= v= .
2 1 2 −1

27. Calcule el ángulo entre los siguientes pares de vectores de R2


a) u = (2, 3), v = (2, −1).
b) u = (1, 0), v = (0, 1).
c) u = (2, 4), v = (−6, 3).
28. Calcule el ángulo entre los siguientes pares de vectores de M2×2
a)
· ¸ · ¸
2 −1 3 4
u= v= .
3 2 2 2

b)
· ¸ · ¸
1 1 2 −3
u= v= .
2 3 1 4

29. Demuestre que el conjunto de vectores de R4

(2, 3, −3, 2), (2, −1, −1, −2) y (1, 2, 2, −1),

es un conjunto ortogonal.
30. Demuestre que el conjunto de vectores de R3
½ ¾
2 1 2 1 2 2
S = ( , , ), ( , , − )
3 3 3 3 3 3

es un conjunto ortonormal. Determine si cada uno de los vectores siguientes


pertenece a S:
a) (1, 2, 1).
b) (3, 3, 0).
31. Demuestre que el conjunto de vectores de R3
½ ¾
1 1 1 1 1 1 1 1
S = ( √ , 0, √ , 0), (0, − √ , 0, √ ), ( , − , − , − )
2 2 2 2 2 2 2 2
es un conjunto ortonormal. Determine los valores c1 , c2 , c3 y c4 tales que
1 1 1 1 1 1 1 1
(x1 , x2 , x3 , x4 ) = c1 ( √ , 0, √ , 0)+c2 (0, − √ , 0, √ )+c3 ( , − , − , − ).
2 2 2 2 2 2 2 2
CAPÍTULO 2. ESPACIOS VECTORIALES 88

32. Considere el espacio vectorial R2 con el producto interno canónico. Apartir


de la base β = {(2, 2), (4, −2)} construya una base ortonormal.

33. Considere el espacio vectorial R3 con el producto interno

(x|y) := x1 y1 + 2x2 y2 + x3 y3

Apartir de la base β = {(1, 1, 1), (2, 3, −1), (5, 2, −2)} construya una base
ortonormal.
34. Obtenga una base ortonormal para cada uno de los siguientes subespacios
de R3 con el producto interno canónico
a) {(x, y, z)| 2x + 3y − z = 0}.
b) {(x, y, z)| z = 0}.
c) {(x, y, z)| x = 3t, y = t, z = −2t}.

35. Obtenga una base ortonormal para cada uno de los siguientes subespacios
de R4 con el producto interno canónico

a) {(x, y, z, w)| y = z = w = 0}.


b) {(x, y, z, w)| x = z, y = w}.
c) L({(1, 2, 3, 1), (2, 1, 2, 2)}).
36. A partir de las bases dada construir una base ortonormal:

a) β = {(1, 1, 1), (2, 3, −1), (5, 2, −2)} base de R3 .


b) β = {(2, 2), (4, −2)} base de R2 .
c) β = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} base de R4 .
Capítulo 3

Transformaciones Lineales

3.1. Conceptos fundamentales


Una transformación lineal entre dos espacios vectoriales V , W (sobre R), es
una función T : V −→ W que cumple
1. T (u + v) = T (u) + T (v) para cualesquiera u, v ∈ V .
2. T (αv) = αT (v) para todo v ∈ V , y todo α ∈ R

Observación 29

1. La primera condición significa que T preserva sumas. La segunda condi-


ción significa que T preserva multiplicación por escalar.
2. Si V = W entonces T se llamará operador lineal.

Propiedades 1

1. T (0) = 0,
2. T (−v) = −T (v) para todo v ∈ V .
à n !
X Xn
3. T ci vi = ci T (vi ), c1 , . . . , cn ∈ R, v1 , . . . , vn ∈ V .
i=1 i=1

Ejemplos 45

1. La transformación cero:T : V −→ W tal que T (v) = 0 para todo v ∈ V ;


veamos que es lineal
T (u + v) = 0 = T (u) + T (v),

89
CAPÍTULO 3. TRANSFORMACIONES LINEALES 90

T (αv) = 0 = αT (v).
2. La transformación identidad: T : V −→ W tal que T (v) = v; veamos que
es lineal
T (u + v) = u + v = T (u) + T (v),
T (αv) = αv = αT (v).
3. La transformación reflexión con respecto al eje X: T : R2 −→ R2 dada
por
T (x, y, z) := (x, −y).
Veamos que es lineal:

T ((x1 , y1 ) + (x2 , y2 )) = T ((x1 + x2 , y1 + y2 )) = (x1 + x2 , −y1 − y2 )


= (x1 , −y1 ) + (x2 , −y2 )
= T (x1 , y1 ) + T (x2 , y2 ),

T (α(x, y)) = T ((αx, αy)) = (αx, −αy)


= α(x, −y)
= αT ((x, y)).

4. Considere la transformación T : R3 −→ R2 dada por

T ((x, y, z)) := (2x + 3y − 4z, x + 2y + z).

Verificar si es lineal o no:

T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = T ((x1 + x2 , y1 + y2 , z1 + z2 ))


= (2(x1 + x2 ) + 3(y1 + y2 ) − 4(z1 + z2 ),
(x1 + x2 ) + 2(y1 + y2 ) + (z1 + z2 ))
= (2x1 + 3y1 − 4z1 , x1 + 2y1 + z1 )
+ (2x2 + 3y2 − 4z2 , x2 + 2y2 + z2 )
= T (x1 , y1 , z1 ) + T (x2 , y2 , z2 ),

T (α(x, y, z)) = T ((αx, αy, αz)) = (2αx + 3αy − 4αz, αx + 2αy + αz)
= α(2x + 3y − 4z, x + 2y + z)
= αT ((x, y, z)).

por lo tanto la transformación es lineal.


5. Consideremos transformación T : R2 −→ R dada por

T ((x, y)) := x + y + 1.

Verificar si es o no lineal:
CAPÍTULO 3. TRANSFORMACIONES LINEALES 91

T ((x1 , y1 ) + (x2 , y2 )) = T ((x1 + x2 , y1 + y2 )) = x1 + x2 + y1 + y2 + 1


= x1 + y1 + 1 + x2 + y2
= T (x1 , y1 ) + x2 + y2
6= (x1 + y1 + 1) + (x2 + y2 + 1)
= T (x1 , y1 ) + T (x2 , y2 ).
Por lo tanto no es transformación lineal.
Teorema 36 Sean V, W espacios vectoriales, con dimV = n, β = {v1 , . . . , vn } ⊂
V base, y {u1 , . . . , un } ⊂ W , entonces existe una única transformación lineal
T : V −→ W tal que
T (vi ) = ui con i = 1, . . . , n.
Demostración
Definimos la transformación T como
T (c1 v1 + · · · + cn vn ) := c1 u1 + · · · + cn un ,
con c1 , . . . , cn ∈ R, y notemos que
T (0v1 + · · · + 1vi + · · · + 0vn ) = ui ,
es decir si solo el coeficiente del i-ésimo lugar es diferente de cero (1) obtenemos
ui . Esto se cumple para cada i = 1, . . . , n. Solo resta ver que es lineal
1. Suma:
T (u + v) = T ((a1 v1 + · · · + an vn ) + (b1 v1 + · · · + bn vn ))
= T ((a1 + b1 )v1 + · · · + (an + bn )vn )
= (a1 + b1 )u1 + · · · + (an + bn )un
= (a1 u1 + · · · + an un ) + (b1 u1 + · · · + bn un )
= T (a1 v1 + · · · + an vn ) + T (b1 v1 + · · · + bn vn )
2. Multiplicación por escalar:
T (αv) = T (α(a1 v1 + · · · + an vn ))
= T ((αa1 )v1 + · · · + (αan )vn )
= (αa1 )u1 + · · · + (αan )un
= α(a1 u1 + · · · + an un )
= αT (a1 v1 + · · · + an vn ).
Para finalizar veremos la unicidad: Supongamos que existe otra transformación
T̃ tal que
T̃ (c1 v1 + · · · + cn vn ) = c1 u1 + · · · + cn un
de aquí
T̃ (vi ) = ui ∀ i = 1, . . . , n,
por lo tanto T = T̃ .
Corolario 17 Si T1 , T2 son dos transformaciones lineales de V a W , y β =
{v1 , . . . , vn } ⊂ V base, tal que T1 (vi ) = T2 (vi ) para todo i = 1, . . . , n (coinciden
en una base), entonces T1 = T2 .
CAPÍTULO 3. TRANSFORMACIONES LINEALES 92

3.2. Núcleo e imagen


Sean V, W espacios vectoriales. T : V −→ W transformación lineal, defi-
nimos el núcleo (kernel) de T como

Ker T := {v ∈ V | T v = 0}.

También definimos la imagen de T como

Im T := {w ∈ W | existe v ∈ V, tal que T v = w}.

Propiedades 2

1. Ker T es un subespacio vectorial de V .

2. Im T es un subespacio vectorial de W .

Ejemplos 46

1. Encontrar el núcleo y la imagen de la transformación T : R3 −→ R3


definida por

T ((x, y, z)) := (x + 2y + z, 3x + y − 2z, −x − 7y − 6z).

Para calcular el núcleo T ((x, y, z)) = 0, entonces

x + 2y + z = 0,
3x + y − 2z = 0,
−x − 7y − 6z = 0,

debemos resolver el sistema para saber la forma del núcleo; por el método
de reducción de Gauss
   
1 2 1 1 2 1
 3 1 −2  ∼L3 +L1  3 1 −2  ∼L2 −3L1
−1 −7 −6 0 −5 −5
   
1 2 1 1 2 1
 0 −5 −5  ∼L3 −L2  0 −5 −5  ∼L2 /−5
0 −5 −5 0 0 0
   
1 2 1 1 0 −1
 0 1 1  ∼L1 −2L2  0 1 1 ,
0 0 0 0 0 0
así obtenemos ¾
x−z = 0 x=z
=⇒
y+z = 0, y = −z,
CAPÍTULO 3. TRANSFORMACIONES LINEALES 93

entonces si z = t, las soluciones tienen la forma


(t, −t, t) = t(1, −1, 1),
y entonces Ker T = L((1, −1, 1)) = {t(1, −1, 1)| t ∈ R}. Ahora calcule-
mos la imagen: Por definición T ((x, y, z)) = (a, b, c) (vector arbitrario), y
obtenemos
x + 2y + z = a
3x + y − 2z = b
−x − 7y − 6z = c,
luego resolviendo el sistema para conocer la forma de la imagen,
   
1 2 1 | a 1 2 1 | a
 3 1 −2 | b  ∼L3 +L1  3 1 −2 | b  ∼L2 −3L1
−1 −7 −6 | c 0 −5 −5 | c+a
   
1 2 1 | a 1 2 1 | a
 0 −5 −5 | b − 3a  ∼L3 −L2  0 −5 −5 | b − 3a  ∼L2 /−5
0 −5 −5 | c + a 0 0 0 | c − b + 4a
   
1 2 1 | a 1 0 −1 | 4a − b + c
 0 1 1 | − 1 b + 3 a  ∼L1 −2L2  0 1 1 | − 51 b + 35 a  ,
5 5
0 0 0 | c − b + 4a 0 0 0 | c − b + 4a
así obtenemos
x−z = 4a − b + c
y+z = − 51 b + 35 a
0 = c − b + 4a,
por lo tanto
Im T = {(a, b, c) ∈ R3 | 4a − b + c = 0}
= {(a, b, b − 4a) ∈ R3 | a, b ∈ R}.
Notemos que
(a, b, b − 4a) = (a, 0, −4a) + (0, b, b)
= a(1, 0, −4) + b(0, 1, 1),
donde {(1, 0, −4), (0, 1, 1)} se ve fácilmente que son l.i., entonces estos
vectores forman una base de Im T .
2. Consideremos la transformación lineal T : M2×2 −→ M3×1 , dada por
 
· ¸ a+b+c+d
a b
T =  2a + 3b + 4c + 6d  .
c d
a + 3b + 5c + 9d
Encontrar su núcleo e imagen: Para encontrar el núcleo
 
· ¸ 0
a b
T =  0 ,
c d
0
CAPÍTULO 3. TRANSFORMACIONES LINEALES 94

así
a+b+c+d = 0
2a + 3b + 4c + 6d = 0
a + 3b + 5c + 9d = 0,
resolviendo el sistema por eliminación Gaussiana
   
1 1 1 1 1 1 1 1
 2 3 4 6  ∼L3 −L1  2 3 4 6  ∼L2 −2L1
1 3 5 9 0 2 4 8
   
1 1 1 1 1 1 1 1
 0 1 2 4  ∼L3 /2  0 1 2 4  ∼L3 −L2
0 2 4 8 0 1 2 4
   
1 1 1 1 1 0 −1 −3
 0 1 2 4  ∼L1 −L2  0 1 2 4 ,
0 0 0 0 0 0 0 0
así obtenemos
¾
a − c − 3d = 0 a = c + 3d
=⇒
b + 2c + 4d = 0, b = −2c − 4d,
si c = t, d = t en R, las soluciones tienen la forma
· ¸ · ¸ · ¸
s + 3t −2s − 4t s −2s 3t −4t
= +
s t s 0 0 t
· ¸ · ¸
1 −2 3 −4
= s +t
1 0 0 1
= sA + tB

Facílmente se ve que {A, B} es l.i., entonces forma una base del núcleo y

Ker T = L(A, B).

Para calcular la imagen resolvemos


 
· ¸ x
a b
T =  y ,
c d
z
así
a+b+c+d = x
2a + 3b + 4c + 6d = y
a + 3b + 5c + 9d = z,
resolviendo el sistema por eliminación Gaussiana
   
1 1 1 1 | x 1 1 1 1 | x
 2 3 4 6 | y  ∼L3 −L1  2 3 4 6 | y  ∼L2 −2L1
1 3 5 9 | z 0 2 4 8 | z−x
CAPÍTULO 3. TRANSFORMACIONES LINEALES 95
   
1 1 1 1 | x 1 1 1 1 | x
 0 1 2 4 | y − 2x  ∼L3 /2  0 1 2 4 | y − 2x  ∼L3 −L2
0 2 4 8 | z−x 0 1 2 4 | z−x
2
   
1 1 1 1 | x 1 0 −1 −3 | −y + 2x
 0 1 2 4 | y−x  ∼L1 −L2  0 1 2 4 | y−x ,
0 0 0 0 | 2 − (y − 2x)
z−x
0 0 0 0 | 2x − y + 2z
3 1

así obtenemos
3
2x − y + 12 z = 0
3x − 2y + z = 0,
y  ¯ 
 x ¯¯ 
Im T =  y ¯ 0 = 3x − 2y + z
 ¯ 
z ¯
 ¯ 
 x ¯ 
¯
=  y ¯ x, y ∈ R ,
 ¯ 
2y − 3x ¯
notemos que
     
x x 0
 y  =  0 + y 
2y − 3x −3x 2y
   
1 0
= x 0  + y 1 ,
−3 2
como facílmente se ve que son l.i., tenemos que
   
 1 0 
 0 , 1 
 
−3 2
es base de Im T .

3.3. El teorema de la dimensión


Sean V, W espacios vectoriales, n = dim V , y T : V −→ W una transforma-
ción lineal. Definimos
N (T ) := dim(Ker T ) Nulidad
R(T ) := dim(Im T ) Rango
Teorema 37 (Teorema de la dimensión)
Sean V, W espacios vectoriales, n = dim V , y T : V −→ W transformación
lineal, entonces
R(T ) + N (T ) = n
CAPÍTULO 3. TRANSFORMACIONES LINEALES 96

Demostración
Sea Ker T = L(v1 , . . . , vr ), luego β1 = {v1 , . . . , vr } es base, y la extendemos
a β = {v1 , . . . , vr , vr+1 , . . . , vn } una base de V (notemos que vr+1 , . . . , vn 6∈
Ker T ).
Ahora veremos que β2 = {T (vr+1 ), . . . , T (vn )} es base de V:
Genera: Sea w ∈ Im T , luego existe v ∈ V tal que T v = w; Como v ∈ V ,
entonces
v = c1 v1 + · · · + cr+1 vr+1 + · · · + cn vn ,
aplicando T
w = Tv = T (c1 v1 + · · · + cr+1 vr+1 + · · · + cn vn )
= c1 T (v1 ) + · · · + cr+1 T (vr+1 ) + · · · + cn T (vn )
= cr+1 T (vr+1 ) + · · · + cn T (vn )

l.i.: Supongamos que es l.d., entonces existe al menos un ci 6= 0 (i =


r + 1, . . . , n),sea cn 6= 0 tal coeficiente, entonces
cr+1 T (vr+1 ) + · · · + cn T (vn ) = 0, cn 6= 0
implica que
T (cn vn ) = 0,
y entonces vn ∈ Ker T = L(v1 , . . . , vk ) lo cual es una contradicción pues
por la forma en que se extiende la base β1 a la base β, (vn 6∈ L(v1 , . . . , vk )).
Por lo tanto β2 es l.i.

Finalmente como β es base de V :


n = N (T ) + R(T ).
Ejemplos 47
Consideremos los ejemplos 46
1. Tenemos que N (T ) = 1, R(T ) = 2, y
N (T ) + R(T ) = 3 = dim R3 .

2. Tenemos N (T ) = 2, R(T ) = 2, y
N (T ) + R(T ) = 4 = dim M2×2 .

3.4. Representación matricial de una transforma-


ción lineal
Sea T : U −→ V transformación lineal con U , V espacios vectoriales de
dimensión finita a decir n = dim U , m = dim V . Consideremos las bases de U
y V respectivamente
β1 = {u1 , u2 , . . . , un }
CAPÍTULO 3. TRANSFORMACIONES LINEALES 97

β2 = {v1 , v2 , . . . , vm }.
Para todo u ∈ U tenemos que
u = a1 u1 + a2 u2 + · · · + an un ,
a la matriz formada por los coeficientes
 
a1
 a2 
 
[u]β1 =  .. 
 . 
an
le llamaremos la matriz del vector u con respecto a la base β1 . Aplicando T al
vector u tenemos que
T (u) = a1 T (u1 ) + a2 T (u2 ) + · · · + an T (un ),
como T (ui ) ∈ V para todo i = 1, . . . , n. Entonces
T (ui ) = b1i v1 + b2i v2 + · · · + bmi vm ,
para todo i = 1, . . . , n. A la matriz formada por los coeficientes bi ’s
 
b1i
 b2i 
 
[T (ui )]β2 =  . 
 .. 
bmi
le llamaremos la matriz de T (ui ) con respecto a la base β2 . Asi
T (u) = a1 T (u1 ) + a2 T (u2 ) + · · · + an T (un )
= a1 (b11 v1 + · · · bm1 vm ) + · · · + an (b1n v1 + · · · bmn vm )
= (a1 b11 + a2 b12 + · · · + an b1n )v1 + (a1 b21 + a2 b22 + · · · + an b2n )v2
· · · + (a1 bm1 + a2 bm2 + · · · + an bmn )vm ,
y  
a1 b11 + a2 b12 + · · · + an b1n
 a1 b21 + a2 b22 + · · · + an b2n 
 
[T (u)]β2 =  .. 
 . 
a1 bm1 + a2 bm2 + · · · + an bmn
pero notemos que
  
b11 b12 ··· b1n a1
 b21 b22 ··· b2n  a2 
  
 .. ..  ..  = [T (u)]β2
 . .  . 
bm1 bm2 · · · bmn an
| {z } | {z }
A [u]β1
CAPÍTULO 3. TRANSFORMACIONES LINEALES 98

es decir
[T (u)]β2 = A[u]β1 .
A la matriz A le llamaremos la matriz asociada a la transformación T con
respecto a las bases β1 , β2 y la denotaremos

A = [T ]β1 β2 .

Observación 30

1. Las columnas de [T ]β1 β2 son las matrices de T (ui ) con respecto a la base
β2
[T ]β1 β2 = ([T (u1 )]β2 , [T (u2 )]β2 , . . . , [T (un )]β2 ).

2. [T ]β1 β2 es una matriz de orden m × n.


3. T u = [T ]β1 β2 [u]β1 .

Ejemplos 48

1. Sea T : M2×2 −→ M3×1 transformación lineal dada por


 
µ· ¸¶ 2a + 3b − c
a b
T =  a + 2b + c + 2d  ,
c d
a + b − 3c − 4d

y consideremos las bases


½· ¸ · ¸ · ¸ · ¸¾
1 0 0 1 0 0 0 0
β1 = , , ,
0 0 0 0 1 0 0 1
     
 1 0 0 
β2 =  0  ,  1  ,  0  ,
 
0 0 1
de M2×2 y M3×1 correspondientemente. Obtener la matriz asociada a la
transformación lineal T .
Primero evaluemos T en cada vector de la base β1
   
µ· ¸¶ 2 µ· ¸¶ 3
1 0   0 1
T = 1 , T =  2 ,
0 0 0 0
1 1
   
µ· ¸¶ −1 µ· ¸¶ 0
0 0 0 0
T =  1 , T =  2 ,
1 0 0 1
3 −4
Como β2 es la base canónica de M3×1

[T (ui )]β2 = T (ui )


CAPÍTULO 3. TRANSFORMACIONES LINEALES 99

con los ui ’s los vectores de la base β1 , y por lo tanto la matriz asociada a


T es  
2 3 −1 0
[T ]β1 β2 =  1 2 1 2 ,
1 1 −3 −4
así  
  a
µ· ¸¶ 2 3 −1 0
a b  b 
T = 1 2 1 2  c
.

c d
1 1 −3 −4
d

2. Sea T : R3 −→ R4 transformación lineal definida por

T (x, y, z) = (x + 3y − z, 2x + y + 3z, −3x − 14y + 8z, 3x + 4y + 2z)

con
β1 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}
base de R3 ,

β2 = {(0, 0, 1, 1), (0, 1, 0, 1), (1, 1, 0, 1), (1, 1, 1, 1)}

base de R4 . Encontrar la matriz asociada a T con respecto a estas bases.


Primero evaluemos los elementos de β1 en T

T ((1, 0, 0)) = (1, 2, −3, 3),


T ((1, 1, 0)) = (4, 3, −17, 7),
T ((1, 1, 1)) = (3, 6, −9, 9),

luego expresamos los vectores resultantes como combinación de la base β2 :


Para esto resolvamos

c1 (0, 0, 1, 1) + c2 (0, 1, 0, 1) + c3 (1, 1, 0, 1) + c4 (1, 1, 1, 1) = (x, y, z, w),

de aqui obtenemos el siguiente sistema

c3 + c4 = x
c2 + c3 + c4 = y
c1 + c4 = z
c1 + c2 + c3 + c4 = w

tomando la matriz del sistema y llevandola a la reducida


   
0 0 1 1 x 1 0 0 1 z
 0 1 1 1 y   0 1 1 1 y 
  ∼   ∼
 1 0 0 1 z  F1 ↔F3  0 0 1 1 x  F4 −F1
1 1 1 1 w 1 1 1 1 w
CAPÍTULO 3. TRANSFORMACIONES LINEALES 100
   
1 0 0 1 z 1 0 0 1 z
   
 0 1 1 1 y  ∼F4 −F2  0 1 1 1 y  ∼−F4
 0 0 1 1 x   0 0 1 1 x 
0 1 1 0 w−z 0 0 0 −1 w − z − y
   
1 0 0 1 z 1 0 0 0 w−y
 0 1 1 1 y   0 1 1 1 w−z 
  ∼   ∼F2 −F3
 0 0 1 1 x  F1 − F4  0 0 1 1 x − y − z + w 
0 0 0 1 y+z−w F2 − F4 0 0 0 −1 y+z−w
F3 − F4
 
1 0 0 0 w−y
 0 1 0 0 y−x 
 
 0 0 1 0 x−y−z+w 
0 0 0 1 y+z−w
así

c1 = w−y
c2 = y−x
c3 = x+w−y−z
c4 = y + z − w.

Si (x, y, z, w) = (1, 2, −3, 3)

c1 = 1
c2 = 1
c3 = 5
c4 = −4

por lo tanto  
1
 1 
[T u1 ]β2 =
 3 

−4
Si (x, y, z, w) = (4, 3, −17, 7)

c1 = 4
c2 = −1
c3 = 25
c4 = −21

tenemos que  
4
 −1 
[T u2 ]β2 =
 25 

−21
CAPÍTULO 3. TRANSFORMACIONES LINEALES 101

Si (x, y, z, w) = (3, 6, −9, 9)

c1 = 3
c2 = 3
c3 = 15
c4 = −12

así  
3
 3 
[T u3 ]β2 =
 15 

−12
y entonces la matriz asociada a la transformación lineal es
 
1 4 3
 1 −1 3 
 
 3 25 15 
−4 21 −12

Hemos visto que toda transformación lineal T : Rn −→ Rm se puede representar


mediante una matriz A y de aquí tendremos que

T X = AX ∀ X ∈ Rn ,

y es válido el siguiente teorema:


Teorema 38
Sea T : Rn −→ Rm transformación lineal, A la representación matricial de T .
Entonces

Ker T = {X ∈ Rn | AX = 0}

Im T = {Y ∈ Rm | ∃ X ∈ Rn , AX = Y } = L(v1 , v2 , . . . , vn )

donde v1 , v2 , . . . , vn son las columnas de A.

Ejemplos 49
Sea T : M2×2 −→3×1 la transformación lineal dada por
 
µ· ¸¶ a+b+c+d
a b
T =  2a + 3b + 4c + 6d  ,
c d
a + 3b + 5c + 9d

consideremos la bases
½· ¸ · ¸ · ¸ · ¸¾
1 1 0 1 1 0 0 1
β1 = , , ,
0 0 −1 0 1 1 1 −1
CAPÍTULO 3. TRANSFORMACIONES LINEALES 102
      
 1 1 1 
β2 =  0  ,  1  ,  1  ,
 
0 0 1
de M2×2 y M3×2 respectivamente. Describir Ker T e Im T por medio de
A = [T ]β1 β2 .
Primero calculemos la imagen de β1 bajo T
   
µ· ¸¶ 2 µ· ¸¶ 0
1 1 0 1
T =  5 , T = −1  ,
0 0 −1 0
4 −2
   
µ· ¸¶ 3 µ· ¸¶ 1
1 0 0 1
T =  12  , T =  1 ,
1 1 1 −1
15 −1
luego para expresar estos vectores en términos de la base β2 resolvemos de ma-
nera general        
1 1 1 x1
c1  0  + c2  1  + c3  1  =  x2 
0 0 1 x3
lo que es equivalente a resolver
c1 + c2 + c3 = x1
c2 + c3 = x2
c3 = x3 ,
despejando de este sistema obtenemos
c1 = x1 − x2
c2 = x2 − x3
c3 = x3 ,
y de aquí
   
· µ· ¸¶¸ −3 · µ· ¸¶¸ 1
1 1 0 1
T =  1 , T =  1 ,
0 0 −1 0
β2 4 β2 −2
   
· µ· ¸¶¸ −9 · µ· ¸¶¸ 0
1 0 0 1
T =  −3  , T =  2 ,
1 1 1 −1
β2 15 −1
por lo tanto  
−3 1 −9 0
A = [T ]β1 β2 = 1 1 −3 2 .
4 −2 15 −1
Ahora calculamos Ker T , para esto resolvamos el sistema homogéneo
AX = 0,
CAPÍTULO 3. TRANSFORMACIONES LINEALES 103

tomando la matriz del sistema y llevando a la reducida obtenemos


   
−3 1 −9 0 1 1 −3 2
 1 1 −3 2  ∼F1 ↔F2  −3 1 −9 0  ∼ F2 + 3F1
F3 − 4F1
4 −2 15 −1 4 −2 15 −1
   
1 1 −3 2 1 1 −3 2
 0 4 −18 6  ∼ F2 /2  0 2 −9 3  ∼F3 +F2
0 −6 27 −9 0 −2 9 −3
F3 /3

   
1 1 −3 2 1 1 −3 2
 0 2 −9 3  ∼F2 /2  0 1 −9/2 3/2  ∼F1 −F2
0 0 0 0 0 0 0 0
 
1 0 3/2 1/2
 0 1 −9/2 3/2 
0 0 0 0
así
x1 + 3/2x3 + 1/2x4 = 0
x2 − 9/2x3 + 3/2x4 = 0
y por lo tanto el conjunto solución esta dado por los vectores de la forma
 
−3/2x3 − 1/2x4
 9/2x3 − 3/2x4 
 
 x3 
x4

donde x3 x4 estan en R, es decir,


3 1 9 3
Ker T = {(− s − t, s − t, s, t)| s, t ∈ R}.
2 2 2 2
Ahora calculemos Im T : Por el Teorema anterior tenemos que Im T = L(v1 , v2 , v3 , v4 ),
donde
       
−3 1 −9 0
v1 =  1  , v2 =  1  , v3 =  −3  , v4 =  2  ,
4 2 15 1

esto es equivalente a llevar a la forma reducida escalonada la siguiente matriz


 
−3 1 −9 0 x1
 1 1 −3 2 x2 
4 2 15 1 x3

llevandola a la reducida escalonada


   
−3 1 −9 0 x1 1 0 3/2 1/2 x2
 1 1 −3 2 x2  ∼  0 1 −9/2 3/2 x1 +3x2 ,
2
4 2 15 1 x3 0 0 0 0 x1
2 − x62 + x33
CAPÍTULO 3. TRANSFORMACIONES LINEALES 104

es decir,
x1 x2 x3
Im T = {(x1 , x2 , x3 )| − + = 0}
2 6 3
o
s 2
Im T = {( − t, s, t)| s, t ∈ R}.
3 3
Notemos que el Ker T e Im T obtenidos anteriormente no coinciden con los
obtenidos en ejemplos 46 (2). La pregunta natural que surge es ¿existe alguna
relación entre Ker T , Im T calculados con la representación matricial de T
y Ker T , Im T calculados en ejemplos 46 (2)? Para encontrar esta relación
primero observemos que Ker T e Im T calculados recientemente dependen de
las bases β1 , β2 . Mientras que los calculados en los ejemplos 46 (2) dependen de
las bases canónicas. Con esta consideración al tomar la combinación
· ¸ · ¸ · ¸ · ¸
3 1 1 1 9 3 0 1 1 0 0 1
( s − t) + ( s − t) +s +t
2 2 0 0 2 2 −1 0 1 1 1 −1

obtendremos una representación de Ker T en la base canónica de M2×2


 1 
− 2 (s + t) 3s − t
 
− 72 s + 52 t s − t

la cual coincide con la obtenida en ejemplos 46 (2) para esto basta tomar t0 = s−t
y s0 = − 27 s + 52 t, así
 1 
− 2 (s + t) 3s − t · 0 0 0 0
¸
  = s +0 t −2s 0− 4t .
s t
− 72 s + 52 t s − t

Analogamente para la representación de la imagen obtenida en los ejemplos


46 (2)
Primero consideramos la combinación
       2 1

1 1 1 3s + 3t
1 2  
(− s − t) 0 + s  1  + t  1  =  s + t 
3 3
0 0 1 t

luego tomando x = 32 s + 13 t y y = s + t obtenemos


 2 1
  
3s + 3t x
 s+t = y 
t 2y − 3x

lo cual coincide con la Im T obtenida en ejemplos 46 (2).


CAPÍTULO 3. TRANSFORMACIONES LINEALES 105

3.5. Cambio de base


Sea T : U −→ V transformación lineal con dim U = m, y dim V = n. Sean
β1 , β10 bases de U
β2 , β20 bases de V.
Veremos la relación que existe entre [T ]β1 β2 y [T ]β10 β20 . Consideremos
u = c1 u1 + c2 u2 + · · · + cm um ,
la representación de u con respecto a la base β1 , y
u = c01 u01 + c02 u02 + · · · + c0m u0m ,
la representación de u con respecto a la base β10 . Como cada u0i se ve como
u0i = p1i u1 + p2i u2 + · · · + pmi um ,
entonces
u = (c01 P11 +· · ·+c0m P1m )u1 +(c01 P22 +· · ·+c0m P2m )u2 +· · ·+(c01 Pm1 +· · ·+c0m Pnm )um ,
así
[u]β1 = P [u]β10 (3.1)
donde  
p11 p12 ··· p1m
 p21 p22 ··· p2m 
 
P = .. .. .. .. 
 . . . . 
pm1 pm2 ··· pmm
es una matriz cuadrada invertible. Analogamente obtenemos que
[T u]β2 = Q[T u]β20 . (3.2)
Por otro lado
[T u]β2 = [T ]β1 β2 [u]β1
[T u]β20 = [T ]β1 β2 [u]β1
de aquí por 3.1 y 3.2
[T u]β2 = [T ]β1 β2 P [u]β10
−1
Q [T u]β2 = [T ]β10 β20 [u]β10
así
Q−1 [T ]β1 β2 P [u]β10 = [T ]β10 β20 [u]β10
como esto se cumple para todo vector u ∈ U , entonces
Q−1 [T ]β1 β2 P = [T ]β10 β20
CAPÍTULO 3. TRANSFORMACIONES LINEALES 106

Teorema 39
Sea T : U −→ V transformación lineal, dim U = m, dim V = n. Sean

β1 , β10 bases de U
β2 , β20 bases de V.

Entonces
Q−1 [T ]β1 β2 P = [T ]β10 β20
o equivalentemente
[T ]β1 β2 = Q[T ]β10 β2 P −1
donde

P es la matriz de cambio de base de β10 a β1 .


Q es la matriz de cambio de base de β20 a β2 .

Corolario 18
Sea T : V −→ V operador lineal, β, β 0 bases de V . Si P es la matriz de cambio
de base de β a β 0 , entonces

[T ]β = P [T ]β 0 P −1 .

DemostraciónAplicando el teorema con U = V , β1 = β2 = β, β10 = β20 = β 0 se


tiene el corolario.

Ejemplos 50
Sean T : R3 −→ R4 , con

T (x, y, z) = (x + 3y − z, 2x + y + 3z, −3x − 14y + 2z)

donde la representación matricial de T con respecto a las base canónicas β1 , β2


de R3 y R4 esta dada por
 
1 3 −1
 2 1 3 
[T ]β1 β2 = 
 −3 −14 8
.

3 4 2

Si

β10 = {(1, 0, 0), (1, 1, 0), (1, 1, 1)},


β20 = {(0, 0, 1, 1), (0, 1, 0, 1), (1, 1, 0, 1), (1, 1, 1, 1)}.

Hallar [T ]β10 β20 usando el teorema anterior

[T ]β10 β20 = Q−1 [T ]β1 β2 P.


CAPÍTULO 3. TRANSFORMACIONES LINEALES 107

Primero necesitamos calcular las matrices P y Q: para obtener P basta poner


β10 en términos de β1

(1, 0, 0) = (1, 0, 0) + 0(0, 1, 0) + 0(0, 0, 1)


(1, 1, 0) = (1, 0, 0) + (0, 1, 0) + 0(0, 0, 1)
(1, 1, 1) = (1, 0, 0) + (0, 1, 0) + (0, 0, 1)

así  
1 1 1
P =  0 1 1 .
0 0 1
Para calcular Q basta poner β20 en términos de β2 ,

(0, 0, 1, 1) = 0(1, 0, 0, 0) + 0(0, 1, 0, 0) + (0, 0, 1, 0) + (0, 0, 0, 1)


(0, 1, 0, 1) = 0(1, 0, 0, 0) + (0, 1, 0, 0) + 0(0, 0, 1, 0) + (0, 0, 0, 1)
(1, 1, 0, 1) = (1, 0, 0, 0) + 0(0, 1, 0, 0) + (0, 1, 0, 0) + (0, 0, 0, 1)
(1, 1, 1, 1) = (1, 0, 0, 0) + (0, 1, 0, 0) + (0, 0, 1, 0) + (0, 0, 0, 1)

así  
0 0 1 1
 0 1 1 1 
Q=
 1
.
0 0 1 
1 1 1 1
Para aplicar la fórmula del teorema necesitamos calcular Q−1 ,
 ¯   ¯ 
0 0 1 1 ¯¯ 1 0 0 0 1 0 0 1 ¯¯ 0 0 1 0
 0 1 1 1 ¯¯ 0 1 0 0   ¯ 0 
  ∼F3 ↔F1  0 1 1 1 ¯ 0 1 0 ∼
 1 ¯
0 0 1 ¯ 0 0 1 0   0 0 1 1 ¯¯ 1 0 0 0  F4 −F1
1 1 1 1 ¯ 0 0 0 1 1 1 1 1 ¯ 0 0 0 1
 ¯   ¯ 
1 0 0 1 ¯¯ 0 0 1 0 1 0 0 1 ¯¯ 0 0 1 0
 0 1 1 1 ¯¯ 0 1 0 0   0 1 1 1 ¯ 0 1 0 0 
 ∼  ¯ ∼
 0 0 1 1 ¯¯ 1 0 0 0  F4 −F2  0 0 1 1 ¯¯ 1 0 0 0  −F4
0 1 1 0 ¯ 0 0 −1 1 0 0 0 −1 ¯ 0 −1 −1 1
 ¯   ¯ 
1 0 0 1 ¯¯ 0 0 1 0 1 0 0 0 ¯¯ 0 −1 0 1
 0 1 1 1 ¯¯ 0 1 0 0   ¯ 0 −1 1 
  ∼ F3 − F4  0 1 1 0 ¯ 0 ∼
 0 ¯
0 1 1 ¯ 1 0 0 0   0 0 1 0 ¯ 1 −1 −1 1  F2 −F3
F2 − F4
¯
0 0 0 1 ¯ 0 1 1 −1
F1 − F4
0 0 0 1 ¯ 0 1 1 −1
 ¯ 
1 0 0 0 ¯¯ 0 −1 0 1
 0 1 0 0 ¯ −1 1 0 0 
 ¯ 
 0 0 1 0 ¯ 1 −1 −1 1 
¯
0 0 0 1 ¯ 0 1 1 −1
CAPÍTULO 3. TRANSFORMACIONES LINEALES 108

por lo tanto

[T ]β10 β20 =  Q−1


  [T ]β1 β2 P 
0 −1 0 1 1 3 −1  
 −1 1 1 1 1
0 0   2 1 3 
= 
 1 −1
  0 1 1 
−1 1   −3 −14 3 
0 0 1
0 1 1 −1 3 4  2
1 4 3
 1 −1 3 
=  .
 5 25 15 
−4 −21 −12

3.6. Operaciones entre transformaciones lineales


En esta sección veremos las operaciones validas entre transformaciones li-
neales.

3.6.1. Suma y multiplicación por escalar


Sean U , V espacios vectoriales (no necesariamente de dimensión finita),

T1 : U −→ V
T2 : U −→ V

transformaciones lineales. Definimos


T1 + T2 : U −→ V , como (T1 + T2 )(u) = T1 (u) + T2 (u). (Suma)

cT1 : U −→ V , como (cT1 )(u) = cT1 (u). (Producto por escalar)

Observación 31

1. La suma de dos transformaciones lineales es una transformación lineal, y


el producto por escalar de una transformación lineal es una tranformación
lineal.

2. Al conjunto de las transformaciones lineales de U a V lo denotamos por


L(U, V ).

3. L(U, V ) es un espacio vectorial con las operaciones definidas.

Teorema 40
Sean U , V espacios vectoriales de dimensión finita. Entonces

1. L(U, V ) es de dimensión finita.


2. dim L(U, V ) = (dim U )(dim V ).
CAPÍTULO 3. TRANSFORMACIONES LINEALES 109

3.6.2. Composición
Sean U , V , W espacios vectoriales, T1 : U −→ V , T2 : V −→ W transforma-
ciones lineales. Definimos la composición de T2 con T1 como

T2 ◦ T1 : U −→ W
(T2 ◦ T1 )(u) = T2 (T1 (u)).

Esta operación entre T1 y T2 es una transformación lineal:

(T2 ◦ T1 )(u + v) = T2 (T1 (u) + T1 (v))


= (T2 ◦ T1 )(u) + (T2 ◦ T1 )(v).

(T2 ◦ T1 )(α u) = T2 (αT1 (u))


= α(T2 (T1 (u))
= α(T2 ◦ T1 )(u)
.

Teorema 41

1. Si T1 ∈ L(U, V ), T2 ∈ L(V, W ), T3 ∈ L(W, S), entonces

T3 ◦ (T2 ◦ T1 ) = (T3 ◦ T2 ) ◦ T1 .

2. Si T1 ∈ L(U, V ), T2 , T3 ∈ L(V, W ), entonces

(T2 + T3 ) ◦ T1 = T2 ◦ T1 + T3 ◦ T1 .

3. Si T1 ∈ L(V, W ), T2 , T3 ∈ L(U, V ), entonces

T1 ◦ (T2 + T3 ) = T1 ◦ T2 ) + T1 ◦ T3 .

4. Si α ∈ R, T1 ∈ L(U, V ), T2 ∈ L(V, W ), entonces

α (T2 ◦ T1 ) = (α T2 ) ◦ T1 = T2 ◦ (cT1 ).

Ejemplos 51
Sean T1 : R3 −→ R2 , T2 : R2 −→ R3 transformaciones lineales dadas por

T1 (x, y, z) = (2x + 6y − 3z, 5x − 3y + 8z)


T2 (x, y, z) = (2x + 5y, −x + 6y).

Calcular T2 ◦ T1 .
CAPÍTULO 3. TRANSFORMACIONES LINEALES 110

Teorema 42
Sean U , V , W espacios vectoriales de dimensión finita, T1 inL(U, V ), T2 ∈
L(V, W ). Consideremos las basesβ

β1 base de U,
β2 base de V,
β3 base de W.

Entonces
[T2 ◦ T1 ]β3 β1 = [T1 ]β2 β1 [T2 ]β3 β2 .

Ejemplos 52
Consideremos T1 y T2 como en el ejemplo anterior, con las bases

β1 = {(1, 1, 1), (1, 0, 1), (0, 1, 1)}


β2 = {(1, 0), (0, 1)}

de R3 y R2 correspondientemente. Verifiquemos el teorema: calculamos las ma-


trices asociadas a T1 y T2
· ¸
5 −1 3
[T1 ]β1 β2 =
10 13 5
y · ¸
2 5
[T2 ]β2 =
−1 6
de aquí
· ¸ · ¸ · ¸
2 5 5 −1 3 60 63 31
[T2 ]β2 [T1 ]β2 β1 = =
−1 6 10 13 5 55 79 27

Por otro lado calculamos la matriz asociada a T2 ◦ T1 : R3 −→ R2 : Tenemos que

(T2 ◦ T1 )(x, y, z) = (29x − 3y + 34z, 28x − 24y + 51z),

y de aquí · ¸
60 63 31
[T2 ◦ T1 ]β2 β1 =
55 79 27
la cual coincide con la matriz calculada anteriormente, por lo tanto se verfica
el teorema.

3.6.3. Inversa de una Transformación lineal


Sean U , V espacios vectoriales, T : U −→ V transformación lineal. Decimos
que T es inversible (tiene inversa) si existe una transformación lineal S : V −→ U
tal que
S ◦ T = IdU T ◦ S = IdV .
CAPÍTULO 3. TRANSFORMACIONES LINEALES 111

Observación 32

1. Si S : V −→ U cumple S ◦ T = IdU no necesariamente se cumple T ◦ S =


IdV .
2. A la inversa de la tramsformación la denotaremos por T −1 .

Ejemplos 53
Consideremos P = {Espacio de los polinomios}. Sean

T : P −→ P, S : P R−→ P
p(x) 7→ p0 (x) p(x) 7→ p(x)dx

transformaciones lineales. Calculando T ◦ S obtenemos


µ ¶
x2 xn+1
(T ◦ S)(a0 + a1 x + · · · + an x ) = T a0 x + a1
n
+ · · · + an
2 n+1
= a0 + a1 x + · · · + an x n

= Id(a0 + a1 x + · · · + an xn ).

pero por otro lado


¡ ¢
(S ◦ T )(a0 + a1 x + · · · + an xn ) = S a1 + 2a2 x + · · · + an xn−1
= a1 x + a2 x2 + · · · + an xn ,

es decir T ◦ S = IdV pero S ◦ T 6= IdU .

Ejemplos 54
La transformación T : R2 −→ R2 dada por T (x, y) = (x + y, x − y) es inversible.
Si fuera inversble existe S : R2 −→ R2 tal que

(S ◦ T )(x, y) = S(x + y, x − y) = Id(x, y) = (x, y),

y de aquí µ ¶
x0 + y 0 x0 − y 0
S(x0 , y 0 ) = , ,
2 2
y obtenemos el siguiente sistema

x0 = x + y x0 + y 0 = 2x

y0 = x − y x0 − y 0 = 2y

sustituyendo obtenemos
(T ◦ S)(x, y) = (x, y),
por lo tanto µ ¶
x+y x−y
S(x, y) = , ,
2 2
es la inversa de T .
CAPÍTULO 3. TRANSFORMACIONES LINEALES 112

Acontinuación veremos algunas propiedades de las transformaciones inversas

Teorema 43

1. Si T : U −→ V es inversible, entonces T −1 : V −→ U también lo es y


(T −1 )−1 = T .
2. Si T1 : U −→ V , T2 : V −→ W son inversibles, entonces T2 ◦ T1 : U −→ w
es inversible y
(T2 ◦ T1 )−1 = T1−1 ◦ T2−1 .

Ahora caracterizaremos la inversibilidad de una transformación

Lema 5
Si T : U −→ V es transformación lineal, entonces T es inyectiva ssi ker T = {0}

Teorema 44
T : U −→ V es inversible ssi T es inyectiva y sobreyectiva.

Diremos que una trasformación lineal T : U −→ V es un isomorfismo entre


los espacios vectoriales U y V si T es inversible. En este caso diremos que U y
V son isomorfos.

Teorema 45
Sean U V isomorfos, entonces U es de dimensión finita ssi V lo es.

Corolario 19
Dos espacios vectoriales de dimensión finita son isomorfos ssi tienen la misma
dimensión.

Corolario 20 Sea U espacio vectorial de dimensión finita, T : U −→ V trans-


formación lineal. Si T es inversible entonces dimU = dimV .

Diremos que una transformación lineal T : U −→ V es un isomorfismo entre


los espacios vectoriales U y V si T es inversible. En este caso diremos que U y
V son isomorfos.
Diremos que una transformación lineal T : U −→ V es no singular si T es
inyectiva (Ker T = {0}). Deacuerdo a la definición anterior tenemos que toda
transformación lineal inversible es no singular.

Teorema 46
Sean U , V espacios vectoriales de la misma dimensión. Las siguientes afirma-
ciones son equivalentes
T es inversible.
T es sobreyectiva.
T es inyectiva.
CAPÍTULO 3. TRANSFORMACIONES LINEALES 113

T es no singular.
Si {u1 , . . . , un } es l.i. en U , entonces {T u1 , . . . , T un } es l.i.
Si {u1 , . . . , un } es base de U , entonces {T u1 , . . . , T un } es base de V .
Ahora veremos como afecta la inversibilidad de T a la matriz asociada a T .
Teorema 47
Sean T : U −→ V transformación lineal, β1 , β2 bases de U y V respectivamente,
entonces T es inversible ssi [T ]β2 β1 es inversible para cualesquiera β1 , β2 bases
de U y V .
Corolario 21
Si T : U −→ V es inversible, entonces
[T −1 ]β2 β1 = [T ]−1
β2 β1 .

Sea T : U −→ U operador lineal, U espacios vectoriales de dimensión finita.


Definimos
det T = det [T ]β ,
donde β es una base arbitraria. El determinante de T no depende de la base β
escogida: En efecto si tenemos dos bases β, β 0 de V , por el teorema de cambio
de base
[T ]β = P −1 [T ]β 0 P,
luego
det[T ]β = (det P −1 )(det[T ]β 0 )(det P )
= det[T ]β 0 .
Teorema 48
El operador lineal T : U −→ U , con U de dimensión finita. T es inversible ssi
det T 6= 0.
Ejemplos 55
Sea T : M2×2 −→ T : M2×2 definido por
µ· ¸¶ · ¸
a b 5a + b 2a − b + c
T =
c d 3c + 2d a + b + 2d
tomando la base canónica de M2×2 , entonces
 
5 1 0 0
 2 −1 1 0 
[T ]β = 
 0 0 3 2 

1 1 0 2
luego calculando el determinante
det [T ]β = −34 6= 0,
por lo tanto T es invertible.
CAPÍTULO 3. TRANSFORMACIONES LINEALES 114

Lista de ejercicios

1. Determinar cuáles de las siguientes transformaciones T : R2 −→ R son


lineales
a) T (x, y) = 2x + y,
b) T (x, y) = x,
c) T (x, y) = 5x2 + y,
d ) T (x, y) = 1,
e) T (x, y) = 3x − 8y + 1.

2. Determinar cuáles de las siguientes transformaciones T : R2 −→ R2 son


lineales
a) T (x, y) = (x + y, x − y),
b) T (x, y) = (5x, 8y),
c) T (x, y) = (x + y, 0),
d ) T (x, y) = (0, y),
e) T (x, y) = (2x − y, 3x + 4y).

3. Determinar cuáles de las siguientes transformaciones T : R3 −→ R3 son


lineales

a) T (x, y, z) = (x, y, z),


b) T (x, y, z) = (x + y + z, 0, 0),
c) T (x, y, z) = (0, 0, z),
d ) T (x, y, z) = (x, y + 1, z + 2),
e) T (x, y, z) = (x + y + z, 1, 1).
4. Sea T : R2 −→ R2 la transformación lineal tal que T ((1, 0)) = (2, 3), y
T ((0, 1)) = (1, 1)
a) Obtenga T ((3, 4)).
b) Obtenga T ((x, y)).

5. Sea T : R2 −→ R2 la transformación lineal tal que T ((2, 5)) = (3, 1), y


T ((1, 2)) = (0, 3)

a) Obtenga T ((3, 2)).


b) Obtenga T ((3, 8)).

6. Para cada una de las siguientes transformaciones lineales, determine una


base para el núcleo y la imagen. También compruebe el teorema de la
dimensión.
CAPÍTULO 3. TRANSFORMACIONES LINEALES 115

a) T : R2 −→ R2 , T (x, y) = (x + y, x − y).
b) T : R2 −→ R2 , T (x, y, z) = (x + y − z, x − y − z).
c) T : R3 −→ R3 , T (x, y, z) = (x + y, x + z, y + z).
d ) T : M2×2 −→ M2×2 , T (A) = At .
e) T : M3×3 −→ R, T (A) = tr A.
7. Describa el núcleo y la imagen de las siguientes transformaciones lineales
a) T : R3 −→ R2 , T (X) = AX con
· ¸
2 0 −1
A= ,
−4 0 2

b) T : R4 −→ R3 , T (X) = AX con
 
2 1 −1 3
A= 6 7 1 17  ,
0 2 2 4

8. Encuentre la matriz asociada a cada una de las siguientes transformaciones


lineales
a) T : R2 −→ R2 , T (x, y) = (3x − 2y, 5x + y).
b) T : R3 −→ R3 , T (x, y, z) = (2x + y − z, 3x + 2y − 2z, 8x − y).
c) T : R4 −→ R2 , T (x, y, z, u) = (x + y, z + u).
d ) T : R6 −→ R3 , T (x1 , x2 , x3 , x4 , x5 , x6 ) = (x1 + x4 , x1 + x5 , x3 + x6 ).
e) T : P2 −→ P3 , T (p) = xp.
f ) T : P3 −→ R3 , T (a0 + a1 x + a2 x2 + a3 x3 ) = (2a0 + a1 + a2 , a0 − 2a2 +
3a3 , a3 ).
g) T : P1 −→ P4 , T (p) = (x3 + x2 + x + 1)p.
h) T : M2×2 −→ M2×2 , T (A) = At .
i ) T : M3×3 −→ R, T (A) = tr A.
9. Encuentre la imagen y el núcleo de cada una de las transformaciones del
ejercicio anterior.
10. Considere la transformación lineal T : M2×2 −→ M2×2 dada por T (A) =
A − At . Encuentre el núcleo y la imagen de T .
11. Sea T : V −→ U una transformación lineal. Sean β1 = {v1 , v2 , . . . , vm } y
β2 = {u1 , u2 , . . . , un } bases de V y U respectivamente. Sea A la matriz
asociada a T respecto a las bases β1 y β2 .
a) ¿Cómo se altera la matriz A si en β1 intercambiamos de posición los
vectores vi y vj ?
CAPÍTULO 3. TRANSFORMACIONES LINEALES 116

b) ¿Cómo se altera la matriz A si en β2 intercambiamos de posición los


vectores ui y uj ?

12. Considere el operador lineal T : V −→ V en donde V es un espacio


vectorial de dimensión 4. Suponga que la matriz de T respecto de la base
β = {v1 , v2 , v3 } es  
1 3 −1 2
 0 2 1 1 
[T ]β = 
 3

2 1 4 
0 2 4 −2
Encuentre la matriz de T respecto de cada una de las siguientes bases de
V

a) β1 = {v2 , v1 , v4 , v3 },
b) β2 = {v1 , v1 + v2 , v1 + v2 + v3 , v1 + v2 + v3 + v4 },
c) β3 = {v1 + v2 , v2 + v3 , v3 + v4 , v4 },

13. Sea T : R3 −→ R3 el operador lineal dado por

T (x, y, z) = (2x − y + z, x + z, 3y − 2z).

a) Determine la matriz de T respecto a la base canónica de R3 .


b) Determine la matriz de T respecto a la base

β1 = {(1, 2, −1), (3, 0, 1), (0, −4, 0)}.

c) Verifique que satisface el corolario del teorema de cambio de base.

14. La matriz de la transformación lineal T : R3 −→ R3 respecto de la base

β = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}

es  
2 1 −1
A= 3 2 2 
4 3 2
Encuentre la matriz de T respecto de la base β = {(2, 1, 1), (3, 2, −4), (2, 3, 3)}.
Capítulo 4

Valores Propios y vectores


propios

4.1. Valores propios


Sea T : U −→ U operador lineal, con dim U = n. Un número λ ∈ R es
llamado valor propio (eigen valor) de T si existe u ∈ U (6= 0) tal que

T u = λu.

Al vector u le llamaremos vector propio (eigen vector).


Si A es la matriz que representa a T con respecto a una base β tendremos que

A[u]β = λ[u]β ,

más a’un si B = Aβ 0 con β 0 otra base de U

(P −1 BP )[u]β = λ[u]β ,

y luego
B(P [u]β ) = λ(P [u]β ),
es decir si λ es valor propio de T y u vector propio de T , tambien lo serán para
la matriz asociada a T con respecto a cualquier otra base.

Ejemplos 56
El opeardor lineal T : R2 −→ R2 dado por

T (x, y) = (2x + y, 3x + 4y),

tiene como valor propio a λ = 5 y como vector propio a u = (1, 3).


En efecto
T ((1, 3)) = (5, 15) = 5 (1, 3).

117
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 118

Comprobemoslo para su matriz asociada con respecto a la base

β 0 = {(1, 1), (0, 1)},

evaluando estos vectores en T obtenemos

T ((1, 1)) = (3, 7) T ((0, 1)) = (1, 4)

ahora para obtener la matriz, expresamos los vectores obtenidos en términos de


los elementos de la base β 0

(3, 7) = c1 (1, 1) + c2 (0, 1)

de aqui tenemos el siguiente sistema

c1 = 3
c1 + c2 = 7

y resolviendolo obtenemos

c1 = 3, c2 = 4.

De la misma manera

(1, 4) = c01 (1, 1) + c02 (0, 1)

y resolviendo el sistema resultante de aquí obtenemos

c01 = 1, c02 = 3.

Con los coeficientes obtenidos tenemos la matriz de T


· ¸
3 1
[T ]β = .
4 3

Ahora para poder multiplicar esta matriz a la matriz que representa a (1, 3)
expresemos este vector en términos de la base β 0 :

(1, 3) = c001 (1, 1) + c002 (0, 1)

y resolviendo el sistema resultante obtenemos

c001 = 1, c002 = 2.

Finalmente
· ¸ · ¸ · ¸ · ¸
3 1 1 5 1
[T ]β 0 [u]β 0 = = =5
4 3 2 10 2
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 119

Teorema 49
Sea A matriz cuadrada. λ ∈ R es un valor propio ssi det (A − λI) = 0.
Observación 33

1. Si A es una matriz cuadrada det (A − λI) nos dará un polinomio en λ de


grado n. A este polinomio le llamaremos polinomio caracteristico de A (o
de T pues A es la representación de T ).
2. Para hallar los valores propios de A necesitamos encontrar las raices del
polinomio caracteristico de A.
Ejemplos 57

1. Encontrar los valores propios de la matriz


· ¸
5 9
A= .
2 2
Calculamos el polinomio caracteristico
µ· ¸ · ¸¶
5 9 1 0
p(λ) = det −λ
2 2 0 1
¯ ¯
¯ 5−λ 9 ¯
= det ¯¯ ¯
¯
2 2−λ
= (5 − λ)(2 − λ) − 18
= −8 − 7λ + λ2
= (λ − 8)(λ + 1)
así los valores propios son λ = 8, y λ = −1.
2. Encontrar los valores propios de la matriz
· ¸
2 −1
A= .
3 2
Calculamos el polinomio caracteristico
¯ ¯
¯ 2−λ −1 ¯
p(λ) = det ¯¯ ¯
¯
3 2−λ
= (2 − λ)2 + 3
= 7 − 4λ + λ2 ,
calculando las raíces por medio de la fórmula cuadrática obtenemos que
los valores propios son
√ √
4 + 12 i 4 − 12 i
λ1 = , λ2 = .
2 2
así los valores propios son λ = 8, y λ = −1.
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 120

4.2. Vectores propios


Si X 6= 0 es un vector propio de A (representación de alguna transformación
lineal) correspondiente al valor propio λ, tenemos que

AX = λX,

o equivalentemente
(A − λI)X = 0,
es decir, X es una solución no trivial del sistema

(A − λI)X = 0.

Por lo tanto para encontrar los vectores propios X debemos encontrar las solu-
ciones no triviales del sistema homogeneo.

Ejemplos 58
Los valores propios de · ¸
5 9
A=
2 2
son lambda1 = 8 y λ2 = 1. Encontremos los valores propios:
Consideremos A − λI con λ = 8
· ¸ · ¸
5−λ 9 −3 9
A − λI = =
2 2−λ 2 −6

luego resolviendo el sistema


· ¸ · ¸ · ¸
−3 9 x1 0
=
2 −6 x2 0

obtenemos
· ¸ · ¸ · ¸
−3 9 1 −3 1 −3
∼F1 /−3 ∼F2 −2F1
2 −6 2 −6 0 0
así
x1 − 3x2 = 0 x1 = 3x2
y entonces si x2 = t ∈ R · ¸
3t
X= ,
t
por lo tanto si λ1 = 8 los vectores propios asociados son de la forma

(3t, t) t ∈ R.

Por otro lado si consideramos A − λI con λ = −1


· ¸ · ¸
5−λ 9 6 9
A − λI = = ,
2 2−λ 2 3
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 121

resolviendo el sistema
· ¸ · ¸ · ¸
6 9 x1 0
=
2 3 x2 0
tenemos que · ¸ · ¸ · ¸
6 9 2 3 2 3
∼F1 /3 ∼F2 −F1 ,
2 3 2 3 0 0
es decir
3
2x1 + 3x2 = 0 x1 = − x2 ,
2
si x2 = t ∈ R entonces · ¸
− 23 t
X= ,
t
es decir los vectores propios asociados al valor propio λ2 = −1 son de la forma
3
(− t, t) t ∈ R.
2
Si A es una matriz cuadrada de orden n, λ valor propio y Eλ los vectores
propios asociados a λ. Al subsespacio vectorial (de Rn ) formado por Eλ y el
vector cero (ambos forman el espacio solución del sistema homogeneo (A −
λI)X = 0) le llamaremos subespacio propio de A (eigen espacio).

Ejemplos 59
Del ejemplo anterior tenemos que para la matriz
· ¸
5 9
A=
2 2

los valores propios son λ1 = 8, λ2 = −1, y los subespacios propios correspon-


dientes a estos valores propios son

Eλ1 = {(3t, t)| t ∈ R} = L((3, 1)).


3 3
Eλ2 = {(− t, t)| t ∈ R} = L((− , 1)).
2 2
Ejemplos 60
Sea  
1 3 0
A= 0 −2 0 
0 6 1
Encontrar los valores propios, los vectores propios, los espacios propios y una
base para ellos.
Calculemos el polinomio característico
¯ ¯
¯ 1−λ 3 0 ¯¯
¯
det(A − λI) = ¯¯ 0 −2 − λ 0 ¯¯ = −(1 − λ)2 (2 + λ) = 0,
¯ 0 6 1−λ ¯
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 122

de aquí tenemos que los valores propios son

λ1 = 1 y λ2 = −2.

Si λ = 1  
0 3 0
A − λI =  0 −3 0 
0 6 0
resolviendo el sistema
     
0 3 0 x1 0
 0 −3 0   x2  =  0 
0 6 0 x3 0

obtenemos  
s
X =  0 , s, t ∈ R,
t
así el espacio propio

Eλ1 = {(s, 0, t)| s, t ∈ R} = {s(1, 0, 0)+t(0, 0, 1)| s, t ∈ R} = L((1, 0, 0), (0, 0, 1)),

donde (1, 0, 0) y (0, 0, 1) forman una base de él, y por lo tanto tiene dimensión
2. Por otro lado Si λ = −2
 
3 3 0
A − λI =  0 0 0 ,
0 6 3

y resolviendo el sistema
 
3 3 0 · ¸ · ¸
 0 x1 0
0 0  = ,
x2 0
0 6 3

o equivalentemente resolviendo

3x1 + 3x2 = 0 6x2 + 3x3 = 0,

obtenemos
x1 = −x2 , x3 = −2x2
 
−t
X =  t , t ∈ R,
−2t
así el espacio propio

Eλ2 = {(−t, t, −2t)| t ∈ R} = {s(−1, 1, −2)| t ∈ R} = L((−1, 1, −2)),

donde (−1, 1, −2) forma una base de él, y por lo tanto tiene dimensión 1.
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 123

Observación 34
Resolver (A−λI)X = 0 es equivalente a calcular el núcleo del operador (T −λI),
es decir,
Eλ = ker(T − λI).

Teorema 50
Sea T : V −→ V operador lineal, con V espacio vectorial de dimensión n. λ es
un valor propio de T ssi el operador T − λI : V −→ V no tiene inversa.

Teorema 51
Si A y B son matrices semejantes, entonces el polinomio característico de A es
el mismo que el polinomio característico de B.

Observación 35
Por el teorema anterior tenemos que el polinomio característico de un operador
T no depende de la representación matricial que tomemos, es decir, si [T ]β1 y
[T ]β2 son representaciones de T con respecto a las bases β1 y β2 correspondien-
temente, entonces los polinomios característicos de [T ]β1 y [T ]β2 coinciden.

Teorema 52
Sea A una matriz cuadrada de orden n, λ valor propio de A. Si Eλ es el espacio
propio asociado a λ, entonces

dim Eλ ≤ k,

donde k es la multiplicidad de λ como raíz de p(λ) = det(A − λI).

Ejemplos 61
Consideremos la matriz  
1 1 1 1
 0 2 0 0 
A=
 0

0 1 1 
0 3 3 1
y comprobemos que cumple el teorema anterior.
Calculamos el polinomio característico

p(λ) = det(A − λI)


¯ ¯
¯ 1−λ 1 1 1 ¯
¯ ¯
¯ 0 2 − λ 0 0 ¯
= ¯¯ ¯
¯
¯ 0 0 1 − λ 0 ¯
¯ 0 3 3 1−λ ¯
= (1 − λ)3 (2 − λ).

por lo tanto los valores propios son λ1 = 1 y λ2 = 2, donde


λ = 1 tiene multiplicidad 3.
λ = 2 tiene multiplicidad 1.
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 124

Para hallar los vectores propios resolvamos


     
1−λ 1 1 1 x1 0
 0 2 − λ 0 0   x2   0 
     .
 0 0 1−λ 0   x3  =  0 
0 3 3 1−λ x4 0

Si λ = 1 el sistema se convierte en
     
0 1 1 1 x1 0
 0 1 0 0   x2   0 
     .
 0 0 0 0   x3  =  0 
0 3 3 0 x4 0

o equivalentemente
x2 + x3 + x4 = 0
x2 = 0
3x2 + 3x3 = 0
luego de aquí
x1 = t ∈ R
x2 = x3 = x4 = 0
por lo tanto 

t
 0 
X= 
 0  t∈R
0
y
Eλ1 = {(t, 0, 0, 0)| t ∈ R} = L((1, 0, 0, 0))
donde (1, 0, 0, 0) forma una base de Eλ1 , y entonces Eλ1 tiene dimensión 1, lo
cual cumple con el teorema

dim Eλ1 = 1 ≤ 3 = k.

Si λ = 2 obtenemos el sistema
     
−1 1 1 1 x1 0
 0 0 0 0   x2   0 
    =  .
 0 0 −1 0   x3   0 
0 3 3 −1 x4 0

llevando a la reducida la matriz de este sistema


     
−1 1 1 1 −1 1 0 1 −1 1 0 1
 0 0 0 0   0 0 0 0   0 3 0 −1 
  ∼ F4 + 3F3   ∼F2 ↔F4  
 0 0 −1 0  F1 + F 3
 0 0 −1 0   0 0 −1 0 
0 3 3 −1 0 3 0 −1 0 0 0 0
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 125

o equivalentemente
x1 = x2 + x4 ,
x3 = 0,
x2 = 31 x4 ,
luego de aquí
x1 = 43 x4 ,
x3 = 0, x2 = 13 x4 ,
por lo tanto si x4 = t ∈ R  
4
3t
 
 1 
 t 
 3 
X=



 0 
 
 
t
y
4 1 4 1
Eλ2 = {( t, t, 0, t)| t ∈ R} = L(( , , 0, 1))
3 3 3 3
donde ( 34 , 13 , 0, 1) forma una base de Eλ2 , y entonces Eλ2 tiene dimensión 1, lo
cual cumple con el teorema

dim Eλ2 = 1 ≤ 1 = k.

4.3. Diagonalización
Diremos que una matriz cuadrada A es diagonalizable si existe una matriz
inversible P tal que P −1 AP es diagonal, es decir, si A es semejante a una matriz
diagonal. Con esto tendremos que si T : V −→ V es un operador lineal con V
espacio vectorial de dimensión n, entonces T es diagonalizable si existe una base
β tal que [T ]β es diagonal.

Teorema 53
Si la matriz A es diagonalizable, entonces el polinomio característico de A se
puede factorizar como producto de factores lineales

p(λ) = (λ1 − x)(λ2 − x) · · · (λn − x).

Teorema 54
La matriz A de orden n es diagonalizable ssi los vectores propios de A forman
una base de Rn .

Observación 36
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 126

a) Si A es diagonalizable, la matriz diagonal semejante a A tiene la forma


 
λ1 0 · · · 0
 0 λ2 · · · 0 
 
D= . .. .. .. 
 .. . . . 
0 0 ··· λn

donde λ1 , λ2 , . . . , λn son los valores propios de A.


b) De la demostración del teorema tenemos que

D = P −1 AP

donde P es la matriz formada por los n vectores propios de A que forman


la base de Rn .

Ejemplos 62
Sea  
1 0 0
A =  1 0 −2 
−1 1 −3
¿Es diagonalizable la matriz A ?.

Teorema 55
Sea A matriz de orden n. Si λ1 , λ2 , . . . , λm (m ≤ n) son los valores propios
distintos de A, y vi es un vector propio asociado λi para i = 1, . . . , m. Entonces
{v1 , v2 , . . . , vm } es l.i.

Corolario 22
Si A matriz n×n tiene n valores propios distintos, entonces A es diagonalizable.

Ejemplos 63
Sea  
1 1 1
A= 0 1 0 
0 0 2
¿Es diagonalizable la matriz A ?.
Calculemos el polinomio característico
 
1−λ 1 1
p(λ) = det(A − λI) =  0 2−λ 0  = (1 − λ)(1 − λ)2 ,
0 0 2−λ

este tiene solo dos valores propios distintos λ1 = 1 y λ2 = 2.


Si λ = 1  
0 1 1
A − λI =  0 1 0 
0 0 1
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 127

para encontrar los vectores propios resolvemos el sistema homogéneo

x2 + x3 = 0
x2 = 0
x3 = 0

y entonces
x1 = t ∈ R
x2 = 0
x3 = 0
así el espacio propio asociado a λ1 es

Eλ1 = {(t, 0, 0)| t ∈ R} = L((1, 0, 0)).

Si λ = 2  
−1 1 1
A − λI =  0 0 0 
0 0 0
y el sistema homogéneo correspondiente es

−x1 + x2 + x3 = 0

y entonces si x2 = s, x2 = t ∈ R

x1 = x2 + x3 = s + t

así el espacio propio asociado a λ2 es

Eλ2 = {(s+t, s, t)| s, t ∈ R} = Eλ2 = {s(1, 1, 0)+t(1, 0, 1)| s, t ∈ R} = L((1, 1, 0), (1, 0, 1)).

luego tomando

v1 = (1, 0, 0), v2 = (1, 1, 0), v3 = (1, 0, 1).

Finalmente veamos si estos vectores forman una base de R3 : Calculemos el


determinante  
1 1 1
det  0 1 0  = 1 6= 0
0 0 1
como el determinante es distinto de cero, entonces los vectores v1 , v2 y v3 son
l.i., y como R3 es generado por 3 vectores l.i. entonces v1 , v2 , v3 forman una
base de R3 y por lo tanto A es diagonalizable.

Teorema 56
Sea A matriz n×n. Sean λ1 , . . . , λm los valores propios distintos de A y Eλ1 , Eλ2 , . . . , Eλm
los espacios propios corresppondientes. Los siguientes incisos son equivalentes
a) A es diagonalizable.
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 128

b)

p(λ) = (λ1 − x)α1 (λ2 − x)α2 · · · (λm − x)αm

donde dim Eλi = αi con i = 1, . . . , m.


c)

dim Eλ1 + dim Eλ2 + · · · + dim Eλm = n.

Ejemplos 64
Encontrar la base β de R3 respecto de la cual la matriz que representa a T es
diagonal,
T (x, y, z) = (2x, 3x + 2y + z, 4x + y + 2z).

4.4. Polinomio mínimo y teorema de Caley - Ha-


milton
Sean p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 un polinomio de grado n,
A ∈ Mn×n . Diremos que A anula a p(x) si

p(A) = an An + an−1 An−1 + · · · + a1 A + a0 I = 0.

Decimos que un polinomio m(x) es el polinomio mínimo de A si m es mónico y


es el polinomio de menor grado que es anulado por A.

Ejemplos 65 Sea  
2 1 0
A= 0 1 1 ,
0 0 1
y consideremos los siguientes polinomios

p0 (x) = (x − 1)3 (x − 2)2 = x5 − 7x4 + 19x3 − 25x2 + 16X − 4


p1 (x) = (x − 1)2 (x − 2)2 = x4 − 6x3 + 13x2 − 12x + 4,
p2 (x) = (x − 1)2 (x − 2) = x3 − 4x2 + 5x − 2,
p3 (x) = (x − 1)(x − 2) = x2 − 3x + 2,

los polinomios p0 ,p1 y p2 son anulados por A, por lo tanto el polinomio mínimo
es p2 .

Teorema 57
El polinomio mínimo es único.

Teorema 58
El polinomio mínimo de A, m(x) divide a cualquier polinomio que es anulado
por A.
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 129

Ejemplos 66
En el ejemplo anterior el polinomio p2 divide a p0 , y a P1 .

Teorema 59
Sean A y B matrices semejantes:A = C −1 BC, y p(x) un polinomio arbitrario,
entonces
p(A) = C −1 p(B)C.

Corolario 23
Si A y B son matrices semejantes, entonces tienen el mismo polinomio mínimo.

Teorema 60 (Caley-Hamilton)
Sean A matriz n × n, y p(x) su polinomio característico, entonces p(A) = 0.

Corolario 24 El polinomio mínimo divide al polinomio característico.

Teorema 61 nl Sean λ1 , . . . , λm valores propios distintos de A, y el polinomio


característico

p(x = (−1)m (x − λ1 )α1 (x − λ2 )α2 · · · (x − λm )αm ,

donde α1 , . . . , αm son las multiplicidades. Entonces el polinomio mínimo de A


tiene al forma
m(x) = (x − λ1 )β1 · · · (x − λm )βm ,
donde β1 ≤ α1 , . . . , βm ≤ αm .

Ejemplos 67
Sea  
2 2 0 0
 −1 5 0 0 

A= ,
2 0 −1 0 
4 0 −8 3
Encontrar el polinomio mínimo.

Teorema 62
Si λ1 , . . . , λm son los valores propios distintos de A, entonces A es diagonalizable
ssi su polinomio mínimo es

m(x) = (x − λ1 )(x − λ2 ) · · · (x − λm ).

Ejemplos 68
Tomando A como en el ejemplo anterior tenemos que A es diagonalizable.
CAPÍTULO 4. VALORES PROPIOS Y VECTORES PROPIOS 130

4.5. Diagonalizaión ortogonal


Decimos que una matriz A de orden n × n es simétrica si A = At (coincide
con su transpuesta). Decimos que una mmatriz P es ortogonal si P P t = I
(P t = P −1 ). Decimos que A es una matriz diagonalizable ortogonalmente si
existe una matriz ortogonal P tal que

P −1 AP = D

donde D es una matriz diagonal.

Teorema 63
Si A es diagonalizable ortogonalmente, entonces A es simétrica.

Teorema 64
Si A es simétrica, entonces sus valores propios son reales.

Teorema 65
Sean λ1 , . . . , λm valores propios distintos de A y X1 , . . . , Xm los vectores propios
correspondientes, entonces X1 , . . . , Xm son ortogonales a pares ((Xi |Xj ) = 0
para i 6= j).

Corolario 25
Sea A simétrica con todos sus valores propios distintos, entonces A es diagona-
lizable ortogonalmente

Observación 37
Si A es diagonalizable ortogonalmente: D = P t AP donde P esta formada por los
vectores propios de A ortonormalizados mediante el proceso de Gram - Schmidt.

Ejemplos 69
Sea  
1 0 2
A= 0 2 0 ,
2 0 4
Es diagonalizable ortogonalmente? En caso de serlo en contrar la matriz P tal
que D = P t AP .

Teorema 66
Sea A natriz simétrica de orden n × n. Entonces A es diagonalizable ortogonal-
mente.

Ejemplos 70
Sea  
1 1 1
A= 1 1 −1  ,
1 −1 1
Es diagonalizable ortogonalmente?

Você também pode gostar