Você está na página 1de 398

Clases de

lgebra Lineal
para Ingeniera

Teora y 268 ejercicios y problemas resueltos


Revisin 3.5: Septiembre 201 3

Pedro Jos Hernando Oter


Instituto Universitario Gregorio Milln Barbany
Grupo de Modelizacin, Simulacin Numrica y Matemtica Industrial

Dep. Ciencia e Ing. de Materiales e Ing. Qumica

Escuela Politcnica Superior


UNIVERSIDAD CARLOS III DE MADRID

Pedro Jos Hernando Oter, 201 3

Pedro Jos Hernando Oter


Dep. Ciencia e Ing. de Materiales e Ing. Qumica
Escuela Politcnica Superior
UNIVERSIDAD CARLOS III DE MADRID
Avda de la Universidad, 30
28911 Legans
SPAIN
pedroj@math.uc3m.es
ISBN: xxx-xx-xxx-xxxx-x
Revisin 3.5 - Septiembre 201 3
Made by LATEX.

ndice
Tema

Pgina

0 Conceptos Bsicos de Rectas y Planos


0.1 Sistema de Coordenadas Cartesianas . . . . . . . . . . . . .
0.2 Ecuaciones de la Recta en el Plano Eucldeo . . . . . . . . .
0.2.1 Ecuacin de dos Puntos . . . . . . . . . . . . . . . .
0.2.2 Ecuacin Punto-Pendiente . . . . . . . . . . . . . . .
0.2.3 Ecuacin General o Cartesiana de la Recta . . . . .
0.2.4 Casos Particulares: Rectas Horizontales y Verticales
0.2.5 Forma Vectorial y Paramtrica de la Recta . . . . .
0.2.6 Ecuacin Normal de la Recta . . . . . . . . . . . . .
0.2.7 Resumen de Frmulas: Rectas en el Plano Eucldeo .
0.2.8 Conversin entre Formas . . . . . . . . . . . . . . . .
0.3 Ecuaciones del Plano en el Espacio 3D . . . . . . . . . . . .
0.3.1 Ecuacin General del Plano . . . . . . . . . . . . . .
0.3.2 Forma Vectorial y Paramtrica del Plano . . . . . .
0.3.3 Forma Normal del Plano . . . . . . . . . . . . . . . .
0.3.4 Resumen Frmulas: Planos en el Espacio 3D . . . .
0.3.5 Conversin entre Formas de un Plano . . . . . . . .
0.4 Ecuaciones de la Recta en el Espacio 3D . . . . . . . . . . .
0.4.1 Forma General de la Recta . . . . . . . . . . . . . .
0.4.2 Forma Vectorial-Paramtrica de la Recta . . . . . .
0.4.3 Forma Normal de la Recta . . . . . . . . . . . . . .
0.4.4 Resumen Frmulas: Rectas en el Espacio 3D . . . .
0.4.5 Conversin entre Formas . . . . . . . . . . . . . . . .
0.5 Geometra de los Sistemas de Ecuaciones en el Plano y en el
0.5.1 Sistemas de Una Ecuacin . . . . . . . . . . . . . . .
0.5.2 Sistemas de Dos Ecuaciones . . . . . . . . . . . . . .
0.5.3 Sistemas de Tres Ecuaciones . . . . . . . . . . . . .
0.6 Mtodos Simples de Resolucin de Sistemas . . . . . . . . .

. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
Espacio
. . . . .
. . . . .
. . . . .
. . . . .

. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
. .
3D
. .
. .
. .
. .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

1
3
4
4
5
5
6
6
9
10
10
12
12
13
15
16
16
17
17
18
18
19
19
20
20
22
25
28

1 Sistemas de Ecuaciones Lineales


1.1 Introduccin a los Sistema de Ecuaciones Lineales (SEL)
1.1.1 Caractersticas de los Sistemas de Ecuaciones . .
1.1.2 Ecuaciones y Sistemas de Ecuaciones . . . . . . .
1.1.3 Puntos y Espacios n . . . . . . . . . . . . . . .
1.1.4 Sistemas de Ecuaciones Lineales (SEL) . . . . . .
1.2 Geometra de los SEL en n . . . . . . . . . . . . . . .
1.2.1 Objetos Geomtricos . . . . . . . . . . . . . . . .
1.2.2 Dimensin de los Objetos Geomtricos . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

31
33
33
33
35
36
37
38
38

R
R

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

ii

ndice
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

39
40
40
43
43
44
44
45
46
46
46
47
48
49
50
50
51
52
52
53
53
54
55
55
58
58
59
60

2 Espacios Vectoriales
2.1 Vectores en Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Representacin Grfica de Vectores . . . . . . . . . . . . . . . . . . . . .
2.2 Operaciones Elementales con Vectores . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Vector Opuesto y Vectores Estndar . . . . . . . . . . . . . . . . . . . .
2.2.4 Diferencia de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.5 Propiedades Algebraicas de la Suma y Producto por un Escalar . . . . .
2.3 Espacio y Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Sistemas de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Combinacin Lineal de Vectores . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . .
2.4.3 Rango de un Sistema de Vectores . . . . . . . . . . . . . . . . . . . . . .
2.4.4 Interpretacin Geomtrica de la Dependencia e Independencia Vectorial
2.5 Conjuntos o Sistemas Generadores . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Base y Dimensin de un Sistema de Vectores . . . . . . . . . . . . . . .
2.5.2 Generacin de n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.3 Base Cannica o Estndar de n . . . . . . . . . . . . . . . . . . . . . .
2.6 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Propiedades del Producto Escalar . . . . . . . . . . . . . . . . . . . . .
2.7 Distancia y Norma en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

63
65
66
66
66
67
68
68
69
70
72
72
73
76
78
80
81
82
84
86
87
87

1.3

1.4
1.5

1.6

1.7
1.8
1.9

1.2.3 Relaciones entre Objetos Geomtricos . . . . . . . . . .


Solucin de un SEL en n . . . . . . . . . . . . . . . . . . . . .
1.3.1 Frmula de Equilibrio . . . . . . . . . . . . . . . . . . .
1.3.2 Ecuaciones Equivalentes . . . . . . . . . . . . . . . . . .
1.3.3 Sistemas Compatibles e Incompatibles . . . . . . . . . .
Combinacin Lineal de Ecuaciones . . . . . . . . . . . . . . . .
1.4.1 Propiedades de las Combinaciones Lineales . . . . . . .
1.4.2 Dependencia e Independencia lineal de Ecuaciones . . .
Mtodos Resolucin de SEL en n . . . . . . . . . . . . . . . .
1.5.1 Mtodos Simples . . . . . . . . . . . . . . . . . . . . . .
1.5.2 Sistemas Escalonados o Triangulares . . . . . . . . . . .
1.5.3 Sistemas Equivalentes . . . . . . . . . . . . . . . . . . .
1.5.4 Operaciones Elementales de Fila . . . . . . . . . . . . .
1.5.5 Mtodo de Gauss o Eliminacin Gaussiana . . . . . . .
Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.1 Matrices Asociadas a SEL . . . . . . . . . . . . . . . . .
1.6.2 Operaciones Elementales de Fila en la Matriz Asociada
1.6.3 Matriz Equivalente por Filas . . . . . . . . . . . . . . .
1.6.4 Matriz Escalonada Equivalente . . . . . . . . . . . . . .
1.6.5 Rango de una Matriz . . . . . . . . . . . . . . . . . . . .
1.6.6 Teorema de Rouch-Frbenius . . . . . . . . . . . . . .
Mtodo de Gauss Matricial . . . . . . . . . . . . . . . . . . . .
1.7.1 Identificacin de Sistemas Incompatibles . . . . . . . . .
1.7.2 Identificacin de Sistemas Compatibles Indeterminados
Mtodo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . .
1.8.1 Matriz Escalonada Reducida . . . . . . . . . . . . . . .
1.8.2 Matriz Identidad . . . . . . . . . . . . . . . . . . . . . .
Sistemas Homogneos . . . . . . . . . . . . . . . . . . . . . . .

Clases de lgebra

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Pedro Jos Hernando Oter

ndice

iii

2.7.1 Propiedades de la Distancia . . . . . . . . . . . . . . .


2.7.2 Distancia de un Punto al Origen . . . . . . . . . . . .
2.7.3 Norma de un Vector en n . . . . . . . . . . . . . . .
2.7.4 Propiedades de la Norma . . . . . . . . . . . . . . . .
2.7.5 Vectores Unitarios y Normalizacin . . . . . . . . . . .
2.8 Espacio Eucldeo . . . . . . . . . . . . . . . . . . . . . . . . .
2.9 Relaciones entre Vectores . . . . . . . . . . . . . . . . . . . .
2.9.1 Distancia entre dos Vectores . . . . . . . . . . . . . . .
2.9.2 ngulo entre dos Vectores en 2 . . . . . . . . . . . .
2.9.3 ngulo entre dos Vectores en n . . . . . . . . . . . .
2.9.4 Definicin Alternativa del Producto Escalar en n . .
2.10 Vectores Ortogonales . . . . . . . . . . . . . . . . . . . . . . .
2.11 Proyeccin Ortogonal . . . . . . . . . . . . . . . . . . . . . .
2.11.1 Interpretacin Geomtrica en 2 y 3 . . . . . . . . .
2.11.2 Vector Perpendicular . . . . . . . . . . . . . . . . . . .
2.11.3 Aplicaciones Geomtricas de la Proyeccin Ortogonal

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

87
87
88
88
89
89
90
90
90
91
91
91
92
93
95
96

3 Matrices
3.0 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.0.1 Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . .
3.1 Operaciones Bsicas con Matrices . . . . . . . . . . . . . . . . . . .
3.1.1 Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Producto de un Escalar por una Matriz . . . . . . . . . . .
3.1.3 Diferencia o Resta de Matrices . . . . . . . . . . . . . . . .
3.1.4 Propiedades de la Suma y la Multiplicacin por un Escalar
3.1.5 Espacio Vectorial de Matrices . . . . . . . . . . . . . . . . .
3.1.6 Combinacin Lineal de Matrices . . . . . . . . . . . . . . .
3.2 Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Propiedades de la Multiplicacin de Matrices . . . . . . . .
3.2.2 Potencia de Matrices Cuadradas . . . . . . . . . . . . . . .
3.2.3 Producto Matricial Matriz-Vector . . . . . . . . . . . . . . .
3.2.4 Producto Matricial Vector-Vector . . . . . . . . . . . . . . .
3.2.5 Producto Matriz-Vector Estndar . . . . . . . . . . . . . . .
3.3 Expresin Matricial de un SEL . . . . . . . . . . . . . . . . . . . .
3.4 Matriz Transpuesta AT . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Matriz Simtrica y Antisimtrica . . . . . . . . . . . . . . .
3.4.2 Propiedades de la Matriz Transpuesta . . . . . . . . . . . .
3.5 Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.1 Clculo de la Matriz Inversa: Mtodo de Gauss-Jordan . . .
3.5.2 Inversa y SEL . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.3 Operaciones con la Matriz Inversa . . . . . . . . . . . . . .
3.6 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1 Introduccin: Determinantes de Matrices 2 2 . . . . . . .
3.6.2 Determinantes de Matrices 3 3 . . . . . . . . . . . . . . .
3.6.3 Regla de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.4 Determinantes de Matrices n n . . . . . . . . . . . . . . .
3.6.5 Clculo del Determinante mediante Desarrollos de Laplace
3.6.6 Determinantes e Inversa de una Matriz . . . . . . . . . . .
3.6.7 Propiedades de los Determinantes . . . . . . . . . . . . . .
3.6.8 Mtodo de Gauss para el Clculo del Determinante . . . . .
3.6.9 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

101
103
104
106
106
106
106
107
107
107
108
109
109
110
110
111
111
112
112
112
114
114
116
116
116
116
117
118
118
120
121
121
122
122

R
R

R R

Pedro Jos Hernando Oter

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Clases de lgebra

iv

ndice

3.7

3.6.10 Matriz Adjunta e Inversa de una Matriz . . . . . . . . . . . .


Subespacios Fundamentales de una Matriz . . . . . . . . . . . . . . .
3.7.1 Espacios Columna y Fila de una Matriz . . . . . . . . . . . .
3.7.2 Propiedades de las Matrices Equivalentes por Filas . . . . . .
3.7.3 Rango, Ncleo y Nulidad de una Matriz . . . . . . . . . . . .
3.7.4 Teorema del Rango de las Matrices . . . . . . . . . . . . . . .
3.7.5 Teorema Fundamental de las Matrices Invertibles . . . . . . .
3.7.6 Bases para los Espacios Fila, Columna y Nulo de una Matriz

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

124
125
125
128
128
131
133
133

4 Transformaciones Lineales
4.1 Concepto de Transformacin Lineal . . . . . . . . . . . .
4.1.1 Forma Matricial de una Transformacin Lineal .
4.1.2 Propiedades de las Transformaciones Lineales . .
4.2 Transformaciones Lineales Elementales . . . . . . . . . .
4.2.1 Transformacin Lineal de Vectores Estndar . . .
4.2.2 Demostracin = de la Seccin 4.1.2 . . . . . . .
4.3 Inversa de una TL . . . . . . . . . . . . . . . . . . . . .
4.3.1 Funcin Invertible . . . . . . . . . . . . . . . . .
4.3.2 Inversa de una TL . . . . . . . . . . . . . . . . .
4.4 Operaciones con TL . . . . . . . . . . . . . . . . . . . .
4.4.1 Suma de Transformaciones Lineales . . . . . . .
4.4.2 Composicin de Transformaciones . . . . . . . .
4.5 Imagen y Ncleo de una TL . . . . . . . . . . . . . . . .
4.5.1 Imagen de una TL . . . . . . . . . . . . . . . . .
4.5.2 Ncleo o Espacio Nulo de una TL . . . . . . . .
4.5.3 Nulidad y Rango de una TL . . . . . . . . . . . .
4.6 Tipos de TL . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.1 Inyectivas, Sobreyectivas y Biyectivas . . . . . .
4.6.2 Homomorfismos, Endomorfismos e Isomorfismos
4.7 Transformaciones Geomtricas. Movimientos en 2 y 3
4.7.1 Traslaciones en 2 y 3 . . . . . . . . . . . . . .
4.7.2 Rotaciones en 2 . . . . . . . . . . . . . . . . . .
4.7.3 Rotaciones en 3 . . . . . . . . . . . . . . . . . .
4.7.4 Reflexiones sobre Rectas en 2 . . . . . . . . . .
4.7.5 Reflexiones sobre Rectas en 3 . . . . . . . . . .
4.7.6 Reflexiones sobre Planos en 3 . . . . . . . . . .
4.7.7 Homotecias en 2 y 3 . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

137
139
140
141
143
144
145
145
145
149
151
151
152
155
155
157
159
162
162
162
163
163
164
166
166
168
169
169

5 Bases
5.1 Bases en n . . . . . . . . . . . . . . .
5.1.1 Coordenadas y Matriz asociada
5.2 Cambio de Base . . . . . . . . . . . . .
5.2.1 Matriz de Cambio de Base . . .

R R
R
R
R R

R R

R
R
R

.
a
.
.

. . . . . .
una Base
. . . . . .
. . . . . .

6 Ortogonalidad
6.1 Ortogonalidad en n . . . . . . . . . . . .
6.1.1 Conjunto Ortogonal . . . . . . . .
6.1.2 Vector Ortogonal a un Subespacio
6.2 Bases Ortogonales y Ortonormales . . . .
6.2.1 Bases Ortogonales . . . . . . . . .
6.2.2 Bases Ortonormales . . . . . . . .

Clases de lgebra

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

171
173
173
176
176

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

181
183
183
184
185
185
187

Pedro Jos Hernando Oter

ndice
6.3
6.4
6.5

6.6
6.7
6.8
6.9

v
Matrices Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.1 Propiedades de las Matrices Ortogonales . . . . . . . . . . . . . .
TL Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.1 Caractersticas del Complemento Ortogonal . . . . . . . . . . . .
6.5.2 Clculo del Complemento Ortogonal . . . . . . . . . . . . . . . .
6.5.3 Relaciones de Ortogonalidad entre los Subespacios de una Matriz
6.5.4 Dimensin del Complemento Ortogonal . . . . . . . . . . . . . .
Proyeccin Ortogonal y Vector Perpendicular sobre Subespacios . . . . .
Teorema de la Descomposicin Ortogonal . . . . . . . . . . . . . . . . .
Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . .
Factorizacin QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7 Mnimos Cuadrados
7.1 Introduccin . . . . . . . . . . . . . . . . . . . . . .
7.2 Mejor Aproximacin . . . . . . . . . . . . . . . . .
7.3 Aproximacin mediante Mnimos Cuadrados . . . .
7.4 Mnimos Cuadrados mediante la Factorizacin QR
7.5 Error en la Aproximacin por Mnimos Cuadrados:
7.6 Ajuste de Datos mediante Mnimos Cuadrados . .
7.6.1 Ejemplos de Problemas . . . . . . . . . . .
7.7 Resumen de Frmulas de Mnimos Cuadrados . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

188
189
190
190
191
191
192
194
195
197
198
199

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

203
205
205
206
210
212
213
217
221

8 Autovalores y Autovectores
8.1 Introduccin: Sistemas Dinmicos Discretos . . . . . . . . . . . . . .
8.2 Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . .
8.2.1 Interpretacin Geomtrica de los Autovalores y Autovectores
8.2.2 Determinacin de Autovalores y Autovectores . . . . . . . . .
8.2.3 Autoespacios . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2.4 Multiplicidades Algebraica y Geomtrica . . . . . . . . . . . .
8.2.5 Autovalores y Matrices Inversas . . . . . . . . . . . . . . . . .
8.2.6 Tres Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1 Matrices Triangulares . . . . . . . . . . . . . . . . . . . . . .
8.3.2 Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . .
8.3.3 Interpretacin de la Semejanza de Matrices . . . . . . . . . .
8.4 Diagonalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Autovalores Reales y Complejos . . . . . . . . . . . . . . . .
8.5 Diagonalizacin Ortogonal . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1 Interpretacin Geomtrica de la Diagonalizacin Ortogonal .
8.5.2 Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . .
8.5.3 Descomposicin Espectral . . . . . . . . . . . . . . . . . . . .
8.6 Teoremas Avanzados Adicionales . . . . . . . . . . . . . . . . . . . .
8.7 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

223
225
227
227
228
230
232
234
235
236
236
236
238
241
243
245
246
249
250
251
252

9 Pseudoinversa y Descomposicin en Valores Singulares


9.1 Pseudoinversa de una Matriz . . . . . . . . . . . . .
9.1.1 Propiedades de la Matriz Pseudoinversa . . .
9.2 Aplicaciones de la Matriz Pseudoinversa . . . . . . .
9.2.1 Mnimos Cuadrados . . . . . . . . . . . . . .
9.2.2 Matriz de una Proyeccin Ortogonal sobre un

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

253
255
256
256
256
257

Pedro Jos Hernando Oter

. . . . . .
. . . . . .
. . . . . .
. . . . . .
Residuos
. . . . . .
. . . . . .
. . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
Subespacio

.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

Clases de lgebra

vi

ndice
9.3

Descomposicin en Valores Singulares (DVS) . . . . . . . . . . . . . . . . . . . .


9.3.1 Valores Singulares de una Matriz . . . . . . . . . . . . . . . . . . . . . . .
9.3.2 Relacin entre Valores Singulares y Autovectores en Matrices Cuadradas .
9.3.3 Descomposicin en Valores Singulares (DVS) . . . . . . . . . . . . . . . .
9.3.4 Teorema de la Descomposicin Espectral Generalizada . . . . . . . . . . .
9.3.5 Relacin entre las matrices AT A y AAT . . . . . . . . . . . . . . . . . . .
Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1 Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.2 Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.3 Compresin de Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.4 Otras Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

258
259
261
263
272
274
277
277
279
280
285

10 Introduccin a las Ecuaciones Diferenciales Ordinarias con Coeficientes Constantes


10.1 Introduccin a las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . .
10.1.1 Clasificacin de las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . .
10.2 Solucin o Curva Integral de una EDO . . . . . . . . . . . . . . . . . . . . . . . .
10.2.1 Resolucin de EDO Simples: Mtodo de Separacin de Variables . . . . .
10.2.2 Problema de Valores Iniciales y Condicin Inicial . . . . . . . . . . . . . .
10.2.3 Solucin General y Particular de una EDO . . . . . . . . . . . . . . . . .
10.3 Interpretacin Geomtrica de una EDO . . . . . . . . . . . . . . . . . . . . . . .
10.3.1 Campo de Pendientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3.2 Isoclinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4 Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO) . . . . . . . . . . . . . .
10.4.1 SEDO de Primer Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.2 Sistema Equivalente a EDO de Orden n . . . . . . . . . . . . . . . . . . .
10.4.3 SEDO Lineales, Homogneos y Autnomos . . . . . . . . . . . . . . . . .
10.5 SEDO con Coeficientes Constantes, (SEDOC) . . . . . . . . . . . . . . . . . . . .
10.5.1 Forma Matricial de un SEDOC . . . . . . . . . . . . . . . . . . . . . . . .
10.5.2 Solucin Analtica de un SEDOC . . . . . . . . . . . . . . . . . . . . . . .
10.5.3 Solucin General y Particular de un SEDOC . . . . . . . . . . . . . . . .
10.6 SEDOC Bidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.6.1 Tipos de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7 Sistemas Dinmicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.1 Sistemas Dinmicos Continuos Lineales y Homogneos . . . . . . . . . . .
10.7.2 Representacin Grfica: Trayectorias, Plano de Fases y Espacio de Fases .
10.7.3 Puntos Criticos, Estacionarios o de Equilibrio . . . . . . . . . . . . . . . .
10.7.4 Campo Direccional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.5 Separatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.8 Estabilidad de un SEDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.8.1 Tipos de Estabilidad y Soluciones de Sistemas Dinmicos . . . . . . . . .
10.8.2 Anlisis de la Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

287
289
290
292
293
294
295
296
297
298
299
300
301
302
303
303
303
304
305
305
313
313
313
315
316
317
321
322
324

9.4

APNDICES
A Temas de Repaso
A.1 Trigonometra . . . . . . . . . . . . .
A.1.1 Medida de ngulos: Radianes
A.1.2 Funciones Trigonomtricas .
A.2 Productos Notables . . . . . . . . . .
A.3 Sumatorios . . . . . . . . . . . . . .

Clases de lgebra

331
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

333
334
334
336
347
347

Pedro Jos Hernando Oter

ndice

vii

A.4 Binomio de Newton . . . . . . . . . . . . . . . . . . . . . .


A.5 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.5.1 Regla de Ruffini . . . . . . . . . . . . . . . . . . . .
A.6 Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.1 Valor Absoluto . . . . . . . . . . . . . . . . . . . . .
A.6.2 Distancia en
. . . . . . . . . . . . . . . . . . . . .
A.6.3 Distancia en 2 . . . . . . . . . . . . . . . . . . . .
A.6.4 Distancia en 3 . . . . . . . . . . . . . . . . . . . .
A.7 Vectores en el Plano y en el Espacio . . . . . . . . . . . . .
A.7.1 Vectores de Posicin . . . . . . . . . . . . . . . . . .
A.7.2 Vectores que no son de posicin: Vectores Generales
A.7.3 Vectores Elementales . . . . . . . . . . . . . . . . . .
A.8 Vectores en Espacios n , n y n . . . . . . . . . . . . . .
A.8.1 Caracterizacin de Vectores . . . . . . . . . . . . . .
A.9 Frmulas Geomtricas sobre Distancias . . . . . . . . . . .
A.9.1 Producto Escalar y Vectorial en 3 . . . . . . . . .
A.9.2 Distancia de un Punto a un Recta en 2 . . . . . .
A.9.3 Distancia entre dos Rectas paralelas en 2 . . . . .
A.9.4 Distancia de un Punto a un Plano en 3 . . . . . .
A.9.5 Distancia entre dos Planos Paralelos en 3 . . . . .
A.9.6 Distancia de un Punto a un Recta en 3 . . . . . .
A.9.7 Distancia entre dos Rectas paralelas en 3 . . . . .
A.10 Introduccin a las Funciones . . . . . . . . . . . . . . . . . .
A.10.1 Tipos de Funciones . . . . . . . . . . . . . . . . . . .
A.10.2 Representacin Grfica de Funciones Reales . . . . .
A.10.3 Tipos de Funciones . . . . . . . . . . . . . . . . . . .
A.10.4 Funcin Inversa (o Recproca) f 1 (x) . . . . . . . .
A.10.5 Composicin de Funciones . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

348
349
350
353
353
353
353
354
354
355
355
356
357
358
358
358
358
359
359
359
359
360
361
361
362
363
364
365

B Nmeros Complejos
B.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.2 Cuerpo de los nmeros Complejos . . . . . . . . . . . . . . . . . . . . .
B.2.1 Definicin del nmero imaginario i . . . . . . . . . . . . . . . . .
B.2.2 Potencias enteras de i . . . . . . . . . . . . . . . . . . . . . . . .
B.2.3 Definicin de Nmero Complejo. Formas Cartesiana y Binmica
B.3 Operaciones Bsicas en
. . . . . . . . . . . . . . . . . . . . . . . . . .
B.3.1 Suma de Nmeros Complejos . . . . . . . . . . . . . . . . . . . .
B.3.2 Producto de Nmeros Complejos . . . . . . . . . . . . . . . . . .
B.3.3 El Cuerpo de los Nmeros Complejo . . . . . . . . . . . . . . . .
B.4 Conjugado de un Nmero Complejo . . . . . . . . . . . . . . . . . . . .
B.4.1 Propiedades del Conjugado . . . . . . . . . . . . . . . . . . . . .
B.4.2 Conjugados y Divisin de Nmeros Complejos . . . . . . . . . .
B.5 Representacin Geomtrica de
. . . . . . . . . . . . . . . . . . . . . .
B.5.1 El Plano Complejo . . . . . . . . . . . . . . . . . . . . . . . . . .
B.5.2 Mdulo de un Nmero Complejo . . . . . . . . . . . . . . . . . .
B.5.3 Argumento de un Nmero Complejo . . . . . . . . . . . . . . . .
B.6 Otras Formas de Expresar los Nmeros Complejos . . . . . . . . . . . .
B.7 Forma Trigonomtrica y Polar . . . . . . . . . . . . . . . . . . . . . . . .
B.7.1 Propiedades y Operaciones Bsicas de la Forma Polar . . . . . .
B.7.2 Exponencial Compleja. Frmula de Euler . . . . . . . . . . . . .
B.7.3 Teorema de De Moivre . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

367
369
369
369
369
370
371
371
371
373
373
374
374
375
375
376
377
378
378
379
380
381

R
R
R

R C

Pedro Jos Hernando Oter

R
R
R
R
R
R

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

Clases de lgebra

viii

ndice
B.7.4
B.7.5
B.8 Forma
B.8.1
B.8.2
B.8.3
Bibliografa

Clases de lgebra

Potenciacin en la Forma Polar . . . .


Raz n-sima de un Nmero Complejo
Exponencial . . . . . . . . . . . . . . .
Operaciones en Forma Exponencial . .
Seno y Coseno Complejo . . . . . . . .
Logaritmo Complejo . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

381
382
383
383
384
385
387

Pedro Jos Hernando Oter

TEMA

Conceptos Bsicos de Rectas y Planos


Contenido
0.1
0.2

0.3

0.4

0.5

0.6

Sistema de Coordenadas Cartesianas . . . . . . . . . . . . . . . . . . . . .


Ecuaciones de la Recta en el Plano Eucldeo . . . . . . . . . . . . . . . .
0.2.1 Ecuacin de dos Puntos . . . . . . . . . . . . . . . . . . . . . . .
0.2.2 Ecuacin Punto-Pendiente . . . . . . . . . . . . . . . . . . . . . .
0.2.3 Ecuacin General o Cartesiana de la Recta . . . . . . . . . . . . .
0.2.4 Casos Particulares: Rectas Horizontales y Verticales . . . . . . . .
0.2.5 Forma Vectorial y Paramtrica de la Recta . . . . . . . . . . . . .
0.2.6 Ecuacin Normal de la Recta . . . . . . . . . . . . . . . . . . . .
0.2.7 Resumen de Frmulas: Rectas en el Plano Eucldeo . . . . . . . .
0.2.8 Conversin entre Formas . . . . . . . . . . . . . . . . . . . . . . .
Ecuaciones del Plano en el Espacio 3D . . . . . . . . . . . . . . . . . . .
0.3.1 Ecuacin General del Plano . . . . . . . . . . . . . . . . . . . . .
0.3.2 Forma Vectorial y Paramtrica del Plano . . . . . . . . . . . . . .
0.3.3 Forma Normal del Plano . . . . . . . . . . . . . . . . . . . . . . .
0.3.4 Resumen Frmulas: Planos en el Espacio 3D . . . . . . . . . . . .
0.3.5 Conversin entre Formas de un Plano . . . . . . . . . . . . . . . .
Ecuaciones de la Recta en el Espacio 3D . . . . . . . . . . . . . . . . . .
0.4.1 Forma General de la Recta . . . . . . . . . . . . . . . . . . . . . .
0.4.2 Forma Vectorial-Paramtrica de la Recta . . . . . . . . . . . . . .
0.4.3 Forma Normal de la Recta . . . . . . . . . . . . . . . . . . . . . .
0.4.4 Resumen Frmulas: Rectas en el Espacio 3D . . . . . . . . . . . .
0.4.5 Conversin entre Formas . . . . . . . . . . . . . . . . . . . . . . .
Geometra de los Sistemas de Ecuaciones en el Plano y en el Espacio 3D
0.5.1 Sistemas de Una Ecuacin . . . . . . . . . . . . . . . . . . . . . .
0.5.2 Sistemas de Dos Ecuaciones . . . . . . . . . . . . . . . . . . . . .
0.5.3 Sistemas de Tres Ecuaciones . . . . . . . . . . . . . . . . . . . . .
Mtodos Simples de Resolucin de Sistemas . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
4
4
5
5
6
6
9
10
10
12
12
13
15
16
16
17
17
18
18
19
19
20
20
22
25
28

Clases de lgebra

Ec. Punto-Pendiente

Ec. Dos Puntos

Ec. General

Ec. Vectorial

Ec. Paramtrica

Rectas

Plano Eucldeo

Ec. Normal

Coordenadas Cartesianas

Ec. General

Ecuaciones Bsicas

Ec. Paramtrica

Ec. Vectorial

Planos

Ec. Normal

Ec. Paramtrica

Ec. Vectorial

Rectas

Ec. Normal

Sist. 2 Ecuaciones

Sist. 3 Ecuaciones

Geometria de Sist. de Ec. Lineales

Sist. 1 Ecuacin

Ec. General

Espacio Eucldeo

Rectas y Planos

Igualacin

Sustitucin

Reduccin

Mtodos Simples de Resolucin de Sistemas

2
TEMA 0: Conceptos Bsicos de Rectas y Planos

Pedro Jos Hernando Oter

0.1. Sistema de Coordenadas Cartesianas

0.1. Sistema de Coordenadas Cartesianas


Las coordenadas cartesianas o rectangulares se usan para definir un sistema de referencia respecto a
un solo eje (recta real), respecto a dos ejes (plano eucldeo) o respecto a tres ejes (espacio 3D1 ).
En el plano eucldeo y en el espacio 3D, los ejes son perpendiculares entre s y se cortan en un punto
llamado origen de coordenadas representado por O.
Y

O
Y
X

Figura 0.1.: Sistemas de coordenadas cartesianas en el plano eucldeo y en el espacio 3D.

En el plano eucldeo, los ejes se denominan:


Eje X o de abscisa: eje horizontal.
Eje Y o de ordenada: eje vertical.
En el espacio 3D, las coordenadas cartesianas se suelen denominar eje X, eje Y y eje Z 2 .
La localizacin de un punto en el plano eucldeo y en el espacio 3D se realiza mediante la utilizacin
de las coordenadas cartesianas.
Las coordenadas cartesianas de un punto P en el plano eucldeo son el par de nmeros reales
(x, y) en los cuales rectas perpendiculares a los ejes que pasan por el punto P , cortan a los ejes.
Las coordenadas cartesianas de un punto P en el espacio 3D son la terna de nmeros (x, y, z)
en los cuales planos perpendiculares a los ejes que pasan por el punto P , cortan a los ejes.
Z

Y
x
b

(x, y)

(x, y, z)
b

Figura 0.2.: Representacin grfica de puntos en el plano eucldeo y en el espacio 3D.

1 Espacio
2 La

tridimensional eucldeo. Ver en la Seccin 2.8, pgina 89 la definicin general de espacio eucldeo.
disposicin espacial de estos ejes puede variar segn las diferentes aplicaciones.

Pedro Jos Hernando Oter

Clases de lgebra

TEMA 0: Conceptos Bsicos de Rectas y Planos

0.2. Ecuaciones de la Recta en el Plano Eucldeo


Una recta es un conjunto infinito de puntos dispuestos en una misma direccin.
Vamos a ver las diferentes formas bsicas que hay de representar matemticamente una recta en el
plano eucldeo.

0.2.1. Ecuacin de dos Puntos


Y
y2

y1
y0

y0
m

x2

x1

Figura 0.3.: Representacin de una recta en el plano eucldeo y sus elementos caractersticos.

Por dos puntos distintos del plano eucldeo de coordenadas (x1 , y1 ) y (x2 , y2 ) pasa una nica recta,
cuyos infinitos puntos (x, y) cumplen la ecuacin:
y2 y1
y y1
=
x2 x1
x x1

(0.1)

Despejando la variable y se obtiene la siguiente frmula prctica:


y = y1 +

y2 y1
(x x1 )
x2 x1

(0.2)

Ejemplo 0.1. Encontrar la ecuacin de la recta que pasa por los puntos P1 = (1, 2) y
P2 = (1, 3) del plano eucldeo.
Solucin: Vamos a aplicar la Ecuacin (0.1), tomando por ejemplo3 P1 = (x1 , y1) y P2 =
(x2 , y2 ).
y2 y1
y y1
=
x2 x1
x x1

32
y2
=
1 1
x1

(x 1) = 2y 4

1
y2
=
2
x1

2y = 4 (x 1)

(x 1) = 2(y 2)

1
y = 2 (x 1)
2

Esta misma ecuacin se puede obtener aplicando directamente la Ecuacin (0.2). Podemos
comprobar como la frmula obtenida se cumple para las coordenadas de los puntos P1 y P2
utilizados en su clculo.
3 Es indiferente el orden que se tome en los puntos, en este caso podramos tomar P = (x , y1) y P = (x , y )
2
1
1
2 2
obtenindose el mismo resultado.

Clases de lgebra

Pedro Jos Hernando Oter

0.2. Ecuaciones de la Recta en el Plano Eucldeo

0.2.2. Ecuacin Punto-Pendiente


Se denomina pendiente a la inclinacin de una recta. Conociendo dos puntos de la misma, su pendiente
m se puede determinar como:
m=

y2 y1
x2 x1

(0.3)

tan = m

El valor de m puede ser cualquier nmero real (negativo, cero o positivo) o bien infinito si la recta es
vertical4 . El ngulo de inclinacin de la recta se puede obtener calculando el arcotangente5 de m.
Sustituyendo en la Ecuacin (0.2) se obtiene la ecuacin de la recta que pasa por un punto (x1 , y1 )
y tiene por pendiente m, conocida como ecuacin punto-pendiente:
y = y1 + m(x x1 )

(0.4)

y = y0 + mx

(0.5)

Si desarrollamos el parntesis y denominamos y0 = y1 mx1 , se obtiene la ecuacin punto-pendiente


simplificada:

El valor y0 se denomina ordenada en el origen y corresponde con la ordenada del punto de corte de
la recta con el eje Y , (ver la Figura 0.3).
Ejemplo 0.2. Encontrar la recta en su forma punto-pendiente que pasa por los puntos
P1 = (0, 0) y P2 = (1, 1) y determinar su pendiente y su ordenada en el origen.
Solucin:
y
P2

Vamos a utilizar la Ecuacin (0.3) para determinar la pendiente


de la recta:
y2 y1
10
m=
= 1
=
x2 x1
1 0

1
P1

Por tanto:

y = y1 + m(x x1 ) = 0 1(x 0) = x
y = x

y = x

La pendiente de esta recta es -1 y su ordenada en el origen 0.

0.2.3. Ecuacin General o Cartesiana de la Recta


Una forma muy prctica de representar una recta en el plano eucldeo es mediante su ecuacin general
o cartesiana 6 :
ax + by = c

a, b, c

(0.6)

donde las constantes a, b y c son nmero reales.


Esta ecuacin se puede obtener multiplicando la Ecuacin (0.5) por un nmero b distinto de cero7
y llamando a = bm y c = by0 .
4 Ver

la Seccin 0.2.4, pgina 6.


el Apndice A.1, pgina 334.
6 Tpicamente se suele denominar ecuacin cartesiana cuando aparecen las variables a la izquierda del signo igual,
y la constante a la derecha. Cuando todos los trminos aparecen despejados a la derecha e igualados a cero se suele
denominar ecuacin general.
7 En la ecuacin general el valor b puede ser cero dando lugar a una recta vertical con pendiente infinita.
5 Ver

Pedro Jos Hernando Oter

Clases de lgebra

TEMA 0: Conceptos Bsicos de Rectas y Planos

Ejemplo 0.3. Determinar la ecuacin general de la recta que tiene por pendiente m = 3/2 y
pasa por el punto P = (1, 2).
Solucin: Aplicando la Ecuacin (0.4) se tiene:
3
3x 3
7 + 3x
y = y1 + m(x x1 ) = 2 + [x (1)] = 2 +
+ =
2
2
2
2
Reordenando podemos encontrar la ecuacin general de esta recta:
2y = 7 + 3x

3x 2y = 7

0.2.4. Casos Particulares: Rectas Horizontales y Verticales


Dos casos sencillos de la ecuacin general son las rectas horizontales (a = 0) con ecuacin y = k, y las
rectas verticales (b = 0) con ecuacin x = k, siendo k una constante real.
Y
k

y=k
x=k

0.2.5. Forma Vectorial y Paramtrica de la Recta


Una forma alternativa y muy til de describir una recta es representar la direccin de la misma
mediante un vector8 , de forma que por un punto del plano eucldeo P = (x0 , y0 ) y con la direccin
dada por el vector ~v = [v1 , v2 ] pasa una nica recta.
Y
~v
y0
b

x0

Teniendo esto en cuenta, la ecuacin vectorial de la recta tiene la siguiente forma:


Y

~v

~p
b

~x

~x = p~ + t~v

(0.7)

X
8 Ver una introduccin a los vectores en el plano eucldeo y en el espacio 3D en el Apndice A.7, pgina 354 y un
estudio ms detallado en el Tema 2, pgina 63.

Clases de lgebra

Pedro Jos Hernando Oter

0.2. Ecuaciones de la Recta en el Plano Eucldeo

Los trminos de esta ecuacin son:


~x = [x, y] : vector9 que representa a todos y cada uno de los puntos de la recta.
p~ = [x0 , y0 ]: vector que posee su extremo en el punto P = (x0 , y0 ).
~v : vector en la direccin de la recta, conocido con el nombre de vector director.
t: es un parmetro10 que puede tomar cualquier valor real. Para cada valor del parmetro t se
obtiene un punto de la recta.
El parmetro t modifica el tamao del vector director ~v , alargndolo si t > 1, encogindolo si
0 < t < 1 y cambindolo de direccin si t < 0. De esta forma el vector resultante ~x alcanza todos los
puntos de la recta.
Teniendo en cuenta que los vectores del plano eucldeo tienen dos componentes, la ecuacin vectorial
de la recta, Ecuacin (0.7), se puede escribir tambin como11 :


x
y

x0
y0

+t

v1
v2

(0.8)

Esta ecuacin se puede partir en dos, dando lugar a la conocida como forma paramtrica de la recta:


x =
y =

x0 + v 1 t
y0 + v2 t

(0.9)

Las formas vectoriales y paramtricas son elementos esenciales del lgebra Lineal y sern muy
utilizadas en los prximos temas.
Ejemplo 0.4. Determinar la ecuacin vectorial y paramtrica de la recta que pasa por los
puntos P1 = (1, 2) y P2 = (3, 0).
Solucin: Restando las coordenadas de los puntos dados se puede obtener un vector con la
direccin de la recta (vector director).

~v = P1 P2 = [3 1, 0 (2)] = [4, 2]
Como vector director ~v podemos tomar o bien ste que acabamos de calcular o cualquiera de sus
mltiplos no nulos, como por ejemplo: [2, 1] [2, 1] ya que todos tienen la misma direccin12 .
Con un vector director y un punto cualquiera de la recta, por ejemplo P1 P2 , podemos obtener
una13 ecuacin vectorial de esta recta:

 

 
x
1
2
~x = ~x0 + t~v
;
+t
=
y
2
1
Podemos comprobar como dando los valores t = 0 y t = 2 se obtienen respectivamente los
puntos P1 y P2 de la recta.
(Contina en la pgina siguiente)
9 Los

vectores se van a representar en este libro encerrando su coordenadas entre corchetes cuadrados, [ ].
parmetro es un trmino que puede tomar cualquier valor, pero que no es una variable del sistema.
11 Los vectores se pueden poner indistintamente como filas o como columnas.

12 Lo importante aqu es la direccin del vector y no su sentido. Por ello tambin podemos utilizar el vector
P2 P1 en

lugar de P1 P2 .
13 Hay infinitas formas de representar una recta en su forma vectorial, dependiendo del punto y vector director
elegidos, pero todas representan la misma recta.
10 Un

Pedro Jos Hernando Oter

Clases de lgebra

P
P

TEMA 0: Conceptos Bsicos de Rectas y Planos

Ejemplo 0.4 (Continuacin).


Finalmente una14 ecuacin paramtrica de esta recta se obtiene partiendo la forma vectorial en
dos ecuaciones:


x = 1 + 2t
y = 2 + t

Ejemplo 0.5. Encontrar la ecuacin vectorial de la recta 3x + y = 1.


Solucin: La forma ms sencilla de pasar una ecuacin general a su forma paramtrica es
asignando un parmetro a cualquiera de sus variables. Por ejemplo asignando el parmetro t a
la variable x y despejando se obtiene:

x=t
3x + 2y = 1 =
y = 1 3t
que es una ecuacin paramtrica de esta recta. Fcilmente a travs de ella podemos obtener una
forma vectorial reuniendo las dos ecuaciones en una sola:

x
y

0
1

+t

1
3

Ejemplo 0.6. Obtener la ecuacin general de la recta cuya forma vectorial es:

 



x
1
2
=
+t
y
2
3
Solucin: Fcilmente podemos obtener su forma paramtrica:

x = 1 + 2t
y = 2 3t
Como la ecuacin general no tiene parmetros, debemos eliminar t de la forma paramtrica.
Para ello podemos despejar t en cada una de las ecuaciones e igualarlas:


x = 1 + 2t
y = 2 3t

x+1

t= 2

t= 2y
3

x+1
2y
=
2
3

3x + 3 = 4 2y

Simplificando se obtiene finalmente:

3x + 2y = 1

14 Tambin

hay infinitas formas paramtricas de representar una nica recta.

Clases de lgebra

Pedro Jos Hernando Oter

0.2. Ecuaciones de la Recta en el Plano Eucldeo

0.2.6. Ecuacin Normal de la Recta


Siguiendo con los conceptos vectoriales, la ecuacin general de la recta15 se puede interpretar como
un determinado producto escalar16 :
ax + by = [a, b] [x, y] = ~n ~x = c

~n ~x = c

Donde:
~n = [a, b] : se denomina vector normal de la recta y que tiene por componentes los coeficientes
de la variables, a y b.
~x = [x, y] : vector que representa a todos y cada uno los puntos (x, y) de la recta17 .
c : trmino independiente (constante) de la ecuacin general.
La constante c es un nmero real y siempre se puede encontrar un determinado punto de la recta
p~ = [x0 , y0 ] que al multiplicarlo escalarmente por el vector normal ~n se obtenga como resultado c:
~n ~x = c

~n ~x = ~n p~

Pasando los dos trminos a un mismo lado y despejando el vector normal ~n se obtiene la denominada
ecuacin normal de la recta:
~n ~x ~n p~ = 0

~n

~x

p~

x0

(0.10)

~n (~x p~) = 0

La interpretacin geomtrica de esta ecuacin vectorial es la


siguiente: la diferencia entre un vector ~x = [x, y] con extremo
en cualquier punto de la recta y el vector p~ = [x0 , y0 ] con extremo
en un determinado punto (x0 , y0 ) de la recta, da lugar a un
nuevo vector (~x p~) que tiene la direccin de la recta18 . Segn la
Ecuacin (0.10), este vector es perpendicular19 al vector ~n, luego
por tanto ~n es un vector perpendicular (normal) a la recta.
b

y0

Ejemplo 0.7. Encontrar la ecuacin normal de la recta: x 2y = 3.


Solucin: Podemos reinterpretar esta ecuacin en base al producto escalar de la siguiente forma:
xy =1

[1, 2] [x, y] = 3

Un vector normal de la recta es por tanto20 ~n = [1, 2]. Tomando un punto cualquiera de la
recta, por ejemplo (3, 0) se tiene p~ = [3, 0].
Finalmente una ecuacin normal de esta recta es:
[1, 2] ([x, y] [3, 0]) = 0
Desarrollando el producto escalar y simplificando se puede volver a recuperar la ecuacin general.
15 Ver

la Ecuacin 0.6, pgina 5.


la Seccin 2.6, pgina 86.
17 De la misma forma que se utiliz en la ecuacin vectorial de la recta en la Seccin 0.2.5, pgina 6.
18 Es decir, es un vector director de la recta, como se explic en Seccin 0.2.5, pgina 6.
19 Ya que el producto escalar de ambos es cero.
20 Hay infinitos vectores normales a una recta, todos con la misma direccin.
16 Ver

Pedro Jos Hernando Oter

Clases de lgebra

10

TEMA 0: Conceptos Bsicos de Rectas y Planos

0.2.7. Resumen de Frmulas: Rectas en el Plano Eucldeo


Ecuacin
Punto-pendiente
General
Vectorial (Paramtrica)
Normal

Frmula
y = y0 + mx
ax + by = c
~x = p~ + t~v
~n (~x p~) = 0

0.2.8. Conversin entre Formas


General Punto-Pendiente
y = y0 + mx

mx y = y0

=
b6=0

ax + by = c

y=

a=m
b = 1

c = y0

y0 = c/b
m = a/b

c a
+
x
b
b

Nota 0.1. Si en al forma general b = 0, la recta es vertical y la pendiente m es infinita, por lo que este tipo de rectas
no pueden expresarse en la forma punto-pendiente.

General Vectorial (Paramtrica)



x = t
ax + by = c =
y = c at


x =
y =

x 0 + v1 t
y0 + v2 t

t =

=
x x0
v1

t =

x
y

0
c

+t

1
a

x x0
y y0
=
v1
v2

y y0
v2
Esta ecuacin se denomina ecuacin continua de la recta en el plano eucldeo. Si v~1 6= 021 la
ecuacin general tiene la forma:
v2
v2
x y = x0 y0
v1
v1
General Normal
~n(~x~
p) = [n1 , n2 ]([x, y][p1 , p2 ] = 0 = [n1 , n2 ][xp1 , yp2 ] = 0 = n1 (xp1 )+n2 (yp2 ) = 0

a = n1
b = n2
= n1 x + n2 y = n1 p1 + n2 p2

c = n1 p1 + n2 p2
ax + by = c

Nota 0.2.


h c i
[a, b] [x, y] 0,
=0
b

~n = [a, b]
p~ = [0, c/b]

Si en la forma general b = 0, la recta es vertical y la ecuacin normal se puede expresar como:


[a, 0] ([x, y] [a/c, 0] = 0

21 Si

v1 = 0, la recta es vertical y la ecuacin general es x = x0 .

Clases de lgebra

Pedro Jos Hernando Oter

0.2. Ecuaciones de la Recta en el Plano Eucldeo

11

Ejemplo 0.8. Encontrar las distintas formas de expresar matemticamente la recta que pasa
por los puntos P1 = (1, 2) y P2 = (0, 3) del plano eucldeo y especificar sus valores
caractersticos: pendiente, vector director, vector normal y puntos de corte con los ejes X e
Y.
Solucin: Aplicando la ecuacin de dos puntos podemos obtener la ecuacin punto-pendiente
de la recta.
3 (2)
y (2)
=
x1
01

y = 2 5(x 1)

y = 3 5x

Con esta ecuacin podemos determinar fcilmente la pendiente y los puntos de corte con el eje
X (valor de la x para y = 0) y con el eje Y (valor de la y para x = 0):
pendiente: m = 5

Corte eje X:


3
,0
5

Corte eje Y : (0, 3)

La forma general de la recta se puede expresar como22 :


5x + y = 3
La forma normal de la recta se puede obtener fcilmente de la ecuacin general:
[5, 1] [x, y] = 3

vector normal: ~n = [5, 1]

Ahora tenemos que encontrar un vector p~ = [x0 , y0 ] de forma que el producto escalar ~n p~ = 3.
Para ello podemos coger P1 , P2 o cualquier otro punto de la recta. Tomando por ejemplo P2 ,
p~ = [0, 3], tenemos finalmente una ecuacin normal23 :
[5, 1] [x, y] = [5, 1] [0, 3]

[5, 1] ([x, y] [0, 3]) = 0

Para obtener la ecuacin vectorial/paramtrica necesitamos un vector director de la recta. ste


se obtiene fcilmente restando vectorialmente dos puntos cualquiera de la recta, por ejemplo
tomando P1 y P2 :
~v = p~1 p~2 = [1, 2] [0, 3] = [1, 5]

vector director: ~v = [1, 5]

La forma vectorial se puede obtener con un vector director y un punto cualquiera de la recta,
por ejemplo P1 :
[x, y] = [1, 2] + t[1, 5]
Por ltimo, una forma paramtrica de la recta se puede obtener partiendo la ecuacin vectorial
en sus distintas componentes:


x=1+t
y = 2 5t

22 Hay infinitas formas de representar la ecuacin general, basta con multiplicar ambas partes de la igualdad por un
nmero distinto de cero.
23 Hay infinitas ecuaciones normales asociadas a una recta, porque existen infinitos vectores normales e infinitos
puntos de la misma.

Pedro Jos Hernando Oter

Clases de lgebra

12

TEMA 0: Conceptos Bsicos de Rectas y Planos

Ejemplo 0.9. Encontrar en cada caso, la ecuacin de la recta en el plano eucldeo que pasando
por el punto (1, 2) cumple:
a) Es paralela a la recta y = 1 x.
b) Es perpendicular a la recta y = 1 + 3x.
Solucin:
a) Si es paralela a la recta, tiene su misma pendiente, en este caso m = 1. La recta buscada
tendr entonces por ecuacin: y = a x. El valor de a se puede determinar sabiendo que
la recta debe pasar por el punto (1, 2). Sustituyendo podemos obtener la forma puntopendiente de la recta pedida:
2=a1

a=3

y =3x

b) En este caso, las rectas deben ser perpendiculares. Teniendo en cuenta que las pendientes
m y m0 de dos rectas perpendiculares cumplen:
m=

1
m0

y la pendiente de la recta dada es m0 = 3, la pendiente de la recta pedida es m = 1/3.


Como adems debe pasar por el punto (1, 2), se tiene finalmente:
1
y =a x
3

2=a

1
3

a=

7
3

y=

7 x

3 3

0.3. Ecuaciones del Plano en el Espacio 3D


Un plano es un ente bidimensional que posee infinitos puntos e infinitas rectas.
Las formas de representar matemticamente un plano en el espacio 3D son similares a las de las
rectas en el plano eucldeo vistas en la seccin anterior, aadiendo una dimensin24 ms, (variable z).

0.3.1. Ecuacin General del Plano


La ecuacin general de un plano en el espacio 3D se puede expresar como:
ax + by + cz = d

; a, b, c

c6=0

z = x + y +

= a/c
= b/c
= d/c

(0.11)

Caractersticas de las constantes a, b, c y d:


Si a 6= 0 el plano corta al eje X, de otra forma el plano es paralelo a dicho eje.
Si b 6= 0 el plano corta al eje Y , de otra forma el plano es paralelo a dicho eje.
Si c 6= 0 el plano corta al eje Z, de otra forma el plano es paralelo a dicho eje.
Si d = 0 el plano pasa por el origen de coordenadas O(0, 0, 0).
24 El

concepto de dimensin ser estudiado en ms detalle en las siguientes temas.

Clases de lgebra

Pedro Jos Hernando Oter

0.3. Ecuaciones del Plano en el Espacio 3D

13

y=0

d
c

x=0

d
b

d
a

Ejemplo 0.10. Encontrar la ecuacin general del plano que pasa por los puntos P1 = (1, 0, 1),
P2 = (1, 1, 1) y P3 = (0, 0, 1) del espacio 3D.
Solucin: Vamos a suponer25 que c 6= 0 y determinaremos las constantes , y de la
Ecuacin (0.11).
x + y + = z
Introduciendo los valores delos puntos P1 , P2 y P3 se obtiene el siguiente sistema de ecuaciones:

=
1
+
=0
+ + = 1
= 2
2y + z = 1
=
=
2y z = 1 =

=
1
=1

0.3.2. Forma Vectorial y Paramtrica del Plano

Una forma alternativa de describir un plano es a partir de un punto26 p~ = [x0 , y0 , z0 ] y dos vectores
~u = [u1 , u2 , u3 ] y ~v = [v1 , v2 , v3 ], contenidos en el mismo.

~p b

~u

~v

z=0

El conjunto de todos los puntos del plano (x, y, z) viene dado por las siguientes ecuaciones, donde
la variables t, s son parmetros.

~x = p~ + t~u + s~v

F. Vectorial:
x
x0
u1
v1

y = y0 + t u2 + s v2

z
z0
u3
v3

F. Paramtrica:

x
y

= x0 + tu1 + sv1
= y0 + tu2 + sv2
= z0 + tu3 + sv3

25 En caso de que este planteamiento no tenga solucin, ser debido a que c = 0 y tendremos que buscar otra constante
a b que no sea nula. Tener en cuenta que en todo plano al menos una constante debe ser distinta de cero.
26 El punto est expresado en forma vectorial, de igual forma que se realiz en la forma vectorial de una recta en el
plano, (ver la Seccin 0.2.5, pgina 6).

Pedro Jos Hernando Oter

Clases de lgebra

14

TEMA 0: Conceptos Bsicos de Rectas y Planos

Notar que la forma vectorial del plano en el espacio 3D tiene vectores de tres componentes y posee
dos parmetros27 .
Ejemplo 0.11. Encontrar las ecuaciones paramtrica y vectorial del plano que pasa por los
puntos: P1 = (1, 1, 1), P2 = (0, 0, 0) y P3 = (2, 0, 1) del espacio 3D.
Solucin: Para construir la forma vectorial del plano necesitamos un punto y dos vectores
contenidos en el mismo.
~x = p~ + t~u + s~v
Como punto p~ podemos tomar cualquiera de los dados en el enunciado28 , por ejemplo p~ = [1, 1, 1]
y para obtener los vectores ~u y ~v podemos restar dos a dos dichos puntos:

~v = P3 P1 = [1, 1, 1] [0, 0, 0] = [1, 1, 1]

~v = P3 P2 = [2, 0, 1] [0, 0, 0] = [2, 0, 1]

Por tanto, unas ecuaciones vectorial y paramtrica de este plano son:

x
1
1
2
y = 1 + t 1 + s 0
z
1
1
1

x = 1 + t + 2s
y =1+t

z =1+t+s

Ejemplo 0.12. Encontrar la ecuacin vectorial del plano 2x y = 3 en el espacio 3D.


Solucin: Vamos a asignar dos parmetros t y s a dos variables. Una puede ser la variable x = t
y la otra obligatoriamente tiene que ser la variable z que no aparece en la ecuacin y por tanto
puede tomar cualquier valor z = s. Entonces unas ecuaciones paramtrica y vectorial del plano
son:

1
0
x
0
x=t
y = 3 + t 2 + s 0
y = 3 + 2t
2x y = 3 =
;

z=s
z
0
0
1
Ejemplo 0.13. Encontrar la ecuacin general del plano cuya forma paramtrica en el espacio
3D es:

x=1+ts
y = 1 t 2s

z = t s
Solucin: Tenemos que eliminar los parmetros t y s, por ejemplo despejando de la tercera
ecuacin y sustituyendo en las dos primeras se tiene:

x = 1 + (z s) s = 1 z 2s
t = z s =
y = 1 (z s) 2s = 1 + z s s = 1 + z y
Sustituyendo el valor de s en la primera ecuacin de la x despejada se tiene:
x = 1 z 2(1 + z y) = 3 3z + 2y

x 2y + 3z = 3

27 A diferencia de la forma vectorial de la recta en el plano eucldeo donde los vectores tienen dos componentes y slo
posee un parmetro, (ver la Seccin 0.2.5, pgina 6).
28 Dispuestos como vectores en lugar de puntos.

Clases de lgebra

Pedro Jos Hernando Oter

0.3. Ecuaciones del Plano en el Espacio 3D

15

0.3.3. Forma Normal del Plano


La forma normal de un plano se puede obtener de la forma general del mismo modo que se realiz
con la recta en el plano eucldeo 29 .


~n = [a, b, c]
ax + by + cz = d =
= ~n ~x = d = ~n ~x = ~n p~ = ~n (~x p~) = 0
~x = [x, y, z]
Esta ecuacin recibe el nombre de ecuacin normal del plano y ~n es un vector normal al plano, que
como se deduce de la ecuacin normal, es perpendicular al mismo.
~n
b

~p

~x = [x, y, z]

~n = [a, b, c]

p~ = [x0 , y0 , z0 ]

~x

Todos los puntos del plano (variable)


Un vector normal al plano (constante)
Punto cualquiera del plano (constante)

Notar que la ecuacin normal de un plano en el espacio 3D es exactamente igual que la ecuacin
normal de una recta en el plano eucldeo 30 , aunque los vectores tienen tres componentes en lugar de
dos.
Ejemplo 0.14. Encontrar la ecuacin normal del plano x + y z = 2 en el espacio 3D.
Solucin: Podemos reinterpretar esta ecuacin en base al producto escalar de la siguiente forma:
x+yz =2

[1, 1, 1] [x, y, z] = 2

Un31 vector normal del plano es por tanto ~n = [1, 1, 1]. Tomando un punto cualquiera del
plano, por ejemplo (1, 1, 0) se tiene p~ = [1, 1, 0].
Finalmente una ecuacin normal de este plano es:
[1, 1, 1] ([x, y, z] [1, 1, 0]) = 0

Desarrollando el producto escalar se vuelve a recuperar la ecuacin general.


Ejemplo 0.15. Encontrar la ecuacin general del plano que es perpendicular al plano x y +
2z = 1 y pasa por el punto P = (1, 1, 1) del espacio 3D.
Solucin: El vector normal ~n = [nx , ny , nz ] del plano buscado tiene que ser perpendicular al
vector normal ~n2 = [1, 1, 2] del plano dado, por tanto:
~n ~n2 = 0

nx ny + 2nz = 0

Fcilmente encontramos valores que cumplen esta ecuacin, como por ejemplo: ~n = [1, 1, 1].
Teniendo el vector normal y un punto del plano podemos encontrar su ecuacin normal:
[1, 1, 1]([x, y, z][1, 1, 1]) = 0

[1, 1, 1][x1, y1, z1] = 0

x+1+y1+z1 = 0

x + y + z = 1
29 Ver

la Seccin 0.2.6, pgina 9.


la Seccin 0.2.6, pgina 9.
31 Hay infinitos vectores normales a un plano, todos con la misma direccin.
30 Ver

Pedro Jos Hernando Oter

Clases de lgebra

16

TEMA 0: Conceptos Bsicos de Rectas y Planos

0.3.4. Resumen Frmulas: Planos en el Espacio 3D


Ecuacin
General
Vectorial (Paramtrica)
Normal

Frmula
ax + by + cz = d
~x = p~ + t~u + s~v
~n (~x p~) = 0

0.3.5. Conversin entre Formas de un Plano


General Vectorial/Paramtrica

Para pasar de la forma general de un plano a su forma vectorial/paramtrica, se necesitan dos


vectores contenidos en el plano y un punto del mismo. stos se podran obtener con tres puntos
del plano que no estn alineados32 y restndolos dos a dos para obtener los vectores. Sin embargo
es mucho ms sencillo transformar dos variables en parmetros y expresar la tercera variable en
funcin de los parmetros33 .

ax+by+cz = d =

x=t
y=s

z = 1c (d at bs)

d
a
b
] + s[0, 1,
]
[x, y, z] = [0, 0, ] + t[1, 0,
c
c
c

Para pasar de la forma vectorial/paramtrica a la forma general hay que eliminar los parmetros
t y s dejando una nica ecuacin. Esto se puede hacer mediante diferentes mtodos34 : por
reduccin, por sustitucin o igualacin o bien de forma matricial calculando el siguiente
determinante35 :



x x0 y y0 z z0
x = x0 + tvx + sux


vx
y = y0 + tvy + suy
vy
vz = 0 =
=
ax + by + cz = d

ux
z = z0 + tvz + suz
uy
uz

General Normal

Para pasar de la forma general a la forma normal se necesita el vector normal, formado por los
coeficientes de las variables, y un punto cualquiera del plano P = [x0 , y0 , z0 ].
ax + by + cz = d

[a, b, c] [x, y, z] = d = [a, b, c] [x0 , y0 , z0 ]

=
=

[a, b, c] ([x, y, z] [x0 , y0 , z0 ]) = 0

Para pasar de la forma normal a la forma general basta con desarrollar el producto escalar.
[a, b, c] ([x, y, z] [x0 , y0 , z0 ]) = 0
=

a(x x0 ) + b(y y0 ) + c(z z0 ) = 0

[a, b, c] [x x0 , y y0 , z z0 ] = 0
=

ax + by + cz = ax0 + by0 + cz0 = d

32 Para obtener un punto del plano a travs de la ecuacin general, basta con fijar dos variables (por ejemplo x = 0
e y = 0) y despejar el valor de la tercera variable de la ecuacin general.
33 La tercera variable debe tener un coeficiente distinto de cero, para que al despejar no quede una divisin por cero.
34 Estos mtodos son prcticos cuando la ecuacin vectorial/paramtrica es simple, es decir, con muchos ceros.
35 Los tres vectores que se utilizan en el determinante son linealmente dependientes por estar contenidos en el plano
y por tanto su determinante es cero. Esto se estudiar con ms detalle en los prximos temas.

Clases de lgebra

Pedro Jos Hernando Oter

0.4. Ecuaciones de la Recta en el Espacio 3D

17

Ejemplo 0.16. Encontrar el plano que pasa por los puntos P1 = (1, 1, 1), P2 = (0, 1, 0) y
P3 = (1, 1, 0) del espacio 3D, en las formas: general, vectorial, paramtrica y normal.
Solucin: Dados tres puntos no alineados se pueden obtener fcilmente dos vectores contenidos
en el plano que forman:
v~1 = p~2 p~1 = [0, 1, 0][1, 1, 1] = [1, 0, 1]

v~2 = p~3 p~1 = [1, 1, 0][1, 1, 1] = [0, 2, 1]

La forma vectorial y paramtrica se pueden expresar entonces como36 :

[x, y, z] = [0, 1, 0] + t[1, 0, 1] + s[0, 2, 1]

x = t
y = 1 2s

z =t+s

La forma general se obtiene eliminando los parmetros t y s de la forma paramtrica. En este


caso resulta muy sencillo combinando adecuadamente las tres ecuaciones. Por ejemplo, se puede
sumar la primera y tercera ecuacin para eliminar t y despejando s de la segunda ecuacin se
sustituye su valor.


x = t
1
x+z =s
y = 1 2s
2x + y + 2z = 1
= x+z = (1y) =
=
1
s = 2 (1 y)

2
z =t+s

La ecuacin normal se puede obtener fcilmente de la ecuacin general, obteniendo el vector


normal de los coeficientes de las variables y tomando un punto cualquiera del plano, como por
ejemplo P = (0, 1, 0).
2x+y+2z = 1 = [2, 1, 2][x, y, z] = 1 = [2, 1, 2][0, 1, 0] =

[2, 1, 2] ([x, y, z] [0, 1, 0]) = 0

0.4. Ecuaciones de la Recta en el Espacio 3D


0.4.1. Forma General de la Recta
La forma general de una recta en el espacio 3D se representa
mediante las formas generales de dos planos no paralelos,
quedando definida la recta mediante la interseccin de ambos.

a1 x + b1 y + c1 z = d1
Y
X

36 Hay

a2 x + b2 y + c2 z = d2

Plano 1

Plano 2

Esto forma un sistema de dos ecuaciones con tres incgnitas,


cuyas infinitas soluciones son los puntos de la recta.

infinitas formas vectoriales y paramtricas de un plano, en funcin de los vectores y puntos que se tomen.

Pedro Jos Hernando Oter

Clases de lgebra

18

TEMA 0: Conceptos Bsicos de Rectas y Planos

0.4.2. Forma Vectorial-Paramtrica de la Recta


Una recta en el espacio 3D queda perfectamente definida con un punto y un vector director37 .

~x = p~ + t~v

F. Vectorial:
x
x0
v1

y = y0 + t v2

z
z0
v3

F. Paramtrica:

x
y

= x0 + tv1
= y0 + tv2
= z0 + tv3

~x
b

~v
~p
Y

~x = [x, y, z]

~v = [v1 , v2 , v3 ]

p~ = [x0 , y0 , z0 ]

Todos los puntos de la recta (variable)


Un vector director de la recta (constante)
Un punto cualquiera de la recta (constante)

0.4.3. Forma Normal de la Recta


Vendr dada por la interseccin de dos planos expresados en su forma normal.

~n1 (~x p~1 ) = 0


~n2 (~x p~2 ) = 0

~x = [x, y, z]

~n1 = [n1 , n2 , n3 ]

~n2 = [n01 , n02 , n03 ]

p~1 = [x0 , y0 , z0 ]

p~2 = [x00 , y00 , z00 ]

Todos los puntos de la recta (variable)


Un vector normal al plano 1 (constante)
Un vector normal al plano 2 (constante)
Un punto cualquiera del plano 1 (constante)
Un punto cualquiera del plano 2 (constante)

n~1
n~2
Y
X

37 De igual forma que una recta en el plano eucldeo (ver Seccin 0.2.5, pgina 6), aunque con vectores de tres
componentes en lugar de dos.

Clases de lgebra

Pedro Jos Hernando Oter

0.4. Ecuaciones de la Recta en el Espacio 3D

19

0.4.4. Resumen Frmulas: Rectas en el Espacio 3D


Ecuacin
General

Frmula

a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2

Vectorial (Paramtrica)

~x = p~ + t~v

Normal

~n1 (~x p~1 ) = 0


~n2 (~x p~2 ) = 0

0.4.5. Conversin entre Formas


General Vectorial/Paramtrica

Para pasar de la forma general a la forma vectorial/paramtrica lo ms sencillo es encontrar dos


puntos que pertenezcan a la recta y determinar con ellos un vector director.


a1 x + b1 y + c1 z = d1
P1 = (x1 , y1 , z1 )
=
= ~v = [x2 , y2 , z2 ][x1 , y1 , z1 ] = [vx , vy , vz ]
a2 x + b2 y + c2 z = d2
P2 = (x2 , y2 , z2 )

x = x1 + tvx
y = y1 + tvy
[x, y, z] = [x1 , y1 , z1 ] + t[vx , vy , vz ]
;

z = z1 + tvz
Para pasar de la forma vectorial/paramtrica a la forma general, basta con eliminar el parmetro
t, y obtener entonces un sistema de dos ecuaciones.

x = x1 + tvx
x x1
y y1
z z1
y = y1 + tvy
=
=
=

vx
vy
vz
z = z1 + tvz

Esta ltima ecuacin se la conoce con el nombre de ecuacin continua de la recta. Agrupando
las igualdades de dos en dos se obtiene una forma general de la recta.

vy x vx y = vy x1 vx y1
vz y vy z = vz y1 vy z1

General Normal

Para pasar de la forma general a la forma normal, basta con pasar cada una de las ecuaciones
que forman la general a la forma normal 38 .


a1 x + b1 y + c1 z = d1
[a1 , b1 , c1 ] ([x, y, z] [x1 , y1 , z1 ]) = 0
=
a2 x + b2 y + c2 z = d2
[a2 , b2 , c2 ] ([x, y, z] [x2 , y2 , z2 ]) = 0

Para pasar de la forma normal a la forma general, basta con desarrollar cada uno de los productos
escalares39 de las ecuaciones que forman la normal.


[vx , vy , vz ] ([x, y, z] [x1 , y1 , z1 ]) = 0
vx x + vy y + vz z = vx x1 + vy y1 + vz z1
=
[ux , uy , uz ] ([x, y, z] [x2 , y2 , z2 ]) = 0
ux x + uy y + uz z = ux x2 + uy y2 + uz z2
38 Ver
39 Ver

la Seccin 0.3.5, pgina 16.


la Seccin 0.3.5, pgina 16.

Pedro Jos Hernando Oter

Clases de lgebra

20

TEMA 0: Conceptos Bsicos de Rectas y Planos

Ejemplo 0.17. Encontrar la recta que pasa por los puntos P1 = (1, 1, 1) y P2 = (0, 1, 0) en
las formas general, vectorial, paramtrica y normal.
Solucin: Inicialmente lo ms sencillo es calcular un vector director de la recta y obtener las
ecuaciones vectorial y paramtrica.

~v = p~1 p~2 = [1, 1, 1] [0, 1, 0] = [1, 0, 1] ;

[x, y, z] = [0, 1, 0] + t[1, 0, 1]

x=t
y=1

z = t

Con la ecuacin paramtrica se puede obtener la forma general eliminando el parmetro t para
obtener dos ecuaciones. En este caso particular se puede sumar la primera y tercera ecuacin y
coger directamente la segunda.

x+z = 0
y
= 1
Por ltimo, la ecuacin normal se obtiene transformado la ecuacin general en un producto
escalar.


x+z = 0
[1, 0, 1] [x, y, z] = 0
;
y
= 1
[0, 1, 0] [x, y, z] = 1

Se necesitan dos puntos, uno de cada uno de los planos que forman la forma general. Fcilmente
se obtiene P1 = (1, 0, 1) del primero y P2 = (0, 1, 0) del segundo. Finalmente:


[1, 0, 1] ([x, y, z] [1, 0, 1])


[0, 1, 0] ([x, y, z] [0, 1, 0])

= 0
= 0

0.5. Geometra de los Sistemas de Ecuaciones en el Plano y en


el Espacio 3D
En esta seccin se van a analizar algunos casos sencillos de disposiciones geomtricas de rectas y planos
en el plano eucldeo y en el espacio 3D.
Desde un punto de vista matemtico, el conjunto de rectas y planos en un sistema de referencia
cartesiano da lugar a un sistema de ecuaciones lineales40 .
Para simplificar41 vamos a identificar el plano eucldeo como

R2 y el espacio 3D como R3 .

0.5.1. Sistemas de Una Ecuacin


ax + by = c en

R2

Este es un sistema de ecuaciones lineales formado por una nica ecuacin de hasta42 dos
incgnitas (x e y) en el plano eucldeo y corresponde a la ecuacin general de una recta43
en el plano eucldeo ( 2 ).

40 Ver

el Tema 1, pgina 31.


la Seccin 1.1.3, pgina 35 y en la Seccin 2.8, pgina 89, se definir n de forma apropiada.
42 En la ecuacin podra faltar una de las dos incgnitas, x o y, correspondiente a una recta horizontal o vertical, (ver
la Seccin 0.2.4, pgina 6).
43 Ver la Seccin 0.2.3, pgina 5.
41 En

Clases de lgebra

Pedro Jos Hernando Oter

0.5. Geometra de los Sistemas de Ecuaciones en el Plano y en el Espacio 3D

Las soluciones de este sistema son todos los (infinitos) puntos


de la recta, que son los que verifican la ecuacin.
La solucin se puede expresar utilizando la forma paramtrica
de la recta:

x=t
;
t
y = 1b (c at)

Y
b

c
b

c
a

21

Dando valores al parmetro t se obtienen las infinitas soluciones


del sistema.

ax + by = c en

R3

La misma ecuacin del caso anterior pero ahora en el espacio 3D ( 3 ) corresponde con un plano.
Hay que tener en cuenta que tan importante es la ecuacin que aparece, como el espacio ( 2
o 3 ) en el que estamos. En este caso el espacio determina el tipo de elemento que tenemos
(en 2 es una recta y en 3 es un plano), y la ecuacin determina la disposicin espacial del
correspondiente plano o recta.

En este caso se tiene la ecuacin general de un plano en el que falta la variable z, y por tanto
corresponder con un plano paralelo al eje z 44 .
Las soluciones de este sistema corresponden con los infinitos
Z
puntos del plano, que son los que verifican la ecuacin.
Al igual que antes, la solucin se puede expresar utilizando
la forma paramtrica del plano45 :

x=t
y = 1b (c at)
;
t, s
b

b
z
=
s
c
c

ax + by + cz = d en

Dando valores a los parmetros t y s se obtienen las infinitas


soluciones del sistema.

R3

De forma general, un sistema de ecuaciones lineales en


hasta 3 incgnitas, corresponde siempre a un plano.

R3 formado por una nica ecuacin de

Z
d
c

d
a

La solucin se puede expresar utilizando la forma


paramtrica del plano, por ejemplo46 :

x=t
y=s
;
t, s

z = 1c (d at bs)

d
b

Dando valores a los parmetros t y s se obtienen


las infinitas soluciones del sistema.

44 Ver

la Seccin 0.3.1, pgina 12.


la Seccin 0.3.2, pgina 13.
46 Notar que hay infinitas formas de expresar un plano en su forma vectorial/paramtrica, dependiendo del punto y
vectores del plano que se tomen. Por ejemplo otra posible solucin a este caso sera:

x = 1/a(d bt cs)
y=t
;
t, s

z=s
45 Ver

Pedro Jos Hernando Oter

Clases de lgebra

22

TEMA 0: Conceptos Bsicos de Rectas y Planos

0.5.2. Sistemas de Dos Ecuaciones

a1 x + b1 y = c1
a2 x + b2 y = c2

en

R2
R

El sistema de ecuaciones lineales en 2 formado por dos ecuaciones de hasta 2 incgnitas cada
una, corresponde a dos rectas en el plano eucldeo que geomtricamente pueden:
coincidir : si se cortan en infinitos puntos.
ser paralelas : no se cortan en ningn punto.
ser secantes: se cortan en un nico punto.
Estos tres casos se muestran grficamente en la siguiente figura:

Y
b

xs

ys
X

Por tanto, el sistema puede tener una nica solucin (rectas secantes), infinitas soluciones
(rectas coincidentes) o ninguna solucin (rectas distintas paralelas47 )

La solucin se puede obtener, por ejemplo, utilizando uno de los mtodos simples de resolucin
de sistemas48 .

Ejemplo 0.18. Determinar si los siguientes sistemas de ecuaciones en 2 corresponden, desde


un punto de vista geomtrico, con rectas secantes, paralelas o coincidentes.



2x + 3y = 4
2x + 3y = 4
2x + 3y = 4
a)
b)
c)
4x + 6y = 8
3x + 6y = 5
4x + 6y = 2
Solucin:
a) Fijndonos detenidamente podemos comprobar como ambas ecuaciones son equivalentes:

2x + 3y = 4
4x + 6y = 8 2(2x + 3y) = 2 2 = 2x + 3y = 4
La primera ecuacin se puede obtener multiplicando ambos trminos de la segunda ecuacin
por 2. Por tanto se trata de rectas coincidentes49 . Este sistema tiene infinitas soluciones
correspondientes a los infinitos puntos de la recta.
(Contina en la pgina siguiente)

47 Las rectas sern paralelas si tienen igual pendiente. La pendiente en la forma general se obtiene como m = a/b,
de forma que dos rectas sern paralelas si a1 /b1 = a2 /b2 .
48 Ver la Seccin 0.6, pgina 28.
49 Realmente podemos pensar que se trata de un sistema formado por una nica ecuacin (distinta).

Clases de lgebra

Pedro Jos Hernando Oter

0.5. Geometra de los Sistemas de Ecuaciones en el Plano y en el Espacio 3D

23

Ejemplo 0.18 (Continuacin).


b) Fcilmente comprobamos que no se trata de ecuaciones equivalentes50 , por tanto no son
rectas coincidentes. Para determinar si son secantes o paralelas podemos calcular las
pendientes de cada una de las rectas:
m1 =

2
3

m2 =

3
1
=
6
2

Como son distintas, se trata de rectas secantes. La solucin del sistema es un nico punto
en el plano eucldeo, (punto de corte entre las dos rectas).
c) Este caso tampoco corresponde con rectas coincidentes. Calculando las pendientes:
m1 =

2
3

m2 =

4
2
=
6
3

Comprobamos que son iguales y por tanto se trata de rectas paralelas. Este sistema no
tendr solucin, por no existir ningn punto de corte entre ambas.

a1 x + b1 y = c1
a2 x + b2 y = c2

en

R3

El mismo sistema de antes, (dos ecuaciones de hasta dos incgnitas) en


dos planos51 perpendiculares al eje z, que pueden ser:

R3 es un conjunto de

Coincidentes52 : infinitas soluciones correspondientes a los puntos del nico plano que
definen.
Paralelos53 : sin solucin.
Secantes54 : infinitas soluciones correspondientes a los puntos de la recta de corte.
En la siguiente figura se muestra grficamente las tres posibilidades.

Y
X

50 No

otra.

51 Al

Y
X

Y
X

existe ningn nmero que al multiplicar ambos trminos de la igualdad de una de las ecuaciones se obtenga la

estar en 3 hay tres variables independientes por lo que se trata de un plano y no una recta. Si una o varias
variables no aparece en la ecuacin, significa que no tienen ninguna restriccin y pueden tomar cualquier valor.
52 Dos planos son coincidentes si aun teniendo aparentemente ecuaciones distintas, representan el mismo conjunto de
puntos. En este caso se dice que ambas ecuaciones son equivalentes.
53 Dos planos son paralelos son si no se intersectan en ningn punto.
54 Dos planos son secantes si se cortan en una recta.

Pedro Jos Hernando Oter

Clases de lgebra

24

TEMA 0: Conceptos Bsicos de Rectas y Planos


Desde el punto de vista de las soluciones, el sistema puede tener:
Infinitas soluciones: producidas bien por dos planos coincidentes55 o bien por dos planos
secantes56 .
Ninguna solucin: planos distintos paralelos.
Estos casos se pueden identificar fcilmente calculando los vectores normales de cada uno de los
planos, ~n = [a, b, c], y determinando su disposicin relativa:
Si los dos vectores normales n~1 y n~2 son paralelos57 los planos pueden ser paralelos o
coincidentes.
Si los vectores normales no son paralelos, los planos sern secantes.
Ver en el Ejemplo 0.19, pgina 24 la resolucin de algunos casos prcticos.

a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2

en

R3

Un sistema de dos ecuaciones con hasta tres incgnitas en


generales58 en el espacio 3D que pueden ser:

R3 forma un conjunto de dos planos

Coincidentes: infinitas soluciones correspondientes a los puntos del plano.


Paralelos: sin solucin.
Secantes: infinitas soluciones correspondientes a los puntos de la recta.
Z

Y
X

La determinacin de estos casos se puede hacer mediante los vectores normales de los planos, de
la misma forma que el caso anterior.

Ejemplo 0.19. Determinar la disposicin relativa de los planos que forman los siguientes
sistemas de ecuaciones en 3 :

a)

x+yz =3
2x + 2y 2z = 6

b)

x+yz =3
2x y + z = 5

c)

x+yz =3
2x + 2y 2z = 5

(Contina en la pgina siguiente)

55 En

este caso la solucin estar formada por los infinitos puntos del nico plano que definen
este caso los planos se cortan en una recta, cuyos infinitos puntos son la solucin del sistema.
57 Dos vectores ~
vy~
u son paralelos si se cumplen ~v = ~
u para cualquier
no nulo.
58 No necesariamente paralelos al eje z como el caso anterior.
56 En

Clases de lgebra

Pedro Jos Hernando Oter

0.5. Geometra de los Sistemas de Ecuaciones en el Plano y en el Espacio 3D

25

Ejemplo 0.19 (Continuacin).


Solucin:
a) En este caso se puede comprobar claramente como la segunda ecuacin es exactamente
que la primera multiplicada por 2, y por tanto se trata de dos ecuaciones equivalentes
que corresponden al caso de planos coincidentes. El sistema en este caso tiene infinitas
soluciones que son los puntos del plano resultante.
b) Los vectores normales de los planos son n~1 = [1, 1, 1] y n~2 = [2, 1, 1] como claramente no
son paralelos, los planos son secantes en una recta y sus puntos son las infinitas soluciones
del sistema.
c) En este caso los vectores normales de los planos son n~1 = [1, 1, 1] y n~2 = [2, 2, 2] y
claramente son paralelos ya que n~2 = 2n~1 . Como las ecuaciones no son equivalentes, se
trata de dos planos paralelos y el sistema por tanto no tiene solucin.

0.5.3. Sistemas de Tres Ecuaciones


Al aumentar el nmero de ecuaciones del sistema, el nmero de posibilidades aumenta grandemente.
Aqu analizaremos como ejemplo el caso de sistemas con tres ecuaciones.

a1 x + b1 y = c1
a2 x + b2 y = c2

en 2

a3 x + b3 y = c3

Estas tres rectas pueden ser:

Las tres coincidentes (infinitas soluciones)


Las tres paralelas (sin solucin)
Dos coincidentes y una paralela (sin solucin).
Dos coincidentes y una secante (solucin nica).
Dos paralelas y una secante (sin solucin).
Tres secantes en tres puntos (sin solucin).
Tres secantes en un punto (solucin nica).
Estos casos se muestran grficamente en la siguiente figura.

Y
b

Y
b

Pedro Jos Hernando Oter

X
b

xs

ys
X

Clases de lgebra

26

TEMA 0: Conceptos Bsicos de Rectas y Planos

a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2

a3 x + b3 y + c3 z = d3

en

R3

Estos tres planos pueden ser:


Los tres coincidentes (infinitas soluciones en el plano)
Los tres paralelos (sin solucin)
Dos coincidentes y uno paralelo (sin solucin).
Dos coincidentes y uno secante (infinitas soluciones en una recta)
Dos paralelos y un secante (sin solucin).
Tres secantes en tres rectas (sin solucin).
Tres secantes en una recta (infinitas soluciones en la recta).
Tres secantes en un punto (solucin nica).
Estos casos se muestran grficamente en la siguiente figura.
Z

Y
X

Y
X

Y
X

Y
X

El anlisis de estos casos resulta pesado realizarlo a travs de la pendiente de las rectas y el vector
normal de los planos. La situacin se complica todava ms cuando se tratan de muchas ecuaciones.
La forma eficiente de tratarlo se ver en el 59 .
Ejemplo 0.20. Encontrar los sistemas de ecuaciones lineales correspondientes a los siguientes
casos:

a) En 2 : una recta que pasa por el origen y vector director v~1 = [1, 2] junto con otra recta
paralela al eje X y que pasa por el punto (1, 1).

b) En 3 : un plano conteniendo los ejes X y Z, junto con otro plano que pasa por el punto
(0, 1, 0) y tiene vector normal n~2 = [0, 1, 2].

c) En 3 : una recta que pasa por el punto (1, 2, 0) y tiene por vector director v~1 = [1, 1, 1],
junto con el plano paralelo al eje Y , que contiene al vector v~2 = [1, 1, 1] y que pasa por
el punto (1, 1, 1).
(Contina en la pgina siguiente)
59 Ver

el Tema 1, pgina 31.

Clases de lgebra

Pedro Jos Hernando Oter

0.5. Geometra de los Sistemas de Ecuaciones en el Plano y en el Espacio 3D

27

Ejemplo 0.20 (Continuacin).


Solucin:
a) Las ecuaciones vectorial, paramtrica y general de la primera recta son:

x=t
[x, y] = [0, 0] + t[1, 2]
;
=
y = 2x
y = 2t
La segunda recta, al ser paralela al eje X tiene por vector director v~2 = [1, 0] y por tanto
sus formas vectorial, paramtrica y general son:

x=1+t
[x, y] = [1, 1] + t[1, 0]
;
=
y = 1
y = 1
El sistema es por tanto60 :


2x y
y

=
0
= 1

en

R2

b) El primer plano que contiene a los ejes X y Z, pasa por el origen (0, 0, 0) y no contiene los
coeficientes61 a y c, por tanto tiene por ecuacin general y = 0.
Sabiendo que el vector normal del segundo plano es n~2 = [0, 1, 2], su ecuacin general
tendr la forma: y 2z = d. La determinacin de d se realizan sabiendo que contiene el
punto (0, 1, 0). Sustituyendo obtenemos que d = 1. El sistema de ecuaciones es por tanto:


y
y 2z

= 0
= 1

en

R3

c) La recta en sus formas vectorial, paramtrica y general son:

x=1+t
y =2t
;
[x, y, z] = [1, 2, 0] + t[1, 1, 1] ;

z=t

xz
y+z

=
=

1
2

Con respecto al plano, al ser paralelo al eje Y , contiene al vector v~1 = [0, 1, 0] y como
adems contiene al vector tiene por ecuacin general ax + cz = d y como contiene al vector
v~2 = [1, 1, 2] y pasa por el punto (1, 1, 1), su ecuacin vectorial y paramtrica sern:

x=1+s
y =1+ts
[x, y, z] = [1, 1, 1] + t[0, 1, 0] + s[1, 1, 2] ;

z = 1 2s
Para pasar a la forma general del plano tenemos que combinar estas tres ecuaciones para
obtener una nica ecuacin sin parmetros t y s.

(Contina en la pgina siguiente)


60 Tener en cuenta que los sistemas de ecuaciones lineales que pide el problema deben escribirse utilizando ecuaciones
en su forma general.
61 Ver la Seccin 0.3.1, pgina 12.

Pedro Jos Hernando Oter

Clases de lgebra

28

TEMA 0: Conceptos Bsicos de Rectas y Planos

Ejemplo 0.20 (Continuacin).


En este caso es sencillo por que basta con sumar la primera ecuacin multiplicada por 2 y
la segunda, obtenindose la ecuacin del plano 2x + z = 3. El sistema pedido es finalmente
el conjunto de las dos ecuaciones de la recta junto con esta del plano:

xz
y+z

2x + z

= 1
= 2
= 3

en

R3

Nota 0.3. En general, hay diferentes formas de resolver un problema y en las soluciones mostradas aqu se presenta
slo una de ellas, que suele resultar la ms sencilla o rpida. Naturalmente, cualquier otra forma correcta de resolucin
del problema es perfectamente vlida.

0.6. Mtodos Simples de Resolucin de Sistemas


Existen tres mtodos simples de resolucin de sistemas lineales:
Mtodo de Sustitucin
1. Se despeja una de las incgnitas en una de las ecuaciones.
2. Se sustituye la expresin obtenida en el resto de las ecuaciones, obtenindose un sistema
de n 1 ecuaciones.

3. Se repite el proceso de sustitucin hasta obtener una nica ecuacin con una nica incgnita,
fcil de resolver.

4. La solucin del resto de las incgnitas se obtiene resolviendo las ecuaciones obtenidas hacia
atrs.
Mtodo de Igualacin
1. Se despeja una de las incgnitas en todas las ecuaciones.
2. Se iguala la primera ecuacin al resto de las ecuaciones, obtenindose un sistema de n 1
ecuaciones.
3. Se repite el proceso de igualacin hasta obtener una nica ecuacin con una nica incgnita,
fcil de resolver.
4. La solucin del resto de las incgnitas se obtiene resolviendo las ecuaciones obtenidas hacia
atrs.
Mtodo de Reduccin
1. Se igualan los coeficientes (salvo el signo) de una de las incgnitas, entre la primera ecuacin
y el resto de ecuaciones en grupos de dos ecuaciones, mediante multiplicacin por nmeros
apropiados cada una de las ecuaciones.
2. Se suman las ecuaciones obtenindose una nica ecuacin (de cada grupo de dos ecuaciones)
con una incgnita menos.
3. Se repite el proceso de reduccin hasta obtener una nica ecuacin con una nica incgnita,
fcil de resolver.
4. La solucin del resto de las incgnitas se obtiene resolviendo las ecuaciones obtenidas hacia
atrs.

Clases de lgebra

Pedro Jos Hernando Oter

0.6. Mtodos Simples de Resolucin de Sistemas

29

Ejemplo 0.21. Resolver el siguiente sistema por los mtodos de sustitucin, igualacin y
reduccin.

3x y = 1
x+y
= 2
Solucin:
Sustitucin.
Despejando de la primera ecuacin:
(0.12)

y = 3x 1
Sustituyendo en la segunda ecuacin el valor de la variable y:
x + (3x 1) = 2

4x 1 = 2

4x = 3

x=

3
4

Sustituyendo este valor en la Ecuacin (0.12):


 
9
3
1= 1
y=3
4
4

y=

5
4

Igualacin.
Despejando por ejemplo la variable y de ambas ecuaciones se tiene:

y = 3x 1
y =2x
Igualamos ambas ecuaciones y despejamos la variable x:
3x 1 = 2 x

4x = 3

x=

3
4

Sustituyendo este valor en la segunda ecuacin del sistema:


y =2

3
83
=
4
4

y=

5
4

Reduccin.
Sumando ambas ecuaciones se obtiene:
4x = 3

x=

3
4

Sustituyendo este valor en la segunda ecuacin del sistema:


y =2

Pedro Jos Hernando Oter

3
83
=
4
4

y=

5
4

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Sistemas de Ecuaciones Lineales


Contenido
1.1

1.2

1.3

1.4

1.5

1.6

1.7

1.8

1.9

Introduccin a los Sistema de Ecuaciones Lineales (SEL) . . .


1.1.1 Caractersticas de los Sistemas de Ecuaciones . . . . .
1.1.2 Ecuaciones y Sistemas de Ecuaciones . . . . . . . . . .
1.1.3 Puntos y Espacios n . . . . . . . . . . . . . . . . . .
1.1.4 Sistemas de Ecuaciones Lineales (SEL) . . . . . . . . .
Geometra de los SEL en n . . . . . . . . . . . . . . . . . . .
1.2.1 Objetos Geomtricos . . . . . . . . . . . . . . . . . . .
1.2.2 Dimensin de los Objetos Geomtricos . . . . . . . . .
1.2.3 Relaciones entre Objetos Geomtricos . . . . . . . . .
Solucin de un SEL en n . . . . . . . . . . . . . . . . . . . .
1.3.1 Frmula de Equilibrio . . . . . . . . . . . . . . . . . .
1.3.2 Ecuaciones Equivalentes . . . . . . . . . . . . . . . . .
1.3.3 Sistemas Compatibles e Incompatibles . . . . . . . . .
Combinacin Lineal de Ecuaciones . . . . . . . . . . . . . . . .
1.4.1 Propiedades de las Combinaciones Lineales . . . . . . .
1.4.2 Dependencia e Independencia lineal de Ecuaciones . .
Mtodos Resolucin de SEL en n . . . . . . . . . . . . . . . .
1.5.1 Mtodos Simples . . . . . . . . . . . . . . . . . . . . .
1.5.2 Sistemas Escalonados o Triangulares . . . . . . . . . .
1.5.3 Sistemas Equivalentes . . . . . . . . . . . . . . . . . .
1.5.4 Operaciones Elementales de Fila . . . . . . . . . . . .
1.5.5 Mtodo de Gauss o Eliminacin Gaussiana . . . . . . .
Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6.1 Matrices Asociadas a SEL . . . . . . . . . . . . . . . .
1.6.2 Operaciones Elementales de Fila en la Matriz Asociada
1.6.3 Matriz Equivalente por Filas . . . . . . . . . . . . . . .
1.6.4 Matriz Escalonada Equivalente . . . . . . . . . . . . .
1.6.5 Rango de una Matriz . . . . . . . . . . . . . . . . . . .
1.6.6 Teorema de Rouch-Frbenius . . . . . . . . . . . . . .
Mtodo de Gauss Matricial . . . . . . . . . . . . . . . . . . . .
1.7.1 Identificacin de Sistemas Incompatibles . . . . . . . .
1.7.2 Identificacin de Sistemas Compatibles Indeterminados
Mtodo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . .
1.8.1 Matriz Escalonada Reducida . . . . . . . . . . . . . . .
1.8.2 Matriz Identidad . . . . . . . . . . . . . . . . . . . . .
Sistemas Homogneos . . . . . . . . . . . . . . . . . . . . . . .

R
R

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

33
33
33
35
36
37
38
38
39
40
40
43
43
44
44
45
46
46
46
47
48
49
50
50
51
52
52
53
53
54
55
55
58
58
59
60

31

Clases de lgebra

Determinado

Sol. nica

Planos

Hiperplanos

Mt. Simples

SEL Pequeos

Sol.

Indeterminado

Incompatibles

Tipo SEL

Solucin

Compatibles

Frmula de Equilibrio

Puntos

Rectas

Dimensiones

Geometra

Objetos Geomtricos

Definiciones

Mt. Sustitucin Atrs

M. Identidad

Rango

Teo. Rouche-Frobenius

Matrices

Mt. Gauss Matricial

Sol. Trivial

SEL Homogneos

Met. Gauss-Jordan

SEL Grandes

Mt. Gauss

M. Escalonada Reducida

Sist. Escalonados o Triang.

Op. Elem. Fila

Comb. Lineal Ec.

M. Escalonada

Mtodos de Resolucin

Ec. Equivalentes

SEL

32
TEMA 1: Sistemas de Ecuaciones Lineales

Pedro Jos Hernando Oter

1.1. Introduccin a los Sistema de Ecuaciones Lineales (SEL)

33

1.1. Introduccin a los Sistema de Ecuaciones Lineales (SEL)

Consideremos el siguiente problema sencillo.


Ejemplo 1.1. Determinar la edad de dos hermanos sabiendo que el triple de la diferencia entre
el mayor y el menor es dos veces la edad del menor, y que la suma de ambas edades es 24.
Solucin: Llamando x a la edad del hermano mayor e y a la edad de menor podemos establecer
las siguientes ecuaciones del problema:


3(x y) = 2y
x+y
= 24

= Sistema de 2 ecuaciones con 2 incgnitas

3x 5y
x+y

=
=

0
24

La solucin de este sistema de ecuaciones dar la solucin del problema.

1.1.1. Caractersticas de los Sistemas de Ecuaciones


Un sistema de ecuaciones simplifica un problema real mediante una estructura de lenguaje
(matemtico) algebraico, eliminando cualquier complejidad adicional del problema real.
Un mismo sistema puede representar a problemas reales totalmente distintos.
La solucin del problema real queda reducida a la resolucin del problema matemtico y la
posterior interpretacin de los resultados.
En el presente tema estudiaremos los sistemas de ecuaciones lineales, cubriendo los conceptos
bsicos, su interpretacin geomtrica, teoremas importantes, tcnicas de anlisis y mtodos de
resolucin, enfocando nuestro inters en los grandes sistemas de ecuaciones.

1.1.2. Ecuaciones y Sistemas de Ecuaciones

U
P

Vamos a comenzar con algunas definiciones bsicas.

Definicin 1.1 (Ecuacin)


Una ecuacin es una igualdad que relaciona incgnitas (variables) y constantes, y que se
verifica nicamente para determinados valores de las variables.

Ejemplo 1.2.
3x + 2 cos (y)

= 1

Incgnitas
Constantes

: x, y.
: 3, 2, 1.

En algunas ecuaciones adems de incognitas y constantes aparecen parmetros, que son valores de
los cuales dependen las incgnitas.

Pedro Jos Hernando Oter

Clases de lgebra

34

TEMA 1: Sistemas de Ecuaciones Lineales

Ejemplo 1.3. Sea la siguiente igualdad en la que x e y representan variables y t es un


parmetro:
3x ty = 5

Los valores {x, y} que la verifican dependen del valor del parmetro t, por lo que esta expresin
representa en realidad una familia de ecuaciones.

Definicin 1.2 (Ecuaciones Lineales y No Lineales)


Las ecuaciones se pueden clasificar en dos tipos:

Ecuacin lineal: ecuacin polinmica de primer grado (potencia 1) en todas las


variables.
y = 3x + 5

x + 2y 3z = 5

2x1 + 3x2 5x3 = 0

Ecuacin no lineal: ecuacin de tipo no polinmica o polinmica de grado mayor que


uno.
ax2 y = 0

U
U

yx = sen (x) + 1

x1 + x2 = x3

Sistemas de Ecuaciones

Definicin 1.3 (Sistema de Ecuaciones)


Un sistema de ecuaciones es un conjunto de ecuaciones que comparten incgnitas.

Definicin 1.4 (Ecuaciones Acopladas e Independientes)


Se denominan ecuaciones acopladas a aquellas que comparten incgnitas formando
parte de un sistema de ecuaciones.
Un conjunto de ecuaciones no acopladas se denominan ecuaciones independientes.

Ejemplo 1.4. Ejemplo de: a) ecuaciones acopladas y b) ecuaciones independientes.


 2

x + 2y = 3 ln (y)
x y = 1
a)
b)
2x xy = 0
z + t2 = 0
Definicin 1.5 (Dimensin de un Sistema de Ecuaciones)
La dimensin de un sistema de ecuaciones es el nmero de ecuaciones y el nmero de
incgnitas del sistema.

Clases de lgebra

Pedro Jos Hernando Oter

1.1. Introduccin a los Sistema de Ecuaciones Lineales (SEL)

U
U
P

35

Ejemplo 1.5. La dimensin del sistema del Ejemplo 1.4 a) es: dos ecuaciones y dos incgnitas.
Solucin

Definicin 1.6 (Solucin de una Ecuacin)


Se denomina solucin de una ecuacin al conjunto de valores {s1 , , sn } que al sustituir en
las variables, x1 = s1 , x2 = s2 , ..., xn = sn , se verifica la ecuacin.

Definicin 1.7 (Solucin del Sistema de Ecuaciones)


Se denomina solucin de un sistema de ecuaciones al conjunto de valores {s1 , , sn }
que verifican todas y cada una de las ecuaciones del sistema.

Ejemplo 1.6. El siguiente sistema de 2 ecuaciones y 3 incgnitas:



3x2 + y = 2
x + xy =
0
tiene por solucin: x = 0, y = 2.

1.1.3. Puntos y Espacios

Rn

Definicin 1.8 (Punto)


Un punto es un conjunto de valores ordenados, denominados coordenadas o componentes
del punto. Las coordenadas se representan encerradas entre parntesis:
(x1 , x2 , , xn )
El nmero de coordenadas de un punto se denomina dimensin del punto.

Definicin 1.9 (Espacio n )


El conjunto de todos los puntos de n componentes reales se representa por

Rn = {(x1 , x2 , , xn ) :

xi

R,

Rn .

1 i n}

El valor n 1 se denomina dimensin del espacio.

Pedro Jos Hernando Oter

Clases de lgebra

36

TEMA 1: Sistemas de Ecuaciones Lineales


El espacio
recta real.

R es el espacio unidimensional representado por todos los puntos (nmeros) de la


R2 es el espacio bidimensional (2D) representado por todos los puntos del plano

El espacio
cartesiano 1 .

El espacio 3 es el espacio tridimensional (3D) formado por todos los puntos del espacio real,
representado por los ejes XY Z.
El espacio
reales.

Rn

es el espacio n-dimensional formado por todos los puntos de n coordenadas

La solucin de una ecuacin o un sistema de ecuaciones se puede representar mediante un punto de


un espacio n , siendo n el nmero de incgnitas.

Ejemplo 1.7. La solucin del siguiente sistema de 4 ecuaciones y 3 incgnitas:

xy
=
5

2x + 3y + z = 14
y + 2z
= 3

xy+z
=
4

es el punto (x, y, z) = (6, 1 1)

R3 .

1.1.4. Sistemas de Ecuaciones Lineales (SEL)

Definicin 1.10 (Sistemas de Ecuaciones Lineales en n )


Se denomina sistema de m ecuaciones lineales en el espacio n , al conjunto finito 2 de
ecuaciones lineales acopladas:

a11 x1 + a12 x2 + + a1n xn = b1

a21 x1 + a22 x2 + + a2n xn = b2


..
..
..
..

.
.
.
.

am1 x1 + am2 x2 + + amn xn = bm

donde:

R son las n incgnitas del sistema (variables).


aij R son los coeficientes del sistema (constantes).
bi R son los trminos independientes del sistema (constantes).

xi

En este texto utilizaremos la sigla SEL para referirnos a los Sistemas de Ecuaciones Lineales.
1 Ver
2 Es

la Seccin 0.1, pgina 3.


decir, que no es infinito.

Clases de lgebra

Pedro Jos Hernando Oter

1.2. Geometra de los SEL en

Rn

37

Ejemplo 1.8. El siguiente es un ejemplo de un SEL de 5 :

=
9
x1 3x2 + x3 x5
2x1 + x2 + x3 x4 + 2x5 =
0

x2 + x4
= 12

La dimensin 3 de este sistema es 3 ecuaciones y 5 incgnitas y donde:


Las incgnitas son: x1 , x2 , x3 , x4 y x5 .
Los coeficientes son: a11 = 1, a12 = 3, a13 = 3, a14 = 0, a15 = 1, a21 = 2, a22 = 1,
a23 = 1, a24 = 1, a25 = 2, a31 = 0, a32 = 1, a33 = 0, a34 = 1 y a35 = 0.
Los trminos independientes son: b1 = 9, b2 = 0 y b3 = 12.

1.2. Geometra de los SEL en

Rn

Definicin 1.11 (Plano en 3 )


Un plano4 en 3 es el conjunto de puntos (x, y, z) que verifican la ecuacin lineal:

ax + by + cz = d

a, b, c, d

Ejemplo 1.9. Representacin grfica del plano x + 2y + 3z = 0.


z

y
x

El concepto de plano se puede generalizar a espacios

Rn .

Definicin 1.12 (Hiperplano en n )


Un hiperplano en n es el conjunto de puntos (x1 , x2 , , xn )

a1 x1 + a2 x2 + + an xn = b
Si b = 0 el hiperplano pasa por el origen (0, 0, . . . , 0)
3 Ver
4 Ver

Rn .

Rn que verifican la ecuacin:


ai , b R

la Definicin 1.5, pgina 34.


una introduccin a los planos en el espacio eucldeo en el Seccin 0.3, pgina 12.

Pedro Jos Hernando Oter

Clases de lgebra

38

TEMA 1: Sistemas de Ecuaciones Lineales

1.2.1. Objetos Geomtricos


Definicin 1.13 (Objetos Geomtricos)
Vamos a denominar objetos geomtricos a todo conjunto de puntos de
una o varias ecuaciones lineales.

Rn definido mediante

Los objetos geomtricos son: puntos, rectas, planos e hiperplanos.

Ejemplo 1.10. Ejemplos de objetos geomtricos en diferentes espacios n :

=
3
x + y 2z
x1 x2 + x3
xyz
= 2
x1 + 2x2 3x3 + x4
a) 2x3y = 1 ;
b)
;
c)

x1 x2 x3 =
1
4x1 + x2 x3 3x4

= 0
= 0
= 0

1.2.2. Dimensin de los Objetos Geomtricos

Excepto los puntos individuales, los objetos geomtricos de cualquier espacio n estn formados por
infinitos puntos. Aun as, algunos son ms grandes (poseen un mayor nmero de puntos) que otros.
Para poder cuantificar el tamao de un objeto geomtrico se vuelve a utilizar el trmino de dimensin 5 .

Definicin 1.14 (Dimensin de un Objeto Geomtrico)


La dimensin de un objeto geomtrico de n es un nmero que expresa el tamao relativo
del mismo.

Los objetos geomtricos simples en

Rn tienen la siguiente dimensin:

Punto: dimensin 0.
Recta: dimensin 1.
Plano: dimensin 2.
Hiperplano: dimensin > 2.
Estos valores se pueden obtener a travs de una frmula general conocida con el nombre de Frmula
de Equilibrio, que se ver posteriormente en la Definicin 1.16, pgina 40.
Cuando los objetos geomtricos estn definidos en su forma vectorial o paramtrica6 se puede
determinar fcilmente su dimensin contando el nmero de parmetros libres en su ecuacin.
5 Ver la dimensin de un SEL en la Definicin 1.5, pgina 34, dimensin de un punto en la Definicin 1.8, pgina 35
y la dimensin de un espacio en la Definicin 1.9, pgina 35.
6 Ver en el Tema 0, pgina 1 una introduccin a las diferentes formas de representar objetos geomtricos (rectas y
planos) en el plano eucldeo y en el espacio eucldeo.

Clases de lgebra

Pedro Jos Hernando Oter

1.2. Geometra de los SEL en

Rn

Ejemplo 1.11.
Un punto tiene dimensin cero
Una recta tiene dimensin uno
Un plano tiene dimensin dos

39

0 parmetros
1 parmetro
2 parmetros

:
:
:

~x = p~
~x = p~ + t~v
~x = p~ + t~v + s~u

1.2.3. Relaciones entre Objetos Geomtricos

Dado un conjunto de m ecuaciones lineales (objetos geomtricos) en un espacio n (con n incgnitas),


vamos a denotar por Ei a cada una de sus ecuaciones y por Xi cada uno de los trminos izquierdos
de la igualdad Ei , de la siguiente forma:
a11 x1
a21 x1
..
.

+
+

a12 x2
a22 x2
..
.

+
+

am1 x1

+ am2 x2

+
+

a1n xn
a2n xn
..
.

=
=

b1
b2
..
.

amn xn

= bm

X1
X2
..
.

=
=

Xm

b1
b2
..
.
bm

E1
E2
..
.
Em

Cada una de las ecuaciones Ei se puede identificar como un determinado objeto geomtrico en el
espacio n .

Cualquier par de objetos geomtricos Ei y Ej pueden ser entre s:


Coincidentes: si Ei = cEj , para cualquier c

R no nulo.

R no nulo.
Secantes: si Xi 6= cXj , para cualquier c R no nulo.

Paralelos: si Xi = cXj , para cualquier c

Ejemplo 1.12.
Las dos rectas de

R2 :
x + 3y = 2

2x + 6y = 4

son coincidentes, (representan la misma recta).


Los dos planos de

R3 :
x + 2y z = 2

2x + 4y 2z = 0

son paralelos.
Los dos hiperplanos de

R4 :

x1 + 2x2 x3 + x4 = 2

x1 + x2 x3 + x4 = 2

son secantes.

Pedro Jos Hernando Oter

Clases de lgebra

40

U
P

TEMA 1: Sistemas de Ecuaciones Lineales

Definicin 1.15 (Concurrencia)


Se dice que un conjunto de objetos geomtricos es concurrente si tiene alguna parte comn
a todos los objetos.

Ejemplo 1.13.
Dos rectas secantes son concurrentes en un punto.
Dos planos secantes son concurrentes en una recta.
Dos hiperplanos coincidentes son concurrentes al mismo hiperplano que representan.

1.3. Solucin de un SEL en

Rn

1.3.1. Frmula de Equilibrio

La solucin de un SEL en n se puede interpretar como un objeto geomtrico de una dimensin 7


determinada, definido por las ecuaciones8 que forman el sistema.

La dimensin de la solucin (objeto geomtrico) depende de la dimensin del SEL (nmero


de ecuaciones y nmero de incgnitas9 ) y de las relaciones entre ellos (coincidentes, secantes y/o
paralelos).

Definicin 1.16 (Frmula de Equilibrio)


n
Sea un SEL de
formado por m ecuaciones (objetos geomtricos) linealmente
10
independientes de la forma:

a11 x1 + a12 x2 + + a1n xn = b1


..
..
..
..
.
.
.
.

am1 x1 + am2 x2 + + amn xn = bm

Su solucin es un objeto geomtrico cuya dimensin viene dada por la frmula de equilibrio,
definida por:
Dimensin Objeto = Dimensin Espacio Num. Ecuaciones del Sistema = n m

7 Ver

la Definicin 1.14, pgina 38.


ecuaciones de un sistema son la forma general de la solucin, estando definida en forma implcita. Al resolver
el sistema, la solucin se expresa en su forma vectorial o paramtrica, siendo sta su forma explcita.
n al que pertenece.
9 El nmero de incgnitas corresponde con la dimensin del espacio
10 Este concepto se ver ms adelante, en la Seccin 1.4.2, pgina 45, y corresponde con un caso especial de conjunto
de objetos geomtricos concurrentes y no coincidentes.
8 Las

Clases de lgebra

Pedro Jos Hernando Oter

1.3. Solucin de un SEL en

Rn

41

Ejemplos
Una ecuacin en

R2 :

ax + by = c

representa una recta, que es un objeto de dimensin 2-1=1.


Dos ecuaciones (rectas) secantes en

R2 :


tienen por solucin un punto en


Una ecuacin en

R3 :

a1 x + b1 y
a2 x + b2 y

= c1
= c2

R2 , que tiene dimensin 2 2 = 0.


ax + by + cz = d

representa un plano, que es un conjunto de dimensin 3-1=2.

Dos ecuaciones (planos) concurrentes no coincidentes en 3 :



a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2

R3 , que tiene dimensin 3 2 = 1.


Un SEL formado por cuatro hiperplanos en R4 linealmente independientes :
tienen por solucin una recta en

a11 x1 + a12 x2 + a13 x3 + a14 x4

a21 x1 + a22 x2 + a23 x3 + a24 x4


a31 x1 + a32 x2 + a33 x3 + a34 x4

a41 x1 + a42 x2 + a43 x3 + a44 x4

tienen como solucin un punto (4-4=0) en

=
=
=
=

b1
b2
b3
b4

R4 .

Conclusiones
Sea un SEL en

Rn de m ecuaciones con n incgnitas.

Si m < n, el sistema puede tener:


ninguna solucin: conjunto de hiperplanos no concurrentes, (coincidentes, paralelos y/o
secantes en nmero k < m).
infinitas soluciones: conjunto de hiperplanos concurrentes, (coincidentes y/o secantes),
en objetos de dimensin no nula (rectas, planos o hiperplanos).
Si m n, el sistema puede tener:

ninguna solucin : conjunto de objetos geomtricos no concurrentes (coincidentes,


paralelos y/o secantes en nmero k < n).

infinitas soluciones: conjunto de objetos geomtricos concurrentes, (coincidentes y/o


secantes), en un objeto de dimensin no nula (rectas, planos o hiperplanos).
solucin nica: conjunto de hiperplanos concurrentes, (coincidentes y secantes o slo
secantes), en un objeto de dimensin nula (punto n-dimensional.)

Pedro Jos Hernando Oter

Clases de lgebra

42

TEMA 1: Sistemas de Ecuaciones Lineales

Ejemplo 1.14. Analizar el siguiente sistema de 2 ecuaciones en



x1 + x2 4x3 = 2
: E1
x2 + 6x3 2x4 + 9x5 = 0 : E2

R5 :

Solucin: Cada una de las ecuaciones representa a un hiperplano de dimensin 5 1 = 4 en


5
. Llamando E1 a la primera ecuacin y E2 a la segunda, podemos concluir que:

No son coincidentes ya que E1 6= cE2 , para cualquier c


No son paralelos ya que X1 6= cX2 , para cualquier c

R no nulo.

R no nulo.

Son secantes (concurrentes) y la solucin del SEL es un objeto de dimensin 5


2 = 3 (hiperplano de dimensin 3 en un espacio de dimensin 5). Su ecuacin
paramtrica/vectorial tendr por tanto 3 parmetros libres.
Vamos a encontrar la ecuacin que describe la solucin. Resolviendo el sistema por ejemplo por
el mtodo de igualacin11 , se tiene:


x2 = 2 x1 + 4x3
2 x1 + 4x3 = 6x3 + 2x4 9x5
x2 = 6x3 + 2x4 9x5
Despejando, por ejemplo la variable x4 :
9
1
x4 = 1 x1 + 5x3 + x5
2
2
queda en funcin de las variables libres12 x1 , x3 y x5 , que en principio pueden tomar cualquier
valor real. Por tanto, podemos asociar estas variables libres a diferentes parmetros13 , por
ejemplo:

x1 = t
x3 = s
t, s, w

x5 = w

de forma que la ecuacin paramtrica 14 del hiperplano de dimensin 3 en el espacio


del SEL, se puede representar como:

x1

x2
x3

x4

x5

=
=
=
=
=

R5 , solucin

t
0
0
x1
0
1

0
4

x2 2
1
2 x1 + 4x3

s
0
0 + s 1 + w
= x3 = 0 + t

9/2
5
x4 1
1/2
1 12 x1 + 5x3 + 92 x5

1
0
0
0
x5
w

En forma vectorial 15 :

~x = p~ + t~v1 + s~v2 + w~v3


siendo ~x, p~, v~1 , ~v2 y ~v3 los vectores de

R5 definidos arriba.

11 Ver

la Seccin 0.6, pgina 28.


la Seccin 1.7.2, pgina 55.
13 Aparecen exactamente 3 parmetros libres ya que la solucin tiene dimensin 3.
14 Ver el Tema 0, pgina 1.
15 En las formas paramtrica y vectorial, la dimensin de un objeto geomtrico coincide con el nmero de sus
parmetros.
12 Ver

Clases de lgebra

Pedro Jos Hernando Oter

1.3. Solucin de un SEL en

Rn

43

1.3.2. Ecuaciones Equivalentes


Definicin 1.17 (Ecuaciones Equivalentes)
Se dice que dos ecuaciones son equivalentes si ambas tienen las mismas soluciones.

Fcilmente se puede obtener una ecuacin equivalente de otra multiplicando ambas partes de la
ecuacin por una constante distinta de cero.
Desde un punto de vista geomtrico, que dos ecuaciones sean equivalentes es lo mismo que sean
coincidentes16 , y por tanto representan el mismo objeto geomtrico.
E1 = cE2

Ejemplo 1.15. Encontrar todas las ecuaciones equivalentes del siguiente plano:
3x + 2y z = 5
Solucin: Multiplicando la ecuacin por un escalar no nulo a
3x + 2y z = 5

R:

3ax + 2ay az = 5a

Cualquiera de estas ecuaciones representa exactamente el mismo plano.

1.3.3. Sistemas Compatibles e Incompatibles


Definicin 1.18 (Sistema Compatible)
Se dice que un sistema de ecuaciones lineales es compatible si tiene solucin 17 . Hay dos tipos
de sistemas compatibles:
Compatible Determinado: Si la solucin es nica (un punto n-dimensional).
Compatible Indeterminado: Si tiene infinitas soluciones (objeto geomtrico de
dimensin no nula).

Definicin 1.19 (Sistema Incompatible)


Se dice que un sistema de ecuaciones lineales es incompatible si no tiene solucin18 .

16 Ver

la Seccin 1.2.3, pgina 39.


un punto de vista geomtrico, corresponde con un conjunto de objetos geomtricos concurrentes.
18 Conjunto de objetos geomtricos no concurrentes.

17 Desde

Pedro Jos Hernando Oter

Clases de lgebra

44

TEMA 1: Sistemas de Ecuaciones Lineales

Ejemplo 1.16.

R2 forman un sistema incompatible.


Dos planos coincidentes y uno secante en R3 forman un sistema compatible indeterminado.
Dos rectas secantes en R2 forman un sistema compatible determinado.

Tres rectas paralelas y una secante en

1.4. Combinacin Lineal de Ecuaciones

Definicin 1.20 (Combinacin Lineal de Ecuaciones)


Se dice que una ecuacin E n es una combinacin lineal de un conjunto de m ecuaciones
E1 , E2 , , Em n si es una suma (trmino a trmino) de ecuaciones equivalentes a ellas.

E=

m
X
i=1

ai Ei = a1 E1 + a2 E2 + + am Em

ai

1.4.1. Propiedades de las Combinaciones Lineales


La combinacin lineal de ecuaciones concurrentes produce una nueva ecuacin concurrente con
las originales.
La combinacin lineal de ecuaciones paralelas produce una nueva ecuacin paralela a las
originales.

Ejemplo 1.17. Dadas las ecuaciones en 2 :



E1 : x y = 1
E2 : 2x + 3y = 4
Calcular y representar grficamente la combinacin lineal de ecuaciones E3 = 3E1 + 2E2
Solucin:
E1
2

E2
1

E3
b

(3) x
y
(2) 2x +3y
x +9y

= 1
= 4
= 5

Clases de lgebra

Pedro Jos Hernando Oter

1.4. Combinacin Lineal de Ecuaciones

45

Ejemplo 1.18. Determinar de forma grfica una posible combinacin lineal de las tres rectas
E1 , E2 y E3 en 2 que muestra el siguiente grfico.

Solucin:

1.4.2. Dependencia e Independencia lineal de Ecuaciones


Definicin 1.21 (Ecuaciones Linealmente Dependientes e Independientes)
Las ecuaciones que pueden relacionarse mediante alguna combinacin lineal19 no nula20
se denominan ecuaciones linealmente dependientes.
Las ecuaciones que no pueden relacionarse mediante alguna combinacin lineal no nula
se denominan ecuaciones linealmente independientes.

En un espacio

Rn slo puede haber como mximo n ecuaciones linealmente independientes.

La frmula de equilibrio21 slo es aplicable a SEL formados por ecuaciones linealmente


independientes.

Ejemplo 1.19. Las tres ecuaciones E1 , E2 y E3 del Ejemplo 1.17 forman un conjunto de
objetos geomtricos (rectas en 2 ) concurrentes no coincidentes pero linealmente dependientes
y por tanto en este caso no se puede aplicar la frmula de equilibrio para determinar la dimensin
de la solucin del sistema formado por estas tres ecuaciones. Claramente la solucin del mismo
es un punto (objeto geomtrico de dimensin 0), mientras que la frmula de equilibrio dara un
objeto de dimensin 2 3 = 1, lo cual no tiene sentido.

19 Ver

la Seccin 1.4, pgina 44.


combinaciones donde no todos los coeficientes que multiplican a las ecuaciones son nulos.
21 Ver la Definicin 1.16, pgina 40.
20 Aquellas

Pedro Jos Hernando Oter

Clases de lgebra

46

TEMA 1: Sistemas de Ecuaciones Lineales

1.5. Mtodos Resolucin de SEL en

Rn

1.5.1. Mtodos Simples


Existen tres mtodos simples de resolucin de sistemas de ecuaciones lineales22 :
Mtodo de Sustitucin.
Mtodo de Igualacin.
Mtodo de Reduccin.
Estos mtodos son tiles para la resolucin a mano de SEL de pequea dimensin. Sin embargo,
para la resolucin de sistemas ms grandes, tanto a mano como por ordenador, estos SEL no resultan
prcticos, siendo necesarios mtodos sistemticos fciles de programar.
En este tema estudiaremos dos mtodos tiles para grandes SEL: el mtodo de Gauss23 y el mtodo
de Gauss-Jordan24 . Antes de analizarlos vamos a ver algunos temas necesarios para su conocimiento.

1.5.2. Sistemas Escalonados o Triangulares

U
P
!

Existen sistemas de ecuaciones lineales con una estructura especial que permite su resolucin
sistemtica de forma fcil, independientemente de la dimensin del sistema. Este tipo de sistemas
se denominan escalonados o triangulares.
Definicin 1.22 (Sistemas Escalonados o Triangulares)
Se dice que un sistema est en su forma escalonada si permite colocar las ecuaciones con
las incgnitas ordenadas por columnas, de forma que el primer coeficiente distinto de cero
en cada ecuacin, denominado pivote, se encuentra en alguna columna a la izquierda de
cualquier pivote debajo de ella.

Ejemplo 1.20. Los siguientes sistemas estn en forma escalonada.

x1 + x2 3x3

2
x y z =

x2 x3
y + 3z =
5
;

5z = 10

x4
2x4
2x4

x5
+
x5
3x5
3x5

=
2
=
0
= 1
=
9

Nota 1.1. La forma escalonada que veremos aqu se denomina triangular superior y suele ser la ms utilizada, sin
embargo tambin se podra utilizar la forma escalonada triangular inferior25 , siendo el planteamiento del problema y
su resolucin de forma anloga a la explicada aqu.

Ejemplo 1.21. Los siguientes sistemas no estn en forma escalonada.

x4

x1 + x2 3x3 +
z =
2
x y

x2
x3 2x4
x + y + 3z =
5
;
2x4

5z = 10

x3 +
x4

x5
+ x5
3x5
3x5

=
=
=
=

2
0
1
9

22 Ver

la Seccin 0.6, pgina 28.


la Seccin 1.5.5, pgina 49.
24 Ver la Seccin 1.8, pgina 58.
25 Las primeras ecuaciones del SEL ms cortas que las ltimas.
23 Ver

Clases de lgebra

Pedro Jos Hernando Oter

1.5. Mtodos Resolucin de SEL en

Rn

47

Mtodo de Sustitucin hacia Atrs

U
P

El mtodo ms apropiado para resolver los sistemas escalonados es el mtodo de sustitucin hacia
atrs.
Definicin 1.23 (Mtodo de Sustitucin Hacia Atrs)
Consiste en ir resolviendo las ecuaciones del sistema escalonado en orden, desde la ltima
ecuacin que tiene menos incgnitas hasta la primera que tiene ms incgnitas, sustituyendo
las incgnitas resueltas por los valores encontrados26 .

Ejemplo 1.22. Resolver los SEL del Ejemplo 1.21 utilizando el mtodo de sustitucin hacia
atrs.
Solucin:

x=3
paso 3
z =
2
x=2+y+z =21+2=3 ;
x y
y + 3z =
5 y = 5 3z = 5 3 (2) = 1 ;
y = 1
paso 2

5z = 10
z = 10/5 = 2 ;
z=2
paso 1

x1

U
P
P

x2
x2

3x3
x3

x4
2x4
2x4

x5
+
x5
3x5
3x5

x1 = x2 + 3x3 x4 + x5 ; x1 = 2t + 9
x2 = x3 + 2x4 x5 ; x3 = t x2 = t 7

x4 = 21 (1 + 3x5 ); x4 = 5

x5 = 3

=
2
=
0
= 1
=
9

1.5.3. Sistemas Equivalentes


Definicin 1.24 (Sistemas Equivalentes)
Se dice que dos sistemas de ecuaciones son equivalentes si posen el mismo conjunto de
soluciones.

Ejemplo 1.23. Los dos sistemas de 2 :



xy = 1
x+y = 3

xy
y

=
=

1
1

son equivalentes, ya que ambas tienen por nica solucin x = 2, y = 1.


Ejemplo 1.24. Los dos sistemas de

x+yz = 2

R3 :
;

3x + 3y 3z

son equivalentes, ya que ambas tienen por solucin el plano z = x + y 2.

26 Si el sistema escalonado es triangular inferior, consiste en ir resolviendo las ecuaciones en orden desde la primera
hasta la ltima.

Pedro Jos Hernando Oter

Clases de lgebra

48

TEMA 1: Sistemas de Ecuaciones Lineales

1.5.4. Operaciones Elementales de Fila


Definicin 1.25 (Operaciones Elementales de Fila)
Un sistema de ecuaciones lineales puede ser transformado en otro sistema equivalente (con
las mismas soluciones), aplicando una o varias de las siguientes operaciones, denominadas
operaciones elementales de fila:
Intercambiar el orden de dos ecuaciones entre s.
Este cambio no altera el conjunto de ecuaciones y por tanto se obtiene un sistema
equivalente.
Multiplicar una ecuacin (ambas partes de la igualdad) por una constante
distinta de cero.
Se obtiene as una ecuacin equivalente a la original y por tanto el nuevo sistema es
equivalente al anterior.
Sumar un mltiplo de una ecuacin a otra ecuacin.
Este proceso se puede realizar mltiples veces27 . La nueva ecuacin ser concurrente28
con el conjunto de ecuaciones elegido y por tanto el nuevo sistema es equivalente al
original.

Las operaciones elementales de fila se pueden utilizar para transformar cualquier SEL en un sistema
escalonado equivalente fcilmente resoluble.

Notacin de la Operaciones Elementales de Fila


Ei Ej : Intercambiar las ecuaciones Ei y Ej .
kEi : Multiplicar la ecuacin Ei por el escalar k.
Ei + kEj : Multiplicar Ej por el escalar k y sumarle el resultado a la ecuacin Ei .

Ejemplo 1.25.

3x + 2y z
xy+z

2x + y + 3z

Ejemplos de operaciones elementales de fila sobre un SEL.

= 1
3x 2y + z = 1
3x 2y + z
E1
E2 E3
= 2
xy+z
=
2
2x + y + 3z

= 3
2x + y + 3z
=
3
xy+z

= 1
3x 2y + z
E3 + 2E1 + E2
2x + y + 3z
=
3

5x 2y + 4z = 1

= 1
=
3

=
2

Todos estos sistemas intermedios y cualquier otro SEL resultado de operaciones elementales de
fila son equivalentes al inicial y por tanto poseen el mismo conjunto de soluciones.
27 Dando

28 Ver

lugar a una combinacin lineal de ecuaciones. Ver la Seccin 1.4, pgina 44.
la Definicin 1.15, pgina 40.

Clases de lgebra

Pedro Jos Hernando Oter

1.5. Mtodos Resolucin de SEL en

Rn

49

1.5.5. Mtodo de Gauss o Eliminacin Gaussiana

U
P

El mtodo de Gauss o eliminacin gaussiana29 es un mtodo apropiado para la resolucin de sistemas


de ecuaciones lineales generales a mano y con un ordenador.

Definicin 1.26 (Mtodo de Gauss o Eliminacin Gaussiana)


Consiste en la transformacin de un SEL general en otro SEL equivalente 30 con forma
escalonada31 , mediante la utilizacin de operaciones elementales de fila32 . El SEL escalonado
resultante es fcilmente resoluble mediante el mtodo de sustitucin hacia atrs33 .

Ejemplo 1.26. Resolver mediante el mtodo de eliminacin gaussiana el siguiente SEL de

x2 +
x3 =
3
x1 +
2x1 + 3x2 +
x3 =
5

x1
x2 2x3 = 5

R3 .

Solucin: Vamos a realizar diferentes operaciones elementales de fila de forma que se eliminen
variables en las ecuaciones inferiores hasta obtener un sistema en forma escalonada.

x1
2x1

x1

+
x2 +
x3 =
3
+ 3x2 +
x3 =
5

x2 2x3 = 5

x2 + x3
x1 +
E + E1

x2 + x3
3

2x2 + 3x3

=
=
=

E + 2E1
2

x1

+ x2
x2
x2

x1

3
x1
E + 2E2
1
3

+
+

+ x2
x2

x3
x3
2x3
+
+

Aplicando ahora el mtodo de sustitucin hacia atrs:


x3 = 2

x2 = x3 1 = 1

Comprobamos el resultado:

x1 + x2 + x3
2x1 + 3x2 + x3

x1 x2 2x3

=
3
=
1

= 5

x3
x3
5x3

=
=
=

3
1

10

x1 = 3 x2 x3 = 0

= 0+1+2
= 20+31+2
= 0122

=
=
=

3
5
5

29 El matemtico alemn Carl Friedrich Gauss (1777-1855) desarroll este mtodo sobre 1794 al resolver un sistema
de 17 ecuaciones con 17 incgnitas para determinar la rbita del planeta Ceres. Sin embargo, existen evidencias de que
este mtodo fue utilizado por los chinos hace 2000 aos.
30 Ver la Definicin 1.24, pgina 47.
31 Ver la Definicin 1.22, pgina 46.
32 Ver la Definicin 1.25, pgina 48.
33 Ver la Definicin 1.23, pgina 47.

Pedro Jos Hernando Oter

Clases de lgebra

50

TEMA 1: Sistemas de Ecuaciones Lineales

1.6. Matrices

En el clculo de las operaciones elementales del mtodo de Gauss, es mucho ms prctico operar
nicamente con los coeficientes y trminos independientes de cada ecuacin, sin incluir las variables34 .
Para este fin se utilizan las matrices.
Aunque se estudiarn en detalle en el Tema 3, vamos a recordar la definicin de matriz numrica.

Definicin 1.27 (Matriz)


Una matriz es una disposicin de nmeros35 ordenados en filas y columnas.

Una matriz A de m filas y n columnas se


[ ] en su notacin de la siguiente forma:

a11 a12 a1n


a21 a22 a2n

Amn = .
..
..
..
.
.
am1

amn

aij

Rmn

Rmn es el espacio de las matrices reales Amn .

donde

am2

representa por Amn y utilizaremos corchetes cuadrados

Ejemplo 1.27. Ejemplos de matrices reales:


A22 =

1
2

1
3

R22

A34

0
= 1
8

2
3
1
1
1
0
4 2 6

R34

1.6.1. Matrices Asociadas a SEL

Los SEL se pueden representar de forma matricial asociando matrices a los coeficientes y trminos
independientes.

Definicin 1.28 (Matriz de Coeficientes y Matriz Ampliada)


Todo SEL de m ecuaciones y n incgnitas se puede representar mediante dos tipos de matrices:
Matriz de Coeficientes: Matriz
sistema.

Rmn

conteniendo los coeficientes ordenados del

Matriz Ampliada: Matriz m(n+1) conteniendo los coeficientes del sistema (matriz
ampliada) junto con el vector columna de los trminos independientes.

34 Ver

la Definicin 1.10, pgina 36.


reales o complejos, aunque en este curso nos centraremos bsicamente en el caso real.

35 Nmeros

Clases de lgebra

Pedro Jos Hernando Oter

1.6. Matrices

51

Dado un SEL de m ecuaciones con n incgnitas:

a11 x1 + a12 x2 +
..
..
.
.

am1 x1 + am2 x2 +

a1n xn
..
.

+ amn xn

b1
..
.

= bm

La matriz de coeficientes A y la matriz ampliada A|B asociadas a este sistema son:

a11 a12 a1n


a11 a12 a1n b1

..
.. mn ; A|B = ..
..
..
A = ...
.

.
.
.
.
am1 am2 amn
am1 am2 amn bm

Rm(n+1)

Ejemplo 1.28. Ejemplo de matriz ampliada asociada a un SEL.

3x + 2y z
xy+z

2x + y + 3z

= 1
= 2
= 3

3
1
2

2 1
1
1
1
3

1
2
3

1.6.2. Operaciones Elementales de Fila en la Matriz Asociada

Las operaciones elementales de fila realizadas en el mtodo de Gauss sobre un SEL para transformarlo
en otro sistema equivalente escalonado36 , se pueden realizar de forma ms conveniente en su
correspondiente matriz ampliada asociada.

Definicin 1.29 (Operaciones Elementales de Fila en Matrices)


Intercambiar dos filas entre s. (Fi Fj )
Esta operacin corresponde al cambio de orden de las ecuaciones.

Multiplicar una fila por una constante distinta de cero. (kFi )


Esta operacin corresponde con la sustitucin de una ecuacin por otra equivalente
(coincidente) a la original.
La adicin de un mltiplo de una fila a otra fila. (Fi + kFj )
Esta operacin corresponde con la sustitucin de una determinada ecuacin por una
combinacin lineal de ecuaciones del sistema.

Nota 1.2. La notacin es igual a la utilizada en las operaciones elementales de Fila aplicadas a las ecuaciones,
cambiando ecuaciones (E), por filas (F ).

36 Ver

la Seccin 1.5.4, pgina 48.

Pedro Jos Hernando Oter

Clases de lgebra

52

U
P

TEMA 1: Sistemas de Ecuaciones Lineales

1.6.3. Matriz Equivalente por Filas


Definicin 1.30 (Matriz Equivalente por Filas)
Las operaciones elementales por fila aplicadas en una matriz la transforman en otra matriz
denominada matriz equivalente por filas.

Ejemplo 1.29. Operaciones elementales sobre la matriz asociada al SEL del

3 2 1 1
3 2
3
2 1 1
F
F

F
1
2
3
1 1
1 2
1 1 1
2
2
1

3
2
1
3 3
2
1 3
1 1

3
F3 + 2F1 + F2
2

Nota 1.3.

2 1
1 3
2 4

1
3
1

Ejemplo 1.28.

1 1
3
3
2
1

Las propiedades de las matrices equivalentes por filas se estudiarn en el Seccin 3.7.2, pgina 128.

1.6.4. Matriz Escalonada Equivalente

El mtodo de Gauss37 puede aplicarse a la matriz ampliada del SEL, transformndola mediante
operaciones elementales de fila a una matriz equivalente por filas, en forma escalonada o triangular,
correspondiente al SEL escalonado buscado.

Definicin 1.31 (Matriz Escalonada o Triangular)


Una matriz escalonada (o triangular) es aquella que cumple las siguientes propiedades:
Cualquier fila de ceros est en la parte inferior de la matriz.
En cada fila no nula, el primer elemento distinto de cero, (denominado elemento
principal o pivote38 ), se encuentra al menos una columna a la izquierda de cualquier
pivote de cualquier fila por debajo de ella.

Ejemplo 1.30. Las siguientes matrices son matrices escalonadas:

2
0
0

4 1
1 2
0 0

1
0
0

0
1
0

1
5
4

1
0
0

1
0
0

2
1
0

1
3
0

0 2
0 0

0 0
0 0

0 1 1 3
1 1
2 2

0 0
4 2
0 0
0 5

37 Ver

la Seccin 1.5.5, pgina 49.


igual forma que se denominan a los primeros elementos no nulos en los SEL escalonados o triangulares, ver la
Definicin 1.22, pgina 46.
38 De

Clases de lgebra

Pedro Jos Hernando Oter

1.6. Matrices

53

Definicin 1.32 (Matriz Escalonada Equivalente)


Se dice que la matriz escalonada de una dada, obtenida a travs de operaciones
elementales de fila, es una matriz escalonada equivalente a la original.
El proceso de obtencin de la matriz escalonada equivalente se denomina reduccin de
una matriz a su forma escalonada equivalente.

1.6.5. Rango de una Matriz


Definicin 1.33 (Rango de una Matriz)
Se define el rango39 de una matriz como el nmero de filas no nulas que tiene en su forma
escalonada equivalente40 . El rango de una matriz A se identifica a travs de:
rang(A)

Ejemplo 1.31. Determinar el rango de la siguiente matriz:




1 1
A=
2
1
Solucin:

1
1

1
2

F 2F1
2

1
0

1
3

rang(A) = 2

1.6.6. Teorema de Rouch-Frbenius


Teorema 1.1 (Teorema de Rouch-Frbenius41 )
Sea A mn una matriz de coeficientes correspondiente a un sistema de m ecuaciones
con n incgnitas, y sea A|B su matriz ampliada. Entonces, el sistema es compatible (tiene
solucin) si y slo si:
rang(A) = rang(A|B)

Si rang(A) = n

Sistema compatible determinado (solucin nica).

Si rang(A) < n

Sistema compatible indeterminado (infinitas soluciones).

Num. variables libres (parmetros) = n rang(A)

Nota 1.4.

El nmero de variables libres coincide con la dimensin de la solucin.

39 En

la Definicin 3.18, pgina 128 se ver una definicin alternativa del rango de una matriz.
40 El cual coincide con el nmero de pivotes de dicha matriz.
41 Tambin es conocido con el nombre de Teorema del Rango, sin embargo esta forma es ms confusa al existir ms
de un teorema del rango en diferentes reas.

Pedro Jos Hernando Oter

Clases de lgebra

54

TEMA 1: Sistemas de Ecuaciones Lineales

1.7. Mtodo de Gauss Matricial


Dado el sistema general de m ecuaciones con n incgnitas:

a11 x1 + a12 x2 + + a1n xn

a21 x1 + a22 x2 + + a2n xn


..
..
..

.
.
.

am1 x1 + am2 x2 + + amn xn

=
=

b1
b2
..
.

= bm

la aplicacin del mtodo de Gauss (eliminacin gaussiana) utilizando la matriz ampliada (forma
matricial) consiste en los siguientes pasos:
1. Obtener la matriz ampliada del SEL.

a11
a21

..

.
am1

a12
a22
..
.

a1n
a2n
..
.

amn

am2

b1
b2

bm

2. Se elige el primer pivote42 p = a11 . Si p = 0 se intercambia la primera fila con cualquier otra
por debajo hasta que p 6= 0.
3. Se hacen ceros todos los elementos de la columna del pivote p por debajo de l. Para ello,
llamando i a la fila del pivote, (p = aii ), cada fila Fj por debajo del pivote (j > i) se substituye
por la combinacin lineal:
Fj = Fj

aji
Fi
aii

j > i

4. Se repite el proceso 2-3 hasta obtener una matriz escalonada ampliada.

Ejemplo 1.32. Resolver mediante

x1
2x1

x1

eliminacin gaussiana el siguiente SEL en


+
+

x2
3x2
x2

+
+

x3
x3
2x3

=
3
=
5
= 5

Solucin: Utilizando el mtodo de Gauss matricial se tiene, se tiene,

1
1
1
1
1
1
1
3
3
F

2F
F

F
2
1
3
1
2
3
1
5 0
1 1 1 0
1 1 2 5
1 1 2 5
0

1 1
F + 2F2
0 1
3
0 0

R3 .

1
1
1 1
2 3

1
1
5

3
1
10

x1 = 3 x2 x3 = 0

3
1
8

Utilizando el mtodo de sustitucin hacia atrs, se obtiene la solucin:


x3 = 2
42 Ver

x2 = x3 1 = 1

la Definicin 1.31, pgina 52.

Clases de lgebra

Pedro Jos Hernando Oter

1.7. Mtodo de Gauss Matricial

55

1.7.1. Identificacin de Sistemas Incompatibles


Si alguna fila de la matriz escalonada ampliada43 tiene todos sus coeficientes nulos, pero el
correspondiente trmino independiente no es cero, el sistema es incompatible44 (no tiene solucin).

Ejemplo 1.33. Resolver mediante eliminacin gaussiana el siguiente SEL en

x2 + 2x3 =
3
x1
x1 + 2x2 x3 = 3

2x2 2x3 =
1
Solucin:

1 1
2
1
2 1
0
2 2

3
1
F

F
1
3 2
0
1
0

1
2
3 3
2 2

1
F3 + 2F2
0

1
1
3
F
2
6 3 0
1
0

1
2
1 1
0
0

3
2
5

R3 .

1
2
1 1
2 2

3
2
1

La ltima ecuacin 0 = 5 no tiene solucin y por tanto el sistema es incompatible.

1.7.2. Identificacin de Sistemas Compatibles Indeterminados


Si el SEL no es incompatible y su matriz escalonada ampliada tiene una o ms filas (completas) de
ceros, el sistema es compatible indeterminado.

Ejemplo 1.34. Analizar si el siguiente SEL es compatible (determinado o indeterminado) o


incompatible

= 1
x1 + x2 + 2x3
x1 + 2x2 + 2x3 = 1

x1 + 2x3
= 1

Solucin: Vamos a expresar el SEL en forma matricial, obtener una matriz ampliada escalonada
equivalente y analizar el tipo de solucin.

1 1 2 1
1
1 2 1
1 1 2 1
F2 F1
F3 F2
1 2 2 1 0
1 0 0 0 1 0 0
F3 F2
1 0 2 1
0 1 0 0
0 0 0 0

En este caso se obtiene una fila completa de ceros en la matriz ampliada escalonada resultante
y por tanto el sistema es compatible indeterminado.

Vamos a estudiar las caractersticas especiales de los SEL compatibles indeterminados para encontrar
una forma apropiada de representar sus infinitas soluciones.

43 Ver

la Seccin 1.7, pgina 54.


que el rango de la matriz de coeficientes es menor que el rango de la matriz ampliada y por el teorema de
Rouch-Frbenius, (ver el Teorema 1.1, pgina 53), el sistema es incompatible.
44 Ya

Pedro Jos Hernando Oter

Clases de lgebra

56

TEMA 1: Sistemas de Ecuaciones Lineales

Definicin 1.34 (Variables Principales y Libres)


En un SEL compatible indeterminado hay dos tipos de variables:
Variables Principales: correspondientes (en nmero) a las filas no nulas y por tanto
al nmero de ecuaciones linealmente independientes del sistema.
Variables Libres: diferencia entre variables totales (n) y variables principales,
Variables Libres = n Variables Principales

Cualquiera de las variables del sistema puede tomarse como principal o libre.
Las variables libres pueden tener cualquier valor y por tanto normalmente se les asocia un
parmetro libre.
Las variables principales dependen de los valores tomados por las variables libres.

Ejemplo 1.35. Resolver mediante eliminacin gaussiana

w x y + 2z
2w 2x y + 3z

w + x y

el siguiente SEL de
=
=
=

R4 .

1
3
3

Solucin: Por el teorema de Rouch-Frbenius45 , este sistema slo puede ser incompatible o
compatible indeterminado por tener ms incgnitas (4) que ecuaciones (3). Vamos utilizar el
mtodo de Gauss matricial para resolverlo:

1 1 1 2
1
1 1 1
2
1
F 2F1
F + F1
2 2 1 3
0
0
1 1
3 2
1 3
1
1 1 0 3
1
1 1
0 3

1
0
0

1 1
2
0
1 1
0 2
2

1
1 1 1
2
F
+
2F
2
1 3
0
0
1 1
2
0
0
0
0

El sistema asociado a esta ltima matriz46 es ahora:



w x y +
y

2z
z

1
1
0

=
=

Sistema compatible
indeterminado.

1
1

El cual es un sistema de 2 ecuaciones con 4 incgnitas y por tanto tiene un nmero infinito de
soluciones.
(Contina en la pgina siguiente)

45 Ver

el Teorema 1.1, pgina 53.


fila llena de ceros no se tiene en cuenta, ya que corresponde con una ecuacin linealmente dependiente de las
dems, (ver la Seccin 1.4.2, pgina 45).
46 La

Clases de lgebra

Pedro Jos Hernando Oter

1.7. Mtodo de Gauss Matricial

57

Ejemplo 1.35 (Continuacin).


Como tenemos 4 incgnitas y 2 ecuaciones, se pueden tomar 2 variables libres:
4 variables totales - 2 ecuaciones linealmente independientes = 2 variables libres
Estas dos variables libres pueden ser cualquiera de las cuatro existentes {w, x, y, z} y se les
asignar a cada una un parmetro libre. El resto de variables sern variables principales.
Resolvemos el sistema mediante el mtodo de sustitucin hacia atrs:
De la segunda ecuacin podemos despejar cualquiera de las dos variables y o z. Despejando
por ejemplo la variable y (variable principal) en funcin de la variable z (variable libre) se
tiene:
y =1+z
La variable libre z puede tomar cualquier valor y por ello le asignamos un parmetro libre,
por ejemplo t:
z = t ; t
= y = 1 + z = 1 + t

De la primera ecuacin podemos despejar w o x en funcin de las dems. Despejando por


ejemplo w (variable principal) y asignando a la variable libre x un parmetro libre s se
tiene:
x = s ; s

w = 1 + x + y 2z = 1 + s + (1 + t) 2t = 2 t + s

La solucin, en forma paramtrica47 , se puede expresar como:

y
z

= s
= 1+t
= t
= 2ts

; t, s

Dando valores a los parmetros t y s se obtienen las infinitas soluciones del sistema.
Esta solucin en forma paramtrica no es nica ya que existen infinitas formas paramtricas
de expresar la solucin de un sistema, en funcin de las variables que asignemos como libres o
principales. Sin embargo, todas las diferentes formas expresan exactamente la misma solucin48 .
En muchos caso interesa tener la forma vectorial de la solucin, que en este caso se puede expresar
como:


x
s
0
0
1
y
1
1
0
1
+
t
=
= + t


z
1 + s0
t 0
w
2t+s
2
1
1

Esta solucin corresponde geomtricamente con un plano49 en un espacio de dimensin 4,


(correspondiente al nmero de incgnitas).
De la misma manera que la forma paramtrica, existen infinitas formas vectoriales de representar
la misma solucin de un sistema.
47 Ver

el Tema 0, pgina 1.
de vales [x, y, z, w] que cumplen el sistema de ecuaciones.
49 Objeto geomtrico de dimensin 2, correspondiente con el nmero de parmetros libres que aparecen en su
definicin, ver la Seccin 1.2.2, pgina 38.
48 Conjunto

Pedro Jos Hernando Oter

Clases de lgebra

58

TEMA 1: Sistemas de Ecuaciones Lineales

1.8. Mtodo de Gauss-Jordan


El mtodo de eliminacin de Gauss-Jordan50 es una modificacin del mtodo de Gauss51 que
simplifica la fase de sustitucin hacia atrs 52 .
El mtodo de Gauss requiere un menor nmero de operaciones que el mtodo de Gauss-Jordan, sin
embargo en algunos casos, las operaciones a realizar (aunque haya una mayor cantidad) resultan ms
sencillas de operar a mano en el mtodo de Gauss-Jordan. Desde un punto de vista computacional
(con un ordenador) slo tiene inters el mtodo de Gauss, pero desde un punto de vista terico el
mtodo de Gauss-Jordan tiene una gran importancia, como veremos a continuacin.

1.8.1. Matriz Escalonada Reducida


Definicin 1.35 (Matriz Escalonada Reducida)
Una matriz escalonada reducida es una matriz escalonada con las siguientes dos caractersticas:
Todas los pivotes53 son la unidad, (denominado 1 principal)
Cada columna con pivote, tiene ceros en toda posicin distinta del pivote.

Ejemplo 1.36. Las siguientes matrices estn en forma escalonada reducida.

1 2 0 0 3
1 0

0 0 1 0
4 1 0
1 0 0

0 1 0
3 2 0
;

0 0 0 1
0 0 0 0
0
0 1
0 0 1
0 0 0 0
0
0 0
Definicin 1.36 (Matriz Escalonada Reducida Equivalente)
Se define la matriz escalonada reducida equivalente de una determinada matriz, a la
matriz escalonada reducida obtenida mediante operaciones elementales de fila.

La matriz escalonada reducida equivalente de una matriz A se puede obtener de dos formas:
Obtener la matriz escalonada equivalente 54 y posteriormente obtener los pivotes unidad y ceros
correspondientes. Este mtodo es computacionalmente preferible para un ordenador.
Ir obteniendo los pivotes unidad a medida que se va obteniendo la matriz escalonada equivalente.
Este mtodo es ms til para clculos a mano.
50 W. Jordan (1842-1899) fue un ingeniero y profesor alemn de topografa geodsica cuya contribucin a la solucin
de los sistemas lineales fue un mtodo sistemtico de sustitucin hacia atrs directamente relacionado con el mtodo de
Gauss-Jordan.
51 Ver la Seccin 1.5.5, pgina 49 y la Seccin 1.7, pgina 54.
52 Ver la Definicin 1.23, pgina 47.
53 Ver la Definicin 1.31, pgina 52.
54 Ver la Definicin 1.32, pgina 53.

Clases de lgebra

Pedro Jos Hernando Oter

1.8. Mtodo de Gauss-Jordan

59

Unicidad de la Matriz Escalonada Reducida


Existen infinitas matrices escalonadas correspondientes a una matriz dada. Sin embargo, la matriz
escalonada reducida correspondiente a una matriz dada es nica.

Proceso

El mtodo de Gauss-Jordan consiste en la obtencin de la matriz escalonada reducida de un SEL.


Si el sistema es compatible determinado55 , su solucin vendr dada directamente por la columna de
los trminos independientes, sin necesidad de aplicar el mtodo de sustitucin hacia atrs.
Ejemplo 1.37. Resolver mediante el mtodo

x2
x1 +
2x1 + 3x2

x1
x2
Solucin:

3
1
1
1
1
1
F

2F
2
1
2
3
1
5 0
1
1 1 2 5
1 1

1 1
F + 2F2
0 1
3
0 0

de Gauss-Jordan el siguiente SEL en


+
+

x3
x3
2x3

=
3
=
5
= 5

3
1
F

F
3
1
1 0
5
0

1
1
2

3
1 0
2
4
F F2
1 1
0 1 1
1
10
0 0 5 10

1
1 0 2 4
F

2F
F2 + F3
3
0
0 1 0 1 1
0 0 1 2
0
1
1
5

R3 .

1
1
1 1
2 3

1 0
51 F3
0 1
0 0

0 0 0
1 0 1
0 1 2

2
1
1

3
1
8

4
1
2

Como el rango de la matriz de coeficientes es 3, igual que la dimensin del sistema, ste es
compatible y determinado.
La solucin es directamente la columna de trminos independientes.
x1 = 0

x2 = 1

x3 = 2

1.8.2. Matriz Identidad


Definicin 1.37 (Matriz Identidad)
Se denomina matriz identidad de orden n a una matriz cuadrada de n filas y n columnas,
cuyos elementos diagonales aii son todos la unidad y el resto cero.

1 0 0
0 1 0

nn
In = . .
..
.. ..
.

55 Los SEL incompatibles y compatibles indeterminados se pueden identificar de igual forma que se vio en la
Seccin 1.7.1, pgina 55 y Seccin 1.7.2, pgina 55.

Pedro Jos Hernando Oter

Clases de lgebra

60

TEMA 1: Sistemas de Ecuaciones Lineales

Un SEL de n tiene solucin nica, (compatible y determinado), si y slo si la matriz escalonada


reducida equivalente a su matriz de coeficientes es una matriz identidad de orden n, In .

1.9. Sistemas Homogneos

Definicin 1.38 (Sistemas Homogneos)


Un SEL se denomina homogneo si el trmino independiente en cada ecuacin es cero.

El siguiente es un SEL homogneo de m ecuaciones con n

a11 x1 + a12 x2 + +

a21 x1 + a22 x2 + +
..
..

.
.

am1 x1 + am2 x2 + +

incgnitas:
a1n xn
a2n xn
..
.

=
=

0
0
..
.

amn xn

Por el teorema de Rouch-Frbenius56 los SEL homogneos son siempre compatibles, ya que57
rang(A) = rang(A|B), pudiendo ser determinados o indeterminados en funcin de la matriz de
coeficientes A mn :

Si rang(A) = n, el sistema es compatible determinado, y su solucin nica es la solucin nula


~x = ~0 = [0, , 0] n conocida con el nombre de solucin trivial.

Si rang(A) < n, el sistema es compatible indeterminado, con infinitas soluciones, (una de ellas
la solucin trivial).

Ejemplo 1.38. Resolver el siguiente

x1
2x1

x1

sistema de ecuaciones lineales homogneo.


+
+

x2
3x2
x2

+ x3
+ x3
2x3

Solucin: Vamos a resolverlo aplicando el mtodo de

1
1
1 0
1
1
1
F 2F1
2
3
1 0 2
0
1 1
1 1 2 0
1 1 2

1 1
F3 + 2F2
0 1
0 0

56 Ver

= 0
= 0
= 0

Gauss:

0
1
F F1
0 3
0
0
0

1
1
5

0
0
0

1
1
1 1
2 3

0
0
0

(Contina en la pgina siguiente)

el Teorema 1.1, pgina 53.


a que la columna de ceros de los trminos independientes no aportan nada al rango.

57 Debido

Clases de lgebra

Pedro Jos Hernando Oter

1.9. Sistemas Homogneos

61

Ejemplo 1.38 (Continuacin).


Analizando la matriz escalonada equivalente del sistema podemos observar como el rango de la
matriz de coeficientes es 3, igual que el nmero de incgnitas del sistema y por tanto corresponde
con un sistema compatible determinado. Por el mtodo de sustitucin hacia atrs se comprueba
fcilmente que la solucin nica es la trivial:
x=0

y=0

z=0

Cuando se resuelven SEL homogneos por el mtodo de Gauss o Gauss-Jordan, la columna nula de
trminos independientes no se ve modificada por las operaciones elementales de fila y por tanto se
puede prescindir de ella en los clculos matriciales.

Ejemplo 1.39. Resolver el siguiente sistema de ecuaciones lineales.

x1 + x2 + x3 x4 = 0
x1 + x2 x3
= 0

x2 x3 x4 = 0

Solucin: Observamos que es un SEL homogneo de 3 ecuaciones con 4 incgnitas y por tanto es
obligatoriamente un sistema compatible indeterminado58 . Vamos a resolverlo aplicando el mtodo
de Gauss, omitiendo la columna de ceros de los trminos independientes por ser inalterable por
las operaciones.

1
1
1 1
1
1
1 1
1
1
1 1
F
+
F
F
+
2F
1
3
1
0
2
0 1 2
0
0 2 3
1 1
0 2
0 1 1 1
0 1 1 1
0 1 1 1
Est matriz ya est en forma escalonada, (aunque no estn ordenadas las filas), y podemos
resolver el sistema por el mtodo de sustitucin hacia atrs59 :
Fila 2: 2x3 3x4 = 0 = x3 =

3
x4
2

x = 2t
4

x3 = 3t.

Fila 3: x2 x3 x4 = 0 = x2 = x3 x4 = (3t) 2t = t.
Fila 1: x1 + x2 + x3 x4 = 0 = x1 = x2 x3 + x4 = t (3t) + 2t = 4t.
Quedando finalmente la solucin del sistema:

x1
4
x2
1

x3 = t 3
x4
2

58 Ya

que el rango de la matriz de coeficientes como mucho es 3, mientras que el nmero de ecuaciones es 4.
la Definicin 1.23, pgina 47.

59 Ver

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Espacios Vectoriales
Contenido

Vectores en Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Representacin Grfica de Vectores . . . . . . . . . . . . . . . . . . . . .
2.2 Operaciones Elementales con Vectores . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Vector Opuesto y Vectores Estndar . . . . . . . . . . . . . . . . . . . .
2.2.4 Diferencia de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.5 Propiedades Algebraicas de la Suma y Producto por un Escalar . . . . .
2.3 Espacio y Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Sistemas de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1 Combinacin Lineal de Vectores . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . .
2.4.3 Rango de un Sistema de Vectores . . . . . . . . . . . . . . . . . . . . . .
2.4.4 Interpretacin Geomtrica de la Dependencia e Independencia Vectorial
2.5 Conjuntos o Sistemas Generadores . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.1 Base y Dimensin de un Sistema de Vectores . . . . . . . . . . . . . . .
2.5.2 Generacin de n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5.3 Base Cannica o Estndar de n . . . . . . . . . . . . . . . . . . . . . .
2.6 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Propiedades del Producto Escalar . . . . . . . . . . . . . . . . . . . . . .
2.7 Distancia y Norma en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.1 Propiedades de la Distancia . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.2 Distancia de un Punto al Origen . . . . . . . . . . . . . . . . . . . . . .
2.7.3 Norma de un Vector en n . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.4 Propiedades de la Norma . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7.5 Vectores Unitarios y Normalizacin . . . . . . . . . . . . . . . . . . . . .
2.8 Espacio Eucldeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9 Relaciones entre Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.9.1 Distancia entre dos Vectores . . . . . . . . . . . . . . . . . . . . . . . . .
2.9.2 ngulo entre dos Vectores en 2 . . . . . . . . . . . . . . . . . . . . . .
2.9.3 ngulo entre dos Vectores en n . . . . . . . . . . . . . . . . . . . . . .
2.9.4 Definicin Alternativa del Producto Escalar en n . . . . . . . . . . . .
2.10 Vectores Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11 Proyeccin Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.1 Interpretacin Geomtrica en 2 y 3 . . . . . . . . . . . . . . . . . . .
2.11.2 Vector Perpendicular . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.11.3 Aplicaciones Geomtricas de la Proyeccin Ortogonal . . . . . . . . . . .

2.1

R
R

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

65
66
66
66
67
68
68
69
70
72
72
73
76
78
80
81
82
84
86
87
87
87
87
88
88
89
89
90
90
90
91
91
91
92
93
95
96

63

Clases de lgebra

Resta

Suma

Propiedades

Producto por un Escalar

Operaciones

Sist. Lin. Dependiente

Sist. Lin. Independiente

Independencia Lineal

Rango de un Sist.

Sistemas de Vectores

Combinacin Lineal Vec.

Dependencia Lineal

Subespacios Vectoriales

Espacios Vectoriales

Rn

Base Cannica

Bases

Dimensin

Sistema Generador

Vectores

Propiedades

Producto Escalar

Distancia entre Vectores

Norma Eucldea

Distancia entre Puntos

ngulo entre Vectores

Relaciones entre Vectores

Aplicaciones Geomtricas

Proyeccin Ortogonal

Ortogonalidad

64
TEMA 2: Espacios Vectoriales

Pedro Jos Hernando Oter

2.1. Vectores en Espacios

Rn

65

2.1. Vectores en Espacios

Rn

Definicin 2.1 (Vector)


Un vector 1 ~v es una coleccin ordenada de nmeros2 :
~v = [v1 , v2 , , vn ]

vi

Cada uno de los nmeros se denomina componente o coordenada y el nmero de componentes


n se denomina dimensin del vector.

Hay dos tipos bsicos de vectores3 :


Vectores fila: Los elementos se disponen en una fila.


~v = v1 v2 vn

Vectores columna: Los elementos aparecen en una columna.

v1
v2

~v = .
.
.
vn

Un vector fila se puede transformar en un vector columna y al contrario mediante la transposicin


del vector. Un vector transpuesto se indica mediante una letra T (mayscula o minscula) en el
superndice.
t

1
1



T
;
~u = 1 = 1 1 3
~v = 1 1 0
= 1
3
0

Definicin 2.2 (Espacio n )


El conjunto de todos los vectores de n componentes reales 4 se representa por

Rn = {[x1 , x2 , , xn ] :

Ejemplo 2.1.
2
= {[x, y] : x, y }
3
= {[x, y, z] : x, y, z

R
R

R}

xi

[1, 0] 2
[1, 1, 1/3]

R,

Rn .

1 i n}

R3

1 Esta definicin corresponde a los conocidos como vectores generales. Adems hay otros tipos de vectores como los
vectores geomtricos y de posicin. Ver una introduccin en el Apndice A.7, pgina 354.
2 En general reales o complejos, aunque en este tema nos centraremos slo en el caso real.
3 Ambos son equivalentes y slo es importante su tipo cuando tienen un carcter matricial, ver el Tema 3, pgina 101.
4 Una generalizacin de los vectores en espacios complejos
n se puede ver en el Apndice A.8, pgina 357.

Pedro Jos Hernando Oter

Clases de lgebra

66

TEMA 2: Espacios Vectoriales

2.1.1. Representacin Grfica de Vectores

Los vectores de baja dimensin5 , 2 y 3 , se pueden representar grficamente como un segmento


dirigido desde el origen hasta el punto dado por las coordenadas del vector.
Z

z
Y

~v = [x, y]
~v

~v

x
X

~v = [x, y, z]

Figura 2.1.: Representacin grfica de vectores en

R2 y R3 .

Existe una relacin directa entre un punto de n componentes P = (x1 , , xn ) y un vector con las
mismas componentes ~x = [x1 , , xn ], ya que asociado a cada punto existe un vector con inicio en
el origen (0, , 0) n y final en el punto en cuestin. De forma que cuando hablamos de espacios
n
nos podemos referir indistintamente a espacios de puntos 6 y/o espacios de vectores.

2.2. Operaciones Elementales con Vectores

Sean los vectores: ~u, ~v n :

~u =

~v

R
v1 , v2 , , vn R

[u1 , u2 , , un ]

; u1 , u2 , , un

[v1 , v2 , , vn ]

Vamos a definir las operaciones de suma, producto por un escalar y diferencia entre vectores.

2.2.1. Suma
Definicin 2.3 (Suma de Vectores)
Se define la suma de dos vectores ~u, ~v

Rn como el vector ~s Rn dado por:

~s = ~u + ~v = [u1 , u2 , , un ] + [v1 , v2 , , vn ] = [u1 + v1 , u2 + v2 , , un + vn ]

Ejemplo 2.2. Determinar la suma de los vectores de 4 : ~u = [1, 2, 3, 4] y ~v = [0, 2, 3, 1]


Solucin:
~s = ~u + ~v = [1, 2, 3, 4] + [0, 2, 3, 1] = [1, 0, 6, 3]
5 Los
6 Ver

vectores n para n > 3 no se pueden representar grficamente.


la Definicin 1.9, pgina 35.

Clases de lgebra

Pedro Jos Hernando Oter

2.2. Operaciones Elementales con Vectores

67

Regla del Paralelogramo

R R

En los casos particulares de 2 y 3 donde los vectores se pueden representar grficamente, la suma
de dos vectores ~u + ~v representa el vector diagonal del paralelogramo de lados ~u y ~v , en el plano
definido por ambos vectores.
Z

~u
X

Figura 2.2.: Suma de dos vectores en

Ejemplo 2.3. En
Solucin:

~u

~v

~u

~u +

~s
~u

~v

~s =
~v

~v
~v

R2 y R3 . Regla del paralelogramo.

R2 determinar ~x + ~y siendo ~x = [3 1] e ~y = [1, 4].

Y
4
3
2
1
1

~y

~v =

~x +

1 2
~x

~y

~v = ~x+~y = [3, 1]+[1, 4] = [3+1, (1)+4] = [4, 3]


3

4 X

2.2.2. Producto por un Escalar


Definicin 2.4 (Producto por un Escalar)
Se define la multiplicacin de un vector ~v = [v1 , v2 , , vn ]
siguiente forma:
~v = [v1 , v2 , , vn ] = [v1 , v2 , , vn ]

Ejemplo 2.4. En
Solucin:

Rn por un escalar 7 R de la

~v

Rn ,

R2 determinar el producto del vector ~u = [1, 2] por el escalar = 3.


~v = ~u = (3)[1, 2] = [3, 6]

Nota 2.1. La multiplicacin de un vector por una constante (escalar) nicamente modifica su longitud y/o sentido,
sin modificar su direccin. Su longitud variar si el escalar es distinto de 1 y el sentido cambiar si el escalar es negativo.
A esto se le denomina escalamiento de un vector.
7 La palabra escalar proviene del latn scala que significa escalera, y de forma general hace referencia a cualquier
nmero real o complejo.

Pedro Jos Hernando Oter

Clases de lgebra

68

TEMA 2: Espacios Vectoriales

Ejemplo 2.5. Dado ~v = [2, 3], calcular 2~v y 23 ~v .


Solucin:
Y
6
5

2~v

4
3
2

~v

2~v = 2 [2, 3] = [4, 6]

1
4 3 2 1
1
23 ~v

32 ~v = 23 [2, 3] = [ 43 , 2]

6 X

2
3
4

2.2.3. Vector Opuesto y Vectores Estndar


Definicin 2.5 (Vector Opuesto)
El vector opuesto (o negativo) de un vector ~v

Rn es el vector ~v dado por:

~v = (1)~v = (1)[v1 , v2 , , vn ] = [v1 , v2 , , vn ]

Definicin 2.6 (Vectores Estndar)


Se define el vector estndar ~ei n como aquel vector que tiene todas sus componentes 0
excepto la componente i-sima que vale 1.

~ei = [0, 0, , 1, , 0]

2.2.4. Diferencia de Vectores


Definicin 2.7 (Diferencia o Resta de Vectores)
Restar dos vectores ~u, ~v n es sumar a ~u el vector opuesto de ~v .

~u ~v = ~u + (~v )

~u, ~v

Rn

Por tanto la resta no se considera una operacin si no un caso particular de la operacin suma.

Clases de lgebra

Pedro Jos Hernando Oter

2.2. Operaciones Elementales con Vectores

Ejemplo 2.6. En
Solucin:

R2 , dados ~u = [1, 3] y ~v = [4, 2] determinar ~u ~v y ~v ~u.

Y
4
3

~u
~v

~u ~v

4 3 2 1
1

~u

~u ~v = [1, 3] [4, 2] = [1 4, 3 2] = [3, 1]

4 X

~v ~u = [4, 2] [1, 3] = [4 1, 2 3] = [3, 1]

~v ~u

~v

69

3
4

2.2.5. Propiedades Algebraicas de la Suma y Producto por un Escalar


Dados los vectores ~u, ~v , w
~

P
P

Rn y los escalares , R, se verifican las siguientes propiedades:

Conmutativa

~u + ~v = ~v + ~u

Asociativa de la Suma

(~u + ~v ) + w
~ = ~u + (~v + w)
~

Asociativa del Producto

(~u) = ~u = ()~u

Elemento Neutro 1

(~u + ~0) = ~0 + ~u = ~u

Elemento Neutro 2

0~u = ~0

Elemento Unitario

1 ~u = ~u 1 = ~u

Elemento Opuesto 1

~u + (~u) = (~u) + ~u = ~0

Elemento Opuesto 2

()~u = (~u) = (~u)

Distributiva 1

(~u + ~v ) = ~u + ~v = (~u + ~v )

Distributiva 2

( + )~u = ~u + ~u = ~u( + )

~0 = ~0

Ejemplo 2.7. Calcular ~u (3~v + 2w)


~ siendo ~u = [3, 4], ~v = [1, 2] y w
~ = [0, 5] en 2 .
Solucin:
~u (3~v + 2w)
~ = [3, 4] (3[1, 2] + 2[0, 5]) = [3, 4] ([3, 6] + [0, 10]) = [3, 4] [3, 4] = [0, 0] = ~0
Ejemplo 2.8. Demostrar la propiedad conmutativa de la suma de vectores.
Solucin:
~u + ~v = [u1 , u2 , , un ] + [v1 , v2 , , vn ] = [u1 + v1 , u2 + v2 , , un + vn ] =
= [v1 + u1 , v2 + u2 , , vn + un ] = [v1 , v2 , , vn ] + [u1 , u2 , , un ] = ~v + ~u

Pedro Jos Hernando Oter

Clases de lgebra

70

Ejemplo 2.9. Representar grficamente la propiedad asociativa de la suma de vectores en

~)
w

~u +

~
w

w
~

(~v +

+
~v )

w
~

~u +

~u +
=(

R3 .

~v +

TEMA 2: Espacios Vectoriales

~v

~v

~u

2.3. Espacio y Subespacio Vectorial

Definicin 2.8 (Espacio Vectorial)


Se denomina espacio vectorial a todo conjunto V en el que se definen dos operaciones entre
sus elementos, llamadas suma 8 y multiplicacin por un escalar 9 , y cumplen las propiedades
algebraicas10 de los vectores n .

A los elementos de un espacio vectorial se les denomina vectores.


Ejemplo 2.10.

Kn , siendo K

R K

= , es un espacio vectorial para cualquier n 1, con las


operaciones habituales de adicin y multiplicacin por escalares ( ).

R C

El conjunto P n de los polinomios en x de grado n:


p(x) = a0 + a1 x + a2 x2 + + an xn
en el que se definen las operaciones:
adicin: (p + p0 )(x) = p(x) + p0 (x), p, p0 P n .

multiplicacin por un escalar: (cp)(x) = cp(x), p P n , c

es un espacio vectorial.

El conjunto F de todas las funciones reales de variable real en el que se definen las
operaciones:
suma: (f + g)(x) = f (x) + g(x), f, g F.

multiplicacin por un escalar: (cf )(x) = cf (x), f F, c

R.

es un espacio vectorial.
8 Tambin

llamada adicin.
operaciones pueden ser muy variadas y no necesariamente la suma y producto por un escalar definidas
anteriormente para vectores.
10 Ver la Seccin 2.2.5, pgina 69.
9 Estas

Clases de lgebra

Pedro Jos Hernando Oter

2.3. Espacio y Subespacio Vectorial

71

Un subconjunto W de un espacio vectorial V se representa mediante:


W V

W V

indicando que W est contenido en V o que W est contenido o es igual que V .

Definicin 2.9 (Subespacio Vectorial)


Un subconjunto W de un espacio vectorial V , W V , se denomina subespacio vectorial
de V si cumple las siguientes tres propiedades:
1. W contiene el elemento nulo de V .
2. W es cerrado bajo la suma, es decir, si w1 , w2 W = w1 + w2 W .
3. W es cerrado bajo el producto por un escalar, es decir, si w W y k

= kw W .

Un subespacio vectorial es un subconjunto de un espacio vectorial que cumple las propiedades de


espacio vectorial11 .

Ejemplo 2.11.

El conjunto de todos los vectores ~v = [x, y, z] 3 pertenecientes al plano12 3x+2y z = 0


es un subespacio vectorial de 3 , ya que cumplen las tres propiedades anteriores.

El conjunto de todos los vectores ~v = [x, y] 2 pertenecientes a la recta 3x + 2y = 1


no son un subespacio vectorial de 2 , ya que este conjunto no contiene al vector nulo
[0, 0] 2 .

El conjunto de todos los vectores ~v = [x, y, z, w, t] 5 que cumplen las ecuaciones13 :

x + y z + 5w t = 0
3x 5t
= 0

y + 2z w
= 0
forman un subespacio vectorial de

R5 .

Los subespacios vectoriales son objetos geomtricos 14 de


por el origen16 .

Rn de dimensin 15 no nula que pasan

Los subespacios vectoriales se pueden definir mediante un sistema de ecuaciones lineales


homogneo 17 , (para que pasen por el origen).
11 Ver

la Definicin 2.8, pgina 70.


decir, aquellos vectores ~v = [x, y, z] cuyas componentes x, y y z cumplen la ecuacin del plano.
13 Es decir, el conjunto de vectores que pertenecen al hiperplano de dimensin 5 3 = 2 en el espacio
14 Ver la Definicin 1.13, pgina 38.
15 Ver la Seccin 1.2.2, pgina 38.
16 Para que contenga el vector nulo.
17 Ver la Seccin 1.9, pgina 60.
12 Es

Pedro Jos Hernando Oter

R5 .

Clases de lgebra

72

U
P

TEMA 2: Espacios Vectoriales

Definicin 2.10 (Dimensin de un Subespacio Vectorial)


Se denomina dimensin de un subespacio vectorial a la dimensin 18 del objeto geomtrico
que representan.

Ejemplo 2.12. Determinar la dimensin del siguiente subespacio vectorial W



x1 x4 = 0
W :
x2 + x3 = 0

R5 .

Solucin: Claramente W es un subespacio vectorial al ser un objeto geomtrico definido


mediante un sistema de ecuaciones homogneo.
Su dimensin, calculada mediante la frmula de equilibrio, es:
dim(W ) = 5 2 = 3
Por tanto se trata de un hiperplano de dimensin 3 en

R5 .

2.4. Sistemas de Vectores

Definicin 2.11 (Sistema de Vectores)


Se denomina sistema de vectores a todo conjunto (finito o infinito) de vectores:
S = {~v1 , ~v2 , , ~vp , }

Rn

2.4.1. Combinacin Lineal de Vectores


Definicin 2.12 (Combinacin Lineal de Vectores)
Se dice que un vector ~v n es una combinacin lineal de un sistema de m vectores ~v1 ,
~v2 , , ~vm si existen m escalares (constantes) c1 , c2 , , cm tales que19 :

~v = c1~v1 + c2~v2 + + cm~vm =

m
X

cj ~vj

j=1

A los escalares ci se les denominan coeficientes de la combinacin lineal.

18 Ver
19 Ver

la Definicin 1.14, pgina 38 y su forma de clculo en la Definicin 1.16, pgina 40.


un resumen de la definicin y propiedades de los sumatorios en el Apndice A.3, pgina 347.

Clases de lgebra

Pedro Jos Hernando Oter

2.4. Sistemas de Vectores

73

Ejemplo 2.13. Dados los vectores de 2 : ~u = [2, 2], ~v = [3, 1], w


~ = [2, 2], ~x = [1, 2],
~y = [3, 1], determinar el vector resultante de la siguiente combinacin lineal, representando
grficamente el resultado.
1
~u + 2~v + 3w
~ + ~x + ~y
2
Solucin:
~u

Y
2

~x
~y

5 X

4
~v

3w~
1

~x
+
~y

= [5.5, 6]

+
2~v

w
~

~u

2 1
1

1
~u + 2~v + 3w
~ + ~x + ~y
2
1
= (1)[2, 2]+2[3, 1]+3[2, 2]+ [1, 2]+[3, 1]
2
= [2 + 6 6 + 0.5 + 3, 2 + 2 6 + 1 1]

2.4.2. Dependencia e Independencia Lineal


Definicin 2.13 (Dependencia e Independencia Lineal)
Se dice que un vector ~v n es linealmente dependiente de un sistema de m vectores
~v1 , ~v2 , , ~vm , si ~v es una combinacin lineal de dichos vectores.

En caso contrario, se dice que ~v


vectores.

Rn

es linealmente independiente de dichos

Nota 2.2. La dependencia lineal es transitiva: si ~v depende linealmente de unos vectores y cada uno de estos dependen
linealmente de otros, entonces ~v depende linealmente de los ltimos.

Ejemplo 2.14. Determinar si el vector ~v = [1, 0, 1, 0]


independiente de los siguientes sistemas de vectores:
a) W1 = {x1 + x2 x3 + x4 = 0}


x1 + x3 = 0
b) W2 :
4
x2 x4 = 0

R4

es linealmente dependiente o

R4

c) W3 = {[1, 0, 1, 1], [0, 0, 1, 0]}

R4

d) W4 = {[1, 0, 1, 1], [0, 0, 1, 0], [0, 0, 0, 1]}

R4
(Contina en la pgina siguiente)

Pedro Jos Hernando Oter

Clases de lgebra

74

TEMA 2: Espacios Vectoriales

Ejemplo 2.14 (Continuacin).


Solucin:
a) Como ~v no pertenece a W1 (no cumple su ecuacin), no puede obtenerse por combinacin
lineal de los vectores de W1 y por tanto es linealmente independiente de l.
b) En este caso ~v cumple las dos ecuaciones de W2 , de forma que pertenece a este plano de
4
, y por tanto por combinacin lineal de diferentes vectores de W2 se puede obtener v.
De aqu se deduce que v es linealmente dependiente de W2 .

c) En este caso hay que determinar si existen escalares x1 , x2

x1 [1, 0, 1, 1] + x2 [0, 0, 1, 0] = [1, 0, 1, 0]

Resolviendo el SEL mediante

1
0

1
1

Gauss:
0
0
1
0

1
0
F3 F1

1
F4 F1
0

1 0
0 0
0 1
0 0

R que cumplen:

1
0

1
1

0 
1


0
x1 = 0
1
1 x2
0
0

1
0

2
1

Claramente el sistema es incompatible y por tanto no existe ninguna combinacin lineal


de los vectores de W3 que genere ~v . Por tanto ~v es linealmente independiente de W3 .
d) Al igual que en el apartado anterior vamos a determinar si existen
que cumplen:

1 0
0 0
x1 [1, 0, 1, 1]+x2 [0, 0, 1, 0]+x3 [0, 0, 0, 1] = [1, 0, 1, 0] =
1 1
1 0
Resolviendo el SEL mediante

1 0
0 0

1 1
1 0

escalares x1 , x2 , x3

Gauss:
0
0
0
1

1
0
F3 F1


1 F4 F1
0

1 0 0
0 0 0
0 1 0
0 0 1

0
1
x1
0
0
x2 =
1
0
x3
1
0

1
0

2
1

Claramente el sistema es compatible20 y por tanto s existe alguna combinacin lineal de


los vectores de W4 que genera ~v . Por tanto ~v es linealmente dependiente de W4 .

20 En

este caso compatible determinado aunque igual sera si fuera compatible indeterminado.

Clases de lgebra

Pedro Jos Hernando Oter

2.4. Sistemas de Vectores

75

Definicin 2.14 (Conjunto Linealmente Dependiente)


Se dice que un sistema de vectores S = {~v1 , ~v2 , , ~vp } n es linealmente dependiente
(o ligado) si se verifica una de las siguientes condiciones, que son equivalentes entre s21 :

Alguno de los vectores de S depende linealmente de los dems.


Existen escalares 1 , 2 , , p

R, no todos nulos22 , que cumplen:

1 v~1 + 2 v~2 + + p v~p = ~0

Definicin 2.15 (Conjunto Linealmente Independiente)


Se dice que un sistema de vectores S = {~v1 , ~v2 , , ~vp } n es linealmente independiente
(o libre) si se verifica una de las siguientes condiciones, que son equivalentes entre s:

El sistema S no es linealmente dependiente, es decir, ninguno de los vectores de S


depende linealmente de los dems.
La nica combinacin lineal de vectores de S posible es la que tiene todos sus coeficientes
nulos, es decir:
1 v~1 + 2 v~2 + + p v~p = ~0
siendo los escalares 1 , 2 , , p

R.

1 = 2 = = p = 0

Ejemplo 2.15. Determinar si el conjunto de vectores V = {[1, 2, 3], [1, 1, 1], [1, 0, 1]} es
linealmente dependiente o independiente.
Solucin: Tenemos que encontrar los escalares 1 , 2 y 3 que cumplan:

1
0
1
1
1 2 + 2 1 + 3 0 = 0
0
3
1
1

Esta operacin vectorial se puede expresar en forma de producto matriz-vector como:

1
1
1
1
2
3
1 + 2 + 3
0 = 21 + 2 + 0 =
1 2 + 2 1 + 3 0 = 21 + 2 +
3
1
1
31
2
3
31 + 2 3

1
= 2
3

21 La
22 Al

1
1
1

1
1
0 2
1
3

(Contina en la pgina siguiente)

primera definicin es formal o terica y la segunda operacional o aplicada.


menos dos de ellos deben ser distintos de cero.

Pedro Jos Hernando Oter

Clases de lgebra

76

TEMA 2: Espacios Vectoriales

Ejemplo 2.15 (Continuacin).


Por tanto tenemos que analizar el SEL homogneo23 :

1 1
1
1
0
2 1
0 2 = 0
3 1 1
3
0

Si es compatible determinado, (solucin nica trivial 1 = 2 = 3 = 0), el conjunto ser


linealmente independiente, mientras que si es compatible indeterminado, (infinitas soluciones
para 1 , 2 y 3 ), el conjunto de vectores ser linealmente dependiente.
Resolviendo por Gauss:

1 1
1
1
1
1
1
1
1
F2 2F1
F3 2F2
2 1
0 0 1 2 0 1 2
F3 3F1
3 1 1
0 2 4
0
0
0

Por tanto el sistema es compatible indeterminado y por ello el conjunto de vectores es linealmente
dependiente.

2.4.3. Rango de un Sistema de Vectores


Definicin 2.16 (Rango de un Sistema de Vectores)
Se denomina rango 24 de un sistema de vectores S, al mximo nmero de vectores linealmente
independientes que hay en S. Se representa de la siguiente forma:
rang(S)

Sea S un sistema de N vectores:


Si S es linealmente independientes, el rango coincide con N , rang(S) = N .
Si S es linealmente dependiente, el rango es siempre menor que N , 1 rang(S) < N .

Ejemplo 2.16.
El rango de S = {[1, 2], [3, 2]} es rang(S) = 2, ya que los dos son linealmente independientes
(no paralelos).
El rango de G = {[1, 1, 1], [2, 2, 2], [3, 3, 3]} es rang(G) = 1, ya que slo hay un vector
linealmente independiente de los dems.
El rango de M = {[1, 2, 3], [4, 5, 6], [5, 7, 9]} es rang(M ) = 2, ya que slo hay dos vectores
linealmente independientes.
23 Ver

la Seccin 1.9, pgina 60.


trmino rango coincide con el utilizado en el rango de una matriz (ver Seccin 1.6.5, pgina 53) debido a la
relacin entre ambos conceptos, como se explica en esta seccin.
24 El

Clases de lgebra

Pedro Jos Hernando Oter

2.4. Sistemas de Vectores

77

Clculo del Rango de un Sistema de Vectores


En los casos sencillos, (con pocos vectores y de dimensin baja), el rango de un conjunto de
vectores se puede determinar fcilmente a simple vista, pero normalmente habr que determinarlo
matemticamente utilizando la definicin de dependencia lineal, Definicin 2.14, pgina 75, e
independencia lineal, Definicin 2.15, pgina 75.

Para determinar el rango de un conjunto de k vectores S = {~v1 , ~v2 , , ~vk } de n hay que calcular
el nmero de vectores linealmente independientes de S. Para ello vamos a utilizar el SEL homogneo
que aparece en la definicion de dependencia lineal25 :


~v1 ~v2 ~vk ~x = ~0
x1 v~1 + x2 v~2 + + xk v~k = ~0
=
=
A~x = ~0
en el cual las columnas de la matriz de coeficientes A

Rnk corresponden con los vectores de S.

El sistema de vectores S ser un conjunto linealmente independiente si el SEL es compatible


determinado con solucin nica trivial xi = 0.
Al resolver el SEL por Gauss aparece una matriz escalonada con k filas no nulas. En este caso
el rango de S ser k, (todos los vectores son linealmente independientes).

El sistema de vectores S ser un conjunto linealmente dependiente si el SEL es compatible


indeterminado con infinitas soluciones para las incgnitas xi .
Al resolver el SEL por Gauss aparece una matriz escalonada con r < k filas no nulas, lo que
indica que slo hay r vectores linealmente independientes26 , siendo ste el valor del rango del
sistema S.
El rango de un conjunto de vectores V corresponde con el rango de la matriz 27 A formada con
los vectores dispuestos como columnas28 .
Para rang(V ) se obtiene una matriz escalonada equivalente 29 R de A.
El rango del conjunto de vectores corresponde con el nmero de filas no nulas de R, es
decir, con rang(A).
Un conjunto de vectores linealmente independientes de V viene dado por los vectores
columna de A correspondientes a la posicin de los pivotes 30 en R.
A

~v1

~v2

~v3

~v4

~v5

2
0
0
0

1
0
0
0

2
1
0
0

0
1
1
0

1
0
1
0

Vec. lin. indep. = {~v1 , ~v3 , ~v4 }

25 Ver

el Ejemplo 2.15, pgina 75.


eliminamos de S los vectores (columnas de A) correspondientes con las filas nulas de la matriz escalonada
equivalente, resulta un sistema compatible determinado, indicando que es un conjunto de vectores linealmente
independiente.
27 Ver la Seccin 1.6.5, pgina 53.
28 En el Teorema 3.5, pgina 128 se demuestra que los vectores se pueden disponer en la matriz indistintamente como
filas o como columnas, ya que el rango de la matriz no vara.
29 Ver la Seccin 1.6.4, pgina 52.
30 Ver la Definicin 1.22, pgina 46.
26 Si

Pedro Jos Hernando Oter

Clases de lgebra

78

TEMA 2: Espacios Vectoriales

Ejemplo 2.17. Calcular el rango del siguiente conjunto de vectores de

R4 :

V = {[1, 1, 0, 1], [1, 1, 1, 1], [0, 0, 1, 0], [1, 1, 1, 1], [0, 1, 0, 1]}
Solucin: Hay que determinar el nmero de vectores linealmente independientes que hay en V .
En este caso como mnimo hay uno, ya que no todos los vectores son nulos, y como mximo
cinco, que es el nmero total de vectores de V .
Para ello construimos una matriz A 45 utilizando los vectores de V como columnas31 .

1
1 0
1 0
1
1 0
1 1

A=
0 1 1
1 0
1 1 0 1 1

Ahora calculamos el rango de A, el cual coincidir con el rango de V . Para ello encontramos una
matriz escalonada equivalente:

1
1 0
1 0
1
1 0 1 0
1
1 0
1 1
0
0 0 0 1
F2 F1


0 1 1
1 0 F4 +F1 0 1 1 1 0
1 1 0 1 1
0
0 0 0 1
Como esta matriz tiene 3 filas no nulas, el rango de A y por tanto el rango de V tambin es 3.
rang(V ) = 3

Esto indica que en V slo tres vectores del total de cinco son linealmente independientes. La
matriz escalonada informa que son el primero ~v1 = [1, 1, 0, 1], el segundo ~v2 = [1, 1, 1, 1] y
el quinto ~v5 = [0, 1, 0, 1] , correspondientes a las posiciones de los pivotes 32 (primer elemento no
nulo de cada fila).
Naturalmente esta no es la nica terna de vectores de V que son linealmente independientes,
aunque este proceso de clculo nos asegura que estos tres s lo son.
Por ejemplo en este caso podemos comprobar a simple vista, como tambin el conjunto de
vectores primero, tercero y quinto son linealmente independientes, pero no el primero, segundo
y tercero, ya que ~v1 = ~v2 + ~v3 .

2.4.4. Interpretacin Geomtrica de la Dependencia e Independencia Vectorial


Definicin 2.17 (Vectores Paralelos)
En n , se dice que dos vectores son paralelos si poseen la misma direccin, es decir:

~u k ~v ~u = ~v

a~u + b~v = ~0

Un sistema de N 2 vectores paralelos es siempre un conjunto linealmente dependiente.


31 El orden en el que coloquemos los vectores es indiferente aunque debe ser conocido para posteriormente hacer
referencia a ellos.
32 Ver la Definicin 1.22, pgina 46.

Clases de lgebra

Pedro Jos Hernando Oter

2.4. Sistemas de Vectores

79

Definicin 2.18 (Vectores Coplanarios)


En 3 , se dice que tres vectores son coplanarios si estn contenidos en el mismo plano, es
decir:

~u, ~v , w
~ coplanarios ~u = ~v + w
~

a~u + b~v + cw
~ = ~0

a, b, c

Un sistema de N 3 vectores coplanarios es siempre un conjunto linealmente dependiente.

Definicin 2.19 (Vectores Co-hiperplanarios)


En n , se dice que n vectores son co-hiperplanarios si estn contenidos en el mismo hiperplano,
y por tanto forman un conjunto linealmente dependiente.

v~1 , v~2 , v~n co-hiperplanarios v~1 = 2 v~2 + 3 v~3 + + n v~n


a1~v1 + a2~v2 + + an~vn = ~0

ai

Un sistema de N m vectores co-hiperplanarios a un hiperplano de dimensin m + 1 es siempre un


conjunto linealmente dependiente.
Ejemplo 2.18. Determinar si el siguiente conjunto de vectores de

R4 :

V = {[1, 0, 0, 1], [1, 1, 0, 0], [0, 1, 0, 1], [1, 1, 0, 2]}


es co-hiperplanario, y en caso afirmativo determinar la dimensin mnima del hiperplano al que
pertenecen y su ecuacin vectorial.

Solucin: Un sistema V de k vectores de n es co-hiperplanario si el rang(V ) = r es menor33


que n. La dimensin mnima del hiperplano al que pertenecen es r.
Determinamos en este caso el rango de V .

1 1
0
1
1
1
0
1
1 1 0
1
0 1

1 1
1
1 1
F4 F1
F4 +F2

0 1 1 1

0 0
0
0 0 0
0
0
0
0
0
0
1 0 1
2
0 1 1
1
0 0 0
0

(Contina en la pgina siguiente)

33 El

rango de cualquier conjunto de vectores de

Pedro Jos Hernando Oter

Rn slo puede ser como mximo n.

Clases de lgebra

80

TEMA 2: Espacios Vectoriales

Ejemplo 2.18 (Continuacin).


Como rang(V ) = 2, el conjunto de vectores V son coplanarios a un plano (dimensin 2), cuya
ecuacin vectorial es:
[x1 , x2 , x3 , x4 ] = t[1, 0, 0, 1] + s[1, 1, 0, 0]

t, s

Notar que hay infinitos hiperplanos de dimensin 3 que contienen a este plano y por tanto
tambin son co-hiperplanarios a estos hiperplanos pero de dimensin mayor34 .

2.5. Conjuntos o Sistemas Generadores

Definicin 2.20 (Conjunto o Sistema Generador)


Dado un sistema de vectores W , subconjunto de otro sistema de vectores V , W V , se dice
que W es un conjunto o sistema generador de V , si todo vector ~v V es linealmente
dependiente de W .
~v V

~v = c1 w1 + + ck wk

wi W

Un conjunto generador de un subespacio vectorial V n es cualquier conjunto de vectores


de V que pueden generar por combinacin lineal todos los vectores de W .

Rn no nulo tiene infinitos conjuntos generadores.


Todo conjunto generador de un subespacio V Rn de dim(V ) = d n est formado por al

Todo subespacio vectorial V

menos d vectores de V .

Ejemplo 2.19. Encontrar tres conjuntos generadores del plano de

R3 :

x + 2y z = 0

Solucin: En este caso el subespacio vectorial V 3 est formado por los infinitos vectores
de 3 que pertenecen al plano.
Como la dimensin del plano es35 3 1 = 2, cualquier conjunto de vectores de este plano
que contenga al menos dos vectores linealmente independientes ser un conjunto generador del
subespacio V .
Tiene por tanto infinitos conjuntos generadores. Por ejemplo tres de ellos son:

W1 = {[1, 0, 1], [1, 1, 3]}

W2 = {[1, 0, 1], [1, 1, 3] [1, 2, 3]}

W3 = {[2, 2, 6], [7, 4, 1], [1, 1/2, 0], [0, 1/2, 1], [2, 1, 0]}
Donde los valores [x, y, z] utilizados cumplen la ecuacin del plano x + 2y z = 0.

3 , pensar en varios vectores que son paralelos y por tanto pertenecen a una nica recta. A su vez,
34 Por ejmplo en
hay infinitos planos que contiene a esta recta y por tanto los vectores son coplanarios a estos planos.
35 Ver la Definicin 1.16, pgina 40.

Clases de lgebra

Pedro Jos Hernando Oter

2.5. Conjuntos o Sistemas Generadores

81

A travs de la notacin gen() se representa el espacio generado por combinacin lineal de los
vectores de un conjunto generador W = {w
~ 1, , w
~ k }:
gen(w
~ 1, , w
~ k ) = {~v : ~v = 1 w
~ 1 + + m w
~ k , 1 , , k

R}

2.5.1. Base y Dimensin de un Sistema de Vectores


Definicin 2.21 (Base de un Sistema de Vectores)
Una base de un sistema de vectores V es un conjunto generador formado por vectores
linealmente independientes.

Todas las bases de un subespacio vectorial W n de dim(W ) = d n son conjuntos generadores


de W que contienen exactamente d vectores linealmente independientes.

U
P

Ejemplo 2.20. De los tres conjuntos generadores del Ejemplo 2.19, pgina 80, slo el W1 es
una base de V , ya que su nmero de vectores coincide con la dimensin del subespacio vectorial
(plano de 3 ).

Definicin 2.22 (Dimensin de un Sistema de Vectores)


Al nmero de vectores que contiene cualquier base de un conjunto de vectores V se denomina
dimensin36 de V , y coincide con rang(V ) (nmero de vectores linealmente independientes).

Ejemplo 2.21. Dado el sistema de vectores S = {[1, 2], [2, 4], [3, 5], [4, 8]}, encontrar todos los
conjuntos generadores y bases de S.
Solucin: Fcilmente podemos observar que el rango de este sistema es 2, por tanto todos sus
conjuntos generadores tendrn al menos dos vectores linealmente independientes y todas sus
bases tendrn exactamente dos vectores linealmente independientes.
Hay 7 posibles conjuntos generadores:
{[1, 2], [3, 5]}, {[2, 4], [3, 5]}, {[3, 5], [4, 8]},
{[1, 2], [4, 8], [3, 5]}, {[1, 2], [2, 4], [3, 5], [4, 8]}.

{[1, 2], [2, 4], [3, 5]},

{[2, 4], [4, 8], [3, 5]},

Hay 3 posible bases:


{[1, 2], [3, 5]},

{[2, 4], [3, 5]},

{[3, 5], [4, 8]}.

36 En la Definicin 2.10, pgina 72 se establece el concepto de dimensin de un subespacio vectorial. Tener en cuenta
que estas dos definiciones son complementarias, ya que un subespacio vectorial es un sistema de infinitos vectores.

Pedro Jos Hernando Oter

Clases de lgebra

82

TEMA 2: Espacios Vectoriales

2.5.2. Generacin de

Rn

Vamos a aplicar los conceptos anteriores en la generacin de los espacios


Generacin del Espacio

Rn .

R2

Con todas las combinaciones lineales de uno o ms vectores paralelos, (linealmente dependientes),
se obtienen todos los vectores contenidos en la recta que tiene la direccin de los vectores. Por
tanto, el rango de cualquier conjunto de vectores paralelos en 2 es 1 y no pueden ser una base
de 2 .

Cualquier vector de 2 se puede obtener como combinacin lineal de dos vectores no paralelos
(linealmente independientes). Por tanto, cualquier conjunto de vectores que contenga al menos
dos vectores no paralelos, tiene rango 2, y por tanto es un conjunto generador de 2 .

R2 ser cualquier conjunto de exactamente dos vectores no paralelos.


Y

Y
~v

3~v

Y
~v

~u
X

~u 2~v

~v

~u +
2

~v
2

~u

Una base de

2~v

Base Cannica o Estndar de

R2

Tomando los dos vectores estndar37 de

R2 :

~e1 = [1, 0]

~e2 = [0, 1]

Cualquier vector de 2 de la forma ~v = [v1 , v2 ] se puede expresar como


combinacin lineal de los dos vectores estndar:

~v

~e2

~v = v1~e1 + v2~e2 = v1 [1, 0] + v2 [0, 1] = [v1 , v2 ]

~e1

Por tanto, el conjunto B = {~e1 , ~e2 } = {[1, 0], [0, 1]} es una base de

R2 .

A los vectores estndar se les suele denotar como ~i = [1, 0] y ~j = [0, 1], y a la base B = {~i, ~j} se le
denomina base cannica o estndar de 2 .

37 Ver

la Definicin 2.6, pgina 68.

Clases de lgebra

Pedro Jos Hernando Oter

2.5. Conjuntos o Sistemas Generadores


Generacin del Espacio

83

R3

Con todas las combinaciones lineales de uno o ms vectores paralelos, (linealmente dependientes),
se obtienen todos los vectores contenidos en la recta que tiene la direccin de los vectores. Por
tanto, el rango de cualquier conjunto de vectores paralelos en 3 es 1 y no pueden ser una base
de 3 .

Con todas las combinaciones lineales de al menos dos vectores coplanarios no paralelos y por
tanto linealmente independientes, slo se pueden obtener todos los vectores contenidos en el
plano descrito por los vectores. Por tanto, el rango de cualquier conjunto de vectores coplanarios
en 3 es 2 y no puede ser una base de 3 .

Cualquier vector de 3 se puede obtener como combinacin lineal de tres vectores no coplanarios.
Por tanto, el rango de cualquier conjunto de vectores que contenga al menos 3 vectores no
coplanarios en 3 es 3.

Una base de

R3 ser cualquier conjunto de exactamente tres vectores no coplanarios.

~
w

~u

~
w

~u ~v

~u
~v

~v

~
w

Base Cannica o Estndar de

R3

Tomando los vectores estndar de


~e1 = [1, 0, 0]
Cualquier vector ~v = [v1 , v2 , v3 ]

R3 :
;

~e2 = [0, 1, 0]

~e3 = [0, 0, 1]

R3 se puede expresar como combinacin lineal de estos vectores:

~v = v1~e1 + v2~e2 + v3~e3 = v1 [1, 0, 0] + v2 [0, 1, 0] + v3 [0, 0, 1] = [v1 , v2 , v3 ]


Por tanto, el conjunto B = {~e1 , ~e2 , ~e3 } = {[1, 0, 0], [0, 1, 0], [0, 0, 1]} es una base de

R3 .

~k

~i
X

~j
Y

A los vectores estndar de 3 se les suele denotar como ~i = [1, 0, 0], ~j = [0, 1, 0] y ~k = [0, 0, 1], y a
la base B = {~i, ~j, ~k} se le denomina base cannica o estndar de 3 .

Pedro Jos Hernando Oter

Clases de lgebra

84

TEMA 2: Espacios Vectoriales

Generacin del Espacio Vectorial

Rn
R

Cualquier conjunto de vectores de n co-hiperplanarios de un hiperplano de dimensin k < n


es un conjunto linealmente dependiente de rango k.

Todo conjunto V n con al menos n vectores linealmente independientes, rang(V ) = n, es


un conjunto generador38 de n .

Rn

Una base de
independientes39 .

ser cualquier conjunto de exactamente n vectores linealmente

2.5.3. Base Cannica o Estndar de

Rn
R

Definicin 2.23 (Base Cannica o Estndar de n )


La base cannica o estndar de n es aquella formada por los vectores estndar40 de

B = {~e1 , ~e2 , , ~en } = {[1, 0, 0, , 0], [0, 1, 0, , 0], , [0, 0, 0, , 1]}

Ejemplo 2.22. Completar el conjunto de vectores S para que sea una base de
S = {[1, 0, 1], [1, 1, 1]}

Rn :

Rn

R3 .

Solucin: Una base de 3 es un conjunto de 3 vectores de 3 linealmente independientes.


Claramente los dos vectores de S son linealmente independientes, (es decir, no paralelos).
Necesitamos un tercer vector ~x = [x, y, z] 3 que sea linealmente independiente de los dos
vectores de S, es decir, que por combinacin lineal de ambos no se pueda obtener ~x:


1
x
1 1 
1
x
0 1 6= y
=
0 + 1 6= y

1
z
1 1
1
z

Esto es equivalente a encontrar unos

1 1
0 1
1 1

valores x, y y z que produzcan un SEL incompatible:

x
1 1
x
F3 F1
y 0 1
y
z
0 0 zx

Por tanto, basta con que z 6= x. Hay infinitos vectores que cumplen esta condicin, por ejemplo:
~x = [x, y, z] = [0, 0, 1]

En este caso, la base de

R3 podra ser:
B = {[1, 0, 1], [1, 1, 1], [0, 0, 1]}

38 Y

por tanto, todo ~v n se puede obtener por combinacin lineal de los vectores de V .
no co-hiperplanarios.
40 Ver la Definicin 2.6, pgina 68.

39 Vectores

Clases de lgebra

Pedro Jos Hernando Oter

2.5. Conjuntos o Sistemas Generadores

85

Ejemplo 2.23. Encontrar un conjunto generador y una base del subespacio vectorial W
definido por:

x+yz = 0
W :
xy
= 0

R3

Solucin: Primero tenemos que encontrar el conjunto de los infinitos vectores de 3 que
pertenecen al subespacio W y para ello tenemos que resolver el SEL que los define. Como
las dos ecuaciones del SEL son claramente linealmente independientes41 , la dimensin de W es
3 2 = 1 y por tanto es una recta en 3 que vendr definida en forma paramtrica por un nico
parmetro. Resolviendo el SEL por Gauss:





z = 2y = 2t
F2 F1
1
1 1 0
1
1 1 0
y=t

1 1
0 0
0 2
1 0

x = y + z = t + 2t = t

En forma vectorial, el conjunto de todos los vectores de 3 que forman parte de W son:

x
1
y = t 1
;
t
z
2

Un conjunto generador de W ser cualquier conjunto formado por al menos un vector no nulo
de W , como por ejemplo cualquiera de los tres siguientes42 :
G1 = {[1, 1, 2]}

G2 = {[2, 2, 4], [1, 1, 2]}

G3 = {[3, 3, 6], [2, 2, 4], [0, 0, 0]}

Una base de W ser cualquier conjunto de vectores formado por un slo vector43 no nulo de W ,
como por ejemplo cualquiera de los dos siguientes:

B1 = {[1, 1, 2]}

B2 = {[2, 2, 4]}

Ejemplo 2.24. Encontrar un conjunto generador y una base del subespacio vectorial W
donde sus vectores ~v = [x, y, z, w, t] cumplen:

R5

W : x+yz =0
Solucin: En este caso la dim(W ) = 5 1 = 4, por tanto habr 4 parmetros libres en su
definicin vectorial. Resolviendo el SEL de una ecuacin con 5 incgnitas se tiene:

x = y z = +
x
1
1
0
0

1
0
0 0
y=
y

z=
z = 0 + 1 +
0
0
+

; , , ,

w
0
0
1 0
w=

t=
t
0
0
0
1

Dando valores a los parmetros , , y se obtienen todos los vectores del subespacio W .

(Contina en la pgina siguiente)


41 Ver

la Seccin 1.4.2, pgina 45.


vectores se obtienen de la solucin en forma paramtrica, dando valores al parmetro t.
43 Ya que la dimensin de W es uno.
42 Estos

Pedro Jos Hernando Oter

Clases de lgebra

86

TEMA 2: Espacios Vectoriales

Ejemplo 2.24 (Continuacin).


Un conjunto generador de W estar formado por al menos 4 vectores44 linealmente
independientes de W , como por ejemplo, cualquiera de los dos siguientes:



1
1

1 0
, 1 ,
0
G1 =

0 0

0
0

0
0
0
1
0

0
0
0
0
1



2
1

1 0

2
0
;
G
=
,
2

0 0

0
0

0
0
0
1
0

0
0
0
0
8

0
1
1
0
0

Una base de W est formada por cualquier conjunto de exactamente 4 vectores linealmente
independientes de W , como los dos ejemplos siguientes:

B1 = G1



0
2
1

1 0 0

0
B2 =
, 2 , 0

0 0 1

0
0
0

0
0
0
0
8

2.6. Producto Escalar

Los vectores poseen multitud de aplicaciones en ingeniera. Muchas de ella pueden ser fcilmente
desarrolladas mediante una importante operacin vectorial denominada producto escalar45 .

Definicin 2.24 (Producto Escalar en n )


Dados dos vectores ~u, ~v n , se define el producto escalar de ~u por ~v y lo representamos
por ~u ~v como el escalar resultante de la siguiente operacin:

~u ~v = [u1 , u2 , , un ] [v1 , v2 , , vn ] = u1 v1 + u2 v2 + + un vn =

Ejemplo 2.25. Calcular el producto escalar de los vectores de


~u = [1, 2, 3]

n
X

uk vk

k=1

R3 :

~v = [3, 5, 2]

Solucin:
~u ~v = [1, 2, 3] [3, 5, 2] = 1 (3) + 2 5 + (3) 2 = 3 + 10 6 = 1

44 Ya

45 En

que este valor es la dimensin del subespacio vectorial W .


algunos libros de texto lo denominan producto punto, siguiendo la terminologa anglosajona.

Clases de lgebra

Pedro Jos Hernando Oter

2.7. Distancia y Norma en

Rn

87

Nota 2.3.
No confundir el producto escalar de dos vectores, con el producto por un escalar 46 , c~v .
Los dos vectores tienen que tener igual dimensin (nmero de componentes).
El resultado siempre es un escalar (nmero real), no un vector.
El producto escalar es un caso especial del producto ms general denominado producto interno, definido para
espacios vectoriales generales47

2.6.1. Propiedades del Producto Escalar


Dados los vectores ~u, ~v , w
~

Rn y c R, se verifica:

Conmutativa: ~u ~v = ~v ~u
Distributiva: ~u (~v + w)
~ = ~u ~v + ~u w.
~
Asociativa: (c~u) ~v = c(~u ~v ) = ~u (c~v )
~u ~u 0.

Si ~u ~u = 0 ~u = ~0.

2.7. Distancia y Norma en

Rn

La distancia48 entre dos puntos A y B de

Rn viene definida por el nmero real no negativo:

A(a1 , , an )
B(b1 , , bn )

d(A, B) = d(B, A) =

v
u n
uX
2
2
(a1 b1 ) + (an bn ) = t (ai bi )2
i=1

A esta distancia se le denomina distancia eucldea.

2.7.1. Propiedades de la Distancia


Dados dos puntos A, B
d(A, B)

R.

Rn , se verifica:

d(A, B) 0

d(A, B) = 0 A = B = d(X, X) = 0 X

Rn

d(A, B) = d(B, A)

2.7.2. Distancia de un Punto al Origen


Dado A(x1 , x2 , , xn )

Rn con xi R, se tiene:

d(A, ~0) =
46 Ver

v
u n
q
uX
(x1 0)2 + (xn 0)2 = x21 + x2n = t
x2i
i=1

la Seccin 2.2.2, pgina 67.


la Definicin 2.8, pgina 70.
48 Ver el Apndice A.6, pgina 353.
47 Ver

Pedro Jos Hernando Oter

Clases de lgebra

88

TEMA 2: Espacios Vectoriales

Si

Caso especial:

Nota 2.4.

Rn = R

d(A, 0) =

x2 = |x|

2.7.3. Norma de un Vector en

(valor absoluto de x).

Rn
R

Definicin 2.25 (Norma de un Vector en n )


Se define la norma de un vector ~v = [v1 , , vn ]
extremo del vector y se identifica por k~v k.
k~v k =

Rn

como la distancia del origen al

v
v
u n
u n

uX
uX
2
2
2
t
v1 + vn =
vi = t
vi vi = ~v ~v
i=1

i=1

Esta norma se la denomina norma eucldea o norma 2.

Nota 2.5. Adems de la norma 2 o eucldea se definen otras normas muy utilizadas, como son la norma 1, la norma
n y la norma infinito, las cuales tienen diferentes aplicaciones.

2.7.4. Propiedades de la Norma


Dado un vector ~v

Rn y un escalar R, se verifica:

~v 6= ~0

k~v k > 0 ,

k~v k = ||k~v k

Dem: k~v k =

k~0k = 0

(~v ) (~v ) =

2 (~v ~v ) =

2 ~v ~v = || k~v k

Desigualdad de Cauchy-Schwarz : |~u ~v | k~uk k~v k


Dem: Ver Ejemplo 2.28, pgina 93.

Desigualdad Triangular : k~u + ~v k k~uk + k~v k


Dem:

k~u + ~v k2 = (~u + ~v ) (~u + ~v ) = ~u ~u + ~u ~v + ~v ~u + ~v ~v = ~u ~u + 2(~u ~v ) + ~v ~v =


cs

= k~uk2 + 2(~u ~v ) + k~v k2 k~uk2 + 2|~u ~v | + k~v k2 k~uk2 + 2k~ukk~v k + k~v k2 = (k~uk + k~v k)2
=

Nota 2.6.

~v

~u +

~v

~u

~u

k~u + ~v k k~uk + k~v k

Descripcin grfica de la desigualdad triangular en

R2 .

~v

Clases de lgebra

Pedro Jos Hernando Oter

2.8. Espacio Eucldeo

89

2.7.5. Vectores Unitarios y Normalizacin


Definicin 2.26 (Vector Unitario)
Se dice que un vector ~v n es unitario si su norma es la unidad.

~v vector unitario k~v k = 1

Cualquier vector ~v n no nulo se puede transformar en unitario dividiendo por la norma del
vector, de la siguiente forma:


1
1
x1
xn
~v = [x1 , x2 , , xn ] = ~u =
~v =
[x1 , x2 , , xn ] =
, ,
k~v k
k~v k
k~v k
k~v k
Comprobacin:
k~uk =

|xn |2
|x1 |2
+ +
=
2
k~v k
k~v k2

|x1 |2 + + |xn |2
=
k~v k2

k~v k2
= 1=1
2
k~v k

Se denomina normalizar un vector al proceso de obtener un vector unitario ~u a partir de un


vector dado ~v .
El nuevo vector unitario ~u tiene la misma direccin y sentido que el vector original ~v pero con
norma 1.

2.8. Espacio Eucldeo

Definicin 2.27 (Espacio Eucldeo)


Un espacio eucldeo es un espacio vectorial 49 normado sobre los nmeros reales de dimensin
finita, en cual la norma 50 est asociada al producto escalar 51 estndar.

La recta real ( ), el plano eucldeo ( 2 ) y el espacio tridimensional eucldeo ( 3 ) son casos especiales
de espacios eucldeos de dimensiones 1, 2 y 3 respectivamente. El concepto abstracto de espacio
eucldeo generaliza estas construcciones a ms dimensiones ( n ).

49 Ver

la Definicin 2.8, pgina 70.


la Seccin 2.7.3, pgina 88.
51 Ver la Seccin 2.6, pgina 86.
50 Ver

Pedro Jos Hernando Oter

Clases de lgebra

90

TEMA 2: Espacios Vectoriales

2.9. Relaciones entre Vectores

2.9.1. Distancia entre dos Vectores


Definicin 2.28 (Distancia entre dos Vectores)
Dados dos vectores ~u, ~v n se define la distancia entre ellos como:

k~u ~v
k
~u

d(~u, ~v ) = k~u ~v k = k~v ~uk = d(~v , ~u)

~v
X

Nota 2.7. La definicin de distancia entre vectores coincide con la definicin de distancia entre puntos de
se muestra a continuacin:
v
u n
q
uX
n
2
2
A, B
=
d(A, B) = d(B, A) = (a1 b1 ) + (an bn ) = t
(ai bi )2

Rn , como

i=1

~v , ~
u

Rn

v
u n
q
uX
2
2
(ui vi )2
d(~v , ~
u) = d(~
u, ~v ) = (u1 v1 ) + (un vn ) = t
i=1

2.9.2. ngulo entre dos Vectores en

R2

Vamos a determinar el ngulo entre dos vectores ~v1 , ~v2



Y
~v1 = [x1 , y1 ]
~v2 = [x2 , y2 ]
~v
1

~v2

1 2
X

R2 , siendo 1 y 2 sus respectivos ngulos.


= |1 2 |

sen 1 =

y1
k~v1 k

sen 2 =

y2
k~v2 k

cos 1 =

x1
k~v1 k

cos 2 =

x2
k~v2 k

Teniendo en cuenta que: cos(a b) = cos a cos b + sen a sen b, se tiene:


cos = cos(1 2 ) = cos 1 cos 2 + sen 1 sen 2 =
Despejando:
k~v1 kk~v2 k cos = x1 x2 + y1 y2 = ~v1 ~v2

x1 x2
y1 y2
+
k~v1 k k~v2 k k~v1 k k~v2 k

cos =

~v1 ~v2
k~v1 k k~v2 k

Nota 2.8. El ngulo siempre se mide en radianes. La relacin entre grados sexagesimales y radianes viene dada
mediante la frmula: radianes = (grados 2)/360

Clases de lgebra

Pedro Jos Hernando Oter

2.10. Vectores Ortogonales

91

2.9.3. ngulo entre dos Vectores en

Rn

Generalizando la definicin anterior a dos vectores no nulos ~v1 , ~v2


cos =

Rn :

~v1 ~v2
k~v1 k k~v2 k

Nota 2.9. Desde un punto de vista geomtrico, slo tiene sentido el ngulo entre vectores de
un punto de vista matemtico, dicha expresin en n tiene mltiples aplicaciones.

2.9.4. Definicin Alternativa del Producto Escalar en

R2 y R3 , aunque desde

Rn

Definicin 2.29 (Producto Escalar en n )


Dados dos vectores ~u, ~v n , se define el producto escalar de ~u por ~v como el nmero
(escalar) resultado de la siguiente operacin:

~u ~v = k~uk k~v k cos


donde es el ngulo entre ~u y ~v .

Recordamos que la primera definicin dada52 del producto escalar en

Rn fue:

~u ~v = [u1 , u2 , , un ] [v1 , v2 , , vn ] = u1 v1 + u2 v2 + + un vn =

n
X

u k vk

k=1

2.10. Vectores Ortogonales

Definicin 2.30 (Vectores Ortogonales)


Se dice que dos vectores ~u, ~v n son ortogonales si su producto escalar es cero.

~u ~v = 0

Nota 2.10.

El vector nulo ~0 = [0, , 0]

~u, ~v ortogonales

Rn , es ortogonal a cualquier vector ya que:

~v ~0 = 0 ;

~v

Rn

Rn dos vectores no nulos ~u y ~v son ortogonales si el ngulo entre ellos es 2 = 90 .


En R2 y R3 , desde un punto de vista geomtrico, los vectores ortogonales se dice que son

En

perpendiculares.

52 Ver

la Definicin 2.24, pgina 86.

Pedro Jos Hernando Oter

Clases de lgebra

92

TEMA 2: Espacios Vectoriales

Ejemplo 2.26. Ejemplo de vectores ortogonales en

cos =

~u

R2 y R3 .

~u ~v
0
=
=0
k~uk k~v k
k~uk k~v k

~u ~v = 0

~u ~v

=
En

R2

= arccos 0 =
y

R3

~v
El concepto de ortogonalidad es muy importante dentro de las matemticas. Su significado es ms
amplio que el puramente geomtrico y por ejemplo se habla de polinomios ortogonales, soluciones
ortogonales, campos ortogonales, etc.

Nota 2.11.

~v

Si ~
u ~v

~u

~v

Por el teorema de Pitgoras:


k~
u + ~v k2 = k~
uk2 + k~v k2

~u

2.11. Proyeccin Ortogonal

Definicin 2.31 (Proyeccin Ortogonal)


Dados dos vectores ~u, ~v n se denomina proyeccin ortogonal53 de ~v sobre ~u al vector
de n resultado de la siguiente operacin:

~u ~v

~u ~u





~u ~v
~u ~v
proy~u (~v ) =
~u

~u ~u

~u ~u




~u ~v

~u
(prod. por un escalar)

~u ~u

R
R

R
R

53 La palabra proyeccin proviene del latn proiectio, de proficere; de pro=delante y facere=hacer. Desde de un punto
de vista geomtrico, la proyeccin es la representacin grfica de un objeto sobre una superficie plana, obtenida al unir
las intersecciones sobre dicho plano de las lneas proyectantes de todos los puntos del objeto desde un determinado
vrtice. La proyeccin ortogonal es un tipo de proyeccin perpendicular.

Clases de lgebra

Pedro Jos Hernando Oter

2.11. Proyeccin Ortogonal

93

2.11.1. Interpretacin Geomtrica en

R2 y R3

La proyeccin ortogonal de un vector ~u sobre otro vector ~u, proy~u (~v ), coincide geomtricamente con
el vector sombra de ~v sobre ~u.
Denominando p~ al vector sombra de ~v sobre ~u, se cumple:

~v

p~

p~ = k~
pk

~u

Por trigonometra:

k~
p k = k~v k cos = k~v k

Finalmente:

p~ =

~
u~
v
k~
uk k~
vk

1
~u
k~uk

~
u~
v
k~
uk

~u ~v ~u
~u ~v
~u =
=
k~uk k~uk
k~uk2

~u ~v
~u ~u

~u

El vector proyeccin ortogonal, p~ = proy~u (~v ), siempre tiene la direccin del vector ~u y su sentido
viene dado por el vector ~v .

~v

p~

~u

Nota 2.12.

~u

~v

~v

~p

p~

~u

En grficos 3D las proyecciones ortogonales son muy tiles para determinar sombras, reflexiones, etc.

Ejemplo 2.27. En 2 encontrar la proyeccin ortogonal de ~v = [1, 3] sobre ~u = [2, 1].


Solucin:



~u ~v
~u ~v = [2, 1] [1, 3] = 2(1) + 1(3) = 2 + 3 = 1
proy~u (~v ) =
~u =
~
u ~u = [2, 1] [2, 1] = 2(2) + 1(1) = 4 + 1 = 5
~u ~u
Y
~v 3



1
2 1
proy~u (~v ) = [2, 1] =
,
5
5 5

2
~u

Ejemplo 2.28. De forma geomtrica y por el teorema de Pitgoras es evidente que


kproy~u (~v )k k~v k. Demostrar que esta expresin es equivalente a la desigualdad de CauchySchwarz 54 : |~u ~v | k~ukk~v k.
Solucin:





~u ~v
~u ~v
~u ~v





k~uk = |~u ~v | k~uk = |~u ~v | = |~u ~v | k~v k
kproy~u (~v )k =
~u =
k~uk =
~u ~u
~u ~u
k~uk2
k~uk2
k~uk
k~uk
54 Ver

la Seccin 2.7.4, pgina 88.

Pedro Jos Hernando Oter

Clases de lgebra

94

TEMA 2: Espacios Vectoriales

Ejemplo 2.29. En 3 , encontrar un vector ~v cuya proyeccin ortogonal sobre el vector


~u = [1, 1, 1] es el vector p~ = [2, 2, 2].
Solucin: Teniendo en cuenta la definicin de proyeccin ortogonal se tiene:


~u ~v
p~ = proy~u (~v ) =
~u = (~u ~u)~
p = (~u ~v )~u
~u ~u
Teniendo en cuenta que:
~u ~u = [1, 1, 1] [1, 1, 1] = 3

(~u ~u)~
p = 3[2, 2, 2] = [6, 6, 6]

y suponiendo que las coordenadas del vector ~v son [x, y, z], (valores que queremos conocer):
~u~v = [1, 1, 1][x, y, z] = xy+z

(~u~v )~u = (xy+z)[1, 1, 1] = [xy+z, x+yz, xy+z]

Por tanto:
(~u ~u)~
p = (~u ~v )~u ; [6, 6, 6] = [x y + z, x + y z, x y + z]
Donde tenemos que las coordenadas de ~v deben cumplir la ecuacin55 :
xy+z =6
Por tanto existen infinitos vectores ~v posibles, que estn contenidos en el plano anterior. Una
posible solucin sera por ejemplo ~v = [1, 0, 5].

Ejemplo 2.30. Encontrar una base del conjunto de vectores cuya proyeccin ortogonal sobre
el vector ~u = [1, 1, 0] 3 , es ortogonal al vector w
~ = [0, 1, 1].
Solucin: Sea la solucin buscada los vectores ~v = [x, y, z] 3 , entonces la proyeccin
ortogonal de ~v sobre ~u = [1, 1, 0] ser el vector:

proy~u (~v ) =

[1, 1, 0] [x, y, z]
xy
~u ~v
~u =
[1, 1, 0] =
[1, 1, 0]
~u ~u
[1, 1, 0] [1, 1, 0]
2

Para que estos vectores sean ortogonales al vector w


~ = [0, 1, 1] se tiene que cumplir:
xy
yx
[1, 1, 0] [0, 1, 1] =
=0
2
2
Por tanto el conjunto S

x=y

R3 de vectores ~v que verifican esa condicin son:


S = {[x, x, z] R3 : x, z R}

Como la ecuacin que define este conjunto de vectores x y = 0 es un plano de 3 , una base de
este conjunto sern dos vectores cualesquiera de ese plano que no sean paralelos. Por ejemplo:
BS = {[1, 1, 0], [0, 0, 1]}

55 Obtenemos

Clases de lgebra

un sistema de tres ecuaciones linealmente dependientes y slo una de ellas da informacin til.

Pedro Jos Hernando Oter

2.11. Proyeccin Ortogonal

95

Nota 2.13. El Ejemplo 2.30 tambin se puede resolver mediante una interpretacin geomtrica sencilla: como la
proyeccin de la solucin ~v sobre ~
u son vectores con direccin ~
u, todos los vectores ortogonales a este vector formarn
un plano con vector normal ~
u, y por tanto de ecuacin general x y = 0. Una base de este subespacio (plano) sern
dos vectores contenidos en el plano linealmente independientes, por ejemplo [1, 1, 0] y [0, 0, 2].

2.11.2. Vector Perpendicular


Definicin 2.32 (Vector Perpendicular)
Dados dos vectores ~u, ~v n , se define el vector perpendicular a ~u segn el vector ~v como:

~v
~u

perp~u (~v ) = ~v proy~u (~v ) = ~v

perp~u(~v )

proy~u (~v)

~u ~v
~u ~u

~u

Este vector es ortogonal a ~u con un tamao proporcional a ~v .

Todo vector ~v n se puede definir en funcin de cualquier otro vector ~u


la siguiente forma:
~v = proy~u (~v ) + perp~u (~v )

Rn , no paralelo a ~v, de

Ejemplo 2.31. En 2 encontrar el vector perpendicular a ~u = [2, 1] segn el vector ~v = [1, 3]


y representar grficamente el resultado.
Solucin: El vector pedido ser:
perp~u (~v ) = ~v proy~u (~v )
El vector perpendicular ya se calcul en el Ejemplo 2.27, siendo:


2 1
proy~u (~v ) =
,
5 5
Por tanto:

perp~u (~v ) = ~v proy~u (~v ) = [1, 3] [2/5, 1/5] = [7/5, 14/5]

Grficamente podemos ver los siguientes resultados:

~v

3
2

perp

Pedro Jos Hernando Oter

~u

1
1

Clases de lgebra

96

TEMA 2: Espacios Vectoriales

2.11.3. Aplicaciones Geomtricas de la Proyeccin Ortogonal

R R

A continuacin se muestran algunas frmulas practicas en la determinacin de distancias en 2 y 3 ,


obtenidas mediante consideraciones geomtricas y utilizando el concepto de proyeccin ortogonal56
Distancia de un Punto A a un Recta en

R2 y R3

Para calcular la distancia d de un punto A a una determinada recta, podemos utilizar la proyeccin
ortogonal de la siguiente forma:

1. Tomamos un punto P cualquiera de la recta y formamos el vector57 P A.

2. Calculamos la proyeccin ortogonal de P A sobre el vector director de la recta ~v .

3. La distancia buscada sera la norma del vector diferencia P A proy~v (P A).

Ab

~v
b

d = kP A proy~v (P A)k

Ejemplo 2.32. En

P
~v

: Punto cualquiera de la recta.


: Vector director de la recta.

R2 encontrar la distancia entre el punto P = (2, 2) y la recta:


`:

x
y




1
1
+t
2
1

Solucin: Tomamos un punto cualquiera de la recta, por ejemplo para t = 1 se tiene P = (0, 1).

Entonces calculamos el vector P A y su proyeccin ortogonal sobre el vector director de la recta


~v = [1, 1]. Finalmente aplicamos la frmula de la distancia punto-recta.

Ab
d

~v
b

d = kP A proy~v (P A)k

P A = [2, 2] [0, 1] = [2, 1]

[1, 1] [2, 1]
1
proy~v (P A) =
[1, 1] = [1, 1]
[1, 1] [1, 1]
2

1
3 3
3
d = kP A proy~v (P A)k = k[2, 1] [1, 1]k = k[ , ]k =
2
2
2 2
2
56 En

el Apndice A.9, pgina 358, se encuentran algunas frmulas alternativas.



calcular indistintamente P A AP .

57 Podemos

Clases de lgebra

Pedro Jos Hernando Oter

2.11. Proyeccin Ortogonal

97

Ejemplo 2.33. Utilizando el concepto de proyeccin ortogonal, encontrar la distancia del punto
A = (1, 1, 0) a la recta:

x+yz = 1
` :
xyz = 0

Solucin: Vamos a utilizar la frmula anterior. Conocido el punto A de los datos del problema,
se necesita un punto de la recta P y un vector director de la misma ~v . Para obtenerlos, vamos
a expresar la ecuacin general de la recta en su forma vectorial, resolviendo el SEL por Gauss.





x = 1 y + z = 1 21 + t = 12 + t
1
1 1
1
1
1 1 1
F2 F1
1
y = 1

=
2 = 2
1 1 1 0
0 2
0 1

z=t
A travs de la forma vectorial se puede obtener fcilmente un punto y el vector director58 :


1 1
x
1/2
1
P =
2, 2, 0
y = 1/2 + t 0 =

z
0
1
~v = [1, 0, 1]

Vamos ahora a calcular los vectores P A y proy~v (P A).



 


1 1
1 3
[1/2, 3/2, 0] [1, 0, 1]
1
P A = (1, 1, 0)
, ,0 =
, , 0 ; proy~v (P A) =
[1, 0, 1] = [1, 0, 1]
2 2
2 2
[1, 0, 1] [1, 0, 1]
4
Finalmente:
r


 
 
 r
1 3 1
1 3
1
1
38
38
1
9
1




+ +
=
=
d = , , 0 , 0, = , , =
2 2
4
4
4 2 4
16 4 16
16
4
Distancia entre dos Rectas paralelas en

R2 y R3

Este caso es semejante al anterior, tomando un punto cualquiera P2 de una de las rectas y calculando
la distancia de ese punto a la otra recta.

P2

~v

b
b

P1

d = kP1 P2 proy~v (P1 P2 )k

P1
P2

~v

: Pto cualquiera de la recta 1.


: Pto cualquiera de la recta 2.
: Vector director de las rectas.

58 Como punto P se puede tomar cualquiera de la recta, que se obtienen dando valores al parmetro t Lo ms sencillo
es tomar el punto para t = 0, como se ha hecho en este caso. Tambin como vector director se puede tomar cualquier
vector paralelo al vector [1, 0, 1].

Pedro Jos Hernando Oter

Clases de lgebra

98

TEMA 2: Espacios Vectoriales

R3 encontrar la distancia entre las siguientes dos rectas paralelas:

Ejemplo 2.34. En


x
1
1
`1 : y = 0 + s 1
z
1
1



x
0
1
`2 : y = 1 + t 1
z
1
1

Solucin: Tomamos un punto cualquiera de la primera recta, por ejemplo para s = 0 se tiene
P2 = (1, 0, 1). Entonces calculamos la distancia de P2 a la recta `2 .

d = kP1 P2 proy~v (P1 P2 )k

P1 P2 = [1, 0, 1][0, 1, 1] = [1, 1, 2]

[1, 1, 1] [1, 1, 2]
2
proy~v (P1 P2 ) =
[1, 1, 1] =
[1, 1, 1]
[1, 1, 1] [1, 1, 1]
3



1
2
5 1 4
1p 2
5 + (1)2 + (4)2 =
42
P1 P2 proy~v (P1 P2 ) = [1, 1, 2]
[1, 1, 1] =
,
,
; d=
3
3 3 3
3
3

42
d=
3
Distancia de un Punto A a un Plano en

R3

En este caso podemos utilizar la proyeccin ortogonal de la siguiente forma:

1. Tomamos un punto P cualquiera del plano y formamos el vector P A.

2. Calculamos la proyeccin ortogonal de P A sobre el vector normal al plano ~n.

3. La distancia buscada coincide con la norma del vector proyeccin proy~v (P A).
~n
A

d = kproy~n (P A)k

d
P

Ejemplo 2.35. En

P
~n

: Punto cualquiera del plano.


: Vector normal al plano.

R3 encontrar la distancia entre el punto A = (1, 0, 1) y el plano xy+z = 1.

Solucin: En este caso un vector normal al plano es ~n = [1, 1, 1] y punto del plano puede ser
por ejemplo P = (1, 0, 0), por tanto:

P A = [1, 0, 1] [1, 0, 0] = [0, 0, 1]

[1, 1, 1] [1, 0, 0]
1
proy~n (P A) =
[1, 1, 1] = [1, 1, 1]
[1, 1, 1] [1, 1, 1]
3

1
d=
1+1+1=
3

Clases de lgebra

3
3

Pedro Jos Hernando Oter

2.11. Proyeccin Ortogonal

99

Distancia entre dos Planos Paralelos en

R3

Este caso es semejante al anterior, tomando un punto cualquiera P1 de uno de los planos y calculando
la distancia de ese punto al otro plano.

~n
b

P1

P2
d = kproy~n (P1 P2 )k

~n

P1

d
b

Ejemplo 2.36. En

R3 encontrar la distancia entre los dos planos paralelos:

M1 : x + y + z = 1

M2 : x + y + z = 3

Solucin: Tomamos un punto perteneciente al primer plano P1 = (1, 0, 0) y calculamos la


distancia de P1 al plano M2 . Para ello tomamos un segundo punto M2 , P2 = (1, 1, 1) y el un
vector normal del mismo ~n = [1, 1, 1]. Aplicando la frmula anterior se tiene:

P1 P2 = [1, 1, 1] [1, 0, 0] = [0, 1, 1]

[1, 1, 1] [0, 1, 1]
2
[1, 1, 1] = [1, 1, 1]
proy~n (P1 P2 ) =
[1, 1, 1] [1, 1, 1]
3

2 3
d=
3

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

P2

: Pto cualquiera del plano 1.


: Pto cualquiera del plano 2.
: Vector normal a los planos.

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Matrices
Contenido
3.0
3.1

3.2

3.3
3.4

3.5

3.6

3.7

Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.0.1 Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . .
Operaciones Bsicas con Matrices . . . . . . . . . . . . . . . . . . . .
3.1.1 Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Producto de un Escalar por una Matriz . . . . . . . . . . . .
3.1.3 Diferencia o Resta de Matrices . . . . . . . . . . . . . . . . .
3.1.4 Propiedades de la Suma y la Multiplicacin por un Escalar . .
3.1.5 Espacio Vectorial de Matrices . . . . . . . . . . . . . . . . . .
3.1.6 Combinacin Lineal de Matrices . . . . . . . . . . . . . . . . .
Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Propiedades de la Multiplicacin de Matrices . . . . . . . . .
3.2.2 Potencia de Matrices Cuadradas . . . . . . . . . . . . . . . . .
3.2.3 Producto Matricial Matriz-Vector . . . . . . . . . . . . . . . .
3.2.4 Producto Matricial Vector-Vector . . . . . . . . . . . . . . . .
3.2.5 Producto Matriz-Vector Estndar . . . . . . . . . . . . . . . .
Expresin Matricial de un SEL . . . . . . . . . . . . . . . . . . . . . .
Matriz Transpuesta AT . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Matriz Simtrica y Antisimtrica . . . . . . . . . . . . . . . .
3.4.2 Propiedades de la Matriz Transpuesta . . . . . . . . . . . . .
Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.1 Clculo de la Matriz Inversa: Mtodo de Gauss-Jordan . . . .
3.5.2 Inversa y SEL . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.3 Operaciones con la Matriz Inversa . . . . . . . . . . . . . . . .
Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1 Introduccin: Determinantes de Matrices 2 2 . . . . . . . .
3.6.2 Determinantes de Matrices 3 3 . . . . . . . . . . . . . . . .
3.6.3 Regla de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.4 Determinantes de Matrices n n . . . . . . . . . . . . . . . .
3.6.5 Clculo del Determinante mediante Desarrollos de Laplace . .
3.6.6 Determinantes e Inversa de una Matriz . . . . . . . . . . . . .
3.6.7 Propiedades de los Determinantes . . . . . . . . . . . . . . . .
3.6.8 Mtodo de Gauss para el Clculo del Determinante . . . . . .
3.6.9 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.10 Matriz Adjunta e Inversa de una Matriz . . . . . . . . . . . .
Subespacios Fundamentales de una Matriz . . . . . . . . . . . . . . .
3.7.1 Espacios Columna y Fila de una Matriz . . . . . . . . . . . .
3.7.2 Propiedades de las Matrices Equivalentes por Filas . . . . . .
3.7.3 Rango, Ncleo y Nulidad de una Matriz . . . . . . . . . . . .
3.7.4 Teorema del Rango de las Matrices . . . . . . . . . . . . . . .
3.7.5 Teorema Fundamental de las Matrices Invertibles . . . . . . .
3.7.6 Bases para los Espacios Fila, Columna y Nulo de una Matriz

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

103
104
106
106
106
106
107
107
107
108
109
109
110
110
111
111
112
112
112
114
114
116
116
116
116
117
118
118
120
121
121
122
122
124
125
125
128
128
131
133
133

101

Clases de lgebra

Resta

Suma

Tipos

Definiciones

Prod. por Escalar

Basicas

Propiedades

Transpuesta

M. Simtrica

Matriz-Vector

Producto

Matriz-Matriz

Operaciones

Definicin

Met. Gauss-Jordan

Clculo

Inversa

Matrices

Propiedades

Definicin

Clculo

Determinante

S. Fila

Propiedades

S. Columna

Tipos

Rango

Ncleo

Propiedades

Teo. Fund. Mat. Inv.

Nulidad

Subespacios Mat.

Bases

102
TEMA 3: Matrices

Pedro Jos Hernando Oter

3.0. Matrices

103

3.0. Matrices

Definicin 3.1 (Matriz)


Una matriz es una disposicin de nmeros ordenados en filas y columnas.
Una matriz A de m filas y n columnas se denota por Amn y las representaremos mediante
corchetes cuadrados de la siguiente forma:

a11 a12 a1n


a21 a22 a2n

;
aij
;
A = [aij ] mn
Amn = .
..
..
..

.
.

am1

am2

amn

El orden, dimensin o tamao de una matriz es la cantidad de filas y columnas que


posee, (m n).

Se denominan elementos diagonales de la matriz Amn = [aij ] a los elementos aii


que poseen igual fila que columna.




Al conjunto de todos los elementos diagonales se denomina diagonal principal. Se
definen las subdiagonales como aquellas diagonales por encima y por debajo de la
diagonal principal.
Si las n columnas de la matriz Amn son los vectores ~c1 , ~c2 , , ~cn
representarla como un vector de vectores columna:

a1i
a2i



A = ~c1 ~c2 ~cn


;
~ci = .
..

Rm , podemos

ami

Si las m filas de la matriz Amn son los vectores f~1 , f~2 , , f~m
representarla como un vector de vectores fila:
~
f1
f~2

A= .
..
f~m

f~i =

~ai1 ~ai2

~ain

Rn ,

podemos

Definicin 3.2 (Matrices Iguales)


Se dice que dos matrices son iguales si poseen las mismas dimensiones (nmero de filas y
columnas) y si son iguales todos sus correspondientes elementos.

Pedro Jos Hernando Oter

Clases de lgebra

104

TEMA 3: Matrices

3.0.1. Tipos de Matrices


Matriz Fila: Matriz formada por una nica fila.

A1n = a11 a12

a1n

Es equivalente a un vector fila.

Matriz Columna: Matriz formada por una nica columna.

a11
a21

Am1 = .
..
am1
Es equivalente a un vector columna.

Matriz Nula, 0mn : Matriz con todos sus elementos iguales a cero.
{0mn = [aij ] : aij = 0, 0 i m, 0 j n}

0 0 0
0 0 0

0mn = . .
..
.. ..
.
0 0 0

Matriz Cuadrada: Matriz con igual nmero de filas que de columnas.

a11 a12 a1n


a21 a22 a2n

Ann = .
..
..
..
.
.
an1 an2 ann

Matriz Triangular Superior: Matriz cuadrada donde sus entradas por debajo de la diagonal
principal son cero.
{Ann = [aij ] : aij = 0 si i > j}

Dn = . .
..
.. ..
.
0 0

Matriz Triangular Inferior: Matriz cuadrada donde sus entradas por encima de la diagonal
principal son cero.
{Ann = [aij ] : aij = 0 si i < j}

0 0
0

Dn = . .
..
.. ..
.

Clases de lgebra

Pedro Jos Hernando Oter

3.0. Matrices

105

Matriz Diagonal: Matriz cuadrada donde sus entradas no diagonales son cero.
{Ann = [aij ] : aij = 0 si

a11 0
0 a22

Dn = .
..
..
.
0

i 6= j}

0
0

..
.

ann

Matriz Tridiagonal: Matriz cuadrada con elementos no todos nulos en la diagonal principal
y en las subdiagonales justo por encima y por debajo de la principal, siendo el resto de los
elementos cero.

a11 a21

0
a21 a22 a23

0 a31 a32
a33

..
..

.
.
0

an n1

ann

Matriz Escalar: Matriz diagonal con todos sus elementos diagonales iguales.

d 0 0
0 d 0

Dn = . .
..
.. ..
.
0 0 d

Matriz Identidad de orden n, In : Matriz escalar con elementos diagonales de valor unidad.
Tambin puede considerarse como una matriz cuyos vectores fila y columna son los vectores
estndar 1 de n .
{In = [aij ] : aij = 1 si i = j, aij = 0 si i 6= j}

In =

1 0
0 1
.. ..
. .
0 0

0
0
..
.

= ~e1

~e2

~en

~e1
~e2
..
.
~en

Matriz Elemental: Cualquier matriz que se obtiene al realizar una nica operacin elemental
por fila 2 sobre una matriz identidad In . Ejemplos de matrices elementales:

1 0 0 0


1 0 0
0 2 0 0
1 1

0 0 1
;
;
0 0 1 0
0
1
0 1 0
0 0 0 1

1 Ver
2 Ver

la Definicin 2.6, pgina 68.


la Seccin 1.5.4, pgina 48.

Pedro Jos Hernando Oter

Clases de lgebra

106

TEMA 3: Matrices

3.1. Operaciones Bsicas con Matrices

3.1.1. Suma de Matrices


Definicin 3.3 (Suma de Matrices)
Dadas dos matrices A, B mn , se define la suma de ambas A + B
C mn resultado de la operacin:


a11 a1n
b11 b1n
..
..
.
..
.
A + B = [aij ] + [bij ] = .
. + .
.
am1 amn
bm1 bmn

a11 + b11

..
=
.
am1 + bm1

a1n + b1n

..
= [aij + bij ] = [cij ] = C
.
amn + bmn

3.1.2. Producto de un Escalar por una Matriz


Definicin 3.4 (Producto de un Escalar por una Matriz)
Se define el producto de un escalar k
por una matriz A
mn
B
resultado de la operacin:

a11
.
kA = k ..
am1

como la matriz


ka11
a1n
..
.. =
.
.
kam1
amn


a11
ka1n
.
..
= ..
.
am1
kamn

Rmn

a la matriz

a1n
.. k = Ak = B
.
amn

3.1.3. Diferencia o Resta de Matrices


Definicin 3.5 (Diferencia de Matrices)
Dadas dos matrices A, B mn , se define la diferencia A B como la matriz suma de A
ms la opuesta B, A B = A + (B) mn .

Al igual que con los vectores3 , la resta de matrices no se considera una operacin si no un caso
particular de la suma matricial.

3 Ver

la Seccin 2.2.4, pgina 68.

Clases de lgebra

Pedro Jos Hernando Oter

3.1. Operaciones Bsicas con Matrices

107

3.1.4. Propiedades de la Suma y la Multiplicacin por un Escalar


Sean A, B, C

Rmn y , R. Entonces,

A+B =B+A

Conmutativa

(A + B) + C = A + (B + C)

Asociativa

A + 0mn = A

Elemento Neutro

1A = A

Elemento Unitario

A + (A) = 0mn

Elemento Opuesto

(A + B) = A + B

Distributiva 1

( + )A = A + A

Distributiva 2

(A) = ()A

Asociativa 2

3.1.5. Espacio Vectorial de Matrices


El conjunto de todas la matrices A
escalar es un espacio vectorial4 .

Rmn con las operaciones matriciales suma y producto por un

3.1.6. Combinacin Lineal de Matrices


Definicin 3.6 (Combinacin Lineal de Matrices)
Se dice que una matriz A mn es una combinacin lineal de k matrices A1 , A2 , ,
Ak mn , si existen k constantes c1 , c2 , , ck tales que:

A = c1 A1 + c2 A2 + + ck Ak =

k
X

cj Aj

j=1

A los escalares ci se les denominan coeficientes de la combinacin lineal.


Se dice que las matrices A1 , A2 , , Ak
la nica solucin de la ecuacin:

Rmn son linealmente independientes si

c1 A1 + c2 A2 + + ck Ak = 0mn
es la solucin trivial 5 : c1 = c2 = = ck = 0.

Rmn son linealmente dependientes si

Se dice que las matrices A1 , A2 , , Ak


existen soluciones no triviales de la ecuacin:

c1 A1 + c2 A2 + + ck Ak = 0mn
4 Ver
5 Ver

la Definicin 2.8, pgina 70.


la Seccin 1.9, pgina 60.

Pedro Jos Hernando Oter

Clases de lgebra

108

TEMA 3: Matrices

Definicin 3.7 (Espacios de Matrices)


Se define el espacio generado por un conjunto de matrices como el conjunto de todas las
posibles combinaciones lineales de las matrices.

3.2. Producto de Matrices

Definicin 3.8 (Multiplicacin de Matrices)


Dadas las matrices A mn y B np , se define el producto o multiplicacin de la
matriz A por la matriz B, como aquella matriz C mp resultado de la operacin:

b11 b12 b1p


a11 a12 a1n
a21 a22 a2n b21 b22 b2p

AB = .
..
.. =
..
.. ..

..
.
.
.
.
.

am1

am2

f1A
f~2A

= . [~c1B ~c2B ~cpB ] =


..

f~mA

amn

f~1A ~c1B
f~2A ~c1B
..
.
f~mA ~c1B

bn1

bn2

f~1A ~c2B
f~2A ~c2B
..
.
f~mA ~c2B

bnp

f~1A ~cnB
f~2A ~cnB
..
.
f~mA ~cnB

El elemento cij de la matriz resultado C se puede expresar como:


n
X
cij = ai1 bij + ai2b2j + + ain bnj =
aik bkj

=C

k=1

Nota 3.1.

El nmero de columnas de la matriz A debe coincidir con el nmero de filas de la matriz B.

Ejemplo 3.1. Calcular AB siendo:

A=

Clases de lgebra

1
2

2
1

1 0
1 1

R24

1
1
B=
1
0

1
3
1
0

2
0

2
1

R43

(Contina en la pgina siguiente)

Pedro Jos Hernando Oter

3.2. Producto de Matrices

109

Ejemplo 3.1 (Continuacin).


Solucin:


AB =


=

1
2

1 1 + 2 (1) + (1) 1 + 0 0
2 1 + 1 (1) + 1 1 + 1 0

1
1

2
1

0
1

1
1

1
0

1
3
1
0

2
0
=
2
1

1 1 + 2 3 + (1) 1 + 0 0
21+13+11+10


2 6 4
23
=
2 6 3

1 2 + 2 0 + (1) (2) + 0 1
2 2 + 1 0 + 1 (2) + 1 1

3.2.1. Propiedades de la Multiplicacin de Matrices


Elemento Neutro: AIn = Im A = A

Asociativa 1: A(BC) = (AB)C

Asociativa 2: (kA)B = A(kB) = k(AB)

Rmn ,

Distributiva 1: (A + B)C = AC + BC

Distributiva 2: A(B + C) = AB + AC

Rmn
B

Rnp ,

Rps .

Rmn , B Rn .
A, B Rmn , C Rnp .
A Rmn , B, C Rnp .
A

El producto de matrices no es conmutativo y por tanto de forma general: AB 6= BA

3.2.2. Potencia de Matrices Cuadradas


Definicin 3.9 (Potencia de una Matriz Cuadrada, An )
Dada una matriz cuadrada A nn se define la operacin A elevado a la potencia n
como el resultado del producto matricial:

N,

An = AA
A}
| {z
n veces
Propiedades de la Potencia de Matrices Cuadradas
Dada A

Rnn y r, s N, se verifica:

Ar As = Ar+s .
(Ar )s = Ars .
Por definicin A0 = In .

Pedro Jos Hernando Oter

Clases de lgebra

110

TEMA 3: Matrices

3.2.3. Producto Matricial Matriz-Vector


El producto matricial de dos matrices da como resultado una nueva matriz.

El producto matricial de una matriz A mn por una matriz (o vector) columna V n1


da como resultado una matriz (o vector) columna C m1 :

a11 v1 + a12 v2 + + a1n vn


v1
a11 a12 a1n
a21 a22 a2n v2 a21 v1 + a22 v2 + + a2n vn

AV = .
= Cm1
..
..
.. .. =

..

.
.
.
.
am1

am2

amn

am1 v1 + am2 v2 + + amn vn

vn

El producto matricial de una matriz (o vector) fila V 1m por una matriz A


como resultado una matriz (o vector) fila C 1n :

a11 a12 a1n



a21 a22 a2n
V A = v1 v2 vm .
..
.. =
..
.
.
am1 am2 amn

v1 a11 + v2 a21 + + vm am1

v1 a12 + v2 a22 + + vm am2

Rmn da

v1 a1n + v2 a2n + + vm amn

= C1n

3.2.4. Producto Matricial Vector-Vector


El producto matricial de una matriz (o vector) columna
fila V 1n es igual a una matriz cuadrada A nn

w1
w1 v1
w2 
w2 v1


W V = . v1 v 2 vn = .
..
..

wn

w n v1

W n1 por una matriz (o vector)


de la forma:

w1 v2 w1 vn
w2 v2 w2 vn

= Ann
..
..

.
.
wn v2 wn vn

El producto matricial de una matriz (o vector) fila V 1n por una matriz (o vector) columna
W n1 es una matriz (o vector) de un slo elemento A 11 , siendo por tanto un escalar.

w1




w2 
V W = v1 v2 vn . = v1 w1 + v2 w2 + + vn wn = A11
..

wn

El producto matricial de un vector fila por un vector columna es una operacin equivalente al producto
escalar 6 de dos vectores.

6 Ver

la Definicin 2.24, pgina 86.

Clases de lgebra

Pedro Jos Hernando Oter

3.3. Expresin Matricial de un SEL

111

3.2.5. Producto Matriz-Vector Estndar


Sea A

Rmn y los vectores estndar 7 ~ei Rm1

A~ei es la i-sima columna de A: A~ei = ~ci .

a11 a12
a21 a22

A~ei = .
..
..
.
am1

am2

~ej A es la j-sima fila de A: ~ej A = f~j .

a11


a21
~ej A = 0 1 .
..

am1

y ~ej

a1n
a2n
..
.

R1n . Entonces

0
a1i

.. a2i

.
= .. = ~ci
1 .
..
ami
.

amn

a12
a22
..
.

a1n
a2n
..
.

am2

amn

= aj1

aj2

ajn

= f~j

3.3. Expresin Matricial de un SEL


Como se ha visto anteriormente8 , a todo SEL de m ecuaciones con n incgnitas se le puede asociar
una matriz de coeficientes A mn y un vector columna de trminos independientes9 ~b m1 :

a11 a12 a1n


b1
a11 x1 + a12 x2 + + a1n xn = b1

a21 a22 a2n


b2
a21 x1 + a22 x2 + + a2n xn = b2

A=
..
..
.. ; ~b = ..
..
..
..
..

.
.
.
.
.
.
.

am1 am2 amn


bm
am1 x1 + am2 x2 + + amn xn = bm

Si agrupamos las incgnitas en un vector columna ~x = [x1 , x2 , , xn ]T n1 , el SEL anterior se


puede representar matricialmente como:


b1
a11 a12 a1n
x1
a21 a22 a2n x2 b2

= A~x = ~b
..
..
.. .. = ..
.

.
.
.
.
am1

am2

amn

xn

bm

Todo SEL se puede definir mediante una ecuacin matricial10 en la que el producto matricial11
entre la matriz de coeficientes A y el vector de incgnitas ~x debe ser igual al vector de trminos
independientes ~b, de la forma:
A~x = ~b

7 Ver

la Definicin 2.6, pgina 68.


la Seccin 1.6.1, pgina 50.
9 La matriz ampliada A|B est formada por la matriz de coeficientes A junto con el vector columna de trminos
independientes ~b.
10 En este caso los datos conocidos son la matriz de coeficientes A y el vector de trminos independientes ~
b, y la
incgnita corresponde con el vector de incgnitas ~
x.
11 Ver la Seccin 3.2.3, pgina 110.
8 Ver

Pedro Jos Hernando Oter

Clases de lgebra

112

TEMA 3: Matrices

3.4. Matriz Transpuesta AT

Definicin 3.10 (Matriz Transpuesta, AT )


Dada A mn , se define su matriz transpuesta AT
intercambiando las filas y columnas12 de A.

A = [aij ]

A=

a11 a12 a1n


a21 a22 a2n
..
..
..
.
.
.
am1 am2 amn

Rnm

AT = [aji ] i, j

a11
a21
a12
a22

AT = .
..
..
.
a1n
a2n

aquella que se obtiene

am1
am2
..
.
amn

3.4.1. Matriz Simtrica y Antisimtrica


Definicin 3.11 (Matriz Simtrica y Antisimtrica)
Una matriz cuadrada A nn se dice que es simtrica si AT = A.

R
Una matriz cuadrada A Rnn se dice que es antisimtrica si AT = A.

3.4.2. Propiedades de la Matriz Transpuesta


(AT )T = A

(A B)T = AT B T
(kA)T = k(A)T

(Ar )T = (AT )r

;
;

Rmn
kR

A, B

Rmn ,
A, B Rnn
A Rnn , r 0
A

(AB)T = B T AT

Rmn

Teorema 3.1
Si A es una matriz cuadrada, entonces A + AT es una matriz simtrica 13 .
Si A es una matriz cuadrada, entonces A AT es una matriz antisimtrica.
AAT y AT A son siempre matrices simtricas.

12 Es

AT .

decir, la i-sima fila de A es la i-sima columna de AT y la j-sima columna de A pasa a ser la j-sima fila de

13 Ver

la Definicin 3.11, pgina 112.

Clases de lgebra

Pedro Jos Hernando Oter

3.4. Matriz Transpuesta AT

113

Demostracin 3.1
Por las propiedades de la matriz transpuesta14 se tiene:
(A + AT )T = AT + (AT )T = AT + A = A + AT
(A AT )T = [AT (AT )T ] = (AT A) = A AT
(AAT )T = (AT )T AT = AAT
(AT A)T = AT (AT )T = AT A

Ejemplo 3.2. Dada la siguiente matriz:


A=

1
0

2
1

0
1

1
1

calcular: A + AT y A AT .
Solucin:
a) A + AT =

1
0

1
1

b) A A =

1 1
0
1

1
1

0
1

1
1

0
1

1
2
1
0

(Matriz simtrica)

(Matriz antisimtrica)

Ejemplo 3.3. Dada la siguiente matriz:

1 1
1
A= 0
1
1

calcular: AAT y AT A.
Solucin:

1
a) AAT = 0
1
b) A A =
T

14 Ver

1
1

1 
1 0
1
1 1
1
0
1

1
1

1
0
1

1
1

2
= 1
2


1
2

1 =
2
1

1 2
1 1
1
2
2
3

(Matriz simtrica)

(Matriz simtrica)

la Seccin 3.4.2, pgina 112.

Pedro Jos Hernando Oter

Clases de lgebra

114

TEMA 3: Matrices

3.5. Inversa de una Matriz

Definicin 3.12 (Matriz Invertible y Matriz Inversa, A1 )


Se dice que una matriz cuadrada A nn es invertible o no singular, si existe una matriz
A1 nn tal que:
AA1 = A1 A = In

donde In es la matriz identidad de orden n.


En caso de existir, la matriz A1 se le denomina matriz inversa de A.
Una matriz no invertible se dice que es singular.

Nota 3.2.

Dada una matriz (no necesariamente cuadrada) A

Inversa por la derecha: R

R
: AR = Im
Rnm : LA = In

Rmn , se denomina :

nm

Inversa por la izquierda: L

Si A es invertible entonces R = L = A1 .

3.5.1. Clculo de la Matriz Inversa: Mtodo de Gauss-Jordan


Sea A

Rnn una matriz invertible, entonces llamando X = A1 se tiene que cumplir:

AX = In

a11
a21
..
.

a12
a22
..
.

a1n
a2n
..
.

an1

amn2

amnn

x11
x21
..
.

x12
x22
..
.

x1n
x2n
..
.

xn1

xn2

xnn

1 0
0 1
.. ..
. .
0 0

0
0
..
.

Denotando por ~xi a los vectores columna de X y ~ei a los vectores columna de In , el problema del
clculo de la matriz inversa se puede transformar en el clculo de n SEL de la forma15 :

A~x1 = ~e1

A~x2 = ~e2
A[~x1 ~x2 ~xn ] = [~e1 ~e2 ~en ]
=
..
..

.
.

A~xn = ~en
Notar que puede utilizarse el

a11 a12 a1n 1


a21 a22 a2n 0


..
..
.. ..
.
.
. .
an1 an2 ann 0
{z
}|
|
A

15 Ver
16 Ver

mtodo de Gauss-Jordan16 para resolver los n

0 0
1 0

1 0
Op. Elem. de Fila 0 1
..
.. .. ..
. .
.
.
0 1
0 0
{z
}
{z
|
In

In

SEL a la vez:

0 x11 x12
0 x21 x22
.. ..
..
. .
.
1 xn1 xn2
}|
{z

x1n
x2n
..
.
xnn

A1

la Seccin 3.3, pgina 111.


la Seccin 1.8, pgina 58.

Clases de lgebra

Pedro Jos Hernando Oter

3.5. Inversa de una Matriz

115

Proceso de Clculo de la Matriz Inversa (Mtodo Gauss-Jordan)


Para encontrar la inversa de una matriz A

Rnn se puede seguir los siguientes pasos:

1. Formar la matriz n (2n) de la forma: [A|In ].


2. Calcular la matriz escalonada reducida equivalente de la anterior.
si el resultado es de la forma [In |X], entonces A es invertible y A1 = X.

si es de otra forma (en la parte izquierda no aparece In ), entonces A es no


invertible (singular ).

Ejemplo 3.4. Calcular, en caso de que exista,

1
A= 2
3

Solucin:

1 1 1
2 3 2
3 8 2

1
0
0

0
1
0

1 1
0
F 2F1
0 1
0 2
F3 3F1
0 5
1

1 0 0
F +F3
0 1 0
1
F3
0 0 1

10
2
7

0
0
1

la matriz inversa de la matriz:

1 1
3 2
8 2

1
2
3

6
1
1
0
5 1

0
1
0

1 0
0
F 5F2
0 1
0 3
F1 F2
0 0
1

A1

10
= 2
7

1
0
1

3
2
7

6
1
1
0
5 1

1 0
1 0
5 1

Propiedades de la Matriz Inversa


Una matriz A

Rmn es invertible si y slo si17 :

A es una matriz cuadrada, m = n.


rang (A) = n.

Ejemplo 3.5. Determinar si la siguiente matriz es

1 2
A= 4 5
7 8

invertible.

3
6
9

Solucin: La matriz es cuadrada y por tanto puede ser invertible. Vamos a calcular su rango,
obteniendo una matriz escalonada equivalente de A.

1 2 3
1
2
3
1
2
3
F2 4F1
F3 2F2
4 5 6 0 3
6 0 3 6
F3 7F1
7 8 9
0 6 12
0
0
0
Como rang (A) = 2 < n = 3, por tanto A es no invertible.
17 Estas

propiedades estn basadas en la resolucin de SEL. Ver el Teorema 1.1, pgina 53.

Pedro Jos Hernando Oter

Clases de lgebra

116

TEMA 3: Matrices

3.5.2. Inversa y SEL


Teorema 3.2
Dada una matriz cuadrada invertible A

Rnn , entonces se verifica:

A1 es nica.
El SEL A~x = ~b es compatible determinado y su solucin nica viene dada por:
~x = A1~b

Dada una matriz A


~y

Rm :

~b

Rn

Rmn :

si A es invertible, el SEL A~x = ~y tiene una nica solucin ~x = A1 ~y .


si A no es invertible, el SEL A~x = ~y tiene infinitas soluciones o ninguna.

En el caso especial ~y = ~0, el SEL A~x = ~0 siempre tiene como solucin ~x = ~0.
si A es invertible, esta ser la nica solucin.
si A no es invertible, tendr adems otras infinitas soluciones ms.

3.5.3. Operaciones con la Matriz Inversa


Sean A, B

Rnn matrices invertibles, entonces:

A1 es invertible y (A1 )1 = A
(cA)1 = 1c A1 , siendo c

R,

con c 6= 0.

(AB)1 = B 1 A1 .
AT es invertible y (AT )1 = (A1 )T .
Ar es invertible y (Ar )1 = (A1 )r = Ar , r 0.
Toda matriz elemental 18 es invertible y su inversa es una matriz elemental del mismo tipo.

3.6. Determinantes
3.6.1. Introduccin: Determinantes de Matrices 2 2

El clculo de la matriz inversa de una matriz invertible A




a b
A=
c d
18 Ver

R22 de la forma:

la Seccin 3.0.1, pgina 104.

Clases de lgebra

Pedro Jos Hernando Oter

3.6. Determinantes

117

es sencillo siguiendo el mtodo de Gauss-Jordan. Sin prdida de generalidad, podemos suponer que
a 6= 0, entonces:



 1


b
1
1
a b 1 0
0
1 ab a1 0
F cF1
a F1
a
a
2

c d 0 1
c d 0 1
ac 1
0 adcb
a
a
adcb F3

1
0

b
a

1
a

c
adcb

0
a
adcb

La matriz inversa de A ser:


A1 =

d
adcb
c
adcb

b
adcb
a
adcb

1
0

1
ad cb

F1 b F3

0
1

d
adcb
c
adcb

d b
c
a

b
adcb
a
adcb

De aqu podemos deducir que la matriz A ser invertible, si y slo si ad bc 6= 0 .


Definicin 3.13 (Determinante de una Matriz 2 2)
Dada una matriz A 22 :


a b
A=
c d

se denomina determinante de A y se denota por det (A) o bien |A|, al escalar:




a b
det (A) = |A| = det
= ad bc
c d

Propiedades del Determinante de una Matriz 2 2


Dada una matriz A

R22 :

A es invertible si y slo si det (A) 6= 0.


En caso de ser invertible, su inversa vale:

A1 =

1
det (A)

d b
c
a

3.6.2. Determinantes de Matrices 3 3


Dada una matriz general A33 :

a
A= d
g

b
e
h

c
f
i

Calculando su inversa por el mtodo de Gauss-Jordan se obtiene:

ei f h ch bi bf ce
1
f g di ai cg cd af siendo |A| = aei + bf g + cdh ceg af h bdi
A1 =
|A|
dh eg bg ah ae bd

De igual forma que en el caso 2 2, la matriz A1 existir si y slo si |A| =


6 0.

Pedro Jos Hernando Oter

Clases de lgebra

118

TEMA 3: Matrices

3.6.3. Regla de Sarrus


La regla de Sarrus es un mtodo sistemtico para encontrar el determinante de una matriz A de hasta
orden 3 3. Consiste en escribir la matriz A y a su derecha las dos primeras columnas de A. Entonces
se multiplica las entradas de las seis diagonales, sumndose o restndose en funcin de la direccin.
|A| = aei + bf g + cdh ceg af h bdi

a b c
d e f
g h i

a b
d e
g h
+ + +

a b c
d e f
g h i
+

a b c
d e f
g h i

La regla de Sarrus no es vlida19 para matrices de orden superior a 3 3.


Ejemplo 3.6. Calcular el determinante de la siguiente matriz, utilizando la regla de Sarrus:

5 3 2
0 2
A= 1
2 1 3

|A| = 503+1(1)2+2(3)2[202][2(1)5][3(3)1] = 02120+10+9 = 5

3.6.4. Determinantes de Matrices n n

Vamos a deducir un mtodo general para calcular el determinante de una matriz n n. Comenzamos
con el determinante de una matriz A33 :

a b c
A= d e f
g h i

Como hemos visto anteriormente este determinante se puede expresar fcilmente mediante la regla de
Sarrus. El resultado obtenido se puede reorganizar de la siguiente forma:
|A| = aei + bf g + cdh ceg af h bdi = a(ei f h) b(di f g) + c(dh eg) =






d f
d e
e f






+ c
b
= a
g h
g i
h i

que puede interpretarse como un desarrollo de determinantes 2 2 a travs de los elementos de la


primera fila de la matriz. Tambin se puede obtener un resultado anlogo desarrollando por la primera
columna de la matriz A como sigue:
|A| = aei + bf g + cdh ceg af h bdi = a(ei f h) d(bi ch) + g(bf ce) =






e f
a g
b c






= a
d
+g
h i
c i
e f

Se puede comprobar fcilmente que el resultado es el mismo independientemente de la fila o columna


que se elija para el desarrollo.
19 El

valor obtenido de esta forma para matrices de mayor orden no tiene ninguna relacin con la inversa de la matriz.

Clases de lgebra

Pedro Jos Hernando Oter

3.6. Determinantes

119

Este procedimiento se puede generalizar para el clculo del determinante de cualquier matriz n n
de forma recursiva, como funcin de los determinantes de submatrices (n 1) (n 1) de A. A su vez,
cada uno de los determinantes obtenidos, se pueden definir mediante los determinantes de submatrices
(n 2) (n 2) de A, y as sucesivamente.
Vamos a clarificar el clculo definiendo previamente los conceptos de menor complementario y
adjunto.

Definicin 3.14 (Menores y Adjuntos de una Matriz Cuadrada)


Sea una matriz cuadrada A nn y la correspondiente matriz Aij (n1)(n1) formada
al eliminar la fila i-sima y la columna j-sima de A. Se define entonces:

Menor Complementario (o simplemente Menor) ij de A, representado por Mij , al


determinante de la matriz Aij .
Mij = det(Aij )
Adjunto (o Cofactor) ij de A, es el menor ij de A al que se le aade un signo (+/)
dado por la expresin:
Cij = (1)i+j det(Aij ) = (1)i+j Mij

La regla de los signos utilizada en el clculo del adjunto, (1)i+j , se puede expresar intuitivamente
en forma de tablero de ajedrez como:

+ +
+ +

+ +

+ +

..
..
..
.. . .
.
.
.
.
.

Ejemplo 3.7. Dada la matriz:

1
2
A=
1
1

calcular el menor complementario M23 y el


Solucin:

1 1

1
M23 = |A23 | = 1
1 1

1 1

C32 = (1)5 |A32 | = 2 2
1 2

Pedro Jos Hernando Oter

1 1
0
1 2
3

1 1 1
1 2
1

adjunto C32 .

0
1 = 1 0 1 + 0 1 + 1 = 0
1

0
3 = (2 0 3 + 0 6 + 2) = 5
1

Clases de lgebra

120

TEMA 3: Matrices

3.6.5. Clculo del Determinante mediante Desarrollos de Laplace


1. Se define el determinante de una matriz A11 = [a] como el escalar det(A) = |A| = a.

2. Dada una matriz cuadrada A = [aij ] nn se puede definir su determinante como el


escalar obtenido por el desarrollo por una fila o por una columna de la forma siguiente:
Desarrollo a lo largo de la fila i-sima :
det(A) = |A| =
= (1)i+1 ai1 |Ai1 | + (1)i+2 ai2 |Ai2 | + + (1)i+n ain |Ain | =
=

n
n
n
X
X
X
(1)i+j aij |(Aij | =
(1)i+j aij Mij =
aij Cij
j=1

j=1

j=1

Desarrollo a lo largo de la columna j-sima :


det(A) = |A| =
= (1)1+j a1j |A1j | + (1)2+j a2j |A2j | + + (1)n+j anj |Anj | =
=

n
X
i=1

(1)i+j aij |Aij | =

n
X
i=1

(1)i+j aij Mij =

n
X

aij Cij

i=1

Ejemplo 3.8. Calcular el determinante de la siguiente matriz, utilizando el desarrollo de


Laplace.

5 3 2
0 2
A= 1
2 1 3
Solucin: Desarrollando por ejemplo a travs de la primera fila:









0 2
0
(3) 1 2 + 2 1
|A| = 5
2 1 = 10 3 2 = 5
2 3
1 3

Desarrollando por ejemplo a travs de la segunda columna se obtiene el mismo resultado:








5 2
5 2
1 2





= 3 (1) + 0 + 8 = 5
+ 0
(1)
|A| = (3)
2 3
1 2
2 3
El clculo de un determinante por el mtodo de los desarrollos de Laplace se simplifica al
desarrollar por la fila o columna que contenga un mayor nmero de ceros.
El clculo de un determinante mediante el desarrollo de Laplace no es eficiente
computacionalmente, siendo el nmero de operaciones totales a realizar superior a n!.

Clases de lgebra

Pedro Jos Hernando Oter

3.6. Determinantes

121

3.6.6. Determinantes e Inversa de una Matriz


Dada una matriz invertible20 A, se tiene:
AA1 = In
Tomando determinantes a ambos lados de la igualdad:
|A||A1 | = |In |
Como el determinante de la matriz identidad es la unidad21 , se tiene:
|In | = 1

|A||A1 | = 1

Y finalmente
|A1 | = |A|1 =

1
|A|

Como consecuencia de esta frmula se puede deducir la siguiente propiedad:


Una matriz cuadrada A es invertible si y slo si |A| =
6 0.

3.6.7. Propiedades de los Determinantes


|AB| = |A| |B|
|A1 | = 1/|A|
|AT | = |A|
Sean A, B y C matrices cuadradas de orden n, entonces:
Si A tiene una fila o columna de ceros, entonces |A| = 0.
Si A tiene dos filas o columnas iguales, entonces |A| = 0.
Si B se obtiene de intercambiar dos filas o columnas de A, entonces |B| = |A|.
Si A es una matriz triangular (superior, inferior o diagonal), su determinante es igual al
producto de los elementos de su diagonal principal.
Si B se obtiene de multiplicar una fila o columna por el escalar k, entonces |B| = k|A|. Por
tanto det(kA) = k n |A|.
Si B se obtiene al sumar un mltiplo de una fila (columna) de A a otra fila (columna) de A,
entonces |B| = |A|.
Si A, B y C son matrices iguales excepto que la i-sima fila (o i-sima columna) de C es la
suma de las correspondientes i-simas filas (o columnas) de A y B, entonces, |C| = |A| + |B|.

20 Ver

la Seccin 3.12, pgina 114.


ir desarrollando por cada uno de los elementos de la diagonal.

21 Basta

Pedro Jos Hernando Oter

Clases de lgebra

122

TEMA 3: Matrices

3.6.8. Mtodo de Gauss para el Clculo del Determinante


Como se ha visto en las propiedades del determinante, la sustitucin de una fila de la matriz por una
combinacin lineal del resto de las filas no altera el valor del determinante. Por otra parte, el valor
del determinante de una matriz triangular (escalonada) es simplemente el producto de sus elementos
diagonales.
Por tanto, un mtodo apropiado para calcular el determinante de una matriz es utilizar el mtodo
de Gauss para obtener una matriz escalonada equivalente, y obtener su determinante.
Hay que tener en cuenta que no todas las operaciones elementales de fila dejan inalterable el
determinante de la matriz.
Cuando se multiplica una fila por un escalar, el valor del determinante se multiplica por ese
escalar. Por tanto, en el resultado final habr que dividirlo por l.
El intercambio de filas, cambia el signo del determinante.

Ejemplo 3.9. Aplicar el mtodo de Gauss para calcular el determinante de la siguiente matriz:

5 5 5
5
1 0
1
0

A=
0 1
1
1
1 1
1 1
Solucin:

5
1

0
1

5
0
1
1

5
5
1

1
0
1
0
5 F1

1
1 F2 F3 1
1 1
1

1
0
F3 F2

0
0

1
1
0
0

1
1
0
1

1
1
1
1
F3 +F1

1
0
F4 F1
1 1

1
1
1
1
F4 +2F3

1
0
2 2

1
0
0
0

1 1
0 1
0 1
0 0

1 1
1
1
1
1

0 1
0
0
0 2

1
1
1
1

0
1
2 2

El determinante de la matriz resultante es: 1 1 (1) (2) = 2. El determinante de la matriz


pedida no es este, ya que hemos hecho dos operaciones elementales de fila (las dos primeras
marcadas con un asterisco), que han modificado el valor del determinante original. El producto
por 51 la primera fila y el intercambio de las filas 2 y 3. Para deshacer estos cambios, habr que
multiplicar por 5 y cambiar de signo el valor del determinante calculado, por tanto el resultado
final es:
|A| = 10

3.6.9. Regla de Cramer


La regla de Cramer permite obtener la solucin de un SEL compatible determinado mediante la
utilizacin del determinante de la matriz de coeficientes.
Sea el sistema de n ecuaciones lineales con n incgnitas:

A nn
~
A~x = b
~b n

R
R

Clases de lgebra

Pedro Jos Hernando Oter

3.6. Determinantes

123

Denotemos por Ai (~b) a la matriz obtenida al reemplazar la i-sima columna de A por el vector ~b,
Ai (~b) = [ ~c1 ~c2

~b

~cn ]

Columna i

A travs de esta matriz se puede expresar la solucin del anterior sistema de ecuaciones lineales de la
forma dada por el siguiente teorema.

Teorema 3.3 (Regla de Cramer)


Sea una matriz cuadrada e invertible A
del sistema A~x = ~b est dada por:
xi =

Rnn y sea ~b un vector de Rn . Entonces la solucin

det(Ai (~b))
|A|

i = 1, , n

Demostracin 3.3
Como las columnas de la matriz identidad I son los vectores estndar columna ~ei , se tiene
que:
AIi (~x) = A[ ~e1 ~x ~en ] = [ A~e1 A~x A~en ] =
~b ~cn ] = Ai (~b)

= [ ~c1

Tomando determinantes a ambos lados de la igualdad,

|A| det(Ii (~x)) = det(Ai (~b))


siendo:









det(Ii (~x)) =





1
0
..
.

0
1
..
.

..
.

x1
x2
..
.

0
0
..
.

0
0
..
.

0
..
.

0
..
.

xi
..
.

0
..
.

0
..
.

0 0
0 0

xn1
xn

..
.

1
0

0
1









= xi






como se puede ver al desarrollar por la fila i-sima. Por tanto, despejando de la expresin
|A| xi = det(Ai (~b)) se obtiene el resultado anterior.

Desde un punto de vista computacional la regla de Cramer es ineficiente para resolver sistemas,
salvo los muy pequeos, debido al gran coste de clculo de los determinantes.

Pedro Jos Hernando Oter

Clases de lgebra

124

TEMA 3: Matrices

3.6.10. Matriz Adjunta e Inversa de una Matriz

Dada una matriz cuadrada A nn , se puede construir una nueva matriz de adjuntos sustituyendo
cada elemento aij por el correspondiente adjunto 22 de cada elemento,

Cij = (1)i+j Mij = (1)i+j det(Aij )

Definicin 3.15 (Matriz Adjunta, adj(A))


Se denomina matriz adjunta de una matriz A y se representa por adj(A), a la transpuesta
de la matriz de adjuntos, dada por:

C11 C21 Cn1


C12 C22 Cn2

adj(A) = [Cij ]T = [Cji ] = .


..
..
..
..
.
.
.
C1n C2n Cnn

Teorema 3.4
Para toda matriz invertible A

Rnn se tiene:
A1 =

1
adj(A)
|A|

Demostracin 3.4
La inversa de una matriz invertible A es una matriz X tal que:
AX = I

X=

~x1

~x2

~xn

siendo ~xj la columna j-sima de la matriz X. Para determinar cada una de estos vectores
columna se puede resolver los sistemas A~xj = ~ej y por la regla de Cramer:
xij =
y como:







det(Ai (~ej )) =




a11
a21
..
.

a12
a22
..
.

..
.

aj1
..
.

aj2
..
.

1
..
.

an1

an2

0
a2n
..
.

se deduce fcilmente la expresin anterior.


22 Ver

det(Ai (~ej ))
|A|

..
.


a1n


..
.
= (1)j+i det(Aji ) = Cji
ajn
..
.
ann

la Definicin 3.14, pgina 119.

Clases de lgebra

Pedro Jos Hernando Oter

3.7. Subespacios Fundamentales de una Matriz

125

3.7. Subespacios Fundamentales de una Matriz


La informacin contenida en una matriz est almacenada en el valor, cantidad y disposicin de sus
elementos. Si la matriz es de grandes dimensiones, resulta muy complicado establecer algn tipo de
relacin entre todos sus elementos.
En esta seccin vamos a estudiar una forma de analizar esta informacin basada en la determinacin
de los subespacios vectoriales asociados a una matriz.

3.7.1. Espacios Columna y Fila de una Matriz

Rmn puede ser vista como un vector de vectores fila (f~i ) o como un vector

Una matriz general A


de vectores columna (~ci ).

a11
..
A= .
am1

~cn

f~1
 .
= ..
f~m

Rm

: ~x = 1~c1 + + n~cn

R}

Definicin 3.17 (Espacio Fila de una Matriz)


Se define el espacio fila de A mn como el subespacio vectorial de n generado por la
combinacin lineal de todos los vectores fila de A. Se representa por fil(A).

fil(A) = {~x

a1n
.. =  ~c
1
.
amn

Definicin 3.16 (Espacio Columna de una Matriz)


Se define el espacio columna23 de A mn como el subespacio vectorial de m generado
por la combinacin lineal de todos los vectores columna de A. Se representa por col(A).
col(A) = {~x

Rn

: ~x = 1 f~1 + + m f~m

R}

Ejemplo 3.10. Determinar el espacio fila y el espacio columna de la siguiente matriz:

1 0 0
1
A = 1 0 1 1
0 0 1
0

Solucin: El espacio fila es el subespacio vectorial generado por la combinacin lineal de los
tres vectores filas de A. En este caso claramente las tres filas son linealmente independientes
y por tanto el espacio fila corresponde con un hiperplano de dimensin 3 en 4 . Una base del
subespacio fila de A es:

Bfil = {[1, 0, 0, 1], [1, 0, 1, 1], [0, 0, 1, 0]}


(Contina en la pgina siguiente)
23 En

la Definicin 4.10, pgina 155 se estudia la relacin entre espacio columna de una matriz y la imagen de sta.

Pedro Jos Hernando Oter

Clases de lgebra

126

TEMA 3: Matrices

Ejemplo 3.10 (Continuacin).


El espacio columna de A est formado por la combinacin lineal de sus cuatro vectores columna.
Claramente en este caso slo hay dos vectores columna linealmente independientes, por tanto el
espacio columna corresponde con un plano (dimensin 2) en 3 , siendo por ejemplo una de sus
bases:
Bcol = {[1, 1, 0]T , [0, 1, 1]T }

Ejemplo 3.11. Dada la matriz:

1
1
A=
1
1

1 1
1 1

0 1
1 1

Determinar si el vector ~u = [1, 0, 0, 1]T pertenece al espacio columna de A y si el vector ~v = [1, 2, 3]


pertenece al espacio de fila de A.
Solucin: Empezamos con el vector ~u. Dicho vector pertenecer a col(A) si existe una
combinacin lineal de los vectores columna de A que genere ~u, y por tanto que existan escalares
x1 , x2 y x3 tales que:

1
1
1
1
1 0
1
1

x1
1 + x2 0 + x3 1 = 0
1
1
1
1
Al igual que se hizo en el Ejemplo 2.15, pgina 75, esto se puede transformar en un SEL de la
forma:

1
1 1 1
x1

1
1 1
x2 = 0

0
1
0 1
x3
1
1
1 1
Slo si este sistema

1 1 1
1
1 1

1
0 1
1
1 1

es compatible, el

1
F2 + F1

0
F3 + F1

0 F4 F1
1

vector ~u col(A). Resolviendo por Gauss:

1 1 1 1
1
0 1 0
0
0
0 2 1
0
2 1
F
F
1
3

0 1 2 1 F4 +2F3 0 1
2 1
0
2 0 0
0
0
4 2

1
0

0
0

0 1
0
2
1
2
0
0

0
1

1
0

F4 2F2

Que claramente corresponde con un SEL compatible y determinado24 y por tanto:


~u col(A)
(Contina en la pgina siguiente)
24 La

forma escalonada est desordenada ya que basta con identificarla.

Clases de lgebra

Pedro Jos Hernando Oter

3.7. Subespacios Fundamentales de una Matriz

127

Ejemplo 3.11 (Continuacin).


Veamos ahora si el vector ~v pertenece al espacio fila de A. En este caso se tiene que cumplir:


1
1
1
1
1
x1 1 + x2 1 + x3 0 + x4 1 = 2
1
1
1
1
3

en el cual por comodidad, se han colocado los vectores fila de A como vectores columna. Al igual
que en el caso anterior, esto corresponde con el siguiente SEL:

1 1 1 1 1
1
x2
1

1
0 1
x3 = 2
1
1
1 1
3
x4

Resolviendo por Gauss:

1 1 1 1
1
1
0 1
1
1
1 1

1
1
F +F1
0
2 2
F3 F1
3
0

1 1 1
0 1 2
2
2 0

1
3
2

(3.1)

Como se obtiene una matriz escalonada, (desordenada), el sistema es compatible indeterminado


y por tanto:
~v fil(A)

Nota 3.3. En este problema no ha sido necesario resolver completamente los SEL, basta con analizarlos, ya que slo
se pide determinar la pertenencia o no a los subespacios fila y columna de la matriz. Sera necesario resolverlos en el
caso de pedir una posible combinacin lineal que demuestre la pertenencia.

Ejemplo 3.12. Encontrar una posible combinacin lineal entre los vectores fila de la matriz A
que genere el vector ~v correspondientes al Ejemplo 3.11.
Solucin: Resolviendo el SEL Ecuacin (3.1) se tiene:

x1 = 1 + x2 + x3 x4 = 1 + 4 2t 3 + 2t t = 2 t
1 1 1 1 1

x2 = 1 x3 = 1 + 3 2t = 4 2t
0
0 1 2 3 =
x3 = 3 + 2x4 = 3 + 2t

0
2
2 0 2

x4 = t
Hay por tanto infinitas soluciones posibles. Por ejemplo, una de ellas se obtiene para t = 0:

x1 = 2

x2 = 4
t=0
=
x3 = 3

x4 = 0
Por tanto, una combinacin lineal de los vectores fila de A que produce ~v es:
x1 f~1 + x2 f~2 + x3 f~3 + x4 f~4 = 2


+4

2 4 + 3 + 0 2 + 4 0 + 0

Pedro Jos Hernando Oter

2+43+0

3


1
1

0
2

1
3

+0

= ~v

Clases de lgebra

128

TEMA 3: Matrices

3.7.2. Propiedades de las Matrices Equivalentes por Filas


Teorema 3.5 (Propiedades de las Matrices Equivalentes por Filas)
Sea A mn , entonces se verifica:

Si B es una matriz equivalente por filas 25 a la matriz A entonces26 , fil(A) = fil(B).


dim(fil(A)) = dim(col(A)) = rang(A).

Demostracin 3.5
Las matrices equivalente por filas se obtienen mediante operaciones elementales por
fila27 : intercambio de filas, multiplicacin de una fila por un escalar no nulo y sumar
a una fila una combinacin lineal de otras filas. Mediante estas tres operaciones se
generan distintos vectores que siguen perteneciendo al espacio fila de la matriz original,
conservndose adems el nmero de vectores linealmente independientes de la matriz.
Por tanto, los vectores fila de la nueva matriz equivalente a la original constituyen un
sistema generador28 del mismo espacio fila.
Para determinar29 dim(fil(A)) hay que encontrar el nmero de vectores fila de A
linealmente independientes, para ello se determina el rango de la matriz30 .
Para determinar dim(col(A)) hay que encontrar el nmero de vectores columna de A
linealmente independientes, para ello se determina el rango del conjunto de vectores31
mediante el clculo del rango de la matriz.
Por tanto dim(fil(A)) = dim(col(A)) = rang(A).

3.7.3. Rango, Ncleo y Nulidad de una Matriz


Definicin 3.18 (Rango de una Matriz)
Dada la matriz A mn , se puede definir32 el rango de A como la dimensin de su espacio
fila o de su espacio columna 33 . Se denota por rang(A).

rang(A) = dim(fil(A)) = dim(col(A))

25 Ver

la Seccin 1.6.3, pgina 52.


no necesariamente col(A) = col(B).
27 Ver la Seccin 1.6.2, pgina 51.
28 Ver la Seccin 2.5, pgina 80.
29 Ver la Definicin 2.22, pgina 81.
30 Ver la Seccin 1.6.5, pgina 53.
31 Ver la Seccin 2.4.3, pgina 76.
32 En la Seccin 1.6.5, pgina 53 se dio una definicin alternativa y equivalente del rango de una matriz.
33 Y por tanto, segn la Definicin 2.16, pgina 76, el rango de una matriz coincide con el nmero de vectores fila y
vectores columna linealmente independientes que tiene la matriz.
26 Aunque

Clases de lgebra

Pedro Jos Hernando Oter

3.7. Subespacios Fundamentales de una Matriz

129

Recordamos que el rango de una matriz coincide con el rango del conjunto de vectores34 tanto fila
como columna de la matriz.

Ejemplo 3.13. Calcular el rango del conjunto de vectores:




0
0
1
1

2 1 1 2

V = 1 , 1 , 1 , 1

1 1 0 0

2
1
0
1

Solucin: Hay que determinar el nmero de vectores linealmente independientes35 que hay en
V . En este caso como mnimo hay uno36 y como mximo cuatro, que es el nmero de vectores
de V . La forma ms apropiada de calcular el rango es construir una matriz con los vectores de V
dispuestos en filas o en columnas y determinar el rango de la matriz, el cual coincide con el rango
del conjunto de vectores37 V . En nuestro caso vamos a disponerlos como vectores columna38 :

1 1 0
0
2 1 1
2

A = 1 1 1 1

1 1 0
0
1 0 1
2
Para determinar el rango de la matriz A se realizan operaciones elementales de fila hasta obtener
una matriz en forma escalonada equivalente39 , la cual posee el mismo espacio fila que la original40
y por tanto el mismo rango.
Aplicando Gauss:

1
1 0 0
1
1 0
0
1 1 0
0

2 1 1
F 2F
2
2
F3 +2F2 0 1 1 2
F23 + F11 0 1 1

0
0
1 1 1 1
0
3
3
2
1
1

F F
F F

1 1 0
0 0 0
0 0
0 4 2 0
0 F34 F11 0
0
0 0 0
0 1 1
2
1 0 1
2
El rango de la matriz resultante es 3, correspondiente a los tres pivotes41 1, -1 y 3.

Por tanto el rango del sistema de vectores V es 3, siendo los vectores linealmente independientes
el primero, segundo y tercero, (correspondientes a las columnas de los pivotes).

34 Ver

la Definicin 2.16, pgina 76.


la Seccin 2.4.2, pgina 73.
36 Ya que no todos los vectores son nulos.
37 Ver la Definicin 2.16, pgina 76.
38 Es preferible colocarlos como vectores columna, ya que de esta forma adems de poder determinar cuantos vectores
linealmente independientes hay, tambin se puede determinar ms fcilmente cules son a travs de la posicin de los
pivotes. Si se disponen como filas, al realizar alguna operacin elemental de intercambio de filas, cambia el orden de los
vectores, y es necesario llevar un registro de los cambios realizados para localizar los vectores linealmente independientes.
39 Ver el mtodo de Gauss matricial en la Seccin 1.7, pgina 54.
40 Ver el Teorema 3.5, pgina 128.
41 Ver la Definicin 1.31, pgina 52 y la Definicin 1.22, pgina 46.
35 Ver

Pedro Jos Hernando Oter

Clases de lgebra

130

TEMA 3: Matrices

Definicin 3.19 (Ncleo o Espacio Nulo de una Matriz)


Dada la matriz A mn , se define el ncleo o espacio nulo de A al subespacio de n
formado por las soluciones del sistema lineal homogneo 42 A~x = ~0. Se denota43 por ker(A).

ker(A) = {~x

U
P

Rn

: A~x = ~0}

Definicin 3.20 (Nulidad de una Matriz)


Dada la matriz A mn , se define la nulidad de A al valor de la dimensin del ncleo de
una matriz.
nul(A) = dim(ker(A))

Ejemplo 3.14. Encontrar el ncleo y la nulidad

1 0
A = 1 0
0 0

de la siguiente matriz:

0
1
1 1
1
0

Solucin: Para determinar el ncleo tenemos que resolver el sistema homogneo A~x =
vamos a hacer por Gauss:

x1 =
1 0 0 1
1 0 0 1
1 0 0
1

x2 =
F3 F2
F2 +F1
1 0 1 1 0 0 1 0 0 0 1 0 =
x3 =

0 0 0 0
0 0 1 0
0 0 1
0

x4 =
En forma vectorial:


x1
0
1
x2
1
0


x3 = t1 0 +t2 0
x4
0
1

0
1
1 0

ker(A) = gen
0 , 0
0
1

~0. Lo
x4
t1
0
t2

nul(A) = 2

El ncleo corresponde con un plano en 4 y por tanto su dimensin44 es 2, (correspondiente a


los dos parmetros libres t1 y t2 ) y por tanto la nulidad es 2.

42 Ver

la Seccin 1.9, pgina 60.


lengua inglesa la palabra kernel se traduce como ncleo.
44 Ver la Seccin 1.2.2, pgina 38.
45 Este subespacio ser tratado en ms profundidad en la Seccin 6.5.3, pgina 192.
43 En

Clases de lgebra

Pedro Jos Hernando Oter

3.7. Subespacios Fundamentales de una Matriz

131

Los cuatro subespacios fundamentales de toda matriz A

Rmn son:

Espacio Fila: fil(A).


Espacio Columna: col(A).
Espacio Nulo o Ncleo: ker(A).
Ncleo de la Transpuesta45 : ker(AT ).
Estos valores determinan perfectamente la informacin contenida y las propiedades de toda matriz,
de ah la importancia fundamental de su conocimiento.

3.7.4. Teorema del Rango de las Matrices


Teorema 3.6 (Teorema del Rango de las Matrices)
Sea A mn , entonces se verifica:

rang(A) + nul(A) = n

Este teorema establece la relacin entre dos de los cuatro subespacios fundamentales de una
matriz demostrando que no son independientes.
En la Seccin 6.5.4, pgina 194 se generaliza este teorema estableciendo la relacin entre los
otros dos subespacios fundamentales.

Demostracin 3.6
nul(A) = Num. de parmetros libres de la solucin del Sist. Homog. = n rang(A)
=

nul(A) + rang(A) = (n rang(A)) + rang(A) = n

Ejemplo 3.15. Comprobar el teorema del rango en la matriz del Ejemplo 3.14, pgina 130.
Solucin: Esta matriz tiene 4 columnas, por tanto n = 4 y la nulidad se calcul resultando
ser 2. El rango de la matriz se puede determinar fcilmente a travs de la matriz resultado del
mtodo de Gauss en el Ejemplo 3.14, donde vemos que posee dos pivotes y por tanto el rango
tambin es 2. Por tanto se tiene:
rang(A) + nul(A) = n

Pedro Jos Hernando Oter

2+2=4

Clases de lgebra

132

TEMA 3: Matrices

Teorema 3.7
Sea A mn , entonces se verifica46 :

rang(AT ) = rang(A).
rang(AT A) = rang(A).
La matriz AT A

Rnn es invertible si y slo si rang(A) = n.

Demostracin 3.7
Ya que se cumple47 :
rang(A) = dim(col(A)) = dim(fil(A)) = rang(AT )

Como AT A nn , tiene el mismo nmero de columnas que A y por el teorema del


rango de las matrices48 :
rang(A) + nul(A) = n = rang(AT A) + nul(AT A)
Entonces, basta con demostrar que nul(A) = nul(AT A) para que rang(A) =
rang(AT A). Para ello vamos a demostrar que todo ~x que pertenece a nul(A) tambin
pertenece a nul(AT A) y viceversa.
1. Todo ~x nul(A) cumple A~x = ~0 = AT A~x = AT ~0 = ~0, y por tanto
~x nul(AT A).
2. Para todo ~x nul(AT A) se tiene AT A~x = ~0 = ~xT AT A~x = ~xT ~0 = 0. Entonces:
~xT AT A~x = (A~x)T (A~x) = (A~x) (A~x) = 0
y por tanto ~x nul(A).

Por lo cual, nul(A) = nul(AT A)

A~x = ~0

rang(A) = rang(AT A).

Por las propiedades de la inversa de una matriz49 se tiene:


(AT A)1 = A1 (AT )1 = A1 (A1 )T
Por tanto A debe ser invertible y para ello50 rang(A) = n.

46 Las propiedades de la matriz AT A sern estudiadas ms detenidamente en el Tema 7, pgina 203 y el Tema 9,
pgina 253.
47 Ver el Teorema 3.5, pgina 128.
48 Ver el Teorema 3.6, pgina 131.
49 Ver la Seccin 3.5.3, pgina 116.
50 Ver la Seccin 3.5.1, pgina 115.

Clases de lgebra

Pedro Jos Hernando Oter

3.7. Subespacios Fundamentales de una Matriz

133

3.7.5. Teorema Fundamental de las Matrices Invertibles

Los subespacios asociados a una matriz determinan todas las caractersticas y propiedades de la misma.
En el siguiente teorema se renen las interrelaciones que hay entre ellos y el concepto de la inversa de
una matriz51 .
Teorema 3.8 (Teorema Fundamental de las Matrices Invertibles)
Sea A nn . Las siguientes afirmaciones son equivalentes:

A es invertible 52 .
A~x = ~b tiene solucin nica 53 ~b

Rn .

A~x = ~0 tiene slo la solucin trivial 54 ~x = ~0

Rn .

La forma escalonada reducida equivalente 55 de A es In .


det (A) 6= 0, (ver Seccin 3.6.6, pgina 121).
rang(A) = n, (ver Seccin 1.6.5, pgina 53 y Definicin 3.18, pgina 128).
ker(A) = {~0}, (ver Definicin 3.19, pgina 130).
Los vectores columna de A son linealmente independientes y forman una base 56 de
Los vectores fila de A son linealmente independientes y forman una base de

Rn .

Rn .

3.7.6. Bases para los Espacios Fila, Columna y Nulo de una Matriz

Dada una matriz A mn , los pasos a seguir para calcular bases para el espacio fila, el espacio
columna y/o el espacio nulo son los siguientes:
1. Encontrar la forma escalonada 57 A. La denominaremos R.
2. Los vectores fila no nulos (con pivotes 58 ) de R forman una base59 del fil(A).
3. Los vectores columna de A correspondientes a los vectores columna de R con pivote, forman
una base del col(A).
4. Resolver el sistema R~x = ~0, expresando la solucin como una combinacin lineal, (a travs
de posibles parmetros libres), de un conjunto de vectores. Estos vectores forma una base del
ker(A).
51 En

la Teorema 8.2, pgina 234 se ampliar este teorema con el concepto de autovalor de una matriz.
la Definicin 3.12, pgina 114.
53 Ver la Seccin 1.3.3, pgina 43.
54 Ver la Seccin 1.9, pgina 60.
55 Ver la Definicin 1.32, pgina 53.
56 Ver la Seccin 2.5.1, pgina 81.
57 Puede ser la escalonada normal o la reducida. Esta ltima es ms costosa de calcular pero las bases resultantes
pueden, en algunos casos, ser ms sencillas y tiles para su posterior utilizacin.
58 Ver la Definicin 1.31, pgina 52.
59 Tambin se pueden tomar las correspondientes filas de la matriz original A, teniendo en cuenta los cambios de fila
realizados, en lugar de las filas de la matriz escalonada R como base del fil(A), aunque normalmente sern ms sencillas
(con ms ceros) y tiles las obtenidas de la matriz R.
52 Ver

Pedro Jos Hernando Oter

Clases de lgebra

134

TEMA 3: Matrices

Ejemplo 3.16. Determinar bases para los espacios fila, columna y ncleo de la siguiente matriz:

1
2
0 1 0
0
1 1 0 0
45
A=
1
1
1 1 1
1 1
0 0 1

Solucin: Vamos a seguir los pasos descritos en la Seccin 3.7.6, pgina 133.
1. Forma escalonada R de A.

1
2
0 1 0
0
1 1 0 0
F3 F1

1
1 1 1
F4 +F1
1 1
0 0 1

1
0
0
0

2
0 1 0
1 1 0 0
F3 +F2

1
1 0 1
F4 F2
1
0 1 1

1 2
0 1 0
0 1 1 0 0
=R
0 0
0 0 1
0 0
1 1 1

2. Como hay pivote en las cuatro filas de R, nos indica que las cuatro filas de A son linealmente
independientes y por tanto forman una base del espacio fila de A. Por otra parte, como la
matriz escalonada equivalente R tiene el mismo espacio fila60 , una base ms apropiada del
espacio fila de A se puede formar con las filas de R.
Bfil(A) = {[1, 2, 0, 1, 0], [0, 1, 1, 0, 0], [0, 0, 0, 0, 1], [0, 0, 1, 1, 1]}
3. Una base del espacio columna de A est formado por el conjunto de vectores columna
linealmente independientes de A, y son aquellas columnas de A correspondientes a las
columnas con pivote de la matriz R. En este caso corresponden con las columnas: 1, 2, 3
y 5.




0
0
2
1

1 1 0
0

,
,
,
Bcol(A) =
1 1 1 1

1
0
1
1
Notar que en este caso no se puede tomar como base del espacio columna de A, las
columnas pivotes de R, ya que no se conserva el espacio columna en las matrices escalonadas
equivalentes.

4. Para encontrar una base del ncleo de A tenemos que operar igual que en el Ejemplo 3.14,
pgina 130. Para ello resolvemos el SEL homogneo A~x = ~0 a partir de la matriz R.

x1

x2
x3

x5

60 Ver

= 2x2 x4
=
x3
=
x4 x5


= 3t
x1


=
t
x2
=
t
; x3

x4
=
t

=
0
x5

= t

3
1
1
1
0

= ker(A) = gen

3
1
1
1
0

(Contina en la pgina siguiente)

el Teorema 3.5, pgina 128.

Clases de lgebra

Pedro Jos Hernando Oter

3.7. Subespacios Fundamentales de una Matriz

Ejemplo 3.16 (Continuacin).


Una base del ncleo de A ser en este caso:
Bker(A) = {[3, 1, 1, 1, 0]}
Podemos tambin comprobar como se cumple el teorema del rango, ya que el rango (4)
ms la nulidad (1) es igual al nmero de columnas de A (5).

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

135

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Transformaciones Lineales
Contenido
4.1

4.2

4.3

4.4

4.5

4.6

4.7

Concepto de Transformacin Lineal . . . . . . . . . . . .


4.1.1 Forma Matricial de una Transformacin Lineal .
4.1.2 Propiedades de las Transformaciones Lineales . .
Transformaciones Lineales Elementales . . . . . . . . . .
4.2.1 Transformacin Lineal de Vectores Estndar . . .
4.2.2 Demostracin = de la Seccin 4.1.2 . . . . . . .
Inversa de una TL . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Funcin Invertible . . . . . . . . . . . . . . . . . .
4.3.2 Inversa de una TL . . . . . . . . . . . . . . . . .
Operaciones con TL . . . . . . . . . . . . . . . . . . . . .
4.4.1 Suma de Transformaciones Lineales . . . . . . . .
4.4.2 Composicin de Transformaciones . . . . . . . . .
Imagen y Ncleo de una TL . . . . . . . . . . . . . . . .
4.5.1 Imagen de una TL . . . . . . . . . . . . . . . . .
4.5.2 Ncleo o Espacio Nulo de una TL . . . . . . . . .
4.5.3 Nulidad y Rango de una TL . . . . . . . . . . . .
Tipos de TL . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.1 Inyectivas, Sobreyectivas y Biyectivas . . . . . . .
4.6.2 Homomorfismos, Endomorfismos e Isomorfismos .
Transformaciones Geomtricas. Movimientos en 2 y 3
4.7.1 Traslaciones en 2 y 3 . . . . . . . . . . . . . .
4.7.2 Rotaciones en 2 . . . . . . . . . . . . . . . . . .
4.7.3 Rotaciones en 3 . . . . . . . . . . . . . . . . . .
4.7.4 Reflexiones sobre Rectas en 2 . . . . . . . . . .
4.7.5 Reflexiones sobre Rectas en 3 . . . . . . . . . .
4.7.6 Reflexiones sobre Planos en 3 . . . . . . . . . .
4.7.7 Homotecias en 2 y 3 . . . . . . . . . . . . . .

R
R
R

R
R
R

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

139
140
141
143
144
145
145
145
149
151
151
152
155
155
157
159
162
162
162
163
163
164
166
166
168
169
169

137

Forma Matricial

Clases de lgebra

Propiedades

TL Inversa

Operaciones

Definiciones

Tipos

Imagen

Composicin de TL

Transformaciones Lineales

Ncleo

Nulidad

Caractersticas

Rango

138
TEMA 4: Transformaciones Lineales

Pedro Jos Hernando Oter

4.1. Concepto de Transformacin Lineal

139

4.1. Concepto de Transformacin Lineal


Una expresin del tipo:

y1

y2
..

ym

a11 x1 + a12 x2 + + a1n xn


a21 x1 + a22 x2 + + a2n xn
..
.

=
=

= am1 x1 + am2 x2 + + amn xn

adems de como un SEL1 , puede ser vista como una funcin vectorial2 que transforma un vector
de entrada:
~x = [x1 , x2 , , xn ] n

en otro vector de salida:

~y = [y1 , y2 , , ym ]

Rm

La notacin utilizada para identificar las funciones vectoriales es la siguiente:


f:

Rn 7 Rm

~x ~y

Definicin 4.1 (Transformacin Lineal)


Se denomina transformacin3 lineal a toda funcin vectorial de varias variables, lineal en
todas sus variables, (polinmica de primer grado), entre un espacio dominio n a otro espacio
imagen m , de la forma:

T :

Rn 7 Rm

y1

y2
..

ym

Nota 4.1.

[x1 , x2 , , xn ] [y1 , y2 , , ym ]

=
=

a11 x1 + a12 x2 + + a1n xn


a21 x1 + a22 x2 + + a2n xn
..
.

am1 x1 + am2 x2 + + amn xn

~y = T (~x)

Por inters prctico, se denotar mediante las siglas TL a las Transformaciones Lineales.

Ejemplo 4.1. La transformacin lineal:



y1
y2

= x1 + x2
= x1 x2

Convierte un vector de entrada ~x = [x1 , x2 ]


Entrada
~x = [1, 0]
~x = [1, 1]
..
.

R2 en otro vector ~y = [y1 , y2 ] R2 .


Salida
~y = [1, 1]
~y = [2, 0]
..
.

1 Ver

la Definicin 1.10, pgina 36.


una introduccin a las funciones en Apndice A.10, pgina 361.
3 Tambin se llama funcin, aplicacin, operador o mapeo.
2 Ver

Pedro Jos Hernando Oter

Clases de lgebra

140

TEMA 4: Transformaciones Lineales

Las TL pueden utilizarse para codificar informacin como muestra el siguiente ejemplo.
Ejemplo 4.2. Un espa quiere enviar la posicin de un objetivo (x1 , x2 ) de forma codificada
(y1 , y2 ), siguiendo la clave (transformacin lineal):

y1 = x1 + 3x2
y2 = 2x1 x2
De forma que por ejemplo, cuando la posicin sea (5, 10):
   
x1
5
~x =
=
x2
10
Se enva la posicin codificada:
~y =

y1
y2

5 + 3 10
2 5 10

35
0

Esta informacin deber ser decodificada por su receptor, como se ver ms adelante en este
tema4 .

4.1.1. Forma Matricial de una Transformacin Lineal


Toda TL:

y1

y2
..

ym

a11 x1 + a12 x2 + + a1n xn


a21 x1 + a22 x2 + + a2n xn
..
.

am1 x1 + am2 x2 + + amn xn

se puede expresar de forma matricial, extrayendo la informacin importante


a11 a12 a1n
x1
y1
y2 a21 a22 a2n x2


~y = A~x
;
.. = ..
..
.. ..

. .
.
.
.
ym

=
=

am1

am2

amn

xn

de la TL como5 :

~x
A

~y

Rnmn
R
Rm

Definicin 4.2 (Matriz Asociada a una Transformacin Lineal)


Dada una transformacin lineal:
~y = T (~x) = A~x
se denomina matriz asociada6 a la TL, a la matriz A que define dicha transformacin.

4 Ver

el Ejemplo 4.14, pgina 155.


la Seccin 3.3, pgina 111.
6 Tambin se le suele denominar matriz cannica o matriz estndar.
5 Ver

Clases de lgebra

Pedro Jos Hernando Oter

4.1. Concepto de Transformacin Lineal

141

Ejemplo 4.3. La forma matricial del Ejemplo 4.1 es:



  
 
y1 = x1 + 3x2
y1
1
3
x1
=
=
y2 = 2x1 x2
y2
2 1
x2
A=

1
2

3
1

~y = A~x

Podemos expresar esta TL en funcin de su matriz asociada A como:


T :

R2 7 R2

~y = T (~x) = A~x

4.1.2. Propiedades de las Transformaciones Lineales


Teorema 4.1 (Propiedades de las TL)
Una transformacin (funcin) T : n
7
propiedades:

T (~u + ~v ) = T (~u) + T (~v )


T (k~u) = kT (~u)

Rm es lineal si y slo si, verifica las siguientes dos

~u

Rn
k R

~u, ~v

Rn ,

Nota: Para k = 0

T (~0) = ~0

Las propiedades del Teorema 4.1 tambin se utilizan como definicin alternativa de transformacin
lineal 7 .

Demostracin 4.1
Demostracin = (Una TL verifica estas propiedades)
Vamos a demostrar como una transformacin T : n 7 m del tipo:

a11

y1 = a11 x1 + + a1n xn
..
..
..
=
~y = T (~x) = A~x = .
.
.

ym = am1 x1 + + amn xn
am1

cumple las dos propiedades antes citadas.


1. T (~u + ~v ) = T (~u) + T (~v )

~u, ~v

a1n
x1
.. ..
. .
amn
xn

Rn

La parte izquierda de la igualdad ser igual a:

a11 a1n
u1 + v1
a11 (u1 + v1 ) + + a1n (un + vn )

..
..
..
T (~u+~v ) = A(~u+~v ) = ...
=

.
.
.
am1 amn
un + vn
am1 (u1 + v1 ) + + amn (un + vn )
(Contina en la pgina siguiente)

7 Ver

la definicin inicial dada en la Definicin 4.1, pgina 139.

Pedro Jos Hernando Oter

Clases de lgebra

142

TEMA 4: Transformaciones Lineales

Demostracin 4.1 (Continuacin)


Por otra parte, el lado derecho de la igualdad ser:

a11
..
T (~u) + T (~v ) = A~x + A~v = .
am1


a1n
u1
a11
.. .. + ..
. . .
amn
un
am1


v1
a1n
.. .. =
. .
amn
vn

a11 v1 + + a1n vn
a11 u1 + + a1n un
Suma de Vectores

..
..
=

+
.
.
am1 v1 + + amn vn
am1 u1 + + amn un

a11 (u1 + v1 ) + + a1n (un + vn )

..

.
am1 (u1 + v1 ) + + amn (un + vn )

siendo ambos resultados iguales.


2. T (k~u) = kT (~u)

~u

La parte izquierda de la igualdad

a11 a1n
..
..
T (k~u) = A(k~u) = .
.
am1

amn

Rn ,

ser igual a:

k(a11 u1 + + a1n un )
ku1

..
..
= kA~u
. =
.
k(am1 u1 + + amn un )
kun

Y la parte derecha de la igualdad:



k(a11 u1 + + a1n un )
ky1
y1



..
kT (~u) = kA~x = k ... = ... =
= kA~u
.
k(am1 u1 + + amn un )
kyn
yn
siendo ambos resultados iguales.

Nota 4.2. La demostracin =, correspondiente a que una funcin vectorial (transformacin) cumpliendo las dos
propiedades anteriores obligatoriamente debe ser lineal en todas sus componentes, se ver en la Seccin 4.2.2, pgina 145.

Las dos propiedades del Teorema 4.1, pgina 141, se pueden resumir en una sola:
T (~u + ~v ) = T (~u) + T (~v )

~u, ~v

Rn ,

Es decir, la TL de una combinacin lineal de vectores es igual a la combinacin lineal de las TL de


los vectores.

Clases de lgebra

Pedro Jos Hernando Oter

4.2. Transformaciones Lineales Elementales

Ejemplo 4.4. Dada la TL T :

143

R2 7 R2 definida por:


calcular T (2~u 5~v + 7w)


~ ~u, ~v , w
~

y1
y2

R2 .

=
3x1 + x2
= x1 2x2

Solucin: Expresndolo en forma matricial se tiene:



 
 
 


3
1
x1
u1
v1
w1
T (~x) =
;
~u =
, ~v =
, w
~=
1 2
x2
u2
v2
w2
Como es una TL, podemos calcularlo de dos formas distintas.
Forma 1:
T (2~u5~v +7w)
~ =
=

3
1

1
2

  
 

 
u1
v1
w1
3
2
5
+7
=
u2
v2
w2
1

3(2u1 5v1 + 7w1 ) + (2u2 5v2 + 7w2 )


(2u1 5v1 + 7w1 ) 2(2u2 5v2 + 7w2 )

1
2



2u1 5v1 + 7w1


2u2 5v2 + 7w2

6u1 15v1 + 21w1 + 2u2 5v2 + 7w2


2u1 + 5v1 7w1 4u2 + 10v2 14w2

Forma 2:
T (2~u 5~v + 7w)
~ = 2T (~u) 5T (~v ) + 7T (w)
~ =
 

 



3
1
u1
3
1
v1
3
1
w1
=2
5
+7
1 2
u2
1 2
v2
1 2
w2

  
  


6
2
u1
15 5
v1
21
7
w1
=
+
+
=
2 4
u2
5 10
v2
7 14
w2

 
 
 

6u1 + 2u2
15v1 5v2
21w1 + 7w2
6u1 + 2u2 15v1 5v2 + 21w1 + 7w2
=
+
+
=
2u1 4u2
5v1 + 10v2
7w1 14w2
2u1 4u2 + 5v1 + 10v2 7w1 14w2


Siendo ambas expresiones iguales.

Estas dos propiedades simplifican en gran medida la utilidad y operaciones de las TL, haciendo de
ellas una herramienta matemtica de gran inters prctico.

4.2. Transformaciones Lineales Elementales


TL Nula : T :

Rn 7 Rm

: T (~x) = ~0

Rm

Rn

La matriz asociada a la transformacin nula T (~x) = A~x = ~0 es la matriz nula de orden m n :

0 0 0
0 0 0

mn
0mn = . .
..
.. ..
.

Pedro Jos Hernando Oter

Clases de lgebra

144

TEMA 4: Transformaciones Lineales


TL Identidad : T :

Rn 7 Rm

: T (~x) = ~x

Rm

Rn

En este caso obligatoriamente n = m y la matriz asociada a la transformacin identidad


T (~x) = A~x = ~x corresponde con la matriz identidad In :

1 0 0
0 1 0

nn
In = . .
..
.. ..

4.2.1. Transformacin Lineal de Vectores Estndar


Dada una transformacin lineal cualquiera T :

a11
a21

T (~ei ) = A~ei = .
..
am1

Rn 7 Rm , se tiene8 :

a12
a22
..
.

a1n
a2n
..
.

am2

amn

0
a1i

.. a2i

.
= ..
1 .
.
ani
..
0

~ei

Rn

siendo e~i el vector columna estndar 9 i-simo. Por tanto, el vector T (~ei ) corresponde con la columna
i-sima, ~ci , de la matriz asociada a la transformacin lineal T : n 7 m .


T (~ei ) = A~ei = ~c1 ~c2 ~cn ~ei = ~ci

Definicin 4.3 (Matriz Asociada a una TL a travs de vectores estndar)


Como T (~ei ) = ~ci , la matriz asociada a cualquier transformacin lineal T : n 7
puede definir como:


A = T (~e1 ) T (~e2 ) T (~en )

Dado un vector ~x

Rm , se

Rn se tiene:

T (~x) = T (x1~e1 + x2~e2 + + xn~en ) = x1 T (~e1 ) + x2 T (~e2 ) + + xn T (~en ) = x1~c1 + x2~c2 + + xn~cn
siendo ~ci la columna i-sima

a11 a1n
..
..
~y = A~x = .
.
am1

8 Ver
9 Ver

amn

de la matriz asociada a la transformacin T .

x1
a11
a12
a1n
n
..
.
.
. X
xi~ci
. = x1 .. + x2 .. + + xn .. =
i=1
xn
am1
am2
amn

la Seccin 3.2.5, pgina 111.


la Seccin 2.2.3, pgina 68.

Clases de lgebra

Pedro Jos Hernando Oter

4.3. Inversa de una TL

145

4.2.2. Demostracin = de la Seccin 4.1.2

Vamos a utilizar la Definicin 4.3 de una matriz asociada a una TL mediante vectores estndar, para
terminar la demostracin del Teorema 4.1, pgina 141, cuyo resultado era:

Rn 7 Rm que verifica las siguientes dos propiedades:


(1) T (~u + ~v ) = T (~u) + T (~v ) , ~u, ~v Rn
(2) T (k~u) = kT (~u)
, ~u Rn , K R

Una transformacin T :

es una TL.

Demostracin 4.2
Una transformacin es lineal si tiene la forma10 : T (~x) = A~x

Sean ~e1 , ~e2 , , ~en los vectores estndar de n , entonces:

x1
x2

~x = . = [x1~e1 + x2~e2 + + xn~en ]


..
xn

~x
A

Rnmn
R

Por tanto, aplicando las dos propiedades anteriores (1) y (2) tenemos:
(1)

(2)

T (~x) = T (x1~e1 + x2~e2 + + xn~en ) = T (x1~e1 ) + T (x2~e2 ) + + T (xn~en ) =

x1
x2
(2)

= x1 T (~e1 ) + x2 T (~e2 ) + + xn T (~en ) = [T (~e1 ), T (~e2 ), , T (~en )] . = A~x


..
xn

4.3. Inversa de una TL

4.3.1. Funcin Invertible


Definicin 4.4 (Funcin Invertible)
Se dice que una funcin T : X 7 Y es invertible 11 si la ecuacin T (x) = y tiene una solucin
nica x X para cada y Y .
Si una funcin T : X 7 Y es invertible, su inversa T 1 : Y 7 X se define como:
T 1 (y) = { solucin nica x X de T (x) = y }
10 Ya

TL.

que el producto matricial cumple todas propiedades, (ver la Seccin 3.2.1, pgina 109), de la definicin de una

11 Ver

una definicin de funcin inversa en el Apndice A.10.4, pgina 364.

Pedro Jos Hernando Oter

Clases de lgebra

146

TEMA 4: Transformaciones Lineales

Ejemplo 4.5. Determinar si las siguientes TL T , R y S son invertibles, a travs de sus


correspondientes definiciones dadas mediante conjuntos de Venn.
T

x1
x2

y0
b

y0

b
b

Solucin:
T es invertible al ser una funcin uno a uno o biyectiva.
R no es invertible, ya que R(x) = y0 tiene dos soluciones x1 y x2 .
S no es invertible, ya que S(x) = y0 no tiene solucin.

Ejemplo 4.6. Sea el problema de la codificacin de mensajes, Ejemplo 4.2, dado en este caso
por la siguiente TL:

  
 
y1 = x1 + 3x2
y1
1 3
x1
=
~y = A~x
=
=
y2 = 2x1 + 5x2
y2
2 5
x2

Esta TL codifica una posicin de entrada ~x = [x1 , x2 ] 2 en otro vector ~y = [y1 , y2 ] 2 .


Cuando se recibe el mensaje codificado hay que decodificarlo. Por ejemplo si el vector codificado
es ~y = [131, 220], conociendo la matriz de codificacin A habr que resolver el SEL:

x1 + 3x2
= 131
2x1 + 5x2 = 220
Utilizando Gauss-Jordan:



1 3 131
1
F2 2F1

2 5 220
0

3
1

131
42

F1 +3F2

F3

1 0
0 1

5
42

por tanto, la informacin decodificada es ~x = [5, 42]. Lo interesante es encontrar la forma de


decodificar cualquier mensaje ~y = [y1 , y2 ].






1 3 y1
F2 2F1 1
F1 +3F2 1 0 5y1 + 3y2
y1
3




2 5
0 1 2y1 + y2 F3 0 1
y2
2y1
y2
Luego, la funcin de decodificacin (funcin inversa) es:

  
 
x1 = 5y1 + 3y2
x1
5
3
y1
=
=
x2 = 2y1 y2
x2
2 1
y2

~x = A1 ~y

siendo tambin una TL.


(Contina en la pgina siguiente)

Clases de lgebra

Pedro Jos Hernando Oter

4.3. Inversa de una TL

Ejemplo 4.6 (Continuacin).


La relacin entre las dos matrices A y A1 es la siguiente:

~x

147



1 3
codificar con la matriz A =
2 5

~y
 
5
3
1
decodificar con matriz A =
2 1

Ejemplo 4.7. No todas las transformaciones lineales son invertibles. Por ejemplo, supongamos
que se elige como codificacin:
 
 
x1
y1
T
7
x2
y2

  
 
y1 = x1 + 2x2
y1
1 2
x1
=
=
=
~y = A~x
y2 = 2x1 + 4x2
y2
2 4
x2

Cuando se recibe la informacin codifica ~y = [89, 178] y queremos decodificarla, tendremos que
resolver el sistema:

x1 + 2x2
= 89
2x1 + 4x2 = 178
que tiene infinitas soluciones de la forma:
  

x1
89 t
=
x2
t

Ya que este SEL no tiene solucin nica, es imposible recuperar la actual posicin codificada,
es decir, la transformacin de codificacin y la matriz de codificacin A son no
invertibles. Por tanto este cdigo (TL) no es til para este fin.

Definicin 4.5 (TL Invertible)


La TL ~y = A~x es invertible si el SEL:
tiene una nica solucin ~x

A~x = ~y
para todo ~y

Analicemos todos los posibles casos de A

Rm

A es invertible

Rmn :

m<n
En este caso el sistema tiene menos ecuaciones que incgnitas y por tanto puede ser:
incompatible (sin solucin).
compatible indeterminado (infinitas soluciones), para cualquier ~y

Rm .

Por tanto la TL ~y = A~x es no invertible.

Pedro Jos Hernando Oter

Clases de lgebra

148

TEMA 4: Transformaciones Lineales

Ejemplo 4.8. Una TL real con n = 3 y m = 2 de la forma T :


interpretarla grficamente como:

R3

y1
y2

a11
a21

a12
a22

a13
a23

R2 ,

podemos

y2

x3

x1
x2
x3

T (~x) = A~x
y1

x2

x1

Se puede considerar como una transformacin de todos los puntos del espacio 3 en los puntos
del plano 2 . Intuitivamente se aprecia que existen ms puntos en el conjunto dominio 3 que
en el conjunto imagen 2 y por tanto:

La TL o bien no es inyectiva o no es sobreyectiva o ambas cosas.

no es biyectiva 12 .

El SEL A~x = ~y puede tener infinitas soluciones o bien no tener solucin, para todos o
algunos ~y 2 .

En cualquiera de los dos casos, la TL no es invertible.


m=n
En este caso el sistema tiene el mismo nmero de ecuaciones que incgnitas y por tanto puede
ser:
incompatible (sin solucin).
compatible indeterminado (infinitas soluciones).
compatible determinado (solucin nica) para cualquier ~y

Rm .

La TL ~y = A~x sera invertible si y slo si13 :

rang (A) = n
es decir:
Cualquier matriz escalonada equivalente 14 de A no posee ninguna fila de ceros.
La matriz escalonada reducida equivalente 15 de

1 0
0 1

In = . .
.. ..
0

m>n

A es la matriz identidad de orden n, In .

0
0

nn
..
.
1

En este caso el sistema tiene ms ecuaciones que incgnitas y si T es inyectiva siempre podemos
encontrar algn determinado ~y m tal que el sistema A~x = ~y sea incompatible (sin solucin).

Por tanto la TL ~y = A~x es no invertible.

12 Ver

el Apndice A.10.3, pgina 363.


la Seccin 3.5.1, pgina 115.
14 Ver la Definicin 1.32, pgina 53.
15 Ver la Definicin 1.36, pgina 58.
13 Ver

Clases de lgebra

Pedro Jos Hernando Oter

4.3. Inversa de una TL

149

Ejemplo 4.9. Una TL real con n = 2 y m = 3 de la forma T : 2 7 3 , se puede interpretar como una aplicacin de de todos los puntos del plano 2 en los puntos del espacio 3 .


y1
a11
y2 = a21
y3
a31

x2


a12 
x1

a22
x2
a32

y2
T

T (~x) = A~x
y1

x1

y1

Claramente existen menos puntos en 2 que en 3 , de forma que no puede existir una
correspondencia uno a uno (biyectiva) y por tanto la TL no es invertible.

4.3.2. Inversa de una TL


Una transformacin lineal T :

a11 x1 + a12 x2 + + a1n xn


a21 x1 + a22 x2 + + a2n xn
..
.

y1
y2
..
.

=
=

ym

= am1 x1 + am2 x2 + + amn xn

T (~x) = A~x = ~y

Rn 7 Rm se puede expresar de las siguientes formas:

~x
A

~y

R mn
R
Rm
n

Definicin 4.6 (TL Inversa)


Si una TL16 :
T :

T 1 :

Ejemplo 4.10. Encontrar, en

x1 + x2
y1 =
y2 = 2x1 + 3x2
T :

y3 = 3x1 + 8x2

Rn Rn


y1
a11
y2 a21


.. = ..
. .
ym
am1

A=

Rn Rn

es invertible , se define la TL inversa, T


17

a12
a22
..
.

a1n
a2n
..
.

am2

amn

a11
a21
..
.

a12
a22
..
.

a1n
a2n
..
.

am1

am2

amn

x1
x2

..
.

xn

Rmn

~y = T (~x) = A~x

(~y ), como:
;

~x = T 1 (~y ) = A1 ~y

caso de que exista, la TL inversa de la TL, T : 3 7 3

+
x3
1 1
+ 2x3
= ~y = T (~x) = A~x ;
A= 2 3

+ 2x3
3 8

1
2
2

(Contina en la pgina siguiente)

16 Notar que necesariamente la matriz asociada a la TL tiene que ser cuadrada, (con igual nmero de filas que de
columnas).
17 Ver la Definicin 4.5, pgina 147.

Pedro Jos Hernando Oter

Clases de lgebra

150

TEMA 4: Transformaciones Lineales

Ejemplo 4.10 (Continuacin).


Solucin: Aplicando el mtodo de

1 1 1 1 0 0
F2 2F1
2 3 2 0 1 0

F3 3F1
3 8 2 0 0 1

1 0 0
0 1 0
F3
0 0 1
F1 +F3

Gauss-Jordan18 :
1
0
0

1
1
5

0
0
1

10 6
1
2
1
0
7
5 1

La TL inversa queda entonces:


x1
10y1 6y2 + y3
x2 = 2y1 +

y2
x3
7y1 + 5y2 y3

1
2
3

0
1
0

1 0
0
F 5F2
0 1
0 3
F1 F2
1
0 0
A1

1
0
1

3
2
7

10 6
1
1
0
= 2
7
5 1

~x = T 1 (~y ) = A1 ~y

A1

Ejemplo 4.11. Encontrar, en caso de que exista, la TL inversa de la TL, T :



 


y1
1 1
x1
=
= ~y = A~x
y2
1 1
x2

1 0
1 0
5 1

10 6
1
1
0
= 2
7
5 1

R2 7 R2 :

Solucin: La matriz A asociada a la TL es cuadrada pero claramente no tiene vectores fila (ni
columna) linealmente independientes, y por tanto la matriz A no es invertible y tampoco lo es
la TL definida por ella.
Propiedades de la TL Inversa
Dada una funcin biyectiva 19 T : X 7 Y se tiene:
T 1 (T (x)) = T 1 (y) = x , x X
T (T 1 (y)) = T (x) = y , y Y
(T 1 )1 = T

Linealidad de la TL Inversa
En caso de que exista, la transformacin inversa T 1 de una TL:
T :

Rn 7 Rm

T (~x) = ~y = A~x

tambin es una TL, ya que20 :


T 1 (~u + ~v ) = A1 (~u + ~v ) = A1 ~u + A1~v = T 1 (~u) + T 1 (~v )

18 Ver

la Seccin 1.8, pgina 58.


el Apndice A.10.3, pgina 363.
20 Ver el Teorema 4.1, pgina 141 y la propiedad resumen en la pgina 142.
19 Ver

Clases de lgebra

Pedro Jos Hernando Oter

4.4. Operaciones con TL

151

4.4. Operaciones con TL

4.4.1. Suma de Transformaciones Lineales


Definicin 4.7 (Suma de Transformaciones Lineales)
Dadas las transformaciones lineales F, G : n 7 m , se define la transformacin lineal suma
(F + G) : n 7 m como:

(F + G)(~x) = F (~x) + G(~x) = A~x + B~x = (A + B)~x = C~x

siendo C = A + B la matriz suma21 de A mn y B mn :



a11 a1n
b11 b1n
a11 + b11
..

.
.
.
..
.. + ..
.. =
C = A+B = .
.
am1 amn
bm1 bmn
am1 + bm1

~x

Rn

a1n + b1n

..

.
amn + bmn

Propiedades de la Suma de TL
La suma de TL es una TL.
La suma de TL es conmutativa, ya que: A + B = B + A.
La suma de TL es asociativa, ya que: A + (B + C) = (A + B) + C.

La operacin diferencia de TL se define como la suma del opuesto: A B = A + (B)


Ejemplo 4.12. Dadas las TL:

y1 = x1 + x2
y2 = 2x1 x2
F : 2 7 3

y3 = x1 + 2x2

G:

R2 7 R3

calcular las TL: (F + G)(~x) y (F G)(~x).

y1
y2

y3

= 2x1
= x1 x2
= 2x2

Solucin:

1
(F + G)(~x) = A(~x) + B(~x) = 2
1

1
= 2
1

21 Ver


1
2
1 + 1
2
0

1  
2
x
1 1 + 1
x2
2
0

 
0
3
x
1 1 = 1
x2
2
1

0  
x
1 1 = (A + B)~x =
x2
2

1  
x
2 1 = C~x
x2
4

(Contina en la pgina siguiente)

la Seccin 3.1.1, pgina 106.

Pedro Jos Hernando Oter

Clases de lgebra

152

TEMA 4: Transformaciones Lineales

Ejemplo 4.12 (Continuacin).

1
1  
2
0
x
(F G)(~x) = A(~x) B(~x) = 2 1 1 1 1
x2
1
2
0
2

 
1
1
2
0
1 1
x1

2 1 1 1
=
= 3 0
x2
1
2
0
2
1 0

 
x1 = (A B)~x =
x2

 
x1 = D~x
x2

4.4.2. Composicin de Transformaciones


Definicin 4.8 (Composicin de Transformaciones)
Dadas las transformaciones:

G : p 7 n
F : n 7 m

R
R

R
R

se define, la composicin de la transformacin F con G, (F G) :


forma:
G

(F G)(~x) = F [G(~x)]

Rp 7 Rm , de la siguiente

~x G(~x) F [G(~x)]

Dominio e Imagen de la Composicin de TL


Dada la composicin de TL: (F G)(~x) = F [G(~x)].
El dominio de F debe de coincidir con la imagen de G.
El dominio de la nueva transformacin (F G)(x) coincide con el dominio de G(~x) y su imagen
es la imagen de F (~y ).

Ejemplo 4.13. Dadas

y1
y2
F : 2 7 3

y3

las TL:
= x1 + x2
= 2x1 x2
= x1 + 2x2

G:

R4 7 R2

y1
y2

= x1 + x2 + x3 + x4
= 2x1 x2 x4

calcular la TL composicin F con G, (F G)(~x).


Solucin:

1
F (~x) = A~x = 2
1

1
x1
1 x2
2
x3

G(~x) = B~x =

1
2

1 1
1
1 0 1

x1
x2

x3
x4

(Contina en la pgina siguiente)

Clases de lgebra

Pedro Jos Hernando Oter

4.4. Operaciones con TL

153

Ejemplo 4.13 (Continuacin).

1 
1
1
2
2

x1
1

1 1
1
x2 =
(F G))(~x) = F [G(~x)] = A(B~x) = 2
1 0 1 x3
1
x4


1
1 
(x1 + x2 + x3 + x4 ) + (2x1 x2 x4 )
x
+
x
+
x
+
x
2
3
4
= 2 1 1
= 2(x1 + x2 + x3 + x4 ) (2x1 x2 x4 ) =
2x1 x2 x4
1
2
(x1 + x2 + x3 + x4 ) + 2(2x1 x2 x4 )


x
3x1 + x3
3
0 1
0 1
x2
3 2
3
= 3x2 + 2x3 + 3x4 = 0
x3 = C~x
5x1 x2 + x3 x4
5 1 1 1
x4

La composicin de estas dos TL es una nueva TL: (F G) :

R4 7 R3 .

Propiedades de la Composicin de TL
La composicin de TL es una TL: (F G)(~x) = A(B~x) = C~x.
La composicin de TL no es conmutativa: (F G) 6= (G F ).
La composicin de TL s es asociativa: F (G H) = (F G) H.

Demostracin 4.3


F :
G:

Rnp 7 Rnm
R 7 R

; F (~x) = A~x
; G(~x) = B~x

(F G)(~u + ~v ) = F [G(~u + ~v )] = A(B(~u + ~v )) = A(B~u + B~v ) =


A(B~u) + A(B~v ) = A(B~u) + A(B~v ) = (F G)(~u) + (F G)(~v )

Por una parte (F G) : p 7 m y por otra (G F ) estar definida si y slo si


m = p. Por tanto de forma general (F G) 6= (G F ).
Ver Apndice A.10.5, pgina 365.

Matriz asociada a la Composicin de TL


La matriz asociada a la composicin de TL corresponde con el producto matricial22 de las matrices
asociadas a cada una de las TL.
(F G)(~x) = A(B~x) = (AB)~x

22 Ver

la Seccin 3.2, pgina 108.

Pedro Jos Hernando Oter

Clases de lgebra

154

TEMA 4: Transformaciones Lineales

Demostracin 4.4


(F G)(~x) = F [G(~x)] = A(B~x) =

Rnp 7 Rnm
R 7 R

F :
G:

; F (~x) = A~x
; G(~x) = B~x

a11
a21
..
.

a12
a22
..
.

a1n
a2n
..
.

am1

am2

amn

a11
a21
..
.

a12
a22
..
.

a1n
a2n
..
.

am1

am2

amn

b11
b21
..
.

b12
b22
..
.

b1p
b2p
..
.

bn1

bn2

bnp

b11 x1 + b12 x2 + + b1p xp


b21 x1 + b22 x2 + + b2p xp
..
.

bn1 x1 + bn2 x2 + + bnp xp

x1
x2

.. =
.

xp

a11 (b11 x1 + + b1p xp ) + a12 (b21 x1 + + b2p xp ) + a1n (bn1 x1 + + bnp xp )


a21 (b11 x1 + + b1p xp ) + a22 (b21 x1 + + b2p xp ) + a2n (bn1 x1 + + bnp xp )
..
.
am1 (b11 x1 + + b1p xp ) + am2 (b21 x1 + + b2p xp ) + amn (bn1 x1 + + bnp xp )

(a11 b11 + a12 b21 + + a1n bn1 )x1 + + (a11 b1p + a12 b2p + + a1n bnp )xp
(a21 b11 + a22 b21 + + a2n bn1 )x1 + + (a21 b1p + a22 b2p + + a2n bnp )xp
..
.
(am1 b11 + am2 b21 + + amn bn1 )x1 + (am1 b1p + am2 b2p + + amn bnp )xp
a11 b11 + a12 b21 + + a1n bn1
a21 b11 + a22 b21 + + a2n bn1
..
.

a11 b1p + a12 b2p + + a1n bnp


a21 b1p + a22 b2p + + a2n bnp

am1 b11 + am2 b21 + + amn bn1

am1 b1p + am2 b2p + + amn bnp

f1A
f~2A

= . [~c1B ~c2B ~cpB ] =


..

f~mA
~
f1A ~c1B
f~2A ~c1B

C = AB =
..

.
~
fmA ~c1B

Clases de lgebra

f~1A ~c1B
f~2A ~c1B
..
.
~
fmA ~c1B

f~1A ~c2B
f~2A ~c2B
..
.
~
fmA ~c2B

f~1A ~c2B
f~2A ~c2B
..
.
~
fmA ~c2B

f~1A ~cnB
f~2A ~cnB
..
.
~
fmA ~cnB


AB

x1
x2

.. =
.
xp

x1
x2

..
.

xn

f~1A ~cnB
f~2A ~cnB
..
.
~
fmA ~cnB

= C~x

mn
Rnp
Rmp
R

Pedro Jos Hernando Oter

4.5. Imagen y Ncleo de una TL

155

Ejemplo 4.14. Siguiendo con en el problema de la codificacin de mensajes. Un espa 1 enva


una posicin ~x codificada segn una TL ~y = F (~x) al espa 2 y ste vuelve a codificar el mensaje
segn otra TL distinta ~z = G(~y ) y lo enva al espa 3. Conociendo las TL de codificacin y
sabiendo que el mensaje final doblemente codificado es ~z = [6, 6], encontrar el mensaje original
~x.

 

 
1
1
x1
1 2
y1
~y = F (~x) =
;
~z = G(~y ) =
1 1
x2
2 1
y2
Solucin:
~z = (G F )(~x) = G[F (~x)] =

1
2

2
1



1
1

1
1



x1
x2

3
3

1
1



x1
x2

= C~x

Notar que la composicin es (G F )(~x) y no (F G)(~x), ya que el orden de aplicacin de las


codificaciones es primero F y despus G. Por tanto:

1/6
1/2

1/6
1/2

~x = C 1 ~z
 

 
 
2
x1
1/6 1/6
6
=
=
0
x2
1/2 1/2
6

correspondiente al mensaje original ~x.

4.5. Imagen y Ncleo de una TL

4.5.1. Imagen de una TL


Definicin 4.9 (Imagen de una TL)
Sea una TL entre un espacio dominio X a otro espacio imagen Y .
T : X 7 Y

~x = [x1 , x2 , , xn ] [y1 , y2 , , ym ] = ~y

Se denomina imagen de la TL al conjunto de vectores ~y del espacio imagen Y de T que son


imagen de algn vector ~x del espacio dominio X.
im(T ) = (~y Y : ~y = T (~x) para algn ~x X)

Nota 4.3. Dada una TL, T : X 7 Y , no confundir la imagen de la transformacin, im(T ), con el espacio imagen de
la misma, Y . La imagen es un determinado subconjunto del espacio imagen, im(T ) Y , ver la Seccin 4.5.1, pgina 157.

Definicin 4.10 (Imagen de una Matriz)


Se define la imagen de una matriz A mn y se denota por im(A), a la imagen de la TL
que define dicha matriz.

~y = T (~x) = A~x

Pedro Jos Hernando Oter

im(T ) = im(A)

Clases de lgebra

156

TEMA 4: Transformaciones Lineales

El espacio columna 23 de una matriz coincide con la imagen de la matriz24 :

an1
a11
x1
a11 an1
y1


.. .. = x .. + + x .. = col(A)
im(A) = ... = ...
n
1
.
.
. .
amn
am1
xm
am1 amn
ym

Ejemplo 4.15. Describir la imagen de la TL T : 2 7

1 1
A= 1 2
1 3

R3 definida por la matriz:

Solucin:
La imagen de T es el conjunto de todos los posibles valores dados por la transformacin.
Aplicando la relacin anterior se tiene:



 
 
1 1  
1
1
x1
x1
x
T (~x) = T
=A
= 1 2 1 = x1 1 + x2 2
x2
x2
x2
1 3
1
3

De forma que la im(T ) se puede obtener con todas las posibles combinaciones lineales de los
vectores columna de la matriz A. En este caso en concreto, como los dos vectores son linealmente
independientes, corresponde a un plano en 3 que pasa por el origen25 (0, 0, 0).

1
1

im(T ) = im(A) = s 1 + t 2 ; s, t

3
1

Ejemplo 4.16. Calcular la imagen de la TL de T : 2 7




1 3
A=
2 6

R2 definida por la matriz:

Solucin:
T (~x) = T

x1
x2

x
=A 1
x2

1
2

3
6



x1
x2

 
 
 
 
1
3
1
1
= x1
+ x2
= x1
+ 3x2
=
2
6
2
2

= (x1 + 3x2 )

 
1
2

Como x1 , x2 , la im(T ) est formada por todos los vectores ~y 2 que tienen la direccin
del vector [1, 2]. Esto corresponde a una recta en 2 que pasa por el origen (0, 0).

im(T ) = im(A) =

  
1
; t
t
2

23 Ver

la Definicin 3.16, pgina 125.


demostracin en la pgina 144.
25 Si no pasara por el origen no sera un subespacio vectorial (ver Seccin 4.5.1, pgina 157).
24 Ver

Clases de lgebra

Pedro Jos Hernando Oter

4.5. Imagen y Ncleo de una TL

157

Propiedades de la Imagen de una TL


Dada una TL entre un espacio dominio X a otro espacio imagen Y , T : X 7 Y
El vector nulo del espacio imagen, ~0 Y , siempre est contenido en la imagen de T , im(T ).
La imagen de T es cerradacon respecto a la suma:
~v1 , ~v2 im(T ) = ~v1 + ~v2 im(T )
La imagen de T es cerrada con respecto a la multiplicacin por un escalar:
~v im(T ) , k

k~v im(T )

Demostracin 4.5
T (~0) = A~0 = ~0
Sean ~v1 , ~v2 im(T ) = ~v1 +~v2 = T (~x1 ) + T (~x2 ) = T (~x1 + ~x2 ) = ~v1 +~v2 im(T )
Sea ~v im(T ) y k

= k~v = kT (~x1 ) = T (k~x1 ) = T (~x2 ) = k~v im(T )

La imagen de una TL es un subespacio vectorial 26 de su espacio imagen.

4.5.2. Ncleo o Espacio Nulo de una TL


Definicin 4.11 (Ncleo de una TL)
Dada una TL entre un espacio dominio X a otro espacio imagen Y .
T : X 7 Y

~x = [x1 , x2 , , xn ] [y1 , y2 , , ym ] = ~y

Se denomina ncleo o espacio nulo de la TL al conjunto de ~x perteneciente al espacio


dominio de T , cuya imagen es el vector nulo ~0 Y del espacio imagen. Por tanto, el ncleo
de T sern las soluciones del SEL homogneo A~x = ~0.
ker(T ) = (~x X : ~y = T (~x) = A~x = ~0)

Nota 4.4. Dada una TL, T : X 7 Y , el ncleo es un determinado subconjunto del espacio dominio, ker(T ) X,
ver la Seccin 4.5.2, pgina 159.

El ncleo 27 de una matriz A

Rmn coincide con el ncleo de la TL que define dicha matriz.

~y = T (~x) = A~x

26 Ver
27 Ver

ker(T ) = ker(A)

la Definicin 2.9, pgina 71.


la Seccin 3.7, pgina 125.

Pedro Jos Hernando Oter

Clases de lgebra

158

TEMA 4: Transformaciones Lineales

Ejemplo 4.17. Encontrar el ncleo de la TL de T :


T (~x) =

1
1

1
2

1
3

R3 7 R2 definida por:

x1
x2
x3

Solucin: El ncleo de T son las soluciones del sistema A~x = ~0. Resolviendo dicho sistema
mediante el mtodo de Gauss-Jordan28 :






1 1 1 0
1 0 1 0
1 1 1 0
F F1
F F2
2
1
1 2 3 0
0 1 2 0
0 1
2 0
Solucin29 del SEL:

x3 = t, x2 = 2t, x1 = t

En este caso el ncleo de T es la recta en


[1, 2, 1].

x1
1
~x = x2 = t 2
x3
1

R3 que pasando por el origen, tiene por vector director

ker(T ) = t 2 ; t

Ejemplo 4.18. Encontrar el ncleo de la

1
1
A=
1
1
Solucin: Aplicando Gauss-Jordan30 se


1
1 5 4 3
2
0
0 1 2 3
4

A=
0 2 4 7 10 0
0
0 1 2 4
6

TL T :
5
6
7
6

4
6
8
6

R5 7 R4 definida por la matriz:


3
6
10
7

2
6

12
8

obtiene la matriz escalonada reducida



1 0 6
0 6 12 18
0 1
2
1
2
3
4

0
0
1
2 0 0
0
0 0
0
0
0
1
2

Solucin del SEL:

x1
6s 6t
x2 2s + 2t



s
~x =

x3 =
x4
2t
t
x5

equivalente:

0
6
0 2

1
2
0
0

(Contina en la pgina siguiente)

28 Ver

la Seccin 1.8, pgina 58.


se puede apreciar de los clculos del problema, al aplicar el mtodo de Gauss-Jordan en la determinacin
del ncleo no es necesario incluir la matriz ampliada completa, ya que el vector de ceros independiente permanece
inalterable con las operaciones.
30 En este caso y para simplificar como se ha visto en el ejemplo anterior, no incluimos el vector de trminos
independientes (ceros). El smbolo indica matrices equivalentes por filas.
29 Como

Clases de lgebra

Pedro Jos Hernando Oter

4.5. Imagen y Ncleo de una TL

159

Ejemplo 4.18 (Continuacin).


El ncleo de esta TL corresponde con un plano en

R5 dado por:

6
6

0
ker(T ) = s 1 + t
; s, t

2
0

1
0

Propiedades del Ncleo de una TL

Dada una TL entre un espacio dominio X a otro espacio imagen Y :

T : X 7 Y

El vector nulo del espacio dominio, ~0 X, est contenido en el ker(T ).


El ncleo de T es cerrado respecto a la suma:
~v1 + ~v2 ker(T )

~v1 , ~v2 ker(T )

El ncleo de T es cerrado con respecto a la multiplicacin por un escalar:


k~v ker(T )

Demostracin 4.6
A~0 = ~0 =

~0 ker(T )

Sean ~v1 , ~v2 ker(T )


Sea ~v ker(T ) y k

~v ker(T ), k

A~v1 = ~0
A~v2 = ~0

= A(~v1 +~v2 ) = A~v1 +A~v2 = ~0+~0 = ~0

A(k~v ) = k(A~v ) = k~0 = ~0

El ncleo de una TL es un subespacio vectorial de su espacio dominio.

4.5.3. Nulidad y Rango de una TL


Definicin 4.12 (Nulidad de una TL)
La dimensin 31 del ncleo de una TL, T : n 7 m , definida por ~y = T (~x) = A~x,
se denomina nulidad de la transformacin lineal (o de la matriz A asociada a dicha
transformacin). Se representa por nul(T ), (o nul(A)):

nul(T ) = dim(ker T ) = dim(ker A) = nul(A)


31 Ver

la Definicin 2.22, pgina 81.

Pedro Jos Hernando Oter

Clases de lgebra

160

TEMA 4: Transformaciones Lineales

La nulidad es la dimensin de la solucin del sistema homogneo 32 A~x = ~0, y por tanto coincide
con el nmero de parmetros de su solucin, (que a su vez, coincide con el nmero de filas nulas que
contiene una matriz escalonada equivalente 33 de A).

U
R

Definicin 4.13 (Rango de una TL)


La dimensin de la imagen de una TL, T : n 7 m , definida por ~y = T (~x) = A~x, se
denomina rango de T .
rang(T ) = dim(im T )

El concepto de rango ya fue definido en el Tema 3 sobre matrices34 y como se ver en el siguiente
teorema, est ntimamente relacionado con el rango de una TL.
Teorema 4.2
El rango de una TL coincide con el rango de su matriz asociada A:
rang(T ) = dim(im T ) = dim(im A) = rang(A)

Demostracin 4.7
Dada una TL: ~y = A~x
1. La imagen de T es el subespacio del espacio imagen que posee solucin en el SEL:
A~x = ~y .
2. La dim(T ) coincide con el nmero de columnas linealmente independientes de A.
3. El nmero de columnas linealmente independientes coincide con el nmero de filas no
nulas en la matriz escalonada equivalente y por tanto, coincide con el rang(A).
Por tanto, si T :

Rn 7 Rm , ~y = T (~x) = A~x :

dim(im(T )) = m - Num. parmetros libres de la sol. = m - Num. filas nulas de A = rang(A)

Teorema 4.3 (Teorema del Rango de las TL)


Dada una TL, T : n 7 m , con matriz asociada A

Rmn , entonces se verifica:

rang(T ) + nul(T ) = n

Nota 4.5. Tener en cuenta que n representa la dimensin del espacio dominio de la TL y tambin el nmero de
columnas de la matriz asociada A.
32 Ver

la Seccin 1.9, pgina 60.


la Definicin 1.32, pgina 53.
34 Ver la Definicin 3.18, pgina 128.
33 Ver

Clases de lgebra

Pedro Jos Hernando Oter

4.5. Imagen y Ncleo de una TL

161

Demostracin 4.8
Ver el Teorema 3.6, pgina 131.

Las siguientes ecuaciones son todas equivalentes al teorema del rango:


dim(ker T ) + dim(im T ) = n
dim(ker A) + dim(im A) = n
nul(A) + rang(A) = n

Relacin entre los Subespacios Asociados a una TL


El teorema del rango es muy importante ya que establece la relacin que existe entre los subespacios
vectoriales imagen y ncleo de una TL, a travs de sus dimensiones, rango y nulidad.
De forma esquemtica, podemos representar el funcionamiento de una TL y la relacin entre los
elementos que la definen: espacio dominio, espacio imagen35 , ncleo e imagen36 de la transformacin,
de la siguiente forma:

Ncleo

Imagen
0

ker(T)

Espacio Dominio

im(T)

Espacio Imagen

El teorema del rango establece que el tamao 37 de los subespacios ncleo e imagen juntos coincide
con el tamao del espacio dominio.

35 Ver

la Definicin 4.1, pgina 139.


la Seccin 4.5, pgina 155.
37 Representado a travs de la dimensin del mismo, ver la Definicin 2.22, pgina 81.
36 Ver

Pedro Jos Hernando Oter

Clases de lgebra

162

TEMA 4: Transformaciones Lineales

4.6. Tipos de TL
4.6.1. Inyectivas, Sobreyectivas y Biyectivas
Dada una transformacin lineal, T :

Rn 7 Rm , definida por ~y = T (~x) = A~x. Entonces38 :

Si ker(T ) = {~0} T es inyectiva.


Si dim(im(T )) = m T es sobreyectiva.
T es invertible si es biyectiva.

Demostracin 4.9
Si ker(T ) = {~0} T es inyectiva.
Si ker(T ) = {~0}

la nica solucin de A~x = ~0 es ~x = ~0.

Dados ~u, ~v
, dos vectores del espacio dominio de T , vamos a ver bajo que
condiciones T (~u) = T (~v ).
T (~u) = T (~v ) ; T (~u)T (~v ) = ~0 ; T (~u~v ) = ~0 = Sol. nica ~u~v = ~0 = ~u = ~v
Que es la definicin de una funcin inyectiva.

Si dim(im(T )) = m T es sobreyectiva.

Si dim(im(T )) = m, todo elemento del espacio imagen ( m ) es imagen de algn


elemento del espacio dominio ( n ), y por tanto T es sobreyectiva.

T es invertible si es biyectiva.
Ver la Seccin 3.8, pgina 133.

4.6.2. Homomorfismos, Endomorfismos e Isomorfismos


A las transformaciones lineales tambin se las denominan homomorfismos.
Un endomorfismo en una transformacin lineal donde los espacios dominio e imagen son
iguales. Se dice que es una aplicacin lineal de un espacio vectorial en s mismo.
T :V V
A las TL biyectivas se las denomina isomorfismos. Se dice entonces que los espacios dominio
e imagen son isomorfos.
T :U V
En este caso los espacios dominio e imagen no necesitan ser iguales, pero s hay una relacin
uno a uno entre sus elementos. Todo endomorfismo es un isomorfismo, pero no al contrario.

38 Ver

el Apndice A.10.3, pgina 363, las definiciones de funciones inyectiva, sobreyectiva y biyectiva.

Clases de lgebra

Pedro Jos Hernando Oter

4.7. Transformaciones Geomtricas. Movimientos en

R2 y R3

163

4.7. Transformaciones Geomtricas. Movimientos en

R2 y R3

Una transformacin geomtrica, es una aplicacin que hace corresponder a cada punto del plano (o
espacio) otro punto del plano (o espacio). Como consecuencia, las figuras se transforman en otras
figuras.
Las transformaciones geomtricas ms usuales son las traslaciones, rotaciones, reflexiones39 y las
homotecias. Todas ellas mantienen la forma de las figuras, pero pueden cambiar su tamao, orientacin
y/o posicin.
Un movimiento de una figura es una combinacin de traslaciones, rotaciones y reflexiones.
Cuando a una figura se le aplica un movimiento, produce otra figura de la misma forma y tamao
pero con distinta orientacin. Por su parte, las homotecias cambian el tamao de la figura, pero
conservan su forma y orientacin. Vamos a ver con ms detalle cada una de ellas.

4.7.1. Traslaciones en

R2 y R3

Desde un punto de vista matemtico, trasladar un punto (o vector) P de n en una determinada


direccin d~ = [d1 , , dn ], consiste en aadir a las coordenadas de P los correspondientes
desplazamiento di .
y
P0

p~0 = p~ + d~

d~
P


x01
..
. =
x0n


x1
.. +
.
xn

d1
..
.
dn

x
Desde un punto de vista matricial, el movimiento de traslacin no corresponde con una
transformacin lineal.

Ejemplo 4.19. Sea el rectngulo con vrtices (1, 1), (3, 1), 3, 2) y (1, 2). Encontrar los valores
de sus nuevos vrtices, cuando se traslada la figura segn el vector de desplazamiento d~ = [3, 4].
y

x
Solucin: Desde un punto de vista computacional, las figuras se almacenan en memoria como
matrices de puntos. En nuestro caso, colocando los vrtices del rectngulo como vectores columna
se obtiene la siguiente matriz que define la figura:


1 3 3 1
P =
1 1 2 2
(Contina en la pgina siguiente)
39 Correspondiente

al grupo de simetras.

Pedro Jos Hernando Oter

Clases de lgebra

164

TEMA 4: Transformaciones Lineales

Ejemplo 4.19 (Continuacin).


Los vrtices de la nueva figura trasladada segn nuestro problema se puede obtener realizando
la siguiente operacin matricial:

 
 

1 3 3 1
3
3
3
3
4
6
6
4
0
0
P =P +D ;
P =
+
=
1 1 2 2
4 4 4 4
3 3 2 2
Siendo por tanto los nuevos vrtices (4, 3), (6, 3), (6, 2) y 4, 2) respectivamente.
y

d~

4.7.2. Rotaciones en

R2

Primeramente vamos a estudiar el efecto de una rotacin sobre un nico vector de 2 . Este proceso
se puede generalizar sobre un conjunto de vectores o puntos para calcular el efecto de una rotacin
sobre una figura plana cualquiera.
Dado un vector ~u = [ux , uy ] queremos encontrar las coordenadas que tendr si lo giramos un ngulo
de radianes40 , obtenindose un nuevo vector ~v = [vx , vy ].

y
~v

vy

~u

uy

vx

ux

El vector original ~u tendr unas determinadas coordenadas ux y uy y un determinado ngulo . A


travs de estos valores queremos obtener el valor de las nuevas coordenadas vx y vy . Teniendo en
cuenta consideraciones trigonomtricas se tiene:

ux = k~uk cos
(4.1)
uy = k~uk sen
En la operacin del giro de un vector no cambia la longitud (norma) del mismo, nicamente su
direccin y sentido, por tanto k~v k = k~uk. Por otra parte, el ngulo del nuevo vector girado ~v ser
igual al original ms el valor del giro , por tanto = + . Se tiene entonces:

vx = k~v k cos = k~uk cos ( + )
(4.2)
vy = k~v k sen = k~uk sen ( + )
40 En

sentido positivo, es decir, en sentido contrario a las agujas del reloj.

Clases de lgebra

Pedro Jos Hernando Oter

4.7. Transformaciones Geomtricas. Movimientos en

R2 y R3

165

Teniendo en cuenta las relaciones trigonomtricas:



cos ( + ) = cos cos sen sen
sen( + ) = cos sen + sen cos
la Ecuacin (4.2) se puede expresar finalmente como:

vx = k~uk(cos cos sen sen )
vy = k~uk(cos sen + sen cos )

= ux cos uy sen
= ux sen + uy cos

(4.3)

donde se ha considerado los valores de ux y uy dados en la Ecuacin (4.1).


Observando el resultado obtenido en la Ecuacin (4.3) podemos representar la operacin giro de un
vector sobre un ngulo como una transformacin lineal de la siguiente forma:


 


vx
vx = ux cos uy sen
cos sen
ux
~v = T (~u) = A~u ;
=
=
vy
vy = ux sen + uy cos
sen
cos
uy
La matriz de esta transformacin lineal se determina matriz de rotacin y se suele representar mediante
la letra R:


cos sen
R=
sen
cos

Esta matriz es ortogonal y la transformacin lineal que define es una transformacin lineal ortogonal,
cuyas propiedades se estudiaran en la Seccin 6.4, pgina 190.
Ejemplo 4.20. Sea el rectngulo con vrtices (1, 1), (3, 1), 3, 2) y (1, 2). Encontrar los valores
de sus nuevos vrtices, cuando se gira la figura un ngulo de 30 en sentido contrario a las agujas
del reloj, respecto al origen.
Solucin: La matriz correspondiente a este giro, teniendo en cuenta que 30 =
R

cos 6
sen 6

sen 6
cos 6

1/2

3/2

3/2
1/2

rad es:

Para calcular el movimiento de giro ms fcilmente, vamos a disponer los vrtices del rectngulo
como vectores columna de una matriz:


1 3 3 1
P =
1 1 2 2
Los nuevos vrtices transformados son:


3/2
1/2
1

T = R(P ) = R 6 P =
1
1/2
3/2

3
1

3
2

1
2

"

31
2
1+ 3
2

3 31
2
3+ 3
2

3 32
2
3+2 3
2

32
2
1+2 3
2

Pedro Jos Hernando Oter

Clases de lgebra

166

TEMA 4: Transformaciones Lineales

4.7.3. Rotaciones en

R3
R

Las rotaciones bsicas sobre 3 son aquellas que se realizan sobre cada uno de los ejes de coordenadas
X, Y y Z. Cada una de estas rotaciones tiene asociada una matriz de rotacin, similar a la que se
obtuvo en la seccin anterior.

1
0
0
Rx = 0 cos sen
Rotacin sobre el eje X (plano Y Z) :
0 sen
cos
Rotacin sobre el eje Y (plano XZ) :

Rotacin sobre el eje Z (plano XY ) :

cos
Ry = 0
sen

cos
Rz = sen
0

0 sen

1
0
0 cos

sen 0
cos 0
0 1

Todas estas matrices de rotacin pertenecen al importante grupo de las matrices ortogonales, que
tienen bastantes propiedades y que se estudiaran en detalle en la Seccin 6.3, pgina 188.

Cualquier rotacin general en el espacio 3 se puede descomponer en una serie de rotaciones bsicas
sobre los ejes, mediante composicin de transformaciones lineales.

4.7.4. Reflexiones sobre Rectas en

R2

Al igual que en la secciones anteriores, estudiaremos este


vector. Este procedimiento se puede generalizar para todos
Dado un vector ~u = [ux , uy ] se quiere determinar las
geomtricamente sea la reflexin41 del vector ~u sobre una
direccin el vector d~ = [dx , dy ]42 .

movimiento inicialmente sobre un nico


los puntos de una figura.
coordenadas de un nuevo vector ~v que
recta que pasa por el origen y tiene por

~u
w
~
~p
x
d~

~v

La solucin de este problema se puede calcular fcilmente haciendo uso del vector proyeccin
ortogonal43 , p~.
~v = ~u + 2w
~ = ~u + 2(~
p ~u) = 2~
p ~u

(4.4)

41 Proceso

de trasladar o copiar todos los puntos de una figura a otra posicin equidistante de un objeto geomtrico
(punto, recta o plano.
42 Y por tanto con ecuacin y = dy x.
dx
43 Ver la Seccin 2.11, pgina 92.

Clases de lgebra

Pedro Jos Hernando Oter

4.7. Transformaciones Geomtricas. Movimientos en

R2 y R3

167

En este caso el vector p~ corresponde con la proyeccin ortogonal del vector ~u sobre el vector director
~
de la recta d:
d~ ~u ~
d~ ~u ~
~v = 2~
p ~u = 2 proyd~(~u) ~u = 2
d ~u
d ~u = 2
(4.5)
~ 2
d~ d~
kdk

Realizando operaciones se tiene:


~v =

vx
vy

=2

dx ux + dy uy
~ 2
kdk

dx
dy

ux
uy

d2

d d

d d

d2

x y
x
2 kdk
~ 2 ux + 2 kdk
~ 2 uy ux
y
y
2 kxdk
~ 2 ux + 2 kdk
~ 2 uy uy

Esto se puede expresar matricialmente mediante una transformacin lineal:

~v = T (~u) = A~u

vx
vy

d2

x
2 kdk
~ 2 1

d d

y
2 kxdk
~ 2

d2

y
2 kdk
~ 2

ux

uy
1

d d

y
2 kxdk
~ 2

(4.6)

La Ecuacin (4.6) no es necesario memorizarla y desde un punto de vista prctico interesa mucho ms
entender y conocer el proceso realizado para su obtencin, dado en la Ecuacin (4.4) y Ecuacin (4.5)
. Este proceso es general e independiente de la dimensin de espacio en que nos encontremos.

Ejemplo 4.21. Encontrar las matrices asociadas a las TL correspondientes a las reflexiones de
un vector ~u = [ux , uy ] de 2 sobre las siguientes rectas, encontrando las coordenadas del vector
reflectado ~v :

a) Eje x.
b) Eje y.
c) Recta y = x.
Solucin: Vamos a hacer uso de la matriz encontrada en la Ecuacin (4.6).
a) El eje x corresponde con la recta y = 0 que tiene por vector director d~ = [1, 0]. Por tanto
la matriz correspondiente a la TL que define la reflexin es:




1
0
ux
M=
= ~v = M~x =
0 1
uy
b) El eje y corresponde con la recta x = 0 que tiene por vector director d~ = [0, 1]. Por tanto
la matriz correspondiente a la TL que define la reflexin es:




1 0
ux
M=
= ~v = M~x =
0 1
uy
c) La recta y = x tiene por vector director d~ = [1, 1]. Por tanto la matriz correspondiente a
la TL que define la reflexin es:




0 1
uy
M=
= ~v = M~x =
1 0
ux

Pedro Jos Hernando Oter

Clases de lgebra

168

TEMA 4: Transformaciones Lineales

Ejemplo 4.22. En 2 , encontrar las nuevas coordenadas del rectngulo con vrtices (1, 1),
(3, 1), 3, 2) y (1, 2), cuando se le realiza un movimiento de reflexin sobre la recta y = x.
Solucin: La recta y = x tiene por vector director d~ = [1, 1]. Por tanto la matriz
correspondiente a la TL que define la reflexin es:


0 1
M=
1 0
P 0 = T (P ) = M P =

0
1

1
0



1
1

3
1

3
2

1
2

1
1

1
3

2
3

2
1

4.7.5. Reflexiones sobre Rectas en

R3

Como se ha comentado, el proceso seguido para obtener la Ecuacin (4.5) es vlido para cualquier
dimensin, de forma que se puede obtener, siguiendo los mismos pasos de la seccin anterior, la matriz
3 3 asociada a la TL de una reflexin de un vector ~u de 3 sobre una recta que pasa por el origen
con vector director d~ = [dx , dy , dz ] y el correspondiente vector reflejado ~v .

Desde un punto de vista operacional, resulta ms interesante realizar el proceso de clculo dado en
la Ecuacin (4.5) que calcular la matriz de reflexin y utilizarla para calcular el vector reflejado. Por
otra parte, la matriz de reflexin tiene mucho inters desde un punto de vista geomtrico.
Ejemplo 4.23. Calcular la reflexin del vector ~u = [1, 1, 1] de

x = 2t
y = t

z = 3t

R3 sobre la recta:

Solucin: El vector director de esta recta es d~ = [2, 1, 3], de forma que se tiene:
z

~u

Clases de lgebra

2
1
~
d ~u ~
[2, 1, 3] [1, 1, 1]
1 1 =
~v = 2
d ~u = 2
2
~
[2, 1, 3] [2, 1, 3]
kdk
3
1

~v

2
1
5
6
1
1
1 1 =
=
7
7
3
11
1

Pedro Jos Hernando Oter

4.7. Transformaciones Geomtricas. Movimientos en

4.7.6. Reflexiones sobre Planos en

R2 y R3

169

R3

Al igual que se hizo en las reflexiones de vectores sobre rectas, tambin se puede determinar en
reflexin ~v de un vector ~u sobre un determinado plano que pasa por el origen44 .

R3 la

~n
p~
~y

~u

w
~
b

p~
~v

Para ello sigue siendo vlida la Ecuacin (4.4):


~v = ~u + 2w
~
En este caso, si se denomina ~y al vector proyeccin ortogonal del vector ~u sobre el vector normal al
plano ~n, se puede determinar geomtricamente, (ver la figura), que w
~ = ~y , por tanto:
~v = ~u + 2w
~ = ~u 2~y = ~u 2 proy~n (~u) = ~u 2

Ejemplo 4.24. Calcular la reflexin del vector ~u = [1, 1, 1] de

~n ~u
~n
~n ~n

(4.7)

R3 sobre el plano:

x + y 2z = 0
Solucin: En este caso el vector normal del plano es ~n = [1, 1, 2], de forma que aplicando la
Ecuacin (4.7) se tiene:

1
1
1
1
5
[1,
1,
2]

[1,
1,
1]
2
1
~n ~u
1 = 1 + 1 =
1
~v = ~u2
~n = 1 2
~n ~n
[1, 1, 2] [1, 1, 2]
3
3
1
1
2
2
1

4.7.7. Homotecias en

R2 y R3

Se denomina homotecia a las transformaciones que modifican las dimensiones de


cambiar su forma ni orientacin. Las homotecias corresponden con expansiones
una figura. Matricialmente, las homotecias con centro en el origen y razn d se
mediante una transformacin lineal cuya matriz asociada es:


1 0
d
..

.
0
.. = ...
P = T (P ) = HP
;
H = dI = d .
0

una figura pero sin


y compresiones. de
pueden representar

0
..
.
d

Si d > 1 corresponder con una expansin (aumento de tamao) y si 0 < d < 1 corresponder con
una compresin (disminucin de tamao).
44 Y

por tanto con ecuacin general ax + by + cz = 0.

Pedro Jos Hernando Oter

Clases de lgebra

170

Ejemplo 4.25. En 2 , encontrar las nuevas coordenadas del rectngulo con vrtices (1, 1),
(3, 1), 3, 2) y (1, 2) sometido a una homotecia de centro en el origen y razn 3.
Solucin: La matriz asociada a la TL de la homotecia es:


3 0
H=
0 3
Aplicando esta TL a la matriz de los vrtices del rectngulo se obtiene:


 
3 0
1 3 3 1
3 9 9
0
P = T (P ) = HP =
=
0 3
1 1 2 2
3 3 6

3
6

Siendo por tanto los nuevos vrtices (2, 2), (6, 2), (6, 4) y (2, 4) respectivamente.
y

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

TEMA 4: Transformaciones Lineales

Clases de lgebra

Pedro Jos Hernando Oter

TEMA

Bases
Contenido
5.1
5.2

Bases en n . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Coordenadas y Matriz asociada a una Base
Cambio de Base . . . . . . . . . . . . . . . . . . . .
5.2.1 Matriz de Cambio de Base . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

173
173
176
176

171

Matriz Asociada a una Base

Clases de lgebra

Vector de Coordenadas

Coordenadas

Propiedades

Bases

Matriz de Cambio de Base

Teoremas

Cambio de Base

172
TEMA 5: Bases

Pedro Jos Hernando Oter

5.1. Bases en

Rn

173

5.1. Bases en

Rn

Recordatorio
Dado un sistema de vectores S, subconjunto de otro sistema de vectores V , S V , se dice
que S es un conjunto o sistema generador1 de V , si todo vector ~v V es linealmente
dependiente de S.
Una base2 de un conjunto de vectores V es un conjunto generador de V formado por vectores
linealmente independiente.
Al nmero de vectores que contiene cualquier base de un conjunto de vectores V se denomina
dimensin3 de V .

5.1.1. Coordenadas y Matriz asociada a una Base


Definicin 5.1 (Coordenadas de un Vector respecto una Base)
Sea una base B = {~v1 , , ~vm } de un subespacio W n de dim(W ) = m. Cualquier vector
~x W se puede escribir de forma nica como:

~x = c1 v~1 + c2~v2 + + cm~vm


Los escalares c1 , , cm se denominan coordenadas de ~x respecto de la base B y el
vector:

c1

[~x]B = ...
cm

se denomina vector de coordenadas de ~x respecto de la base B.

Definicin 5.2 (Matriz Asociada a una Base)


La definicin de un vector ~x W en una base B de W se puede expresar como una TL4 de la
siguiente forma:

~x = c1 v~1 + c2~v2 + + cm~vm

c1

= [~v1 ~vm ] ... = PB [~x]B


cm

donde PB = [~v1 ~vm ] nm es la matriz asociada 5 a la TL que define la base y se


denomina matriz asociada a la base B.
1 Ver

la
la
3 Ver la
4 Ver la
5 Ver la
2 Ver

Definicin
Definicin
Definicin
Definicin
Definicin

2.20, pgina 80.


2.21, pgina 81.
2.22, pgina 81.
4.1, pgina 139.
4.2, pgina 140.

Pedro Jos Hernando Oter

Clases de lgebra

174

TEMA 5: Bases

La matriz PB asociada a una base B de un subespacio vectorial W


columna corresponden con los vectores de la base ordenados.
Ejemplo 5.1. Sea la base B = {[3, 1], [1, 3]} de

Rn es aquella cuyos vectores

R2 .

a) Encontrar la matriz asociada a la base B, PB .


b) Si ~x = [10, 10], encontrar [~x]B .
c) Si [~u]B = [2, 1], encontrar el vector ~u en la base cannica.

d) Encontrar, en caso de que exista, una base C de 2 donde el vector w


~ = [1, 1] en la base
cannica, tenga por vector de coordenadas [w]
~ C = [1, 1] en la base C.
Solucin:
a)
PB =

3
1

1
3

b) Tenemos que encontrar el vector de coordenadas del vector ~x en la base B.




 

 


10
3
1
3 1
c1
~x = c1~v1 + c2~v2 = PB [~x]B =
= c1
+ c2
=
10
1
3
1
3
c2
Resolviendo el SEL:



0 10
3 1 10

1
3 10
10
0

20
40

c2 = 2
c1 = 4

[~x]B =

4
2

c) Tenemos que encontrar un vector ~u a partir de sus coordenadas dadas en la base B. Para
ello, basta con determinar el vector resultado de la combinacin lineal:
~u = PB [~u]B =

3
1

1
3



2
1

7
1



1
1

~u =

7
1

d) Se tiene que cumplir:


w
~ = PC [w]
~C

1
1

a
c

b
d

a+b=1
c + d = 1

Este es un sistema compatible indeterminado, con infinitas soluciones:

a=1b=1t
a


 a



b
1 1 0 0
b
1
b
=
t

=
=
c
0 0 1 1 c
1
c = 1 d = 1 s

d
d=s
d
Una posible solucin sera por ejemplo para t = s = 1:
PC =

Clases de lgebra

0
2

1
1

CW =



0
2



1
1
0
0 1 0
=


1 +t 0 +s 1
0
0
1

  
1
,
1

Pedro Jos Hernando Oter

5.1. Bases en

Rn

175

Teorema 5.1 (Propiedades del Vector de Coordenadas)


Sea B = {~v1 , , ~vn } una base del subespacio W m , y sean ~x, ~y W y

R. Entonces:

1. [~x + ~y ]B = [~x]B + [~y ]B .


2. [~x]B = [~x]B .

Demostracin 5.1
Sean:


[~x]B = [c1 , , cn ] = ~x = c1~v1 + + cn~vn


[~y ]B = [d1 , , dn ] = ~y = d1~v1 + + dn~vn

Aplicando propiedades de los espacios vectoriales6 se tiene:


~x +~y = (c1 +d1 )~v1 + +(cn +dn )~v1

~x = (c1~v1 + + cn~v1 )

[~x +~y ]B = [(c1 +d1 ), , (cn +dn )] = [~x]B +[~y ]B

[c~x]B = [c1 , , cn ] = [~x]B

Las dos propiedades del Teorema 5.1 se pueden resumir en una sola7 :
[1~v1 + + n~vn ]B = 1 [~v1 ]B + + n [~vn ]B
Esto implica que las coordenadas de una combinacin lineal de vectores en una base determinada
coincide con la combinacin lineal de las coordenadas de los vectores en la misma base.

Teorema 5.2
En el espacio n las coordenadas de cualquier vector ~x
B = {~v1 , , ~vn }, se pueden obtener como:

c1

~x = PB [~x]B = [~v1 , , ~vn ] ...


=

Rn

en una determinada base

[~x]B = PB1 ~x

cn

6 Ver

la Seccin 2.2, pgina 66.


igual que se hizo en el Teorema 4.1, pgina 141, con las propiedades de una TL, que fueron resumidas en la
pgina 142.
7 Al

Pedro Jos Hernando Oter

Clases de lgebra

176

TEMA 5: Bases

Demostracin 5.2
Como en este caso la matriz PB es cuadrada y con vectores columna linealmente
independientes (por ser una base), siempre es invertible.

5.2. Cambio de Base

Muchas veces en la prctica interesa trabajar en un determinado sistema de coordenadas definido por
una determinada base. Vamos a ver como se realiza el cambio de base en espacios n .

Ejemplo 5.2. Sea un subespacio vectorial W n . Dado el vector ~x = [1, 1, 1]T W ,


determinar los vectores de coordenadas del vector ~x, en las siguientes dos bases: BW = {~v1 , ~v2 } =
{[1, 1, 0]T , [2, 0, 1]T } y CW = {~u1 , ~u2 } = {[1, 1, 0]T , [1, 1, 1]T }
Solucin: Hay que resolver dos SEL, uno con cada base.
a) Con respecto a la primera base BW = {~v1 , ~v2 } = {[1, 1, 0]T , [2, 0, 1]T }, tenemos que
resolver el sistema:


1 2  
1
2
1
c
1
0
= 1
c1 1 + c2 0 = 1
c2
0
1
1
1
0
Cuya solucin es c1 = 1, c2 = 1, por tanto el vector de coordenadas es: [~x]B = [1, 1]T
b) Con respecto a la segunda base CW = {~u1 , ~u2 } = {[1, 1, 0]T , [1, 1, 1]T } , tenemos que
resolver el sistema:

1
1
1
1  
1
c
c1 1 + c2 1 = 1 1 1 = 1
c2
0
1
0 1
1
Cuya solucin es c1 = 0, c2 = 1, por tanto el vector de coordenadas es [~x]C = [0, 1]T .

5.2.1. Matriz de Cambio de Base


Definicin 5.3 (Matriz de Cambio de Base)
Sean B = [~v1 , , ~vk ] y C = [~u1 , , ~uk ] dos bases de un mismo subespacio vectorial W n
de dimensin k n. Se denomina matriz de cambio de base de B a C, y se denota por
PCB , a la matriz de n k cuyas columnas son los vectores de coordenadas de B con respecto
aC:
PCB = [[~v1 ]C , , [~vk ]C ]

Clases de lgebra

Pedro Jos Hernando Oter

5.2. Cambio de Base

177

Teorema 5.3 (Cambio de Base)


Sean B = [~v1 , , ~vk ] y C = [~u1 , , ~uk ] bases de un espacio vectorial W
k n, y PCB la matriz de cambio de base de B a C. Entones:
[~x]C = PCB [~x]B

Rn de dimensin

~x W

Demostracin 5.3
Sea ~x W y [~x]B = [c1 , , ck ]T , entonces ~x = c1~v1 + + ck~vk , y por tanto:

c1

[~x]C = [c1~v1 + + ck~vk ]C = c1 [~v1 ]C + + ck [~vk ]C = [[~v1 ]C , , [~vk ]C ] ... = PCB [~x]B
ck

Toda matriz de cambio de base PCB en un subespacio vectorial de dimensin k, es una matriz
cuadrada e invertible de dimensin k k.
Ejemplo 5.3. Encontrar la matriz de cambio de base de B a C, PCB , correspondiente a las
bases del Ejemplo 5.2, y aplicarla al vector ~x = [1, 1, 1]T . Comprobar el resultado con el
obtenido en el Ejemplo 5.2.
Solucin: PCB = [[~v1 ]C , , [~vn ]C ]




   
1
1  
1
c1
c
c1
1
Sol.
1

1 1
[~v1 ]C =
: PC [~v1 ]C = ~v1 =
= 1
=
c2
c2
c2
0
0 1
0
[~v2 ]C =

c1
c2

: PC [~v2 ]C = ~v2

  

1
1  
2
c
c1
1
Sol.
1

1 1
0
=
=
=
c2
c2
1
0 1
1


1 1
PCB =
0 1

Comprobacin: segn la solucin del Ejemplo 5.2, el vector ~v en la base B es [~x]B = [1, 1]T .
Vamos a determinar su valor en la base C utilizando la matriz de cambio de base PCB .

  

1 1
1
0
[~x]C = PCB [~x]B =
=
0 1
1
1
que coincide con lo calculado en el Ejemplo 5.2.
La ventaja que tiene la matriz de cambio de base es que una vez obtenida, los vectores de coordenadas
se obtienen mediante una simple multiplicacin matriz-vector, sin necesidad de resolver ningn
sistema de ecuaciones lineales.

Pedro Jos Hernando Oter

Clases de lgebra

178

TEMA 5: Bases

Teorema 5.4
Sean B = [~v1 , , ~vn ] y C = [~u1 , , ~un ] bases del espacio
cambio de base de B a C. Entonces:
1. PCB es la nica matriz M tal que: M [~x]B = [~x]C

Rn

y sea PCB la matriz de

~x

Rn .

2. PCB es invertible.
3. (PCB )1 = PBC .

Demostracin 5.4
1. Sea M una matriz con la propiedad M [~x]B = [~x]C para todo ~x n . Tomando ~x = ~ui ,
(i-sima componente de la base B), se tiene que [~x]B = [~ui ]B = ~ei y por tanto:

M [~x]B = M [~ui ]B = M~ei = [~ui ]C


que corresponde con la i-sima columna de la matriz MCB . Por tanto, para toda i se
tiene que M = PCB .
(Contina en la pgina siguiente)

Demostracin 5.4 (Continuacin)


2. Como B = {~u1 , , ~un } es un conjunto linealmente independiente, P [~x]B = [~x]C =
{[~u1 ]C , , [~un ]C } tambin lo es, ya que la nica posibilidad de que se cumpla:
c1 [~u1 ]C + + cn [~un ]C = [c1 ~u1 + + cn ~un ] = ~0
es que c1 = = cn = 0, que es la definicin de independencia lineal de vectores8 . Por
tanto P [~x]B = [~x]C es invertible.
3. Como PCB es invertible y:
PCB [~x]B = [~x]C

[~x]B = (PCB )1 [~x]C

y debido a la unicidad de la matriz de cambio de base, tenemos que PBC = (PCB )1 .

Teorema 5.5
Sean B = [~v1 , , ~vn ] y C = [~u1 , , ~un ] bases del espacio
PBC = (PB )1 PC

Clases de lgebra

Rn , entonces:

PCB = (PC )1 PB

Pedro Jos Hernando Oter

5.2. Cambio de Base

Nota 5.1. Esta frmula slo es vlida para bases de espacios n , donde las matrices asociadas a las bases son cuadradas
e invertibles, y no para bases de subespacios W n , donde las matrices no son cuadradas y por tanto no invertibles.

Demostracin 5.5
Sea ~x n , entonces:

179

~x = PB [~x]B
~x = PC [~x]C

PB [~x]B = PC [~x]C

[~x]B = (PB )1 PC [~x]C = PBC [~x]C


[~x]C = (PC )1 PB [~x]B = PCB [~x]B

Ejemplo 5.4. La matriz de cambio de una base B a una base C de un subespacio W es:

1
1 1
1 1
PCB = 2
1 1 1
Sabiendo que expresados en la base cannica, los vectores de la base B son:
B = {~u1 = [1, 0, 1], ~u2 = [1, 1, 0], ~u3 = [0, 0, 1]}
encontrar los vectores de la base C = {~v1 , ~v2 , ~v3 }.
Solucin: La matriz de cambio de base cumple para cualquier vector ~x del subespacio:
[~x]C = PCB [~x]B
donde [~x]C y [~x]B son los vectores de coordenadas del vector ~x en las bases C y B respectivamente.
La matriz de cambio de base se puede obtener como:


PCB = [~u1 ]C [~u2 ]C [~u3 ]C

donde ~ui son los vectores de la base B. Por tanto, los elementos de la columna i de la matriz
PCB son los coeficientes de la combinacin lineal de los vectores ~vi de la base C para obtener
~ui .

1
1 1
~v1 + 2~v2 + ~v3 = ~u1
~v1 + ~v2 ~v3
= ~u2
1 1 =
PCB = 2

1 1 1
~v1 + ~v2 + ~v3
= ~u3
De forma matricial lo podemos expresar como:

1 1

 1

~v1 ~v2 ~v3 2
1 1 = ~u1
1 1 1


donde ~v1
columnas.

8 Ver

~v2

~v3

~u1

~u2

~u3

~u2

~u3

son matrices con los correspondientes vectores como


(Contina en la pgina siguiente)

la Seccin 2.4.2, pgina 73.

Pedro Jos Hernando Oter

Clases de lgebra

180

TEMA 5: Bases

Ejemplo 5.4 (Continuacin).


Despejando la matriz con los vectores ~vi , se tiene:


~v1

~v2

~v3

~u1

~u2

~u3

1
2
1

1
1 1
1 1
1 1

(5.1)

Por tanto basta con calcular la inversa de la matriz PCB y multiplicarla por una matriz con
los vectores columna ~ui y se obtendr una matriz con los vectores columna ~vi .
Calculamos primero la matriz inversa:

1
1
1
1 0 0
1
1 1 1 0 0
F 2F1
0 1 1 2 1 0
2
1 1 0 1 0 2
F3 F1
1 1 1 0 0 1
0 2
0 1 0 1

1
F 1+F2
0

F3 2F2
0

0
0
1 1
0
2

1
2
3

1 0
1
F2
0
1 0

1
2 F3
2 1
0

1 0 0
F F3
0 1 0
2
0 0 1

Y ahora calculamos los vectores ~vi

1 1


~v1 ~v2 ~v3 = 0 1
1 0
Y por tanto la solucin es:

1
1/2
3/2

0
1
0

0 1
1
2
1 3/2

1
0
0 1/2
1
1/2

con la frmula (5.1):


0
1
1
0
1/2
0 1/2
0 1/2 = 1/2
1
3/2 1
1/2
1/2

1
0
1
0
1 1/2

1
0
0

1/2
1/2
1/2

1/2
1
1/2
~v1 = 1/2 ; ~v2 = 0 ; ~v3 = 1/2
1/2
0
1/2

Ejemplo 5.5. Comprobar el resultado obtenido en el Ejemplo 5.4 para el vector ~u1 .
Solucin: El vector de coordenadas de ~u1 en la base B es [~u1 ]B = [1, 0, 0], ya que ~u1 es el
primer vector de dicha base. Entonces el vector de coordenadas de ~u1 en la base C es:

1
1 1
1
1
1 1 0 = 2
[~u1 ]C = PCB [~u1 ]B = 2
1 1 1
0
1
Por tanto, ~u1 se puede obtener por combinacin lineal de los vectores de la base C como:

1/2
1
1/2
1
~u1 = PC [~u1 ]C = ~v1 + 2~v2 + ~v3 = 1/2 + 2 0 + 1/2 = 0
1/2
0
1/2
1

Esto comprueba que los vectores ~vi estn bien calculados. De igual forma se podra comprobar
para ~u2 y ~u3 .

Clases de lgebra

Pedro Jos Hernando Oter

TEMA

Ortogonalidad
Contenido
6.1

6.2

6.3
6.4
6.5

6.6
6.7
6.8
6.9

Ortogonalidad en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.1 Conjunto Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . .
6.1.2 Vector Ortogonal a un Subespacio . . . . . . . . . . . . . . . . . .
Bases Ortogonales y Ortonormales . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Bases Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.2 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . .
Matrices Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.1 Propiedades de las Matrices Ortogonales . . . . . . . . . . . . . .
TL Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.1 Caractersticas del Complemento Ortogonal . . . . . . . . . . . .
6.5.2 Clculo del Complemento Ortogonal . . . . . . . . . . . . . . . .
6.5.3 Relaciones de Ortogonalidad entre los Subespacios de una Matriz
6.5.4 Dimensin del Complemento Ortogonal . . . . . . . . . . . . . . .
Proyeccin Ortogonal y Vector Perpendicular sobre Subespacios . . . . .
Teorema de la Descomposicin Ortogonal . . . . . . . . . . . . . . . . . .
Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . .
Factorizacin QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

183
183
184
185
185
187
188
189
190
190
191
191
192
194
195
197
198
199

181

Conj. Ortogonal

Clases de lgebra
Proceso de Gram-Schmidt

Cambio de Base

Propiedades

Matrices Ortogonales

Definicin

Calculo

Bases Ortogonales

Bases Ortonormales

Vector Ortogonal
a un Subespacio

Definicin

Propiedades

TL Ortogonales

Ortogonalidad

Definicin

Propiedades

Relacin con
Sub. Fund. Mat.

Complemento Ortogonal

Vec. Perpendicular

Definiciones

Teo. Descomp.
Ortogonal

Propiedades

Proy. Ortogonal
sobre Subespacios

Definicin

Clculo

Factorizacin QR

182
TEMA 6: Ortogonalidad

Pedro Jos Hernando Oter

6.1. Ortogonalidad en

Rn

183

6.1. Ortogonalidad en

Rn

6.1.1. Conjunto Ortogonal


Definicin 6.1 (Conjunto Ortogonal)
Se dice que un conjunto de vectores {~v1 , ~v2 , ~vk } de
vectores distintos del conjunto son ortogonales 1 :
~vi ~vj = 0

P
P

R


si i 6= j

Rn es ortogonal si todos los pares de

i, j = 1, 2, , k

Nota 6.1. Desde el punto de vista geomtrico, los vectores de un conjunto ortogonal son mutuamente perpendiculares,
es decir el ngulo entre ellos es /2 rad = 90o .

Ejemplo 6.1. La base cannica 2 {~e1 , , ~en } de

Rn es un conjunto ortogonal.

Ejemplo 6.2. Demostrar que el conjunto V = {~v1 , ~v2 , ~v3 }


[2, 1, 1], ~v2 = [0, 1, 1] y ~v3 = [1, 1, 1].

R3

es ortogonal, donde ~v1 =

Solucin: Tenemos que demostrar que todo producto escalar entre vectores distintos del conjunto
es siempre cero.

~v1 ~v2 = 2 0 + 1 1 1 1 = 0
~v1 ~v3 = 2 1 1 1 1 1 = 0

~v2 ~v3 = 0 1 1 1 + 1 1 = 0
Teorema 6.1
Todo conjunto ortogonal de vectores no nulos {~v1 , , ~vk } de
independiente 3 .

Rn , es un conjunto linealmente

Demostracin 6.1
Siguiendo la definicin de conjunto linealmente independiente de vectores, vamos a
determinar qu escalares c1 , , ck verifican c1~v1 + + ck~vk = 0.
Para cualquier vector ~vi de un conjunto ortogonal se tendra:

(c1~v1 + + ck~vk ) ~vi = 0

c1 (~v1 ~vi ) + + ci (~vi ~vi ) + + ck (~vk ~vi ) = 0

Todos los productos (~vj ~vi ) son cero salvo para j = i, por tanto
ci (~vi ~vi ) = 0

ci = 0

ya que ~vi 6= ~0 y por tanto (~vi ~vi ) 6= 0. Como esta expresin es vlida para cualquier
i = 1, , k, implica que un conjunto ortogonal es un conjunto linealmente independiente.
1 Ver

la definicin de vectores ortogonales en la Seccin 2.10, pgina 91.


la Seccin 2.5.1, pgina 81.
3 Ver la Seccin 2.4.2, pgina 73.
2 Ver

Pedro Jos Hernando Oter

Clases de lgebra

184

U
R


TEMA 6: Ortogonalidad

6.1.2. Vector Ortogonal a un Subespacio


Definicin 6.2 (Vector Ortogonal a un Subespacio)
Sea W un subespacio de n . Se dice que un vector ~v n es ortogonal al subespacio W
si ~v es ortogonal a todos los vectores de W .

Teorema 6.2
Un vector ~v n es ortogonal a un subespacio W
los vectores que generan4 el subespacio.

Rn si y slo si es ortogonal a todos

Demostracin 6.2
Sea ~v n y un subespacio W n de dimensin dim(W ) = k con una base cualquiera
B = {~u1 , , ~uk }. Todo vector w
~ W se puede expresar entonces como:

w
~ = c1 ~u1 + + ck ~uk

Cualquier vector ~v

Rn ser ortogonal a cualquier w~ W si:

~v w
~ = ~v (c1 ~u1 + + ck ~uk ) = c1 (~v ~u1 ) + + ck (~v ~uk )
De forma que si:
~v ~ui = 0 ; 1 i k

Ejemplo 6.3. Determinar si el vector ~v = [1, 1, 1]


W 3 definido por:
W : x+y+z =0

Solucin:

x =
y =

z =

~v w
~ =0

R3

es ortogonal al subespacio

Vamos a encontrar primero una base de W . Expresando W en forma vectorial:

t
x
1
0
0
1

s
= y = t 0 + s 1 = BW = 0 , 1

t s
z
1
1
1
1

Claramente podemos observar que el vector ~v es ortogonal a los dos vectores de la base y por tanto
es ortogonal a W . Por otra parte, desde un punto de vista geomtrico, es fcil comprobar que ~v
es paralelo al vector normal al plano W , ~n = [1, 1, 1] y por tanto es perpendicular (ortogonal) a
todo vector del plano.

4 Es

decir, a cualquier conjunto generador y ms concretamente, a cualquiera de sus bases.

Clases de lgebra

Pedro Jos Hernando Oter

6.2. Bases Ortogonales y Ortonormales

185

6.2. Bases Ortogonales y Ortonormales

U
P
P

6.2.1. Bases Ortogonales


Definicin 6.3 (Base Ortogonal)
Una base ortogonal de un subespacio 5 W de
conjunto ortogonal.

Rn es una base 6 de W

constituida por un

Ejemplo 6.4. En el Ejemplo 6.2, los tres vectores son ortogonales y por tanto son linealmente
independientes. Como adems su nmero (3) coincide con la dimensin 7 del espacio al que
pertenecen 3 , forman una base ortogonal de 3 .

Ejemplo 6.5. Encontrar una base cualquiera y una base ortogonal del subespacio W de
dado por:


W = [x, y, z] : x y + 2z = 0

R3

Solucin: Una base ser un conjunto linealmente independiente de n vectores que cumplan esa
ecuacin, donde n es la dimensin de W . Despejando x = y 2z y tomando los parmetros y = t
y z = s se tiene que el subespacio W formado por todos los vectores incluidos en el plano es:

x
t 2s
1
2
y=
t = t 1 + s 0 = t~v1 + s~v2
z
s
0
1

Como hay dos parmetros libre, se tiene8 que dim(W ) = 2. Como adems ~v1 y ~v2 son vectores
que pertenecen a W y son linealmente independientes (no paralelos), ambos forman una base
del subespacio W :
BW = {~v1 , ~v2 }

Esta base no es ortogonal ya que ~v1 ~v2 = 2 6= 0. Una base ortogonal se formar con dos vectores
que pertenezcan al plano y sean ortogonales. Sean esos vectores ~u1 = [a, b, c] y ~u2 = [d, e, f ],
entonces deben de cumplir:


= 0
a b + 2c
Cumplen la ec. del plano.
d e + 2f
= 0

ad + be + cf = 0
Ortogonalidad

Este es un sistema no lineal de 3 ecuaciones y 6 incgnitas, por lo puede tener infinitas soluciones.
Vamos a encontrar una solucin simple, fijando algunos valores y determinando el resto:
a = 1, b = 1
d = 1, e = 1

Ec. 1

c = 0
Ec. 3

f = 1
(Contina en la pgina siguiente)

5 Ver

la Definicin 2.9, pgina 71.


la Definicin 2.21, pgina 81.
7 Ver la Definicin 2.22 y la Seccin 2.5.2 en la pgina 82.
8 Aplicando la ecuacin de equilibrio, (ver la Definicin 1.16, pgina 40.) a este caso obtenemos tambin que
n = 3 1 = 2.
6 Ver

Pedro Jos Hernando Oter

Clases de lgebra

186

TEMA 6: Ortogonalidad

Ejemplo 6.5 (Continuacin).


Por tanto, una posible base ortogonal de W ser el conjunto:

BW

1
1
= {~u1 , ~u2 } = 1 , 1

0
1

Teorema 6.3
Sea B = {~v1 , , ~vk } una base ortogonal de un subespacio W
sea ~x W . Entonces los escalares nicos9 c1 , , ck tales que,

Rn de dimensin k n y

~x = c1~v1 + + ck~vk = PB [~x]B


estn dados por:
ci =

~vi ~x
~vi ~vi

i = 1, , k

Demostracin 6.3
Como B es una base de W , existen los escalares nicos c1 , , ck tales que ~x = c1~v1 + +ck~vk ,
por tanto:
~vi ~x = ~vi (c1~v1 + + ck~vk ) = c1 (~vi ~v1 ) + + ci (~vi ~vi ) + + ck (~vi ~vk ) =
= 0 + + ci (~vi ~vi ) + 0 = ci (~vi ~vi )

ci =

~vi ~x
~vi ~vi

Ejemplo 6.6. En la segunda base (ortogonal) del Ejemplo 6.5, B = {~u1 , ~u2 }
{[1, 1, 0], [1, 1, 1]}, determinar el vector de coordenadas del vector ~x = [1, 1, 1] W .
Solucin:
c1 =

~u1 ~x
0
= =0
~u1 ~u1
2

c2 =

~u2 ~x
3
=
= 1
~u2 ~u2
3

Por tanto el vector de coordenadas es [~x]B = [0, 1], igual que el obtenido en el Ejemplo 5.2,
pero sin necesidad de resolver ningn SEL.

9 Estos

coeficientes corresponden con las coordenadas del vector ~


x en la base B. Ver Seccin 5.1, pgina 173.

Clases de lgebra

Pedro Jos Hernando Oter

6.2. Bases Ortogonales y Ortonormales

187

6.2.2. Bases Ortonormales


Definicin 6.4 (Conjunto Ortonormal y Base Ortonormal)
Se dice que un conjunto de vectores {~v1 , ~v2 , ~vk } de n es ortonormal si es un
conjunto ortogonal 10 de vectores unitarios 11 .

0 si i 6= j
~vi ~vj =
1 si i = j

Una base ortonormal es aquella que est formada por un conjunto ortonormal de
vectores.

Dada una base ortogonal 12 {~v1 , , ~vk } se puede obtener fcilmente una base ortonormal
{~u1 , , ~uk }, simplemente normalizando 13 cada uno de los vectores ~vi de la base.
~ui =

R


1
1
~vi =
~vi
k~vi k
~vi ~vi

Teorema 6.4
Sea B = {~u1 , , ~uk } una base ortonormal de un subespacio W
~x W entonces:
~x = (~u1 ~x)~u1 + + (~um ~x)~uk

Rn de dimensin k y sea

Demostracin 6.4
Trivial segn el Teorema 6.3 y teniendo en cuenta que cualquier vector ortonormal ~u cumple

que ~u ~u = 1, ya que su norma es la unidad, k~uk = ~u ~u = 1.

Las bases ortogonales y ortonormales simplifican de forma considerable los clculos de cambios de
base14 .

10 Ver

la
la
12 Ver la
13 Ver la
14 Ver la
11 Ver

Definicin 6.1, pgina 183.


Definicin 2.26, pgina 89.
Definicin 6.3, pgina 185.
Seccin 2.7.5, pgina 89.
Seccin 5.2, pgina 176.

Pedro Jos Hernando Oter

Clases de lgebra

188

TEMA 6: Ortogonalidad

6.3. Matrices Ortogonales

U
!

Definicin 6.5 (Matriz Ortogonal)


Se dice que una matriz cuadrada Q
conjunto ortonormal de vectores 15 .

Rnn es ortogonal si sus vectores columna forman un

Nota 6.2.
No se utiliza el trmino matriz ortonormal, aunque quizs sera ms intuitivo.
Es habitual utilizar la notacin Q para referirse a matrices ortogonales.

Teorema 6.5
Toda matriz ortogonal Qnn verifica:
QT Q = In

Demostracin 6.5
Si ~u, ~v n son vectores columna entonces16 :

~x ~y = ~xT ~y
Por tanto, el producto matricial QT Q corresponde con todos los posibles productos escalares
entre las columnas de Q. El resultado ser 1 si coinciden columnas iguales dando lugar a
los elementos de la diagonal, 0 si las columnas son distintas dando lugar al resto de los
elementos.

n = In
QT Q =
1 2
..

.
n

Teorema 6.6
Una matriz Q es ortogonal si y slo si:
Q1 = QT

15 Ver
16 Ver

Q es una Matriz Ortogonal

la Definicin 6.4, pgina 187.


la Seccin 3.2.4, pgina 110.

Clases de lgebra

Pedro Jos Hernando Oter

6.4. TL Ortogonales

189

Demostracin 6.6
Segn el Teorema 6.5, pgina 188, una matriz ortogonal Q verifica QT Q = In . Como
los vectores columna de Q son linealmente independientes17 existe Q1 , y por tanto
multiplicando ambas partes de la igualdad anterior por la inversa, Q1 = QT , se tiene:
QT Q = In

QT QQ1 = In Q1
| {z } | {z }
In

R


QT = Q1

Q1

Teorema 6.7
Los vectores fila de una matriz ortogonal Q forman un conjunto ortonormal de vectores.

Demostracin 6.7
QT = Q1

QQT = I

6.3.1. Propiedades de las Matrices Ortogonales

Rnn una matriz ortogonal. Entonces


Q~x Q~y = ~x ~y
;
~x, ~y Rn .
kQ~xk = k~xk
;
~x Rn .

Sea Q

La inversa Q1 = QT tambin es una matriz ortogonal.


Si A y B son matrices ortogonales de igual tamao, entonces AB tambin es una matriz
ortogonal.

Demostracin
Si Q es ortogonal, QT Q = I, y por tanto se tiene:
Q~x Q~y = (Q~x)T Q~y = ~xT QT Q~y = ~xT I~y = ~xT ~y = ~x ~y
p

kQ~xk = Q~x Q~x = (Q~x)T Q~x = ~xT QT Q~x = ~xT ~x = ~x ~x = k~xk


Trivial.

Si A y B son matrices ortogonales entonces:


(AB)1 = B 1 A1 = B T AT = (AB)T
por tanto AB es una matriz ortogonal.
17 Al

ser ortogonales, ver el Teorema 6.1, pgina 183.

Pedro Jos Hernando Oter

Clases de lgebra

190

TEMA 6: Ortogonalidad

6.4. TL Ortogonales

Definicin 6.6 (TL Ortogonal)


Una TL , T : n 7 n , ~y = T (~x) = A~x, se dice que es ortogonal si la matriz A
que la define es ortogonal.

Rnn

Las TL ortogonales preservan la longitud de los vectores transformados, ya que18 :


k~y k = kT (~x)k = kQ~xk = k~xk

Ejemplo 6.7. Una rotacin de vectores en


Y

R2 con respecto al origen, corresponde con la TL19 :

~y

~x

~y = T (~x) =

cos
sen

sen
cos

~x

Esta TL es ortogonal ya que la matriz que define la transformacin es ortogonal (al ser los
vectores columna y fila ortogonales). Claramente, la rotacin preserva la longitud.

6.5. Complemento Ortogonal

Definicin 6.7 (Complemento Ortogonal)


Sea W un subespacio de n . El conjunto de todos los vectores ~v
denomina complemento ortogonal de W , y se denota por W .

W = {~v

Rn

: ~v w
~ =0

Rn ortogonales20 a W se

w
~ W}

Ejemplo 6.8. Sean P y ` un plano y una recta en 3 que pasan por el origen21 . Si la recta
es perpendicular al plano (es decir, paralela al vector normal 22 al plano), entonces todo vector
~v ` es perpendicular a P y por tanto P = ` y ` = P.
18 Ver

la Seccin 6.3.1, pgina 189.


la Seccin 4.7.2, pgina 164.
20 Ver la Seccin 6.1.2, pgina 184.
21 Notar que ambos, plano y recta, son subespacios vectoriales de
22 Ver el Tema 0, pgina 1.
19 Ver

Clases de lgebra

R3 , (ver la Definicin 2.9, pgina 71).

Pedro Jos Hernando Oter

6.5. Complemento Ortogonal

191

6.5.1. Caractersticas del Complemento Ortogonal

Rn . Entonces
W es un subespacio de Rn .

Sea W un subespacio de

(W ) = W .
W W = {~0}.
Si23 W = gen(w
~ 1, , w
~ k ), entonces ~v W sii ~v w
~ i = 0, i = 1, , k.

6.5.2. Clculo del Complemento Ortogonal


Para determinar W basta con encontrar todos los vectores que son ortogonales a todos los vectores
de una base cualquiera de W .
BW = {w
~ 1, , w
~ k}

~v W sii ~v w
~ i = 0, i = 1, , k

Nota 6.3. En la Seccin 6.5.3, pgina 192 se ver una forma alternativa de encontrar el complemento ortogonal de
un subespacio vectorial, basado en las relaciones de ortogonalidad de los subespacios fundamentales de una matriz.

Ejemplo 6.9. Dado el siguiente subespacio vectorial W


complemento ortogonal, W .

x1 + x2 = 0
W :
x2 + x4 = 0

R4 ,

Solucin: Claramente dim(W ) = 4 2 = 2 y por tanto cualquiera


vectores. Vamos a encontrar una de ellas resolviendo el sistema:

x1

x1 = x2 = s



x2

x2 = x4 = s
1 1 0 0
= t
=

x3 = t
x3
0 1 0 1

x4 = s
x4

encontrar una base del

de sus bases tienen dos

1
0

0
+ s 1

0
1
0
1

Por tanto una base del subespacio vectorial W es BW = {w


~ 1, w
~ 2 } = {[0, 0, 1, 0], [1, 1, 0, 1]}.
Los vectores ~v = [x1 , x2 , x3 , x4 ] W , deben ser ortogonales a los vectores de la base:


w
~ 1 ~v = 0
x3 = 0
=
w
~ 2 ~v = 0
x1 x2 + x4 = 0
Resolviendo este nuevo SEL obtenemos el subespacio W :

x1 = x2 x4 = t s



0
0 1 0
x2 = t

=
1 1 0 1
x

3 =0

x4 = s
23 Ver

x1
1
x2
1

x3 = t 0
x4
0

+ s 0

0
1

(Contina en la pgina siguiente)

la Seccin 2.5, pgina 80.

Pedro Jos Hernando Oter

Clases de lgebra

192

TEMA 6: Ortogonalidad

Ejemplo 6.9 (Continuacin).


Una base del complemento ortogonal de W ser por tanto:
BW = {[1, 1, 0, 0], [1, 0, 0, 1]}

6.5.3. Relaciones de Ortogonalidad entre los Subespacios de una Matriz

Rmn tiene asociados cuatro subespacios fundamentales 24


fil(A), ker(A) Rn
col(A), ker(AT ) Rm

Una matriz A

Teorema 6.8
Sea A mn . Entonces25 :

[fil(A)] = ker(A)

[col(A)] = [im(A)] = ker(AT )

Demostracin 6.8
Sea ~x n , entonces ~x (fil(A)) sii es ortogonal a cada fila de A, y esto es lo mismo
que A~x = ~0 y por tanto ~x ker(A).

Igual que antes, sustituyendo A por AT y teniendo en cuenta que fil(AT ) = col(A).

Toda matriz A

Rmn define una TL:


T : X 7 Y

donde:
El dominio de T es X =

Rn .

La imagen de T es Y = im(T ) = im(A) = col(A), donde im(T )


T enva ker(A) X a ~0 Y .
El complemento ortogonal de la imagen de T es ker(AT )
24 Ver

Rm .

Rm .

las definiciones de fil(A), col(A) y ker(A) en la Seccin 3.7, pgina 125.


a las propiedades del complemento ortogonal, tambin se pueden expresar como:

25 Debido

[ker(A)] = fil(A)

Clases de lgebra

[ker(AT )] = im(A) = col(A)

Pedro Jos Hernando Oter

6.5. Complemento Ortogonal

193

Esquemticamente podemos relacionar estos conceptos de la siguiente forma:

ker(AT )

ker(A)
TA

Rn

fil(A)

col(A)

Rm

Ejemplo 6.10. Resolver el anterior Ejemplo 6.9 teniendo en cuenta el Teorema 6.8.
Solucin: La definicin del subespacio W la podemos definir matricialmente como:


0


 x1


x1 + x2 = 0
1 1 0 0
x2 = 0
W :
=
x2 + x4 = 0
0 1 0 1 x3 0
0
x4

Por tanto, el subespacio W corresponde con el ncleo de la matriz:




1 1 0 0
A=
0 1 0 1

Como hemos visto en el Teorema 6.8: [ker(A)] = fil(A), y como las dos filas de la matriz A
son linealmente independientes se tiene:
Bfil(A) = {[1, 1, 0, 0], [0, 1, 0, 1]}

BW = {[1, 1, 0, 0], [0, 1, 0, 1]}

Notar que esta solucin no es igual que la obtenida en el Ejemplo 6.9 aunque ambas son
perfectamente vlidas y corresponden a bases distintas del complemento ortogonal W .

Esta segunda forma de calcular el complemento ortogonal de un subespacio vectorial, utilizando


el Teorema 6.8, es mucho ms rpida y prctica que la primera, ya que no necesita encontrar
previamente una base de W .

Ejemplo 6.11. Sea W el subespacio de 5 generado por los vectores:

1
1
0
3
1
1

4
5
2
w
~1 =
;
w
~
=
;
w
~
=
2
3

2
1
0
5
3
5
Calcular una base de W .

(Contina en la pgina siguiente)

Pedro Jos Hernando Oter

Clases de lgebra

194

TEMA 6: Ortogonalidad

Ejemplo 6.11 (Continuacin).


Solucin: Resolucin de forma matricial. El espacio generado por los vectores w
~ 1, w
~2 y w
~ 3 es
el mismo que col(A) de:

1 1
0
3
1 1

2
4
A= 5

0 2 1
5
3
5
Del Teorema 6.8: W = (col(A)) = ker(AT )

1 3 5
0 5 0
1
1 2 2 3 0 0
[AT |~0] = 1
0 1 4 1 5 0
0

0
1
0

0
0
1

3
1
0

0
0
0

4
3
2

Por tanto, ~y W ser y5 = t, y4 = s, y3 = 2t, y2 = 3t s, y1 = 4t 3s. Finalmente:

3
4

= t 2 + s
0 : t, s

1
0

0
1


3
4
3 1

= gen
2 , 0

1
0

0
1

6.5.4. Dimensin del Complemento Ortogonal


Sea un subespacio W

Rn , entonces26 :
dim(W ) + dim(W ) = n

Sea la matriz A

mn

, entonces:

fil(A) : rang(A) + nul(A) = n


col(A) : rang(A) + nul(AT ) = m

Nota: rang(A) = dim(fil(A)) = dim(col(A)).

Ejemplo 6.12.

R4

En el Ejemplo 6.9 el subespacio W


cumplindose la ecuacin anterior, ya que:

y vemos como dim(W ) = dim(W ) = 2,

dim(W ) + dim(W ) = 2 + 2 = 4 = n
En el Ejemplo 6.11 el subespacio W
cumplindose la ecuacin anterior:

R5 y vemos como dim(W ) = 3 y dim(W ) = 2,

dim(W ) + dim(W ) = 3 + 2 = 5 = n

26 Esto no quiere decir que se rellene todo el espacio


que ser igual a n.

Clases de lgebra

Rn con W

y W , sino que la suma de sus dimensiones tiene

Pedro Jos Hernando Oter

6.6. Proyeccin Ortogonal y Vector Perpendicular sobre Subespacios

195

6.6. Proyeccin Ortogonal y Vector Perpendicular sobre


Subespacios

Definicin 6.8 (Proyeccin Ortogonal sobre un Subespacio)


Sea un subespacio W n y B = {~u1 , , ~uk } una base ortogonal 27 de W .
Entonces, para cualquier vector ~v n se define la proyeccin ortogonal28 de ~v sobre W
como:




~u1 ~v
~uk ~v
proyW (~v ) = proy~u1 (~v ) + + proy~uk (~v ) =
~u1 + +
~uk
~u1 ~u1
~uk ~uk

Si la base B es ortonormal

~
ui ~
ui = 1.




~
u1 ~v
~
uk ~v
proyW (~v ) = proyu
(~
v
)
+

+
proy
(~
v
)
=
~
u
+

+
~
uk = (~
u1 ~v ) ~
u1 + + (~
uk ~v ) ~
uk
1
~1
u
~k
~
u1 ~
u1
~
uk ~
uk

Nota 6.4.

Definicin 6.9 (Vector Perpendicular a un Subespacio)


Sea un subespacio W n . Para cualquier vector no nulo ~v n se define el vector
perpendicular29 de ~v sobre W al vector proyeccin ortogonal de ~v sobre el complemento
ortogonal de W :
perpW (~v ) = proyW (~v ) = ~v proyW (~v )

Interpretacin Geomtrica
perpW (~v )
~v
p~1
~u1
W

p~2
~u2

proyW (~v )

En la figura se muestra la proyeccin ortogonal de un vector ~v 3 sobre un subespacio W 3


de dimensin 2 (plano), con base ortogonal B = {~u1 , ~u2 }.
Los vectores p~1 = proy~u1 (~v ) y p~2 = proy~u2 (~v ) son las proyecciones ortogonales de ~v sobre cada uno
de los vectores de la base de W .
Grficamente podemos comprobar como proyW (~v ) = p~1 + p~2 .
27 La

base debe ser obligatoriamente ortogonal para que la frmula sea vlida.
la Seccin 2.11, pgina 92.
29 Ver la Seccin 2.11.2, pgina 95.
28 Ver

Pedro Jos Hernando Oter

Clases de lgebra

196

TEMA 6: Ortogonalidad

Ejemplo 6.13. En

R3 sea el vector ~v = [3, 1, 2] y el plano W definido por:


W : x y + 2z = 0

Encontrar la proyeccin ortogonal de ~v sobre W y la componente de ~v ortogonal a W .


Solucin: Podemos resolverlo de dos formas:
Forma 1: Utilizando razonamientos geomtricos.
Forma 2: Utilizando la frmula de proyeccin ortogonal sobre subespacios.
Veamos a continuacin dichas formas de resolucin.
Forma 1
El vector perpW (~v ) lo podemos calcular como la proyeccin ortogonal del vector ~v sobre un vector
normal al plano ~n, perpW (~v ) = proy~n (~v ). Basndonos en la ecuacin del plano, ~n = [1, 1, 2].
~v
perpW (~v )

W
proyW (~v )

proyW (~v ) = ~v + [perpW (~v )] = ~v perpW (~v )


perpW (~v ) = proy~n (~v ) =

~n ~v
[1, 1, 2] [3, 1, 2]
4
~n =
[1, 1, 2] = [1, 1, 2]
~n ~v
[1, 1, 2] [1, 1, 2]
3

perpW (~v ) = [4/3, 4/3, 8/3]


proyW (~v ) = ~v perpW (~v ) = [3, 1, 2] [4/3, 4/3, 8/3] = [5/3, 1/3, 2/3]
proyW (~v ) = [5/3, 1/3, 2/3]
Forma 2
En el Ejemplo 6.5 se encontr una base ortogonal a este plano, B = {~u1 , ~u2 } con ~u1 = [1, 1, 0] y
~u2 = [1, 1, 1].
proyW (~v ) = p~1 + p~2 = proy~u1 (~v ) + proy~u2 (~v ) =

~u1 ~v
~u1 ~u1

~u1 +

~u2 ~v
~u2 ~u2

~u2

perpW (~v ) = ~v proyW (~v )


Por tanto:

1
1
1
2/3
5/3
2
2
proyW (~v ) = 1 + 1 = 1 + 2/3 = 1/3
2
3
0
1
0
2/3
2/3

3
5/3
4/3
perpW (~v ) = 1 1/3 = 4/3
2
2/3
8/3

Notar que el vector perpW (~v ) es paralelo al vector normal al plano ~n = [1, 1, 2].

Clases de lgebra

Pedro Jos Hernando Oter

6.7. Teorema de la Descomposicin Ortogonal

197

6.7. Teorema de la Descomposicin Ortogonal

Teorema 6.9 (Teorema de la Descomposicin Ortogonal)


Sea W n y sea un vector ~v cualquiera de n . Entonces existen vectores nicos w
~ W y
w
~ W tales que:

~v = w
~ +w
~ = proyW (~v ) + perpW (~v )

Demostracin 6.9
w
~ +w
~ = proyW (~v ) + perpW (~v ) = proyW (~v ) + (~v proyW (~v )) = ~v

Ejemplo 6.14. En
subespacio vectorial:

R4 , encontrar la descomposicin ortogonal del vector ~v = [1, 1, 1, 0] en el


W :

x1 + x2
x1 + x4

= 0
= 0

Solucin: Tenemos que encontrar la proyeccin ortogonal y el vector perpendicular de ~v sobre


W . Para ello, previamente tenemos que encontrar una base ortogonal de W :

x1 = x2 = t2
x1
1
0






x2

x2 = x4 = t2
1 1 0 0
1
1 0 0
= t1 0 +t2 1

x3
0
1
1 0 0 1
0 1 0 1
x3 = t 1

x4 = t 2
1
0
x4
Claramente la base BW = {~u1 , ~u2 } = {[0, 0, 1, 0], [1, 1, 0, 1]} ya es ortogonal. Calculamos ahora
la proyeccin ortogonal de ~v sobre W .
proyW (~v ) = proy~u1 (~v ) + proy~u2 (~v ) =

0
1

[0, 0, 1, 0] [1, 1, 1, 0]
0 + [1, 1, 0, 1] [1, 1, 1, 0] 1 = 1
=

0
[0, 0, 1, 0] [0, 0, 1, 0] 1
[1, 1, 0, 1] [1, 1, 0, 1]
2
0
1

Ahora hay que calcular el vector perpendicular de ~v con respecto a W :

0
0
=
1
0

1
1
perpW (~v ) = ~v proyW (~v ) = [1, 1, 1, 0] [0, 0, 1, 0] = [1, 1, , 0] =
2
2

0
0

w
~ =
1/2
0

1
1

w
~ =
1/2
0

Por tanto, el vector ~v se puede descomponer en la suma del vector w


~ que pertenece al subespacio
vectorial W y del vector w
~ que pertenece al complemento ortogonal de W .
~v = w
~ +w
~

Pedro Jos Hernando Oter

w
~ W,

w
~ W

Clases de lgebra

198

TEMA 6: Ortogonalidad

6.8. Proceso de Gram-Schmidt


El proceso de Gram-Schmidt es un mtodo sencillo y sistemtico para construir una base ortogonal
(u ortonormal si se normaliza) de cualquier subespacio de n .

Sea B = {~x1 , , ~xm } una base de un subespacio W

Rn y definiendo:

~
u1 = x1

W1 = gen(x1 ) = gen(u1 )


~
u2 = perpW1 (~
x2 ) = ~
x2 proyW1 (~
x2 ) = ~
x2

x3 ) = ~
x3
x3 ) = ~
x3 proyW2 (~
~
u3 = perpW2 (~

~
u1 ~
x2
~
u1 ~
u1

~
u1 ~
x3
~
u1 ~
u1

~
u1

W2 = gen(x1 , x2 ) = gen(u1 , u2 )


~
u1

~
u2 ~
x3
~
u2 ~
u2


~
u2

W3 = gen(x1 , x2 , x3 ) =
= gen(u1 , u2 , u3 )

..
.

..
.

xm ) =
xm ) = ~
xm proyWm1 (~
~
um = perpWm1 (~

=~
xm

~
u1 ~
xm
~
u1 ~
u1


~
u1

~
um1 ~
xm
~
um1 ~
um1


~
um1

Wm = gen(x1 , . . . , xm ) =
= gen(u1 , . . . , um )

Entonces para cada i = 1, , m el conjunto de vectores {~u1 , , ~ui } forma una base ortogonal del
espacio Wi . En particular el conjunto {~u1 , , ~um } es una base ortogonal de Wm = W .
Ejemplo 6.15. Encontrar una base ortogonal de

R3 que contenga el vector ~x1 = [1, 2, 3].

Solucin: Para poder aplicar el proceso de Gram-Schmidt necesitamos partir de una base
cualquiera, por tanto elegimos dos vectores ~x2 y ~x3 que no sean paralelos entre ellos ni entre ~x1 .
Por ejemplo ~x2 = [0, 1, 0] y ~x3 = [0, 0, 1].
Ahora aplicamos Gram-Schmidt a esta base:

1
~u1 = ~x1
=2
3
~u2 = ~x2

~u3 = ~x3

0
0
1

~
u1 ~
x2
~
u1 ~
u1

~
u1 ~
x3
~
u1 ~
u1


0
~u1 = 1
0


1
3
2
14
3

~u1

~
u2 ~
x3
~
u2 ~
u2

1
3
5
35
3

1
1/7
1
2
2
= 5/7 = 5
14
3/7
3
3

~u2 =

3/10
3
0 = 0
=
1/10
1

Por tanto, {~u1 , ~u2 , ~u3 } es una posible base ortogonal para 3 que contiene al vector [1, 2, 3].
Normalizando estos vectores se podra obtener una base ortonormal de 3 .

Clases de lgebra

Pedro Jos Hernando Oter

6.9. Factorizacin QR

199

6.9. Factorizacin QR

Si A mn es una matriz con columnas linealmente independientes30 y se le aplica el proceso de


Gram-Schmidt a los vectores columnas, se obtiene una importante descomposicin matricial 31 de A
conocida con el nombre de factorizacin QR.
Teorema 6.10 (Factorizacin QR)
Toda matriz A mn con columnas linealmente independientes 32 puede ser factorizada
como A = QR, donde Qmn es una matriz con columnas ortonormales 33 y Rnn es una
matriz triangular superior invertible 34 , de la forma:

Amn = Qmn Rnn

Demostracin 6.10
Sean ~c1 , , ~cn los vectores columna de la matriz Amn y sean ~q1 , , ~qn los vectores
ortonormales obtenidos al aplicar el proceso Gram-Schmidt a los vectores columna35 de A y
posterior normalizacin.
Entonces, existen escalares ij y rij tales que:

~q1 = 11~c1

~c1 = r11 ~q1

~q2 = 12~c1 + 22~c2

~c2 = r12 ~q1 + r22 ~q2

~c3 = r13 ~q1 + r23 ~q2 + r33 ~q3


~q3 = 13~c1 + 23~c2 + 33~c3
=

..
..

.
.

~cn = r1n ~q1 + r2n ~q2 + + rnn ~qn


~qn = 1n~c1 + 2n~c2 + + nn~cn

Lo cual se puede expresar matricialmente como:

A=

~c1 ~c2

~cn

~q1

~q2

~qn

r11
0
..
.

r12
r22
..
.

r1n
r2n
..
.

rnn

= QR

La matriz R se puede obtener fcilmente una vez determinada Q, ya que al tener columnas
ortogonales36 , QT Q = In y por tanto:
A = QR

QT A = QT QR

R = QT A

30 Para

lo cual es necesario que n m.


descomposicin de una matriz es una factorizacin de la misma en un producto de otras matrices, de la forma
siguiente: A = M1 M2 Mk .
32 Si A es cuadrada esto implica que es invertible.
33 La matriz Q ser una matriz ortogonal si A, y por tanto Q, es cuadrada.
34 Lo que implica que sus elementos diagonales son no nulos.
35 Siempre en el mismo orden en que aparecen, es decir q
~1 = ~c1 , q~2 = perpq~1 (~c2 ), etc. Ya que de otra forma, la matriz
R no ser necesariamente tridiagonal superior.
36 No necesariamente Q es invertible. Slo si A es cuadrada, entonces Q es ortogonal y tiene sentido hablar de la
inversa de Q, siendo adems Q1 = QT .
31 Una

Pedro Jos Hernando Oter

Clases de lgebra

200

TEMA 6: Ortogonalidad

La Demostracin 6.10 presenta de forma detallada el procedimiento de clculo de la de la factorizacin


QR de una matriz.

!
!

Nota 6.5. La factorizacin QR se puede extender a matrices arbitrarias (no necesariamente con columnas linealmente
independientes), mediante una forma ligeramente modificada, utilizando matrices de Householder.
Nota 6.6. Cuando el proceso de Gram-Schmidt se implementa en un ordenador, los errores de redondeo propios del
clculo, generan una prdida de ortogonalidad de los vectores, que puede llegar a ser una importante causa de errores.
En la prctica se suele utilizar una versin modificada de la factorizacin QR mostrada aqu, para minimizar estos
errores de redondeo.

La factorizacin QR de una matriz tiene multitud de aplicaciones en:


Resolucin de SEL de forma numrica eficiente.
Aproximacin numrica de autovalores 37 .
Aproximacin del problema de mnimos cuadrados 38 .

Ejemplo 6.16. Encontrar, en caso de ser posible, la factorizacin QR de la siguiente matriz:

1 1
1
4

A=
1
2
1
1

Solucin: Claramente los dos vectores columna de la matriz son linealmente independientes y
por tanto s es posible realizar la descomposicin QR de la matriz. Vamos a seguir los pasos
dados en la Demostracin 6.10.
1. Ortogonalizar los vectores columna de la matriz mediante el proceso de Gram-Schmidt.


~u1 = ~v1 = 1 1 1 1

~u1 ~v2
~u2 = ~v2
~u1 = 1
~u1 ~u1


 


1 1 1 1 1 4 2 1 
 

2 1 
1
1 1 1 1 1 1 1 1


5 5 1
1
=

2 2 2
2

2. Normalizando los vectores ortogonales obtenidos anteriormente podemos construir la


matriz ortogonal Q:

1/2 5/52

 1/2
5/52

Q = ~u1 ~u2 =
1/2
1/52
1/2 1/ 52

(Contina en la pgina siguiente)

37 Ver
38 Ver

el Tema 8, pgina 223.


la Seccin 7.4, pgina 210.

Clases de lgebra

Pedro Jos Hernando Oter

6.9. Factorizacin QR

201

Ejemplo 6.16 (Continuacin).


5. La matriz R se obtiene aplicando la frmula R = QT A.

R = QT A =

1/2
5/ 52

1/2

5/ 52

1/2
1/2

1/ 52 1/ 52

1
1

1
1

Como podemos observar la matriz R es triangular superior.

1

2
4
=
2
0
1

3
13

Fcilmente se puede comprobar como A = QR.


Ejemplo 6.17. Encontrar, en caso de ser posible, la factorizacin QR de la matriz:


1 0 1
A=
1 1 1
Solucin: Como esta matriz tiene dos filas, como mucho existirn dos vectores de dos
componentes linealmente independientes, y por tanto los tres vectores columna de A son
linealmente dependientes.
En conclusin, esta matriz no tiene factorizacin QR.

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Mnimos Cuadrados
Contenido
7.1
7.2
7.3
7.4
7.5
7.6
7.7

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mejor Aproximacin . . . . . . . . . . . . . . . . . . . . . . .
Aproximacin mediante Mnimos Cuadrados . . . . . . . . .
Mnimos Cuadrados mediante la Factorizacin QR . . . . . .
Error en la Aproximacin por Mnimos Cuadrados: Residuos
Ajuste de Datos mediante Mnimos Cuadrados . . . . . . . .
7.6.1 Ejemplos de Problemas . . . . . . . . . . . . . . . . .
Resumen de Frmulas de Mnimos Cuadrados . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

205
205
206
210
212
213
217
221

203

Clases de lgebra

Teorema

Teorema

Ec. Normales

Mejor Aproximacin

Aplicaciones

Error

Solucin de Mnimos Cuadrados

Mnimos Cuadrados

Factorizacin QR

204
TEMA 7: Mnimos Cuadrados

Pedro Jos Hernando Oter

7.1. Introduccin

205

7.1. Introduccin
En este tema se presenta una aplicacin muy importante de las ideas vistas sobre el complemento
ortogonal 1 y la proyeccin ortogonal 2 sobre subespacios vectoriales vistos en el tema anterior.

7.2. Mejor Aproximacin

Definicin 7.1 (Mejor Aproximacin)


Si W es un subespacio3 de V , W V , y si ~v V , entonces la mejor aproximacin de ~v
en W es el vector p~ W tal que:
k~v p~ k < k~v wk
~

w
~ W con w
~ 6= p~

~v
k~v ~pk

Interpretacin grfica en 3 de la mejor aproximacin


de un vector a un plano W que pasa por el origen. El
resultado coincide con la idea intuitiva en 2 y 3 de la
distancia ms corta como la linea recta perpendicular.

R R

p~
W
w
~

R


Teorema 7.1 (Teorema de la Mejor Aproximacin)


Si W es un subespacio de dimensin finita de un espacio V con producto interno4 y si ~v V ,
entonces proyW (~v ) es la mejor aproximacin de ~v en W .

Demostracin 7.1
~v
k~v ~pk
p~
W

Vamos a ver una intuitiva demostracin geomtrica


3
en
. Debido a la ortogonalidad de la mejor
aproximacin, podemos identificar un tringulo
rectngulo, donde k~v wk
~ =
6 0 es la hipotenusa y
k~v p~k es uno de los catetos. Por el teorema de
Pitgoras:

w
~

= k~v p~k < k~v wk


~ ; w
~ W con w
~ 6= p~

1 Ver

la Seccin 6.5, pgina 190.


la Seccin 6.6, pgina 195.
3 Debe ser un subespacio normado, es decir, en el cual se ha definido una norma determinada, como por ejemplo, la
norma eucldea.
4 Generalizacin de producto escalar.
2 Ver

Pedro Jos Hernando Oter

Clases de lgebra

206

TEMA 7: Mnimos Cuadrados

Ejemplo 7.1. Sea W el plano en 3 con ecuacin xy +2z = 0, y sea ~v = [3, 1, 2]. Encontrar
la mejor aproximacin de ~v en W y la distancia eucldea desde ~v hasta W .
Solucin: La mejor aproximacin de ~v en W ser el vector proyW (~v ) calculado en el
Ejemplo 6.13.

5/3
proyW (~v ) = 1/3
2/3

La distancia de ~v a W es la distancia de ~v al punto de W ms cercano a ~v y esta es precisamente


kperpW (~v )k = k~v proyW (~v )k. El vector perpW (~v ) tambin se calcul en Ejemplo 6.13 siendo:

4/3
perpW (~v ) = 4/3
8/3

por tanto:

d = kperpW (~v )k =

16 16 64
+
+
=
9
9
9

96
4 2
=
9
3

7.3. Aproximacin mediante Mnimos Cuadrados

Definicin 7.2 (Solucin de Mnimos Cuadrados)


Si A mn y ~b m , una solucin de mnimos cuadrados del SEL A~x = ~b es un vector
~s n tal que:
A~s ~b :
k~b A~s k k~b A~xk ;
~x n

La solucin de mnimos cuadrados de un SEL es la mejor aproximacin del vector de trminos


independientes, ~b, en el espacio columna de la matriz de los coeficientes, col(A).

Teorema 7.2 (Teorema de los Mnimos Cuadrados)


Sea A mn y ~b m . Entonces:

El SEL A~x = ~b, siempre tiene al menos una solucin de mnimos cuadrados ~s
que viene dada por las denominadas ecuaciones normales:

Rn

AT A~s = AT ~b
Si la matriz A tiene vectores columnas linealmente independientes entonces la matriz
AT A es invertible y la solucin de mnimos cuadrados es nica, dada por:
~s = (AT A)1 AT ~b

Clases de lgebra

Pedro Jos Hernando Oter

7.3. Aproximacin mediante Mnimos Cuadrados

207

Demostracin 7.2
El vector de la im(A) = col(A) ms cercano a ~b, segn el Teorema 7.1, es la solucin del
problema de mnimos cuadrados, siendo la proyeccin ortogonal del vector ~b sobre col(A):
A~s = proycol(A) (~b)
En lugar de calcular primero el vector proyeccin y despus resolver el SEL anterior, vamos
a utilizar una forma ms eficiente de resolverlo. Como el vector:
~b A~s = ~b proy
~
~
col(A) (b) = perpcol(A) (b)
es ortogonal a col(A), entonces para cualquier vector columna ~ci de A, se tiene:
~ci (~b A~s) = ~ciT (~b A~s) = 0
De forma matricial se puede expresar como:
AT (~b A~s) = ~0

AT ~b AT A~s = ~0

AT A~s = AT ~b

Este SEL se conoce con el nombre de ecuaciones normales. Para que la solucin sea nica,
el rango de la matriz AT A debe ser n (nmero de incgnitas del SEL) y entonces segn
el Teorema 3.7, pgina 132, las columnas de A son linealmente independientes, siendo la
solucin:
~s = (AT A)1 AT ~b

Ejemplo 7.2. Encontrar una solucin de mnimos cuadrados para el sistema incompatible
A~x = ~b, donde:

3
1
5
~b = 2
;
A = 2 2
5
1
1
Solucin: Tenemos que resolver el sistema (ecuaciones normales) AT A~s = AT ~b, de forma que:





1
5
1
2
1
6 0
T

2 2 =
A A=
5 2
1
0 30
1
1
AT ~b =

1
5

Por tanto el SEL a resolver es:



  

6
0
p1
2
=
0 30
p2
16

2 1
2
1


 
3
2
2=
16
5
~s =

p1
p2

1/3
8/15

Como las columnas de A son claramente linealmente independientes, por el Teorema 7.2, la
solucin de mnimos cuadrados es nica.

Pedro Jos Hernando Oter

Clases de lgebra

208

TEMA 7: Mnimos Cuadrados

Ejemplo 7.3. Encontrar una solucin de mnimos cuadrados para el sistema incompatible
A~x = ~b, donde:

1
1
0 1
0
1 1 0
~b =

;
A~x = ~b ;
A=
1
1
1 0
1
1 1 0
Solucin: Las ecuaciones normales AT A~s = AT ~b son en

1
0
1
1 1
1
1
1
T
1 1
A A = 0 1
1
1
1
0
0
0
1 1

1
AT ~b = 0
1


1

1 1
1
1
0
1
1 1
0
=
1
0
0
0
1
1

Resolviendo el SEL

4 3 1
3
3 0
1
0 1

por Gauss:

1
1 0 1
0 3 3 0
1 0 1
1

este caso:

1
4 3 1

0
3 0
= 3
0
1
0 1
0


3 1
p1
1
3 0 p2 = 0
0 1
p3
1

4
3
1

1
1 0 1
0 3 3 0
0 0 0
1

1
1
0 0
0
0

En este caso existen infinitas soluciones de mnimos cuadrados dadas por:

p1
p2
~s =

p3

=
=
=

1t
1t
t

0
3
0

1
3
0

1
3
0

Esto es consecuencia de que la matriz A tiene vectores columna linealmente dependientes, y por
tanto segn el Teorema 7.2 existe la solucin de mnimos cuadrados, pero en este caso no es
nica.
Ejemplo 7.4. Dar la solucin de mnimos cuadrados del siguiente SEL compatible determinado:


 
1 1
1
~
~
A~x = b ;
A=
;
b=
1
2
7
Solucin: Las ecuaciones normales AT A~s = AT ~b, son de la forma:


 


1 1
1 1
2 1
1
AT A =
=
; AT ~b =
1 2
1
2
1 5
1


2
1

1
5



p1
p2

8
13

~s =

p1
p2

1
2


   
1
8
=
7
13

 
3
=
2

(Contina en la pgina siguiente)

Clases de lgebra

Pedro Jos Hernando Oter

7.3. Aproximacin mediante Mnimos Cuadrados

Ejemplo 7.4 (Continuacin).


Por otra parte, si resolvemos el sistema compatible y determinado original por Gauss:


209

1
1

1
2

1
7

1
3

1
0

1
6

x2 = 6/3
x1 = 1 + x2

= 2
= 3

Comprobndose que la solucin de mnimos cuadrados en el caso de un sistema compatible y


determinado, coincide con la solucin del sistema.
Ejemplo 7.5. Crear dos enunciados de problemas que den dos posibles interpretaciones
geomtricas distintas del Ejemplo 7.2.
Solucin:
Determinar el plano que pasa por el origen: z = ax + by que mejor ajuste a los puntos de
3
: (1, 5, 3), (2, 2, 2) y (1, 1, 5).

Queremos encontrar valores a

a + 5b =
2a 2b =

a +
b =

y b tales que verifiquen:

3
1
2
2
=
5
1


5  
3
a
2
=2
b
1
5

Segn la solucin anterior se tiene entonces a = p1 y b = p2 y el plano buscado es:

z
b
b

z=

1
8
x+ y
3
15

Determinar el vector de 3 perteneciente al plano definido por los vectores ~v1 = [1, 2, 1]
y ~v2 = [5, 2, 1] que es ms cercano al vector ~u = [3, 2, 5].
Como ~v1 y ~v2 son linealmente independientes, definen un plano W y el vector buscado de
este plano se puede definir como combinacin lineal de ~v1 y ~v2 :


1
5
3
1
5  
3
2 2 a = 2
a~v1 + b~v2 = ~u ;
a 2 + b 2 = 2
=
b
1
1
5
1
1
5
Segn la solucin anterior se tiene entonces a = p1 y b = p2 y el vector buscado es:

1
5
3
8
1
8
1
2 = 2/5
2+
~v = ~v1 + ~v2 =
3
15
3
15
1
1
1/5

(Contina en la pgina siguiente)

Pedro Jos Hernando Oter

Clases de lgebra

210

TEMA 7: Mnimos Cuadrados

Ejemplo 7.5 (Continuacin).

~u
~v2
p~
x
~v1
y

7.4. Mnimos Cuadrados mediante la Factorizacin QR

Definicin 7.3 (Condicionamiento)


Se dice que un SEL (o la matriz que lo define) est mal condicionado, si pequeas variaciones
en los valores que lo definen5 producen grandes variaciones en la solucin del mismo.

En la prctica, las ecuaciones normales que aparecen en muchos problemas de mnimos cuadrados
estn mal condicionadas, lo cual significa que los errores numricos que se producen en las operaciones
matemticas del mtodo (Gauss, Gauss-Jordan, etc.) como consecuencia de la utilizacin de un
ordenador6 en su resolucin, se van acumulando y pueden producir grandes errores en la solucin
final del problema.
La factorizacin 7 QR produce un mtodo de resolucin que mejora sensiblemente la precisin de
los resultados8 , aunque tiene un coste computacional superior.
No obstante, la obtencin de la factorizacin QR a travs del mtodo de ortogonalizacin de GramSchmidt9 aplicado a las columnas de la matriz A, es un mtodo inestable numricamente.
Existen mtodos alternativos10 para obtener la descomposicin QR que evita este problema, pero
incrementa considerablemente el coste computacional.
Por otra parte, la utilizacin del mtodo QR en la resolucin del mtodo de los mnimos cuadrados,
tiene el inconveniente que slo es aplicable cuando la matriz de coeficientes A tiene vectores columnas
linealmente independientes11 .
Vamos a ver a continuacin en que consiste este mtodo.

5 Debidas

a errores experimentales, de redondeo en el clculo, etc.


cual tiene una precisin finita en los clculos.
7 Ver la Seccin 6.9, pgina 199.
8 Ya que el procedimiento llevado a cabo involucra el producto de matrices ortogonales, y este proceso conserva la
norma matricial y el nmero de condicin.
9 Ver la Seccin 6.8, pgina 198.
10 Por ejemplo el mtodo de Householder.
11 Ver la Seccin 6.9, pgina 199.
6 El

Clases de lgebra

Pedro Jos Hernando Oter

7.4. Mnimos Cuadrados mediante la Factorizacin QR

Teorema 7.3
Sea A mn con columnas linealmente independientes 12 y sea ~b m . Si A = QR es
una factorizacin QR de A, entonces la nica solucin del problema de mnimos cuadrados
A~x = ~b viene dada por:

A~x = ~b

211

QR~s = ~b

R~s = QT ~b

~s = R1 QT ~b

Demostracin 7.3
La solucin de mnimos cuadrados es:
AT A~s = AT ~b
Si A = QR entonces:
(QR)T (QR)~s = (QR)T ~b

RT QT QR~s = RT QT ~b

RT R~s = RT QT ~b

Como R es invertible, multiplicando por la izquierda ambas partes de la igualdad por (RT )1
se obtiene:
R~s = QT ~b

En la prctica y teniendo en cuenta que la matriz R tiene forma triangular, resulta mucho ms
sencillo resolver el SEL:
R~s = QT ~b
por el mtodo de sustitucin hacia atrs, que calcular R1 y despus ~s = R1 QT ~b.

Ejemplo 7.6. Encontrar la solucin de mnimos cuadrados del Ejemplo 7.2 utilizando la
factorizacin QR de la matriz A.


1
5
3
~b = 2
A = 2 2
;
1
1
5
Solucin: Como se vio en Seccin 6.9, para calcular la factorizacin QR de una matriz se necesita
ortonormalizar los vectores columna de A mediante el mtodo de Gram-Schmidt Llamando ~vi a
los vectores columna de A y ~ui a los nuevos vectores ortogonales, se tiene:




~u1 = ~v1 = 61 1 2 1

1/6
5/30




Q = ~u1 ~u2 = 2/6 2/30
~u2 = ~v2 ~u1 ~v2 ~u1 = 5 2 1
~u1 ~u1
1/ 6
1/ 30

(Contina en la pgina siguiente)

12 Lo

que produce una solucin nica en el problema de mnimos cuadrados.

Pedro Jos Hernando Oter

Clases de lgebra

212

TEMA 7: Mnimos Cuadrados

Ejemplo 7.6 (Continuacin).


La matriz R se obtiene de la siguiente forma13 :
R = QT A =


1/
2/
6
6 1/
6
5/ 30 2/ 30 1/ 30

1
2
1


5
6
2 =
0
1

0
30

Finalmente, la solucin de mnimos cuadrados vendr dada mediante la solucin del sistema:

 3


 


p
6
0
1/
6
2/
6
1/
6
2/
6
1
T~

2 =
=
R~s = Q b ;
p2
30
0
5/ 30 2/ 30 1/ 30
16/ 30
5

Cuya solucin se puede calcular fcilmente:


~s =

s1
s2

1/3
8/15

Esta solucin coincide con la obtenida mediante las ecuaciones normales en el Ejemplo 7.2.

7.5. Error en la Aproximacin por Mnimos Cuadrados:


Residuos
Sea un sistema incompatible A~x = ~b, con A
~s, cumple14 :

Rmn . La solucin de mnimos cuadrados del sistema,


A~s ~b

siendo la mejor aproximacin al problema15 . En funcin de cada caso particular, este valor puede
resultar una buena o mala aproximacin del problema. Para determinar la calidad de esta aproximacin
particular, estamos interesados en calcular los errores cometidos en cada una de las variables cuando se
utiliza la aproximacin ~s en lugar de la solucin exacta16 ~x. Estos errores se pueden expresar en forma
vectorial mediante un vector de errores, ~e, denominado tambin vector de residuos, de la siguiente
forma17 :
~e = ~b A~s
Cada una de las coordenadas de ~e = [e1 , em ] corresponde con los errores o residuos cometidos en
cada una de las incgnitas ~x = [x1 , xm ]. Desde un punto de vista prctico interesa determinar un
nico error global que cuantifique la calidad de la aproximacin, y ste se puede obtener calculando
la norma 18 del vector de residuos:
e = k~ek = k~b A~sk = k~b proycol(A) (~b)k = kperpcol(A) (~b)k

13 Ver

la Seccin 6.9, pgina 199.


la Seccin 7.3, pgina 206.
15 Ver la Seccin 7.2, pgina 205.
16 Que no existe al ser un sistema incompatible.
17 Esta definicin corresponde con el error absoluto de la aproximacin y tambin se puede definir a travs de su valor
absoluto, ~e = |~b A~s| = |A~s ~b|.
18 Ver la Seccin 2.7.3, pgina 88.
14 Ver

Clases de lgebra

Pedro Jos Hernando Oter

7.6. Ajuste de Datos mediante Mnimos Cuadrados

213

El mtodo de mnimos cuadrados busca una solucin ~s que minimiza la norma eucldea del vector
de residuos (errores) definido por:
q
=
k~ek2 = e21 + + e2n
k~ek = e21 + + e2n

y por tanto, minimiza la suma de los cuadrados de los errores, de ah el nombre de mnimos
cuadrados.
Ejemplo 7.7. Encontrar los errores cometidos (residuos) en la aproximacin de mnimos
cuadrados del Ejemplo 7.2 y calcular el valor del error global. En base a ellos, determinar si
es una buena o mala aproximacin.


  

1
5
3
p1
1/3
~

2 2
~s =
A=
=
;
b= 2
;
p2
8/15
1
1
5
Solucin:


3
1
~e = ~b A~s = 2 2
5
1


5 
0
1/3
2
= 14/5
8/15
1
24/5

La primera ecuacin se cumple (e1 = 0) y el mximo error se produce en la tercera ecuacin


(e3 > e2 ).
El error global es:
s
 2  2
14
24
2
+
5.6
k~ek = 0 +
5
5

Este valor indica que el error cometido en la aproximacin es considerablemente alto. Podemos
estimar el error relativo n cada ecuacin dividiendo los trmino bi entre los correspondientes ei
y multiplicando por 100, obtenindose 0% en la primera ecuacin, 71% en la segunda ecuacin
y 100% en la tercera ecuacin. Se puede observar que el error global es un valor promedio (en
tanto por uno) de los errores relativos. En funcin de la naturaleza del problema, estos altos
errores podran indicar una revisin del planteamiento del problema en busca de unos mejores
resultados.

7.6. Ajuste de Datos mediante Mnimos Cuadrados

El mtodo de los mnimos cuadrados es una tcnica matemtica ampliamente utilizada en el campo
de la ingeniera. Una de las aplicaciones ms extendidas es en el ajuste de datos a curvas, superficies,
etc.
Definicin 7.4 (Ajuste de Datos)
El ajuste de datos consiste en encontrar una determinada funcin que aproxime a unos
determinados datos.
El error del ajuste determinar la precisin del ajuste.
Hay diferentes tcnicas para realizar el ajuste de datos, siendo la ms ampliamente utilizada el
mtodo de los mnimos cuadrados.

Pedro Jos Hernando Oter

Clases de lgebra

214

TEMA 7: Mnimos Cuadrados


El ajuste de datos por mnimos cuadrados encuentra aquella funcin (curva, superficie, etc.)
que minimiza la suma de los cuadrados de los errores (distancia de los puntos a la funcin).
Para ello se debe plantear un determinado problema que genere un SEL (normalmente
indeterminado) y encontrar la solucin de mnimos cuadrados correspondiente.
La funcin de ajuste siempre viene dada a travs de un nmero determinado de parmetros,
definiendo una familia de infinitas funciones. El ajuste dar como resultado unos valores
concretos de los parmetros que determinan una nica funcin de esta familia.

Vamos a estudiar los casos ms sencillos de ajuste de datos a funciones.

R2
Dado un conjunto de datos (x, y) R2 , normalmente dados en forma de tabla, se pide encontrar la

Ajuste de datos a una Recta en

recta que mejor ajuste a estos datos. En este caso la familia de funciones ser:
y = f (x) = a + bx
siendo a y b los parmetros a determinar.

b b

2
1

b
b

x
x1
..
.

y
y1
..
.

xn

yn

y = a + bx

Sustituyendo cada uno de los pares (xi , yi ) de la tabla en la familia de funciones se obtiene el SEL,
siendo los parmetros a y b las incgnitas a determinar.

a + bx1 = y1

1 x1
y1

a + bx2 = y2
 y
1 x2 

a
2
..
..
A~x = ~b
=
..
.. b = ..

.
.

.
.

a + bxn = yn
1 xn
yn
Claramente si la tabla tiene ms de dos datos, el SEL ser incompatible y no tendr solucin19 .
Tendremos que buscar entonces la mejor solucin de mnimos cuadrados para encontrar la funcin,
perteneciente a la familia de funciones, que mejor ajuste a los datos dados.
Como siempre existe al menos una solucin de mnimos cuadrados20 , siempre existir al menos una
funcin de ajuste. El problema es que esta funcin no siempre ser una buena solucin del problema.
Para determinar la calidad del ajuste es necesario calcular los errores del problema de mnimos
cuadrados. Calculando el vector de errores 21 ~e = [e1 , ..., en ] tendremos:
Cada error individual ei representa el error cometido en cada ecuacin y geomtricamente se
puede interpretar como la menor distancia del punto (xi , yi ) a la funcin de ajuste.
El error global e = k~ek da la norma del vector error y representa la acumulacin de los errores
en todos los puntos, siendo un indicador de la calidad global del ajuste.
19 Lo cual indica que no existe ninguna funcin de la familia de funciones propuestas que pase o contenga a todos los
datos de la tabla.
20 Ver el Teorema 7.2, pgina 206.
21 Ver la Seccin 7.5, pgina 212.

Clases de lgebra

Pedro Jos Hernando Oter

7.6. Ajuste de Datos mediante Mnimos Cuadrados

215

R2

Parbola en

Este caso es anlogo al ajuste de rectas, cambiando nicamente la familia de funciones del ajuste,
siendo en este caso:
y = f (x) = a + bx + cx2
con a, b y c los parmetros del ajuste (incgnitas a determinar).
b

b3

a + bx1 + cx21

a + bx2 + cx22
.

..

a + bxn + cx2n

Polinomio General en

= y1
= y2
..
.

= yn

R2

x
x1
..
.

y
y1
..
.

xn

yn

1
1
..
.

x1
x2
..
.

xn

y = a + bx + c2

x21

x22

b =
c

2
xn

y1
y2
..
.
yn

A~x = ~b

Se puede utilizar un polinomio de cualquier grado para el ajuste, siendo el procedimiento a seguir
anlogo a los anteriores.
b

2
1

c0 + c1 x1 + + cm xm

c0 + c1 x2 + + cm xm
2
..

c0 + c1 xn + + cm xm
n

= y1
= y2
..
.
= yn

x
x1
..
.

y
y1
..
.

xn

yn

1
1
..
.

x1
x2
..
.

xn

y = c0 + c1 x + + cm xm

xm
1

xm
2

xm
n

c0
c1
..
.
cm

y1
y2
..
.
yn

A~x = ~b

Naturalmente algunos polinomios darn un mejor ajuste que otros, pudindose determinar su calidad
mediante el clculo de los errores de mnimos cuadrados. De forma general, al aumentar el grado del
polinomio, (mayor nmero de parmetros de ajuste), disminuir el error cometido en el ajuste, pero
no necesariamente aumentar la calidad del ajuste. Esto se debe a que al aumentar el grado de un
polinomio aumentan las oscilaciones en su grfica, obtenindose resultados no deseados.
En un ajuste polinmico se buscar siempre el polinomio de menor grado que mejor ajuste a los
datos.

Pedro Jos Hernando Oter

Clases de lgebra

216

TEMA 7: Mnimos Cuadrados

Plano en

R3

Este es el caso ms sencillo de ajuste de datos en 3D. Dado un conjunto de puntos (xi , yi , zi ) queremos
encontrar el plano que mejor los ajusta:
z = f (x, y) = a + bx + cy
Siguiendo el planteamiento de los casos anteriores se obtendra el correspondiente SEL del ajuste.

z
b
b

x
b

a + bx1 + cy1

a + bx2 + cy2
..

a + bxn + cyn

Superficie Cuadrtica en

= z1
= z2
..
.
= zn

R3

1
1

x
x1
..
.

y
y1
..
.

z
z1
..
.

xn

yn

zn

x1
x2
..
.
xn

z = a + bx + cy

y1

y2

b =

c
yn

z1
z2
..
.
zn

A~x = ~b

El ajuste se puede realizar a una superficie ms general como por ejemplo una superficie cuadrtica o
cudrica (elipsoide, paraboloide e hiperboloide).
z
6.0
b

5.0
4.0
b

3.0
2.0

-1.0
1.0

-1.0

1
..
.
1

Clases de lgebra

y
y1
..
.

z
z1
..
.

xn

yn

zn

z = a + bx + cy + dx2 + ey 2 + f xy

1.0

2.0

1.0
-1.0

x
x1
..
.

x1
..
.
xn

2.0

a + bx1 + cy1 + dx21 + ey12 + f x1 y1

a + bx2 + cy2 + dx22 + ey22 + f x2 y2


..

a + bxn + cyn + dx2n + eyn2 + f xn yn

a
z1
2
2
y1 x1 y1 x1 y1

..
..
..
.. b = z2
.. ..
.
.
.
.
. .
yn x2n yn2 xn yn
f
zn

=
=
..
.

z1
z2
..
.

zn

A~x = ~b

Pedro Jos Hernando Oter

7.6. Ajuste de Datos mediante Mnimos Cuadrados


Hiperplano en

217

Rm

Se puede realizar un ajuste de datos en cualquier dimensin espacial, aunque para dimensiones altas
no existir una interpretacin geomtrica del problema.
El caso ms sencillo corresponde al ajuste de n datos (x1 , ..., xm ) m a un hiperplano:

y = f (x1 , ..., xm ) = c0 + c1 x1 + ... + cm xm


siendo { c0 , c1 , ..., cm } el conjunto de parmetros a ajustar. De forma anloga a los casos anteriores
se puede plantear el SEL del problema.
x1
x11
..
.

x2
x12
..
.

xm
x1m
..
.

y
y1
..
.

xn1

xn2

xnm

yn

c0 + c1 x11 + + cm x1m

c0 + c1 x21 + + cm x2m
..

c0 + c1 xn1 + + cm xnm

y = c0 + c1 x1 + + cm xm

=
=
..
.

y1
y2
..
.

yn

1
1
..
.

x11
x21
..
.

x1m
x2m
..
.

xn1

xnm

c0
c1
..
.
cm

y1
y2
..
.
yn

A~x = ~b

En todos los casos la solucin de mnimos cuadrados del problema puede obtenerse mediante la
solucin del sistema de las ecuaciones normales 22 :
AT A~s = AT ~b

A~s ~b

7.6.1. Ejemplos de Problemas


Ejemplo 7.8. Encontrar la ecuacin de la recta en
cuadrados a los datos siguientes:
x
y

2
1

1
0

1
1

Solucin: La ecuacin del ajuste es:

R2

que mejor aproxime por mnimos

2
1

y = a + bx
siendo a y b los parmetros a determinar. El sistema de ecuaciones lineales correspondiente es
en este caso:

a 2b =
1
1 2 
1

1 1 a
0
ab =
0

;
=
;
A~c = ~b

1
a+b =
1
1
1
b

a + 2b = 1
1
2
1

(Contina en la pgina siguiente)

22 Ver

el Teorema 7.2, pgina 206.

Pedro Jos Hernando Oter

Clases de lgebra

218

TEMA 7: Mnimos Cuadrados

Ejemplo 7.8 (Continuacin).


La solucin de mnimos cuadrados se puede encontrar resolviendo las ecuaciones normales:




4
0
1
T
T~
A A=
;
A b=
;
AT A~s = AT ~b
0 10
3
La solucin final es:

a
b

1/4
3/10

y=

3
1
x
4 10

Ejemplo 7.9. Realizar una interpretacin grfica del Ejemplo 7.8 y calcular el error cometido
en el ajuste.
Solucin:

1
b

1
1

3/20
11/20

~e = ~b A~s =
21/20
13/20

error = k~ek =

37
1.36
20

Este valor es relativamente alto23 y por tanto no es muy buen ajuste.

Ejemplo 7.10. Dada la siguiente tabla de valores:


x
y

1
1

1
1

1
1

1
1

Determinar cul de las dos curvas siguientes es ms apropiada para representarlos, teniendo en
cuenta el posible error de cada uno de los ajustes.
a) y = a +

b
x

b) y = a + bx2

Solucin: Vamos a calcular cada uno de los ajustes y sus correspondientes errores.
(Contina en la pgina siguiente)

23 Valores

apropiados seran cantidades inferiores a 1, cuanto ms pequeos mejor.

Clases de lgebra

Pedro Jos Hernando Oter

7.6. Ajuste de Datos mediante Mnimos Cuadrados

219

Ejemplo 7.10 (Continuacin).


a) Planteamos el sistema

ab =

ab =
a+b =

a+b =

de ecuaciones de los datos a la curva y = a + b/x.

1
1 1 
1

1 1 a
1
1

;
A~x = ~b
;
=

1
1
1
1
b
1
1
1
1

Notar que hay dos datos que se repiten. Esto puede ser habitual en muchos casos prcticos
y es importante recordar que siempre hay que considerar todos los datos, se repitan o no24 .
La solucin de mnimos cuadrados se puede encontrar resolviendo las ecuaciones normales:




4 0
2
T
T~
;
A b=
;
AT A~s = AT ~b
A A=
0 4
2
cuya solucin es:

a
b

1/2
1/2

1
1
y1 = +
2 2x

El error en este caso es:

0
0

~e1 = ~b A~s =
1
1

error1 = k~e1 k =

2 1.41

A continuacin se muestra una interpretacin grfica de este caso:

2
1

1
b
1

Observar como la curva (en azul) pasa justamente por el punto (1, 1), ya que tiene ms
importancia que el resto, al aparecer repetido dos veces en los datos.
(Contina en la pgina siguiente)
24 Desde

un punto de vista prctico, el hecho de que se repitan datos puede corresponder, por ejemplo, a distintos
experimentos en los que se repiten condiciones y resultados. Cuantas ms veces se repitan, ms importantes sern esos
datos ya que se tiene una mayor seguridad sobre la veracidad de los mismos, y por tanto, en el sistema de ecuaciones
tienen que aparecer tantas veces como corresponda.

Pedro Jos Hernando Oter

Clases de lgebra

220

TEMA 7: Mnimos Cuadrados

Ejemplo 7.10 (Continuacin).


b) Planteamos ahora el sistema de ecuaciones de los datos a la segunda curva y = a + bx2 .

a + b = 1
1 1 
1

1 1 a
1
a + b = 1

;
A~x = ~b
;
=

1
a + b = 1
1
1
b

a+b =
1
1
1
1

La solucin de mnimos cuadrados se puede encontrar resolviendo las correspondientes


ecuaciones normales:




4 4
2
AT A =
;
AT ~b =
;
AT A~s = AT ~b
4 4
2
que en este caso tienen infinitas soluciones:


a
b

1/2 t
t

y2 =


1
+ t + tx2
2

correspondientes a una familia de parbolas25 que ajustan a estos datos con error mnimo26 .
El error en todos estos casos es:

0
0

~e1 = ~b A~s =
1
1

error1 = k~e1 k =

2 1.41

A continuacin se muestra una interpretacin grfica de la solucin del problema:


t=2
t=1

2
1

1
b
1

t = 1

1
b

t=0

t = 2
(Contina en la pgina siguiente)

25 Para

el caso particular t = 0 es una recta horizontal.


en todos los casos el mismo error y por tanto pudiendo elegir cualquiera de ellas.

26 Siendo

Clases de lgebra

Pedro Jos Hernando Oter

7.7. Resumen de Frmulas de Mnimos Cuadrados

221

Ejemplo 7.10 (Continuacin).


En la grfica se han representado slo 5 de los infinitos posibles casos que hay, para valores
del parmetro t = {2, 1, 0, 1, 2}. Todas, a pesar de ser curvas distintas, tienen el mismo
error por ser soluciones del problema de mnimos cuadrados. Notar que para el caso t = 0
la parbola es en realidad una recta horizontal, por tener el coeficiente cuadrtico nulo.
Anlisis: Para determinar cual de las curvas es la ms apropiada hay que tener en cuenta
principalmente factores fsicos27 , error del ajuste y simplicidad de las curvas.
En nuestro caso no tenemos factores fsicos y lo importante ser el menor error de ajuste
y la mayor simplicidad de la curva. Los dos tipos de curvas,
el primero de tipo hiprbole y

el segundo de tipo parablico, tienen el mismo error, 2, y por tanto podra resultar ms
apropiada la curva ms simple, que corresponde al segundo caso con valor del parmetro
t = 0, la cual como hemos visto es una recta horizontal.

7.7. Resumen de Frmulas de Mnimos Cuadrados

Solucin

Aprox. Min.

Cuadrados
A~x = ~b

Sol. QR

A~
p ~b

Error

: A(col. lin. indep) = QR

R~s = ~bQT

: error = k~ek = k~b A~sk = kperpcol(A) (~b)k =

e21 + + e2n

Nota 7.1. Existen otros procedimientos de clculo en la determinacin del problema de mnimos cuadrados. En el
Tema 9 se ver uno de ellos.

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Ec. Normales
: A~s = proycol(A) (~b) AT A~s = AT ~b

27 Determinados problemas reales pueden imponer una determinada funcin al ajuste debido a las leyes fsicas que
rigen el problema.

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Autovalores y Autovectores
Contenido
8.1
8.2

8.3

8.4
8.5

8.6
8.7

Introduccin: Sistemas Dinmicos Discretos . . . . . . . . . . . . . . .


Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . .
8.2.1 Interpretacin Geomtrica de los Autovalores y Autovectores
8.2.2 Determinacin de Autovalores y Autovectores . . . . . . . . .
8.2.3 Autoespacios . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2.4 Multiplicidades Algebraica y Geomtrica . . . . . . . . . . . .
8.2.5 Autovalores y Matrices Inversas . . . . . . . . . . . . . . . . .
8.2.6 Tres Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . .
Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1 Matrices Triangulares . . . . . . . . . . . . . . . . . . . . . . .
8.3.2 Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . .
8.3.3 Interpretacin de la Semejanza de Matrices . . . . . . . . . .
Diagonalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Autovalores Reales y Complejos . . . . . . . . . . . . . . . . .
Diagonalizacin Ortogonal . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1 Interpretacin Geomtrica de la Diagonalizacin Ortogonal .
8.5.2 Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . .
8.5.3 Descomposicin Espectral . . . . . . . . . . . . . . . . . . . .
Teoremas Avanzados Adicionales . . . . . . . . . . . . . . . . . . . . .
Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

225
227
227
228
230
232
234
235
236
236
236
238
241
243
245
246
249
250
251
252

223

Clases de lgebra

Int. Geomtrica

Clculo

Autoespacios

Definiciones

Mat. Inversa

Potencia Mat.

Teoremas

Propiedades

Mat. Semejantes

Semejanza

Mat. Diagonalizable

Autovalores y Autovectores

Teorema

Auto. Reales

Teo. Espectral

Diag. Ortogonal

Desc. Espectral

Teo. Diagonalizacin

Diagonalizacin

224
TEMA 8: Autovalores y Autovectores

Pedro Jos Hernando Oter

8.1. Introduccin: Sistemas Dinmicos Discretos

225

8.1. Introduccin: Sistemas Dinmicos Discretos

Definicin 8.1 (Sistema Dinmico Discreto)


Dada una TL de la forma,
T (~x) = A~x
se denomina Sistema Dinmico Discreto a un proceso del estilo:
~x(t + 1) = A~x(t)
donde ~x(t) es un vector de estado a tiempo t (valor entero) y ~x(t + 1) es el vector de estado
al tiempo siguiente (t + 1). La matriz A se denomina matriz de transicin del sistema1 .

Vamos a analizar como ejemplo el caso bidimensional. Supongamos que ~x


partimos de un vector inicial a tiempo t = 0:
 
x0
~x0 =
y0

R22 , A R22 y

Entonces:
x, y

~x1
~x2
~x3
..
.

=
=
=

~xn

~xi

A~x0
A~x1
A~x2
..
.
A~xn1

t
0
1
..
.

xi
x0
x1
..
.

yi
y0
y1
..
.

xn

yn

3
2
1

b
b

b
b

b
b

y
b

Por otra parte, tambin se pueden obtener los valores temporales x(t) de la siguientes forma:
~x0
~x1
~x2
~x3
..
.
~xn

= A~x0
= A~x1 = AA~x0 = A2 ~x0
= A~x2 = AA2 ~x0 = A3 ~x0
..
.

= A~xn1 = AAn1 ~x0 = An ~x0

Lo cual demuestra que en todo sistema dinmico discreto con una matriz A fija, la evolucin del
sistema depende nicamente del estado inicial ~x0 .
Es interesante conocer la evolucin a tiempos grandes y para ello ser necesario calcular An , cuestin
complicada si A es grande2

1 Si

la matriz A representa probabilidades, los procesos se denominan cadenas de Markov.


nmero de operaciones (multiplicaciones y sumas) necesarias para obtener el producto matricial AA con
A mm es de orden 2m3 y por tanto An es de orden 2nm3 , (ver Seccin 3.2, pgina 108). Por ejemplo, A10
siendo A 5050 necesita unos dos millones y medio de operaciones.
2 El

Pedro Jos Hernando Oter

Clases de lgebra

226

TEMA 8: Autovalores y Autovectores

Sin embargo, si existiera un determinado vector inicial ~v tal que cumpliera:


A~v = ~v
siendo un escalar cualquiera, se tendra:
~x0
~x1
~x2
..
.
~xn

= ~v
= A~x0 = A~v = ~v
= A~x1 = A~v = A~v = 2~v
..
.

= A~xn1 = An1~v = n1 A~v = n~v

De esta forma se consigue cambiar el clculo de An mediante multiplicaciones matriciales (lentas),


por el mucho ms sencillo clculo de n (potencia de un escalar).
Este proceso slo es vlido para el caso especial en que ~x0 = ~v . Sin embargo, si existiera otro vector
~v2 con propiedades anlogas al anterior ~v que llamaremos a partir de ahora ~v1 , tendramos:
A~v2 = ~v2
Si adems ~v2 fuera linealmente independiente 3 de ~v1 , entonces cualquier otro otro vector ~x0 se podra
poner como combinacin lineal 4 de ambos vectores:
~x0 = ~v1 + ~v2
y en este caso se tendra:
~x0
~x1
~x2
..
.
~xn

=
=
=

~v1 + ~v2
A~x0 = A(~v1 + ~v2 ) = ~v1 + ~v2
A~x1 = A(~v1 + ~v2 ) = 2~v1 + 2~v2
..
.

= A~xn1 = A(n1~v1 + n1~v2 ) = n~v1 + n~v2

Se remplaza una potencia matricial por dos potencias escalares.

Nota 8.1. Si la matriz A fuera de orden m, se necesitaran m vectores linealmente independientes con estas propiedades
especiales y la potencia An se transformara en la suma de m potencias escalares.

Este tipo de situaciones se producen con bastante asiduidad en la prctica y se utilizan tcnicas de
este estilo para resolver problemas de forma analtica y numrica5 .

3 Ver

la Seccin 2.4.2, pgina 73.


la Seccin 2.4.1, pgina 72.
5 En caso de que el tiempo no sea discreto sino continuo se denominan sistemas dinmicos continuos, apareciendo
sistemas de ecuaciones diferenciales en su formulacin, (ver el Tema 10, pgina 287).
4 Ver

Clases de lgebra

Pedro Jos Hernando Oter

8.2. Autovalores y Autovectores

227

8.2. Autovalores y Autovectores

Definicin 8.2 (Autovalores y Autovectores)


Sea una matriz cuadrada A nn . Un escalar real o complejo6
se llama autovalor
o valor propio7 de A si existe un vector (real o complejo) no nulo ~v n tal que:

K
K

A~v = ~v
Al vector ~v se le denomina autovector o vector propio8 de A correspondiente o asociado
al autovalor , y viceversa.

8.2.1. Interpretacin Geomtrica de los Autovalores y Autovectores

Sea una TL, ~y = T (~x) = A~x, con A nn . Un autovector de la


matriz A ser aquel vector de entrada ~v n cuyo vector de salida
produzca un mltiplo, (vector paralelo), del propio vector ~v :

A~v = ~v

T (~v ) = A~v = ~v

~v

A(~v ) = (~v )

El correspondiente autovalor asociado a ~v ser dicho mltiplo.


Realmente el autovector indica una determinada direccin, y
cualquier vector de esa recta, (subespacio vectorial), ser un
autovector de A, por ejemplo (~v ).
En el grfico se puede una interpretacin en el espacio 2 .

~y = A~x

Vamos a determinar grficamente9 los autovalores y autovectores de dos casos correspondientes a


diferentes TL, T : 2 2 .

Caso 1
5

~y =

4
3
2
1
0

1
2
3
4
5
5 4 3 2 1

6 El

y1
y2

3
1

1
3



x1
x2

En la figura se muestran los resultados obtenidos al aplicar


como entradas vectores unitarios ~x, (crculo pequeo en
azul), y las correspondientes salidas ~y , (elipse grande verde).
En el grfico se ha desplazado la salida ~y y se ha
colocado a continuacin de la entrada ~x. Como se puede
apreciar, existen cuatro autovectores, (mostrados en rojo), con
longitudes iguales dos a dos. Por tanto, existen dos direcciones
privilegiadas, ( autovectores), autovalores y en cada una de
ellas hay una determinada ampliacin (autovalores).

espacio
representa a
(conjunto de los nmeros reales) o a
(conjunto de los nmeros complejos).
algunos libros lo denominan eigenvalor, trmino derivado de las terminologas inglesa y alemana. La palabra
eigen significa propio o caracterstico de, indicando que contiene informacin importante acerca de la naturaleza de la
matriz A.
8 Tambin denominado eigenvector en las terminologas inglesa y alemana.
9 En la Seccin 8.5.1, pgina 246 y la Seccin 9.3.2, pgina 261 se ampliar esta interpretacin grfica.
7 En

Pedro Jos Hernando Oter

Clases de lgebra

228

TEMA 8: Autovalores y Autovectores

Caso 2
3

~y =

y1
y2

1
1

1
1



x1
x2

En este caso y siguiendo el mismo procedimiento anterior,


se puede observar como no existe ninguna direccin
privilegiada (autovector ) y por tanto ningn autovalor
asociado.

3
3

Nota 8.2. La representacin grfica de los autovalores de una matriz real 3 3 estara formada por figuras 3D de
esferas y elipsoides. Para dimensiones mayores de 3 no se podra hacer representaciones grficas.

Ejemplo 8.1. Mostrar que el vector ~x = [1, 1] es un autovector de la matriz A y encontrar el


autovalor asociado al mismo.


3 1
A=
1 3
Solucin:
A~x =

3
1

1
3

   
 
1
4
1
=
=4
= 4~x
1
4
1

Por tanto, ~x es un autovector de A con autovalor asociado = 4.

8.2.2. Determinacin de Autovalores y Autovectores


Los autovalores y autovectores ~v de una matriz cuadrada A, son aquellos que verifican A~v = ~v .
Operando matricialmente se tiene:
A~v =
Los autovectores ~v de la
forma:

a11 a12
a21 a22

A I = .
..
..
.
an1 an2

~v A~v ~v = ~0

(A In )~v = ~0

(8.1)

matriz A son el espacio nulo o ncleo 10 de la matriz (A I), que tiene la

a1n
a2n
..
.

ann

0
..
.

..
.

0
0
..
.

a11
a21
..
.

a12
a22
..
.

a1n
a2n
..
.

an1

an2

ann

Como la ecuacin (8.1) es un sistema homogneo 11 , la nica forma de que tenga soluciones ~v distintas
de la nula, es que sea un sistema compatible indeterminado (infinitas soluciones) y por tanto con
una matriz escalonada reducida equivalente 12 con al menos una fila de ceros. Matricialmente esto
es equivalente a que la matriz (A I) sea singular 13 y por tanto, su determinante igual a cero,
det(A I) = 0, siendo sta la condicin necesaria y suficiente para la existencia de autovalores en
una matriz.
10 Ver

la
la
12 Ver la
13 Ver la
11 Ver

Definicin 3.19, pgina 130.


Seccin 1.9, pgina 60.
Definicin 1.36, pgina 58.
Definicin 3.12, pgina 114.

Clases de lgebra

Pedro Jos Hernando Oter

8.2. Autovalores y Autovectores

229

Los autovalores de una matriz cuadrada A son las soluciones de la ecuacin:


|A I| = 0

Definicin 8.3 (Ecuacin y Polinomio Caractersticos)


La ecuacin det(A I) = 0 se conoce con el nombre de ecuacin caracterstica.
Cuando se desarrolla el det(A I) se obtiene un polinomio en que se denomina
polinomio caracterstico. El polinomio caracterstico de una matriz A nn ser
siempre de orden n y por el Teorema Fundamental del lgebra 14 , tendr n soluciones
reales o complejas.

P
P

Ejemplo 8.2. Calcular el polinomio caracterstico de una matriz general 2 2:




a b
A=
c d
Solucin:


a
b
= (a )(d ) bc = 2 (a + d) + (ad bc)
det(A I) =
c
d

Ejemplo 8.3. Calcular la ecuacin y polinomio caracterstico de la matriz: c

1 0 1
A= 1 1 0
1 0 0
Solucin: El polinomio caracterstico es:


1
0
1

1 0 = (1 )2 + (1 ) = (1 )(2 + 1)
det(A I) = 1
1
0

La ecuacin caracterstica por tanto es:

(1 )(2 + 1) = 0
Procedimiento de Clculo de Autovalores y Autovectores
Sea A

Rnn .

1. Calcular el polinomio caracterstico det(A I).


2. Calcular los autovalores de A resolviendo la ecuacin caracterstica det(A I) = 0 para .
3. Para cada autovalor , encontrar el ncleo de la correspondiente matriz A I. Las soluciones
no nulas son los autovectores ~v asociados al autovalor de la matriz A.
14 Un polinomio p(x) tiene tantas races, (soluciones de la ecuacin p(x) = 0), como indica su grado, teniendo en
cuenta sus multiplicidades, (nmero de veces que se repite una raz).

Pedro Jos Hernando Oter

Clases de lgebra

230

TEMA 8: Autovalores y Autovectores

8.2.3. Autoespacios
Definicin 8.4 (Autoespacios)
El conjunto de todos los autovectores ~v asociados a un autovalor de una determinada matriz
A nn , junto con el vector nulo, se denomina autoespacio15 de y se representa por E .

Ejemplo 8.4. Encontrar los autovalores y autovectores de la matriz:

0 1 0
A= 0 0 1
2 5 4
Solucin:




det(A I) = 0
2

0
1
4




= 2 (4 ) + 0 + 2 0 5 0 = 3 + 42 5 + 2 = 0

Fcilmente se ve que = 2 es solucin, por tanto factorizando:


( 2)(2 + 2 1) = ( 1)2 ( 2) = 0

1 = 2
3

=
=

1 (raz doble)
2

Vamos a encontrar los autovectores asociados a los autovalores.


1 = 2 = 1

1
[A1I|0] = 0
2

1 0
1 1
5 3


0
1 0
0 0 1
0
0 0

1
1
0

1 0
2 1
5 2


1 0
0
0 0 1
0
0 0

1/4
1/2
0

3 = 2

2
[A2I|0] = 0
2



0
x
1
1
0 = y = t 1 = E1 = 1

0
z
1
1

x
1/4
0
1
0 = y = t 1/2 = E2 = 2

0
z
1
4

Notar que los autovectores slo indican una direccin determinada y por tanto se puede tomar
cualquier mltiplo del mismo16 .
En resumen la matriz A tiene 2 autovalores (dos de ellos iguales) y asociados a cada valor hay
un autovector.

Los SEL que resultan en el clculo de los autovectores son siempre homogneos17 y por tanto podemos
obviar el vector de trminos independientes en su resolucin.
15 Tambin

denominada eigenespacio en las terminologas inglesa y alemana.


decir, cualquier vector paralelo.
17 Ver la Seccin 1.9, pgina 60.

16 Es

Clases de lgebra

Pedro Jos Hernando Oter

8.2. Autovalores y Autovectores

231

Ejemplo 8.5. Encontrar los autovalores y autoespacios asociados de la siguiente matriz:

4
4 4
4 4
B= 4
4 4
4
Solucin: Claramente esta matriz se puede expresar como:

1
1 1
1 1 = 4A
B = 4 1
1 1
1

Resulta ms sencillo trabajar con A, siempre que se conozca la relacin entre los autovalores y
autovectores de A y B. Teniendo en cuenta que:
A~v = ~v

A~v = ~v

B~v = ()~v

llegamos a la conclusin de que la matriz B tiene los mismos autovectores que A y los autovalores
estn multiplicados por .
Vamos entonces a calcular los autovalores y autovectores de A.


1
1
1

1
1
1 = (1 )3 + 2 3(1 ) = 0

1
1
1

Esta ecuacin se puede resolver desarrollando las potencias y obteniendo el polinomio de tercer
grado en . Sin embargo resulta ms sencillo realizar una cambio de variable, resolver una
ecuacin ms sencilla y deshacer el cambio. En este caso, haciendo el cambio de variable t = 1
la ecuacin queda:
t=1

(1 )3 3(1 ) + 2 = 0 t3 3t + 2 = 0
Una solucin es claramente t = 1 y factorizando por Ruffini18 se obtiene:
t3 3t + 2 = (t 1)(t2 + t 2) = (t 1)(t 1)(t + 2)
Por tanto las races son t1 = 1, t2 = 1 y t3 = 2. Deshaciendo el cambio de variable se obtienen
los autovalores de A: 1 = 0, 2 = 0 y 3 = 3. Finalmente sabiendo que los autovalores de B
son iguales que los de A multiplicados por cuatro se tiene:
Autovalores matriz B: 1,2 = 0

3 = 12

Vamos a calcular ahora los autovectores de la matriz A, que coinciden con los de la matriz B.
1,2 = 0

1
1
1
18 Ver

1 1
1
F2 F1
1 1 0
F3 +F1
1
1
0

1
0
0

1
v1 = v2 + v3 = t + s
0 =
v2 = t

0
v3 = s

(Contina en la pgina siguiente)

el Apndice A.5.1, pgina 350.

Pedro Jos Hernando Oter

Clases de lgebra

232

TEMA 8: Autovalores y Autovectores

Ejemplo 8.5 (Continuacin).

v1
1
1
v2 = t 1 + s 0
v3
0
1


1
1
E0 = 1 , 0

0
1

En este caso el autovalor 0 de la matriz A corresponde con el tambin autovalor 0 en la matriz


B, por tanto el autoespacio de la matriz B asociado a este autovalor es:

3 = 319

2
1 1
0
F 1+2F2
1 2 1 1
F3 +F2
1 1 2
0

1
1
E0 = 1 , 0

0
1
3
2
3

3
0
F 3+F1
1 1
3
0

v1
1
v2 = t 1
1
v3

3
2
0

E3 =

3
v2 = v3 = t
v1 = 2v2 + v3 = t
1 =

0
v3 = t

1
1

Con respecto a la matriz B, que tiene los mismos autovectores asociados a los autovalores
correspondientes, se tiene:

1
E12 = 1

8.2.4. Multiplicidades Algebraica y Geomtrica

En una matriz puede haber varios autovalores iguales, y asociados a ellos pueden existir uno o ms
autovectores. La cantidad de autovalores y autovectores asociados a un determinado valor se denominan
respectivamente multiplicidad algebraica y multiplicidad geomtrica.
Definicin 8.5 (Multiplicidad Algebraica y Geomtrica)
Multiplicidad algebraica de un autovalor es la multiplicidad 20 de su raz en el
polinomio caracterstico.
Multiplicidad geomtrica de un autovalor es la dimensin 21 del autoespacio asociado
al autovalor.

1 multiplicidad geomtrica multiplicidad algebraica


19 Notar

que para simplificar los clculos en la matriz utilizaremos el autovalor de A, 3 = 3, y no de B, 3 = 12.


multiplicidad de una solucin en una ecuacin es el nmero de veces que apare ese valor como solucin.
Geomtricamente tiene que ver con la concavidad de la funcin que define la ecuacin cerca de esa raz.
21 Nmero de vectores linealmente independientes.
20 La

Clases de lgebra

Pedro Jos Hernando Oter

8.2. Autovalores y Autovectores

233

Ejemplo 8.6. Determinar las multiplicidades algebraicas y geomtricas de los autovalores del
Ejemplo 8.4 y del Ejemplo 8.5.
Solucin:
En el ejemplo Ejemplo 8.4, el autovalor = 1 tiene multiplicidad algebraica 2 y
multiplicidad geomtrica 1, mientras que el autovalor = 2 tiene multiplicidad algebraica
1 y multiplicidad geomtrica 1.
En el Ejemplo 8.5 el autovalor = 0 tiene multiplicidad algebraica 2 y multiplicidad
geomtrica 2, mientras que el autovalor = 12 tiene multiplicidad algebraica 1 y
multiplicidad geomtrica 1.

Ejemplo 8.7. Encontrar los autovalores y sus

3
A=
1

multiplicidades de la siguiente matriz:

0
1
0 3
0 1

Solucin: Empezamos calculando los autovalores de la matriz.




1 0

1


3

3 = (1 + )2 + 0 + 0 + 0 0 = 2 ( + 2) = 0
det(A I) =

1
0 1
2 ( + 2) = 0

1 = 2
3

=
0 (multiplicidad algebraica 2)
= 2 (multiplicidad algebraica 1)

Vamos a calcular los autoespacios asociados a estos autovalores.


1 = 2

1
3
1

=0




1
1 0 1
v1
0
1
v1 = v3 = t
F +3F1
0 0 0 =
3 2
v2 = s
= v2 = t 0 + s 1
F3 +F1

1
0 0 0
v3 = t
0
v3
1

0
1
=
La multiplicidad algebraica del autovalor = 0 es 2
E0 = 0 , 1

1
0
0
0
0

3 = 2

1
3
1

E2

1
1 0
1 v1 = v3 = t
F +3F1
0 1 3
3 2
v2 = 3v3 = 3t
F3 +F1

1
0 0
0
v3 = t

1
La multiplicidad algebraica
= 3
=

1
0
2
0

Pedro Jos Hernando Oter

v1
1
= v2 = t 3

v3
1

del autovalor = 2 es 1

Clases de lgebra

234

R


TEMA 8: Autovalores y Autovectores

8.2.5. Autovalores y Matrices Inversas


Teorema 8.1
Una matriz cuadrada A es invertible si y slo si 0 no es un autovalor de A.

Demostracin 8.1
Una matriz cuadrada A es invertible si y slo si det(A) 6= 0. Si 0 fuera un autovalor de esta
matriz se verificara:
det(A 0I) = det(A) = 0 Contradiccin!
Por tanto cero no puede ser un autovalor de una matriz invertible.

Teorema Fundamental de las Matrices Invertibles

Veamos una versin ampliada del Teorema Fundamental de las Matrices Invertibles que vimos en el
Teorema 3.8, pgina 133.

Teorema 8.2 (Teorema Fundamental de las Matrices Invertibles)


Sea A nn y sea T : V 7 W una transformacin lineal definida por A. Entonces las
siguientes afirmaciones son equivalentes:

A es invertible.
A~x = ~b tiene solucin nica ~b

Rn .

A~x = ~0 tiene slo la solucin trivial ~x = ~0

Rn .

La forma escalonada reducida equivalente de A es In .


rang(A) = n.
ker(T ) = ker(A) = {~0}.
T es biyectiva.
Los vectores columna de A son linealmente independientes y forman una base del
espacio n .

Los vectores fila de A son linealmente independientes y forman una base del espacio
n
.

det(A) 6= 0.
0 no es un autovalor de A.

Clases de lgebra

Pedro Jos Hernando Oter

8.2. Autovalores y Autovectores

235

8.2.6. Tres Teoremas


Teorema 8.3
Sea A nn con autovalor y ~v un autovector asociado.

Si A es invertible, entonces 1/ es un autovalor A1 con autovector asociado ~v .


Para todo entero k, k es un autovalor de la matriz Ak con autovector asociado ~v .

Demostracin 8.2
Sea A~v = ~v , con A invertible.
A1 A~v = A1 ~v

~v = A1 ~v = A1~v

1~v = A1~v

Por tanto, 1 es un autovalor de A1 con autovector asociado ~v .


Sea A~v = ~v . Entonces multiplicando reiteradamente ambas partes de la igualdad por
A se tiene:
A2~v = A~v = 2~v ;

;
Ak~v = k~v
Por tanto, k es un autovalor de Ak con ~v autovector asociado.

Como tambin se cumple A1~v = 1~v se puede realizar la misma demostracin para
Ak~v = k~v , siendo Ak = (A1 )k .

R
R

Teorema 8.4
Sea A nn y sean 1 , , m autovalores distintos de A con autovectores asociados ~v1 ,
, ~vm . Entonces ~v1 , , ~vm son linealmente independientes.

Teorema 8.5
Sea A nn y sean 1 , , m autovalores distintos de A con autovectores asociados ~v1 ,
, ~vm . Sea un vector ~v combinacin lineal de los autovectores, tal que:

~x = c1~v1 + + cm~vm
Entonces para cualquier entero k se tiene:
Ak ~x = c1 k1 ~v1 + + cm km~vm

Nota 8.3.
La demostracin del Teorema 8.4 no ver aqu debido a su longitud. Puede consultarse en la bibliografa.
La demostracin del Teorema 8.5 fue vista en la introduccin del presente tema.

Pedro Jos Hernando Oter

Clases de lgebra

236

TEMA 8: Autovalores y Autovectores

8.3. Matrices Semejantes

R


8.3.1. Matrices Triangulares


Teorema 8.6
Los autovalores de una matriz triangular 22 (superior, inferior o diagonal) son los elementos
de su diagonal principal.

Demostracin 8.3
Si A es triangular, su determinante es el producto de sus elementos diagonales23 . Como la

matriz (A I) sigue siendo triangular, su determinante es:

n
1 = a11
Y
..
det(A I) = (a11 )(a22 ) (ann ) =
(aii ) = 0
.

i=1
n = ann

y por tanto, las soluciones de la ecuacin caracterstica sern los n elementos diagonales de
la matriz.

Ya que las las matrices triangulares muestran los autovalores de una matriz en su diagonal principal,
es muy interesante poder relacionar una matriz cuadrada cualquiera con una matriz triangular
equivalente que tenga los mismos autovalores.
Mediante el mtodo de eliminacin gaussiana se puede obtener una matriz triangular equivalente
de una matriz dada24 . Sin embargo, esta matriz equivalente por filas no conserva el valor del
determinante y por tanto tampoco conserva los autovalores.
En esta seccin vamos a estudiar una nueva transformacin matricial que s conserva los autovalores.

8.3.2. Matrices Semejantes


Definicin 8.6 (Matrices Semejantes)
Sean A, B nn . Se dice que A es semejante a B si existe una matriz (real o compleja)
P nn invertible tal que,

A = P BP 1
AP = P B
=

B = P 1 AP

La semejanza de A a B se representa25 por A B.

Nota 8.4.

La matriz P que aparece en la frmula de semejanza de dos matrices no es nica.

22 Ver

la Seccin 3.0.1, pgina 104.


la Seccin 3.6.7, pgina 121.
24 Ver la Seccin 1.6.4, pgina 52.
25 El smbolo se suele utilizar tambin para representar matrices equivalentes por filas.
23 Ver

Clases de lgebra

Pedro Jos Hernando Oter

8.3. Matrices Semejantes

237

Teorema 8.7 (Caractersticas de la Semejanza)


Sean A, B, C nn , entonces:

A A.
Si A B entonces B A.
Si A B y B C, entonces A C.

Demostracin 8.7
Esta propiedad es consecuencia de: I 1 AI = A.
Si A B entonces:
AP = P B

AB
BC

A = P BP 1

= AP = P B
= BM = M C

P 1 A = BP 1

BA

; A = P BP 1
; B = M CM 1

A = P BP 1 = P (M CM 1 )P 1 = (P M )C(P M )1 = RCR1 = AR = RC = A C

Propiedades de las Matrices Semejantes

Teorema 8.8 (Propiedades de las Matrices Semejantes)


Sean A, B nn con A B, entonces:

1. det(A) = det(B).
2. A y B tienen el mismo polinomio caracterstico y por tanto los mismos autovalores.
3. A es invertible si y slo si B tambin lo es.
4. nul(A) = nul(B)

Nota 8.5.

= rang(A) = rang(B).

Los autovectores ~v de A y B no tienen porqu ser iguales.

Demostracin 8.8
1. Como A = P BP 1 ,
det(A) = det(P ) det(B) det(P 1 ) = det(B) det(P ) det(P 1 ) = det(B)
(Contina en la pgina siguiente)

Pedro Jos Hernando Oter

Clases de lgebra

238

TEMA 8: Autovalores y Autovectores

Demostracin 8.8 (Continuacin)


2. Sea pA () el polinomio caracterstico de A y como A = P BP 1 se tiene,
pA () = det(AI) = det(P BP 1 I) = det(P BP 1 P IP 1 ) = det(P (BI)P 1 ) =
= det(P ) det(B I) det(P 1 ) = det(P ) det(P 1 ) det(B I) = det(B I) = pB ()
3. Como A = P BP 1 , si existe A1 debe ser: A1 = (P BP 1 )1 = P B 1 P 1
4. Sea un vector ~x ker(B) = B~x = ~0, entonces como AP = P B :
AP ~x = P B~x ; A(P ~x) = P (B~x) = ~0

P ~x ker(A)

Esto indica que por cada vector ~x que anula B~x existe al menos otro vector P ~x que
anula A(P ~x). Por tanto, dim(ker(B)) = p dim(ker(A)). Por otra parte, sea un vector
~y ker(A) = A~y = ~0, entonces como BM = M A, siendo M = P 1 se tiene:
BM ~y = M A~y ; B(M ~y ) = M (A~y ) = ~0

M ~y ker(B)

Por tanto, dim(ker(A)) = r dim(ker(B)). En definitiva, nul(A) = dim(ker(A)) =


dim(ker(B)) = nul(B). Como rang(X) + nul(X) = n, finalmente:
rang(A) = rang(B)

Por tanto dos matrices semejantes son siempre matrices equivalentes por filas, aunque no
necesariamente al contrario.

8.3.3. Interpretacin de la Semejanza de Matrices

Como hemos visto, dos matrices A, B nn son semejantes si existe una matriz invertible P nn
tal que cumple AP = P B. Tambin hemos comprobado que ambas matrices A y B tienen muchas
propiedades en comn. Pero uno podra preguntarse qu representa la matriz P y porqu en la ecuacin
multiplica a una matriz por la izquierda y a otra por la derecha.
Vamos a dar un sentido a esta frmula y vamos a explicar qu pueden representar cada una de las
matrices A, B y P , utilizando para ello las transformaciones lineales26 y los cambios de base27 .
Sea una transformacin lineal28 T : n n definida mediante una matriz A nn de la
siguiente forma:
~y = T (~x) = A~x

R
R

Tanto los vectores del dominio ~x como los de la imagen ~y estn en la base cannica29 de n , que
vamos a denominar C. Supongamos que necesitamos trabajar en una determinada base B de n con
matriz asociada30 P y queremos calcular cual es la forma que tendra la transformacin lineal en esta
base.
26 Ver

el Tema 4, pgina 137.


el Tema 5, pgina 171.
28 En concreto es un endomorfismo, ver la Seccin 4.6.2, pgina 162.
29 Ver la Seccin 2.5.3, pgina 84.
30 Ver la Seccin 5.2.1, pgina 176.
27 Ver

Clases de lgebra

Pedro Jos Hernando Oter

8.3. Matrices Semejantes

239

Llamando ~x 0 y ~y 0 a los vectores del dominio y de la imagen en la nueva base, la nueva transformacin
lineal T 0 sera:
~y 0 = T 0 (~x 0 ) = B~x 0
donde B es la matriz asociada a la transformacin lineal y la cual queremos conocer.
Con todos estos datos se tiene31 :

~x = PCB ~x 0 = (I 1 P )~x 0 = P ~x 0
~y = PBC ~y 0 = (I 1 P )~y 0 = P ~y 0

Por tanto se tiene que cumplir:


~y = A~x

P ~y 0 = AP ~x 0

~y 0 = P 1 AP ~x 0

B = P 1 AP

Las matrices A y B que definen una transformacin lineal (endomorfismo) en bases distintas, A en
la base cannica y B en una base con matriz asociada P , son matrices semejantes, siendo la relacin
entre ellas:
AP = P B
De forma esquemtica el proceso se puede resumir como:

Rn

Base Cannica

P 1 P

Base B
Ejemplo 8.8. Sea el endomorfismo32 de

Rn

Base Cannica
P 1 P

Base B

R3 :

F (x, y, z) = [x + y z, z, y + z]
a) Encontrar la matriz A asociada a la transformacin lineal F .
b) Encontrar la matriz B asociada a F en la base B = {[1, 0, 1], [1, 1, 0], [0, 1, 1]}.
B

~x ~y

[~x]B [~y ]B

Base Cannica

Base B

c) Qu relacin hay entre las matrices A y B?


(Contina en la pgina siguiente)

31 Ver

Rn .
32

I de

el Teorema 5.5, pgina 178 y tener en cuenta que la matriz asociada a la base cannica es la matriz identidad

Ver la Seccin 4.6.2, pgina 162.

Pedro Jos Hernando Oter

Clases de lgebra

240

TEMA 8: Autovalores y Autovectores

Ejemplo 8.8 (Continuacin).


Solucin:
a) Vamos a expresar la funcin en forma de sistema de ecuaciones:


y1
1 1
y1 = x + y z
y2 = 0 0
y2 = z
~y = F (~x) = A~x ;
=

y3 = y + z
y3
0 1

1
A= 0
0

1
1
1

1
0
1

1
x
1 y
1
z

b) Para cualquier vector ~v 3 se cumple ~v = PB [~v ]B . Sean ~x, ~y 3 dos vectores


pertenecientes al dominio e imagen de F , entonces:

~x = PB [~x]B
= ~y = A~x = PB [~y ]B = A(PB [~x]B ) = [~y ]B = PB1 APB [~x]B
~y = PB [~y ]B
Por tanto la matriz B asociada a la funcin F en la base B es:
[~y ]B = B[~x]B

B = PB1 APB

donde PB es la matriz asociada a la base B:

1
PB = 0
1

1
1
0

Tenemos que calcular la inversa de esta matriz:

1
1 0
1 0
1 1 0 1 0 0
0 1 1 0 1 0 0
0 1
1 1
1 0 1 0 0 1
0 1 1 1 0

1 1
0 1
0 0

1 0
0 1
0 0

0
1
1

0
0
1

Por tanto:

1
0
0
0
1
0
1/2 1/2 1/2

1/2 1/2
1/2
1/2
1/2 1/2
1/2
1/2
1/2

1
1
B = PB1 APB = 1
2
1

1
1
1
1 1 0
1
1
0

1
0
1

1
0
0

0
1
1

1
0
0 0
1
0

1
1
0

0
0
1

0
1
2

1
0
1

0
1
1

0
0
1

0
0
1/2 1/2
1/2
1/2

1 1
1
1
1 1
= 1
2
1
1
1

1
1/2
1/2

PB1

1
1
1 0
1
1

1
1
0

1
1
0

0
2
1
1 =
2
2
1
0

3
3
1 3
1
1

c) Claramente son matrices semejantes

Clases de lgebra

Pedro Jos Hernando Oter

8.4. Diagonalizacin

241

8.4. Diagonalizacin
Las matrices diagonales presentan grandes ventajas desde el punto de vista matricial:
Son sencillas y necesitan poca memoria para su almacenamiento en un ordenador33 .
Si existe, su inversa es muy fcil de calcular (invertir los elementos diagonales).
Q
Su determinante es inmediato: |D| = dii .
Sus autovalores coinciden con los elementos diagonales.

U
R

Por tanto, es interesante encontrar una matriz diagonal que sea semejante a una matriz dada: A D.
Definicin 8.7 (Matriz Diagonalizable)
Una matriz A nn se dice que es diagonalizable si existe una matriz diagonal 34
D nn tal que A sea semejante a D, es decir, que exista una matriz P nn invertible
tal que:
AP = P D
=
A = P DP 1

Teorema 8.9 (Diagonalizacin de una Matriz)


Una matriz A nn es diagonalizable si y slo si tiene n autovectores linealmente
independientes, verificndose:
P 1 AP = D

donde los elementos diagonales de D son los autovalores de A y las columnas de P son los
n autovectores asociados linealmente independientes, en el mismo orden que los autovalores
correspondientes.

Demostracin 8.9
Sea A semejante a una matriz diagonal D mediante AP = P D. Sean ~v1 , , ~vn las columnas
de P y 1 , , n los elementos diagonales de A, entonces:

1
0
0
0

 

0 2

AP = P D = A ~v1 ~v2 ~vn = ~v1 ~v2 ~vn .


.
..
..
..
.
0

A~v1

A~v2

A~vn

1~v1

2~v2

Igualando las columnas: A~vi = i~vi , i = 1, , n.

33 Basta
34 Esta

n~vn

A~v1 = 1~v1
..
.

A~vn = n~vn

(Contina en la pgina siguiente)

con almacenar nicamente los elementos de su diagonal.


matriz puede ser real,
= , o compleja,
= .

Pedro Jos Hernando Oter

K R

K C

Clases de lgebra

242

TEMA 8: Autovalores y Autovectores

Demostracin 8.9 (Continuacin)


Lo que demuestra que los vectores columna de P son los autovectores de A siendo los
autovalores asociados, los elementos diagonales de D en el mismo orden.
Como P es invertible, sus columna son linealmente independientes.
De igual forma se demuestra =, comenzando por los autovalores y autovectores de A.

Ejemplo 8.9. En caso de ser posible, encontrar una matriz P que diagonalice la siguiente
matriz A:

0
1 0
0 1
A= 0
2 5 4

Solucin: Del ejemplo Ejemplo 8.4 sabemos que sus autovalores son 1 = 2 = 1 y 3 = 2,
siendo sus autoespacios:


1
1
E1 = 1
;
E2 = 2

1
4
Como A no tiene 3 autovectores linealmente independientes, por el Teorema 8.9, A no es
diagonalizable y por tanto no existe la matriz P pedida.

Ejemplo 8.10. Si es posible, encontrar una matriz P que diagonalice la siguiente matriz A:

1 0
1
A = 3 0 3
1 0 1

Solucin: Del Ejemplo 8.7 sabemos que sus autovalores son 1 = 2 = 0 y 3 = 2, siendo sus
autovectores:

0
1
1
;
E2 = 3
E0 = 0 , 1

0
1
1

Es fcil comprobar que los tres autovectores son linealmente independientes y se pueden formar
con ellos una matriz P invertible de la forma:

1 0 1


3
P = ~v1 ~v2 ~v3 = 0 1
1 0
1

Esta matriz sirve para diagonalizar la matriz A:


1 0
1
1 0 1
0 0
3 = 0 0
AP = 3 0 3 0 1
1 0 1
1 0
1
0 0

Clases de lgebra


2
1
6 = 0
2
1

0
1
0

1
0
3 0
1
0

0
0
0

0
0 = PD
2

Pedro Jos Hernando Oter

8.4. Diagonalizacin

243

Nota 8.6.
El orden no importa, pero las matrices P y D sern distintas en funcin del orden elegido. Por ejemplo, en el
caso anterior se podra haber elegido:

1 0 1
2 0 0

3 1 0
0 0 0
P =
;
D=
1 0 1
0 0 0

0 1 1
0
0 0

1
3 0
0 2 0
P =
;
D=
0
1 1
0
0 0
Verificar AP = P D a mano es mucho ms sencillo que verificar A = P DP 1 ya que no es necesario calcular
P 1 .

Teorema 8.10 (Teorema de la Diagonalizacin)


Sea A nn con autovalores distintos 1 , , k con k n. Entonces, los siguientes
enunciados son equivalentes:

A es diagonalizable.
A tiene en total n autovectores linealmente independientes 35 .
La multiplicidad algebraica de cada autovalor es igual a su multiplicidad geomtrica 36 .

Demostracin 8.10
Trivial ya que con el conjunto de autovectores formamos una matriz P invertible.

8.4.1. Autovalores Reales y Complejos


Los autovalores de una matriz real pueden ser reales o complejos, al igual que sus autovectores.

Ejemplo 8.11. Calcular los autovalores y autovectores de la matriz real :




0 1
A=
1
0
Solucin: Calculamos primero los autovalores de la matriz.


det(A I) =
1


1
= 2 + 1 = 0

= 1 = i

1
2

=
i
= i

Con ellos calculamos los autovectores asociados.


(Contina en la pgina siguiente)
35 El

conjunto de todos los autoespacios de A contiene n autovectores.


la Definicin 8.5, pgina 232.

36 Ver

Pedro Jos Hernando Oter

Clases de lgebra

244

TEMA 8: Autovalores y Autovectores

Ejemplo 8.11 (Continuacin).


1 = i


i
1

1
i

F1 +iF2

0
1

0
i

v2 = t
v1 = iv2 = it

v
= 1
v2

 
 
i
i
=t
= Ei =
1
1

v2 = t
v1 = iv2 = it

=t

1 = i

i
1

1
i

F iF

2
1

0
1

0
i

v1
v2

Ejemplo 8.12. Encontrar, en caso de que exista, una base de


a la transformacin lineal F del Ejemplo 8.8 sea diagonal.




i
i
= Ei =
1
1

R3 donde la matriz A asociada

F (x, y, z) = [x + y z, z, y + z]
Solucin: La matriz asociada a esta transformacin lineal era:

1 1 1
A = 0 0 1
0 1
1

Como se vio en la solucin del problema, la matriz B asociada a la funcin F en una base B
cumpla:
B = PB1 APB
Por tanto, en caso de que exista dicha matriz (base), corresponder con la diagonalizacin de la
matriz A. Vamos a ver si es posible, encontrando los autovalores y autovectores de A.


1 1

1

=1
2
0
= (1 )2 + (1 ) = 0 ;

1
(1

)
=
(1

)


(1 ) = 1
0
1 1
+1=0

Por tanto, no existe una base de

14
= No todas las soluciones son reales.
2
Como algunos autovalores son complejos, sus autovectores asociados tambin sern complejos y
por tanto, no existe una matriz real y diagonal semejante a A.
2

R3 donde la matriz asociada a F sea diagonal.

Hay un tipo de matrices reales que siempre tienen autovalores y autovectores reales: las matrices
reales simtricas37 .

37 Ver

la Definicin 3.11, pgina 112.

Clases de lgebra

Pedro Jos Hernando Oter

8.5. Diagonalizacin Ortogonal

R


245

Teorema 8.11
Si A es una matriz real y simtrica, entonces sus autovalores y autovectores asociados de A
son reales.

Demostracin 8.10
Un nmero complejo38 z = a + bi es real si z = z parte imaginaria nula, b = 0.
Sea una matriz A real y simtrica, entonces A = A y sea un autovalor con autovector
asociado v de A. Entonces Av = v.
=
v.
= A
Tomando complejos conjugados en ambas partes se tiene: Av
v = v
Posteriormente, tomando transpuestas y teniendo en cuenta el hecho de que A es simtrica:
v)T
(A
v)T = (

vT
T A =
v

Calculemos entonces cuanto vale (


vT v),
vT )v = (
vT v) = ( )(
vT v) = 0
T (v) = v
T (Av) = (
(
vT v) = v
vT A)v = (
T v 6= 0 y por tanto,
Como v es un autovector y por tanto no es nulo, v
=0

Si los autovalores son reales y la matriz A tambin lo es, las soluciones del sistema homogneo
(autovectores asociados) tambin sern reales.

8.5. Diagonalizacin Ortogonal


Como hemos visto, la diagonalizacin de una matriz permite encontrar matrices diagonales
semejantes39 :
A = P DP 1

Frente a las claras ventajas que presenta una matriz diagonal D con respecto a una matriz cuadrada
A, aparece adems como contrapartida una matriz P y su inversa P 1 .
Resultara muy interesante poder encontrar matrices que fueran diagonalizables a travs de matrices
P que fueran ortogonales, con todas las ventajas que ello conlleva40 .
Definicin 8.8 (Diagonalizacin Ortogonal)
Una matriz A nn se dice que es diagonalizable ortogonalmente si existe una matriz
ortogonal Q y una matriz diagonal D tales que:

QT AQ = D
38 El

conjugado de un nmero complejo z = a + bi es el complejo z = a bi (parte imaginaria cambiada de signo).


que sta sea diagonalizable
40 Ver la Seccin 6.3, pgina 188.
39 Siempre

Pedro Jos Hernando Oter

Clases de lgebra

246

R


TEMA 8: Autovalores y Autovectores

Vamos a estudiar las condiciones bajo las cuales una matriz cuadrada es diagonalizable
ortogonalmente. Para ello vamos a ver primero una propiedad muy interesante de las matrices
simtricas41 .
Teorema 8.12
Si A es simtrica todos los autovectores correspondientes a autovalores distintos son
ortogonales entre s.

Demostracin 8.11
Sean ~v1 y ~v2 dos autovectores asociados a dos autovalores distintos 1 =
6 2 , A~v1 = 1~v1 ,
T
A~v2 = 2~v2 . Teniendo en cuenta que A es simtrica, A = A y que ~x ~y = ~xT ~y , se tiene:
1 (~v1 ~v2 ) = (1~v1 ) ~v2 = (A~v1 ) ~v2 = (A~v1 )T ~v2 = ~v1T (A~v2 ) = ~v1T (2~v2 ) = 2 (~v1 ~v2 )
Por tanto, (1 2 )(~v1 ~v2 ) = 0 y como 1 6= 2 por tanto ~v1 ~v2 = 0.

Ejemplo 8.13. Verificar el resultado del Teorema

2 1
A= 1 2
1 1
Solucin: El polinomio caracterstico de A es:

8.12 con la matriz,

1
1
2

pA () = det(A I) = 3 + 62 9 + 4 = ( 4)( 1)2 = 0


Los autovalores son 1 = 4, 2,3 = 1 y los autoespacios correspondientes:

1
1
1
E4 = 1
;
E1 = 0 , 1

1
1
0

Donde fcilmente se comprueba que todo autovector de E4 , (en este caso slo uno), es ortogonal
a todo autovector de E1 .

Nota 8.7. En el Ejemplo 8.7 se obtiene un conjunto de autovectores que son linealmente independientes, pero no son
ortogonales. Por tanto, es diagonalizable pero no ortogonalmente.

8.5.1. Interpretacin Geomtrica de la Diagonalizacin Ortogonal

Vamos a ver desde un punto de vista geomtrico en 3 la diferencia entre matrices no diagonalizables,
diagonalizables no ortogonalmente y diagonalizables ortogonalmente.
Para ello, vamos a representar grficamente el conjunto de autovectores y los correspondientes
autoespacios asociados a los autovalores.
41 Ver

la Seccin 3.11, pgina 112.

Clases de lgebra

Pedro Jos Hernando Oter

8.5. Diagonalizacin Ortogonal


Matriz no diagonalizable.

247

0
A= 0
2

1 0
0 1
5 4

Esta matriz se estudi en el Ejemplo 8.9, pgina 242 y vimos que tena tres autovalores
1 = 2 = 1 y 3 = 2 con autoespacios asociados:


1
1
E1 = 1
;
E2 = 2

1
4
z

E2
~v2

E1
~v1
y

Cada uno de los autoespacios corresponde a una recta


(dimensin 1), siendo los respectivos autovectores una base de
estos subespacios vectoriales de 3 .
Claramente los autovectores son linealmente independientes
por estar asociados a autovalores distintos42 , pero como
solamente hay dos, no tenemos un conjunto completo de
vectores para formar una base de todo el espacio 3 y por
tanto la matriz no es diagonalizable.
Por otra parte, como la matriz no es simtrica estos
autovectores no son ortogonales43 .
En la grfica se muestran los autoespacios (rectas) E1 y E2 y
los autovectores (bases) ~v1 y ~v2 .

Matriz diagonalizable no ortogonalmente.

1 0
A= 3 0
1 0

1
3
1

Esta matriz se estudi en el Ejemplo 8.7, pgina 233 y vimos que tena tres autovalores
1 = 2 = 0 y 3 = 2 con autoespacios asociados:

0
1
1
E0 = 0 , 1
;
E2 = 3

1
0
1

En este caso el autoespacio asociado al autovalor 0 es un plano y los dos autovectores


correspondientes a este autovalor, (~v1 y ~v2 ), son una base de este subespacio vectorial de
dimensin 2 en 3 . Estos dos vectores pueden ser cualesquiera del plano, siempre que sean
linealmente independientes, de forma que aunque no sean inicialmente ortogonales44 siempre se
pueden ortogonalizar45 para formar un conjunto (base) ortogonal.

42 Ver

el Teorema 8.4, pgina 235.


el Teorema 8.12, pgina 246.
44 En este caso s lo son.
45 Mediante el proceso de Gram-Schmidt.
43 Ver

Pedro Jos Hernando Oter

Clases de lgebra

248

TEMA 8: Autovalores y Autovectores

z
E0
~v1
~v3

~v2

E2

Por otra parte, el autoespacio asociado al autovalor -2 es una recta, siendo el autovector asociado
a este autovalor, (~v3 ), una base de este subespacio vectorial de dimensin 1 en 3 . Se puede
tomar como autovector asociado a este autovalor, cualquier vector no nulo perteneciente a la
recta.

Como en total se tiene un conjunto de tres autovectores linealmente independientes (no


coplanarios) en 3 , la matriz s es diagonalizable.

Sin embargo, como la recta es fija y no ortogonal al plano46 , no forman un conjunto ortogonal
de vectores y por tanto la matriz no es diagonalizable ortogonalmente.
Matriz diagonalizable ortogonalmente.

2
A= 1
1

1
2
1

1
1
2

Esta matriz simtrica se estudi en el Ejemplo 8.13, pgina 246 y vimos que tena tres autovalores
1 = 4, 2,3 = 1 con autoespacios asociados:


1
1
1
;
E1 = 0 , 1
E4 = 1

0
1
1
En este caso el autoespacio asociado al autovalor 4 es una recta, siendo el autovector
correspondiente, (~v1 ), una base de este subespacio vectorial. Este vector puede ser cualesquiera
de la recta.
z

E4

~v1

E1

~v2

~v3

46 O lo que es lo mismo, el autovector asociado al autovalor -2, (~


v3 ), no es ortogonal a los autovectores asociados al
autovalor 0, (~v1 y ~v2 ).

Clases de lgebra

Pedro Jos Hernando Oter

8.5. Diagonalizacin Ortogonal

249

Por otra parte, el autoespacio asociado al autovalor 1 es un plano y sus dos autovectores , (~v2 y
~v3 ), son una base del mismo. Estos dos autovectores pueden ser cualesquiera del plano, siempre
que sean linealmente independientes, de forma que aunque inicialmente no sean ortogonales47
siempre se pueden ortogonalizar mediante el proceso de Gram-Schmidt, para formar un conjunto
(base) ortogonal. Por ejemplo, ~v3 podra ser:

1/2
~v2 ~v3
1
~v3 = ~v3
~v2 =
~v2 ~v2
1/2
que pertenece al plano E1 y es ortogonal a ~v1 y ~v2 .

Como en total se tiene un conjunto de tres autovectores linealmente independientes, (no


coplanarios), en 3 , la matriz s es diagonalizable.

Adems como la matriz es simtrica, la recta E4 siempre es ortogonal al plano48 E1 , formando


un conjunto ortogonal de vectores. Por tanto toda matriz simtrica como esta es diagonalizable
ortogonalmente49 .

U
R


8.5.2. Teorema Espectral


Definicin 8.9 (Espectro de una Matriz)
Al conjunto de los autovalores de una matriz A se le conoce con el nombre de espectro50 de
la matriz A.

Teorema 8.13 (Teorema Espectral)


Una matriz A nn es ortogonalmente diagonalizable si y solo s es simtrica.

Demostracin 8.12
Si A es ortogonalmente diagonalizable, existe una matriz ortogonal Q tal que:
AQ = QD

A = QDQT

AT = (QDQT )T = QDT QT = QDQT = A

De forma anloga, se puede demostrar que toda matriz simtrica es ortogonalmente


diagonalizable.

47 Como

ocurre en este caso.


lo que es lo mismo, el autovector asociado al autovalor 4, (~v1 ), es ortogonal a los autovectores asociados al
autovalor 1, (~v2 y ~v3 ).
49 Ver el Teorema 8.12, pgina 246.
50 La palabra espectro proviene del latn espectrum que significa imagen. Cuando los tomos son excitados, estos
vibran y emiten luz, que es mezcla de distintas frecuencias y que corresponden a diferentes lneas brillantes en su
espectro. Estas frecuencias se pueden obtener de forma matemtica calculando los autovalores de un determinado
operador matricial. De aqu deriva el nombre de espectro al conjunto de autovalores de una determinada matriz.
48 O

Pedro Jos Hernando Oter

Clases de lgebra

250

TEMA 8: Autovalores y Autovectores

8.5.3. Descomposicin Espectral


Definicin 8.10 (Descomposicin Espectral)
Cualquier matriz simtrica A nn se puede expresar a travs de una matriz ortogonal Q
y una matriz diagonal D como:

T
1 0
~q1

 . .

.
T
. . .. ...
A = QDQ = ~q1 ~qn ..
=
T
0 n
~qn

1 ~q1

T
~q
 .1
n ~qn .. = 1 ~q1 ~q1T + 2 ~q2 ~q2T + + n ~qn ~qnT
~qnT

A la obtencin de este resultado se le denomina descomposicin espectral51 de A.

Ejemplo 8.14. Diagonalizar ortogonalmente la matriz siguiente y obtener su descomposicin


espectral.

2 1 1
A= 1 2 1
1 1 2

Solucin: En el ejemplo Ejemplo 8.13 determinamos los autovalores y autovectores de A, siendo


1 = 4 y 2 = 3 = 1 (doble) y los autoespacios correspondientes:


1
1
1
;
E1 = 0 , 1
E4 = 1

0
1
1
Como necesitamos tres autovectores ortogonales, aplicando el proceso de Gram-Schmidt52 a E1
se obtiene:


1/2
1
1
E1 = 0 ,

1
1/2
Normalizando estos vectores podemos obtener una matriz Q ortogonal de la forma:

1/3 1/ 2 1/6
1/3
1/6
1/ 2

2/ 6
Q = 1/3
2/6 ; ~q1 = 1/3 , ~q2 =
0 , ~q3 =
0

1/ 2
1/ 3
1/ 2 1/ 6
1/ 3
1/ 6

(Contina en la pgina siguiente)

51 Cada uno de los trminos q


~i q~iT corresponde con la matriz asociada a la TL definida por la proyeccin ortogonal
sobre el subespacio generado por q~i , por esta razn a la descomposicin espectral se la denomina a veces forma de
proyeccin del teorema espectral.
52 Ver la Seccin 6.8, pgina 198.

Clases de lgebra

Pedro Jos Hernando Oter

8.6. Teoremas Avanzados Adicionales

251

Ejemplo 8.14 (Continuacin).


Haciendo las operaciones oportunas se puede comprobar que:

4 0 0
QT AQ = 0 1 0
0 0 1
Finalmente, su descomposicin espectral ser:

A = 1 ~q1 ~q1T + 2 ~q2 ~q2T + 3 ~q3 ~q3T

8.6. Teoremas Avanzados Adicionales

Los dos teoremas que se presentan a continuacin se han hecho famosos por formar parte del algoritmo
de Google para la determinacin rpida del ranking de pginas web.

Teorema 8.14 (Teorema de Perron)


Sea A nn una matriz positiva (aij > 0). Entonces A tiene un autovalor 1 real con las
siguientes propiedades:

1 > 0.
1 tiene un autovector asociado ~v1 positivo (vi > 0).
Para cualquier otro autovalor de A se verifica || < 1 .

Teorema 8.15 (Teorema de Perron-Frobenius)


Sea A nn una matriz irreducible no negativa. Entonces A tiene un autovalor 1 real con
las siguientes propiedades:

1 > 0.
1 tiene un autovector asociado positivo.
Para cualquier otro autovalor de A se verifica || 1 .
Cualquier autovalor (real o complejo) de A que verifique || = 1 , entonces es una
raz (compleja) de la ecuacin n n1 = 0.
1 tiene multiplicidad algebraica 1.

Pedro Jos Hernando Oter

Clases de lgebra

252

TEMA 8: Autovalores y Autovectores

8.7. Resumen
Toda matriz cuadrada siempre tiene autovalores y autovectores asociados (reales o complejos).
Si A es real y simtrica sus autovalores y autovectores siempre sern reales.
En las matrices triangulares (superiores, inferiores o diagonales), los autovalores corresponden
con los elementos de la diagonal principal : i = aii .
A es invertible cero no es un autovalor de A.
Tres teoremas importantes:
1. Los autovectores asociados a autovalores distintos son linealmente independientes.
2. Ak ~x = 1 k1 ~v1 + + 1 kn~vn siendo ~x = 1~v1 + + n~vn .
 1
A
: autovectores 1/, mismos autovectores de A.
3. Si A~v = ~v =
An
: autovalores n , mismos autovalores de A.
Matrices Semejantes: A B P invertible : AP = P B.
Propiedades:
pA () = pB ()

rang(A) = rang(B)
Si A

= B

|A| = |B|

nul(A) = nul(B).

Diagonalizacin. P : AP = P D si y slo si existen n autovectores linealmente


independientes (multiplicidades ma = mg ), donde D = [1 2 ] y P = [~v1 ~vn ].
Diagonalizacin Ortogonal (Teorema Espectral): AQ = QD si y slo si A es simtrica.
Descomposicin Espectral. Si A es simtrica, existe Q ortogonal tal que:

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

A = QDQT = [~q1 ~qn ][1 2 ][~q1 ~qn ]T = 1 ~q1 ~q1T + + n ~qn ~qnT

Clases de lgebra

Pedro Jos Hernando Oter

TEMA

Pseudoinversa y Descomposicin en
Valores Singulares
Contenido
9.1
9.2

9.3

9.4

Pseudoinversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


9.1.1 Propiedades de la Matriz Pseudoinversa . . . . . . . . . . . . . . . . . .
Aplicaciones de la Matriz Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.2 Matriz de una Proyeccin Ortogonal sobre un Subespacio . . . . . . . .
Descomposicin en Valores Singulares (DVS) . . . . . . . . . . . . . . . . . . . .
9.3.1 Valores Singulares de una Matriz . . . . . . . . . . . . . . . . . . . . . .
9.3.2 Relacin entre Valores Singulares y Autovectores en Matrices Cuadradas
9.3.3 Descomposicin en Valores Singulares (DVS) . . . . . . . . . . . . . . .
9.3.4 Teorema de la Descomposicin Espectral Generalizada . . . . . . . . . .
9.3.5 Relacin entre las matrices AT A y AAT . . . . . . . . . . . . . . . . . .
Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.1 Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.2 Mnimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.3 Compresin de Datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.4.4 Otras Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

255
256
256
256
257
258
259
261
263
272
274
277
277
279
280
285

253

Definicin

Clases de lgebra

Proy. Ortogonal Subesp.

Aplicaciones

Min. Cuadrados

Propiedades

Pseudoinversa

Int. Geomtrica

Definicin

Propiedades

Aplicaciones

Generalizacin Desc. Espectral

Clculo

Descomposicin en Valores Singulares

Pseudoinversa y Descomposin en Valores Singulares (DVS)

254
TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Pedro Jos Hernando Oter

9.1. Pseudoinversa de una Matriz

255

9.1. Pseudoinversa de una Matriz

Rnn invertible 1 da lugar a SEL compatibles determinados (solucin nica) de la


A~x = ~b = ~x = A1~b ;
~b Rn
Si la matriz A no es invertible, el SEL no tiene solucin nica3 . Para toda matriz A Rmn se define
la mejor aproximacin a la solucin del SEL A~s ~b, como la solucin de mnimos cuadrados ~s Rn
Toda matriz A
forma2 :

dada por las ecuaciones normales4 :

AT A~s = AT ~b

Si la matriz A tiene columnas linealmente independientes, la solucin de mnimos cuadrados es nica5


y por tanto la matriz AT A es invertible, cumplindose:
~s = (AT A)1 AT ~b
En estos casos, se puede considerar a la matriz (AT A)1 AT como una generalizacin del concepto de
matriz inversa para matrices A mn con vectores columna linealmente independientes6 .
En este tema vamos a explorar estas consideraciones y algunos otros conceptos importantes que
aparecen desde un punto de vista prctico.

Definicin 9.1 (Matriz Pseudoinversa)


Dada una matriz A mn con columnas linealmente independientes 7 , se define la matriz
pseudoinversa8 A+ de A como:

A+ = (AT A)1 AT

A+

Rnm

Ejemplo 9.1. Encontrar, en caso de que exista, la pseudoinversa de la matriz A


siguiente:

1 1
A= 1 2
1 3

R32

Solucin: Como los vectores columna son linealmente independientes, s existe la matriz
pseudoinversa . Vamos a calcularla.






 1 1
3 6
7/3 1
1
1
1
T
T
1

1 2 =
=
(A A) =
A A=
1 2 3
6 14
1 1/2
1 3
+

A = (A A)

A =

7/3
1

1
1/2



1
1

1
2

1
3

4/3 1/3
1/2
0

2/3
1/2

1 Por

tanto con vectores fila y columna linealmente independientes.


la Seccin 3.5.2, pgina 116.
3 Puede tener infinitas soluciones (compatible indeterminado) o no tener solucin (incompatible).
4 Ver la Seccin 7.3, pgina 206.
5 Ver el Teorema 7.2, pgina 206.
6 La imposicin de vectores columna linealmente independientes en una matriz se utiliz tambin en la factorizacin
QR, ver la Seccin 6.9, pgina 199.
7 En la Seccin 9.4.1, pgina 277 se ver una forma de calcular la matriz pseudoinversa de cualquier matriz.
8 Esta matriz tambin es conocida con el nombre de pseudoinversa de Moore-Penrose.
2 Ver

Pedro Jos Hernando Oter

Clases de lgebra

256

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

9.1.1. Propiedades de la Matriz Pseudoinversa


Sea A

Rmn entonces se cumple9 :

AA+ A = A
A+ AA+ = A+
AA+ es simtrica : (AA+ )T = AA+
A+ A es simtrica : (A+ A)T = A+ A

Nota 9.1.
En la Seccin 9.4.1, pgina 277, se utilizan estas cuatro propiedades para dar una definicin general de la matriz
pseudoinversa.
En la demostracin del Teorema 9.9, pgina 277 se indica tambin la demostracin de estas propiedades.

Otras Propiedades de la Pseudoinversa


(A+ )+ = A
(AT )+ = (A+ )T
Si A es invertible: A1 = A+
Si A tiene vectores columna ortonormales: A+ = AT

9.2. Aplicaciones de la Matriz Pseudoinversa

9.2.1. Mnimos Cuadrados


Teorema 9.1 (Pseudoinversa y Mnimos Cuadrados)
Si A mn es una matriz con vectores columna linealmente independientes, la solucin
nica de mnimos cuadrados ~s n del SEL incompatible A~x = ~b viene dada por:

~s = A+~b


!

A+

Rnm ,

~b

Rm

Demostracin 9.1
Basta tener en cuenta la Definicin 9.1, pgina 255 de A+ y el Teorema 7.2, pgina 206.

Nota 9.2. Si la matriz A no tiene vectores columna linealmente independientes y A+ se calcula como se explica en la
Seccin 9.4.1, pgina 277, el vector ~s = A+~b corresponde con una de las infinitas soluciones de mnimos cuadrados del
problema A~
x = ~b.
9 Estas

propiedades son anlogas a las de la matriz inversa, ver la Seccin 3.5.1, pgina 115.

Clases de lgebra

Pedro Jos Hernando Oter

9.2. Aplicaciones de la Matriz Pseudoinversa

257

9.2.2. Matriz de una Proyeccin Ortogonal sobre un Subespacio


Definicin 9.2 (Matriz de una Proyeccin Ortogonal)
Se define la matriz de la proyeccin ortogonal 10 de un vector ~v sobre un subespacio W , a
aquella matriz C asociada a la TL que define dicha proyeccin.
proyW (~v ) = C~v = T (~x)

Teorema 9.2
Sea W un subespacio vectorial de m y A mn una matriz cuyas columnas forman una
base de W , entonces la proyeccin ortogonal de todo vector ~v m sobre W es el vector:

proyW (~v ) = C~v

C = AA+

Demostracin 9.2
Como los vectores columna de A forman una base de W se tiene:
proyW (~v ) = proycol (A) (~v )
Segn el teorema de la mejor aproximacin11 , la proyW (~v ) es la mejor aproximacin de ~v en
W y sta corresponde con la solucin de mnimos cuadrados, ~x, dada por12 :
A~x = proycol (A) (~v )
cuya solucin, si A tiene vectores columna linealmente independientes, viene dada por13 :
~x = (AT A)1 AT ~v
Por tanto:

proyW (~v ) = proycol (A) (~v ) = A~x = A(AT A)1 AT ~v = AA+~v

Segn el Teorema 9.2, si un subespacio W de n con base B y matriz asociada14 PB = A, la matriz


de la proyeccin ortogonal de cualquier vector ~v n sobre W es AA+ .
W

Rn

PB = A

proyW (~v ) = C~v = T (~x)

C = AA+

~v

Rn

10 Ver

la Definicin 6.8, pgina 195.


el Teorema 7.1, pgina 205.
12 Ver la Seccin 7.3, pgina 206.
13 Ver el Teorema 7.2, pgina 206.
14 Al ser una base todos sus vectores son linealmente independientes y por tanto la matriz asociada a la base tiene
vectores columna linealmente independientes.
11 Ver

Pedro Jos Hernando Oter

Clases de lgebra

258

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.2. Encontrar la matriz de la proyeccin ortogonal de cualquier vector ~v


el subespacio W 3 definido por la ecuacin del plano:

R3 sobre

W : { x y + 2z = 0 }
Aplicarla para encontrar la proyeccin ortogonal del vector ~v = [3, 1, 2] sobre W y comparar
el resultado obtenido en el Ejemplo 6.13, pgina 196.
Solucin: Necesitamos una base de W . Para ello podemos resolver el sistema, o en este caso
como es un plano, dim(W ) = 2, basta tomar dos vectores del mismo linealmente independientes.
Por ejemplo los valores [1, 1, 0] y [1, 1, 1] cumplen la ecuacin y por tanto una base de W es
BW = {[1, 1, 0], [1, 1, 1]}. La matriz asociada a esta base es:

1 1
1
A= 1
0
1
Entonces:
T

A A=

1
1

1
1

0
1


1
2

1 =
0
1

1
1
0

0
3

(A A)

1/2
0

0
1/3

Por tanto, la matriz asociada a la proyeccin ortogonal sobre W es:

1
C = AA+ = A(AT A)1 AT = 1
0

1 
1/2
1
0
1

0
1/3



1
1

1
1

0
1

5/6 1/6
= 1/6 5/6
1/3 1/3

1/3
1/3
1/3

La proyeccin de ~v = [3, 1, 2] sobre W es entonces:

5/6 1/6
proyW (~v ) = C~v = 1/6 5/6
1/3 1/3

3
1/3
5/3
1/3 1 = 1/3
2
1/3
2/3

cuyo resultado es igual al obtenido en el Ejemplo 6.13.

9.3. Descomposicin en Valores Singulares (DVS)


Como se ha visto anteriormente, algunas matrices A
diagonalizacin de la siguiente forma15 :

Rnn

se pueden factorizar mediante la

A = P DP 1
donde D es una matriz diagonal con los autovalores de A, y P es una matriz invertible que contiene
los autovectores de A. Si A es simtrica entonces se puede realizar una diagonalizacin ortogonal16 ,
donde P ser una matriz ortogonal 17 y por tanto P 1 = P T .
15 Ver

el Teorema 8.9, pgina 241.


el Teorema 8.12, pgina 246.
17 Ver la Seccin 6.3, pgina 188.
16 Ver

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

259

La diagonalizacin (ortogonal o no) slo es posible en un determinado nmero de matrices A


cuadradas18 .
Vamos a ver en esta seccin una factorizacin general muy importante, vlida para toda matriz A,
denominada Descomposicin en Valores Singulares 19 , abreviado comnmente como DVS.

R


9.3.1. Valores Singulares de una Matriz


Teorema 9.3
Para toda matriz A mn , la correspondiente matriz AT A
todos sus autovalores reales y no negativos.

Demostracin 9.3
Para toda matriz A

Rnn es simtrica y tiene

Rmn , la matriz AT A Rnn es simtrica20 ya que:


(AT A)T = AT (AT )T = AT A

y por tanto puede ser diagonalizada ortogonalmente21 . Adems, por ser real y simtrica,
todos sus autovalores son reales22 .
Por otra parte, llamando a un autovalor de AT A asociado a un autovector unitario ~v , se
tiene:
0 kA~v k2 = (A~v ) (A~v ) = (A~v )T (A~v ) = ~v T AT A~v = ~v T ~v = (~v ~v ) = k~v k2 =
y por tanto, todos los autovalores de AT A son no negativos.

Definicin 9.3 (Valores Singulares)


Se definen los valores singulares de una matriz A
de los autovalores 23 de la matriz AT A nn .

(AT A)~vi = i~vi

Rmn , a las races cuadradas (positivas)

i =

p
i

i = 1, , n

Se denotan mediante 1 , 2 , , n , ordenados en forma decreciente y teniendo en cuenta sus


correspondientes multiplicidades aritmticas 24 :
1 2 n 0

18 Slo

en aquellos casos en los que A tiene n autovalores linealmente independientes, ver la Seccin 8.4, pgina 241.
terminologa anglosajona se define como Singular Value Descomposition (SVD).
20 Ver la Definicin 3.11, pgina 112.
21 Ver el Teorema 8.13, pgina 249.
22 Ver el Teorema 8.11, pgina 245.
23 Ver la Definicin 8.2, pgina 227.
24 Ver la Definicin 8.5, pgina 232.

19 En

Pedro Jos Hernando Oter

Clases de lgebra

260

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.3. Calcular los valores singulares de

1
A= 1
0

la matriz A

1
0
1

R32 siguiente:

Solucin: Calculamos primero la matriz AT A 22 .


 1 1

1 1 0
2
1 0 =
AT A =
1 0 1
1
0 1

Los autovalores de esta matriz son:




2
1

= (2 )2 1 = 2 4 + 3 = 0
1
2

1
2




1
2

=
=

1
3

Ordenando los autovalores de mayor a menor y calculando sus races cuadradas tenemos:
1 =

2 = 1

Teorema 9.4
Dada una matriz A mn y sean {1 , r } con r n el conjunto de autovalores no
nulos de la matriz AT A nn , y {~v1 , , ~vr } sus autovectores asociados. Entonces:

El conjunto {A~v1 , , A~vr } es ortogonal.

v1
A~
vr
kA~vi k = i = i y por tanto el conjunto { A~
1 , , r } es ortonormal.

Demostracin 9.4
Para todo i 6= j se tiene:
(A~vi ) (A~vj ) = (A~vi )T (A~vj ) = ~viT AT A~vj = ~viT j ~vj = j (~vi ~vj ) = 0
Ya que al ser AT A una matriz simtrica25 , sus autovectores son ortogonales26 .
Segn la demostracin del Teorema 9.3, pgina 259, los autovalores i y autovectores
~vi de la matriz AT A cumplen:
p
i = kA~vi k2 = i = i = kA~vi k

25 Ver
26 Ver

el Teorema 9.3, pgina 259.


el Teorema 8.12, pgina 246.

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

261

9.3.2. Relacin entre Valores Singulares y Autovectores en Matrices


Cuadradas

De forma general, los autovalores de una matriz cuadrada A nn no coinciden con sus valores
singulares. Slo en el caso de matrices simtricas, los valores singulares son los valores absolutos de
los autovalores.

Ejemplo 9.4. Calcular los autovalores y valores singulares de la siguiente matriz:

1
0
1
0
A = 0 2
0
0 1

Solucin: Como A es triangular, sus autovalores son directamente los elementos de su diagonal
principal27 :
Autovalores de A: 1 = 1 ;
2 = 2 ;
3 = 1

Para calcular los valores singulares de A tenemos que calcular los autovalores de AT A:

1 0 1
1
0
1
1
0
0
0 = 0 4 0
0 0 2
AT A = 0 2
0
0 1
1 0 2
1
0 1

La ecuacin caracterstica de esta matriz es:




1
0
1

0
4
0 = (4 )[(1 )(2 ) 1] = (4 )(2 3 + 1) = 0

1
0
2
Cuyas soluciones son los autovalores de AT A:
1 = 4

3+ 5
2 =
2

3 5
3 =
2

Los valores singulares de A son las races cuadradas de estos valores:

1 =

4=2

2 =

3+ 5
1, 618
2

3 =

3 5
0, 618
2

Interpretacin Geomtrica de los Valores Singulares de las Matrices Cuadradas

Toda matriz A nn define una transformacin lineal 28 ~y = T (~x) = A~x que transforma los vectores
~x n en otros vectores ~y n . Como ya se vio en la Seccin 8.2.1, pgina 227, podemos estudiar
geomtricamente29 como se puede transformar una circunferencia de radio unidad en una determinada
elipse por la accin de una TL con matriz asociada A 22 y como tambin se puede transformar
una esfera de radio unidad en un elipsoide por la accin de una TL con matriz asociada A 33 .

la Seccin 8.3.1, pgina 236.


el Tema 4, pgina 137.
2 y el espacio
29 Es decir, en el plano

27 Ver
28 Ver

Pedro Jos Hernando Oter

R3 .

Clases de lgebra

262

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Desde un punto de vista geomtrico y basndonos en el Teorema 9.4, pgina 260 se tiene:

Los valores singulares de una matriz A 22 son las longitudes de los dos semiejes de la
elipse en la que se queda transformada la circunferencia unidad, por la accin de la TL ~y = A~x.

Los valores singulares de una matriz A 33 son las longitudes de los tres semiejes del
elipsoide en el que se queda transformada la esfera unidad, por la accin de la TL ~y = A~x.

Ejemplo 9.5. Mostrar la elipse en la que queda transformada la circunferencia unidad por la
accin de la TL definida por la matriz:


1/4 3/4
A=
1 1/2
y determinar los valores de sus semiejes.
Solucin: Para cada uno de los puntos P = (x, y) de la circunferencia unidad se obtienen los
puntos P 0 = (x0 , y 0 ) de la elipse, obtenidos mediante la transformacin:
 0  

 

x
1/4 3/4
x
(x + 3y)/4
P 0 = AP
;
=
=
y0
1 1/2
y
(2x + y)/2
Utilizando por ejemplo MATLAB30 se puede crear una pequea rutina para representar
grficamente dicha transformacin, como sigue:

En ella se han representado en azul las lneas correspondientes a la circunferencia unidad y de


rojo las de la elipse en que queda transformada por la accin de la TL31 . La longitud de los
semiejes corresponden con los valores singulares de A:
Semieje Mayor: D = 1 = 1, 279
Semieje Menor: d = 2 = 0, 489
30 MATLAB

es una marca registrada de The Math Works, Inc.


que esta representacin es distinta de la mostrada en la Seccin 8.2.1, pgina 227, donde all se representaba
el vector resultado ~
y = A~
x a continuacin del vector de partida ~
x. Esto se haca as para poder comparar si ambos
tenan la misma direccin.
31 Notar

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

263

9.3.3. Descomposicin en Valores Singulares (DVS)


La diagonalizacin ortogonal slo es posible para matrices simtricas32 . El siguiente teorema es una
generalizacin de la diagonalizacin ortogonal vlida para cualquier tipo de matriz.

Teorema 9.5 (Descomposicin en Valores Singulares)


Dada una matriz A mn con r valores singulares no nulos 1 2 r . Entonces
existe una matriz ortogonal U mm , una matriz ortogonal V nn y una matriz
pseudodiagonal 33 mn con los valores singulares en su diagonal principal, tales que:

A mn

U mm
(ortogonal)
A = U V T
mn

(pseudodiagonal)

V nn
(ortogonal)

R
R
R
R

a11
a21
..
.
am1

a12
a22
..
.
am2

Donde
m y n.

a1n
a2n
..
.
amn

..
.0

u11
u21
..
.
um1

..
.

u1m
u2m
..
.
umm

..

.
..0

2
..
.

..
.

0
..
.

0
..
.0

0
..
.0

r
..
.0

0
v11

v12

..
0

v1n
0

..
.

vn1
vn2
..
.
vnn

indican posibles columnas y filas de ceros, en funcin de los valores de

Demostracin 9.5
Para cada matriz A mn tenemos que encontrar matrices V
ortogonales y una matriz mn pseudodiagonal, que cumplan:

A = U V T

AV = U

Rnn

y U

Rmm

A~vi = i ~ui

donde ~vi y ~ui son los vectores columna de las matrices V y U respectivamente y i los valores
de la diagonal principal de la matriz .
(Contina en la pgina siguiente)

32 Ver

el Teorema 8.13, pgina 249.


no es una matriz diagonal al no ser siempre cuadrada, pero se cumple que todos sus elementos son
cero, excepto quizs los de su diagonal principal, como ocurre en todas las matrices diagonales, de ah su nombre.
33 Estrictamente

Pedro Jos Hernando Oter

Clases de lgebra

264

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Demostracin 9.5 (Continuacin)


Estas matrices se construyen de la siguiente forma:
La matriz V = [~v1 , ~v2 , , ~vn ], donde ~vi son los autovectores (ordenados34 y
normalizados) de la matriz simtrica AT A nn . Esta matriz es ortogonal35 .

Los primeros vectores columna de la matriz U = [~u1 , ~u2 , , ~un ] se calculan de la


siguiente forma:
1
;
i = 1, , r
~ui = A~vi
i
donde i son los valores singulares A ordenados de mayor a menor y r es el nmero
de valores singulares no nulos de A. Estos vectores son ortonormales ya que al ser V
ortogonal se cumple que ~vi~vjT = 0 y por tanto:
u~i u~j = u~i u~j T =

~vi~vjT
1
1
A~vi ( A~vj )T =
AAT = 0
i
j
i j

Si r < m, el resto de vectores {~ur+1 , , ~um } se eligen de forma que la matriz U sea
ortogonal36 .
La matriz se construye con las mismas dimensiones que A y poniendo en la diagonal
principal37 los valores singulares de A ordenados de mayor a menor.
Las tres matrices U , y V , construidas de la forma descrita, cumplen los requerimientos del
teorema para cualquier matriz A mn .

La DVS de una matriz no es nica, ya que se pueden determinar diferentes matrices U y V que
cumplen las propiedades del teorema anterior. Sin embargo existe una nica matriz para cada A,
independientemente de las matrices U y V elegidas.

Definicin 9.4 (Vectores Singulares por la Izquierda y por la Derecha)


Dada una DVS de una matriz A mn de la forma A = U V T , se denominan:

Vectores singulares por la izquierda de A, a las columnas de U .


Vectores singulares por la derecha de A, a las columnas de V .

34 Siguiendo

el orden de mayor a menor de los correspondientes valores singulares.


el Teorema 8.12, pgina 246.
36 Este conjunto de vectores ortonormales adicionales se puede determinar utilizando el proceso de Gram-Schmidt.
37 Conjunto de elementos que tienen igual ndice de fila que de columna, a .
ii
35 Ver

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

265

Clculo de la DVS

La DVS de una matriz A mn consiste en determinar la matriz pseudodiagonal


matrices ortogonales U mm y V nn que verifican:

Rmn y las

A = U V T
El proceso ha realizar para su clculo se obtiene de la demostracin del Teorema 9.5, pgina 263, y es
el siguiente:
1. Calcular la matriz simtrica AT A.
2. Calcular los n autovalores i y autovectores asociados ~vi de la matriz AT A

Rnn .

(AT A)~vi = i~vi


Los autovalores 38 deben ordenarse de mayor a menor.
Los autovectores 39 deben, en caso de ser necesario, ser ortogonalizados y normalizados,
para obtener un conjunto ortonormal de vectores.
3. Calcular los valores singulares de A:
i =

El nmero de valores singulares ser N = mn(m, n) y de ellos una cantidad r N sern no


nulos.
4. Construimos las matrices y V :
La matriz tiene las mismas dimensiones que la matriz original A y se disponen los
valores singulares ordenados de mayor a menor en la diagonal principal y el resto de
elementos son cero.

La matriz ortogonal40 V nn se construye con los autovectores ~vi dispuestos en las


columnas segn el mismo orden que sus correspondientes valores singulares en la matriz
.
5. Construimos la matriz ortogonal U

Rmm .

Los r primeros41 vectores columna de la matriz U


frmula42 :
1
~ui = A~vi
i

Rmm

se obtienen mediante la

donde i corresponden con los valores singulares no nulos.


Si r < m necesitamos completar el conjunto con m r vectores ortonormales. Para ello
buscamos primero vectores linealmente independientes 43 al conjunto y posteriormente los
ortonormalizamos mediante el proceso de Gram-Schmidt44 .

38 Los

cuales son todos reales no negativos, ya que AAT es una matriz real y simtrica.
cuales son ortogonales.
40 Ver la Seccin 6.3, pgina 188.
41 Si r > m hay slo que calcular m vectores ~
ui .
42 Estos vectores ya sern ortonormales.
43 Se suele probar con vectores vlidos lo ms sencillos posibles, como por ejemplo los vectores estndar ~
ei .
44 Ver la Seccin 6.8, pgina 198.
39 Los

Pedro Jos Hernando Oter

Clases de lgebra

266

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.6. Encontrar una descomposicin en valores singulares de la siguiente matriz:




1 1 0
A=
0 0 1
Solucin: Tenemos que encontrar las matrices , V , y U de forma que A = U V T . Calculamos
primeramente la matriz AT A:


1 0 
1 1 0
1 1 0
AT A = 1 0
= 1 1 0
0 0 1
0 1
0 0 1

Encontramos los autovalores de esta matriz:




1
1
0

1
1
0 = (1)3 (1) = (1)[(1)2 1] = (1)(2 2) = (1)(2)

0
0
1
Por tanto los autovalores, ordenados de mayor a menor, son: 1 = 2, 2 = 1, 3 = 0. Calculando
sus correspondientes autovectores, se tiene:

1
0
1
~v1 = 1
;
~v2 = 0
;
~v3 = 1
0
1
0

Estos vectores ya son ortogonales, por tanto basta con normalizarlos


correspondiente norma:

1/2
0
1/2
;
~v3 = 1/ 2
;
~v2 = 0
~v1 = 1/ 2
1
0
0

Entonces, los valores singulares de A son 1 = 1 = 2 y 2 = 2 = 1,


se considera valor singular). Por tanto, las matrices y V quedan:



1/2 0 1/2
2 0 0
=
;
V = 1/ 2 0
1/ 2
0 1 0
0 1
0

dividiendo por su

(como

3 = 0 no

Nos falta la matriz U que tiene dimensiones 2 2, ya que A tiene dimensiones 2 3. Entonces:


 1/ 2
 

 0
 

1
1
1
1
1 1 0
1
0
1
1
0

0 =
~u1 =
; ~u2 =
A~v1 =
A~v2 =
1/ 2 =
0
0
1
0
0
0
1
1
1

1
2
2
1
0
U=
Finalmente:
A = U V T =

Clases de lgebra

1
0

0
1



2
0

0
1

0 0
1 0

1
0

1/ 2

0
1/ 2

1/ 2
0
1/ 2

0
1
0

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

267

Ejemplo 9.7. Encontrar una descomposicin en valores singulares de la matriz dada en el


Ejemplo 9.6, pgina 266, de forma que sea distinta de la obtenida en dicho problema.
Solucin: Podemos encontrar unos autovectores distintos a los obtenidos en el Ejemplo 9.6. En
concreto podemos cambiar el autovector ~v3 (cambiando de posicin el signo negativo):

1
0
1
~v1 = 1
;
~v2 = 0
;
~v3 = 1
0
1
0
En este caso, las matrices y V quedan:
=

2
0

0 0
1 0

1/2 0
V = 1/ 2 0
0 1


1/2
1/ 2
0

donde podemos comprobar que la matriz coincide con la obtenida en el ejercicio anterior.
Finalmente la matriz U ser:


 1/ 2
 

1
1
1 1 0
1
~u1 =
A~v1 =
1/ 2 =
0
1
2 0 0 1
0
1
1
~u2 =
A~v2 =
2
1

1
0

1
0

0
1

 
0
0 = 0
1
1

Como la matriz U tiene dimensin 2 2, queda igual que el caso anterior.




1 0
U=
0 1
Finalmente:
A = U V T =

1
0

0
1



2
0

0 0
1 0

1/ 2
0

1/ 2

1/ 2
0
1/ 2

0
1
0

En todas las diferentes descomposiciones en valores singulares que tiene una matriz, la matriz
siempre es la misma y nicamente cambian las matrices ortogonales45 U y V .

45 Estas

matrices se diferencian nicamente en la disposicin de su vectores columna.

Pedro Jos Hernando Oter

Clases de lgebra

268

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.8. Encontrar una descomposicin


Ejemplo 9.3, pgina 260.

1
A= 1
0

en valores singulares de la matriz del

1
0
1

Solucin: Los autovalores calculados de la matriz AT A son: 1 = 3 y 2 = 1. Calculando los


correspondientes autovectores y normalizndolos se tiene:




1/2
1/2
;
~v2 =
~v1 =
1/ 2
1/ 2
Por tanto los valores singulares

3
= 0
0

de A son 1 =

0
;
1
0

3 y 2 = 1 y nos queda:
V =

1/2
1/ 2


1/2
1/ 2

Notar que como las dimensiones de A son 3 2, la matriz tiene las mismas dimensiones que
A, la matriz V debe ser 2 2 y la matriz U debe ser 3 3.
Para calcular U utilizamos los autovectores:

2/6
1 1  
1
1
1/2
~u1 =
= 1/6
A~v1 = 1 0
1/ 2
1
3 0 1
1/ 6

1
1
1
1
~u2 =
A~v2 =
2
1
0


1 
0
1/
2

0
= 1/2
1/ 2
1
1/ 2

Necesitamos un tercer vector ~u3 que sea ortonormal a ~u1 y ~u2 . Por ejemplo, claramente el vector
~e3 = [0, 0, 1] es linealmente independiente de ~u1 y ~u2 y por tanto basta con utilizar el proceso
Gram-Schmidt46 .


0
2/6
0
1/3

1
~u1 ~e3
~u2 ~e3
1
~u3 = ~e3
~u1
~u2 = 0 1/6 1/2 = 1/3
~u1 ~u1
~u2 ~u2
6
2
1
1/3
1/ 2
1/ 6

3/3 se obtiene ~u3 = [1/ 3, 1/ 3, 1/ 3] y por tanto:

2/6
0 1/3
U = 1/6 1/2
1/3
1/ 6
1/ 2
1/ 3

Dividiendo por la norma k~u3 k =

Finalmente, la DVS de A queda:

A = U V

46 Ver

2/6
= 1/6
1/ 6

0
1/2
1/ 2


1/3
3
1/3 0
0
1/ 3

0 
1/2

1
1/ 2
0


1/2
1/ 2

la Seccin 6.8, pgina 198.

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

269

Propiedades de la DVS
Teorema 9.6
Sea A = U V T una descomposicin en valores singulares de A mn , siendo {1 , , r }
los valores singulares no nulos de A, U = [~u1 , , ~um ] y V = [~v1 , , ~vn ] . Entonces:

rang(A) = r
{~v1 , , ~vr } es una base ortonormal de fil(A).
{~vr+1 , , ~vn } es una base ortonormal de ker(A).
{~u1 , , ~ur } es una base ortonormal de col(A).
{~ur+1 , , ~um } es una base ortonormal de ker(AT ).

~u1

Bcol(A)

~ur

~ur+1

Bker(AT )

~um

1 0 0
0 0
2

.
.
..
..
. ..

0 0

0 0 0

.
..
..
..
.
.

..
.

..
.

~v1

~vr

~vr+1

Bfil(A)

r = rang(A)

~vn

Bker(A)

Demostracin 9.6
(i) El nmero de valores singulares de una matriz A mn corresponde con el nmero
de columnas n de la matriz47 . Segn la demostracin del Teorema 3.7, pgina 132,
nul(A) = nul(AT A) y sta ltima corresponde con los valores singulares nulos48 de A.
Teniendo en cuenta el teorema del rango de las matrices:

rang(A) = rang(AT A) = n nul(AT A)


y este valor corresponde con el nmero de valores singulares no nulos de A.
(ii) Como A~vr+1 = A~vr+2 = = A~vn = 0, se tiene que si r < n, el conjunto
{~vr+1 , , ~vn } forman una base ortonormal del ker(A). Si r = n entonces nul(A) = 0
y no existe ninguna base del ncleo49 de A.
(Contina en la pgina siguiente)

47 Ver

la Definicin 9.3, pgina 259.


que el ncleo, (AT A)~
x = ~0 corresponde con (AT A)~vi = i~vi = ~0, verificndose slo para los valores i = 0.
49 Ya que el nmero de vectores de cualquier base de un subespacio corresponde con su dimensin.

48 Ya

Pedro Jos Hernando Oter

Clases de lgebra

270

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Demostracin 9.6 (Continuacin)


(iii) Como V es una matriz ortogonal y los ltimos vectores columna {~vr+1 , , ~vn } forman
una base del ker(A), los primeros {~v1 , , ~vr } forman una base ortonormal de su espacio
complementario (complemento ortogonal), es decir fil(A).
(iv) Como ~ui = (1/i )A~vi con i = 1, , r, corresponden con una combinacin lineal de los
vectores columna de A y adems ~ui son ortonormales, (linealmente independientes),
por tanto constituyen una base ortonormal50 de col(A).
(v) Como U es una matriz ortogonal y los primeros {~u1 , , ~ur } forman una base
ortonormal de col(A), el resto {~ur+1 , , ~um } forman una base de su espacio
complementario {~u1 , , ~ur }, ker(A).

Ejemplo 9.9. Encontrar, en caso de que exista, una matriz A


propiedades:

R43 que cumpla las siguientes

Sus valores singulares son 1 = 2, 2 = 1, 3 = 0.


La matriz V de la DVS de A = U V T es:

1
V = 0
0

0
0
1
0
0 1

Una base ortogonal de ker(AT ) es:


Bker(AT ) = {[1, 1, 0, 0] [1, 1, 0, 0]}
Solucin: La DVS de A corresponde con:

A = U V T

Como nos dan los valores singulares:

2
0

=
0
0

0
1
0
0

R43
44
R43
R 33
R

0
0

0
0

Como nos dan una base del ker(AT ), estos vectores (ortonormalizados) podemos colocarlos (en
el orden que se quiera) en las ltimas columnas de la matriz U :

~u3 = [1/ 2, 1/ 2, 0, 0]T


;
~u4 = [1/ 2, 1/ 2, 0, 0] =
(Contina en la pgina siguiente)
50 Recordar

que rang(A) = dim[fil(A)] = dim[col(A)] = r.

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

271

Ejemplo 9.9 (Continuacin).


Como ~u1 y ~u2 podemos tomar dos vectores cualesquiera que formen un conjunto ortonormal con
~u3 y ~u4 , por ejemplo51 :
~u1 = [0, 0, 1, 0]T
Donde:

~u2 = [0, 0, 0, 1]T

0 0 1/2
0 0 1/ 2
U =
1 0
0
0 1
0

1/2
1/ 2
0
0

Por tanto, una posible matriz A sera52 :

A = U V T

0 0 1/2
0 0 1/ 2
=
1 0
0
0 1
0

1/2
1/ 2
0
0

Vamos a comprobamos el resultado:

0
AT A = 0
0

0
0
0

2
0
0

2
0

0
0

0
0
0
1
2
0
0

0
1
0
0

0
0
0
1

0
1
0
0
0
0
0

0
0
0
0
1
0 =
2
0 1
0

0
4

0
0
=
0
0
0

0
1
0

0
0

0
0

0
0
0
1

0
0
0

Al ser diagonal,
sus autovalores
son 1 = 4, 2 = 1 y 3 = 0 y por tanto sus valores singulares

son 1 = 4 = 2, 2 = 1 = 1 y 3 = 0, como indica el enunciado. Calculamos los autovectores


de AT A:

0
0
0
k
0 3
0
1 = 4 :
=
~v1 = 0
;
k
0
0 4
0

2 = 1 :

3 = 0 :

3
0
0

4
0
0

0
0
0

0
0
1

0 0
1 0
0 0

0
~v2 = k
0

0
~v3 = 0
k

Por tanto, la matriz V de la descomposicin en valores singulares de A puede ser:

1
0
0
0
V = 0 1
0
0 1
que coincide con la dada en el enunciado.

(Contina en la pgina siguiente)


51 Esto

dar una determinada matriz resultado A, otros valores daran otras posibles soluciones al problema.
que al ser V simtrica, su transpuesta coincide consigo misma.

52 Notar

Pedro Jos Hernando Oter

Clases de lgebra

272

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.9 (Continuacin).


Ahora vamos a calcular una base de ker(AT ):

0
AT = 0
0

0
0
0

2
0
0

0
1
0

0
0
0

0 0 2 0
0 0 0 1
0 0 0 0

ker(AT ) = {t[1, 0, 0, 0] + s[0, 1, 0, 0]}

x1

x2
x3

x4

t, s

=t
=s
=0
=0

t, s

Como la dim(ker(AT ) = 2, dando valores {t = 1, s = 1} y {t = 1, s = 1} se obtiene una base


de ker(AT ) que coincide con la dada en el enunciado del problema.

9.3.4. Teorema de la Descomposicin Espectral Generalizada

La descomposicin espectral 53 slo es posible realizarla en matrices simtricas. Mediante la DVS de


una matriz se puede obtener una descomposicin espectral generalizada, til para cualquier tipo de
matriz.
Teorema 9.7 (Descomposicin Espectral Generalizada)
Dada una matriz A mn con descomposicin en valores singulares:

U = [~u1 , , ~um ]
= pseudiag(1 , , r )
A = U V T

V = [~v1 , , ~vn ]

Entonces A se puede descomponer de la siguiente forma, conocida como descomposicin


espectral generalizada:
A = 1 ~u1~v1T + + r ~ur ~vrT

Demostracin 9.7

A = U V

= [~u1 , , ~um ]

0
..
.

2
..
.

0
..
.0

0
..
.0

..
.

0
..
.

0
..
.0

r
..
.0

0
0

~v1
~v2
..
.
~vn

= 1 ~u1~v1T + + r ~ur ~vrT


53 Ver

1~v1
2~v2
..
.

= [~u1 , , ~um ]
r ~vr

.
..
0

la Definicin 8.10, pgina 250.

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

273

Ejemplo 9.10. Encontrar la descomponsicin espectral generalizada de la siguiente matriz


A 32 y comprobar el resultado obtenido.

1 1
A = 1 1
1 1

Solucin: Calculamos primero la DVS de A:


A = U V
Autovalores de

3
1


1 3

A A=

AT A:


= (3)2 1 = 0

2 = 2

1
1
1 1


1
1

1
1

1 1
1 1

1
1

(3) = 1

1 = 1 =
2
2 = 2 = 2

Autovectores de AT A:
1 = 4


1
0

1
0

1
1
1

1
1

1
1

1
~v1 =
2

~v2 =
2


1
1 1
V =
1
2 1
1
0

1
3

= 31 =

1 = 4
2 = 2

0
2
0

2
= 0
0



1
3

1 =
1
1

3 = 1

1
0

Matriz U :

1
1
1
1
~u1 =
A~v1 =
1
2
1



1
2
1
1
1
1
1
1
= 0 = 0
1
2
2 2 2
2 1
1

1
1
1
1
~u2 =
A~v2 =
2
2
1




1
0
0
1
1
1
1
= 2 = 1
1
2
2
0
0
1

Completamos la matriz U con un vector ~u3 ortonormal al resto, por ejemplo: ~u3 =

1
1

U=
0
2 1

Pedro Jos Hernando Oter

0
2
0

1
0
1

1 [1, 0, 1]T .
2

(Contina en la pgina siguiente)

Clases de lgebra

274

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.10 (Continuacin).


Por tanto la descomposicin espectral generalizada de A es:
A = 1 ~u1~v1T + + r ~ur ~vrT

1
2
1 
1
A = 1 ~u1~v1T + 2 ~u2~v2T = 0
2 1
2

Comprobacin:

1
2
1 

1
0
2 1
2

0

1 
1 + 2 1
1
2
0

1
= 0
1

0
1 
1
2 1
2
0


1
0
0 + 1
1
0


0
1
1 = 1
0
1

1
1 =A
1

La descomposicin espectral generalizada tiene diferentes aplicaciones, entre ellas, la compresin de


datos que se ver en la Seccin 9.4.3, pgina 280.

9.3.5. Relacin entre las matrices AT A y AAT

mn
Dada una matriz cualquiera A
, hemos visto como su matriz asociada AT A aparece
involucrada en diferentes temas de inters:

Propiedades matriciales: Teorema 3.1, pgina 112 y Teorema 3.7, pgina 132.
Ecuaciones normales de los mnimos cuadrados: Teorema 7.2, pgina 206.
Pseudoinversa: Definicin 9.1, pgina 255.
Valores singulares: Definicin 9.3, pgina 259.

Es importante destacar que la matriz a la que todos estos temas hacen principalmente referencia es
AT A y no AAT . Sin embargo, ambas matrices comparten propiedades54 y renen y concentran toda
la informacin de la matriz A.
Vamos a ver un teorema que presenta las propiedades de ambas matrices y que resulta de inters
prctico en el clculo de la DVS de una matriz.
Teorema 9.8
Sea A mn y A = U V T una descomposicin en valores singulares, con {1 , , r }
los valores singulares no nulos de A, y las matrices ortogonales U = [~u1 , , ~um ] y
V = [~v1 , , ~vn ]. Entonces:

Las matrices AT A nn y AAT mm tienen los mismos autovalores no nulos.




Los vectores u1 , , ur son autovectores de la matriz AAT mm .
54 Ver

el Teorema 3.1, pgina 112.

Clases de lgebra

Pedro Jos Hernando Oter

9.3. Descomposicin en Valores Singulares (DVS)

275

Demostracin 9.8
Llamando i a los autovalores no nulos y ~vi a sus autovectores asociados de AT A, se tiene:
AT A~vi = i~vi
Por otra parte, si A = U V T es una DVS de A se cumple que para todo 1 i r se tiene:
A~vi = i ~ui
Multiplicando ambas partes de esta ltima expresin por la matriz AAT se tiene:
AAT Avi = AAT i ~ui
La parte izquierda de la igualdad se puede expresar como:
A AT Avi = i A~vi = i i ~ui
|{z}
| {z }
i vi

i ~
ui

y la parte derecha, por ser i un escalar:

AAT i ~ui = i AAT ~ui


Igualando ambas partes:
i AAT ~ui = i i ~ui

AAT ~ui = i ~ui

Lo cual indica que i y ~ui son los autovalores y autovectores de AAT .

Estos resultados permiten facilitar el clculo de valores singulares de una matriz.

Ejemplo 9.11. Si A 28 , entonces AT A 88 y tiene un polinomio caracterstico de


grado 8, mientras que AAT 22 tiene un polinomio caracterstico de grado 2. Como los
autovalores no nulos de ambas matrices coinciden55 , el clculo de los valores singulares de A, se
hace ms sencillo utilizando en este caso AAT .

Una matriz A

55 En

Rmn slo tiene como mximo k valores singulares no nulos, siendo k = mn (m, n).

este caso en concreto, la matriz slo tendr como mximo dos valores singulares no nulos.

Pedro Jos Hernando Oter

Clases de lgebra

276

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.12. Encontrar una DVS de la matriz del Ejemplo 9.6, pgina 266, haciendo uso de
la matriz AAT .


1 1 0
A=
0 0 1

Solucin: En este caso como A 23 entonces AT A 33 y AAT 22 . Como ambas


tienen los mismos autovalores no nulos, interesa utilizar AAT para calcularlos.


 1 0


1 1 0
2 0
1 0 =
AAT =
0 0 1
0 1
0 1

que claramente tiene por autovalores 1 = 2 y 2 = 1.


Los autovalores de AT A sern estos dos ms un tercero nulo 3 = 0, y por tanto los valores
singulares de A son:
p
p
p

2 = 2 = 1 ;
1 = 3 = 0
1 = 1 = 2 ;
La matriz pseudodiagonal es entonces:

2
0

0 0
1 0

Los autovectores de AAT son los vectores columna de la matriz V y se calcularon en el


Ejemplo 9.6:


1/2 0 1/ 2
V = 1/ 2 0 1/ 2
0
1
0

Los vectores columna de la la matriz U se pueden calcular mediante la frmula ~ui = (1/i )A~vi
como se hizo en el Ejemplo 9.6 o bien mediante los autovectores de AAT . Vamos a calcularlos
mediante esta segunda forma:
1 = 2

2
0

0
1

0
0

0
1

Cuyas soluciones del sistema homogneo se pueden calcular fcilmente: ~u1 = t


1 = 1

2
0

0
1

1
0

0
0

1
0


.

Cuyas soluciones del sistema homogneo tambin se pueden calcular fcilmente: ~u2 = t
Y por tanto la matriz U es:
U=

1
0

0
1

0
1


.

que coincide con lo calculado en el Ejemplo 9.6.

Clases de lgebra

Pedro Jos Hernando Oter

9.4. Aplicaciones de la DVS

277

9.4. Aplicaciones de la DVS


9.4.1. Pseudoinversa
La DVS de una matriz puede utilizarse para determinar de forma general y eficiente la pseudoinversa
de cualquier56 matriz A.

Definicin 9.5 (Matriz Pseudoinversa)


Para toda matriz A mn se define su matriz pseudoinversa como aquella matriz
A+ nm que cumple las siguientes propiedades57 :

1. AA+ A = A
2. A+ AA+ = A+
3. (AA+ )T = AA+
4. (A+ A)T = A+ A

Teorema 9.9 (Relacin entre Pseudoinversa y DVS)


Sea A = U V T una descomposicin de valores singulares de A mn , con r = rang(A) y
~ui y ~vi los vectores columna de U y V respectivamente. Entonces la matriz pseudoinversa de
A se puede obtener como:

A + = V + U T =

1
1
~v1 ~uT1 + + ~vr ~uTr
1
r

siendo + la matriz pseudoinversa de , formada al reemplazar cada uno de sus elementos


diagonales no nulos por sus recprocos y transponiendo la matriz resultante.

0
..
.

2
..
.

0
..
.0

..
.

0
..
.

0
..
.0

0
..
.0

r
..
.0

Rmn

+
=

1
1

0
..
.

1
2

0
..
.0

..
.

..
.

0
..
.

0
..
.0

0
..
.0

1
r

..
.0

Rnm

56 En la Seccin 9.1, pgina 255 se vio una forma particular para determinar la pseudoinversa de matrices que tienen
sus vectores columna linealmente independientes.
57 Estas propiedades fueron vistas en Seccin 9.1.1, pgina 256 y determinan una forma ms general de definir la
matriz pseudoinversa para cualquier tipo de matriz.

Pedro Jos Hernando Oter

Clases de lgebra

278

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Demostracin 9.9
Notar que:

+ =

1 0
0 1
.. ..
. .

1
0
..
.

..
.

0
2
..
.
0
0
..
.

..
.

0
0
..
.

1
0
..
.

0
2
..
.

y de forma anloga se comprueba que:

1
1

0
..
.
0

1
2

..
.

0
0
..
.

..
.
0

..
.

1
0
..
.

1
0
..
.
0
2
..
.

0
2
..
.

..
.

..
.

0
0
..
.

0
0
..
.

+ + = +
Teniendo en cuenta esto, vamos a demostrar que la matriz A+ = V + U T cumple las
propiedades de la Definicin 9.5, pgina 277:
1. AA+ A = (U V T )(V + U T )(U V T ) = U (+ )V T = U V T = A
2. A+ AA+ = (V + U T )(U V T )(V + U T ) = V + + U T = V + U T = A+
3. (AA+ )T = [(U V T )(V + U T )]T = [U + U T ]T = U (+ )T U T = U (+ )U T =
(U V T )(V + U T ) = AA+
4. (A+ A)T = [(V + U T )(U V T )]T = [V (+ )V T ]T = V (+ )T V T = V (+ )V T =
(V + U T )(U V T ) = A+ A

Ejemplo 9.13. Demostrar que la definicin de la matriz pseudoinversa para matrices con
vectores columna linealmente independientes dada en la Definicin 9.1, pgina 255:
A+ = (AT A)1 AT
coincide con la definicin general de matriz pseudoinversa dada en el Teorema 9.9, pgina 277:
A + = V + U T
Solucin: Vamos a sustituir la matriz A por su descomposicin en valores singulares, A =
U V T , y simplificar el resultado:
A+ = (AT A)1 AT = [(U V T )T (U V T )]1 (U V T )T = [V T U T U V T ]1 (V T U T ) =
= [V T V T ]1 (V T U T ) = V (T )1 V T V T U T = V (T )1 T U T = V + U T
Por tanto:
A+ = (AT A)1 AT = V + U T

Clases de lgebra

Pedro Jos Hernando Oter

9.4. Aplicaciones de la DVS

279

9.4.2. Mnimos Cuadrados

La descomposicin en valores singulares se puede utilizar tambin para resolver de forma eficiente el
problema de mnimos cuadrados con solucin nica58 .
Teorema 9.10
Sea A mn una matriz con vectores columna linealmente independientes y sea A = U V T
una descomposicin de valores singulares de A, siendo {1 , , n } sus valores singulares no
nulos59 de A. Entonces la solucin nica de mnimos cuadrados del problema A~s ~b se
puede expresar como:

~s =

~b ~u2
~b ~un
~b ~u1
~v1 +
~v2 + +
~vn
1
2
n

Demostracin 9.10
Vamos a sustituir A por su DVS, A = U V T , en las ecuaciones normales del problema de
mnimos cuadrados60 .
~s = (AT A)1 (AT ~b) = A+~b = V + U T ~b
Teniendo en cuenta que:

+ U T =

1
1

0
..
.
0

..
.

0
1
2

..
.
0

0
0
..
.

1
n

~u1
~u2
..
.
~un

siendo ~ui los vectores columna de la matriz U . Por otra parte61 :

+ U T ~b =

1
u1
1 ~
1
~
2 u2

..
.
1
un
r ~

Finalmente:

T~

V U b=

~v1

~v2

~vn

~
u1 ~b
1
~
u2 ~b
2

..
.

~
un ~b
r

b
=

~
u1 ~b
1
~
u2 ~b
2

..
.

~
un ~b
r

1
u1
1 ~
1
~
2 u2

..
.
1
un
r ~

~b ~u2
~b ~un
~b ~u1
=
~
v
+
~
v
+

+
~vn
1
2

1
2
n

58 Ver

el Tema 7, pgina 203.


A tiene vectores columna linealmente independientes, rang(A) = n, y por tanto todos sus valores singulares
son no nulos.
60 Ver el Teorema 7.2, pgina 206 y el Teorema 9.1, pgina 256.
61 Ver la Seccin 3.2.4, pgina 110.
59 Como

Pedro Jos Hernando Oter

Clases de lgebra

280

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Notar que si el nmero de valores singulares no nulos es menor que n, el nmero de columnas de
A, la matriz A no tendr vectores columna linealmente independientes62 y la solucin de mnimos
cuadrados no ser nica63 y por tanto no se podr utilizar la DVS para obtener las infinitas soluciones
de mnimos cuadrados.
Sin embargo, si utilizamos la frmula del Teorema 9.10 tomando nicamente los trminos de los
valores singulares no nulos de A, se obtiene una de las infinitas soluciones de mnimos cuadrados
del problema.

9.4.3. Compresin de Datos


La DVS se puede utilizar para realizar un proceso de compresin de matrices til por ejemplo para la
compresin de imgenes.
Las fotografas digitales se almacena en forma de matrices64 donde cada valor contiene la informacin
del color de cada pxel.

Figura 9.1.: Fotografa digital en la que se ha aumentado el tamao de una pequea porcin (recuadro en rojo) para
visualizar la pixelacin de la imagen. Cada cuadradito contiene la informacin del color de un pxel.

Dada una matriz A mn , el espacio en memoria necesario para almacenarla es T = m n u


siendo u el tamao de cada valor, que depender del tipo de nmero utilizado65 .
Al realizar la DVS de A, segn la descomposicin espectral generalizada, se tiene:

r = rang(A)

i
T
T
A = 1 ~u1~v1 + + r ~ur ~vr
=
~ui m

~vi n

R
R
R

As, la informacin de la matriz queda organizada en bloques i ~ui~viT , teniendo todos el mismo tamao,
t = (1 + m + n)u, pero una cantidad distinta de informacin.
62 Ya

que el rango de la matriz ser inferior al nmero de columnas. Ver el Teorema 9.6, pgina 269.
el Teorema 7.2, pgina 206.
64 Normalmente comprimidas con algn mtodo de compresin y almacenadas en algn formato, como por ejemplo
JPEG.
65 Los tamaos tpicos son: doble precisin = 16 bits, precisin simple=8 bits, entero=4bits, etc.
63 Ver

Clases de lgebra

Pedro Jos Hernando Oter

9.4. Aplicaciones de la DVS

281

Los primeros bloques, correspondientes a los valores singulares ms grandes, tienen ms informacin
que los ltimos con valores singulares ms pequeos, y los bloques asociados a valores singulares nulos
no contienen informacin.
De esta forma, los bloques correspondientes a los valores singulares ms grandes contienen
la informacin base de la matriz y los ms pequeos representan pequeas correcciones a esta
informacin.
Por tanto, se puede comprimir el tamao de una matriz, tomando nicamente un pequeo nmero de
bloques correspondientes a los valores singulares ms grandes y desechando el resto. Esto tendr como
resultado una prdida de informacin que depender del tamao y cantidad de los valores singulares
eliminados.
El algoritmo de esta compresin consiste en la DVS de la matriz A y el almacenaje de los valores
singulares i y los vectores ~ui y ~vi , en funcin de la compresin y calidad deseadas. El algoritmo de
descompresin consiste en la formacin de los bloques (matrices del mismo tamao que A) i ~ui~viT
mediante productos vectoriales y la suma de dichos bloques en una nica matriz.
Si se toman k bloques el tamao necesario para su almacenamiento es:
tk = kt = k(1 + m + n)u
La relacin de compresin al tomar los k primeros trminos de la DVS es66 :
Ck = 1

k(1 + m + n)
k(1 + m + n)u
=1
mnu
mn

Se puede estimar67 la calidad de la matriz que resulta al tomar k trminos de la DVS como:

Qk =

k
X
i=1
r
X

i
i

i=1

La distribucin de tamaos en los diferentes i > 0 depende de cada matriz68 . Por ejemplo las
matrices correspondientes a imgenes que tienen su informacin69 concentrada en una determinada
zona, tienen pocos i > 0, de forma que son fciles de obtener altas compresiones con muy buena
calidad. Sin embargo si la informacin est uniformemente distribuida por la imagen, los valores
singulares i tienen una suave disminucin, obtenindose menores compresiones de peor calidad.
La DVS mediante la descomposicin espectral generalizada permite la compresin de datos con
prdida (de informacin), dependiendo su calidad del tipo de datos.
Vamos a ver a continuacin un ejemplo de compresin de una pequea imagen a blanco y negro,
correspondiente a un icono simple de 24x24 bits.
66 Aqu un valor C = 1 indicara que hemos conseguido comprimir la matriz totalmente (ahora no ocupa nada), un
k
valor Ck = 0, 5 indicara que ocupa slo la mitad y un valor Ck = 0 indica que no se ha comprimido nada (ocupa lo
mismo que la original). Valores negativos de Ck indican que ocupa ms que la original.
67 La calidad real depende de las aproximaciones numricas en el tratamiento de la matriz sobre los resultados de la
DVS. Su clculo requiere la comparacin entre la matriz real y la aproximada. Generalmente la calidad real es mayor
que la aproximada.
68 Recordamos que siempre se cumple aunque las diferencias entre ellos varan en cada matriz
r
1
2
segn la informacin contenida.
69 La informacin en una imagen depende de las variaciones de color. Zonas con colores constantes tienen poca
informacin (en la matriz aparecen los mismos valores), y al contrario zonas con mucho detalle (variaciones de color)
tienen mucha informacin (valores en la matriz muy diferentes).

Pedro Jos Hernando Oter

Clases de lgebra

282

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Ejemplo 9.14. Determinar la calidad de compresin de la DVS aplicada a la siguiente imagen,


correspondiente a un icono en blanco y negro de 24x24 bits.

Solucin: Construimos una matriz binaria A


blanco y 1 en el negro:

A=

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0

0
0
0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
0
0
0

0
0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
0
0

0
0
0
0
1
1
1
1
1
0
0
0
0
0
0
1
1
1
1
1
0
0
0
0

0
0
0
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
1
1
0
0
0

0
0
0
1
1
1
0
0
1
1
0
0
0
0
1
1
0
0
1
1
1
0
0
0

0
0
1
1
1
1
0
1
1
1
1
0
0
1
1
1
1
0
1
1
1
1
0
0

0
0
1
1
1
0
0
1
1
1
1
1
1
1
1
1
1
0
0
1
1
1
0
0

0
0
1
1
1
0
0
0
1
1
1
1
1
1
1
1
0
0
0
1
1
1
0
0

0
0
1
1
1
0
0
0
0
1
1
1
1
1
1
0
0
0
0
1
1
1
0
0

R2424 a partir de la imagen, con 0 en el color


0
0
1
1
1
0
0
0
0
1
1
1
1
1
1
0
0
0
0
1
1
1
0
0

0
0
1
1
1
0
0
0
1
1
1
1
1
1
1
1
0
0
0
1
1
1
0
0

0
0
1
1
1
0
0
1
1
1
1
1
1
1
1
1
1
0
0
1
1
1
0
0

0
0
1
1
1
1
0
1
1
1
1
0
0
1
1
1
1
0
1
1
1
1
0
0

0
0
0
1
1
1
0
0
1
1
0
0
0
0
1
1
0
0
1
1
1
0
0
0

0
0
0
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
1
1
0
0
0

0
0
0
0
1
1
1
1
1
0
0
0
0
0
0
1
1
1
1
1
0
0
0
0

0
0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
0
0

0
0
0
0
0
0
1
1
1
1
1
1
1
1
1
1
1
1
0
0
0
0
0
0

0
0
0
0
0
0
0
0
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

Ahora calculamos la DVS de A, por ejemplo con MATLAB, obteniendo los siguientes valores
singulares:
i = {12.7099, 5.4672, 5.3066, 2.7445, 2.6846, 1.8208, 1.0988, 0.7905, 0.6048, 0.3941, 0, , 0}
donde slo los primeros diez valores son distintos de cero. Por tanto: r = rang(A) = 10.
Con las matrices U y V se obtienen los correspondientes vectores columna ~ui y ~vi que utilizaremos
en la descomposicin espectral, formando las matrices comprimidas Ai :
A1 = 1 ~u1~v1T

A2 = 1 ~u1~v1T + 2 ~u2~v2T

A10 =

10
X

i ~ui~viT

i=1

(Contina en la pgina siguiente)

Clases de lgebra

Pedro Jos Hernando Oter

9.4. Aplicaciones de la DVS

Ejemplo 9.14 (Continuacin).


A partir de A10 todas las matrices son iguales ya que sus valores singulares son cero.
Para cada matriz calculamos su porcentaje de compresin (Ck ) y calidad aproximada (Qk ):


k(1 + 24 + 24)
Ck = 1
100 = 0, 1736(576 49k)
24 24
Pk
Pk
k
X
i
i=1 i

100
=
Qk = Pi=1

100
=
2,
9743
i
r
33, 6217
i=1 i
i=1

La calidad real se calcula dividiendo el nmero de pixels coincidentes entre la matriz aproximada
y la real entre el total de pixels. Los resultados para este caso se muestran en la siguiente grfica:
100
Compresion
Calidad real
Calidad aprox.

80
Porcentaje

283

60
40
20
0
1

10 11 12

donde podemos observar:


La calidad real es superior a la calidad aproximada calculada mediante los valores
singulares. Hay que notar que los valores de las matrices resultantes se redondean para
construir matrices binarias de ceros y unos, lo cual explica la gran diferencia entre las dos
calidades.
A partir de A4 se obtiene la misma figura original, teniendo un porcentaje de compresin
del 66%, lo cual es un buen resultado.
A partir de A5 la compresin disminuye teniendo la misma calidad 100%, por tanto no
tiene ningn inters prctico.
A partir de A12 la compresin es negativa, lo que significa que la matriz comprimida con
este mtodo ocupa ms que la original, lo cual no es nada prctico.
En las Figura 9.3 hasta la Figura 9.6 se muestran el resultado de las matrices comprimidas A1
hasta A4 , que son las que resultan tener inters prctico, junto con sus correspondientes valores
de compresin (C) y calidad real (Q).

Pedro Jos Hernando Oter

Clases de lgebra

284

TEMA 9: Pseudoinversa y Descomposicin en Valores Singulares

Figura 9.2.: Imagen (matriz) original.

Figura 9.3.: k = 1: C=92% , Q=79%

Figura 9.4.: k = 2: C=83% , Q=89%

Figura 9.5.: k = 3: C=75% , Q=97%

Figura 9.6.: k = 1: C=66% , Q=100%

Clases de lgebra

Pedro Jos Hernando Oter

9.4. Aplicaciones de la DVS

285

9.4.4. Otras Aplicaciones de la DVS


La DVS de una matriz es una herramienta muy til, tanto en la prctica como en la teora. Algunos
aplicaciones adicionales a las explicadas aqu son:
Clculo numrico del rango 70 de una matriz de forma precisa.

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Simplificacin y exactitud en el clculo de expresiones que involucran normas 71 y nmero de


condicin 72 de las matrices.

70 Ver

la Seccin 1.6.5, pgina 53.


normas matriciales no se vern en este curso.
72 Ver la Definicin 7.3, pgina 210.
71 Las

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

10

Introduccin a las Ecuaciones


Diferenciales Ordinarias con
Coeficientes Constantes
Contenido
10.1 Introduccin a las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . .
10.1.1 Clasificacin de las Ecuaciones Diferenciales . . . . . . . . . . . . . . . .
10.2 Solucin o Curva Integral de una EDO . . . . . . . . . . . . . . . . . . . . . . .
10.2.1 Resolucin de EDO Simples: Mtodo de Separacin de Variables . . . .
10.2.2 Problema de Valores Iniciales y Condicin Inicial . . . . . . . . . . . . .
10.2.3 Solucin General y Particular de una EDO . . . . . . . . . . . . . . . . .
10.3 Interpretacin Geomtrica de una EDO . . . . . . . . . . . . . . . . . . . . . . .
10.3.1 Campo de Pendientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3.2 Isoclinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4 Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO) . . . . . . . . . . . . .
10.4.1 SEDO de Primer Orden . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.2 Sistema Equivalente a EDO de Orden n . . . . . . . . . . . . . . . . . .
10.4.3 SEDO Lineales, Homogneos y Autnomos . . . . . . . . . . . . . . . . .
10.5 SEDO con Coeficientes Constantes, (SEDOC) . . . . . . . . . . . . . . . . . . .
10.5.1 Forma Matricial de un SEDOC . . . . . . . . . . . . . . . . . . . . . . .
10.5.2 Solucin Analtica de un SEDOC . . . . . . . . . . . . . . . . . . . . . .
10.5.3 Solucin General y Particular de un SEDOC . . . . . . . . . . . . . . . .
10.6 SEDOC Bidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.6.1 Tipos de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7 Sistemas Dinmicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.1 Sistemas Dinmicos Continuos Lineales y Homogneos . . . . . . . . . .
10.7.2 Representacin Grfica: Trayectorias, Plano de Fases y Espacio de Fases
10.7.3 Puntos Criticos, Estacionarios o de Equilibrio . . . . . . . . . . . . . . .
10.7.4 Campo Direccional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.7.5 Separatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.8 Estabilidad de un SEDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.8.1 Tipos de Estabilidad y Soluciones de Sistemas Dinmicos . . . . . . . .
10.8.2 Anlisis de la Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

289
290
292
293
294
295
296
297
298
299
300
301
302
303
303
303
304
305
305
313
313
313
315
316
317
321
322
324

287

Clases de lgebra

Clasificacin

Definicin

Tipos

Sol. Particular

Solucin Analtica

Sol. General

Forma Matricial

Sistemas (SEDO)

Autnomos

Primer Orden

Lineales

Isoclinas

Interpretacin Geomtrica

Campo Pendientes

Sol. Particular

Mt. Resolucin

Sol. General

Curva Integral

Solucin

Ecuaciones Diferenciales (EDO)

Tipos

Definicin

Trayectorias

Plano Fase

Rep. Grfica

Sistemas Dinmicos

Nodos

Campo Direccional

Separatrices

Focos

Tipos

Definicin

Centros

Espirales

Puntos Crticos

Anlisis

Estabilidad

Puntos Silla

288
TEMA 10: Introduccin a las Ecuaciones Diferenciales

Pedro Jos Hernando Oter

10.1. Introduccin a las Ecuaciones Diferenciales

289

10.1. Introduccin a las Ecuaciones Diferenciales

U
P

Definicin 10.1 (Ecuacin Diferencial)


Una ecuacin diferencial es una ecuacin que puede relacionar una funcin (variable
dependiente), su variable o variables (variables independientes) y al menos una de sus
derivadas.

Ejemplo 10.1. Los siguientes son ejemplos de ecuaciones diferenciales:


y 0 = ky
x2

dy
d2 y
+x
+ (x2 p2 )y = 0
2
dx
dx

w
2w
=
2
x
t
Las ecuaciones diferenciales son el ncleo principal del Anlisis Matemtico y es la parcela matemtica
ms importante para la compresin de las Ciencias Fsicas.
a2

Analisis Complejo
Clculo
Series de Fourier y
Polinomios Ortogonales
lgebra

Ecuaciones Diferenciales
Integral de Lebesge

Anlisis
Numrico
Espacios Metricos y
de Hilbert

ANLISIS MATEMTICO

Las ecuaciones diferenciales tienen innumerables aplicaciones tericas y prcticas en muchos campos
de las ciencias, ingeniera y tecnologa, como por ejemplo:
Fsica: Leyes gravitacionales, electricidad y magnetismo, ecuaciones de onda, mecnica clsica
y cuntica, relatividad de Einstein, etc.
Qumica: Mezclas y reacciones qumicas, qumica nuclear, etc.
Biologa: Bio-fsica, ecologa, poblaciones, etc.
Economa
...

Pedro Jos Hernando Oter

Clases de lgebra

290

TEMA 10: Introduccin a las Ecuaciones Diferenciales

10.1.1. Clasificacin de las Ecuaciones Diferenciales


Debido a la gran complejidad de las ecuaciones diferenciales, stas se pueden clasificar de diferentes
formas, en funcin de:
1. Tipo de las derivadas.
2. Orden de la ecuacin.
3. Linealidad de la ecuacin.
Clasificacin 1: Tipo de las derivadas
Las ecuaciones diferenciales se pueden clasificar en dos grandes grupos en funcin del tipo de derivadas
que aparecen:
Ecuaciones Diferenciales Ordinarias (EDO): Son aquellas ecuaciones diferenciales donde las
derivadas son respecto a una nica variable independiente, denominadas derivadas ordinarias.


F x, y, y 0 , y 00 , . . . , y (n) = 0

y (k) =

dk y
dxk

(10.1)

Ecuaciones Diferenciales en derivadas parciales (EDP): Son aquellas ecuaciones


diferenciales donde aparecen derivadas respecto a ms de una variable independiente,
denominadas derivadas parciales.

2z
00
z(x, y, t) = F x, y, t, z, zx0 , zy0 , . . . = 0 , zxy
=
xy

(10.2)

En este tema slo veremos algunos tipos de ecuaciones diferenciales ordinarias (EDO).

U
P

Clasificacin 2: Orden y Grado de la Ecuacin Diferencial

Definicin 10.2 (Orden de una EDO)


El orden de una ecuacin diferencial (ordinaria o en derivadas parciales) es el orden de la
derivada de mayor orden de la ecuacin.

Ejemplo 10.2.
x

df
+ x2 = 0
dx

df
d2 f
d3 f
+ 2 3 = x3
dx dx
dx

: EDO de tercer orden

2f
f
+
= x + y2
x xy

Clases de lgebra

EDO de primer orden

: EDP de segundo orden

Pedro Jos Hernando Oter

10.1. Introduccin a las Ecuaciones Diferenciales

U
P

Definicin 10.3 (Grado de una EDO)


El grado de una ecuacin diferencial (ordinaria o en derivadas parciales) es la potencia de la
mxima derivada contenida en la ecuacin.

Ejemplo 10.3.
d3 y
d2 y
dy
5x 2 + 6
7y = 0
3
dx
dx
dx
 5
 2 3
dv
d v
2

7v
=
15t
+
3
+ 10
6
dt2
dt
10x2

291

z
2z

=0
x xy

: EDO de primer grado

EDO de tercer grado

: EDP de primer grado

Clasificacin 3: Linealidad de la Ecuacin

Definicin 10.4 (Linealidad de una Ecuacin Diferencial)


Una ecuacin diferencial ordinaria Ecuacin (10.1) o parcial Ecuacin (10.2), se dice que es
lineal si cumple simultneamente las dos siguientes condiciones:
La variable dependiente y todas sus derivadas son de primer grado (el exponente es igual
a 1).
Cada trmino coeficiente1 slo depende, a lo sumo, de la(s) variable(s) independiente(s),
(no importan los exponentes de los coeficientes).

Ejemplo 10.4.
y 00 2y 0 + y = 0

EDO lineal

d3 y
dy
+x
5y = ex
dx3
dx

: EDO lineal

(y x)dx + 4xdy = 0

1 Aquel

EDO lineal

(1 y)y0 + 2y = ex

: EDO no lineal

d2 y
+ sen y = 0
dx2

: EDO no lineal

d4 y
+ y2 = 0
dx4

: EDO no lineal

trmino que multiplica a una derivada.

Pedro Jos Hernando Oter

Clases de lgebra

292

TEMA 10: Introduccin a las Ecuaciones Diferenciales

10.2. Solucin o Curva Integral de una EDO

Definicin 10.5 (Solucin o Curva Integral de una EDO)


Dada una EDO, Ecuacin (10.1), cualquier funcin y = f (x) de clase 2 C n (o superior) en un
intervalo3 I que verifique la ecuacin, se denomina solucin o curva integral de la EDO en el
intervalo I.

La solucin de una EDO puede tener dos formas generales:


Solucin Analtica: La solucin viene dada mediante una expresin matemtica (frmula,
desarrollo en serie, etc.)
Solucin Numrica: Los valores de la solucin son conocidos mediante la resolucin de un
algoritmo numrico, teniendo normalmente una determinada precisin.

Aunque generalmente es difcil o incluso imposible encontrar una solucin analtica 4 a una EDO,
suele ser sencillo comprobar que una determinada funcin y = f (x) es solucin de una determinada
EDO, calculando las correspondientes derivadas, introducindolas en la ecuacin y comprobando su
veracidad.
Ejemplo 10.5. Dada la EDO:
comprobar que las tres funciones:
f1 (x) = e2x

f2 (x) = e3x

y 00 5y 0 + 6y = 0
;

f3 (x) = c1 f1 (x) + c2 f2 (x) , con c1 , c2

son soluciones analticas de la EDO.


Solucin:
y = e2x ; y 0 = 2e2x ; y 00 = 4e2x 4e2x 10e2x + 6e2x = 0

cierto!

y = e3x ; y 0 = 3e3x ; y 00 = 9e3x 9e3x 15e3x + 6e3x = 0

cierto!

Sol.

Sol.

y = c1 e2x + c2 e3x ; y 0 = 2c1 e2x + 3c2 e3x ; y 00 = 4c1 e2x + 9c2 e3x
Sol.

[4c1 e2x + 9c2 e3x ] [10c1 e2x + 15c2 e3x ] + [6e2x + 6e3x ] = 0

cierto!

Nota 10.1. Las EDO poseen una teora compleja sobre la existencia y unicidad de sus soluciones y en este curso slo
se vern algunos detalles de la misma, (ver el Teorema 10.1, pgina 300).

2 Se dice que una funcin y = f (x) es de clase C n si existen y son continuas la funcin y sus n primeras funciones
derivadas; y, y 0 , y 00 , , y (n) .
3 El intervalo I se denomina intervalo de definicin, de validez o dominio de la solucin. Puede ser un intervalo
abierto (a, b), cerrado [a, b], infinito (a, ), etc.
4 Slo aproximadamente el 99.9% de las EDO resolubles tienen solucin analtica. El porcentaje es todava mucho
menor en el caso de las EDP.

Clases de lgebra

Pedro Jos Hernando Oter

10.2. Solucin o Curva Integral de una EDO

293

10.2.1. Resolucin de EDO Simples: Mtodo de Separacin de Variables

Como se ha comentado, generalmente es necesario un mtodo numrico para poder encontrar la


solucin de una determinada EDO. Sin embargo, para los casos ms sencillos existen determinados
mtodos matemticos que permiten encontrar la solucin analtica de la ecuacin. En esta seccin
vamos a ver uno de estos mtodos, el de separacin de variables, que aun siendo bastante simple posee
una gran aplicabilidad.
Sea la EDO de primer orden:

: Variable independiente.
x
dy
y = f (x) : Variable dependiente de x. Solucin buscada.
= F (x, y) =
(10.3)

dx
F (x, y)
: Funcin escalar de varias variables.
Definicin 10.6 (Funcin de Variables Separables)
Se dice que una funcin F (x, y) es de variables separables si puede separarse en dos funciones,
una para la variable independiente x y otra para la variable dependiente y, de forma:
F (x, y) = g(x)h(y)

Mtodo de Separacin de Variables


Si la funcin F (x, y) es de variables separables, entonces se puede utilizar el mtodo de separacin
de variables para encontrar la solucin de la EDO Ecuacin (10.3), de la siguiente forma:
dy
= F (x, y) = g(x)h(y)
dx

dy
= g(x)dx
h(y)

dy
=
h(y)

g(x)dx

En el caso de que se puedan integrar ambas integrales indefinidas se obtiene la funcin solucin 5 .

Notar que al resolver las integrales indefinidas aparece una constante de integracin para cada una.
Estas constantes se pueden simplificar en una sola de la siguiente forma:
Z
Z
f (t) dt = g(r) dr ;
F (t) + = G(r) + ;
F (t) = G(r) + c
siendo F (t) y G(r) funciones primitivas 6 de f (t) y g(r) respectivamente, y las constantes de
integracin y c = la nica constante de integracin simplificada.

5 La funcin solucin puede estar en forma explcita, y = f (x), o bien en forma implcita, f (x, y) = 0, sin poder
despejar la variable dependiente de la independiente.
6 Es decir, funciones que cumplen [F (t)]0 = f (t) y [G(r)]0 = g(r).

Pedro Jos Hernando Oter

Clases de lgebra

294

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.6. Resolver las siguientes EDO simples mediante el mtodo de separacin de
variables:
a)

dy
=5
dx

b)

Solucin:
dy
a)
=5 ;
dx

dy
= 4x2 + 3x 2
dx

dy =

5 dx ;

c)

y = 5x + c

dy
= y
dt

; c

d)

dy
= 10t2 x3 y 5
dt

Z
Z
dy
4x3
3x2
= 4x2 +3x2 ;
dy = (4x2 +3x2) dx ; y =
+
2x + c ; c
dx
3
2
Z
Z
dy
dy
c)
= y ;
= dt ; ln y = t + c ; y = et+c = et ec ; y = ket
dt
y
k = ec
 3

Z
Z
dy
dy
1
t
2 3 5
3
3
2
d)
= 10t x y ;
= 10x
= 10x
+c
; c
t dt ;
dt
y5
4y 4
3

b)

Notar que en este ltimo caso la variable x es considerada un parmetro ya que no es ni


es ni la variable dependiente ni la variable independiente.

10.2.2. Problema de Valores Iniciales y Condicin Inicial


Definicin 10.7 (Problema de Valores Iniciales, (PVI))
Se denomina problema de valores iniciales (PVI) al conjunto formado de una EDO y unas
condiciones iniciales 7 :


EDO a resolver: F t, x, x0 , . . . , x(n) = 0

(n1)
Sujeta a:
x(t0 ) = x0 , x0 (t0 ) = t00 , . . . , x(n) (t0 ) = x0

Condiciones Iniciales
Ejemplo 10.7. El siguiente es un ejemplo de un problema de valor inicial, (PVI), para una
EDO de primer orden:

dy

= xy sen x2
dx

y(3) = 10

7 El trmino condicin inicial proviene de los sistemas fsicos en los que la variable independiente es el tiempo t y
donde y(t0 ) = y0 y y 0 (t0 ) = y00 representan respectivamente, la posicin y velocidad iniciales a tiempo t0 .

Clases de lgebra

Pedro Jos Hernando Oter

10.2. Solucin o Curva Integral de una EDO

Ejemplo 10.8. El siguiente es otro ejemplo de un problema de valor inicial, (PVI), en este
caso para una EDO de segundo orden:
00
y y 0 + xy sen x2 = 0

295

y(1) = 0

y 0 (1) = 2

10.2.3. Solucin General y Particular de una EDO


Definicin 10.8 (Solucin General y Particular)
La solucin general de una EDO es el conjunto de todas las curvas integrales,
dependientes de un parmetro 8 c, que constituyen lo que se llama una familia
uniparamtrica de curvas, cuya ecuacin puede escribirse como:
x = (t; c)

Solucin General

Se denomina solucin particular de una EDO a la curva integral que satisface un PVI
con condicin inicial y = y0 cuando x = x0 :


x = (t; c0 )
= Solucin Particular
x0 = (t0 ; c0 )
La solucin particular representa una nica curva de la solucin general (familia
uniparamtrica), para un valor determinado c0 del parmetro.

En la siguiente grfica se muestra la solucin general de una determinada EDO (familia de curvas
uniparamtricas en color azul) y una solucin particular para unas determinadas condiciones iniciales
(curva en color rojo).

dx

= F (x, t) =

dt

x(t ) = x
=
0
0

8 Ver

(t; c)
x = (x; c)
x = (x; c0 )

t0

x0

(t; c = c0)
t

el mtodo de Separacin de Variables en la pgina 293.

Pedro Jos Hernando Oter

Clases de lgebra

296

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.9. Encontrar la solucin general y particular del siguiente PVI:


 0
y = y sen x
y() = 2
Solucin: Primero calculamos la solucin general, aplicando el mtodo de separacin de
variables:
Z
Z
dy
dy
dy
0
y =
= y sen x ;
= sen x dx ;
= sen x dx ; ln y + ln c = ln (cy) = cos x
dx
y
y
y = ce cos x
Para calcular la solucin particular, es necesario primero calcular el valor del parmetro c. Para
ello, aplicando las condiciones iniciales:
y() = 2

2 = ce cos = ce(1) = ce

c=

2
= 2e1
e

Finalmente la solucin particular se obtiene sustituyendo el valor de c en la solucin general :


y = 2e1 e cos x = 2e(1+cos x)

10.3. Interpretacin Geomtrica de una EDO


Dada la EDO de primer orden:

dx
= F (t, x)
dt
la funcin F (t, x) representa la pendiente de la curva solucin x = (t; c) en cada punto (t, x).

x
x = (t; c)

x0
x = F (t0, x0)
t0

Esta informacin puede resultar til para tener un conocimiento geomtrico de la solucin de una
EDO.

Clases de lgebra

Pedro Jos Hernando Oter

10.3. Interpretacin Geomtrica de una EDO

297

10.3.1. Campo de Pendientes

El valor de la pendiente de una EDO se puede representar en una grfica de ejes coordenados t x
mediante pequeos segmentos que indican la inclinacin de la curva solucin9 .
Por cada punto (t0 , x0 ) pasa una nica curva solucin, de forma que representando un campo vectorial
de pequeos segmentos (rayitas) podemos tener una aproximacin grfica del conjunto de soluciones.

Definicin 10.9 (Campo de Pendientes)


Se denomina campo de pendientes de una EDO al conjunto de todos los pequeos segmentos
que representan las pendientes f (t, x) en una malla de puntos (t, x).

y = (3 y)/2

y = (3 y)/2
6

3
y

1
1

Curvas Integrales

Campo de Pendientes

Ejemplo 10.10. Representar grficamente el campo direccional y algunas curvas integrales de


la EDO de primer orden:
dx
x0 =
=x
dt
Solucin: El campo direccional se puede representar
x
dibujando rayitas con pendientes dadas, en este caso,
por la ecuacin:
m(t, x) = x
La solucin general de la EDO se puede obtener
mediante el mtodo de separacin de variables
obteniendo:
x = cet

9 Segn

En la grfica se ha dibujado cuatro curvas solucin


particulares para unas determinadas condiciones
iniciales x(t0 ) = x0 con valores c = c0
correspondientes.

la definicin de derivada de una funcin, el ngulo del segmento viene dado por el valor = arctan

Pedro Jos Hernando Oter

dx
.
dt

Clases de lgebra

298

TEMA 10: Introduccin a las Ecuaciones Diferenciales

10.3.2. Isoclinas
Definicin 10.10 (Isoclinas)
Una isoclina de la EDO x0 = f (t, x) es una curva de la forma:
f (t, x) = m
en la cual la pendiente x0 (t) de la curva solucin x(t) es constante e igual a m

R.

Ejemplo 10.11. Dada la siguiente EDO:


y 0 = x + y
c calcular las isoclinas para las cuales y 0 es igual a 0, 1, 2 y 3.
Solucin: Las isoclinas de esta EDO tienen por ecuacin:
x + y = m

y =m+x

Dando los valores a m = {0, 1, 2, 3} se obtienen la curvas


isoclinas (rectas paralelas en este caso).

Ejemplo 10.12. Dibujar las isoclinas y curvas integrales de la siguiente EDO:


y 0 = yx
Solucin: Las isoclinas son las curvas (de color rojo en
el grfico):
yx = m =

y=

m
x

; m

Resolviendo la EDO mediante el mtodo de separacin


de variables, se obtienen la curvas integrales (de color
azul en el grfico):
Z
Z
2
dy
= x dx ;
ln (cy) = x2 ;
y = cex
y

Definicin 10.11 (Nulclinas)


Se denominan nulclinas a las curvas isoclinas con pendiente cero:
x0 = f (t, x) = 0

Clases de lgebra

Pedro Jos Hernando Oter

10.4. Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO)

299

10.4. Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO)

En muchos problemas cientficos y tcnicos aparecen magnitudes que interaccionan unas con otras
siguiendo leyes complejas. Una buena forma de modelizar dichos problemas es a travs de sistemas de
ecuaciones diferenciales ordinarias.
Definicin 10.12 (Sistema de Ecuaciones Diferenciales Ordinarias)
Un Sistema de Ecuaciones Diferenciales Ordinarias (SEDO) es un conjunto de ecuaciones de
la forma:

~
=
(F1 , F2 , . . . , Fn )

~
x
=
(x1 , x2 , . . . , xn )

0
0
(n)
~
x
=
(x01 , x02 , . . . , x0n )
~
~
F [t, ~x, ~x , . . . , ~x ] = 0 =

.
..

..
.

(n)
(n)
(n)
(n)
~x
= (x1 , x2 , . . . , xn )

Donde F~ es una funcin vectorial de n componentes F1 , . . ., Fn , que dependen cada una de


una variable escalar t (variable independiente), de una funcin vectorial ~x y de sus derivadas
de orden k, ~x (k) respecto a t. A su vez, la funcin vectorial ~x depende de n funciones escalares
x1 (t), . . ., xn (t), que son las incgnitas a determinar.

Ejemplo 10.13. El siguiente es un ejemplo de sistema de ecuaciones diferenciales, (SEDO):



3x01 x1 x2 + x000
= 0
2
x002 x001 + t
= 0
Definicin 10.13 (Solucin de un SEDO)
Se dice que un SEDO tiene solucin en un intervalo I si existen n funciones:
x1 = 1 (t)

x2 = 2 (t)

...

xn = n (t)

diferenciables en I, que satisfacen el sistema de ecuaciones en todos los puntos de I.


De forma general, las funciones xi sern familias de curvas que dependern de un determinado
parmetro ci :
xi = i (t, ci )
Si se especifican unas condiciones iniciales, (problema de valores iniciales, PVI):
x1 (t0 ) = x10

x2 (t0 ) = x20

...

xn (t0 ) = xn0

Se pueden determinar los valores particulares de los parmetros10 ci .


Si habitualmente resulta complicado el estudio de una nica EDO, aun ms complicado es el estudio
general de los SEDO. Por ello, en este tema analizaremos exclusivamente los SEDO de primer orden
y de ellos nos centraremos en el caso lineal 11 ms sencillo.
10 Ver
11 Ver

la Seccin 10.5.2, pgina 303.


la Seccin 10.1.1, pgina 290.

Pedro Jos Hernando Oter

Clases de lgebra

300

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.14. Comprobar

x(t) =
y(t) =
(1)

z(t) =

que el conjunto de funciones (1) es


0
sen t + t2
x
e2t
y0
;
(2)
0
cos t
z

una solucin del SEDO (2):


=
=
=

z + 2t
2y
x + t2

Solucin: Vamos comprobar si ambas partes de las igualdades del SEDO son iguales:
x0 = cos t + 2t z + 2t
y 0 = 2e2t
2y
z 0 = sen t
x + t2

= cos t + 2t = Cierto!
= 2e2t
= Cierto!
= sen t
= Cierto!

10.4.1. SEDO de Primer Orden


Definicin 10.14 (SEDO de Primer Orden)
De forma general, un SEDO explcito 12 de primer orden (SEDO1) se puede expresar como13
un conjunto de ecuaciones diferenciales acopladas14 , de la forma:
0
x1 = f1 (t, x1 , x2 , . . . , xn )

x02 = f2 (t, x1 , x2 , . . . , xn )
(10.4)
..
..

.
.

0
xn = fn (t, x1 , x2 , . . . , xn )
donde t es la variable independiente (espacial, temporal, etc.), el conjunto x1 , . . ., xn son
i
funciones desconocidas dependientes de una nica variable t y x0i = dx
dt .

A continuacin veremos un teorema muy importante que establece las condiciones suficientes para la
existencia y unicidad de las soluciones de un SEDO de primer orden.

Teorema 10.1 (Existencia y Unicidad de Soluciones)


Un SEDO de primer orden, Ecuacin (10.4), con todas sus funciones fi y todas su funciones
derivadas fi /xj , 1 i, j n, continuas en una regin R del plano, tiene una nica solucin
del PVI en R:
0
x1 = f1 (t, x1 , x2 , . . . , xn )

x02 = f2 (t, x1 , x2 , . . . , xn )

..
.
(10.5)

x0n = fn (t, x1 , x2 , . . . , xn )

x1 (t0 ) = x10 ; x2 (t0 ) = x20 ; ; xn (t0 ) = xn0


12 Los

sistemas donde no se puede despejar la derivada se denominan implcitos.


como forma normal.
14 Ver la Definicin 1.3, pgina 34.
13 Conocida

Clases de lgebra

Pedro Jos Hernando Oter

10.4. Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO)

301

Por tanto, basta con que las funciones que definen las derivadas en el SEDO sean funciones
suficientemente suaves (continuas y derivables) en un dominio, para asegurar la existencia de una
nica funcin solucin 15 en ese dominio.

10.4.2. Sistema Equivalente a EDO de Orden n


Los SEDO permiten generalizar, simplificar y resolver diferentes problemas de las ecuaciones
diferenciales. Por ejemplo, los SEDO pueden entenderse como una forma particular de representar
unas determinadas EDO de orden superior, como se ver a continuacin.
Cualquier EDO de orden n explcita:
x(n) = f [t, x, x0 , x00 , . . . , x(n1) ]
es equivalente a un SEDO de primer orden de n ecuaciones, de la siguiente forma:

x1 = x ; x2 = x0 ; x3 = x00 ; ; xn = x(n1)
0
x1
= x2

x
= x3

2
..
..
.
.

x
=
xn

(n1)

0
= f (t, x1 , x2 , . . . , xn )
xn
Ejemplo 10.15. Obtener el SEDO equivalente de la siguiente EDO de segundo orden:
y 00 + 3y 0 10y = 6e4x
Solucin: Al ser de segundo orden, se podr expresar como un SEDO de 2 2 de la siguiente
forma:
1. Despejamos y 00 :

y 00 = 3y 0 + 10y + 6e4x

2. Realizamos el cambio de variables:


3. El SEDO resultante es:

y10
y20

y1 = y
=
=

y2 = y 0

y2
3y2 + 10y1 + 6e4x

15 Si existiera ms de una solucin en algn punto, la solucin no sera una funcin. Ver una introduccin a las
funciones en el Apndice A.10, pgina 361.

Pedro Jos Hernando Oter

Clases de lgebra

302

TEMA 10: Introduccin a las Ecuaciones Diferenciales

10.4.3. SEDO Lineales, Homogneos y Autnomos


Definicin 10.15 (SEDO Lineal, Homogneo y Autnomo)
Existe una gran diversidad de tipos de SEDO1 que dependen fundamentalmente de la forma
de las funciones fi (t, x1 , , xn ) en la Ecuacin (10.4), siendo los ms importantes:
SEDO1 lineales, (SEDO1L): Las funciones fi son lineales respecto a todas las variables
dependientes.
SEDO1L homogneo, (SEDO1LH): Las funciones lineales fi no poseen trmino
independiente 16 .
SEDO autnomos, (SEDOA): Las funciones fi no dependen de la variable
independiente (tiempo)17 .

P
P
P

Ejemplo 10.16. SEDO1 Lineal


0
x1 (t)

x02 (t)
..

0
xn (t)

=
=
=

a11 (t)x1 (t) + a12 (t)x2 (t) + . . . + a1n (t)xn (t) + b1 (t)
a21 (t)x1 (t) + a22 (t)x2 (t) + . . . + a2n (t)xn (t) + b2 (t)
..
.
an1 (t)x1 (t) + an2 (t)x2 (t) + . . . + ann (t)xn (t) + bn (t)

Ejemplo 10.17. SEDO1L Homogneo


0
x1 (t)

x02 (t)
..

0
xn (t)

=
=
=

a11 (t)x1 (t) + a12 (t)x2 (t) + . . . + a1n (t)xn (t)


a21 (t)x1 (t) + a22 (t)x2 (t) + . . . + a2n (t)xn (t)
..
.
an1 (t)x1 (t) + an2 (t)x2 (t) + . . . + ann (t)xn (t)

Ejemplo 10.18. SEDO1L Autnomo


0
x1 (t)

x02 (t)
..

0
xn (t)

=
=
=

a11 x1 (t) + a12 x2 (t) + . . . + a1n xn (t)


a21 x1 (t) + a22 x2 (t) + . . . + a2n xn (t)
..
.
an1 x1 (t) + an2 x2 (t) + . . . + ann xn (t)

16 Trmino
17 Por

que slo depende de la variable independiente.


tanto, todos los SEDOA son homogneos.

Clases de lgebra

Pedro Jos Hernando Oter

10.5. SEDO con Coeficientes Constantes, (SEDOC)

303

10.5. SEDO con Coeficientes Constantes, (SEDOC)

En este curso, vamos a analizar nicamente los SEDO ms sencillos que hay: de primer orden,
lineales y autnomos (SEDO1LA), tambin conocidos de forma abreviada como SEDO con coeficientes
constantes, (SEDOC).
Definicin 10.16 (SEDO con Coeficientes Constantes)
Los SEDO con coeficientes constantes, (SEDOC), tienen la forma:
0

x10 = a11 x1 + a12 x2 + + a1n xn

x2 = a21 x1 + a22 x2 + + a2n xn


..
..

.
.

0
xn = an1 x1 + an2 x2 + + ann xn

donde x1 , x2 , ..., xn son las variables dependientes de la variable independiente t, x0i =


aij son constantes.

dxi
dt ,

10.5.1. Forma Matricial de un SEDOC


Los SEDOC se pueden representar de forma matricial como:
X 0 = AX
donde:

x1 (t)

X = ...
xn (t)

x01
dx1 /dt

..
X 0 = ... =

.
0
xn
dxn /dt

a11
..
A= .
an1

a1n
..
.
ann

Los SEDOC pueden considerarse como un tipo especial de transformaciones lineales 18 .

10.5.2. Solucin Analtica de un SEDOC


Teniendo en cuenta la solucin del problema escalar19 :
x0 = ax

x(t) = ceat

vamos a buscar la solucin general del SEDOC:


X 0 = AX
con soluciones de la forma:


t
x1 (t)
v1

x1 (t) = ~v1 et

x2 (t) = ~v2 e
x2 (t) v2


;
.. = ..
..

. .
.

xn (t)
vn
xn (t) = ~vn et
18 Ver
19 Ver

la Seccin 4.1, pgina 139.


la Seccin 10.2.1, pgina 293.

Pedro Jos Hernando Oter

t
e

(10.6)

X(t) = ~v e

~v

R
Rn

(10.7)

Clases de lgebra

304

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Vamos a ver qu condiciones tienen que tener la constante y el vector de constantes ~v para que la
Ecuacin (10.7) sea solucin de la Ecuacin (10.6).
X 0 (t) = et ~v

R
R

(10.6)

et ~v = Aet ~v

~v = A~v

Teorema 10.2
La Ecuacin (10.7) es solucin de Ecuacin (10.6) si y slo si es un autovalor de A y ~v su
autovector asociado20 .

Teorema 10.3
Si x1 (t), x2 (t), , xn (t) son soluciones de la Ecuacin (10.6), entonces cualquier
combinacin lineal de ambas tambin es solucin.
El conjunto de todas las soluciones del sistema (solucin general) es un espacio vectorial
de dimensin n.
Por tanto si todas las xi (t) son soluciones linealmente independientes 21 , (es decir, una
base 22 del espacio funcional correspondiente), cualquier otra solucin (t) se puede
expresar como combinacin lineal de ellas, para unos nicos valores reales c1 , c2 , ,
cn de la forma:
(t) = c1 x1 (t) + c2 x2 (t) + + cn xn (t)
(10.8)

10.5.3. Solucin General y Particular de un SEDOC


Definicin 10.17 (Solucin General y Particular de un SEDOC)
La funcin Ecuacin (10.8) se conoce con el nombre de Solucin General del SEDOC
dado por la Ecuacin (10.6).
Especificando unas condiciones iniciales 23 , se pueden determinar los parmetros c1 y c2
de la solucin general, Ecuacin (10.8), obtenindose la denominada Solucin Particular
del SEDOC dado por la Ecuacin (10.6).

20 Ver

la Definicin 8.2, pgina 227.


dice que un conjunto de funciones f1 (x), , fn (x) son linealmente independientes en un intervalo [a, b] si el
siguiente determinante, denominado wronskiano W (x), no se anula en dicho intervalo:




f1 (x)

fn (x)


0
0


f
(x)

f
(x)
n
1



6= 0 x [a, b]
..
..
..
W (x) =



.
.
.
(n1)

(n1)
f
(x) fn
(x)
21 Se

Esta definicin es anloga a la definicin de conjunto de vectores linealmente independientes, ver la Definicin 2.15,
pgina 75 y el Teorema 3.8, pgina 133.
22 Ver la Definicin 2.21, pgina 81.
23 Ver la Seccin 10.2.2, pgina 294.

Clases de lgebra

Pedro Jos Hernando Oter

10.6. SEDOC Bidimensionales

305

10.6. SEDOC Bidimensionales


En este curso nos vamos a centrar exclusivamente en el caso bidimensional de los SEDOC, por ser
uno de los tipos ms simples y con una sencilla interpretacin grfica.

dx1

dx1 = a11 x1 + a12 x2



dt 
dt
a11 a12
x1

0
;
X =
= AX
=
a21 a22
x2

dx

dx2
2

= a21 x1 + a22 x2
dt
dt
Para resolver un SEDOC, Ecuacin (10.6), basta encontrar los autovalores y autovectores de la
matriz A asociada al sistema, siendo la solucin general, segn el Teorema 10.3, de la forma:
X(t) =

x1 (t)
x2 (t)

2
X

ck ek t ~vk = c1 e1 t ~v1 + c2 e2 t ~v2

(10.9)

k=1

donde c1 y c2 son constantes arbitrarias y 1 y 2 los autovalores asociados a los autovectores ~v1 y
~v2 . De forma matricial:
X(t) =

x1 (t)
x2 (t)

= c1 e

1 t

v11
v12

2 t

+ c2 e

v21
v22

c1 e1 t v11
c1 e1 t v12

+ c2 e2 t v21
+ c2 e2 t v22

La solucin particular del problema de valores iniciales (PVI):


 0
X (t) = AX(t)
X(t0 ) = X0 = [x10 x20 ]T

(10.10)

se puede expresar de la forma:


X(t) =

2
X

ck e(tt0 ) ~vk

k=1

donde los coeficientes ck se obtienen resolviendo el sistema:


X0 =

2
X

ck~vk

k=1

x10
x20

c1 v11
c1 v21

+
+

c2 v12
c2 v22

10.6.1. Tipos de Soluciones


Vamos a analizar las soluciones de los SEDOC bidimensionales en funcin del tipo de autovalores y
autovectores de la matriz A asociada al sistema.

Pedro Jos Hernando Oter

Clases de lgebra

306

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Caso Real Simple


Sea el SEDOC simple dado por:

dx1

dt = a11 x1

dx2

dt

X =

a22 x2

x01
x02

a11
0

0
a22



x1
x2

= AX

donde a11 y a22 son constantes reales.


Como las ecuaciones son independientes24 , podemos integrar cada ecuacin por separado25 ,
obtenindose26 la solucin general del sistema:
X=

x1 (t)
x2 (t)

x1 (t) = c1 ea11 t
x2 (t) = c2 ea22 t

Las exponenciales sern crecientes si el coeficiente aii es positivo y decrecientes si aii es negativo. Si
alguno de los coeficientes es cero, la solucin es una recta horizontal.
Los parmetros c1 y c2 se podrn determinar si se especifican unas determinadas condiciones
iniciales:
c1 = x10 ea11 t0
x1 (t0 ) = x10
x10 = c1 ea11 t0
x2 (t0 ) = x20

x20 = c2 ea22 t0

Ejemplo 10.19. Encontrar la solucin del PVI:


0
x = 3x
y 0 = y

x(0) = 5 ;

c2 = x20 ea22 t0

y(0) = 2

Solucin: La solucin general se puede obtener directamente integrando cada ecuacin por
separado obtenindose:

x(t) = c1 e3t
y(t) = c2 et

La solucin particular se obtiene aplicando las condiciones iniciales:


5 = c1 e30

c1 = 5

2 = c1 e0 = c2 = 2

x(t) = 5e3t
y(t) = 2et
24 Ya que en cada ecuacin diferencial slo aparece un tipo de variable dependiente y por tanto podemos aplicar el
mtodo de separacin de variables a cada ecuacin de forma independiente.
25 Ver la Seccin 10.2.1, pgina 293.
26 Notar que en este caso los autovalores de la matriz A se pueden calcular fcilmente, siendo = a
1
11 y 2 = a22 ,
y sus autovectores asociados ~v1 = [1, 0] y ~v2 = [0, 1], lo cual corresponde con lo dicho en la Seccin 10.5.2.

Clases de lgebra

Pedro Jos Hernando Oter

10.6. SEDOC Bidimensionales

307

Caso Real con Matriz Diagonalizable

dx1

dt = a11 x1 + a12 x2

x01
x02

a11
a21

a12
a22



x1
x2

=
;
= A~x

dx2

= a21 x1 + a22 x2
dt
En este caso las ecuaciones del sistema no son independientes y no puede aplicarse directamente el
mtodo de separacin de variables para resolverlo.
Sin embargo, en el caso de que la matriz A sea diagonalizable tendremos:


1 0
A = P DP 1 ;
D=
;
P = [~v1 , ~v2 ]
0 2
siendo 1 , 2
Entonces:

R los autovalores de A y ~v1 ,

d~x
= A~x = P DP 1 ~x
dt

P 1

~v2

R2 los correspondientes autovectores asociados.

d~x
= DP 1 ~x
dt



d
P 1 ~x = D P 1 ~x
dt

donde aqu se han aplicado las propiedades bsicas de la derivada. Denominando:


~y = P 1 ~x

(10.11)

Se tiene:

d~y
= D~y
dt
que corresponde con el caso bidimensional simple visto anteriormente y cuya solucin es:

y1 = c1 e1 t
y2 = c2 e2 t

y teniendo en cuenta la definicin de #


y , Ecuacin (10.11), la solucin del sistema original ser:



 c1 e1 t
~x = P ~y = ~v1 ~v2
= c1 e1 t~v1 + c2 e2 t~v2
c2 e2 t

correspondiente a la solucin general del sistema comentada en la Ecuacin (10.9).


Ejemplo 10.20. Hallar la solucin general del SEDO:
 0
x =x+y
y 0 = 4x 2y
Solucin: De forma matricial:
0

X (t) =
Autovalores:


1

4

x0 (t)
y 0 (t)



1
=0
2
2

+6=0

=
=

1
4

1
2



x(t)
y(t)

(1 )(2 ) 4 = 0


1 = 3
2 = 2
(Contina en la pgina siguiente)

Pedro Jos Hernando Oter

Clases de lgebra

308

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.20 (Continuacin).


Autovector correspondiente a 1 = 3 : ~v1


  

4 1
v1
0
v1 = 1
=
= 4v1 + v2 = 0 =
4 1
v2
0
v2 = 4


~v1 =

1
4

Autovector correspondiente a 2 = 2 : ~v2




 


1
1
v1
0
v1 = 1
=
= v1 + v2 = 0 =
4 4
v2
0
v2 = 1
~v2 =
Solucin General:
X(t) =

x(t)
y(t)
x(t)
y(t)

= c1 e

50

40

40

30

30

x(t)

1
4

+ c2 e

2t

50
40

x(t)
y(t)

20

1
1

+ c2 e2t
+ c2 e2t

10

y(t)

30
20

c1 = 1
c2 = 1

10

2
10

1
1

c1 e3t
4c1 e3t

=
=

10

3t

50

20

10

10

20

20

20

30

30

30

40

40

40

50

50

50

Figura 10.1.: Representacin grfica de la solucin general del Ejemplo 10.20 (familia uniparamtrica para las funciones
x(t) e y(t) y solucin particular para los valores c1 = 1 y c2 = 1.

Ejemplo 10.21. Encontrar la solucin particular del Ejemplo 10.20 sabiendo que:
x(1) = 2

Solucin: Se tiene que cumplir,



 
2
c1 e31
=
4
4c1 e33

y(3) = 4

+ c2 e21
+ c2 e23


(Contina en la pgina siguiente)

Clases de lgebra

Pedro Jos Hernando Oter

10.6. SEDOC Bidimensionales

309

Ejemplo 10.21 (Continuacin).


Resolviendo por Gauss:



e3
e2 2
1

4e9 e6 4
4

e5
e15

2e3
4e9

1
0

e5
15
e + 4e5

2e3
9
4e + 8e3

Resolviendo por el mtodo de sustitucin hacia atrs:

c2

c1

4e4 + 8e2
4e9 + 8e3
=
15
5
e + 4e
e10 + 4

2e3 c2 e5 = 2e3

4e9 + 8e3
2e13 + 8e3 4e9 8e3
2e13 4e9
=
=
e10 + 4
e10 + 4
e10 + 4

Caso Real con Matriz No Diagonalizable


Este caso corresponde a una matriz asociada con un nico autovalor real de multiplicidad algebraica 27
2 pero con un nico autovector asociado ~v , es decir con multiplicidad geomtrica 28 1. Al no poder
diagonalizar la matriz, no se puede encontrar la solucin del problema utilizando el mtodo mostrado
en la Seccin 10.6.1, pgina 307.
En este caso, adems de la solucin X1 (t) = ~v et , es necesario buscar una nueva solucin de la forma:
X2 (t) = ~v tet + ~uet
donde ~u es un nuevo vector que necesitamos encontrar, siendo la solucin general:
X(t) = c1 X1 (t) + c2 X2 (t)
Para ello, la solucin X2 debe verificar el SEDO homogneo:
X 0 = AX

(10.12)

Derivando la solucin X2 , introduciendo su valor en la Ecuacin (10.12) y simplificando, se obtiene:


(A~v ~v )tet + (A~u ~u ~v )et = 0

Como esta ecuacin se debe de verificar para todo valor de t, se tiene obligatoriamente que cumplir:
(A~v ~v ) = 0
(A~u ~u ~v ) = 0

=
=

(10.13)

(A I)~v = 0

(10.14)

((A I)~u = ~v

Por tanto, los pasos a seguir para resolver un SEDOC con matriz asociada no diagonalizable son:
1. Obtener el autovalor y el autovector asociado ~v (resolviendo el primer SEL, Ecuacin (10.13)).
2. Conocido ~v , resolver el segundo SEL, Ecuacin (10.14), obteniendo ~u.
3. La solucin general tendr la forma:
X(t) = c1 X1 (t) + c2 X2 (t) = c1~v et + c2 ~v tet + ~uet

27 Nmero
28 Nmero

de veces que se repite un determinado autovalor, ver Definicin 8.5, pgina 232.
de autovectores asociados a un autovalor.

Pedro Jos Hernando Oter

Clases de lgebra

310

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.22. Resolver el siguiente SEDO:


 0
x =x
y0 = x + y
Solucin: Buscamos los autovalores y autovectores de la matriz asociada, A =
Autovalores:

1

1


0
=0
1

1
1

0
1


.

(1 )2 = 0 = = 1 (doble)

Autovectores correspondientes a = 1 :


  

0 0
v1
0
v1 = 0
=
= v1 = 0 =
1 0
v2
0
v2 = 1

~v =

0
1

Entonces, adems de la solucin X1 (t) = ~v et , tenemos que buscar una segunda solucin de la
forma:
X( t) = ~v tet + ~uet
Para encontrar el vector ~u tenemos que resolver el SEL:




  

u1 = 1
0 0
u1
0
0 0 0
=
(AI)~u = ~v ;
=
=
1 0 1
u2 = 0
1 0
u2
1

= ~u =

1
0

Por tanto la solucin general del problema es:


t

X(t) = c1~v e

+ c2 ~v te

+ ~ue


= c1

0
1

e + c2



0
1

te +

1
0

 
et

x(t) = c2 et
y(t) = c1 et + c2 tet

Ejemplo 10.23. Comprobar la validez de la solucin obtenida en el Ejemplo 10.22 y encontrar


la solucin particular para las condiciones iniciales:
x(1) = 1

y(2) = 2

Solucin: Comprobamos la solucin:



 0
x = c2 e t
x = c2 et = x
=
t
t
y = c1 e + c2 te
y 0 = c1 et + c2 et + c2 tet = x + y

cierto !

Para encontrar la solucin particular de las condiciones iniciales del problema, tendremos que
resolver el SEL:


1 = c2 e
c2 = e1
=
2
2
c1 = 2e2 2c2 = 2e2 + 2e1
2 = c1 e + 2c2 e

Clases de lgebra

Pedro Jos Hernando Oter

10.6. SEDOC Bidimensionales

311

Caso Complejo
En el caso de que la matriz A sea real, los autovalores complejos que aparezcan lo harn en pares
conjugados, siendo los autovectores correspondientes tambin complejos conjugados. Llamando r a los
autovalores y ~v a los autovectores correspondientes, se tiene:
)
(
r1 = + i ; ~v1 = ~a + ~bi
A~v = r~v =
r2 = i ; ~v2 = ~a ~bi

donde: , y ~a, ~b 2 .
Teniendo en cuenta la frmula de Euler 29 :
ezt = e(+i)t = et eit = et [cos (t) + i sen (t)]
Las soluciones se podrn expresar como:
(

x1 (t) = ~v1 er1 t = (~a + ~bi)e(+i)t = (~a + ~bi)et (cos t + i sen t) = et (~a cos t ~b sen t) + iet (~b cos t + ~a sen t)
x2 (t) = ~v2 er2 t = (~a ~bi)e(i)t = (~a ~bi)et (cos t i sen t) = et (~a cos t ~b sen t) iet (~b cos t + ~a sen t)

Como se observa hay dos partes comunes a ambas soluciones. Llamando:


(
X1 (t) = et (~a cos t ~b sen t)
X2 (t) = et (~b cos t + ~a sen t)
La solucin conjunta se puede expresar de forma simplificada como:
X(t) = X1 (t) iX2 (x)
Fcilmente se puede comprobar que ambas partes de la solucin, real X1 y compleja X2 , verifican el
SEDOC por separado:
 0
X1 (t) = AX1 (t)
0
X (t) = AX(t)
X20 (t) = AX2 (t)
Por tanto, por cada dos autovalores complejos conjugados existen dos soluciones30 reales del sistema
homogneo.
La solucin general correspondiente al par de autovalores complejos (conjugados) ser:
X(t) = c1 X1 (t) + c2 X2 (t) = c1 et (~a cos t ~b sen t) + c2 et (~b cos t + ~a sen t)

La solucin particular (determinacin de los valores de c1 y c2 ) se realiza con el mtodo explicado


en la Seccin 10.5.2, pgina 303.

Ejemplo 10.24. Resolver el siguiente problema de valor inicial:


0
x = x y
y 0 = 2x y

x(0) = 1 , y(0) = 2
29 Ver
30 Se

la Seccin B.7.2, pgina 380.


puede comprobar que son linealmente independientes t

Pedro Jos Hernando Oter

(Contina en la pgina siguiente)

R.

Clases de lgebra

312

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.24 (Continuacin).


Solucin: En forma matricial:
 0
 
x (t)
1
X 0 (t) =
=
y 0 (t)
2
Autovalores:

1
1


2
1

1
1



x(t)
y(t)


= 0 ; (1 )2 + 2 = 0 ; 1 = i 2

Autovectores: 1 = 1 + i 2



  

v1
i 2 1
0
v1 i 2 v2
=
=
v2
0
2
i 2
2v1 v2 i 2

v2 = v1 i 2=
Por tanto:

v1 = 1
v2 = i 2

1 = 1 + i 2

2 = 1 i 2

Solucin General:

~v1 =

~v1 =
~v2 =




1
0
1
0




+i

+i




1
0

1,2 = 1 i 2

2
0
2

= 0
= 0
0i

i 2

X(t) = c1 et (~a cos 1 t b~1 sen 1 t) + c2 et (b~2 cos 2 t + ~a sen 2 t)




 




0
x(t)
1
t

= c1 e
cos t 2
sen t 2 +
y(t)
0
2

 



0
1
t

+c2 e
sen(t 2)
cos(t 2) +
0
2







x(t)
cos t
2
sen t 2
t
t

X(t) =
= c1 e
+ c2 e
y(t)
2 sen t 2
2 cos t 2
Solucin Particular: como x(0) = 1 , y(0) = 2
y

1
2

= c1

1 = c1
2 = c2 2

x(t) = et

y(t) = et

Clases de lgebra

1
0

+ c2

0
2

c1 =
1
c2 = 2


cos[t 2] 2 sen[t 2]

~x

x
t


2 sen[t 2] + 2 cos[t 2]

Pedro Jos Hernando Oter

10.7. Sistemas Dinmicos

313

10.7. Sistemas Dinmicos

Definicin 10.18 (Sistema Dinmico)


Un Sistema Dinmico Continuo o simplemente Sistema Dinmico es todo proceso definido
mediante un SEDO donde la variable independiente t representa el tiempo.

Hay una gran variedad de sistemas dinmicos. En este curso nos vamos a centrar principalmente en
los sistemas dinmicos definidos por SEDOC.

10.7.1. Sistemas Dinmicos Continuos Lineales y Homogneos

En la Seccin 8.1, pgina 225 se vio la definicin de Sistema Dinmico Discreto. Vamos a ver aqu la
versin continua.
Definicin 10.19 (Sistema Dinmico Continuo Lineal y Homogneo)
Un Sistema Dinmico Continuo Lineal y Homogneo 31 es un sistema dinmico definido
mediante un SEDOC de la forma:
d~x
= A~x
dt

10.7.2. Representacin Grfica: Trayectorias, Plano de Fases y Espacio de


Fases
Definicin 10.20 (Trayectoria, rbita o Lnea de Flujo)
Cada una de las soluciones X(t) = [x1 (t), . . . , xn (t)] de un sistema dinmico representa una
curva paramtrica en el espacio n-dimensional, denominada trayectoria, rbita o lnea de flujo.

Cada trayectoria representa un estado o fase del sistema bajo unas condiciones dadas.

Definicin 10.21 (Plano y Espacio de Fases)


El conjunto de las trayectorias de un sistema dinmico se denomina de forma general Retrato
de Fases o Retrato Fase.
Si n = 2 el retrato fase se denomina Plano de Fases
Si n > 2 el retrato fase se denomina Espacio de Fases
31 Y

por tanto autnomo, ver la Definicin 10.15, pgina 302.

Pedro Jos Hernando Oter

Clases de lgebra

314

TEMA 10: Introduccin a las Ecuaciones Diferenciales

En las siguientes grficas se muestran un ejemplo de un plano de fases para un problema bidimensional
y un espacio de fases para un problema tridimensional.
Phase
20
10
0
-10

Portrait

by

NDSolve

y(t)
40

30

x(t)

20

10

0
-10

Plano de Fases (n = 2)


-5

10

Espacio de Fases (n = 3)
0
x (t) = f1 (x, y, z)
y 0 (t) = f2 (x, y, z)
0
z (t) = f2 (x, y, z)

x0 (t) = f1 (x, y)
y 0 (t) = f2 (x, y)

En las grficas de abajo se muestra para el caso bidimensional, la relacin que hay entre las curvas
integrales 32 de un sistema dinmico y sus trayectorias o lneas de flujo en el plano de fases.
x2

~x
x1
x2

t
Curvas Integrales

x1
Trayectoria en el Plano de Fases

Las trayectorias en el plano de fases son curvas paramtricas dependientes de la variable


independiente (parmetro) t.
Dos trayectorias distintas en el plano de fases para un sistema autnomo 33 no pueden coincidir
en ningn punto.

32 Ver
33 Ver

la Definicin 10.5, pgina 292.


la Definicin 10.15, pgina 302.

Clases de lgebra

Pedro Jos Hernando Oter

10.7. Sistemas Dinmicos

315

10.7.3. Puntos Criticos, Estacionarios o de Equilibrio


Definicin 10.22 (Puntos Crticos, Estacionarios o de Equilibrio)
Dado un sistema dinmico de la forma:
0

x1 = f1 (x1 , . . . , xn )
..
..
.
.

0
xn = fn (x1 , . . . , xn )

Se dice que ~xc = (xc1 , . . . , xcn ) n es un punto crtico, punto estacionario o punto de equilibrio
del sistema si:
0 c
c
c

x1 (~x ) = f1 (x1 , . . . , xn ) = 0
..
..
.
.

0 c
xn (~x ) = fn (xc1 , . . . , xcn ) = 0

Los puntos crticos de un sistema dinmico indican puntos estticos, invariantes en el tiempo.

Ejemplo 10.25. Calcular los puntos crticos del siguiente sistema dinmico:
 0
x =x+y
y 0 = 1 + xy
Solucin: Tenemos que resolver el sistema de ecuaciones:


y = x
x+y =0
=
xy = 0
1 + xy = 1 x2 = 0

x = 1

Los puntos crticos del sistema son dos ~xc1 = (1, 1) y ~xc2 = (1, 1) .
Los puntos crticos de un SEDOC bidimensional se obtienen resolviendo el SEL:
 0

x = ax + by
ax + by = 0
=
y 0 = cx + dy
cx + dy = 0
que al ser un SEL homogneo34 , siempre tiene al menos un punto critico en el origen del plano de
fases (x, y) = (0, 0).
Si las ecuaciones son linealmente independientes la solucin trivial ser nica, de otra forma, existirn
infinitas soluciones adems de la trivial.

34 Ver

la Seccin 1.9, pgina 60.

Pedro Jos Hernando Oter

Clases de lgebra

316

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.26. Calcular los puntos crticos del siguiente sistema dinmico:
 0
x = 3x + 2y
y 0 = 5x y
Solucin: Como el sistema para calcular los puntos crticos es homogneo y tiene ecuaciones
linealmente independientes, el nico punto crtico ser la solucin trivial:
~xc2 = (0, 0)

10.7.4. Campo Direccional


Dado un sistema dinmico bidimensional:
 0
x1 = f1 (x1 , x2 )
x02 = f2 (x1 , x2 )

x2

Las pendientes de las trayectorias en cada punto del


plano fase se pueden calcular de forma:
x0
dx2 dt
dx2 /dt
dx2
= 20
=
=
dx1
dt dx1
dx1 /dt
x1

y se pueden representar en el plano de fases como


pequeas flechas35 cuyas coordenadas vienen dadas por
el vector velocidad 36 :


dx1 dx2
,
V =
dt dt

x1

Definicin 10.23 (Campo Direccional)


Se denomina campo direccional o campo de direcciones de un sistema dinmico bidimensional:
d~x
= A~x
dt
al campo vectorial en el plano de fases donde a cada punto37 ~x se le asocia el vector velocidad
A~x.

Normalmente para simplificar y clarificar el campo de direccin, no se considera a escala las normas
de los vectores velocidad sino nicamente su direccin, siendo por tanto la longitud de todas las
flechas iguales.

35 De forma anloga a como se hizo en la Seccin 10.3.1, pgina 297 con el campo de pendientes, aunque en este caso
slo eran rayitas sin direccin.
36 El vector velocidad d~
x/dt del movimiento de una partcula es tangente a la trayectoria en cada punto.
37 Vrtice del vector ~
x.

Clases de lgebra

Pedro Jos Hernando Oter

10.7. Sistemas Dinmicos

317

10.7.5. Separatrices
Definicin 10.24 (Separatrices)
Las separatrices son trayectorias particulares que separan el plano de fases en regiones de
comportamiento similar.

En el siguiente ejemplo de plano de fases de un sistema dinmico, se puede observar el conjunto de


trayectorias y dos separatrices que distinguen cuatro tipos de comportamiento.
Los sistemas dinmicos bidimensionales del tipo:

x2

d~x
= A~x
dt
se pueden entender como la evolucin temporal de un
determinado vector de estado ~x siguiendo unas reglas
dadas por la matriz A asociada al sistema, de forma
A~x. En este caso, las separatrices son trayectorias que
mantienen constante su direccin ~v en el plano de fases,
siendo por tanto lneas rectas que pasan por el origen y
cumplen la condicin:

x1

A~v = ~v
coincidiendo por tanto con la direccin de los
autovectores de la matriz A.
Esquemticamente podemos entender el proceso pensando en un vector de entrada ~v que en un
tiempo infinitesimal cambia al vector A~v . Si la direccin del vector coincide con la direccin de
algn autovector, esta direccin permanece constante en el tiempo. En funcin del signo del autovalor
asociado al autovector, el sentido de la trayectoria permanecer o cambiar.

>0

A~v

~v

<0

~v

A~v

La direccin de las separatrices est dada por los autovectores de la matriz A que define el
SEDOC y las lneas en s mismas son los autoespacios 38 asociados.
El sentido de las separatrices depende del signo del autovalor asociado a cada autovector. Si
> 0 la trayectoria sale del origen y si < 0 la trayectoria entra al origen.

38 Ver

la Definicin 8.4, pgina 230.

Pedro Jos Hernando Oter

Clases de lgebra

318

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.27. Calcular los puntos


siguiente SEDOC:

0
x1 = x1 + 2x2
d~x

;
=
0
dt

x = 4x + 3x
2

crticos, el campo de direccin y las separatrices del

dx1

dt
1

=
4

dx2
dt

2
3



x1
x2

= A~x

A=

1
4

2
3

Solucin: Los puntos crticos se obtienen resolviendo el SEL:



x1 + 2x2 = 0
4x1 + 3x2 = 0
cuya nica solucin (punto crtico) es (xc1 , xc2 ) = (0, 0) .
El campo de direccin se puede representar en el plano fase x1 x2 , donde en cada punto (x1 , x2 )
se dibuja una flecha con pendiente dada por:
~v = [x1 + 2x2 , 4x1 + 3x2 ]

Las separatrices se pueden determinar calculando los autovalores y autovectores de la matriz A:


1 = 5, 2 = 1, ~v1 = [1, 2] , ~v2 = [1, 1]
Por tanto las separatrices son rectas que pasan por el origen y tienen pendientes:
m1 =
x2

2
=2
1

m2 =
x2

x1

Campo de direccin

1
= 1
1
x2

x1

Separatrices

x1

Trayectorias

Podemos comprobar como las separatrices poseen los siguientes sentidos:


Separatriz 1: Como 1 > 0, su sentido es saliendo del origen.
Separatriz 2: Como 2 < 0, su sentido es entrando al origen.
Autovalor Nulo
Un autovalor nulo indica que no existe la separatriz correspondiente a su autovector.

Clases de lgebra

Pedro Jos Hernando Oter

10.7. Sistemas Dinmicos

319

Ejemplo 10.28. Calcular el campo de direccin y las isoclinas del siguiente SEDO lineal:

dx1
dx1





dt = 3x1

d~x
3 0
x1
3 0
dt
;
=
= A~x ;
A=
=
0 0
x2
0 0

dt
dx

dx2
2

= 0
dt
dt

Solucin: Los autovalores de A son 1 = 0 y 2 = 3 y los autovectores correspondientes son


~v1 = [0, 1] y ~v2 = [1, 0]. Como podemos observar en el campo de direccin mostrado abajo, slo
existe una separatriz correspondiente al autovalor 2 = 3, (recta y = 0).
x2

x1

Ejemplo 10.29. Calcular los puntos crticos del Ejemplo 10.28.


Solucin: Tenemos que resolver el SEL:


3x1
0

Cuya solucin son los puntos x1 = 0, x2 = t t


x = 0) son puntos crticos del sistema.

= 0
= 0

R. Por tanto todos los puntos (0, t) (eje vertical

Autovalores Complejos
Los autovalores complejos indican que no existen separatrices. Las trayectorias39 en el plano de fases
pueden ser curvas cerradas (elipses) o abiertas (espirales).

Nota 10.2.

La ecuacin paramtrica de una elipse centrada en el origen es:



x = a cos(rt)
y = b sin(rt)

donde a y b son los semiejes de la elipse en los ejes de coordenadas x e y respectivamente, r hace referencia a la velocidad
de giro y t es el parmetro.
De forma general, una elipse girada o una espiral (en funcin de los valores a, b, c y d), tendr una ecuacin paramtrica
del estilo:

x = a cos(rt) + b sin(rt)
y = c cos(rt) + d sin(rt)
39 En la Seccin 10.8.2, pgina 324 se ver informacin ms detallada sobre la forma de las trayectorias en el caso de
autovalores complejos.

Pedro Jos Hernando Oter

Clases de lgebra

320

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Ejemplo 10.30. Calcular el plano de fases del SEDOC dado en el Ejemplo 10.24:
 0
x = x y
y 0 = 2x y
Solucin: En este caso los autovalores y autovectores eran valores complejos:

1 = 1 + i 2

2 = 1 i 2

~v1 =
~v2 =




1
0
1
0




+i

+i




2
0
2

Siendo las ecuaciones de las trayectorias (solucin general) obtenidas:









x(t)
2
sen t 2
cos t
X(t) =
+ c2 et
= c1 et
y(t)
2 sen t 2
2 cos t 2
El cual corresponde a espirales centradas en el origen.

x2

x1

Generalmente la representacin precisa del plano de fases suele ser bastante costosa
computacionalmente y no suele ser necesaria. Mucho ms interesante resulta obtener una
representacin aproximada pero que d una idea clara del comportamiento de las soluciones del
sistema.
Esta representacin aproximada, con un coste computacional mucho menor, se puede obtener
mediante un anlisis de la estabilidad del SEDO, como se estudiar en la siguiente seccin.

Clases de lgebra

Pedro Jos Hernando Oter

10.8. Estabilidad de un SEDO

321

10.8. Estabilidad de un SEDO


La mayora de los SEDO de inters prctico corresponden a sistemas dinmicos complicados,
generalmente no lineales, donde por lo general no es posible encontrar soluciones en trminos de
funciones elementales. En estos casos, se puede obtener informacin muy valiosa sobre la naturaleza
geomtrica de las soluciones de los sistemas.
El concepto de estabilidad y el anlisis de la misma de un SEDO permite realizar esta labor.
Aunque la definicin matemtica de la estabilidad de un SEDO, que se ver ms adelante, es algo
complicada, conceptualmente es ms fcil de comprender.
La estabilidad de un SEDO se puede entender como la dependencia de la solucin de un PVI respecto
a las condiciones iniciales.
De forma intuitiva podemos ver la estabilidad de la siguiente forma. Dado el SEDO de primer orden:
 0
X (t) = F (t, X)
Solucin

X = (t)
X(t0 ) = X0
definido para t t0 . Se dice que la solucin (t) es estable si para otros valores X1 suficientemente
prximos a X0 , la solucin del PVI:
 0
X (t) = F (t, X)
X(t0 ) = X1
se mantiene prxima a (t).

X1

X0

t0

x(t)

y(t)

[x(t0) , y(t0)]

En la grfica superior se muestra la interpretacin grfica del concepto de estabilidad para el caso
bidimensional (SEDO 2 2):
 0
x = f1 (t, x, y)
y 0 = f2 (t, x, y)
donde los valores X0 corresponden a una solucin con valores iniciales x(t0 ) = x0 , y(t0 ) = y0 , y X1 a
otras soluciones con valores iniciales x(t0 ) = x1 , y(t0 ) = y1 .
Los trminos  y aparecen en la definicin matemtica de estabilidad que damos a continuacin.

Pedro Jos Hernando Oter

Clases de lgebra

322

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Definicin 10.25 (Estabilidad)


Sea el SEDO:

X 0 (t) = F (t, X)

Se dice que una solucin X(t) = (t; t0 , X0 ) es estable si :


> 0 (, t0 ) > 0 : ||X1 X0 || < (, t0 )

||(t; t0 , X0 )(t; t0 , X1 )|| < ,

t t0

En caso contrario, se dice que la solucin es inestable.

10.8.1. Tipos de Estabilidad y Soluciones de Sistemas Dinmicos


Definicin 10.26 (Estabilidad Uniforme y Asinttica)
Si el valor de slo depende del y no del tiempo inicial t0 , se dice que la solucin es
uniformemente estable.
Un solucin se dice que es asintticamente estable si es estable y adems:
lim ||(t; t0 , X0 ) (t; t0 , X1 )|| = 0

Nota 10.3. En el campo de los sistemas dinmicos, el concepto importante suele ser el de estabilidad asinttica, la
cual asegura que toda seal de entrada acotada produce una respuesta tambin acotada.

La solucin de un sistema dinmico bidimensional pertenecen a alguno de los siguientes tres tipos
bsicos:
Punto Crtico: Representando por un punto constante del plano fsico.
Curva plana sin ningn corte.
Solucin peridica o ciclo, la cual est representada por una curva cerrada en el plano fsico.

y(t)
Trayectoria sin cortes
Ciclo
Punto Crtico

x(t)

Clases de lgebra

Pedro Jos Hernando Oter

10.8. Estabilidad de un SEDO

323

El estudio de la estabilidad de un SEDO permite conocer el comportamiento cualitativo de sus


soluciones.
Sea un SEDOC bidimensional:

X 0 (t) = AX(t)

con solucin general40 :


X(t) = c1~v1 e1 t + c2 e2 t [~v21 cos 21 t + ~v22 sen 22 t] + tc3~v3 e3 t
Estudiemos la estabilidad de una solucin cualquiera X0 , la cual tendr unos determinados cij ,
comparndola con otra solucin X1 con unas constantes c0ij .
La distancia entre ellas ser:


||X0 X1 || = ~v1 e1 t (c1 c01 ) + e2 t [~v21 cos 21 t + ~v22 sen 22 t](c2 c02 ) + t~v3 e3 t (c3 c03 )
Para que X0 sea estable:

||X0 X1 || M (t0 )

siendo M (t0 ) un determinado valor finito. Esto slo ser posible si se cumplen estas dos condiciones:
lim ei t <
t

i 0

lim te3 t < Para que esto se produzca se debe cumplir alguna de estas dos condiciones:
t

3 < 0

Si 3 = 0 su multiplicidad debe ser uno para que no aparezcan trminos en t{. . .}.
Estabilidad y Estabilidad Uniforme
La condicin necesaria y suficiente para que un SEDOC sea estable 41 es:
La parte real de todos los autovalores de la matriz A debe ser cero o negativa: i 0
En caso de que alguno sea cero, su multiplicidad debe ser simple.
Si se cumple, la estabilidad ser adems uniforme.

Nota 10.4.

En caso contrario, el sistema ser inestable, es decir, todas sus soluciones sern inestables.

Estabilidad Asinttica
La condicin necesaria y suficiente para que un SEDOC sea asintticamente estable es que la parte
real de todos los autovalores de la matriz A debe ser negativa: i < 0.

Nota 10.5.

En caso contrario, el sistema ser uniformemente estable o inestable.

40 Correspondientes a todas las posibles soluciones reales o complejas correspondientes al caso bidimensional, como
se vio en la Seccin 10.6.1, pgina 305.
41 Es decir, que todas sus soluciones lo sean.

Pedro Jos Hernando Oter

Clases de lgebra

324

TEMA 10: Introduccin a las Ecuaciones Diferenciales

10.8.2. Anlisis de la Estabilidad


Los pasos a seguir para analizar la estabilidad de un sistema son:
1. Se calculan los k puntos crticos del sistema
~ c = [Xc1 , . . . , Xck ]
X
2. Se determina la estabilidad de cada uno de ellos, teniendo en cuenta que todas las trayectorias
del plano fase tendrn el mismo tipo de estabilidad.
3. Se dibuja el plano fase de los resultados.
En las siguiente grfica se muestran los tres tipos bsicos de puntos crticos en base a su estabilidad.
X0
X0

X0
Xc

Xc

Punto Crtico
Asintticamente Estable

Xc

Punto Crtico
Estable

Punto Crtico
Inestable

Clculo de la Estabilidad de un Sistema


Sea el SEDOC bidimensional:
 0
x = a1 x + b1 y
y 0 = a2 x + b2 y

con punto crtico (xc , yc ):

x0
y0

a1
a2

b1
b2



x
y

X 0 = AX

a1 xc + b1 yc = 0
a2 xc + b2 yc = 0

Por simplicidad, vamos a suponer que (xc , yc ) = (0, 0) es la nica solucin del sistema42 . Vamos a
calcular los autovalores y autovectores de la matriz A asociada al sistema:
Autovalores (z1 , z2 )


a1 z

a2


b1
= (a1 z)(b2 z) a2 b1 = 0
b2 z

Llamando a la traza de la matriz A y a su determinante se tiene:


z2

(a1 + b2 ) z

(a1 b2 a2 b1 ) =

= tr(A)
z2 z + = 0
42 Al

= det(A)


2 4
z1 = 1 + i1
z=
=
z2 = 2 + i2
2

ser un sistema homogneo, la solucin nula siempre ser solucin.

Clases de lgebra

Pedro Jos Hernando Oter

10.8. Estabilidad de un SEDO

325

Autovectores (~v1 , ~v2 )


z1
z2




a 1 z1
a2

b1
b2 z1

a 1 z2
a2

b1
b2 z2




u1
v1
u2
v2




=
=




0
0
0
0




~v1 = (u1 , v1 )
~v2 = (u2 , v2 )

En funcin de los autovalores, el punto crtico y todas las trayectorias del plano de fases del sistema
sern:
Inestables: Si j > 0 z1 = z2 = 0
Uniformemente Estables: Si j < k = 0
Asintticamente Estables: Si 1,2 < 0
Como:

2 4
2
2 4 = 0 si =
2
4
los distintos tipos de soluciones se producirn en funcin de los valores de y producindose
diferentes casos que se pueden representar en una grfica generando diferentes zonas.
z=

Caso I: Autovalores Reales Distintos ( 2 4 > 0)


1. 2 < 1 < 0 Ambos autovalores negativos ( < 0 , > 0).
2. 0 > 2 < 1 Ambos autovalores positivos ( > 0 , > 0).
3. 2 < 0 < 1 Un autovalor negativo y otro positivo ( < 0).

2 < 4

2 = 4

Caso II: Autovalores Reales Repetidos ( 2 4 = 0)


1. Dos autovectores linealmente independientes (~v1 , ~v2 ).
2. Un nico autovector linealmente independiente (~v1 ).
Caso III: Autovalores Complejos ( 2 4 < 0)
1. Races imaginarias puras ( = 0).
2. Parte real distinta de cero ( 6= 0).

2 > 4

Vamos a analizar cada caso por separado.


Caso I: Autovalores Reales Distintos ( 2 4 > 0)

La solucin general ser de la forma:

X = c1~v1 e1 t + c2~v2 e2 t = e1 t [c1~v1 + c2~v2 e(2 1 )t ]


Hay tres posibilidades:
Caso I-1: 2 < 1 < 0 Ambos autovalores negativos ( < 0 , > 0)
Nodo Estable : punto crtico con dos autovalores negativos.
Caso I-2: 0 > 2 < 1 Ambos autovalores positivos ( > 0 , > 0)
Nodo Inestable : punto crtico con dos autovalores positivos.

Pedro Jos Hernando Oter

Clases de lgebra

326

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Caso I-3: 2 < 0 < 1 Un autovalor negativo y otro positivo ( < 0)


Punto Silla : punto crtico con un autovalores positivo y negativo.

y(t)

y(t)

v1
v2

y(t)

v1
v2

v1
v2

x(t)

x(t)

x(t)

Nodo Estable

Nodo Inestable

Punto Silla

Caso II: Autovalores Reales Repetidos ( 2 4 = 0)

Hay dos posibilidades en funcin del nmero de autovectores asociados al autovalor.


Caso II-1: Dos autovectores linealmente independientes (~v1 , ~v2 ).
La solucin general ser de la forma:
X = c1~v1 e1 t + c2~v2 e1 t = e1 t [c1~v1 + c2~v2 ]
El nico autovalor puede ser:
Negativo (1 = /2 < 0): Se denomina Nodo Estable Degenerado o Impropio.
Positivo (1 = /2 > 0): Se denomina Nodo Inestable Degenerado o Impropio.
y(t)
v1

y(t)
c1v1 +c2 v2

v1

v2

c1v1 +c2 v2
v2

x(t)

Nodo Estable Degenerado

x(t)

Nodo Inestable Degenerado

Caso II-2: Un nico autovector linealmente independiente (~v1 ).

Clases de lgebra

Pedro Jos Hernando Oter

10.8. Estabilidad de un SEDO

327

La solucin general ser de la forma:


X = c1~v1 e1 t + c2 (~v1 te1 t + ~ue1 t ) = te1 t [c2~v1 +

c1
c2
~v1 + ~u]
t
t

Al igual que antes, el nico autovalor puede ser:


Negativo (1 = /2 < 0): Se denomina Nodo Estable Degenerado.
Positivo (1 = /2 > 0): Se denomina Nodo Inestable Degenerado.
y(t)

y(t)

v1

v1
x(t)

x(t)

Nodo Estable Degenerado

Nodo Inestable Degenerado

Caso III: Autovalores Complejos ( 2 4 < 0)

Los autovalores y autovectores sern complejos conjugados de la forma:


r1 = + i

~v = ~u + i~s

r2 = i

~v = ~u i~s

La solucin general se puede expresar como:

X = c1 et [~u cos t ~s sen t] + c2 et [~s cos t + ~u sen t]


Hay dos posibilidades:
Caso III-1: Races imaginarias puras ( = 0)
En este caso = 0 y las soluciones son peridicas con periodo 2/ de la forma:
X = c1 [~u cos t ~s sen t] + c2 [~s cos t + ~u sen t]
Las trayectorias tienen forma de elipse, denominndose el punto crtico (0, 0) Centro.
El tipo de estabilidad es uniforme.
Todas las elipses se recorren en el mismo sentido43 .
43 El

de las manecillas del reloj o el opuesto.

Pedro Jos Hernando Oter

Clases de lgebra

328

TEMA 10: Introduccin a las Ecuaciones Diferenciales

Caso III-2: Parte real distinta de cero ( 6= 0)

En este caso 6= 0 y aparecern centros de espiral con forma elptica debido a los efectos de la
exponencial.
Hay dos tipos de punto crtico:
Punto Espiral Estable: si < 0.
Punto Espiral Inestable: si > 0.
y(t)

y(t)

y(t)

x(t)

x(t)

x(t)

Punto Espiral Inestable

Punto Espiral Estable

Centro

Resumen
2 < 4

Espiral
Estable

Nodo Estable
Degenerado

2 = 4

Espiral
Inestable

Centro

Nodo Inestable
Degenerado

Punto Silla

2 > 4

La terminologa utilizada para designar los distintos tipos de puntos crticos es amplia. En la siguiente
tabla se muestran algunos de los nombres ms utilizados.

Clases de lgebra

Pedro Jos Hernando Oter

10.8. Estabilidad de un SEDO

329

Trmino

Otros

Punto Crtico

Punto de Equilibrio,
punto singular, punto estacionario,
punto de reposo

Centro de Espiral

Foco, punto focal, centro de torbellino

Nodo Estable,
Punto Espiral Estable

Atractor, Sumidero

Nodo Inestable,
Punto Espiral Inestable

Repulsor, Fuente

Ejemplo 10.31. Representar aproximadamente el plano fase del siguiente sistema:




1 1
0
X =
X
4 1
Punto Crtico:
X0 =

  

x0 (t)
0
1
=
=
y 0 (t)
0
4


xc + yc = 4
=
4xc + yc = 0

Autovalores y Autovectores:

r =3

1
Solucin General:

~v1 =

r2 = 1

x(t)
y(t)

= c1

~v2 =

1
2

e3t + c2

1
1

1
2



1
2


xc
yc

0
0

xc = 0
yc = 0

1
2

et

Plano Fase
y(t)

x(t)

v1
v2

1
0.5

x(t)

-2
-2

Punto Silla

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

APNDICES

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Temas de Repaso
Contenido
A.1 Trigonometra . . . . . . . . . . . . . . . . . . . . . . . . . .
A.1.1 Medida de ngulos: Radianes . . . . . . . . . . . . .
A.1.2 Funciones Trigonomtricas . . . . . . . . . . . . . . .
A.2 Productos Notables . . . . . . . . . . . . . . . . . . . . . . .
A.3 Sumatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.4 Binomio de Newton . . . . . . . . . . . . . . . . . . . . . . .
A.5 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.5.1 Regla de Ruffini . . . . . . . . . . . . . . . . . . . . .
A.6 Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.6.1 Valor Absoluto . . . . . . . . . . . . . . . . . . . . .
A.6.2 Distancia en
. . . . . . . . . . . . . . . . . . . . .
A.6.3 Distancia en 2 . . . . . . . . . . . . . . . . . . . . .
A.6.4 Distancia en 3 . . . . . . . . . . . . . . . . . . . . .
A.7 Vectores en el Plano y en el Espacio . . . . . . . . . . . . . .
A.7.1 Vectores de Posicin . . . . . . . . . . . . . . . . . .
A.7.2 Vectores que no son de posicin: Vectores Generales .
A.7.3 Vectores Elementales . . . . . . . . . . . . . . . . . .
A.8 Vectores en Espacios n , n y n . . . . . . . . . . . . . .
A.8.1 Caracterizacin de Vectores . . . . . . . . . . . . . .
A.9 Frmulas Geomtricas sobre Distancias . . . . . . . . . . . .
A.9.1 Producto Escalar y Vectorial en 3 . . . . . . . . . .
A.9.2 Distancia de un Punto a un Recta en 2 . . . . . . .
A.9.3 Distancia entre dos Rectas paralelas en 2 . . . . . .
A.9.4 Distancia de un Punto a un Plano en 3 . . . . . . .
A.9.5 Distancia entre dos Planos Paralelos en 3 . . . . .
A.9.6 Distancia de un Punto a un Recta en 3 . . . . . . .
A.9.7 Distancia entre dos Rectas paralelas en 3 . . . . . .
A.10 Introduccin a las Funciones . . . . . . . . . . . . . . . . . .
A.10.1 Tipos de Funciones . . . . . . . . . . . . . . . . . . .
A.10.2 Representacin Grfica de Funciones Reales . . . . .
A.10.3 Tipos de Funciones . . . . . . . . . . . . . . . . . . .
A.10.4 Funcin Inversa (o Recproca) f 1 (x) . . . . . . . . .
A.10.5 Composicin de Funciones . . . . . . . . . . . . . . .

R
R
R

R C

R
R
R
R
R
R

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

334
334
336
347
347
348
349
350
353
353
353
353
354
354
355
355
356
357
358
358
358
358
359
359
359
359
360
361
361
362
363
364
365

333

334

Temas de Repaso

A.1. Trigonometra
A.1.1. Medida de ngulos: Radianes

En diversos campos de las Matemticas, los ngulos conviene medirlos en radianes.


Definicin A.1 (Radin)
Un radin es el ngulo central de una circunferencia que abarca un arco cuya longitud es el
radio.
r

1 radin =

360
grados 57.3o
2

= 1 radin

Relacin Grados-Radianes
2 radianes = 360

3
4
5
6

2
rad

120

90

150

225
240
5
4
4
3

(grad)
180

45
30

360
0

210
7
6

rad =

60

180

2
3

135

3600
grad

330
11
6

315
270
3
2

300
5
3

7
4

Figura A.1.: Relacin entre grados sexagesimales (marco rojo) y radianes (marco azul) de los ngulos ms usuales en
los cuatro cuadrantes.

Clases de lgebra

Pedro Jos Hernando Oter

A.1. Trigonometra

335

Ejemplo A.1. Determinar cuantos radianes son 15o y cuantos grados son

5
12

radianes.

Solucin:

15
=
rad
180
12

15o =

5
5 180
rad =
= 75o
12
12

El signo del ngulo depende del sentido del giro:


Signo positivo: sentido contrario a las agujas del reloj.

Direccin
anti-horaria (+)

Signo negativo: sentido igual a las agujas del reloj.


= +(2 )

Direccin
horaria ()

[0, ]

Ejemplo A.2. Determinar en sentido positivo el ngulo = 12


rad y en sentido negativo el
5
ngulo = 12 rad.

Solucin:
= 2

12

= 2 +

23
rad
12

5
19
=
rad
12
12

Los ngulos cuyo valor absoluto es mayor que 2 radianes (360o ) indican ms de una vuelta en una
determinada direccin.

=
2k +
= 2k

=
=

[0, 2)

Z+

Ejemplo A.3. Simplificar el ngulo = 63 rad y el ngulo = 41


2 rad.
Solucin:
= 63 = 2 31 + = rad
=

41

= 20, 5 = 2 10 = rad
2
2
2

Pedro Jos Hernando Oter

Clases de lgebra

336

Temas de Repaso

A.1.2. Funciones Trigonomtricas


Definicin de Seno, Coseno y Tangente
Dado un tringulo rectngulo 4 ABC con su ngulo recto en C y longitudes a, b y h, como indica la
Figura A.2.
B
a

c. opuesto

sa
nu
e
t
po h
hi

C
b
c. adyacente

Figura A.2.: Triangulo rectngulo de hipotenusa h y catetos a y b.

\
Se definen la siguientes funciones trigonomtricas del ngulo agudo = BAC:
Nombre Funcin

Abreviatura

Definicin

seno

sen

cateto opuesto
hipotenusa

a
h

coseno

cos

cateto adyacente
hipotenusa

b
h

tangente

tan

cateto opuesto
sen
=
cateto adyacente
cos

a
b

Tabla A.1.:

Funciones Trigonomtricas Directas: Seno, Coseno y Tangente

Ejemplo A.4. Determinar los valores del seno, coseno y tangente correspondientes al ngulo
\ del siguiente tringulo rectngulo cuyos valores son: a = 3 y b = 4.
ABC
B
h
A

a
b

Solucin: Calculamos primero el valor de la hipotenusa aplicando el teorema de Pitgoras:


p
p

h = a2 + b2 = 32 + 42 = 25 = 5

\ y teniendo en cuenta las definiciones de la Tabla A.1 se tiene:


Por tanto, llamando = ABC
sin =

c. op.
b
4
= =
hipot.
h
5

Clases de lgebra

cos =

c. ady.
a
3
= =
hipot.
h
5

tan =

c. op.
b
4
= =
c. ady.
a
3

Pedro Jos Hernando Oter

A.1. Trigonometra

337

Valores Trigonomtricos: Seno, Coseno y Tangente


En la siguiente figura se muestran en el exterior de la circurferencia unidad, los valores trigonomtricos
seno (en negro), coseno (en azul) y tangente (en rojo) de algunos de los ngulos ms usuales.

Valores: (sen,cos,tan)

(1, 0, )

!
3 1
, , 3
2
2
!

2
2
,
, 1
2
2

!
1
3
3
,
,
2
2
3

3
4
5
6

!
3 1
, , 3
2 2
!

2
2
,
,1
2
2

2
3

90
120

60

135

30

180

!
3
3
1
,
,
2
2
3

300
270

2
2

,
,1
2
2
!

3 1
, , 3

2
2

11
6

315
240

4
3

330

225
5
4

(0, 1, 0)

360
0

210
7
6

45

150

(0, 1, 0)

!
1
3
3
,
,
2 2
3

5
3

3
2

(1, 0, )

!
3
3
1
,
,
2 2
3

7
4

2
2

,
, 1
2
2
!

3 1
, , 3

2 2

Figura A.3.: Valores trigonomtricos del seno, coseno y tangente.

Nota A.1.

Tener en cuenta que los valores de la tangente de

Pedro Jos Hernando Oter

= 90o y

3
2

= 270o son respectivamente + y .

Clases de lgebra

338

Temas de Repaso

Ejemplo A.5. Determinar los siguientes valores trigonomtricos, donde los ngulos estn
expresados en radianes.
a) sen

5
3

b) cos

3
4

c) tan

4
3

Solucin: Utilizando los valores de la Figura A.3, se tiene:

5
rad = 300o = rad = 60o
a)
3
3

5
3
sen
=
3
2

3
5
b)
rad = 135o =
rad = 225o
4
4

2
3
cos
=
4
2

4
2
rad = 240o =
rad = 120o
3
3

tan

c)

4
= 3
3

Determinacin Simplificada
Recordar todos los valores de la Figura A.3 no es fcil. Resulta ms prctico conocer una pequea
lista de ngulos simples del primer cuadrante y mediante ellos determinar otros valores del resto de
cuadrantes.
Primer Cuadrante ([0 , 90 ] = [0, /2])
Vamos a ver una pequea tabla de valores del seno, coseno y tangente de un conjunto de valores
[0, /2]. Con ellos se puede obtener fcilmente el valor de otros ngulos del resto de cuadrantes.
/2

/3

/4
/6

Grados
Radianes

0o
0

sen
cos
tan

0
1
0

Primer Cuadrante
30o
45o
60o
/6
/4
/3

3/2
1/2
2/2
2/2
1/2
3/2

1/ 3 = 3/3
1
3

90o
/2
1
0
+

Segundo Cuadrante ([90 , 180 ] = [/2, ])


y
(x, y)

(x, y)

sen( ) = sen()

Clases de lgebra

cos( ) = cos()

x
x

tg ( ) = tg ()

Pedro Jos Hernando Oter

A.1. Trigonometra

339

Tercer Cuadrante ([180 , 270 ] = [, 3/2])


y
(x, y)
+
x
y

x
x

(x, y)

sen( + ) = sen()

cos( + ) = cos()

tg ( + ) = tg ()

Cuarto Cuadrante ([270 , 360 ] = [3/2, 2] = [0, /2])


y
(x, y)
x

y
x
y
(x, y)

sen() = sen()

cos() = cos()

tg ( ) = tg ()

Ejemplo A.6.
Determinar los siguientes valores trigonomtricos, relacionando el correspondiente ngulo con
un valor en el primer cuadrante.
a) sen

11
6

b) cos

3
4

c) tan

4
3

Solucin: Utilizando las relaciones vistas en esta seccin se tiene:





 

11
12

1
a) sen
= sen

= sen 2
= sen
= sen
=
6
6
6
6
6
6
2



3

2
b) cos
= cos
= cos
=
4
4
4
2





c) tan
= tan +
= tan
= 3
3
3
3

Utilizando los valores de la Figura A.3 se pueden verificar los resultados.

Pedro Jos Hernando Oter

Clases de lgebra

340

Temas de Repaso

Representacin Grfica de las Funciones Trigonomtricas Directas


y
y = sin x
1

2 7 3 5
4
2
4

3 2
4

3
4

5
4

3
2

7
4

3
2

7
4

3
2

7
4

1
Grfica de la funcin seno.

Figura A.4.:

y
y = cos x
1

2 7 3 5
4
2
4

3 2
4

3
4

5
4

1
Grfica de la funcin coseno.

Figura A.5.:

8
6
4
2

2 7 3 5
4
2
4

3 2
4

y = tan x
0

3
4

x
5
4

2
4
6
8

Figura A.6.:

Clases de lgebra

Grfica de la funcin tangente.

Pedro Jos Hernando Oter

A.1. Trigonometra

341

Inversas de las Funciones Trigonomtricas


Las inversas de las funciones trigonomtricas seno, coseno y tangente definen unas nuevas funciones
denominadas cosecante, secante y cotangente respectivamente.
Basndonos en los datos de la Figura A.2 estas funciones se definen de la siguiente forma:
Nombre Funcin

Abreviatura

Definicin

cosecante

csc

hipotenusa
1
=
= (sen )1
cateto opuesto
sen

h
a

secante

sec

hipotenusa
1
=
= (cos )1
cateto adyacente
cos

h
b

cotangente

cot

cateto adyacente
1
=
= (tan )1
cateto opuesto
tan

b
a

Tabla A.2.:

Inversas de las Funciones Trigonomtricas.

Representacin Grfica de las Inversas de las Funciones Trigonomtricas


y
4
y = csc x

3
2
1
2 7 3 5
4
2
4

3 2
4

3
4

x
5
4

3
2

7
4

1
2
3
4

Figura A.7.:

Pedro Jos Hernando Oter

Grfica de la funcin cosecante.

Clases de lgebra

342

Temas de Repaso
y
4
y = sec x

3
2
1
2 7 3 5
4
2
4

3 2
4

3
4

5
4

3
2

7
4

1
2
3
4

Figura A.8.:

Grfica de la funcin secante.

y
8
6
4
2
2 7 3 5 3 2 4
4
2
4
4
2

y = cot x
0

3
4

5
4

3
2

7
4

4
6
8

Figura A.9.:

Grfica de la funcin cotangente.

Nota A.2. Las funciones inversas de las funciones trigonomtricas no existen en todos aquellos casos donde la funcin
directa es 0.

Clases de lgebra

Pedro Jos Hernando Oter

A.1. Trigonometra

343

Ejemplo A.7. Determinar la cosecante, la secante y la cotangente del ngulo =

7
rad.
6

Solucin: Utilizando los valores de la Figura A.3, se tiene:


a) sen

7
1
=
6
2

csc

3
7
b) cos
=
6
2

7
2
2 3
sec
= =
6
3
3

7
3
1
c) tan
=
=
6
3
3

7
= 2
6

cot

7
= 3
6

Funciones Inversas de las Funciones Trigonomtricas


Las funciones inversas de las funciones trigonomtricas de un determinado valor x, corresponden con
los ngulos que tienen por seno, coseno o tangente dicho valor x.
La siguiente tabla define las funciones inversas ms usuales.
Nombre Funcin

Abreviatura

arcoseno

arcsen(x) = sen1 (x) =

sen = x

x [1, 1]

arcocoseno

arccos(x) = cos1 (x) =

cos = x

x [1, 1]

arcotangente

arctan(x) = tan1 (x) =

tan = x

Tabla A.3.:

Consecuencia

Dominio

Funciones Trigonomtricas Inversas.

Ejemplo A.8. Determinar los siguientes valores de las funciones trigonomtricas inversas:
a) arcsen

1
2

b) arccos

1
2

c) arctan 3

Solucin: Utilizando los valores de la Figura A.3, comprobamos que hay dos posibles
soluciones simples en cada caso. La solucin apropiada depender de consideraciones geomtricas
adicionales.




1
5
1
2
a) sen =
= =
,
;
b) cos =
= =
,
2
6 6
2
3 3
c) tan =

3 =

Pedro Jos Hernando Oter

4
,
3 3

Clases de lgebra

344

Temas de Repaso

Representacin Grfica de las Funciones Trigonomtricas Inversas


y
y = sen1 x

y = sen x

1
2

y=x

Grfica de la funcin arcoseno.

Figura A.10.:

y
y = cos1 x

y = cos x
2

y=x

Figura A.11.:

Clases de lgebra

Grfica de la funcin arcoseno.

Pedro Jos Hernando Oter

A.1. Trigonometra

345
y
y = tan x

y = tan1 x

1
y=x

2
3

Figura A.12.:

Grfica de la funcin arcotangente.

Relaciones Trigonomtricas Bsicas

a2 + b2 = c2

(Teorema Pitgoras)

sen2 x + cos2 x = 1

sen(x y) = sen x cos y cos x sen y

sen(2x) = 2 sen x cos x

cos(x y) = cos x cos y sen x sen y

cos(2x) = cos2 x sen2 x

tan(x y) =

tan(2x) =

1
sen =
2

1
tan =
2

tan x tan y
1 tan x tan y

Pedro Jos Hernando Oter

1 cos
2

1
cos =
2

1 cos
1 + cos

tan

2 tan x
1 tan2 x

1 + cos
2

1
1 cos
=
=
2
sen

sen
1 + cos

Clases de lgebra

346

Temas de Repaso

Ejemplo A.9. Determinar los siguientes valores:


a) sen

12

b) cos

5
12

c) tan

7
12

Solucin: Utilizando las relaciones trigonomtricas vistas anteriormente se tiene:

1
=
, utilizando la frmula del seno del ngulo mitad se tiene:
12
26
s
s
r
r

1 cos
1 cos (/6)
1 3/2
2 3

sen =
=
sen
=
=
=
2
2
12
2
2
4

a) Como

El signo depende del cuadrante donde se encuentre el ngulo . Como /12 = 15o est en
el primer cuadrante y ah el seno siempre es positivo, se tiene:

sen
=+
12

b) Como

2 3
2

5
6

=

= , utilizando la frmula del coseno de una diferencia se tiene:


12
12 12
2 12
cos(x y) = cos x cos y + sen x sen y

cos(/2 /12) = cos(/2) cos(/12) + sen(/2) sen(/12) = 0 cos(/12) + 1 sen(/12) =


p

2 3
= + sen(/12) = +
2
donde el valor de sen(/12) se ha obtenido del apartado a).
c) Como

7
5
=
, utilizando la frmula de la tangente de una diferencia se tiene:
12
12

tan(x y) =
=

tan x tan y
1 + tan x tan y

tan( 5/12) =

tan() tan(5/12)
=
1 + tan() tan(5/12)

0 tan(5/12)
sen(5/12)
sen(5/12)
= tan(5/12) =
= p
=
1 + 0 tan(5/12)
cos(5/12)
1 sen2 (5/12)
p

3
= p
=
42+ 3

2 3

2+ 3

donde el valor de sen(/12) se ha obtenido del apartado a).

Clases de lgebra

Pedro Jos Hernando Oter

A.2. Productos Notables

347

A.2. Productos Notables

(a + b)(a b) = a2 b2
(a + b)2 = a2 + 2ab + b2

(a b)2 = a2 2ab + b2

(a + b)3 = a3 + 3a2 b + 3ab2 + b3

(a b)3 = a3 3a2 b + 3ab2 b3

A.3. Sumatorios
P

Al smbolo

La expresin

se le denomina sumatorio y representa una suma de trminos.


m
X

se lee sumatorio desde j igual a 1 hasta m.

j=1

A la variable j se la denomina variable muda y puede ser cualquiera.

Ejemplo A.10.
Sumatorio simple:

n
X
j=1

Pj = P1 + P2 + + Pj

Independencia de la variable muda:


n
X

Pj =

j=1

n
X

Pi =

n
X

=1

i=1

Variables independientes del sumatorio:


m
X
j=1

ak xj = ak x1 + ak x2 + + ak xm = ak (x1 + x2 + + xm ) = ak

m
X

xm

j=1

Sumatorios combinados:
n X
m
X

a=5 b=2

sa wb =

n
X

a=5

sa

m
X

b=2

wb

n
X

a=5

sa (w2 + w1 + + wm ) =

= a5 (w2 + w1 + + wm ) + a6 (w2 + w1 + + wm ) + + an (w2 + w1 + + wm ) =


!
!
n
m
X
X
= (a5 + a6 + + an )(w2 + w1 + + wm ) =
sa
wb
a=5

Pedro Jos Hernando Oter

b=2

Clases de lgebra

348

Temas de Repaso

A.4. Binomio de Newton

Factorial :

Nota A.3.

(x + y) =

n! = 1 2 3 (n 1) n

Por definicin, el factorial de cero es uno: 0! = 1.

n  
X
n

k=0

 
 
 


 
n n
n n1
n n2 2
n
n n
n1
y =
x +
x
y+
x
y ++
xy
+
y =
0
1
2
n1
n

nk k

= xn + nxn1 y +

Nmeros Combinatorios :

 
n
n!
=
k
(n k)! k!

n(n 1) n2 2
x
y + + nxy n1 + y n
2!

Ejemplo A.11. Utilizando el binomio de Newton, desarrollar la siguiente potencia:


(1 + x)5
Solucin:
 
 
 
 
 
 
5  
5  
X
5 5k k X 5 k
5 0
5 1
5 2
5 3
5 4
5 5
x +
x +
x +
x +
x =
1
x =
x =
x +
(1+x) =
k
k
0
1
2
3
4
5
5

k=0

k=0

5!
5!
5! 2
5! 3
5! 4
5! 5
+
x+
x +
x +
x +
x = 1 + 5x + 10x2 + 10x3 + 5x4 + x5
5!0! 4!1!
3!2!
2!3!
1!4!
0!5!

Ejemplo A.12. Encontrar el valor del coeficiente del trmino xy 2 z 7 de la siguiente potencia
(3x y + 2z)10
Solucin: Como en la frmula del binomio de Newton slo aparecen dos trminos y aqu
tenemos tres, vamos a agrupar los dos primeros y aplicamos dos veces dicha frmula.
(3x y + 2z)10 = [(3x y) + 2z]10 =

" k  
10   X
X
10
k

k=0

i=0

10  
X
10
(3x y)k (2z)10k =
k

k=0

ki

(3x) (y)

(2z)10k

Como la potencia de z tiene que ser 7, por tanto 10 k = 7 y k = 3. Por otra parte como la
potencia de x debe ser 1, i = 1 y de ah la potencia de y ser k i = 3 1 = 2 como indica el
enunciado. Por tanto:
  
10 9 8
10 3
10! 3!
3 27 xy 2 z 7 =
384 xy 2 z 7 = 138240 xy 2 z 7
(3x)(y)2 (2z)7 =
3
1
7! 3! 2! 1!
2

Clases de lgebra

Pedro Jos Hernando Oter

A.5. Polinomios

349

A.5. Polinomios

Definicin A.2 (Polinomio)


Un polinomio es una combinacin lineal 1 de productos de potencias enteras de una o ms
varias variables indeterminadas.

P (x) = an xn + an1 xn1 + . . . + a1 x + a0

a0
an

Monomio

:
:
:
:

ai

Grado del polinomio (si an 6= 0)


Trmino independiente
Coeficiente principal o director
Cada uno de los trminos ai xi

Divisibilidad de Polinomios

Se dice que un polinomio P (x) es divisible por otro polinomio Q(x) si existe un determinado
polinomio C(x) tal que:
P (x) = Q(x) C(x)
Generalizacin
P (x) = Q(x) C(x) + R(x)

grado P (x) grado Q(x)


Grado R(x) < grado Q(x)

Dividendo

P(x)

Q(x)

Divisor

Resto

R(x)

C(x)

Cociente

Ejemplo A.13. Dividir el polinomio P (x) = 6x4 +4x2 +x4 entre el polinomio Q(x) = 2x2 1
y descomponer P (x) en base al resultado.
Solucin:
6x4 + 4x2 + x - 5
-6x4 + 3x2
0

2x2 - 1
3x2 + 7/2

7x2 + x - 5
-7x2
+ 7/2
0

x - 3/2

En base a este resultado se tiene:


P (x) = Q(x)C(x)+R(x)
1 Suma

y/o resta de trminos de primer grado.

Pedro Jos Hernando Oter


 


7
3
6x4 + 4x2 + x 4 = 2x2 1 3x2 +
+ x
2
2

Clases de lgebra

350

Temas de Repaso

A.5.1. Regla de Ruffini


La regla de Ruffini2 permite dividir fcilmente polinomios P (x) = an xn + + a0 entre monomios de
la forma Q(x) = x r donde3 r .
En estos casos la divisin:

an xn

+ an1 xn1

a1 x

xr

+ a0

se simplifica mediante el siguiente procedimiento:


1. Se trazan dos lneas a modo de ejes y se ordenan todos los coeficientes de P (x) de mayor a menor
en la parte superior, poniendo ceros en caso de que algn monomio entre an y a0 no aparezca.
El valor de r se coloca abajo en la zona izquierda, siendo positivo si Q(x) = a r y negativo si
Q(x) = a + r.
an an1 an2 a1 a0
r
2. El primer coeficiente an se baja directamente.
an

an1

an2

a1

a0

r
an
3. Se multiplica an por r y se coloca debajo de an . Posteriormente se suman ambos obtenindose
bn2 = an1 + an r
an an1 an2 a1 a0
r
an

an r
bn2

4. Se repite el paso 3 obtenindose: bn3 = an2 + bn1 r, bn4 = an3 + bn2 r, etc. hasta obtener
b = a0 + b0 r.
an an1 an2 a1 a0
r
an

an r
bn2

bn2 r
bn3

b1 r
b0

b0 r
b

5. Llamando bn1 = an , el cociente de la divisin es C(x) = bn1 xn1 + bn2 xn2 + + b1 x + b0


y el resto R(x) = b.
an
r
an

an1
an r
bn2

an2
bn2 r
bn3

a1
b1 r
b0

a0
b0 r
b

C(x) = bn1 xn1 + bn2 xn2 + + b1 x + b0


R(x) = b

6. Con estos resultados el polinomio P (x) se puede descomponer como:


P (x) = C(x)(x r) + R(x)
2 Paolo
3 El

Ruffini (1765-1822) fue un matemtico, profesor y mdico italiano.


caso ms sencillo es cuando r es un nmero entero.

Clases de lgebra

Pedro Jos Hernando Oter

A.5. Polinomios

351

Ejemplo A.14. Calcular el siguiente cociente de polinomios:


3x3

5x2

2x

x2

Solucin: Aplicando la regla de Ruffini:


5

3
2

6
1

3
Por tanto:

2 7
2
4

8
1

C(x) = 3x2 + x + 4
R(x) = 1

3x3 5x2 + 2x 7 = (3x2 + x + 4)(x 2) + 1

Ejemplo A.15. Calcular el siguiente cociente de polinomios:


3x3

5x2

2x

x+2

Solucin: Aplicando la regla de Ruffini:


3
2

Por tanto:

5
6
11

2
22
24

7
48
55

C(x) = 3x2 11x + 24


R(x) = 55

3x3 5x2 + 2x 7 = (3x2 11x + 24)(x + 2) 55

Races de un Polinomio
Se dice que r

R
R
!

R es una raz del polinomio P (x) si:

P (r) = 0.

Teorema A.1 (Teorema Fundamental del lgebra)


Todo polinomio de grado n tiene n races (reales o complejas).

Teorema A.2 (Teorema del Resto)


El resto de la divisin del polinomio P (x) por x coincide con P ().

Nota A.4.

Esto es claro, pues al efectuar la divisin tenemos:


P (x) = (x )C(x) + R(x)

Pedro Jos Hernando Oter

Si x =

P () = R

Clases de lgebra

352

Temas de Repaso

Teorema A.3
El polinomio P (x) es divisible por x si y slo si P () = 0.

Clculo de las Races de un Polinomio


Sea un polinomio P (x) con todos sus coeficientes ai enteros. Entonces:
1. Si tiene una raz entera r , sta debe ser un divisor de a0 .
2. Si tiene una raz racional r = p/q (irreducible), entonces el numerador p debe ser un divisor de
a0 y el denominador q debe ser un divisor del coeficiente principal an .
Descomposicin de un Polinomio en Factores
Si un polinomio P (x) de grado n tiene las races r1 , . . . rm , entonces se puede descomponer de la
forma:
P (x) = (x r1 )(x r2 ) (x rm )Cm (x)

donde Cm (x) es un polinomio de grado n m.

En particular si P (x) tiene tantas races reales como su grado, es decir r = m, entonces:
P (x) = an (x r1 )(x r2 ) (x rm )
siendo an el coeficiente principal.
Polinomios Irreducibles
Un polinomio se dice irreducible si no puede descomponerse en producto de dos o ms polinomios
de grado mayor o igual que uno.
Todos los polinomios de grado cero (las constantes) y de grado uno son irreducibles.
No existen polinomios irreducibles de grado mayor o igual que tres.
Los polinomios de grado dos irreducibles son los que no tienen races reales (por ejemplo
P (x) = x2 + 1).

Ejemplo A.16. En caso de ser posible, descomponer en factores el polinomio:


P (x) = x3 2x2 5x + 6
Solucin: Buscando posibles races enteras entre los divisores de 6, {6, 3, 2, 1, 1, 2, 3, 6},
encontramos que P (r) = 0 para r = {2, 1, 3}, por tanto:
P (x) = (x + 2)(x 1)(x 3)

Clases de lgebra

Pedro Jos Hernando Oter

A.6. Distancia

353

A.6. Distancia

A.6.1. Valor Absoluto


Definicin A.3 (Valor Absoluto)
Dado un nmero real x se define su valor absoluto como:

|x| =

x2 =

x
x

si
si

x0
x<0

El concepto de valor absoluto se puede generalizar para nmero complejos


de un nmero complejo:
p
z = a + bi
=
|z| = a2 + b2

C a travs del mdulo

A.6.2. Distancia en

La distancia entre dos nmeros reales se define como:

x1

x2

p
d(x1 , x2 ) = |x1 x2 | = (x1 x2 )2 =
p
= (x2 x1 )2 = |x2 x1 | = d(x2 , x1 )

Nota A.5.

(a b)2 = a2 + b2 2ab
(b a)2 = b2 + a2 2ab


=

(a b)2 = (b a)2

Ejemplo A.17.
d(2, 5) = |2 (5)| = |7| = 7

A.6.3. Distancia en
En el plano

R2

d(5, 2) = | 5 2| = | 7| = 7

R2 la distancia entre dos puntos se define como:

Y
b

y2
d

Teorema de Pitgoras

B
y2 y1

y1

x2 x1

A
x1

x2

Pedro Jos Hernando Oter

d2 = (x2 x1 )2 + (y2 y1 )2
p
d(A, B) = (x2 x1 )2 + (y2 y1 )2 =
p
= (x1 x2 )2 + (y1 y2 )2 = d(B, A)

Clases de lgebra

354

Temas de Repaso

Ejemplo A.18.
d[(1, 2), (1, 1)] =

R3

A.6.4. Distancia en
En el espacio

[1 (1)]2 + [2 (1)]2 =

4+9=

13

R3 la distancia entre dos puntos se define como:


Z

z2 z1

p
(x2 x1 )2 + (y2 y1 )2
q
d(A, B) = d21 + (z2 z1 )2 =
p
= (x1 x2 )2 + (y1 y2 )2 + (z2 z1 )2 = d(B, A)
d1 =

d1

y1 y2

x2

x1

d1

A.7. Vectores en el Plano y en el Espacio

Definicin A.4 (Vector Geomtrico)


Un vector4 geomtrico es un segmento de recta dirigido que corresponde a un
desplazamiento desde un punto A(x1 , y1 ) a otro B(x2 , y2 ).


A : punto inicial
~v = AB = [x2 x1 , y2 y1 ]
B : punto final

z2

y2
b

~v = AB
y1

z1
b

x1
b

y1

y2

x2

x2

x1

Figura A.13.: Vector geomtrico AB en el plano 2D y en el espacio 3D. En el caso del plano: A = (x1 , y1 ) y
B = (x2 , y2 ). En el caso del espacio 3D: A = (x1 , y1 , z1 ) y B = (x2 , y2 , z2 ).

4 La

palabra vector proviene de la raz latina vector, vectoris que significa que conduce.

Clases de lgebra

Pedro Jos Hernando Oter

A.7. Vectores en el Plano y en el Espacio

355

Caractersticas de los Vectores geomtricos


Los vectores geomtricos se caracterizan por tres elementos:

md

Mdulo5 : es la longitud del segmento.


Direccin: es la orientacin de la recta.

dire

Sentido: indica cual el punto inicial y el punto final.

ulo

n
cci

ido
sent

A.7.1. Vectores de Posicin


Definicin A.5 (Vector Posicin)

Se denomina vector posicin al vector geomtrico AB en el que el punto inicio es el origen


A = O = (0, 0, 0).

Es natural representar los vectores posicin utilizando coordenadas encerradas entre parntesis
cuadrados, [ ]. A las coordenadas se le denominan componentes del vector.


Plano (2D)

Espacio (3D)

=
=

(x, y)

(x, y, z)

= ~a = OA = [x, y]

= ~b = OB = [x, y, z]
z

A
b~

~a

~b

~a
~c

~c

Figura A.14.: Vectores posicin en el plano y en el espacio 3D.

A.7.2. Vectores que no son de posicin: Vectores Generales


Definicin A.6 (Vectores Generales)
Un vector se puede considerar como un ente que dirige una cierta cantidad en una cierta
direccin y sentido.

5 La

norma, (ver la Seccin 2.7.3, pgina 88), generaliza el concepto de mdulo de un vector en el espacio eucldeo.

Pedro Jos Hernando Oter

Clases de lgebra

356

Temas de Repaso

Por ejemplo, el vector ~v = [3, 2] se puede interpretar como: Estando en un punto cualquiera, muvete
3 unidades hacia la derecha y despus 2 unidades hacia arriba.
[3,

2]

[0, 2]

~v =

~v = [3, 2] = [3, 0] + [0, 2]

[3, 0]


En este sentido, los vectores geomtricos OA, BC y DE mostrados en la Figura A.7.2, corresponden
con el mismo vector (general ) [3, 2].
5

C
B

4
3
2

A
O

1
6 5 4 3 2 1
1

E
D

OA =

BC =

DE =

[3 0, 2 0]
[5 2, 5 3]
[1 (4), 2 (4)]

= [3, 2]
= [3, 2]
= [3, 2]

4
5
6

Las componentes o coordenadas de un vector son un conjunto de nmeros ordenados (pares en el


plano, triadas en el espacio, etc.), siendo su orden muy importante.
~v2 = [2, 3]

~v1 = [3, 2]

~v1 = [3, 2] 6= ~v2 = [2, 3]

1
0
0

A.7.3. Vectores Elementales


Vector nulo o cero : ~0 = [0, 0, 0]
Vector fila: ~v = [x, y, z]

x
Vector columna : ~v = y
z

Nota A.6.
El vector nulo ~0 = [0, 0, 0] no se puede dibujar, ya que corresponde con el origen.
La distincin entre vector fila y vector columna quedar clara en la formacin de matrices, (ver Tema 3).
Los vectores tienen siempre ms de una componente. Se denominan escalares a los nmeros (una nica
componente) reales o complejos.

Clases de lgebra

Pedro Jos Hernando Oter

A.8. Vectores en Espacios

Rn , Cn y Kn

A.8. Vectores en Espacios

357

Rn, Cn y Kn

Definicin A.7 (Vectores en n )


El conjunto de todos los vectores de n componentes reales se representa por

Rn = {[x1 , x2 , , xn ] :

xi

R,

Rn .

1 i n}

Ejemplos:

R23 = {[x, y] : x, y R}
R = {[x, y, z] : x, y, z R}
!

Nota A.7.

Los vectores

[1, 0] 2
[1, 1, 1/3]

Rn para n > 3 no se pueden representar grficamente.

Definicin A.8 (Vectores en n )


El conjunto de todos los vectores de n componentes complejas se representa por

Cn = {[x1 , x2 , , xn ] :
Ejemplos:

C2 = {[x, y] : x, y C}
C3 = {[x, y, z] : x, y, z C}

R3

Nota A.8.

En general los vectores

[0, i] 2
[2 + i, i, 1]

xi

C,

1 i n}

C3

Cn no se pueden representar grficamente para ningn valor de n > 1.

Definicin A.9 (Vectores en n )


De forma general, se puede hablar de vectores en espacios
bien .

Cn .

Kn donde K puede ser o bien R o

Nomenclatura
Generalmente la notacin utilizada para referirse a los vectores es la siguiente:
1. ~v
2. v

K
K

La segunda forma, utilizando letras en negrita, se suele utilizar con vectores complejos para que se
pueda distinguir claramente el conjugado a travs de su rayita.

Pedro Jos Hernando Oter

Clases de lgebra

358

Temas de Repaso

A.8.1. Caracterizacin de Vectores


Longitud y ngulo
Adems de por sus coordenadas los vectores de
En

L = x2 + y 2

y
= arctan x

~v = [x, y]

~v = [x, y]

R2 :

Rn pueden caracterizarse por su longitud y ngulo.

(Teorema de Pitgoras)
si
si

x 6= 0
x = 0

y>0
y<0

= /2
= /2

A.9. Frmulas Geomtricas sobre Distancias


A.9.1. Producto Escalar y Vectorial en


Vectores
Producto Escalar

~u =
~v =

[u1 , u2 , u3 ]
[v1 , v2 , v3 ]

~u ~v = u1 v1 + u2 v2 + u3 v3

Producto Vectorial

~i

~u ~v = u1
v1

R3

~j
u2
v2

~k
u3
v3




= (u2 v3 u3 v2 )~i + (u3 v1 u1 v3 )~j + (u1 v2 u2 v1 )~k

A.9.2. Distancia de un Punto a un Recta en


~n
b

P
b

Punto
Recta

R
d=

R2

P = (x1 , y1 )
Ax + By + C = 0

|Ax1 + By1 + C|

A2 + B 2

Demostracin A.1

RP = RQ + QP ; ~n RP = ~n RQ + ~n QP ; ~n RP = 0 + ~n QP ;

|~n QP |
|~n RP | = |~n QP | ; k~nk kRP k = |~n QP | ; d = kRP k =
k~nk

Clases de lgebra

Pedro Jos Hernando Oter

A.9. Frmulas Geomtricas sobre Distancias

359

A.9.3. Distancia entre dos Rectas paralelas en

~n
b

P
b

d
R

R2

Punto Recta 1 P = (x1 , y1 )


Recta 2
Ax + By + C = 0
d=

|Ax1 + By1 + C|

A2 + B 2

A.9.4. Distancia de un Punto a un Plano en

R3

~n

d
P b

Punto
Plano
d=

P = (x1 , y1 , z1 )
Ax + By + Cz + D = 0

|Ax1 + By1 + Cz1 + D|

A2 + B 2 + C 2

A.9.5. Distancia entre dos Planos Paralelos en


~n
b

P1

d
b

Punto del Plano 1


Plano 2
d=

P2

~v
b

P = (x1 , y1 , z1 )
Ax + By + Cz + D = 0

|Ax1 + By1 + Cz1 + D|

A2 + B 2 + C 2

A.9.6. Distancia de un Punto a un Recta en


Ab

R3

R3

Punto A = (x1 , y1 , z1 )
Recta ~x = p~ + t~v

k~v P Ak
d=
k~v k

Demostracin A.2

k~v P Ak = k~v kkP Ak sen () = k~v kd

Pedro Jos Hernando Oter

Clases de lgebra

360

Temas de Repaso

A.9.7. Distancia entre dos Rectas paralelas en

P2

~v

b
b

Punto Recta 2 P2 = (x2 , y2 , z2 )


Recta 1
~x = p~2 + t~v

P1

d=

R3

k~v P1 P2 k
k~v k

Ejemplo A.19. Dado el plano : x 2y 2z = 3, encontrar un plano paralelo a que diste


4 unidades de l.
Solucin: Un vector normal 6 al plano viene dado por los coeficientes de las variables x, y y
z:
~n = [1, 2, 2]
Todo plano 0 paralelo a tiene un vector normal que es paralelo a ~n, por tanto podemos
representar su ecuacin general como:
0 : Ax + By + Cz + D = 0

x 2y 2z + = 0

Siendo el valor a determinar para que dicho plano 0 diste 4 unidades de .


Como la distancia entre dos planos paralelos se puede expresar mediante la ecuacin7 :
d=

|x1 y1 z1 + |
|x1 y1 z1 + |
|Ax1 + By1 + Cz1 + D|

=
=p
=4
9
A2 + B 2 + C 2
12 + (2)2 + (2)2

donde P = (x1 , y1 , z1 ) son las coordenadas de un punto cualquiera del plano , por ejemplo
P = (3, 0, 0):
4=

|3 0 0 + |
3

12 = |3 + |

3 + = 12

= 12 3 = {9, 15}

Aparecen dos valores posibles de correspondientes a los dos planos (por encima y por debajo
de ) que distan 4 unidades.
Por tanto las dos posibles soluciones del problema son los siguientes planos:
x 2y 2z = 9

6 Ver
7 Ver

x 2y 2z = 15

la Seccin 0.3.3, pgina 15.


la Seccin A.9.5, pgina 359.

Clases de lgebra

Pedro Jos Hernando Oter

A.10. Introduccin a las Funciones

361

A.10. Introduccin a las Funciones

Definicin A.10 (Funcin o Aplicacin)


Dados dos conjuntos X e Y , se denomina funcin o aplicacin a toda regla que hace
corresponder a cada elemento x del conjunto inicial X (conjunto dominio), un y slo un
elemento y del conjunto final Y (conjunto imagen).
Se representa por:
f
f : X 7 Y
;
x y

A.10.1. Tipos de Funciones


Funciones Reales y Complejas

R se habla de variable real.


Si X C se habla de variable compleja.
Si Y R se habla de funciones reales.
Si Y C se habla de funciones complejas.

Si X

Ejemplo A.20.
f
f
f
f

:
:
:
:

R 7 R
C 7 R
R 7 C
C 7 C

Funcin
Funcin
Funcin
Funcin

Real de Variable Real.


Real de Variable Compleja.
Compleja de Variable Real.
Compleja de Variable Compleja.

Ej:
Ej:
Ej:
Ej:

f (x) = x2
f (x) = |x|
f (x) = ix
f (x) = x2

;
;
;
;

x
x
x
x

R
C
R
C

Funciones Escalares y Vectoriales


Dada una funcin general:
f:
Si
Si

Kn Km

n = 1 Funcin de una variable


n > 1 Funcin de varias variables.
m = 1 Funcin Escalar
m > 1 Funcin Vectorial .

f (x1 , x2 , . . . , xn ) = [ f1 (x1 , x2 , . . . , xn ) , f2 (x1 , x2 , . . . , xn ) , . . . , fm (x1 , x2 , . . . , xn ) ]


Ejemplos de Funciones Reales:
f:
g:
h:

R32 R2
R R3
R R

F (x, y) = [x, sen(x, y)]


g(x, y, z) = x + yz
H(x) = [x, x2 , x3 ]

Pedro Jos Hernando Oter

Funcin Vectorial de varias variables.


Funcin Escalar de varias variables.
Funcin Vectorial de una variable.

Clases de lgebra

362

Temas de Repaso

A.10.2. Representacin Grfica de Funciones Reales


Existen dos formas muy utilizadas de representar grficamente una funcin real de variable real
f: X Y.
Grafica: Conj. de puntos (x, y)

f (x)

Imagen (o recorrido)

y
b

f (x)

Dominio

Imagen

A travs de diagramas de Venn.


En un eje de coordenadas cartesianas.

Dominio
x
x : Variable independiente
y : Variable dependiente

Para las tradicionales funciones escalares:

Si n = 1 =
f : n
Si n = 2 =

Si n 3 =

La grfica es una curva en 2 .


La grfica es una superficie en 3 .
La grfica no se puede visualizar.

Las funciones vectoriales clsicas que se pueden dibujar son:


f:

R2 R2

f:

R3 R3

Ejemplos
x2+y2

200

150

100

50

0
10
10

5
5

0
0
5
y

Figura A.15.: f :

R 7 R

5
10

10

Figura A.16.: f :

R2 7 R

Figura A.18.: f :

R3 7 R3

3
3

Figura A.17.: f :

Clases de lgebra

R2 7 R2

Pedro Jos Hernando Oter

A.10. Introduccin a las Funciones

363

A.10.3. Tipos de Funciones


Funcin Inyectiva: si a elementos distintos del dominio le corresponden elementos distintos de
la imagen.
f : A 7 B es inyectiva x, y A : x 6= y f (x) 6= f (y)
Funcin Sobreyectiva: si todo elemento del conjunto imagen es imagen de algn elemento del
dominio.
f : A 7 B es sobreyectiva y B : x A : f (x) = y
Funcin Biyectiva: si es inyectiva y sobreyectiva a la vez.
Ejemplos

Figura A.19.: Inyectiva, no sobreyectiva.

Figura A.20.: Sobreyectiva, no inyectiva.

Figura A.21.: Biyectiva.

Figura A.22.: No sobreyectiva, no inyectiva.

x1

y3

y2

y1

x2

No es inyectiva

Si es inyectiva

No es sobreyectiva

pero no es sobreyectiva

Biyectiva

No es una funcion

Figura A.23.: Ejemplos grficos de funciones reales de variable real.

Pedro Jos Hernando Oter

Clases de lgebra

364

Temas de Repaso

A.10.4. Funcin Inversa (o Recproca) f 1 (x)


Definicin A.11 (Funcin Inversa o Recproca)
Dada una funcin inyectiva f : X Y , se define la funcin inversa (o recproca) de f
como:
f 1 : Y X

En caso de que exista, la funcin inversa f 1 (x) de una funcin dada f (x) es aquella funcin
que tiene por conjunto dominio el conjunto imagen de f (x) y por conjunto imagen el conjunto
dominio de f (x).

La representacin grfica de f 1 (x) es una reflexin de la grfica de f (x) con respecto a la recta y = x.
La Figura A.24 muestra grficamente dos casos sencillos de la funcin inversa, en relacin a la funcin
original.
f 1(x) =

f 1(x) = ex + 1

f (x) = x3
f (x) = log(x 1)

Figura A.24.: Dos ejemplos de representacin grfica de una funcin f (x) junto a su correspondiente funcin inversa
f 1 (x). Puede apreciarse como ambas son una reflexin respecto de de la recta y = x.

La condicin necesaria y suficiente para que una funcin sea invertible es que sea biyectiva 8 .
Nota A.9.

La funcin inversa f 1 (x) es distinta que la inversa de una funcin [f (x)]1 :


[f (x)]1 =

Inversa de la funcin

6=

f 1 (x)
Funcin inversa

Ejemplo A.21. Calcular, en caso de que exista, la funcin inversa f 1 (x) de f (x) = 2x + 1.
=

si existe su

Solucin: Esta funcin es claramente inyectiva al ser una recta no vertical


funcin inversa. Para calcularla:
1. y = 2x + 1
f (x) = 2x + 1

y1
2. x =
2
3. f 1 (x) =
8 Ver

1
f (x)

x1
2

f 1(x) =

x1
2

el Apndice A.10.3, pgina 363.

Clases de lgebra

Pedro Jos Hernando Oter

A.10. Introduccin a las Funciones

365

A.10.5. Composicin de Funciones


Definicin A.12 (Composicin de Funciones)
Dadas las funciones:

f : X 7 Y
g : W 7 X

se define, la composicin de la funcin f con la funcin g de la siguiente forma:


g

(f g)(x) = f [g(x)]

x g(x) f [g(x)]

Caractersticas:
La expresin (f g)(x) se lee f compuesta de g.
El dominio de f debe ser la imagen de g.
El dominio de la nueva funcin (f g)(x) es el dominio de g(x) y su imagen es la imagen
de f (x).
(f g) : W 7 Y

Nota A.10.

En algunos textos, la composicin de funciones se define al contrario de como se define aqu, de la forma:
(f g)(x) = g[f (x)]

Ejemplo A.22. Dadas las siguientes funciones f (x) y g(x) determinar (f g)(x) y (g f )(x)
Solucin:
f (x) = cos(x)
g(x) = x2 + 1
Nota A.11.

(f g)(x) = f [g(x)] = cos(x2 + 1)


(g f )(x) = g[f (x)] = cos2 (x) + 1

La composicin de funciones es asociativa pero no es conmutativa.


[h (g f )](x) = h[(g f )(x)] = h{g[f (x)]}
[(h g) f ](x) = (h g)[f (x)] = h{g[f (x)]}

Sin embargo generalmente:

Iguales !!

Es asociativa

(f g)(x) 6= (g f )(x) como se ve en el Ejemplo A.22.

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

TEMA

Nmeros Complejos
Contenido
B.1
B.2

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuerpo de los nmeros Complejos . . . . . . . . . . . . . . . . . . . . .
B.2.1 Definicin del nmero imaginario i . . . . . . . . . . . . . . . .
B.2.2 Potencias enteras de i . . . . . . . . . . . . . . . . . . . . . . .
B.2.3 Definicin de Nmero Complejo. Formas Cartesiana y Binmica
B.3 Operaciones Bsicas en
. . . . . . . . . . . . . . . . . . . . . . . . . .
B.3.1 Suma de Nmeros Complejos . . . . . . . . . . . . . . . . . . .
B.3.2 Producto de Nmeros Complejos . . . . . . . . . . . . . . . . .
B.3.3 El Cuerpo de los Nmeros Complejo . . . . . . . . . . . . . . .
B.4 Conjugado de un Nmero Complejo . . . . . . . . . . . . . . . . . . . .
B.4.1 Propiedades del Conjugado . . . . . . . . . . . . . . . . . . . .
B.4.2 Conjugados y Divisin de Nmeros Complejos . . . . . . . . . .
B.5 Representacin Geomtrica de
. . . . . . . . . . . . . . . . . . . . . .
B.5.1 El Plano Complejo . . . . . . . . . . . . . . . . . . . . . . . . .
B.5.2 Mdulo de un Nmero Complejo . . . . . . . . . . . . . . . . .
B.5.3 Argumento de un Nmero Complejo . . . . . . . . . . . . . . .
B.6 Otras Formas de Expresar los Nmeros Complejos . . . . . . . . . . . .
B.7 Forma Trigonomtrica y Polar . . . . . . . . . . . . . . . . . . . . . . .
B.7.1 Propiedades y Operaciones Bsicas de la Forma Polar . . . . .
B.7.2 Exponencial Compleja. Frmula de Euler . . . . . . . . . . . .
B.7.3 Teorema de De Moivre . . . . . . . . . . . . . . . . . . . . . . .
B.7.4 Potenciacin en la Forma Polar . . . . . . . . . . . . . . . . . .
B.7.5 Raz n-sima de un Nmero Complejo . . . . . . . . . . . . . .
B.8 Forma Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.8.1 Operaciones en Forma Exponencial . . . . . . . . . . . . . . . .
B.8.2 Seno y Coseno Complejo . . . . . . . . . . . . . . . . . . . . . .
B.8.3 Logaritmo Complejo . . . . . . . . . . . . . . . . . . . . . . . .
Bibliografa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

369
369
369
369
370
371
371
371
373
373
374
374
375
375
376
377
378
378
379
380
381
381
382
383
383
384
385
387

367

Clases de lgebra

Ec. Punto-Pendiente

Ec. Dos Puntos

Ec. General

Ec. Vectorial

Ec. Paramtrica

Rectas

Plano Eucldeo

Ec. Normal

Coordenadas Cartesianas

Ec. General

Ecuaciones Bsicas

Ec. Paramtrica

Ec. Vectorial

Planos

Ec. Normal

Ec. Paramtrica

Ec. Vectorial

Rectas

Ec. Normal

Sist. 2 Ecuaciones

Sist. 3 Ecuaciones

Geometria de Sist. de Ec. Lineales

Sist. 1 Ecuacin

Ec. General

Espacio Eucldeo

Rectas y Planos

Igualacin

Sustitucin

Reduccin

Mtodos Simples de Resolucin de Sistemas

368
TEMA B: Nmeros Complejos

Pedro Jos Hernando Oter

B.1. Introduccin

369

B.1. Introduccin
Se puede pensar en principio que los nmeros complejos slo estn relacionados con problemas que
de alguna forma no tienen solucin y que por tanto su utilidad bsica radica en separar lo til (real)
de lo intil (imaginario). Sin embargo, los nmeros complejos son una herramienta matemtica muy
apropiada y natural en el estudio y resolucin de una gran cantidad de problemas prcticos que
aparecen en la ciencia y la tecnologa.
En este tema se vern los principios bsicos de los nmeros complejos.

B.2. Cuerpo de los nmeros Complejos

B.2.1. Definicin del nmero imaginario i


Definicin B.1 (Nmero Imaginario i)

Se define el nmero imaginario 1 i de la siguiente forma : i = 1.


Al nmero i tambin se le conoce con el nombre de unidad imaginaria.

B.2.2. Potencias enteras de i


Las potencias sucesivas de la unidad imaginaria: i, i2 , i3 , . . . tienen los siguientes valores:
r=1
i=

r=2
i2 =

2
1 = 1

r=3

r=0

i3 = i i2 = i

i4 = i i3 = i2 = 1

i5 = i i4 = i

i6 = i i5 = i2

i7 = i i6 = i3

i8 = i i7 = i4

i9 = i

i10 = i2

i11 = i3

Estos resultados se pueden resumir mediante la siguiente frmula:


in = in%4 = ir

Siendo % el operador mdulo que da como resultado el resto de una divisin entera2 . El valor de
r = n%4 slo puede ser algn natural del conjunto {0, 1, 2, 3}. Por ejemplo 1%4 = 1 , 4%4 = 0 ,
6%4 = 2 , 8%4 = 0 , etc.
Ejemplo B.1. Calcular i2010 .
Solucin: Como 2010 = 502 4 + 2, por tanto 2010%4 = 2.
i2010 = i2 = 1
1 En

2 En

algunos textos y aplicaciones se acostumbra a utilizar la letra j en lugar de la i para identificar al valor
este caso una divisin entre 4.

Pedro Jos Hernando Oter

1.

Clases de lgebra

370

TEMA B: Nmeros Complejos

B.2.3. Definicin de Nmero Complejo. Formas Cartesiana y Binmica

Forma Cartesiana, z = (a, b)


Definicin B.2 (Forma Cartesiana)
Un nmero complejo z se define como un par ordenado 3 de nmeros reales (a, b), donde:
La primera componente a se denomina parte real y se representa por Re(z) = a.
La segunda componente b se denomina parte imaginaria y se representa por Im(z) = b.

Forma Binmica, z = a + bi
Definicin B.3 (Forma Binmica)
Se denomina forma binmica de un nmero complejo z = (a, b) al siguiente modo de expresar
sus partes real y compleja:

a
Parte Real : Re(z) = a
z = a + bi
donde
b
Parte Imaginaria : Im(z) = b

R
R

La forma binmica de un nmero complejo es una de las formas ms utilizadas para representar a
los nmeros complejos.

Conjunto de los Nmeros Complejos,

Definicin B.4 (Conjunto de los Nmeros Complejos,


El conjunto de todos los numros complejos se representa por

C)

C y se define como:

C = {a + bi : a, b R}
R

El conjunto de los nmeros reales, es un subconjunto de


complejos que tienen su parte imaginaria nula.

C y puede definirse como aquellos nmeros

C
R

RC

3 Se llama par ordenado a un conjunto formado por dos elementos y un criterio de ordenacin que establece cul es
primer elemento y cul el segundo.

Clases de lgebra

Pedro Jos Hernando Oter

B.3. Operaciones Bsicas en

371

B.3. Operaciones Bsicas en

B.3.1. Suma de Nmeros Complejos

Definicin B.5 (Suma en )


Dados dos nmeros complejos z1 = a1 + b1 i y z2 = a2 + b2 i con a1 , b1 , a2 , b2
operacin suma (+) de z1 y z2 como:

R se define la

z1 + z2 = (a1 + b1 i) + (a2 + b2 i) = (a1 + a2 ) + i(b1 + b2 )

Definicin B.6 (Resta o Diferencia en )


Se definen la resta () de dos nmeros complejos z1 z2 como la suma del primero ms el
opuesto del segundo.
z1 z2 = z1 + (z2 )

Propiedades de la Suma
Conmutativa: z1 + z2 = z2 + z1 , z1 , z2

C.

C.
Elemento Neutro: 0 = 0 + 0i : z + 0 = 0 + z = z, z C.
Elemento Opuesto: z = a + bi C z = a bi : z + (z) = 0.

Asociativa: (z1 + z2 ) + z3 = z1 + (z2 + z3 ), z1 , z2 , z3

B.3.2. Producto de Nmeros Complejos

Definicin B.7 (Producto en )


Dados dos nmeros complejos z1 = a1+ b1 i y z2 = a2 + b2 i con a1 , b1 , a2 , b2
operacin producto () de z1 y z2 como:

R se define la

z1 z2 = (a1 + b1 i) (a2 + b2 i) = a1 a2 + ia1 a2 + ib1 a2 + i2 b1 b2 = (a1 a2 b1 b2 ) + i(a1 b2 + a2 b1 )

Nota B.1.

Es habitual representar el producto de numros (complejos y reales) sin ningn smbolo:


z1 z2 = z1 z2

Pedro Jos Hernando Oter

Clases de lgebra

372

TEMA B: Nmeros Complejos

Ejemplo B.2. Dados los nmeros complejos z1 = 1 + i y z2 = 2 2i calcular su suma, resta


y producto.
Solucin:
z1 + z2 = (1 + i) + (2 2i) = 3 i
z1 z2 = (1 + i) (2 2i) = 1 + 3i
z1 z2
= (1 + i)(2 2i) = (2 + 2) + (2 + 2)i = 4
Elemento Inverso, z 1

Definicin B.8 (Elemento Inverso en )


Dado un z , se define en caso de que exista el elemento inverso de z y se representa por
z 1 , al nmero complejo que verifica: zz 1 = 1.

z = a + bi (a, b 6= 0)

Ejemplo B.3. Demostrar la frmula z 1 =


Solucin:
zz 1 = (1, 0) si llamamos

z
z 1


(a + bi)(x + yi) = (1, 0) =

Divisin en

b
a
,
a2 + b2 a2 + b2

a
b
,
a2 + b2 a2 + b2

= a + bi
= x + yi
ax by
ay + bx

=
=

siendo z = a + bi.

vamos a calcular x e y.
1
0

Sist. de 2 ec. con 2 incgnitas (x, y)

1 + by
ay
=
; b + b2 y = a2 y
a
b

1 + by

ay

= z = a + bi (a, b 6= 0)

z 1 =

y=

b
a 2 + b2

x=

b
a
,
a2 + b2 a2 + b2

ay
a
= 2
b
a + b2

Definicin B.9 (Divisin en )


Dados z1 , z2 , se define la operacin divisin

z1
= z1 z21 = (a1 + b1 i)
z2

Clases de lgebra

z1
z2

como el producto z1 z21 .


a2
b2
a1 a2 + b1 b2
a1 b2 + a2 b1
+ 2
i =
+
i
2
2
2
2
2
a2 + b2
a2 + b2
a2 + b2
a22 + b22

Pedro Jos Hernando Oter

B.4. Conjugado de un Nmero Complejo

373

Nota B.2. Posteriormente veremos formas ms prcticas de calcular la divisin entre nmeros complejos sin necesidad
de aprenderse frmulas complicadas.

Ejemplo B.4. Dados los nmeros complejos z = 1 + 2i y w = 2 2i, calcular


comprobar que el producto de ambos es igual a la unidad.

z
w

w
z

Solucin: Aplicando la frmula de la Definicin B.9 se tiene:


1 3
z
1 2 + 2 (2) 1 (2) + 2 2
+
i= + i
=
w
22 + 22
22 + 2 2
4 4
2 6
w
2 1 + (2) 2 2 (2) + 1 (2)
+
i= i
=
z
12 + 22
12 + 2 2
5 5



1 3
2 6
2
6
6
18
+ i
i =
+ i i+
= 1
4 4
5 5
20 20
20
20
Propiedades del Producto
Conmutativa: z1 z2 = z2 z1 , z1 , z2

C.

Asociativa: (z1 z2 )z3 = z1 (z2 z3 ), z1 , z2 , z3

C.

Elemento Neutro: 1 = 1 + 0i : z 1 = 1 z = z, z
Elemento Inverso: z {0}

C, z1 : zz1 = 1.

Distributiva: z1 (z2 + z3 ) = z1 z2 + z1 z3 , z1 , z2 , z3

C.

C.

B.3.3. El Cuerpo de los Nmeros Complejo


Debido a las propiedades de la suma y producto de nmeros complejos, se dice que el conjunto de
los nmeros complejos junto con las operaciones suma y producto, ( , +, ), es un cuerpo abeliano.

Nota B.3.

El conjunto

C no es un cuerpo ordenado, ya que no tiene sentido por ejemplo 0 < i 0 < i.

B.4. Conjugado de un Nmero Complejo

Definicin B.10 (Complejo Conjugado)


Dado un nmero complejo z = a + bi, se define el conjugado de z, y se escribe z, al nmero
complejo z = a bi.

Pedro Jos Hernando Oter

Clases de lgebra

374

TEMA B: Nmeros Complejos

B.4.1. Propiedades del Conjugado

C.
z w = z w, z, w C.
z = z, z C.
Si z = z = z R.

z + w = z + w, z, w

Si z = z =

z es imaginario puro.

Ejemplo B.5. Dados z = 5 3i y w = 4 + 8i,


a) Calcular: z, w, z + w, z + w y z + w.
b) Comprobar que z w = z w.
Solucin:
a)
z = 5 + 3i
z + w = 1 + 5i

; w = 4 8i

; z + w = 1 + 5i

; z + w = 1 5i

b)
z w = (5 3i)(4 + 8i) = 20 + (40 + 12)i + 24 = 4 + 52i = 4 52i
z w = (5 + 3i)(4 8i) = 20 + (40 12)i + 24 = 4 52i

B.4.2. Conjugados y Divisin de Nmeros Complejos


La frmula para realizar la divisin de nmeros complejos en la frma binmica4 se puede simplificar
utilizando el concepto del conjugado complejo.
z1
z1 z 2
= z1 z21 =
z2
z2 z 2

Demostracin B.1

zz = (a + bi)(a bi) = a2 abi + abi + b2 = a2 + b2

4 Ver

z 1 =

a
b
,
a2 + b2 a2 + b2

z
zz

la Definicin B.9, pgina 372.

Clases de lgebra

Pedro Jos Hernando Oter

B.5. Representacin Geomtrica de

375

Ejemplo B.6. Calcular las divisiones del Ejemplo B.4, pgina 373 utilizando la frmula de la
Seccin B.4.2, pgina 374.
Solucin:
1 3
z
zw
(1 + 2i)(2 + 2i)
2 + 6i
=
=
=
= + i
w
ww
(2 2i)(2 + 2i)
8
4 4
w
wz
(2 2i)(1 2i)
2 6i
2 6
=
=
=
= i
z
zz
(1 + 2i)(1 2i)
5
5 5

B.5. Representacin Geomtrica de

B.5.1. El Plano Complejo


Definicin B.11 (El Plano Complejo)
Un nmero complejo z = a + bi se puede representar grficamente a travs de un punto en
sistema de ejes coordenados, donde en el eje X se coloca la parte real Re(z) = a y en el eje Y
la parte imaginaria Im(z) = b.
El plano formado por este sistema de ejes cartesianos se denomina plano complejo.

Im

z = (a, b)

|z

Re

|z
|
b

z = (a, b)

Figura B.1.: Representacin grfica del plano complejo y conceptos asociados: afijo de z = a+bi (punto (a, b)), mdulo
|z|, argumento y conjugado z.

Nota B.4. Recordar que el conjunto de los nmeros reales


el plano complejo representada por el eje horizontal.

R se representa a travs de la recta real y sta aparece en

Definicin B.12 (Afijo)


Se denomina afijo de un nmero complejo z = a + bi al punto del plano complejo de
coordenadas (a, b), (ver Figura B.1).

Pedro Jos Hernando Oter

Clases de lgebra

376

TEMA B: Nmeros Complejos

B.5.2. Mdulo de un Nmero Complejo


Definicin B.13 (Mdulo, = |z|)
Se denomina mdulo de un nmero complejo z = a + bi y se representa por |z| o por , al

nmero real no negativo tal que: |z| = = a2 + b2 .


z = a + bi

Re(z) = a = |z| cos = cos


Im(z) = b = |z| sen = sen

Geomtricamente, el mdulo de un nmero complejo z representa la distancia del origen del plano
complejo al afijo de z, (ver Figura B.1).

Propiedades del Mdulo, |z|


Sean z, w

C, entonces se cumplen las siguientes propiedades:

|z| > 0 z 6= 0 ;

|0| = 0

zz = a2 + b2 = |z|2 = |z| =

zz

| z| = |z|
|z| = |z|
|z w| = |z| |w|
z 1 =

z
|z|2

|z 1 | =

|z + w| |z| + |w|
El nmero complejo

1
, (z 6= 0)
|z|

(Desigualdad Triangular)
z
tiene mdulo unidad, (z 6= 0).
|z|

Mdulo y Divisin de Nmeros Complejos


Atendiendo a las definciones de divisin 5 , conjugado 6 y mdulo 7 en
relaciones:
z
zw
zw
= zw1 =
=
w
ww
|w|2

C podemos llegar a las siguientes

5 Ver

la Definicin B.9, pgina 372.


la Definicin B.10, pgina 373.
7 Ver la Definicin B.13, pgina 376.
6 Ver

Clases de lgebra

Pedro Jos Hernando Oter

B.6. Otras Formas de Expresar los Nmeros Complejos

B.5.3. Argumento de un Nmero Complejo


Definicin B.14 (Argumento)
Se denomina argumento de z = a + bi y se representa por , al ngulo formado por la lnea
que une el afijo de z con el origen y el eje horizontal, (ver Figura B.1).
= arg(z) = arctan

377

b
a

Definicin B.15 (Argumento Principal)


Cualquier z posee infinitos valores de su argumento, ya que si es su argumento, entonces
+ 2k con k tambin lo ser.
Se denomina argumento principal de un nmero complejo z al nico arg(z) tal que
[, ]. A veces se representa por Arg(z).

Arg(z)

+ 2

Ejemplo B.7. Dado z = 1 + i 3, calcular su mdulo, argumento (principal) y conjugado.


Solucin:
|z| =

12

+(

3)2

4=2

= arctan

=
1
3

z =1i 3

Ejemplo B.8.
Calcular el argumento principal de los nmeros complejos z1 = 1 + i 3 y
z2 = 1 i 3.
Solucin:

Im
z1
+

1 = arg z1 = arctan
2 = arg z2 = arctan

1 = 3

3
1 =

+ 3
+

= 4
3
= 2
3

z2

Pedro Jos Hernando Oter

4
3

1 =

Re
2 = + 3 = 2
3

Clases de lgebra

378

TEMA B: Nmeros Complejos

B.6. Otras Formas de Expresar los Nmeros Complejos


Adems de las formas cartesiana y binmica, existen otras formas de representar los nmeros
complejos, que sn muy utilizadas en la prctica en funcin de la aplicacin u operaciones que se
realicen. Estas formas son:
Forma trigonomtrica y polar.
Forma exponencial.
Vamos a ver cada una de ellas, explicando sus aplicaciones, ventajas e inconvenientes.

B.7. Forma Trigonomtrica y Polar

Definicin B.16 (Forma Trigonomtrica y Polar)


Teniendo en cuenta la geometra de un nmero complejo en el plano complejo 8 se puede definir
un nmero complejo a travs de su forma trigonomtrica y su forma polar como sigue:
z = a + bi = cos + i sen = (cos + i sen ) =
z = a + bi

Forma Trigonomtrica de z
Forma Polar de z

: (cos + i sen )
:
[Nota: est en el subndice]

La razn fundamental de expresar un nmero complejo z a travs de su forma trigonomtrica y/o


polar es la sencillez de operaciones complicadas: multiplicacin, divisin, potenciacin y raz n-sima,
como se ver en la Seccin B.7.4 y Seccin B.7.5.
Sin embargo, las operaciones de suma y resta de nmeros complejos es mucho ms sencillo de realizar
en la forma binmica.
Ejemplo B.9. Pasar a la forma trigonomtrica y polar los siguientes nmeros complejos:
z1 = 1 i ; z2 = 1 + i 3.
Solucin:
z1 = 1 i

|z1 | = sqrt(1)2 + (1)2 = 2

1 = arctan 1
1 = arctan(1) = arctan(1) = 2

Como el afijo de z1 cae en el cuatro cuadrante, el valor de 1 calculado es el correcto y por tanto:
z1 = 1 i =






2 cos
+ i sen
= 2 cos i sen
= 2
2
2
2
2
2

z2 = 1 + i 3

)
2
2
|z2 | = sqrt(1)
+
(
3)
=
4
=
2

2 = arctan 13 = arctan 3 = 3
(Contina en la pgina siguiente)

8 Ver

la Seccin B.5.1, pgina 375.

Clases de lgebra

Pedro Jos Hernando Oter

B.7. Forma Trigonomtrica y Polar

379

Ejemplo B.9 (Continuacin).


En este caso el afijo de z2 cae en el segundo cuadrante y por tanto el valor calculado de de 2 a
travs de la frmula no corresponde con el argumento, si no:
2 =
Por tanto:

2
=
3
3




2
2
z2 = 1 i 3 = 2 cos
+ i sen
= 2 2
3
3
3

Ejemplo B.10. Dar las formas polares de un nmero real y de un imaginario puro, positivos
y negativos.
Solucin:
0 + bi = b 2 = b (cos 2 + i sen 2 )
a + 0i = a0

0 bi = b
2

a + 0i = a

B.7.1. Propiedades y Operaciones Bsicas de la Forma Polar


z = +
iz = + 2
z =

Multiplicacin y Divisin en Forma Polar


Sean z = a + bi =

z 0 = a0 + b0 i = 0 0

zz 0 = (0 )(+0 )
 
z

0 =
z
0 (0 )

Demostracin B.2
Teniendo en cuenta que:
cos(a + b) = cos a cos b sen a sen b
sen(a + b) = sen a cos b + cos a sen b

; cos(a b) = cos a cos b + sen a sen b


; sen(a b) = sen a cos b cos a sen b
(Contina en la pgina siguiente)

Pedro Jos Hernando Oter

Clases de lgebra

380

TEMA B: Nmeros Complejos

Demostracin B.2 (Continuacin)


Tenemos que:
z1 z2 = ( )(00 ) = (cos + i sen )0 (cos 0 + i sen 0 ) =
= 0 [cos cos 0 sen sen 0 + (cos sen 0 + sen cos 0 )i] =
= 0 [cos( + 0 ) + i sen( + 0 )] = (0 )(+0 ) .

Siguiendo el mismo procedimiento se puede demostrar la frmula para el cociente de nmeros


complejos en forma polar, utilizando en este caso las frmulas de coseno y seno de diferencia
de ngulos.

B.7.2. Exponencial Compleja. Frmula de Euler

Definicin B.17 (Funcin Exponencial en )


La funcin exponencial es la funcin f : definida por:

R R

f (x) = ex

e = nmero e = 2, 718281828459...

Teorema B.1 (Exponencial Compleja: Frmula de Euler)


Dado un x , se define la exponencial compleja de la siguiente forma:

exi = cos x + i sen x

Demostracin B.3
Se realiza a travs de desarrollos de Taylor, (no se ver aqu).

Definicin B.18 (Exponencial de un Complejo)


Si z se tiene que la exponencial de un complejo es:

ez = ea+bi = ea ebi = ea (cos b + i sen b)

Clases de lgebra

Pedro Jos Hernando Oter

B.7. Forma Trigonomtrica y Polar

381

B.7.3. Teorema de De Moivre


Teorema B.2 (Teorema de De Moivre)
(cos + i sen )n = cos(n) + i sen(n)

Demostracin B.4
Aplicando la Frmula de Euler y teniendo en cuenta que (ax )y = axy tenemos :
(cos + i sen )n

F. Euler

(ei )n = eni

F. Euler

cos(n) + i sen(n)

B.7.4. Potenciacin en la Forma Polar


Definicin B.19 (Potencia de un Complejo)
Dado z = a + bi se define la potencia n-sima de z como:
n
z n = (a + bi)n = (a + bi)(a + bi) ...
(a + bi)

Dado z = a + bi = y teniendo en cuenta la frmula de De Moivre es fcil comprobar que:


z n = [ ]n = nn

P
P

Ejemplo B.11. Demostrar la frmula de potenciacin en forma polar.


Solucin:
z n = [ ]n = [(cos + i sen )]n = n (cos + i sen )n = n [cos(n) + i sen(n)] = nn
Ejemplo B.12. Calcular z 6 siendo z = 1 + i, dando el resultado en forma binmica.
Solucin: A travs de la forma tradicional:
z 6 = (1 + i)6 = (1 + i)(1 + i)(1 + i)(1 + i)(1 + i)(1 + i) =
En forma polar:
z =1+i=

Pedro Jos Hernando Oter

=
=

12 + 1 2 = 2
= 2 4
1

arctan 1 = 4

z 6 = ( 2)66 = (23 ) 3
2
4



3
3
z 6 = 8 cos
+ i sen
= 8(0 i) = 8i
2
2

Clases de lgebra

382

TEMA B: Nmeros Complejos

B.7.5. Raz n-sima de un Nmero Complejo


Definicin B.20 (Raz n-sima de un Nmero Complejo)
Un nmero complejo z = ( z 6= 0 ), tiene n races n-simas, que pueden ser expresadas a
travs la siguiente frmula:

>0

( y es nico)

+ 2k
; k = 0, 1, 2, ..., n 1
n

Demostracin B.5

Si

= r =

= r

(r )n =

Ejemplo B.13. Calcular

n
r

r=

= + 2k

+2k
n

1+i

Solucin: Como es una raz cuadrada tendr dos soluciones z1 y z2 .


p

=

2 = 4 2

4
4
1+1i = 2 4 =
1+i
1 + i = { 2 8 , 2 9
}
k=0
1 = /8
/4+2k
8
=

2
k=1
2 = 9/8

En este caso, las dos races solucin son nmeros complejos, cuya valor puede dejarse en forma
polar. Notar que ambas solucines son complejos opuestos 9 , ya que 2 = 1 + y por tanto10
z1 = z2 .
Ejemplo B.14. Calcular

Solucin: En este caso al ser una raz cbica tendr tres soluciones z1 , z2 y z3 .

= 3 1 = 1

1 = 3
k=0
3
3
1 + 0i = 1 =
1
1 = {1 3 , 1 , 1 5
}
+2k
3
k
=
1

5
k=2
3 = 3

Notar que 1 es el nmero real 1, por tanto


una real (-1).

9 Ver

10 Ver

1 tiene dos soluciones complejas (1 3 , 1 5


)y
3

la Seccin B.3.1, pgina 371.


la Seccin B.7.1, pgina 379.

Clases de lgebra

Pedro Jos Hernando Oter

B.8. Forma Exponencial

383

Geometra de las Races n-simas

Las n races n-simas de un complejo z forman, al dibujarlas


en el plano complejo, un polgono
p
regular de n lados inscrito en una circunferencia de radio n |z|.
Ejemplo B.15. Calcular

z con z = 2e 3 i y representar el resultado en el plano complejo.

Solucin:

= 5 2 1.15

2e 3

/3+2k

Im
z
z2
z3

z1

z4

Re

z5

k=0

1 =

15

k=1

2 =

7
15

k=2

3 =

13
15

k=3

4 =

19
15

k=4

5 =

5
3

B.8. Forma Exponencial

Definicin B.21 (Forma Exponencial)


Un nmero z se puede expresar en la forma exponencial como sigue:

z = a + bi = = (cos + i sen ) = ei
Las utilidades de la forma exponencial son las mismas que las de la forma polar.

B.8.1. Operaciones en Forma Exponencial


Sean z = a + bi = = ei

z 0 = a0 + b0 i = 0 0 = 0 ei

zz 0 = (0 )e(+ )i
 
0
z

0 =
e( )i
z
0
z n = n eni

Nota B.5.

La demostracin en inmediata en base a la Seccin B.7.1, pgina 379 y la Seccin B.7.4, pgina 381.

Pedro Jos Hernando Oter

Clases de lgebra

384

TEMA B: Nmeros Complejos

Ejemplo B.16. Dados los nmeros z1 = 1 + i y z2 = 1 i calcular z1 z2 , z1 /z2 y z1100


utilizando la forma exponencial.
Solucin:

i
i
2e 4
;
z = 1 i = 2e 4

z1 z2 = ( 2)( 2)e( 4 4 )i = 2e0 = 2

i
z1
2
= e( 4 + 4 )i = e 2 = i
z2
2

z =1+i=

i100
z1100 = ( 2)100 e 4 = 250 ei25 = 250 ei[12(2)+] = 250 ei = 250

B.8.2. Seno y Coseno Complejo


Teniendo en cuenta la frmula de Euler 11 , las funciones trigonomtricas seno y coseno de un nmero
real se pueden definir como:

cos =

ei + ei
2

2 cos
cos + i sen + cos i sen
=
= cos
2
2

sen =

ei ei
2i

2i sen
sen + i sen cos + i sen
=
= sen
2i
2i

Siguiendo estas frmulas se pueden definir las funciones trigonomtricas seno y coseno en el campo
de los nmeros complejos de la siguiente forma.

Definicin B.22 (Seno y Coseno Complejo)


Las funciones trigonomtricas seno, coseno y tangente se definen en el plano complejo de la
siguiente forma:

ezi ezi

sen z =

 zi

2i

sen z
ezi ezi
e ezi
tan z =
=
=
i

cos z
i(ezi + ezi )
ezi + ezi

ezi + ezi

cos z =
2
Nota B.6. Se definen las Funciones Hiperblicas: seno hiperblico, coseno hiperblico y tangente hiperblica, de un
nmero x , de la siguiente forma:

senh (x) =

ex ex
2

cosh (x) =

ex + ex
2

Verificndose, entre otras, la siguiente propiedad bsica:

11 Ver

tanh (x) =

senh (x)
ex ex
= x
cosh (x)
e + ex

cosh 2 (x) senh 2 (x) = 1

el Teorema B.1, pgina 380.

Clases de lgebra

Pedro Jos Hernando Oter

B.8. Forma Exponencial

385

B.8.3. Logaritmo Complejo


Teorema B.3 (Logaritmo Complejo)
Dado un nmero complejo z = a + bi = = ei , con z 6= 0, se define el logaritmo (natural
o neperiano) complejo de la siguiente forma:
log z = log ( ) = log + ( + 2k)i

Demostracin B.6
Sea z = y queremos calcular log z = x + yi :
z=e

Nota B.7.

x+yi

= e (cos y + i sen y) =

exy

ex

x = log

y + 2k

El cambio de base 12 en los logaritmos complejos se hace de forma anloga a los logaritmos reales:
(Frmula de Cambio de Base)

loga z = logb z loga b

Existen infinitos logaritmos neperianos de un z 6= 0, que se obtienen a travs de la frmula del


Teorema B.3, dndo valores a k.

U
P

Definicin B.23 (Logaritmo Principal)


Se denomina logaritmo principal de z 6= 0 a aquel logaritmo cuya parte imaginaria, ( + 2k),
es positiva y lo ms pequea posible.

Ejemplo B.17. Calcular el logaritmo principal del nmero z =

3 + i.

Solucin:
z=

log(z) = log 2 + (

3 + i = 2 6

+ 2k)i
6

Z
(Contina en la pgina siguiente)

12 El

logaritmo en base b de un nmero x se define como:


logb x = y

Pedro Jos Hernando Oter

by = x

Clases de lgebra

386

TEMA B: Nmeros Complejos

Ejemplo B.17 (Continuacin).


Tenemos que encontrar el valor de k que hace ( + 2k), es positiva y lo ms pequea posible.
..
.
k = 1

( 2) = 11
6

k=0

() =

k=1

( + 2) =

13
6

k=2

( + 4) =

25
6

..
.
Por tanto, en este caso el logaritmo principal es:

log ( 3 + i) = log 2 + i
6
Ejemplo B.18. Comprobar la veracidad del resultado del ejemplo anterior.
Solucin: Como por definicin de logaritmo:
logb x = y

by = x

En nuestro caso la base es el nmero e y por tanto:

log ( 3 + i) = log 2 + i
6

elog 2+ 6 i =

3+i

Vamos a comprobarlo:
e

log 2+
6i

=e

log 2

6i

= 2e

6i

=2

3 1
+ i) = 3 + i
= 2(cos + i sen ) = 2(
6
6
2
2

Por tanto, el resultado es correcto.

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Clases de lgebra

Pedro Jos Hernando Oter

B.8. Forma Exponencial

387

Bibliografa
O. BRETSCHER, Linear algebra with applications, Prentice Hall. 2 Edition. 2001.
J. BURGOS, lgebra lineal (Ed. McGraw-Hill, 2000)
M. CORRAL, Trigonometry, http://www.mecmath.net/trig. 2009.
B. KOLMAN, lgebra lineal con aplicaciones y Matlab, Sexta Edicin, (Prentice Hall,
1999).
D. C. LAY, lgebra lineal y sus aplicaciones, Segunda Edicin, (Addison-Wesley, 1999).
B. NOBLE y J. W. DANIEL, lgebra lineal aplicada, Tercera Edicin, (Prentice Hall
Hispanoamericana, 1989).

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

D. POOLE, lgebra lineal, una introduccin moderna, Thomson. 2004.

Pedro Jos Hernando Oter

Clases de lgebra

:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=

Você também pode gostar