Você está na página 1de 226

lgebra Lineal

y
Matemtica Discreta
(Actualizado para el curso 2013/2014)

Por Pablo J. Cordero Ortega y Francisco J. Rodrguez Snchez (2013)

La versin ms actualizada puede obtenerse de


https://sites.google.com/site/mathsengineering/home/algebra-lineal

Esta obra est licenciada bajo la Licencia Creative Commons


Atribucin-NoComercial-CompartirIgual 3.0 Unported.
Para ver una copia de esta licencia, visita
http://creativecommons.org/licenses/by-nc-sa/3.0/.

G RADOS EN I NGENIERA DE T ELECOMUNICACIN


U NIVERSIDAD DE M LAGA

ndice general
1. Matrices y Sistemas de Ecuaciones Lineales
1.1. Matrices . . . . . . . . . . . . . . . . . .
1.2. Equivalencia de matrices . . . . . . . . .
1.3. Sistemas de ecuaciones lineales . . . . .
Ejercicios Propuestos . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

1
1
8
13
19

2. Estructuras Algebraicas
2.1. Conjuntos . . . . . . . . . . . . . . .
2.2. Relaciones internas . . . . . . . . . .
2.3. Funciones . . . . . . . . . . . . . . .
2.4. Estructuras algebraicas . . . . . . . .
2.5. El cuerpo de los nmeros complejos
Ejercicios Propuestos . . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

23
24
31
35
38
46
58

3. Tcnicas de Recuento
3.1. Principios bsicos . . . . . . . . . .
3.2. Permutaciones y combinaciones . .
3.3. Principio de inclusin y exclusin .
3.4. Particiones y nmeros de Stirling .
3.5. Ecuaciones de Recurrencia . . . . .
Ejercicios Propuestos . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

65
66
68
77
80
82
95

4. Espacios vectoriales
4.1. Definicin y propiedades . . .
4.2. Subespacios vectoriales . . . .
4.3. Bases y dimensin . . . . . . .
4.4. Operaciones con subespacios
4.5. Espacios cocientes . . . . . . .
Ejercicios Propuestos . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

101
101
105
109
113
117
118

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

5. Aplicaciones lineales
121
5.1. Definicin y propiedades . . . . . . . . . . . . . . . . . . . . . 122
5.2. Representacin matricial de una aplicacin lineal . . . . . . . 130
5.3. Matrices semejantes y endomorfismos . . . . . . . . . . . . . 136
III

NDICE GENERAL

IV

5.4. Teorema de diagonalizacin . . . . . . . . . . . . . . . . . . . 140


5.5. Aplicaciones de la diagonalizacin . . . . . . . . . . . . . . . 144
Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6. Formas bilineales y Producto escalar
6.1. Formas bilineales . . . . . . . . . . . .
6.2. Formas cuadrticas . . . . . . . . . . .
6.3. Producto escalar . . . . . . . . . . . . .
6.4. Subespacios ortogonales . . . . . . . .
6.5. Diagonalizacin ortogonal . . . . . . .
6.6. Diagonalizacin de formas cuadrticas
Ejercicios Propuestos . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

153
154
159
162
174
179
183
192

7. Geometra
197
7.1. El Espacio afn . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.2. El espacio afn eucldeo . . . . . . . . . . . . . . . . . . . . . . 203
Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . 215

TEMA 1
MATRICES Y SISTEMAS DE
ECUACIONES LINEALES

ndice
1.1.

Matrices . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1. Operaciones con matrices . . . . . . . . .
1.1.2. Determinantes . . . . . . . . . . . . . . . .
1.1.3. El Anillo de matrices cuadradas . . . . . .
1.2. Equivalencia de matrices . . . . . . . . . . . . . .
1.2.1. Matrices escalonadas . . . . . . . . . . . .
1.2.2. Transformaciones y matrices elementales
1.2.3. Clculo del rango y de la inversa . . . . .
1.3. Sistemas de ecuaciones lineales . . . . . . . . . . .
1.3.1. Teorema de Rouch-Frbenius . . . . . .
1.3.2. Resolucin de sistemas . . . . . . . . . . .
Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . .

1.1.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

1
3
4
6
8
8
9
12
13
15
15
19

Matrices

Definicin 1.1. Llamamos matriz A de orden m n sobre un cuerpo K, a


m n elementos del cuerpo dispuesto en una tabla de la forma
Si n = 1 tenemos una
0

a11 a12 . . . a1n


B ..
..
.. C = ( a )
..
A=@ .
.
ij
.
. A
am1 am2 . . . amn
1

i = 1, 2, . . . , m
j = 1, 2, . . . , n

matriz columna, si m = 1
tenemos una matriz fila. Si
m = n tenemos una matriz
cuadrada.

Matrices y Sistemas de Ecuaciones Lineales

Al conjunto de todas las matrices de orden m n sobre K lo expresamos


Mmn (K ). Normalmente trabajaremos con el cuerpo de los reales K = R
y, ms ocasionalmente, el cuerpo de los complejos K = C. Generalmente
sobreentenderemos el cuerpo y expresaremos este conjunto como Mmn .
Matriz traspuesta Si A = ( aij ) 2 Mmn llamamos matriz transpuesta de
Aa
A T = ( aijT ) = ( a ji ) 2 Mnm
Es decir, intercambiamos filas y columnas. Claramente se tiene

Por ejemplo, si A =

AT

=A

0
1

1 4
1 2 3
, entonces A T = @2 5A.
4 5 6
3 6

Diagonal principal Dada A = ( aij ) 2 Mmn , llamamos diagonal principal a los elementos de la forma aii . Aqu sealamos la diagonal principal en

1 2 3
la matriz A de orden 2 3 anterior:
4 5 6
Matrices triangulares y diagonales
Decimos que una matriz U = (uij ) es triangular superior cuando los
elementos que estn debajo de la diagonal son todos ceros, es decir,
uij = 0 para todo i > j.
Decimos que una matriz L = (lij ) es triangular inferior cuando los
elementos que estn encima de la diagonal son todos ceros, es decir,
uij = 0 para todo i < j.
Las matrices diagonales
donde todos los elementos
de la diagonal son el
mismo elemento se llaman
matrices escalares.

Decimos que una matriz D = (dij ) es diagonal si es triangular superior


e inferior, es decir: i 6= j =) dij = 0.
Ejercicio 1.2. Construye matrices triangulares de todo tipo: inferiores, superiores
y diagonales (cuadradas y no cuadradas).
En caso de matrices cuadradas tenemos las siguientes definiciones:

Las matrices simtricas y


antisimtricas
necesariamente son
matrices cuadradas.
Porqu?

Matrices simtricas. Una matriz A es simtrica cuando si A T = A.


Matrices antisimtricas.

Una matriz A es antisimtrica cuando A T =

A.

1.1 Matrices

Traza. Es la suma de los elementos de la diagonal principal.


tr( A) =

aii = a11 + a22 + + ann

i =1

Definicin 1.3. Llamamos matriz identidad de orden n, In , a la nica matriz Claramente, la matriz
identidad es un ejemplo
diagonal n n cuyos elementos en la diagonal principal son todos unos.
de matriz escalar.
0
1
1 0 ... 0
0
1

1 0 0
B0 1 . . . 0C
1 0
B
C
I2 =
, I3 = @0 1 0A , . . . , In = B . . .
.C , . . .
0 1
@ .. .. . . .. A
0 0 1
0 0 ... 1

1.1.1. Operaciones con matrices


Producto de matrices Si A 2 Mmn (K ) y B 2 Mn p (K ), se define C =
A B como la matriz de orden m p tal que
cij =

aik bkj = ai1 b1j + ai2 b2j + + ain bnj .

k =1

Ejercicio 1.4. Define tres matrices reales: A 2 M32 , B 2 M22 y C 2 M21


y comprueba la propiedad asociativa ( A B) C = A ( B C ).
Es fcil probar que el producto de matrices no es conmutativo. Adems
el producto, respecto a la traspuesta cumple la siguiente
Proposicin 1.5. Si A y B son matrices multiplicables entonces

( A B)T = BT AT
Demostracin. Sea A B = C = (cij = nk=1 aik bkj ).
Entonces ( A B) T = (c ji ) = nk=1 a jk bki .

T aT =
Por otro lado, B T A T = nk=1 bik
nk=1 bki a jk = ( A B) T .
kj

Ejercicio 1.6. Prueba que, para cualquier matriz A, las matrices B = AA T y


C = A T A son simtricas.
Operaciones vectoriales El conjunto Mmn se puede dotar de suma y de
producto externo por elementos del cuerpo, as:
La suma de matrices es,
A + B = ( aij ) + (bij ) = ( aij + bij )
l A = l ( aij ) = (laij )

por tanto, una suma


elemento a elemento y el
producto de un nmero
por una matriz es
multiplicar cada elemento
de la matriz por dicho
nmero.

Matrices y Sistemas de Ecuaciones Lineales

Proposicin 1.7. Si A, B 2 Mmn (K ) son matrices y l 2 K es un nmero,


entonces:
1. ( A + B) T = A T + B T
2. (lA) T = lA T
Demostracin. Es evidente con ms que aplicar las definiciones.

Ejercicio 1.8. Prueba que si A es una matriz cuadrada, entonces la matriz A + A T


es simtrica y la matriz A A T es antisimtrica.
Usa lo anterior para probar que toda matriz cuadrada se puede expresar como
suma de una matriz simtrica y otra antisimtrica.

1.1.2. Determinantes
Dada una matriz cuadrada A = ( aij ) 2 Mn definimos el determinante
de A como
det A = | A| =

a 2 Sn

1)sg(a) a1j1 a2j2 . . . anjn

8
9
1 ! j1 >
>
>
>
>
< 2 ! j2 >
=
siendo a =
cada una de las permutaciones y donde sg(a) de.
..
>
>
>
>
>
>
:
;
n! jn
nota el nmero de inversiones de a o, lo que es lo mismo, el nmero de
veces
que9hay que intercambiar elementos de las imgenes en la identidad
8
1
!
1 >
>
>
>
>
< 2!2 >
=
para conseguir a.
.
.. >
>
>
>
>
>
:
;
n!n
0

1
a11 a12 a13
Ejemplo 1.9. Para calcular el determinante de A = @ a21 a22 a23 A calcua31 a32 a33
lamos, en primer lugar, el conjunto S3 de todas las permutaciones de tres
elementos:
88
9 8
9 8
9 8
9 8
9 8
99
< < 1!1 = < 1!2 = < 1!3 = < 1!1 = < 1!3 = < 1!2 = =
2!2
2!1
2!2
2!3
2!1
2!3
S3 =
,
,
,
,
,
::
; :
; :
; :
; :
; :
;;
3!3
3!3
3!1
3!2
3!2
3!1

1.1 Matrices

Calculamos ahora sg(a) para cada a 2 S3 y obtenemos 0, 1, 1, 1, 2 y 2 respectivamente. El determinante de A es, por tanto,
a11 a12 a13
a21 a22 a23 =
a31 a32 a33

= a11 a22 a33

a12 a21 a33

a13 a22 a31

a11 a23 a32 + a13 a21 a32 + a12 a23 a31

El problema que tiene la definicin anterior es que hace tedioso (en la


prctica no factible) el clculo determinantes de orden superior, ya que

|S4 | = 4! = 24, |S5 | = 5! = 120, |S6 | = 6! = 720, . . .


Para facilitar el clculo del determinante usaremos las siguientes propiedades (no se prueban):
Propiedades de los determinantes
1. El determinante de una matriz diagonal o triangular es el producto
de los elementos de la diagonal principal.
2. | A| = | A T |.
3. | A B| = | A| | B|.
4. Al intercambiar dos filas (o columnas) el determinante cambia de
signo.
5. Si dos filas (o columnas) son iguales, el determinante es cero.
6. Si una fila (o columna) es de ceros, el determinante es cero.
7. Si multiplicamos una fila (o columna) por un escalar l, el determinante queda multiplicado por l.
8. Si una fila (o columna) es combinacin lineal de las restantes, el determinante es cero.
9. Si cambiamos la fila (o columna) Ai por Ai + lA j , el determinante no
cambia.
Ejercicio 1.10. Usa las propiedades 4 y 9 y 1 para calcular el siguiente determinante:
2
1
0
0

3
3
0
0

0
0
1
1

4
3
= =
1
0

1
0
0
0

3
3
0
0

0
0
1
0

3
2
=
1
1

Matrices y Sistemas de Ecuaciones Lineales

Menor. Llamamos menor de una matriz a cualquier determinante que se


pueda obtener eliminando filas y/o columnas de dicha matriz.
0
1
1
1 2
2
3 6
6 A entonEjemplo 1.11. Consideremos la matriz A = @ 3
5
5 4
4
ces, eliminando la primera 1 y las columnas 2 y 3, el menor obtenido es
M=

3
5

6
=
4

12 + 30 = 18

Adjuntos o cofactores. Dada una matriz cuadrada A 2 Mn llamaremos


adjunto o cofactor del elemento aij al resultado de multiplicar ( 1)i+ j por el
menor obtenido al eliminar la fila i y la columna j de la matriz A. Se acostumbra a expresar por Aij al adjunto del elemento aij .
El siguiente resultado (que no probaremos) nos da un mtodo para calcular el determinante de cualquier matriz cuadrada, que se denomina mtodo
de desarrollo por adjuntos de una fila (o una columna).
Teorema 1.12. Dada una matriz cuadrada A 2 Mn , para todo k 2 {1, ..., n} se
tiene que

| A| = a1k A1k + a2k A2k + + ank Ank =


= ak1 Ak1 + ak2 Ak2 + + akn Akn
Ejercicio 1.13. Calcula de nuevo el determinante del ejercicio 1.10 desarrollando
por la cuarta fila. Haz lo mismo por la tercera columna.

1.1.3. El Anillo de matrices cuadradas


En el conjunto de matrices cuadradas Mnn (K ) = Mn el producto de
matrices es una operacin interna asociativa, con elemento neutro (In ) y
no conmutativa, que distribuye con la suma, por tanto, (Mn , +, ) es una
anillo (no conmutativo) unitario (vase 43).
Matriz inversa Si una matriz A es regular, entonces tiene simtrico respecto al producto (inversa) A 1 y, por tanto, es una matriz invertible. Las
matrices que no son invertibles se denominan matrices singulares.
Definicin 1.14 (Matriz adjunta). Llamaremos matriz adjunta de una matriz cuadrada A a la matriz formada al sustituir cada elemento de A por su
adjunto.
adj A = ( Aij )

1.1 Matrices
Ejemplo 1.15. Si A =

1 2
3 4

entonces adj A =
0

Ejercicio 1.16. Calcula la matriz adjunta de B = @

4
2
1
1
4

3
1
2
2
5

1
3
3 A.
6

La matriz adjunta nos permite el clculo de la matriz inversa. El desarrollo del determinante por adjuntos nos da el siguiente resultado:
Proposicin 1.17. Si A es una matriz cuadrada, entonces
0
1
det A
0
...
0
B 0
det A . . .
0 C
B
C
A adj( A T ) = B .
.. C = det A In
@ ..
. A
0

. . . det A

Nota. Dicho de otro modo, al multiplicar una matriz cuadrada por la matriz adjunta de su traspuesta nos da una matriz escalar (vase nota al Ejemplo 1.3 en pgina 3) formada por el det A. Tambin es fcil de comprobar
que la matriz adjunta de la matriz traspuesta es igual que la matriz traspuesta de la adjunta, es decir, adj( A T ) = (adj A) T .
De lo anterior se deduce que si una matriz tiene determinante no nulo,
podemos dividir por l y obtenemos una expresin de la matriz inversa.
Teorema 1.18. Una matriz cuadrada A es invertible si y solo si su determinante
det A = | A| 6= 0. Adems se cumple
A

adj( A T )
| A|

A partir del anterior teorema es evidente el siguiente


Corolario 1.19. Si A es una matriz invertible, entonces A T tambin lo es y
1
T
AT
= A 1

Ejercicio 1.20. Calcula la inversa de las matriz A del ejemplo 1.15 y de la matriz
B del ejercicio 1.16.
Nota. Como se ver en el tema ms adelante (proposicin 2.51 en pgina 40) en
todo anillo el elemento simtrico (inverso) es nico, por tanto la inversa de una
matriz es nica. Adems se verifica

( A B)

=B

(1.1)

Ejercicio 1.21. Da dos matrices cuadradas reales y comprueba la igualdad (1.1)


anterior.

Matrices y Sistemas de Ecuaciones Lineales

1.2. Equivalencia de matrices


Dos matrices A, B 2 Mmn se dice que son
equivalentes por filas si y solo si existe una matriz invertible Q 2 Mm
tal que
B=Q 1A
Nota. Conviene considerar la inversa Q
ma 5.30).

como se justificar mas adelante (teore-

equivalentes por columnas si y solo si existe una matriz invertible P 2


Mn tal que
B = AP
equivalentes (a secas) si y solo si existen matrices invertibles Q 2 Mm
y P 2 Mn tales que
B = Q 1AP
Observaciones:
1. Si dos matrices son equivalentes por filas (o por columnas) entonces
son equivalentes. Esto es evidente, puesto que
B=Q

A)B=Q

A In

En cambio dos matrices equivalentes no tienen por que ser equivalentes por filas ni por columnas.
2. En el conjunto de las matrices de orden m n las tres relaciones anteriores son de equivalencia.
Ejercicio 1.22. Comprueba las propiedades reflexiva, simtrica y transitiva de una
de estas tres relaciones (las otras se prueban de forma similar).

1.2.1.

Matrices escalonadas

Dada una matriz m n llamamos cabecera de fila (columna) al primer


elemento no nulo de la fila (columna) si existe. En caso de no existir una
cabecera de fila (columna) es porque la fila (columna) es de ceros.
Definicin 1.23. Diremos que una matriz es escalonada por filas si cumple
las tres condiciones siguientes:
1. Las filas de ceros, si existen, estn todas al final.
2. La cabecera de una fila siempre est ms a la derecha que la cabecera
de la fila precedente.

1.2 Equivalencia de matrices

Cambiando filas por columnas y derecha por debajo en esta definicin obtenemos la definicin de escalonada por columnas.
Ejemplo 1.24.
Matriz escalonada por filas
0
1
0
1 0 2 3
@0 0 0 1 0A
0 0 0 0 4

Matriz escalonada por columnas


0
1
2 0 0
@2 0 0A
3 1 0

Definicin 1.25. Diremos que una matriz es escalonada reducida por filas si
cumple:
1. Es escalonada por filas.
2. Cada cabecera de fila es el nico elemento no nulo de su columna.
3. Cada cabecera de fila es un 1.
Cambiando filas por columnas en esta definicin obtenemos la definicin de escalonada reducida por columnas.
Ejemplo 1.26. Las matrices del ejemplo 1.24 no son escalonas reducidas.
Las siguientes s lo son.
Matriz
escalonada reducida por filas
0
1
0 1
1 0 0
@0 0 0 1 0A
0 0 0 0 1

Matriz escalonada
reducida por columnas
0
1
1 0 0
@2 0 0A
0 1 0

La siguiente proposicin simplifica las cosas.


Proposicin 1.27. Una matriz A es escalonada (reducida) por filas si y solo si la
traspuesta A T es escalonada (reducida) por columnas.
Demostracin. Es evidente.

1.2.2. Transformaciones y matrices elementales


Las transformaciones elementales son operaciones efectuadas a las filas
(o columnas) de una matriz de orden m n de forma que la nueva matriz
obtenida es equivalente por filas (o columnas) a la anterior.
Las matrices elementales son el resultado de aplicar una transformacin
elemental por filas (o columnas, da igual) a la matriz identidad.

10

Matrices y Sistemas de Ecuaciones Lineales


Transformacin elemental por filas
(igual por columnas)
Tipo I

Intercambiar la fila i por la j (i 6= j)


Fi ! Fj

Tipo II

Multiplicar la fila i por un elemento


a 6= 0
Fi ! aFi

Tipo III

Sumar a la fila i la fila j multiplicada


por un elemento a (i 6= j) Fi !
Fi + aFj

Matriz elemental
(Ejemplo)
0
1
1 0 0
@0 0 1A
0 1 0
0
1
1 0 0
@0 1 0 A
0 0 a
0
1
1 0 0
@0 1 0A
0 a 1

Cuadro 1.1: Transformaciones y matrices elementales.


Ejemplo 1.28. En el cuadro 1.1 exponemos los tres tipos de transformaciones elementales y ejemplos correspondientes de matrices elementales.
Una trasformacin elemental por filas (columnas) en una matriz A es el
resultado de multiplicar a la izquierda (derecha) de dicha matriz por la correspondiente matriz elemental del mismo tipo. Luego las transformaciones
elementales por filas (columnas) nos dan matrices equivalentes por filas (columnas).
Ejercicio 1.29. Sean las matrices
0
1
0
1

1 2
0 0 1
1
@
A
@
A
A = 3 4 , E1 = 0 1 0 y E2 =
0
5 6
1 0 0

2
1

(E1 y E2 son de tipo I y III, respectivamente)

Calcula los productos E1 A y A E2 . Fjate bien y observa que hacen estos productos (el primero sobre las filas de A y el segundo sobre las columnas de A).
Proposicin 1.30. Las matrices elementales son todas invertibles y su inversa es
otra escalonada del mismo tipo.
Demostracin. Es trivial comprobar que las matrices elementales tienen todas determinantes no nulos. Concretamente, si E1 , E2 (a) y E3 son matrices
elementales de tipo I, II y III, respectivamente, los determinantes son:
det E1 =

det E2 (a) = a 6= 0
det E3 = 1

1.2 Equivalencia de matrices

11

sin ms que desarrollar convenientemente el determinante por adjuntos


por una columna.
Con un poco ms de atencin se puede comprobar que la inversa de
cada una de ellas es tambin elemental y del mismo tipo. As E1 1 = E1 ,
E2 (a) 1 = E2 ( a1 ) e, igualmente, dejamos al alumno que piense cmo es la
inversa de una matriz elemental de tipo III.

Ejercicio 1.31. Siguiendo la proposicin anterior, calcula calcula las inversas de


las siguientes matrices:
0

1
0
1
0
0 1 0
1 0 0
1 0
E1 = @1 0 0A E2 = @0 3 0A E3 = @0 1
0 0 1
0 0 1
0 0

1
3
0 A
1

Rango de una matriz


Llamaremos combinacin lineal de filas (o columnas) f 1 , . . . , f k a una expresin de la forma
a1 f 1 + a2 f 2 + + a k f k
donde a1 , a2 , . . . , ak 2 K.
Diremos que un conjunto de filas (o columnas) de una matriz son linealmente independientes si ninguna de ellas se puede expresar como combinacin lineal de las dems. En caso contrario se dice que son linealmente
dependientes.
0

1
1 1 2 0
Ejemplo 1.32. Dada la matriz @0 1 1 1A podemos asegurar que sus
1 0 1 1
filas son linealmente independientes mintras que sus columnas no lo son
(son linealmente dependientes) ya que la tercera es suma de las dos primeras (C3 = C1 + C2 ).
Rango por filas y rango por columnas Llamaremos rango por filas (columnas) de una matriz al mximo nmero de filas (columnas) linealmente independientes.
Teorema 1.33. El rango por filas y el rango por columnasde cualquier matriz
coinciden. A dicho valor lo llamos rango de la matriz.
Teorema 1.34. El rango de una matriz coincide con el orden del mayor menor
distinto de cero de la matriz.
Ejercicio 1.35. Calcula el rango de las matrices de los ejemplos 1.11 y 1.32.

12

Matrices y Sistemas de Ecuaciones Lineales

Mtodos de Gauss y Gauss-Jordan


Los siguientes teoremas son el ncleo de las secciones siguientes y se
pueden probar (aunque no lo haremos) de forma algortmica. Se corresponden con los llamados mtodo de Gauss y mtodo de Gauss-Jordan.
Teorema 1.36. Toda matriz de orden m n distinta de la matriz 0 es equivalente
por filas (columnas) a una matriz escalonada por filas (columnas).
Teorema 1.37. Toda matriz de orden m n distinta de la matriz 0 es equivalente
por filas (columnas) a una nica matriz escalonada reducida por filas (columnas).

1.2.3.

Clculo del rango de una matriz y de la matriz inversa (por


el mtodo de Gauss)

Las matrices escalonadas tienen un rango especialmente fcil de calcular, puesto que es el nmero de filas (o de columnas) que no son nulas.
Adems, las transformaciones elementales mantienen el rango, por tanto:
Teorema 1.38. Dos matrices equivalentes tienen el mismo rango.
Ejemplo 1.39. Si aplicamos operaciones elementales por filas a la matriz A
del ejemplo 1.11
1
1
0
0
1
1 2
2
1
1
2
2
@3
3 6
6 A!@ 0
0
6
6 A
5
5 4
4
0
0
0
0
que nos dice (sin calcular ningn determinante) que el rango es 2.
Ejercicio 1.40. Calcula el rango de la siguiente matriz
0
1
1
1
0
2
B 3
3
6
6 C
B
C
@ 5
5
4
4 A
2
2
2
2
Clculo de la matriz inversa
Los teoremas 1.37 y 1.38 nos permite llegar a la conclusin de que una
matriz invertible es equivalente por filas (o por columnas) a la matriz identidad del mismo orden, es decir, si A es una matriz cuadrada de orden n de
rango tambin n, entonces por transformaciones elementales
A

!I

Por filas

o, lo que es lo mismo, podemos encontrar una sucesin de matrices elementales E1 , E2 , . . . Ek tales que

1.3 Sistemas de ecuaciones lineales

Ek Ek

13

E2 E1 A= I

Aplicando la propiedad asociativa del producto de matrices

( Ek Ek

E1 ) A = I ) A

= Ek Ek

E1

Si representamos ( A| B) la matriz ampliada, es decir, la matriz obtenida


aadiendo a las columnas de A las columnas de B, en la prctica se obtiene
la inversa siguiendo el procedimiento que se expresa en este diagrama
(A | I)

Por filas

( E1 A | E1 I )

Por filas

0
1
Ejemplo 1.41. Si A = @3 2
8 7
por este mtodo.
0
0
1
2 1 0 0
@ 3
2
1 0 1 0
8
7
6 0 0 1

( E2 E1 A | E2 E1 )

Por filas

Por filas

(I|A

1
2
1 A vamos a intentar calcular su inversa
6
1
A

Por filas

1 0
@ 0 1
0 0

1
5 2
8 3 A
8 3

1 4
2 4
0 5

y vemos que A no es invertible puesto que su rango es menor que 3.

Ejemplo 1.42. Aqu vemos el resultado de aplicar el mtodo a una matriz


de orden 4. Son clculos laboriosos, pero si tienes suficiente tiempo y paciencia puedes intentar el mtodo de los determinante y comparar
1
0
0
1
2
15 1 0 0 0
B 3
2
3
12 0 1 0 0 C
B
C Por filas
@ 8
7
6
7 0 0 1 0 A
15 12
7
0 0 0 0 1
0

1
B 0
B
@ 0
0

1.3.

0
1
0
0

0
0
1
0

0
0
0
1

61
240
1
2
5
16
7
120

29
30
3
2
1
2
1
30

89
80
3
2
3
16
3
40

7
15
1
2

C
C
0 A

1
30

Sistemas de ecuaciones lineales

Un sistema de m ecuaciones con n incgnitas x1 , x2 , . . . , xn lineal, siempre se puede expresar de la siguiente manera:
9
a11 x1 + a12 x2 + + a1n xn = c1 >
>
>
=
a21 x1 + a22 x2 + + a2n xn = c2 >
..
.
>
>
>
>
;
am1 x1 + am2 x2 + + amn xn = cm

14

Matrices y Sistemas de Ecuaciones Lineales

donde aij son elementos de un cuerpo (normalmente R o C).


Usaremos la siguiente terminologa:
Si, para todo i 2 {1, . . . , m}, ci = 0 decimos que el sistema es homogneo.
Llamamos solucin a cualquier n-upla x = ( x1 , x2 , . . . , xn ) 2 K n que
haga ciertas todas las igualdades.
Decimos que dos sistemas de ecuaciones son equivalentes si tienen
el mismo conjunto de soluciones.
Los sistemas de ecuaciones se clasifican segn sus soluciones segn el
siguiente cuadro

donde:

8
>
incompatible
>
>
>
<
8
< determinado
Sistema
>
>
compatible
>
>
: indeterminado
:

Incompatible: El conjunto de soluciones es vaco.


Compatible determinado: Tiene una nica solucin.
Compatible indeterminado: Tiene ms de una nica solucin. Si K = R o
K = C necesariamente son infinitas soluciones.
Ejercicio 1.43. Da ejemplos de sistemas (2 ecuaciones con 2 incgnitas) de cada
uno de los tipos anteriores, es decir, incompatible, compatible determinado e indeterminado.
Representacin matricial
Es muy conveniente la representacin del sistema en forma matricial.
0
10
1 0
1
a11 a12 a1n
x1
c1
B a21 a22 a2n C B x2 C B c2 C
B
CB
C B
C
B ..
..
.. C B .. C = B .. C
..
@ .
.
.
. A@ . A @ . A
|

am1 am2 amn


xn
{z
} | {z }
A

cm
| {z }
C

Que escribiremos AX = C. Obsrvese que aparecen dos matrices columnas, X o matriz de incgnitas y C o matriz de trminos independientes. A la
matriz de coeficientes A se le llama matriz del sistema.

1.3 Sistemas de ecuaciones lineales

15

Definicin 1.44 (Matriz ampliada del sistema). Es la matriz obtenida aadiendo a la matriz A del sistema la columna C de trminos independientes,
es decir
0
1
a11 a12 a1n c1
B a21 a22 a2n c2 C
B
C
( A|C ) = B ..
..
..
.. C
..
@ .
.
.
.
. A
am1 am2 amn cm

1.3.1. Teorema de Rouch-Frbenius


Consideraremos este importante teorema del lgebra lineal del que no
damos demostracin.
Teorema 1.45 (Rouch-Frbenius). Un sistema de ecuaciones lineales (real o
complejo) AX = C es compatible si y solo si el rango de la matriz de coeficientes
A es igual al rango de la matriz ampliada ( A|C ). Adems un sistema compatible
con n incgnitas
1. Es determinado si y solo si rango( A) = rango( A|C ) = n.
2. Es indeterminado si y solo si rango( A) = rango( A|C ) < n.

Al valor n rango( A) se le llama grado de libertad del sistema indeterminado y determina el nmero de parmetros que definen las soluciones.
Ejercicio 1.46. Determina los valores del parmetro a para que el sistema siguiente tenga soluciones.
9
x1 + 3x2 x3 =
4 >
>
=
2x1 + 4x2 + x3 =
2
2x1 + ax2 + 2x3 =
0 >
>
;
2x2 + x3 =
2

Indicacin: Una forma de


hacerlo es aplicar el mtodo
de Gauss conforme a la
seccin 1.2.3 a la matriz
ampliada y comparar
rango( A) y rango( A|C ).

[S OLUCIN : a = 14]

1.3.2. Resolucin de sistemas por eliminacin gaussiana


Dado un sistema de ecuaciones AX = C las transformaciones elementales
aplicadas a las ecuaciones (cambiar dos ecuaciones, multiplicar una ecuacin
por un nmero a 6= 0 y sumar a una ecuacin un mltiplo de otra) nos
devuelven un sistema de ecuaciones equivalentes. Esto se puede traducir
directamente a la aplicacin de operaciones elementales por filas a la matriz
ampliada del sistema ( A|C ). Se pretende, entonces encontrar una matriz
equivalente por filas a esta ltima que permita una ms fcil resolucin del
sistema, es decir

donde:

( A|C )

Por filas

( E| D )

Las operaciones
elementales
necesariamente han de ser
por filas. Las operaciones
por columnas no respetan
las soluciones del sistema.

16

Matrices y Sistemas de Ecuaciones Lineales

( E| D ) es escalonada

! Mtodo de Gauss

( E| D ) es escalonada
reducida

Mtodo de
Gauss-Jordan

Ejemplo 1.47. Supongamos que queremos resolver el siguiente sistema de


ecuaciones de tipo 4 3, es decir 4 ecuaciones con 3 incgnitas.
2x1 x2
x1 + x2 4x3
14x2 39x3
x1 2x2 + 3x3

9
= 1
>
>
=
= 0
=
13 >
>
;
=
4

(1.2)

El mtodo de Gauss consiste en realizar transformaciones elementales por


filas, hasta conseguir una matriz escalonada como la siguiente (no es la
nica posible)
0

2
B 1
B
@ 0
1

1
1
14
2

1
0
1
filas B
0 C
C Por
!B
@
13 A
4

0
4
39
3

2
0
0
0

1
3
0
0

0
8
5
0

1
1
1 C
C
25 A
0

Esto nos da un sistema de ecuaciones equivalentes a (1.2) pero mucho ms


fcil
9
2x1 x2
=1
=
3x2 8x3 = 1
;
5x3 = 25

El mtodo de Gauss-Jordan, requiere ms transformaciones elementales


para encontrar una matriz escalonada reducida, pero a cambio, esta matriz
es nica y adems las soluciones (si las hay) se encuentran directamente
0

2
B 1
B
@ 0
1

1
1
14
2

0
4
39
3

1
0
1
filas B
0 C
C Por
B
!
A
@
13
4

1
0
0
0

0
1
0
0

0
0
1
0

Claramente, la nica solucin del sistema original (1.2) es

( x1 , x2 , x3 ) = (7, 13, 5)

1
7
13 C
C
5 A
0

1.3 Sistemas de ecuaciones lineales

17

Sistemas Homogneos
Supongamos AX = 0, entonces
Todos los sistemas de ecuaciones lineales homogneos son compatibles. Esto es evidente, puesto que rango( A) = rango( A|0).
El sistema es compatible indeterminado si y slo si rango( A) < n.
Este caso existen soluciones distintas de la solucin trivial x1 = x2 =
= xn = 0.
Ejemplo 1.48. Vamos a resolver el siguiente sistema homogneo aplicando
el mtodo de Gauss.
9
2x + 3y z = 0 =
x 4y + z = 0
;
3x y = 0
que en forma matricial se expresa
0

2
@ 1
3

3
4
1

10 1 0 1
1
x
0
1 A@ y A = @ 0 A
0
z
0

Aplicamos el mtodo de Gauss a la matriz ampliada


0

2
@ 1
3

3
4
1

1
0
1 0
1
Por filas
1 0 A!@ 0
0 0
0

4
11
0

1
1 0
3 0 A
0 0

De donde deducimos que el sistema es compatible indeterminado con


un grado de libertad. Adems este mtodo nos lleva a resolver un sistema
ms fcil
x

4y + z = 0
11y 3z = 0

z=l

4y = l
11y = 3l

z=l
3
y=
l
11
3
x = 4( l )
11

l=

1
l
11

Si elegimos como parmetro z = 11l, simplificamos la expresin de las


soluciones:

( x, y, z) = (l, 3l, 11l)

18

Matrices y Sistemas de Ecuaciones Lineales

Sistemas cuadrados no homogneos. Mtodo de Cramer


Consideremos el caso de sistemas no homogneos en que hay coincidencia entre el nmero de ecuaciones y el nmero de incgnitas. En estos
casos, obviamente, la matriz del sistema es cuadrada. En este caso, del teorema de Rouch-Frbenius podemos enunciar el siguiente
Corolario 1.49. Un sistema cuadrado no homogneo AX = C es compatible determinado si y solo si det A 6= 0.
Aunque generalmente es mejor el mtodo de Gauss (o Gauss-Jordan)
para resolver este tipo de sistemas est muy extendido el mtodo de Cramer que se enuncia a continuacin:
Teorema 1.50 (Mtodo de Cramer). Si el sistema de ecuaciones
a11 x1 + a12 x2 + + a1n xn = c1
a21 x1 + a22 x2 + + a2n xn = c2
..
.
an1 x1 + an2 x2 + + ann xn = cn
Obsrvese que es
absolutamente necesario que
el determinante del sistema
| A| sea distinto de cero.

9
>
>
>
>
=
>
>
>
>
;

() AX = C

es compatible determinado, entonces cualquier solucin xi viene determinado por


la siguiente expresin:
a11
a21
..
.

xi =

an1

c1 a1n
c2 a2n
..
..
.
.
cn ann
| A|

donde el numerador es el determinante de la matriz que resulta de sustituir la


columna i-sima por la columna C.
Ejemplo 1.51. Para resolver el sistema de ecuaciones
9
x1 + 3x2 x3 = 1 =
x1 + x2 + 3x3 = 0
;
2x1 + x2 + x3 = 2
comprobamos que tiene solucin nica ya que

1 3
1 1
2 1

1
3
1

= 22 6= 0.

1.3 Sistemas de ecuaciones lineales

19

Entonces las soluciones son:

x1 =

x2 =

x3 =

1 3
0 1
2 1
22
1 1
1 0
2 2
22
1 3
1 1
2 1
22

1
3
1

9
11

=
1
3
1

1
0
2

3
22

5
22

Ejercicios Propuestos
Ej. 1.1 Dadas las matrices A =
calcula, si es posible:

2
3

1
0
,B =
2
4

a) A + B.

c) CB y C T B.

e) ABC.

b) AC.

d) (2A + B) C.

f)

1
1
yC =
2
2

g)

1
0
2 6 3
1
Ej. 1.2 Dadas las matrices A = @ 0 9 5A y B = @2
6 2 1
3
prueba si es verdadero o falso:
a) AB = BA.
b) ( A +

B )2

c) ( A
A2

+ 2AB +

B2 .

d) ABA

1
2B
2
A , B2 y

CT

A .
C2 .

1
1 1
4 2A, com5 7

B)( A + B) = A2
1

3 5
,
1 1

B2 .

= B.

Ej. 1.3 Mediante matrices elementales, transforma la matriz A en una


escalonada equivalente E. Determina las matrices P y Q tales que PAQ 1 =
E y determina el rango de A.
0

1
a) A = @2
1

4
5
10

1
1
3 A.
11

3
b) A = @1
5

1
1
4 A.
2

3
c) A = @ 6
4

5
7
1

1
2
1

1
4
5A.
0

20

Matrices y Sistemas de Ecuaciones Lineales

Ej. 1.4 Mediante operaciones elementales, determina el rango de las siguientes matrices segn el valor del parmetro a.
a)

1 3
4 a

b)
c)

2 a 1
6 3 4

1
2
a
@6 4 + a A
4
6

1
a 1 1
d) @1 a 1A
1 1 a

Ej. 1.5 Mediante operaciones elementales, determina, si existe, la matriz


inversa de cada una las siguientes matrices.
a)

5 4
7 6

1
2 1 3
b) @ 1 4 0A
1 1 0

1
0
Ej. 1.6 Calcula el determinante | A| =
2
5

3
c) @4
2
6
3
0
3

2
1
1
4

1
1 2
1 1A
4 6

0
4
.
2
0

1. Desarrollando por la cuarta fila.


2. Desarrollando por la fila o columna para la que es necesario calcular
menos adjuntos.
3. Desarrollando por la segunda columna realizando antes operaciones elementales de forma que solamente sea necesario calcular un
adjunto.
Ej. 1.7 Sabiendo que A y B son matrices cuadradas de orden 4 tales que
| A| = 5 y | B| = 6, calcula, si es posible:
a) | AB|.

b)

| B T |.

c) | ABA T |.

d) | ABA

1 |.

e) |( AB) T |.
f) | A

g) |2B|.

1 |.

h) | A2 |.

Ej. 1.8 Calcula la inversa de las siguientes matrices para aquellos valores del parmetro real a para los que sea posible.
0

1
a 2 0
a) @0 1 1A
1 0 a

a
b) @10
4

1
4
2a

1
5
1A
9

Ej. 1.9 Resolver por el mtodo de Gauss y, si es posible, por el mtodo


de Cramer, los siguientes sistemas de ecuaciones lineales

1.3 Sistemas de ecuaciones lineales


9
x+y z = 0 =
a) x 2y + z = 0 .
;
2x y = 0

21

b)

x + y 2z + 3t = 1
x 2y 3z 4t = 0
2x + 3y + 5z + 7t = 1
2x + 2y + 4z + 6t = 2

9
>
>
=
>
>
;

Ej. 1.10 Clasificar y resolver, donde sea posible, el sistema de ecuaciones


lineales
9
x + ay + 3z = 2 =
x+y z = 1
.
;
2x + 3y + az = 3

Ej. 1.11 (Sept. 2011) Clasifica el siguiente sistema de ecuaciones en funcin del parmetro m y resulvelo para algn valor de m para el que el
sistema sea compatible.
9
mx + mz = 0 >
>
=
my + z = 0
mx + y + mz = m >
>
;
mx + my + mz = 0
Ej. 1.12 Tres amigos, Pedro, Luis y Pablo, deciden asociarse para montar
una empresa, necesitando para ello un capital de 15.000e. Como no todos
disponen del mismo dinero deciden invertir de la siguiente manera: Pedro
aporta el triple de lo que ponen Luis y Pablo juntos, y por cada 20e que
aporta Luis, Pablo aporta 30e. Cunto capital aport cada uno de ellos?
Ej. 1.13 Una fbrica de dispositivos elctricos fabrica tres tipos de componentes a partir de cobre y estao:
Disponsitivo A: Necesita 8 unidades de cobre y ninguna de estao.
Disponsitivo B: Necesita 6 unidades de cobre y 2 de estao.
Disponsitivo C: Necesita 7 unidades de cobre y 1 de estao.
En un momento dado se disponen de 100 unidades de cobre y 12 de estao,
1. Cuntas dispositivos de cada tipo se pueden fabricar usando todo
el material disponible?
2. Sabiendo que el precio de produccin del dispositivo A es de 2e,
el de B es de 7e y el de C es de 5e, Hay alguna combinacin que
cueste 60e consumiendo todo el material?
3. Cules son las cantidades mxima y mnima de euros que se pueden invertir para tener produccin de componentes con la condicin
de invertir todo el material de cobre y estao?

TEMA 2
ESTRUCTURAS
ALGEBRAICAS

ndice
2.1.

2.2.

2.3.

Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

2.1.1.

Conjunto de las Partes . . . . . . . . . . . . . . .

25

2.1.2.

Operaciones con conjuntos . . . . . . . . . . . .

25

2.1.3.

Producto cartesiano y relaciones . . . . . . . . .

28

Relaciones internas . . . . . . . . . . . . . . . . . . . . . .

31

2.2.1.

Relaciones de equivalencia . . . . . . . . . . . .

32

2.2.2.

Los enteros modulares. . . . . . . . . . . . . . . .

34

2.2.3.

Relaciones de orden . . . . . . . . . . . . . . . .

35

Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

2.3.1.

Composicin e inversa de Funciones . . . . . . .

36

2.3.2.

Tipos de funciones . . . . . . . . . . . . . . . . .

38

Estructuras algebraicas . . . . . . . . . . . . . . . . . . .

38

2.4.1.

Estructuras algebraicas con una operacin . . . .

42

2.4.2.

Estructuras algebraicas con dos operaciones . .

43

El cuerpo de los nmeros complejos . . . . . . . . . . . .

46

2.5.1.

Definiciones y propiedades algebraicas . . . . .

47

2.5.2.

Del lgebra a la geometra y viceversa . . . . . .

48

2.5.3.

Funcin exponencial . . . . . . . . . . . . . . . .

54

2.5.4.

Funciones trigonomtricas y trig. hiperblicas .

55

2.5.5.

Logaritmos y exponenciales de base . . . . . . .

57

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . .

58

2.4.

2.5.

23

24

Estructuras Algebraicas

2.1. Conjuntos
Definicin 2.1 (Intuitiva). Un conjunto es una reunin en un todo de determinados objetos bien definidos y diferentes entre s.
Llamamos elementos a los objetos que lo forman.
Para que un conjunto est bien definido deben darse los siguientes requisitos:
No debe existir ambigedad en la definicin de de los elementos.
Todos los elementos deben ser diferentes.
El propio conjunto no puede ser un elemento de s mismo.
El orden de definicin de sus elementos es intrascendente.
Si a es un elemento del conjunto A, decimos que a pertenece a A y lo
denotamos por a 2 A. En caso contrario lo denotamos por a 2
/ A.
Los conjuntos generalmente se definen:
Por extensin, enumerando uno a uno todos sus elementos, { a, b, c, d}
Por comprensin, sus elementos quedan descritos de una forma implcita, { x 2 N | x es primo }

Ejemplo 2.2. Los principales conjuntos numricos ya son conocidos de estudios anteriores. As, representamos por N al conjunto de todos los nmeros naturales, Z a los nmeros enteros, y Q y R los nmeros racionales
y reales, respectivamente.
Conjunto vaco Lo definimos como el conjunto carente de elementos, es
decir, = {}.
Es decir, todo elemento de
A es elemento tambin de
B (no necesariamente al
revs).

Definicin 2.3 (Subconjuntos). Decimos que A es un subconjuntode B (o


que A est includo en B), que representamos por A B, si se satisface que
x 2 A =) x 2 B
Proposicin 2.4. Para todo conjunto A se cumple A A y A.

Demostracin. Probar que A A es (super)evidente por la definicin 2.3,


puesto que todo elemento de A es de A.
En cuanto a la prueba que A no es tan evidente, aunque s es trivial. La dificultad estriba en que no podemos elegir ningn elemento del
conjunto vaco para comprobar que est en A. Por eso mismo se razona por
reduccin al absurdo. Si la afirmacin fuese falsa, es decir no fuese subconjunto de A, entonces, siguiendo la deficin 2.3, debe existir un elemento
de que no estara en A, y eso es imposible! (o absurdo) porque no tiene
elementos.

2.1 Conjuntos

25

Nota. La proposicin anterior nos dice que todo conjunto tiene al menos
estos dos subconjuntos que se denominan subconjuntos triviales. Al resto de
los subconjuntos de A los llamamos subconjuntos propios.
Definicin 2.5 (Igualdad). Decimos que A = B si tienen exactamente los
mismos elementos, es decir, si:
x 2 A () x 2 B

Lo anterior se traduce diciendo que todo elemento de A es elemento de B,


y viceversa, todo elemento de B es tambin elemento de A.
Proposicin 2.6 (Principio de doble inclusin). La igualdad de conjuntos se
puede expresar equivalentemente como una doble inclusin:
A = B () A B y B A

2.1.1. Conjunto de las Partes


Definicin 2.7. Dado un conjunto A, llamaremos partes de A, P ( A), al conjunto de todos los subconjuntos de A.
Ejercicio 2.8. Define conjuntos cualesquiera de dos y tres elementos y halla sus
conjuntos de las partes.
Cardinal
Llamamos cardinal de un conjunto finito A al nmero de elementos que Tambin se define el
cardinal de un conjunto
lo forman y lo denotamos por | A|.
Proposicin 2.9. Dado un conjunto A, si | A| = n, entonces |P ( A)| = 2n .

Demostracin. Cada uno de los n elementos de A tiene 2 posibilidades, puede estar o no estar en un subconjunto de A. Por tanto el numero de subconjuntos posibles de A ser 2n .

2.1.2. Operaciones con conjuntos


Al igual que el suponemos la existencia de un conjunto U que llamaremos universo o conjunto universal que es el conjunto que contiene a todos
los elementos posibles.
Sean entonces A, B U .
Definimos la unin como A [ B = { x 2 U | x 2 A o x 2 B}.
Y la interseccin como A \ B = { x 2 U | x 2 A y x 2 B}

Definicin 2.10. Decimos que A y B son disjuntos si A \ B = .


Llamamos complementario de A al conjunto A = { x 2 U | x 2
/ A }.

infinito. Esto enlaza con


los llamados nmeros
transfinitos que quedan
fuera del mbito de este
curso.

26

Estructuras Algebraicas

Propiedades
Vienen expresadas en el cuadro 2.1. La prueba de algunas de estas propiedades son obvias. Otras se pueden probar usando el principio de doble
inclusin (proposicin 2.6).
Cuadro 2.1: Propiedades de las operaciones de conjuntos

Obsrvese en las
propiedades del
cuadro 2.1, el llamado
principio de dualidad. Si en
una expresin cambiamos
intersecciones por uniones
(y viceversa) y conjuntos
vacos por universales (y
viceversa), la nueva
expresin es igualmente
vlida o igualmente falsa.

Ley del doble complemento


A = A
Leyes Conmutativas
A[B = B[A A\B = B\A
Leyes Asociativas
A [ ( B [ C ) = ( A [ B) [ C
A \ ( B \ C ) = ( A \ B) \ C
Leyes Distributivas
A [ ( B \ C ) = ( A [ B) \ ( A [ C ) A \ ( B [ C ) = ( A \ B) [ ( A \ C )
Leyes de Idempotencia
A[A = A A\A = A
Leyes de Absorcin
A [ ( A \ B) = A A \ ( A [ B) = A
Leyes de Neutralidad
A[ = A A\U = A
Leyes de Dominacin
A[U = U A\ =
Leyes del complemento
A [ A = U A \ A =
Leyes de De Morgan
A [ B = A \ B A \ B = A [ B

Ejemplo 2.11. Vamos a probar, por doble inclusin, la ley del doble complemento: A = A.
entonces x 2
Demostracin. (1) Si x 2 A,
/ A luego x 2 A y (2) si x 2 A,

entonces x 2
/ A, luego x 2 A .

Ejercicio 2.12. Aplicando el principio de dualidad, si probamos una ley por doble
inclusin, automticamente tenemos una prueba de la dual. Aprovecha este principio para probar todas las propiedades.

2.1 Conjuntos

27

Cardinal de la unin
Veremos en el tema 3 (Tcnicas de Recuento) que el cardinal de la unin
de conjuntos est relacionado con un principio bsico de recuento llamado
principio de inclusin-exclusin. De momento, para dos y tres conjuntos, el
cardinal de la unin se puede enunciar del siguiente modo:
A

| A [ B| = | A| + | B|

A\B

| A \ B|

A[B
Cuando calculamos el nmero de elementos de la unin A [ B sumamos
los elementos que estn en A y B, pero debemos restar los de la interseccin
porque se han sumado dos veces.
De igual forma, para tres conjuntos tenemos

| A [ B [ C | = | A| + | B| + |C |

| A \ B|

| A \ C|

| B \ C| + | A \ B \ C|

A\B\C

Figura 2.1: Inclusin-exclusin


Ejercicio 2.13. Comprueba con ejemplos simples la veracidad del principio con
dos y/o tres conjuntos sencillos.
Ejercicio 2.14. Extiende el principio de inclusin-exclusin para cuatro conjuntos.
Otras operaciones de conjuntos:
Se usan con frecuencia otras operaciones de conjuntos que se pueden
derivar de las descritas anteriormente. Las ms importantes son:
Diferencia: A

B = {x 2 U | x 2 A y x 2
/ B} = A \ B

Diferencia simtrica: A D B = { x 2 U | x 2 A o (excluyente) x 2 B} =


( A [ B) ( A \ B)
Ejercicio 2.15. Demuestra que A D B = ( A

B) [ ( B

A ).

28

Estructuras Algebraicas

Unin e Interseccin generalizadas


Partimos de un conjunto (que puede ser finito o infinito) I al que llamamos conjunto de ndices. Con este conjunto podemos diferenciar, a su vez,
otros conjuntos Ai donde i es algn elemento de I, y, de esta forma, definir
un nuevo conjunto de conjuntos (tambin llamado familia) { Ai | i 2 I }.
Dada una familia de conjuntos, { Ai }i2 I , definimos su unin y su interseccin, respectivamente, como
[

Ai = { x 2 U | existe i 2 I con x 2 Ai }

Ai = { x 2 U | x 2 Ai para todo i 2 I }

i2 I

i2 I

Cuando el conjunto de ndices es numrico se suele cambiar la notacin.


As, por ejemplo
[

i 2N

i =0

i 2Z

i=

100
[

i =3

i 2{3,...,100}

En los ejemplos siguientes consideramos los conjuntos Ai = (i, i + 1)


que son intervalos abiertos de nmeros reales,

(i, i + 1) = { x 2 R | i < x < i + 1}


Ejemplo 2.16. Comprueba que

(i, i + 1) = (0, )

i =0

Ejercicio 2.17. Calcula

(i, i + 1).

i =0

2.1.3.

Producto cartesiano y relaciones

Sea U un conjunto universal y A, B U .


Definicin 2.18. Llamamos par ordenado a las listas del tipo ( a, b) con a 2
A y b 2 B.
Evidentemente, los pares ordenados no pertenecen al universo U , sino
que estn en otro universo distinto. En este curso no vamos a entrar en
formalizaciones rigurosas y dejamos la comprensin de este hecho a la intuicin del alumno.

2.1 Conjuntos

29

Igualdad de pares

( a, b) = ( a0 , b0 ) si y slo si a = a0 y b = b0
Definicin 2.19. Se define el producto cartesiano de A por B como
A B = {( a, b) | a 2 A, b 2 B}
Producto cartesiano de ms de dos conjuntos El concepto de par ordenado se puede extender. As se pueden definir las ternas (ordenadas):
( a1 , a2 , a3 ) y, ms generalmente, las n-uplas: ( a1 , a2 , . . . , an ). Tambin se extiende el producto cartesiano de n conjuntos A1 A2 An como el
conjunto de todas las n-uplas.
Ejemplo 2.20. Usaremos con mucha frecuencia el conjunto R n que est definido como el producto cartesiano R R R, es decir, todas las nuplas de nmeros reales.
Relaciones binarias
Llamamos relacin (o correspondencia) R de A en B a cualquier propiedad que asigna a cada elemento de A un subconjunto de B (posiblemente vaco).
Si a est relacionado con b entonces a R b, en caso contrario a R
6 b.
Si R es una relacin de A en B, llamamos grafo de R al subconjunto
de A B siguiente
GR = {( a, b) | a R b}
Inversamente, si G A B, entonces define una nica relacin RG
de A en B del siguiente modo
a RG b () ( a, b) 2 G
Es decir, que todo subconjunto del producto cartesiano define una
(nica) relacin cuyo grafo coincide con dicho subconjunto.
Representacin de Relaciones
La relacin de A = { a, b, c, d} en B = { x, y, z} definida por el grafo:
GR = {( a, x ), ( a, z), (d, x )}
se puede representar de muchas formas, entre otras, las siguientes:

(2.1)

30

Estructuras Algebraicas
A
Diagrama de flechas:

a
b
c
d

y
z

z
y

Diagrama cartesiano:

Los puntos negros representan los elementos de la relacin.


0
1
1 0 1
B 0 0 0 C
C
Como una matriz de ceros y unos: B
@ 0 0 0 A
1 0 0

Las filas representan los elementos de A y las columnas los de B,


previamente ordenados. Los unos indican los elementos del producto
cartesiano que pertenecen a la relacin y, obviamente, los ceros los que
no pertenecen.
Obviamente, si el grafo de la relacin no es un conjunto finito, las anteriores
representaciones no siempre son viables. A veces es posible algn tipo de
representacin grfica, principalmente cuando los conjuntos que definen la
relacin son numricos.
Indicacin: Observa que se
corresponde con la grfica de
una circunferencia. Aydate
de un programa de clculo si
tienes dificultades con la
representacin.

Ejercicio 2.21. Usa un diagrama cartesiano para representar la relacin entre


nmeros reales cuyo grafo es el siguiente:
GR = {( x, y) | ( x + 1)2 + (y

1)2 = 1} R R

Dominio e Imagen
Desde ahora identificamos completamente una relacin R con su grafo,
es decir cuando una relacin R est definida desde el conjunto A hasta
el conjunto B, representaremos R A B, aunque formalmente lo que
estamos diciendo es que su grafo es el que est contenido.
Dada una relacin R A B, es decir, GR A B, segn lo anterior,
se definen los subconjuntos dominio e imagen o codominio de R como
Dom R = { x 2 A | existe b 2 B con x R b}
Img R = { x 2 B | existe a 2 A con a R x }

2.2 Relaciones internas

31

Ejercicio 2.22. En la relacin R = {( a, x ), ( a, z), (d, x )} ya vista en (2.1), pgina 29, el conjunto A = { a, b, c, d} y B = { x, y, z} son los conjuntos inicial y
final, respectivamente. Podras escribir el dominio y la imagen de R?
Ejercicio 2.23. Escribe el dominio y la imagen de la relacin que se define en el
ejercicio 2.21.
Relacin identidad Para cualquier conjunto A siempre existe una relacin definida

I A = {( x, x ) | x 2 A} A A

(2.2)

que llamaremos relacin identidad. Cuando no hay duda se suprime el subndice, por tanto I .

2.2.

Relaciones internas

Decimos que una relacin binaria es interna cuando el conjunto inicial


y final coinciden, es decir, GR A A.
A

a
b
c
d

a
b
c
d

a
b

d
c

Figura 2.2: Las grficas representan a la misma relacin interna. La


segunda es ms habitual en relaciones internas.

Propiedades
Algunas propiedades de las relaciones binarias en A son las siguientes:
Reflexiva: Para todo a 2 A se tiene a R a
Antirreflexiva: Para todo a 2 A se tiene a R
6 a
Simtrica: Para todo a, b 2 A, si a R b entonces b R a
Antisimtrica: Para todo a, b 2 A, si a R b y b R a entonces a = b
Transitiva: Para todo a, b, c 2 A, si a R b y b R c entonces a R c
Circular: para todo a, b, c 2 A tales que a R b y b R c, se cumple que c R a.

Ejercicio 2.24. Observa que la relacin identidad I definida en (2.2) es una relacin interna. Indica cales de las anteriores propiedades verifica.

32

Estructuras Algebraicas

Ejercicio 2.25. Da ejemplos de relaciones binarias internas en el conjunto A =


{ a, b, c, d} que cumplan las propiedades anteriores, por ejemplo:
R = {( a, c), (b, c)} es antirreflexiva.

2.2.1.

Relaciones de equivalencia

Una relacin binaria interna se dice que es de equivalencia si es reflexiva,


simtrica y transitiva.
Ejercicio 2.26. Da varios ejemplos de relacin de equivalencia sobre el conjunto
A = { a, b, c, d, e}.
Las relaciones de equivalencias estn relacionadas con otro concepto
llamado particin.
Definicin 2.27. Dado un conjunto A 6= , decimos que una familia de
subconjuntos no vacos de A, { Ai }i2 I , es una particin de A si satisfacen las
dos condiciones siguientes:
1.

Ai = A

i2 I

2. Para todo i, j 2 I con i 6= j se tiene que Ai \ A j = . Es decir, son


disjuntos por pares.

Figura 2.3: Relacin de equivalencia y particin.

A cada uno de los subconjuntos Ai se le llama parte de A relativa a la


particin.
Definicin 2.28 (Clases de equivalencia). Si en un conjunto A hay definida
una relacin de equivalencia R, cada elemento a 2 A se puede agrupar
en un subconjunto formado por l mismo y todos los elementos que se
relacionan con l. A dicho subconjunto de A se le llama clase de equivalencia
y se representa

[ a] = { x 2 A | a R x }

2.2 Relaciones internas

33

Segn la anterior definicin podra ocurrir que ciertas clases coincidieran, es decir, algunos elementos a, b 2 A, cumplen a 6= b y, en cambio,
[ a] = [b]. Al ser subconjuntos podemos preguntarnos algo ms se pueden solapar las clases?, es decir, pueden existir a, b 2 A, con [ a] 6= [b] y
[ a] \ [b] 6= ? La respuesta nos la da el siguiente e importante teorema.
Teorema 2.29. Sea R A A una relacin de equivalencia y a, b 2 A, entonces
se tiene:
1. a 2 [ a]
2. a R b () [ a] = [b]
3. [ a] 6= [b] () [ a] \ [b] =
Demostracin.
1. Es evidente por la propiedad reflexiva. Como a R a ) a 2 [ a].
2. Suponemos (hiptesis) que a R b (o bien b R a), entonces, por la propiedad transitiva:
x 2 [ a] ) x R a (y a R b, hip.) ) x R b ) x 2 [b] que prueba [ a] [b]
x 2 [b] ) x R b (y b R a, hip.) ) x R a ) x 2 [ a] que prueba [b] [ a]
luego (por la doble inclusin) [ a] = [b].
Inversamente, ahora la hiptesis es [ a] = [b], entonces, como sabemos
(apartado 1) que a 2 [ a] ) a 2 [b], luego a R b.
3. Hiptesis [ a] 6= [b]. Si x 2 [ a] \ [b] ) x 2 [ a] y x 2 [b] ) a R
x y x R b ) a R b, luego por 2. [ a] = [b], que contradice la hiptesis. De
aqu no puede haber ningn elemento en la interseccin [ a] \ [b], es decir
[ a] \ [b] = .
Hiptesis [ a] \ [b] = . Sabemos que [ a] 6= y [b] 6= , entonces trivialmente [ a] 6= [b], puesto que si fuesen iguales no tendran interseccin
vaca.

Corolario 2.30. Las clases de equivalencia de una relacin R en A establecen una


particin de A.
En la figura 2.3 una relacin
Demostracin. Claramente A es la unin de todas las clases de equivalencia,
puesto que cada elemento de a est en, al menos, una clase (la propia [ a]).
Por otro lado, el apartado 3 del teorema anterior garantiza que dos clases
distintas son disjuntas.

Nota. El recproco del corolario anterior tambin es cierto. Es decir, cualquier particin de un conjunto A define una relacin de equivalencia. Dos
elementos estn relacionados si y solo s pertenecen a la misma parte (es
evidente que esta relacin es reflexiva, simtrica y transitiva). Claramente
las clases coinciden con las partes.

de equivalencia establece una


particin en el crculo
(considerado como un
conjunto de puntos). Las
clases de equivalencia son los
colores.

34

Estructuras Algebraicas

Definicin 2.31 (Conjunto cociente). Dada R en A, al conjunto formado


por las clases de equivalencia, que denotamos por A/R
Ejercicio 2.32. Establece los conjuntos cocientes de las relaciones dadas en el ejercicio 2.26

2.2.2.

Los enteros modulares.

Vamos a definir los conjuntos de enteros modulares que son conjuntos


simples y finitos y que se pueden dotar de operaciones (suma y producto),
construidos a partir de una relacin de equivalencia (congruencia modular)
como conjuntos cocientes. Estos enteros son muy usados en aplicaciones de
distintas reas de las ciencias. A ttulo de ejemplo invito a los estudiantes a
investigar el algoritmo RSA muy usado en codificacin de comunicaciones
(cifradas) entre ordenadores.
Definicin 2.33. Dos nmeros enteros a, b 2 Z se dicen que son congruentes
mdulo n si y solo si su diferencia es mltiplo de n.
a n b () existe k 2 Z tal que b

a = kn

Es fcil comprobar que es una relacin de equivalencia en Z.


Ejemplo 2.34. Algunos enteros se relacionan mediante la relacin 7 y
otros no. Comprueba, por ejemplo, que 3 7 11. En cambio 3 no se relaciona, por ejemplo, con 1.
Ejercicio 2.35. Prueba que, efectivamente, la relacin n es de equivalencia en Z
(para cualquier n).
Definicin 2.36. Representamos por Z n al conjunto cociente Z/n definido por la relacin de equivalencia congruencia mdulo n.
Los conjuntos Z n tienen exactamente n elementos
Z n = {[0], [1], [2], . . . , [n

2], [ n

1]}

Debes tener en cuenta las siguients observaciones:


1. Las clases tienen infinitos representantes. De hecho, tienen un comportamiento cclico. As, por ejemplo, en Z6 , tenemos que

= [ 12] = [ 6] = [0]
= [ 11] = [ 5] = [1]
= [ 10] = [ 4] = [2]
..
.
= [ 7] = [ 1] = [ 5 ]

= [6] = [12] = [18] =


= [7] = [13] = [19] =
= [8] = [14] = [20] =
= [11] = [17] = [23] =

2.3 Funciones

35

2. Diremos que una clase est en forma cannica si es la forma [ a] donde


a es un nmero entero entre 0 y n 1 (ambos inclusive).
3. Las clases [ a] y [b] son iguales si a y b son congruentes (mdulo n).
4. Si a es postivo, la clase [ a] es igual a la clase [r ] donde r es el resto de
dividir a entre n. As la clase [r ] est en forma cannica.
Ejemplo 2.37. Tiene inters el conjunto Z2 = {[0], [1]}. En general, en
computacin se emplean con mucha frecuencia los Z p donde p es un nmero primo.
Ejercicio 2.38. Expresa los siguientes enteros modulares de Z13 en forma cannica:
[ 11] =
, [101] =
, [ 101] =
, [11] =

2.2.3. Relaciones de orden


Una relacin binaria interna se dice que es de orden si es reflexiva, antisimtrica y transitiva.
Por ejemplo, si A = {divisores positivos de 60}, la relacin binaria en A
60
30

m R n () m divide a n
es una relacin de orden.
Las relaciones de orden en conjuntos fintos se pueden representar por los
llamados diagramas de Hasse. El ejemplo anterior se puede representar con
el diagrama de Hasse de la figura al
margen.

12

20
15

10
3

Figura 2.4: Diagrama de Hasse

Orden total y orden parcial


Dos elementos a, b 2 A son comparables si a R b o b R a. Una relacin de
orden es total si todos los elementos son comparables entre s; en otro caso
decimos que es parcial. El diagrama de la figura 2.4 representa un orden
parcial.

2.3.

Funciones

Definicin 2.39. Decimos que una relacin f A B es una funcin o


aplicacin si satisface las dos condiciones siguientes:

36

Estructuras Algebraicas

1. Dom f = A
2. Si ( a, b) 2 f y ( a, c) 2 f entonces b = c

a
b
c
d

y
z

Figura 2.5: Ejemplo de funcin.

En la figura 2.5 se representa un


diagrama que se corresponde con una
funcin, puesto que cumple las dos
condiciones de la definicin.
Ejercicio 2.40. Representa grficamente
dos relaciones que no sean funciones, una
de ellas porque no cumpla la condicin 1. y
la otra porque no cumpla la condicin 2. de
la definicin 2.39.

Nota. Un funcin la representamos de


la forma f : A ! B. Adems ( a, b) 2 f lo escribimos f ( a) = b y diremos
que b es imagen de a o que a es origen de b.
Estamos acostumbrados a la anterior notacin, que es la usual. A veces
se pierde rigurosidad como, por ejemplo, cuando se dice que f : R ! R
definida f ( x ) = 1x es una funcin. En realidad, siendo rigurosos, no lo es,
puesto que 0 2
/ Dom( f ). En muchas ocasiones se sobreentiende que las
funciones estn definidas en su dominio.
As, f ( A) = Img f .

Si X es subconjunto de A, representamos f ( X ) el subconjunto de B de


todas las imgenes de los elementos de X, es decir,
f (X ) = { f (x) | x 2 X }

Dado Y subconjunto de B, representamos por f 1 (Y ) al subconjunto de A


de los elementos cuyas imgenes estn en Y, es decir,
f

(Y ) = { x 2 A | f ( x ) 2 Y }

Ejemplo 2.41. La relacin identidad I A : A ! A descrita en (2.2), es efectivamente una funcin que depende nicamente del conjunto A en la que se
define. Estas funciones reciben el nombre de funcin identidad en A.

2.3.1.
Observa que ,para
funciones, g f se
entiende que primero se
aplica f y posteriormente
g.

Composicin e inversa de Funciones

Si tenemos dos funciones f : A ! B y g : B ! C podemos construir una


nueva funcin llamada funcin compuesta de f con g a la siguiente:
g

f : A ! C siendo ( g

f )( x ) = g( f ( x ))

(2.3)

2.3 Funciones

37

Propiedades.
1. Cuando una funcin f : A ! B se compone con la funcin identidad,
se queda invariante, es decir
f

IA = f

IB

(2.4)

f = f

2. Es fcil probar que la composicin de funciones es asociativa, es decir, si


f : A ! B, g : B ! C y h : C ! D, se tiene

(h g)

f = h (g

(2.5)

f)

3. En cambio, la composicin no es conmutativa, incluso cuando es posible. Por ejemplo, f : A ! A y g : A ! A, en general f g 6= g f .


Dejamos que el estudiante busque ejemplo de esto.
Funcin inversa
Si f : A ! B es una funcin, podemos expresarla en forma de relacin
del siguiente modo:
f = {( a, f ( a)) | a 2 A} A B

Invirtiendo el orden de los pares obtenemos otra relacin


1

= {( f ( a), a) | a 2 A} B A
1

y esta nueva relacin f

NO es necesariamente una funcin.

Ejercicio 2.42. Escribe distintos contraejemplos donde no se verifique 1. o 2. de la


definicin.
Definicin 2.43. Diremos que la funcin f es invertible si la relacin f
una funcin.
Teorema 2.44. Sea f : A ! B una funcin invertible. f
que cumple
f 1 f = IA
f f 1 = IB

es

es la nica funcin

Demostracin. Efectivamente, por definicin de f 1 , la imagen del elemento


f ( a) es el propio a, es decir, f 1 ( f ( a)) = a, por tanto f 1 f = I A .
Para probar la otra igualdad, sea b cualquier elemento de B, y sea a =
f 1 (b) 2 A, es decir (b, a) 2 f 1 , luego ( a, b) 2 f . Dicho de otra forma
f ( a) = b, o bien f ( f 1 (b)) = b. De aqu f f 1 = I B .
Nos queda comprobar que es nica. Sea g : B ! A una funcin cumpliendo ambas igualdades, es decir
g
entonces ( g f )
mos g = f 1 .

f = IA

= IA

y
1

g = IB

y por las propiedades (2.4) y (2.5) tene

38

2.3.2.

Estructuras Algebraicas

Tipos de funciones

Definicin 2.45. Sea f : A ! B una funcin.


f es inyectiva si y solo si f ( x ) = f ( x 0 ) implica que x = x 0
A

a
b
c

1
2
3
4

f es sobreyectiva si y solo si Im( f ) = B.


A

a
b
c

f es biyectiva si y solo si es inyectiva y sobreyectiva.


A

a
b
c

1
2
3

Teorema 2.46. Una funcin es invertible si y solo si es biyectiva.


Ejercicio 2.47. Pon dos ejemplos de funciones invertibles discretas y dos ejemplos
de funciones invertibles continuas (en R).

2.4. Estructuras algebraicas


Dado un conjunto A, llamamos operacin binaria interna o ley de composicin interna a cualquier funcin de A A en A.

: A A ! A

( a, b) = c

ab = c

Llamamos operacin binaria externa o ley de composicin externa a


cualquier funcin de alguno de los tipos:

: A B ! A

: A B ! B

: A B ! C

Las leyes de composicin internas pueden tener (o no) unas propiedades y unos elementos notables que exponemos a continuacin.

2.4 Estructuras algebraicas

39

Propiedades
Asociativa
Sea una operacin interna en A. Decimos que tiene propiedad asociativa
si satisface:
Para todo a, b, c 2 A,

a (b c) = ( a b) c.

Conmutativa
Sea una operacin interna en A. Decimos que tiene propiedad conmutativa si satisface:
Para todo a, b 2 A,

a b = b a.

Distributivas
Sean y D dos operaciones internas en A.

Decimos que D es distributiva por la izda. respecto de si satisface:

8 a, b, c 2 A,

a D ( b c ) = ( a D b ) ( a D c ).

Decimos que D es distributiva por la dcha. respecto de si satisface:

8 a, b, c 2 A,

( b c ) D a = ( b D a ) ( c D a ).

Decimos que D es distributiva respecto de si lo es por la izda. y por


la dcha.
Ejemplos 2.48.
1. En Z el producto es distributivo respecto de la suma, pero no al contrario.
2. Si U es un conjunto, en P (U ) la unin distribuye respecto de la interseccin. Al contrario del ejemplo anterior, tambin la interseccin
distribuye respecto de la unin.

Elementos Notables
Elemento Neutro
Un elemento e 2 A es neutro para si satisface que

8 a 2 A,

a e = e a = a.

40

Estructuras Algebraicas

Proposicin 2.49. El elemento neutro, si existe, es nico.


Demostracin. Si existiesen dos elementos neutros tienen que ser el mismo.
Esto prueba la unicidad.
Supongamos e1 y e2 dos neutros para la operacin . Entonces:
Por ser e1 neutro: e1 e2 = e2
Por ser e2 neutro: e1 e2 = e1

) e1 = e2

Ejemplo 2.50. En el conjunto de las matrices cuadradas n n la matriz


identidad es el elemento neutro para el producto.
Simtrico de un elemento
Sea una operacin interna en A y e 2 A el elemento neutro. Decimos
que a0 es el simtrico de a si satisface que
a a0 = a0 a = e.
El simtrico de un
elemento no tiene porqu
ser nico, salvo para
operaciones con la
propiedad asociativa.

Si un elemento tiene simtrico decimos que es simetrizable. Adems, claramente, si a0 es un simtrico de a, entonces a es un simtrico de a0 .
Proposicin 2.51. Sea una operacin interna con propiedad asociativa.
1. Si un elemento es simetrizable, su simtrico es nico.
2. ( a0 )0 = a
3. Si a, b 2 A son elementos simetrizables, a b tambin lo es y su simtrico
es ( a b)0 = b0 a0 .

Demostracin.

1. Supongamos que a10 y a20 son simtricos de a. Entonces:


a10 = e a10 = ( a20 a) a10 = a20 ( a a10 ) = a20 e = a20

Observa que en la tercera igualdad se hace uso de la asociatividad.


2. Siguiendo la definicin de elemento simtrico, a es simtrico de a0 al
igual que ( a0 )0 . Por el punto anterior stos tienen que ser el mismo, es
decir a = ( a0 )0 .
3. Es fcil comprobar que

( a b) (b0 a0 ) = e
y
0
0
(b a ) ( a b) = e

y, como el simtrico es nico, se tiene ( a b)0 = (b0 a0 ).

2.4 Estructuras algebraicas

41

Cuando estamos con una operacin suma al elemento neutro se le suele


representar con el smbolo 0, en lugar del smbolo genrico e. Igualmente,
cuando la operacin es un producto que se suele denominar como identidad y se emplea el smbolo 1 y en ocasiones el smbolo I.
Elementos regulares
Sea una operacin interna en A y c 2 A. Decimos que:
c es regular por la izquierda si

8 a, b 2 A,

c a = c b =) a = b.

c es regular por la derecha si

8 a, b 2 A,

a c = b c =) a = b.

Decimos que c es regular si lo es por la izquierda y por la derecha


Si todos los elementos de A son regulares, decimos que satisface la ley de
simplificacin.
Proposicin 2.52. Si una operacin interna en A con propiedad asociativa, todo
elemento simetrizable es regular.
Elementos absorbentes
Sea una operacin interna en A y c 2 A. Decimos que c es un elemento
absorbente si se satisface que:

8a 2 A ,
Ejemplo 2.53. La matriz 0 =

a c = c a = c.
0 ... 0

..
.

..
.

0 ... 0

producto de matrices cuadradas.

es un elemento absorbente para el

Ejercicio 2.54. Puede existir ms de un elemento absorbente para la misma operacin en un conjunto? Justifica la respuesta.

En la suma al simtrico se
le llama elemento opuesto y
se representa con el signo
menos, as el opuesto de a
es el elemento a. En el
producto, al elemento
simtrico de a se le llama
inverso y se representa
como a 1 .

42

Estructuras Algebraicas

( A, )
Asociativa
Elem. neutro
Elem. simt.
Conmutativa

Semigrupo

Monoide

Semigrupo
Conmutativo

Monoide
conmutativo

Grupo

Grupo
Abeliano

Cuadro 2.2: Estructuras con una operacin binaria.

2.4.1.

Estructuras algebraicas con una operacin

Las estructuras algebraicas ms simples constan de un conjunto con una


nica operacin interna definida sobre l. Las ms importantes las describimos en el cuadro 2.2.
Ejemplos 2.55.
1. Para los enteros positivos m y n el conjunto

Mmn = {matrices reales de orden m n}


con la suma, es decir, (Mmn , +) es un grupo abeliano.
2. (Mnn , ) es un monoide NO conmutativo y no es grupo, puesto que
existen elementos que no tienen simtrico, por ejemplo la matriz 0. Existen otros elementos que no tienen simtrico? Podras poner algn ejemplo para n = 2?
Ejercicio 2.56. Qu estructura algebraica tienen los siguientes conjuntos numricos con la operacin suma (N, +), (Z, +) y (Z + , +)?
Ejemplos 2.57.

(Z, +) es un grupo abeliano.


(R

{0}, ) es un grupo abeliano.

El conjunto S( A) de todas las funciones biyectivas en un conjunto A


forman un grupo con la operacin composicin. Este grupo se suele
representar con notacin multiplicativa (S( A), ) y recibe el nombre
de Grupo Simtrico.
Si A es finito con n elementos, entonces el Grupo Simtrico se representa por Sn y tiene n! elementos.

2.4 Estructuras algebraicas

43

El conjunto de todas las matrices reales cuadradas de orden n con


determinante distinto de cero (invertibles) forman un grupo multiplicativo y recibe el nombre de Grupo Lineal General de orden n, que
se representa GL(n)
En el conjunto de enteros modulares Z n se define la suma de la forma
habitual
[ a] + [b] = [ a + b]
Esta suma es una ley de composicin interna, puesto que no depende Esto quiere decir que si
de los representantes de las clases que se elijan. Entonces para cual- [ a] = [ a0 ] y [b] = [b0 ],
entonces
quier entero positivo n, la estructura (Z n , +) es un grupo abeliano.
0
0

[ a + b] = [ a + b ]. Prueba

Ejercicio 2.58. En este ejercicio, por comodidad, suprimimos los corchetes de los este resultado como
ejercicio.
elementos de Z n . Completa las siguientes tablas de los grupos.

+
0
1

Z2
0

1
0

+
0
1
2

Z3
0 1

+
0
1
2
3
4
5

Z6
2

2.4.2. Estructuras algebraicas con dos operaciones


En el cuadro 2.3 exponemos las estructuras bsicas con dos operacio- Para estas estructuras
nes. La estructura ms simple es el anillo. Vers que todas son propiedades usamos las notaciones
conocidas, excepto el concepto de divisor de cero que explicaremos con ms aditiva y multiplicativa.
detalle ms adelante.
Anillos
Las propiedades de los anillos vienen expresadas en el cuadro 2.3. As,
( A, +, ) es un anillo si se verifica:
1. ( A, +) es un grupo abeliano.
2. ( A, ) es un semigrupo.
3. El producto es distributivo respecto de la suma.
En los anillos se tiene una conocida regla que habis venido usando
desde los estudios primarios.
Teorema 2.59 (Regla de los Signos). Sea A un anillo. Para todo a, b 2 A se
cumple

Si, adems, el producto


tiene neutro, es un anillo
unitario, y si es
conmutativo, es un anillo
conmutativo.

44

Estructuras Algebraicas

( A, +)
Asociativa
Conmutativa
Elem. neutro 0
Elem. opuesto
( A, )
Asociativa
Distributiva resp. +
Elem. neutro 1
Conmutativa
Elem. inverso para 6= 0
Ausencia divisores de 0

Anillo

Cuerpo

A. Unitario
A. Conmutativo

Cuadro 2.3: Estructuras con dos operaciones binarias.

I.
II .
III .

0a = a0 = 0
a ( b) = ( a) b =

( a b)

a b = ( a) ( b)

Demostracin.
I.

II .

Sabemos que a 0 = a (0 + 0) = a 0 + a 0,
luego simplificando en el grupo ( A, +) tenemos a 0 = 0.
Comprobamos que
a ( b) + ( a b) = a (( b) + b) = a 0 = 0 ) a ( b) =
De la misma forma se prueba ( a) b =

III .

( a b)

( ab).

Es evidente a partir del apartado anterior y del apartado 2 de la propoposicion 2.51 que establece ( a0 )0 = a.

( a)( b) =

(( a)b) =

( ( ab)) = ab

Ejemplo 2.60 (Anillos de enteros modulares). A los conjuntos Z n se les


dota de suma y producto

[n] + [m] = [n + m]
[n] [m] = [nm]
y tiene estructura de anillo (Z n , +, ).

2.4 Estructuras algebraicas

45

Ejercicio 2.61. Construye las tablas de suma y producto de Z6 y comprueba que


es anillo.
Definicin 2.62. Un elemento a 2 A
existe b 2 A

{0} es divisor de cero si:

{0} tal que ab = 0 o ba = 0

Claramente, si a es divisor de cero tambin b lo es.


El siguiente resultado caracteriza los divisores de cero de un anillo.
Proposicin 2.63. Sea A un anillo y a 2 A, a 6= 0. Entonces a es un elemento
regular para el producto si y solo si no es divisor de cero.
Demostracin. Veamos la primera implicacin. Sea a es un elemento regular
y supongamos que a es divisor de cero, es decir existe b 2 A, b 6= 0 tal que,
p.e. a b = 0 ) a b = a 0 ) b = 0, que es una contradiccin.
Inversamente, si a no es divisor de cero y no fuese regular a la izquierda,
por ejemplo, existen x, y 2 A distintos tales que a x = a y, luego a ( x
y) = 0. Por tanto, como x y 6= 0 contradice que a no es divisor de cero.
Corolario 2.64. Si A es un anillo sin divisores de cero, todos los elementos distintos de 0 son regulares para el producto.
Demostracin. Evidente.

Ejercicio 2.65. Comprueba que Z3 , Z5 y Z7 no tienen divisores de cero. En cambio los anillos Z4 , Z6 y Z8 si tienen.
Ejemplos 2.66.
1. Los nmeros enteros (Z, +, ) forman un anillo sin divisores de cero.
2. Los polinomios con coeficientes reales forman otro anillo. Tampoco
existen divisores de cero en este anillo
3. Los siguientes conjuntos numricos racionales Q, reales R y complejos C, dotados con la suma y el producto son ejemplos de anillos, pero
con alguna propiedad muy importante que pasan a llamarse cuerpos.
4. Las matrices cuadradas (Mnn , +, ) son el ejemplo ms importante
de estructura de anillo (conmutativo unitario), donde existen divisores de cero.
Ejercicio 2.67. Pon algn ejemplo de matrices cuadradas de orden n = 3 que sean
divisores de cero. Es decir, encuentra dos matrices 3 3 no nulas que multiplicadas
den la matriz cero.

46

Estructuras Algebraicas

Cuerpos
Los cuerpos son las estructuras algebraicas con dos operaciones que
ms usaremos en este curso. Se puede definir un cuerpo como una estructura (K, +, ) que verifica:

(K, +) es grupo abeliano.


(K

{0}, ) es tambin grupo abeliano.

La operacin es distributiva respecto de +.

Daremos las siguientes propiedades de los cuerpos (sin demostracin).


Proposicin 2.68.
1. Los cuerpos no tienen divisores de cero.
2. En un cuerpo, las ecuaciones ax = b y xa = b con a 6= 0 tienen solucin
nica.
Ejemplos 2.69.
1. Los cuerpos finitos Z p , donde p es un nmero primo, se usan en distintas aplicaciones de las matemticas a las ingenieras, aunque se
quedan fuera del mbito de esta asignatura.
2. Q, R y C son cuerpos. El cuerpo ms conocido y que ms usaremos
ser el de los nmeros reales (R, +, ). En este curso vamos a hacer
una extensin de dicho cuerpo de los nmeros reales al cuerpo de los
nmeros complejos (C, +, ).

2.5. El cuerpo de los nmeros complejos


Los nmeros reales tienen muchas propiedades agradables. Hay operaciones tales como suma, resta, multiplicacin, as como la divisin por
cualquier nmero real, excepto cero. Hay leyes tiles que regirn estas operaciones como las leyes conmutativa y distributiva. Tambin puede tomar
los lmites y hacer Clculo. Pero no se puede tomar la raz cuadrada de 1
o lo que es lo mismo no puede encontrar una raz de la ecuacin
x2 + 1 = 0.

(2.6)

La mayora de vosotros ha odo que hay un nuevo"nmero i (llamada raiz


imaginaria) que es una raz de la ecuacin anterior. Es decir, i2 + 1 = 0 o
i2 = 1. Vamos a demostrar que cuando el cuerpo de nmeros reales se
ampla a un nuevo cuerpo llamado los nmeros complejos, que incluye i, no
slo ganamos un nmero con propiedades interesantes, sino que, adems,
no se pierde ninguna de las propiedades agradables que hemos tenido antes.

2.5 El cuerpo de los nmeros complejos

47

2.5.1. Definiciones y propiedades algebraicas


Hay muchas maneras equivalentes a pensar un nmero complejo, cada
una de las cuales es til en por derecho propio. Comenzamos con la definicin formal de un nmero complejo. A continuacin, interpretaremos
esta definicin formal en otra ms til y ms fcil de trabajar con lenguaje
algebraico.
Los nmeros complejos se pueden definir como pares de nmeros reales,
C = {( x, y) : x, y 2 R },
equipada con la adicin

( x, y) + ( a, b) = ( x + a, y + b)
y la multiplicacin

( x, y) ( a, b) = ( xa

yb, xb + ya).

Estas operaciones binarias en C son es un extensin de las de R, en el sen- Podemos pensar que los
tido de que los nmeros complejos de la forma ( x, 0) se identifican con los nmeros reales se
incrustan en C como los
nmeros reales y

( x, 0) + (y, 0) = ( x + y, 0) y ( x, 0) (y, 0) = ( xy, 0).


Teorema 2.70. El conjunto C antes definido, dotado de las operaciones de suma y
producto anteriores tiene una estructura de cuerpo (C, +, ).
Adems podemos aadir:

(0, 0) es el elemento neutro para la suma.


(1, 0) es el elemento neutro para el producto (tambin llamado unidad).
El opuesto de ( x, y) es ( x,

y) (simtrico para la suma).

El inverso (simtrico para el producto) de ( x, y) 6= (0, 0) es

( x, y)

y
x
,
x 2 + y2 x 2 + y2

Si pensamos en el espritu de nuestra observacin sobre la inclusin


de R en C, es decir, de ( x, 0) e (y, 0) como la nmeros reales x e y, esto
significa que podemos escribir cualquier nmero complejo ( x, y ) como
lineal combinacin de (1, 0) y (0, 1),

( x, y) = ( x, 0) (1, 0) + (y, 0) (0, 1)

nmeros complejos cuya


segunda coordenada es
cero.

48

Estructuras Algebraicas

As que si le damos a (0, 1) un nombre especial i, tambin llamado unidad


imaginaria, entonces el nmero complejo que que llambamos ( x, y) puede
escribirse como
x 1 + y i,

o, ms corto, x + iy. Esta manera de expresar los nmeros complejos recibe el nombre de expresin o forma rectangular o, a veces, expresin o forma
binomial.
El nmero real x se llama la parte real y al nmero real y parte imaginaria del nmero complejo x + iy, a menudo denotado como
Re( x + iy) = x e Im( x + iy) = y.
La manera de expresar un nmero complejo en parte real y parte imaginaria de Tambin es fcil probar que i = (0, 1) es la raiz de de la ecuacin
(2.6), es decir
i2 = (0, 1) (0, 1) = ( 1, 0) = 1.
Se dice que C es
algebraicamente cerrado.

Teorema 2.71 (Fundamental del lgebra). Todo polinomio no constante de grado n tiene n races (contando multiplicidad) en C.

La demostracin de este teorema requiere una maquinaria importante,


curiosamente ms del clculo que del lgebra, por lo que se pospone dicha
prueba.

2.5.2.

Del lgebra a la geometra y viceversa

La notacin ( x, y) de los complejos sugiere que se puede pensar en ste como un vector real de dos dimensiones. Al trazar estos vectores en el
plano R2 , llamamos al eje x el eje real y al eje y el eje imaginario. La suma
que se defini para los nmeros complejos coincide con la suma de vectores. Pero este parecido acaba con la multiplicacin: no hay multiplicacin
usual"de dos vectores en R2 que devuelva otro vector, y, por supuesto,
ninguno que est de acuerdo con nuestra definicin de el producto de dos
nmeros complejos.
Cualquier vector en R2 se define por sus dos coordenadas, pero tambin
se determina por su longitud y el ngulo que forma con, por ejemplo, el eje
real positivo, vamos a definir estos conceptos ms a fondo.
Valor absoluto y argumento. El valor absoluto (a veces tambin llamado el
mdulo) de z = x + iy es su longitud visto como vector de R2
q
r = | z | = x 2 + y2 2 R + [ {0}
y un argumento de z = x + iy es un nmero q 2 R tal que
x = r cos q e y = r sen q.

2.5 El cuerpo de los nmeros complejos

49

Un nmero complejo tiene un nmero infinito de argumentos, por ejemplo,


el nmero 1= 1 + 0i se encuentra en el eje x, y tambin lo ha hecho el
argumento 0, pero podra muy bien decir tiene argumento 2p, 4p, 2p,
o 2kp para cualquier entero k. El nmero 0 = 0 + 0i tiene un mdulo 0,
y cada nmero q es un argumento. Aparte del caso excepcional de 0, para
cualquier complejo nmero z, los argumentos de z todos difieren en un
mltiplo entero de 2p.
Para cada nmero complejo z llamaremos arg z al conjunto de todos los
argumentos. En realidad arg : C ! R es una relacin que no es una funcin. Por convenio, para z 6= 0, se establece el argumento principal como el
(nico) argumento q que pertenece al intervalo q 2 ( p, p ]. Al argumento
principal se le suele representar como Arg z : C ! ( p, p ] R que s es Representamos
C = C {0}.
una funcin.
En la figura 2.7 se puede observar el significado geomtrico del mdulo
y del argumento.
El valor absoluto de la diferencia de dos vectores tiene una interesante
interpretacin geomtrica:
Proposicin 2.72. Sean z1 , z2 2 C dos nmeros complejos considerados como
vectores en R2 . Si d(z1 , z2 ) denota la distancia entre (los extremos de) los dos
vectores en R2 (Vase la Figura 2.6). Entonces
d ( z1 , z2 ) = | z1

z2 | = | z2

z1 |

Demostracin. Sea z1 = x1p+ iy1 y z2 = x2 + iy2 . A partir de la geometra


sabemos que d(z1 , z2 ) = ( x1 x2 )2 + (y1 y2 )2 y sta es justamente la
definicin de los |z1 z2 | .
Ya que ( x1 x2 )2 = ( x2 x1 )2 y (y1 y2 )2 = (y2 y1 )2 , tambin tenemos |z1 z2 | = |z2 z1 |. Simplemente dice que el vector desde z1 hasta z2
tiene la misma longitud que su inversa, el vector desde z2 hasta z1 .

La interpretacin geomtrica de los nmeros complejos en forma de


valor absoluto y argumento nos permite dar un significado al producto de
complejos:

( x1 + iy1 )( x2 + iy2 ) = (r1 cos q1 + ir1 sen q1 )(r2 cos q2 + ir2 sen q2 ) =
= (r1 r2 cos q1 cos q2 r1 r2 sen q1 sen q2 )+
+ i (r1 r2 cos q1 sen q2 + r1 r2 sen q1 cos q2 ) =
= r1 r2 (cos(q1 + q2 ) + i sen(q1 + q2 )) .
Por lo tanto el valor absoluto del producto es r1 r2 y su argumento es
q1 + q2 (uno de ellos). Geomtricamente, estamos multiplicando las longitudes de los dos vectores que representan los dos nmeros complejos, y
sumando sus ngulos medidos con respecto al eje x positivo.

Observa que se usan las


identidades
trigonomtricas del seno y
coseno de la suma.

50

Estructuras Algebraicas
Parte imaginaria
z2

| z1

z2 |

z1
z1

z2

Parte real

Figura 2.6: El valor absoluto de la diferencia mide la distancia entre dos


complejos.
Teniendo en cuenta el clculo anterior, en principio por abreviar, se introduce una nueva notacin (conocida como frmula de Euler)
eiq = cos q + i sen q.
Veremos ms adelante que tiene una ntima relacin con la funcin exponencial compleja, pero de momento no es ms que una notacin.
Dejamos como ejercicio para los estudiantes la prueba de las siguientes
propiedades
Ejercicio 2.73. Para cualquier q, q1, q2 2 R,
1. eiq1 eiq2 = ei(q1 +q2 ) .
2.

1
=e
eiq

iq .

3. ei(q +2kp ) = eiq .


4. |eiq | = 1

Teniendo en cuenta la anterior notacin diremos que un nmero complejo


est expresado en forma trigonomtrica o forma polar si se expresa a partir de su
valor absoluto r y uno de sus argumentos q de la siguiente forma z = reiq .
Para pasar de forma rectangular de complejo z = x + iy, que no sea
nulo, a su forma polar z = reiq y viceversa usamos las igualdades
Conocidos r, q
x = r cos q
y = r sen q

Conocidos x, y
r 2 = x 2 + y2
y
tan q = , si x 6= 0
x
p
q = , si x = 0 e y > 0
2p
q=
, si x = 0 e y < 0
2

Basndose en lo anterior es de muy fcil demostracin el siguiente resultado:

2.5 El cuerpo de los nmeros complejos

51

Proposicin 2.74 (Frmula de De Moivre). Para cualquier ngulo q se tiene:

(cos q + i sen q )n = cos(nq ) + i sen(nq ).


Ejercicio 2.75. Utiliza los resultados del ejercicio 2.73 para obtener las frmulas
del ngulo triples:
1. cos 3q = cos3 q

3 cos q sen2 q.

2. sen 3q = 3 cos2 q sen q

sen3 q.

Propiedades geomtricas
El cuadrado del valor absoluto de un complejo tiene la buena propiedad

| x + iy|2 = x2 + y2 = ( x + iy)( x

iy).

Esta es una de las muchas razones para dar el proceso de pasar del complejo z = x + iy a x iy el nombre especial de conjugar z.
Se denota el complejo conjugado como
x + iy = x

iy.

Geomtricamente, la conjugacin z significa que se refleja el vector correspondiente a z con respecto a la eje real. El siguiente ejercicio recoge
algunas propiedades bsicas del conjugado.
Ejercicio 2.76. Para cualesquiera z, z1 , z2 2 C,
1. z1 z2 = z1 z2 .

5. |z| = |z|.

2. z1 z2 = z1 z2 .

6. |z|2 = z z.

3.

z1
z2

z
= 1.
z2

4. z = z.

7. Re z = 12 (z + z),
8. Im z =

1
2i ( z

9. eiq = e

iq .

z ).

El dibujo de la figura 2.7 nos da una idea de un nmero complejo y su


conjugado, as como alguna propiedad de desigualdad geomtrica

|z| Re z |z| y

|z| Im z |z|

De la propiedad 6 del ejercicio 2.76 obtenemos una forma fcil para calcular la divisin de complejos.

52

Estructuras Algebraicas
Im
z
|z|

q x
q

x = Re z, y = Im z
y
q = Arg(z) con tan(q ) =
x
p
El mdulo |z| = x2 + y2 .

Re
y
z

Figura 2.7: Un complejo y su conjugado.


z1
=
z2

1
| z2 |2

z1 z2 .

1+i
de dos formas distini
tas, en forma polar y usando la anterior propiedad. Expresa el resultado en forma
rectangular y en forma polar.
Ejercicio 2.77. Calcula la siguiente divisin compleja

Y, por ltimo, obtenemos las siguientes desigualdades clsicas:


Proposicin 2.78. Para z1 , z2 , 2 C, tenemos las siguientes desigualdades:
(a) La desigualdad triangular: |z1 + z2 | |z1 | + |z2 |.
(b) Forma general de la desigualdad triangular: | z1 z2 | |z1 | + |z2 |.
(c) La desigualdad triangular inversa: | z1 z2 |
(d) La desigualdad triangular para las sumas:

| z1 |

zk

k =1

| z2 |.
n

| z k |.

k =1

Demostracin.
(a) Usamos algunas propiedades vistas en el Ejercicio 2.76.

|z1 + z2 |2 = (z1 + z2 )(z1 + z2 ) = (z1 + z2 )(z1 + z2 ) =


= | z1 |2 + z1 z2 + z1 z2 + | z2 |2 =
= |z1 |2 + 2Re (z1 z2 ) + |z2 |2
| z1 |2 + 2| z1 | | z2 | + | z2 |2 =
= (|z1 | + |z2 |)2

2.5 El cuerpo de los nmeros complejos

53

(b) Se obtiene de la anterior, con ms que considerar que | z| = |z|.


(c) |z1 | = |z1

z2 | + |z2 | de donde se obtiene que

z2 + z2 | | z1

| z1

z2 |

| z1 |

| z2 |.

Las restantes desigualdades se obtienen a partir de sta con ms que


considerar | z| = |z|.
(d) Procedemos por induccin.
Para n = 2 no es ms que la desigualdad triangular (a).
Hipteisis de induccin:
Suponemos

k =1

zk

|zk | para 2 r < n.

k =1

Para n > 2, tenemos (usando nuevamente (a))


n

k =1

zk =

n 1

k =1

zk + zn

n 1

k =1

zk + |zn |

n 1

k =1

|zk | + |zn | =

| z k |.

k =1

Proposicin 2.79. Sea p( x ) = a0 + a1 x + a2 x2 + + an x n un polinomio con


todos sus coeficientes ai nmeros reales. Si z 2 C es una raz de p( x ), entonces su
conjugado z es tambin raz.
Demostracin. Si z = reiq , entonces
p(z) = a0 + a1 reiq + a2 r2 ei2q + + an r n einq = 0

(2.7)

Adems
p(z) = a0 + a1 re

iq

+ a2 r 2 e

i2q

+ + an r n e

inq

= b 2 C.

(2.8)

Sumando y restando (2.7) y (2.8) nos da, respectivamente


b = 2a0 + 2a1 r cos q + 2a2 r2 cos(2q ) + . . . 2an r n cos(nq ) (que es real)
b=

i 2a1 r sen q + 2a2 r2 sen(2q ) + . . . 2an r n sen(nq ) (que es imaginario)

por tanto, b = 0, que prueba que z es tambin raz.

54

Estructuras Algebraicas

2.5.3.

Funcin exponencial

Damos por conocida la funcin exponencial real y, sobre todo, sus propiedades. Nuestro objetivo es extender esta funcin a una nueva definida
en los complejos (con imagen compleja) que extienda a la real ya conocida,
a la que aadimos que sea compatible con la frmula de Euler, ya definida,
eiy = cos y + i sen y.
Definicin 2.80. La funcin exponencial (compleja) se define para cualquier complejo z = x + iy como
exp z = exp( x + iy) = e x eiy = e x (cos y + i sen y).
Efectivamente, esta definicin extiende a la de los reales.
exp( x ) = exp( x + i0) = e x (cos 0 + i sen 0) = e x .
Adems la frmula de Euler es un caso particular de la exponencial compleja
exp(ix ) = eix
Las propiedades ya conocidas de la exponencial real se extienden a la compleja (y algunas otras nuevas)
Proposicin 2.81. Por todo z, z1 , z2 2 C,
1. exp z1 exp z2 = exp(z1 + z2 ).
2.

1
= exp( z).
exp z

exp z1
3.
= exp(z1
exp z2

4. exp(z + 2pi ) = exp z.


5. | exp z| = exp(Re z).

z2 ).

6. exp z 6= 0 para cada z 2 C.


7. exp0 z = exp z.

Demostracin. Ejercicios.

Hacemos las siguientes observaciones:


1. La cuarta identidad es muy especial y no tiene equivalente en el caso
real. Se dice que la funcin exponencial compleja es peridica con
perodo 2pi. Esto tiene muchas consecuencias interesantes, entre ellas
que la funcin exponencial compleja no es inyectiva.
2. La ltima igualdad hace referencia a la derivada de la funcin exponencial compleja. Aunque est fuera de los contenidos de este curso,
lo mostramos por remarcar los "parecidos y las "diferencias entre la
exponencial real y la compleja.

2.5 El cuerpo de los nmeros complejos

55

Figura 2.8: La funcin exponencial compleja transforma rectas horizontales


en semirectas radiales desde el origen.
r5iy
r4
iy
r6
r5
r4
r3
xr2
r1

exp(z)

r3
x
r6

r2

r1

Figura 2.9: La funcin exponencial compleja transforma rectas verticales en


circunferencias concntricas al origen.
iy
iy
r5
exp(z)
x

r3
r2
r1

r4
x

r1 r2 r3 r4 r5
3. Las figuras 2.8 y 2.9 muestan como la exponencial compleja transforma rectas del plano complejo horizontales y verticales en otros subconjuntos de puntos de los complejos.
Ejercicio 2.82. Describe las imgenes de los siguientes conjuntos bajo la funcin
exponencial exp z:
a) el segmento definido por z = iy, 0 y 2p.
b) el segmento definido por z = 1 + iy, 0 y 2p.
c) el rectngulo {z = x + iy 2 C : 0 x 1, 0 y 2p }.

2.5.4. Funciones trigonomtricas y trigonomtricas hiperblicas


Las funciones trigonomtricas reales seno, coseno, tangente, cotangente, etc. tienen sus anlogas complejas, aunque no juegan el mismo papel
prominente como en el caso real. De hecho, podemos definirlos como simplemente ser combinaciones especiales de la funcin exponencial.

56

Estructuras Algebraicas

Definicin 2.83. El seno y coseno (complejo) se definen como


1
(exp(iz) exp( iz))
2i
1
cos z = (exp(iz) + exp( iz)).
2

sen z =

Las funciones tangente y cotangente se definen


tan z =
cot z =

sen z
=
cos z

exp(2iz) 1
exp(2iz) + 1

cos z
exp(2iz) + 1
=i
,
sen z
exp(2iz) 1

respectivamente.
Ejercicio 2.84. Prueba las igualdades anteriores referidas a la tangente y cotagente. Para ello usa la igualdad (exp z)(exp( z)) = e0 = 1.
Prueba, igualmente, que las funciones trigonomtricas definidas extienden a
las funciones trigonomtricas reales.
Las principales propiedades de las funciones trigonomtricas reales tambin se cumplen para funciones trigonomtricas complejas, como se ve en
este lema,
Lema 2.85. Pora todo complejo z, z1 , z2 2 C,
1. sin( z) =

sen z

5. tan(z + p ) = tan z

2. cos( z) = cos z

6. cot(z + p ) = cot z

3. sen(z + 2p ) = sen z

7. sen(z + p/2) = cos z

4. cos(z + 2p ) = cos z

8. cos(z + p/2) =

sen z

9. sen(z1 + z2 ) = sen z1 cos z2 + cos z1 sen z2


10. cos(z1 + z2 ) = cos z1 cos z2

sen z1 sen z2

11. sen2 z + cos2 z = 1

13. sen0 z = cos z

12. cos2 z

14. cos0 z =

sen2 z = cos(2z)

Demostracin. Ejercicio (prueba algunas).

sen z

2.5 El cuerpo de los nmeros complejos

57

Obsrvese que las funciones trigonomtricas seno y coseno son peridicas de periodo 2p al igual que las funciones trigonomtricas reales. Igualmente las funciones complejas tan z y cot z son peridicas de periodo p.
En cambio la propiedad de ser acotada que tiene las funciones reales
seno y coseno (| sen x | 1 y | cos x | 1) no es verdad para las funciones
complejas sen z y cos z (por ejemplo, | sen(iy)| ! cuando y ! ).
Definicin 2.86. Definimos las funciones trigonomtricas hiperblicas (seno,
coseno, tangente y cotagente hiperblicas), como
1
(exp z exp( z))
2
1
cosh z = (exp z + exp( z))
2
sinh z
exp(2z) 1
tanh z =
=
cosh z
exp(2z) + 1
senh z =

coth z =

cosh z
exp(2z) + 1
=
senh z
exp(2z) 1

respectivamente. Como es habitual estas funciones complejas extienden a


sus homnimas reales.
Ejercicio 2.87. Prueba las siguientes igualdades
a) cosh2 z

senh2 z = 1.

b) cosh(iz) = cos z.

c) senh(iz) = i sen z.

2.5.5. Logaritmos y exponenciales de base


El logaritmo complejo es una funcin que vamos a que es de un carcter
un tanto complicado. Est motivada por ser la funcin inversa de la funcin
exponencial, es decir, que estamos buscando una funcin de registro de
manera que
exp(log z) = z = log(exp z).
(2.9)
Como veremos en breve, esto es esperar demasiado. Vamos a escribir,
como de habitual, Sea z = reiq siendo z 6= 0, y supongamos que log z =
u(z) + iv(z). Tenemos entonces que
exp(log z) = eu eiv = reiq
de donde obtenemos que u = ln r = ln |z|, que est definido como un
logaritmo neperiano de un nmero positivo. Por otro lado, v coincidira con
el argumento de z, pero sabemos que este no es nico, por tanto, podemos
definir la multifuncin logaritmo del siguiente modo

58

Estructuras Algebraicas
log z = ln |z| + i arg z.

Podemos interpretar esta funcin logaritmo como muchas funciones distintas y a cada una se le llama rama logartmica y cualquiera de estas ramas
verifican la condicin de inversa que pedamos en 2.9. Entre todas estas ramas se suele destacar la llamada el logaritmo principal escrito con la primera
letra mayscula
Log z = ln |z| + i Arg z.
Dicho de otro modo, el logaritmo principal de un complejo es la rama cuya
parte imaginaria est en el intervalo ( p, p ].
Como viene siendo habitual, el logaritmo principal extiende al logaritmo (neperiano) real, puesto que el argumento principal de un real positivo
es cero.
Ejercicio 2.88. Comprueba que el logaritmo principal de un nmero negativo x =
| x | es el siguiente
Log x = ln | x | + ip

Ejercicio 2.89. Se siguen verificando las propiedades clsicas del logaritmo neperiano en el logaritmo principal? Por ejemplo, es cierto que Log(z2 ) = 2 Log z?
Estudia si otras propiedades clsicas se siguen verificando.
Exponenciales de base.
Dado un nmero complejo a 2 C definimos la exponencial compleja
de base a como
az = exp(z log a)

e = lm

n!

k 0

1
.
k!

1+

1
n

que, evidentemente, es una multifuncin por serlo log a. Llamamos valor


principal de az = exp(z Log a), es decir, el obtenido usando el logaritmo
principal. Salvo que se diga lo contrario, se entiende por az el valor principal de la exponencial de base a.
Notemos que, si usamos el nmero e de Euler como base, el valor principal de su exponencial es justamente la funcin exponencial compleja, veamos:
ez = exp(z Log e) = exp(z(ln e + i0)) = exp z.

Ejercicios Propuestos
Conjuntos, Relaciones, Funciones
Ej. 2.1 Sea U = {1, 2, 3, ..., 10} el conjunto universal en el que se definen los siguientes conjuntos: A = {1, 4, 7, 10}, B = {1, 2, 3, 4, 5} y C =
{2, 4, 6, 8}. Escribe los siguientes conjuntos:

2.5 El cuerpo de los nmeros complejos


a) A \ (C

A)

b) A \ ( B [ C )

59

c) ( A \ B) [ C

Ej. 2.2 Para cada i 2 N, consideremos Ai =


Calcular

i 2N

Ai y

Ai .

d) ( A A) \
( B B)

x2R|0x<

1
i+1

i 2N

Ej. 2.3 Si el conjunto X tiene 10 elementos cuntos subconjuntos propios de X hay en P ( X )?


Ej. 2.4 Dado A = { a, b, c}, si P ( A) representa el conjunto de las partes
de A, indica cules de las siguientes afirmaciones son ciertas:
a) A

b) 2 A

c) a A

d) a 2 P ( A)

e) { a} P ( A)

f) { a} 2 P ( A)

g) P ( A)
h) 2 P ( A)

Ej. 2.5 De los 100 alumnos de una clase 60 han aprobado fsica, 48 matemticas y 30 las dos. Halla el nmero de alumnos que no han aprobado
ninguna de las dos.
Ej. 2.6 Dados los conjuntos X = {2, 3, 4} e Y = {3, 4, 5, 6, 7} definimos
la relacin de X en Y: x R y si y slo si x divide a y. Escribe los elementos
del grafo de la relacin y una representacin grfica de la misma.
Ej. 2.7 Verificar si las siguientes relaciones definidas sobre el conjunto
de los nmeros enteros cumplen las propiedades reflexiva, simtrica, antisimtrica o transitiva.
1. a R1 b , a = b2
2. a R2 b , a > b

3. a R3 b , 3 divide a a

Ej. 2.8 (Feb. 2012) Dado el conjunto A = {1, 2, 3, 4, 5, 6}, se considera la


relacin R sobre A, tal que, para todo a, b 2 A, a R b si, y slo si, a + b es
divisible por 6.
1. Calcula los pares de la relacin R. Justifica por qu R no es una
relacin de equivalencia.
2. Aade los pares necesarios para que sea una relacin de equivalencia.
3. Define el conjunto cociente.

60

Estructuras Algebraicas

Ej. 2.9 En el conjunto A = {1, 2, 3, 4} se define la relacin binaria:

R = {(1, 1), (2, 2), (2, 3), (2, 4), (3, 2), (3, 3), (3, 4), (4, 2), (4, 3), (4, 4)}.
Justifica que R es una relacin binaria de equivalencia y halla el conjunto
cociente. Dibuja una representacin grfica de la relacin.
Ej. 2.10 Demuestra que la relacin de divisibilidad en N

{0}:

a | b si y slo si b = na para algn n 2 N


es una relacin de orden e indica si es total o parcial. Representa grficamente la relacin restringida al subconjunto {1, 2, 3, 4, 6, 12}.
Ej. 2.11 En Z se define la relacin x R y si y slo si x2 y2 = x y es
R una relacin de equivalencia? En caso afirmativo, calcular los elementos
de la clase [ a].
Ej. 2.12 (Sept. 2012) Dados los conjuntos A = {1, 2, 3, 4, 5} y B =
{6, 7, 8, 9}, encuentra, si es posible, elementos a, d 2 A y b, c 2 B tales
que la relacin R f = {(1, 8), (2, 6), (2, b), (4, 7), ( a, c), (d, 8)} A B cumpla que:
1. R f no sea una funcin.

2. R f sea una funcin inyectiva.

3. R f sea una funcin, pero no sea sobreyectiva.


Ej. 2.13 (Dic. 2012)
1. Considrese una relacin de orden parcial en un conjunto A. Definimos una nueva relacin binaria en el mismo conjunto A del siguiente
modo:
a b () a = b o bien ( a 6 b y b 6 a)
Comprueba las propiedades de como relacin: reflexiva, simtrica,
antisimtrica y transitiva, probando las que son ciertas y poniendo un
contraejemplo en las que no son ciertas. Es una relacin de equivalencia?
2. Pon, si es posible, un ejemplo de una funcin de R ! R (reales de variable real) en cada uno de los siguientes casos:
a) Inyectiva pero no sobreyectiva.
b) Sobreyectiva pero no inyectiva.
c) Ni inyectiva ni sobreyectiva.

2.5 El cuerpo de los nmeros complejos

61

Ej. 2.14 Representa grficamente, en un sistema cartesiano, las siguientes relaciones. Calcula su dominio e imagen. Indica cules son funciones en
su dominio.
a) R1 = {(1, 3), (2, 2), (1, 5), (3, 5)}
E F, siendo E = {1, 2, 3} y
F = {2, 3, 4, 5}.

d) R4 = {( x, y) 2 R2 | x

c) R3 = {( x, y) 2 R2 | y2

g) R7 = {( x, y) 2 R2 | y + x = 2}.

b) R2 = {( x, y) 2 R2 | y = cos x } .

x = 1}.

y2 = 1}.

e) R5 = {( x, y) 2 R2 | y2 + x2 = 4}.
f) R6 = {( x, y) 2 R2 | x2 + y2 4}.

Ej. 2.15 Si consideramos las funciones de R en R cuyas grficas sean


rectas, son todas aplicaciones biyectivas?
Ej. 2.16 Prueba que la funcin f : [0, ) ! (0, 1] definida f ( x ) =
inyectiva. Es sobreyectiva?

1
x +1

es

Ej. 2.17 Clasifica por el tipo las siguientes funciones:


a) f : R ! R + [ {0}, definida
f ( x ) = | x 1|.
b) g : C ! C, definida f (z) = z.

c) h : C ! R, definida f (z) = zz.

d) t : N !Z, definida
n
si n par
2
t(n) =
n +1
si n impar
2

Estructuras algebraicas
Ej. 2.18 En el conjunto de los nmeros naturales se definen las siguientes leyes de composicin. Determina si son leyes de composicin interna y
en el caso que lo sean estudiar si cumplen la propiedad asociativa, conmutativa y poseen elemento neutro.
1. a b = ab

2. a b = a

Ej. 2.19 Sea E = { a, b, c, d} y P ( E) el conjunto de las partes de E. Determina los elementos regulares de P ( E) respecto de la operacin unin [.
Igual respecto de la interseccin \.
Ej. 2.20 En el conjunto E = {( x, y) 2 R2 : x 6= 0} se define la operacin:

( a, b) (c, d) = ( ac, ad + bc)


Comprueba que ( E, ) es un grupo.
Ej. 2.21 Encuentra los inversos de cada uno de los elementos del grupo
multiplicativo Z11 .

62

Estructuras Algebraicas

Ej. 2.22 Resuelve en el cuerpo Z11 el siguiente sistemas de ecuaciones:


2x 7y = 1
3x + y = 9
Nota: Todos los nmeros pertenecen al cuerpo Z11 .
Ej. 2.23 Comprobar que el subconjunto de las matrices 3 3 siguiente
80
9
1
< a 0 b
=
R = @0 a c A | a, b, c 2 R
:
;
0 0 a
es un anillo unitario. Es conmutativo? Es cuerpo?

Nmeros complejos
Ej. 2.24 Prueba que las races n-simas de la unidad (complejas), es decir,
las soluciones de la ecuacin zn = 1, con z 2 C, forman un grupo abeliano
con la operacin producto.
Ej. 2.25 Escribe en forma polar:
a) 2i.
b) 1 + i.
p
c) 3 + 3i.

d) i.
e) (2 i )2 .
f) |3 4i |.

g)
h)

1
p

i.

i 4

Ej. 2.26 Encuentra todas las soluciones (en forma rectangular) de las
ecuaciones:
a) z6 = 1.

b) z4 =

16.

c) z6 =

9.

d) z6
z3
2 = 0.

Ej. 2.27 Dibuja los siguientes conjuntos en el plano complejo:


1. {z 2 C : |z
2. {z 2 C : |z

1 + i | = 2}.
1 + i | 2}.

3. {z 2 C : Re(z + 2

2i ) = 3}.

4. {z 2 C : Img(z + 2
5. {z 2 C : |z

1. sen z = sen x cosh y + i cos x senh y.

i | + | z + i | = 3}.

6. {z 2 C : |z| = |z + 1|}.

Ej. 2.28 Prueba que sen z = sen(z) y cos z = cos(z).


Ej. 2.29 Sea z = x + iy. Prueba que

2i ) = 3}.

2.5 El cuerpo de los nmeros complejos


2. cos z = cos x cosh y

63

i sen x senh y.

Ej. 2.30 Determina la imagen de la cinta {z 2 C :


bajo la funcin f (z) = sen z.

p/2 < Re z < p/2}

Ej. 2.31 Hay alguna diferecia entre log z2 y 2 log z?


Ej. 2.32 Halla la imagen del anillo 1 < |z| < e bajo el logaritmo principal.
Ej. 2.33 Encuentra los valores principales de
b) ( 1)i .

a) log i.

c) log(1 + i ).

Ej. 2.34 Prueba que | az | = aRe z si a es una constante real positiva.


Ej. 2.35 Encuentra todas las soluciones de las siguientes ecuaciones:
a) Log(z) =

p
i.
2

b) exp(z) = pi.

c) z1/2 = 1 + i.

TEMA 3
TCNICAS DE RECUENTO

ndice
3.1.

3.2.

Principios bsicos . . . . . . . . . . . . . . . . . . . . . .

66

3.1.1.

Principio del palomar . . . . . . . . . . . . . . .

66

3.1.2.

Principio de la suma . . . . . . . . . . . . . . . .

67

3.1.3.

Principio del producto . . . . . . . . . . . . . . .

68

Permutaciones y combinaciones . . . . . . . . . . . . . .

68

3.2.1.

Permutaciones ordinarias . . . . . . . . . . . . .

69

3.2.2.

Permutaciones con repeticin . . . . . . . . . . .

70

3.2.3.

Permutaciones con objetos repetidos . . . . . . .

71

3.2.4.

Combinaciones ordinarias . . . . . . . . . . . . .

72

3.2.5.

Combinaciones con repeticin . . . . . . . . . . .

75

3.2.6.

Nmeros multinomiales . . . . . . . . . . . . . .

76

Principio de inclusin y exclusin . . . . . . . . . . . . .

77

3.3.1.

Desarreglos: nada en su lugar . . . . . . . . . . .

77

3.3.2.

Nmero de funciones sobreyectivas . . . . . . .

78

Particiones y nmeros de Stirling . . . . . . . . . . . . .

80

3.4.1.

Nmeros de stirling de primera especie . . . . .

81

3.4.2.

Nmeros de Bell . . . . . . . . . . . . . . . . . .

82

Ecuaciones de Recurrencia . . . . . . . . . . . . . . . . .

82

3.5.1.

Objetivo . . . . . . . . . . . . . . . . . . . . . . .

84

3.5.2.

E.R.L. Homogneas . . . . . . . . . . . . . . . . .

85

3.5.3.

E.R.L. No Homogneas . . . . . . . . . . . . . . .

89

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . .

95

3.3.

3.4.

3.5.

65

66

Tcnicas de Recuento

3.1. Principios bsicos


Entendemos por tcnicas de recuento aquellas que nos permiten contar
o calcular el nmero de situaciones posibles que se pueden dar al realizar
ciertas tareas. Por ejemplo, si queremos desbloquear un dispositivo protegido con una clave de exactamente cuatro dgitos (es decir nmeros de 0
a 9) cuntos intentos aleatorios podramos llegar a realizar? o bien hasta cuntos mensajes distintos pueden convenirse entre dos veleros usando
tres banderas de diferente color colgadas del mstil?
Podramos decir que el primer principio bsico para resolver ciertos
problemas es el sentido comn o algn mtodo constructivo diseado
por nosotros mismos.
El primer ejemplo se resuelve fcilmente sabiendo que las distintas claves estn entre los nmeros 0000 y 9999, luego existen diez mil posibles
claves.
El segundo ejemplo podra ser algo ms complicado. Si usamos una sola bandera tenemos 3 mensajes (uno por cada color), usando dos banderas
podemos establecer 3 2 = 6 mensajes, puesto que cada una de las tres
banderas podemos combinarla con cada una de las otras dos y, del mismo
modo, usando tres banderas disponemos de otros 6 posibles mensajes. A
estos 3 + 6 + 6 = 15 mensajes usando al menos una bandera, hay que aadir un mensaje ms que se puede establecer cuando no hay ninguna bandera. Resumiendo, se pueden convenir hasta 16 mensajes con tres banderas
de diferente color.
Tan fcil como parece!

Ejercicio 3.1. Usa el sentido comn para calcular cuntos mensajes se pueden
establecer con tres banderas iguales y del mismo color.
Presentamos a continuacin unos principios bsicos clsicos.

3.1.1.

Principio del palomar

Si consideramos dos conjuntos finitos, A y B, y una funcin entre ellos,


f : A ! B, entonces
si | A| > | B| entonces que f no es inyectiva.
Equivalentemente, si m objetos se reparten en n cajas, con m > n, entonces
al menos una caja contiene dos o ms objetos. La forma usual de enunciar
este principio, que resulta mucho ms fcil de recordar y que le da nombre,
es la siguiente:

3.1 Principios bsicos

67

Si en un palomar hay ms palomas que nidos, al menos en un nido debe


encontrarse ms de una paloma.
Este principio, que se conoce como Principio de las cajas de Dirichlet (18051859) o Principio del palomar, puede ayudar a resolver problemas aparentemente complejos.
Ejemplo 3.2. En un recinto con forma de hexgono regular de 100 metros
de lado se encuentran siete robots que se desplazan independientemente y
se comunican a travs de seales de radio. Cada robot tiene una cobertura
de al menos 100 metros. Demuestre que en todo momento hay al menos
dos robots que se pueden comunicar entre s.
S OLUCIN: Consideramos el hexgono regular
100m
de 100 metros de lado dividido en 6 tringulos conforme la figura anexa. Estos tringulos
seran los nidos y los robots seran las palomas. Evidentemente hay ms palomas que nidos, por lo que, al menos, dos han de compartir
nido. Eso nos asegura que dos robots estn en el mismo tringulo (equiltero, de lado 100), luego su distancia ser menor o igual a 100 metros.
Ejemplo 3.3. Cuntos dgitos distintos de 1 a 9 tenemos que seleccionar
para garantizar que hay dos que suman 10?
S OLUCIN: Existen 4 formas distintas de sumar 10 (con 2 dgitos distintos),
que son: [1 + 9], [2 + 8], [3 + 7] y [4 + 6]. Consideramos cada una de estas
formas un nido al que incorporamos el nido [5], que no suma diez,
pero es un dgito que puede aparecer. Las palomas sern, entonces, los
dgitos elegidos de 1 a 9 que ocuparn su correspondiente nido. Claramente, cuando dos palomas ocupan el mismo nido, su suma es diez, por tanto,
necesitamos seleccionar seis dgitos distintos para garantizar que al menos
dos de ellos suman 10.
Ejercicio 3.4. En las condiciones del ejemplo 3.3, cuntos dgitos tenemos que
seleccionar para garantizar que dos de ellos suman 7?

3.1.2. Principio de la suma


La propiedad sobre cardinalidad de conjuntos:
Si A y B son conjuntos finitos disjuntos, | A [ B| = | A| + | B|
es conocida como el Principio de la Suma.

68

Tcnicas de Recuento

Ejercicio 3.5. Los alumnos del primer curso se encuentran distribuidos en tres
grupos, A, B y C; con 130, 125 y 150 alumnos respectivamente. Calcule cuntos
posibles representantes pueden haber en primero.

3.1.3.

Principio del producto

Del mismo modo, la propiedad:


Si A y B son conjuntos finitos, | A B| = | A| | B|
es conocida como Principio del Producto.
Ejemplo 3.6. Un Ayuntamiento decide matricular las bicicletas del pueblo.
Al alcalde se le ocurre crear matrculas de la forma VCD, donde V es una
vocal (5 posibles), C es una consonante (21 posibles) y D es un dgito (10
posibles). As la primera matrcula es AB0 y la ltima sera UZ9. Cuntas
matrculas distintas pueden existir?
S OLUCIN: pueden haber 5 21 10 = 1050 matrculas distintas.
Ejercicio 3.7. Un comit de seis personas, A, B, C, D, E y F, debe escoger un
presidente, un secretario y un tesorero. De cuntas formas distintas se puede hacer
la eleccin?
Los principios de la suma y el producto se pueden combinar para resolver muchos problemas algo ms complicados.
Ejercicio 3.8. En la sitacin del ejercicio 3.7, calcula el nmero de posibles elecciones si:
1. El presidente debe ser A o B.
2. E debe ocupar alguno de los cargos.
3. A y F deben ocupar cargos.
(Cada apartado es independiente de los dems).

3.2. Permutaciones y combinaciones


Todos ellos son ejemplos
de lo que llamaremos
permutaciones.

Usa el principio del producto para resolver los siguientes ejercicios.


Ejemplo 3.9. Deseamos repartir tres bolas de colores rojo, verde y azul, en
diez urnas con capacidad para una nica bola. Las urnas estn numeradas
del uno al diez. De cuntas formas distintas se puede llevar a cabo este
experimento?

3.2 Permutaciones y combinaciones

69

S OLUCIN: Al reri
ai vi
partir primero la bou
u
u5 u6 u7 u8 u9 u10
u2 u3
la de un color dis1
4
ponemos de 10 cajas
para colocar. Para la segunda bola de color nos quedan 9 cajas (porque una
est ocupada) y para la tercera disponemos de 8 colocaciones. El principio
del producto nos dice que la solucin es
10 9 8
Ejercicio 3.10. Sean A y B conjuntos finitos de cardinales 3 y 10 respectivamente.
Cuntas funciones inyectivas se pueden definir de A en B?
Ejercicio 3.11. Si A es un conjunto con cardinal 10 y queremos construir una
lista de tres elementos distintos de A, de cuntas formas lo podemos hacer?

3.2.1. Permutaciones ordinarias


En esta seccin trabajamos con sucesiones ordenadas que llamamos listas y que representaremos entre los smbolos h y i. As h a, b, ci 6= hb, a, ci.
Como es usual, admitimos la existencia de la lista vaca hi.
Definicin 3.12. Dado un conjunto A de n elementos y r un nmero natural, llamaremos:
Denotaremos por P(n) al
permutacin de A a toda lista formada por sus n elementos.
r-permutacin (o r-variacin) de A a cualquier lista formada por r elementos diferentes de A.
Se establecen las siguientes convenciones:
P (0) = 1 y
P(n, 0) = 1 para cada natural n.
Ejemplo 3.13. Consideramos el conjunto A = { a, b, c, d, e}.

h a, c, d, b, ei es una permutacin de A.
hd, b, ai es una 3-permutacin (o 3-variacin) de A.
Definicin 3.14 (Nmero factorial). Para cualquier natural n definimos recursivamente el factorial de n como
Si n > 0, n! = n (n
0! = 1

1) !

nmero de permutaciones
de un conjunto con n
elementos y P(n, r ) al
nmero de
r-permutaciones de n
elementos

70

Tcnicas de Recuento

Entonces, para un entero positivo, n! = n (n

1) 2 1.

Teorema 3.15. Sean n y r nmeros enteros tales que 0 r n entonces


P(n) = n!

P(n, r ) =

n!

(n

r )!

Demostracin. Si r = 0 ya sabemos que P(0) = 0! y P(n, 0) =


Si r > 0, por el principio del producto
P(n, r ) = n(n

n(n

1) ( n

1) ( n
(n

n!

(n

0) !

r + 1) =
r + 1)(n r ) 2 1
n!
=
r) . . . 2 1
(n r )!

y, por tanto,
P(n) = P(n, n) = n(n
que prueba el teorema.

1) 2 1 = n!

Ejercicio 3.16. Cuntas funciones biyectivas se pueden definir entre dos conjuntos de cardinal n?
Ejercicio 3.17. Plantea el ejemplo 3.9 haciendo uso de la definicin de r-permutaciones.

3.2.2. Permutaciones con repeticin


Hemos visto que una r-permutacin tiene todos sus elementos diferentes. Si admitimos que en las listas podemos hacer repeticiones, el concepto
cambia.
Denotamos por PR(n, r ) al
nmero de
r-permutaciones con
repeticin de n elementos.

Definicin 3.18. Dado un conjunto A no vaco de n elementos, llamamos


r-permutacin con repeticin (o r-variacin con repeticin) de A a cualquier lista
de r elementos, iguales o diferentes, de A.
Al igual que en el caso de las permutaciones ordinarias, admitimos la
posibilidad r = 0. Convenimos, entonces, PR(n, 0) = 1 para cada entero
positivo n.
Ejemplo 3.19. Dado el conjunto A = { a, b, c, d, e}, entonces, hd, a, b, di y
he, a, c, bi son 4-permutaciones con repeticin de A.
Ejercicio 3.20. Da varios ejemplos de 4-permutaciones con repeticin del conjunto { a, b}.

3.2 Permutaciones y combinaciones

71

Teorema 3.21. Sean n entero positivo y r nmero natural, entonces


PR(n, r ) = nr .
Demostracin. Si r = 0, entonces PR(n, 0) = 1 = n0 . Si r > 0, el resultado
es evidente a partir del principio del producto.

Ejemplo 3.22. Disponemos de diez urnas diferentes, numeradas del uno


al diez. Tenemos, por otro lado, una bola roja, una verde y una azul. Si en
cada urna podemos colocar ms de una bola, de cuntas formas diferentes
podemos repartir las bolas entre las urnas?
S OLUCIN: Apliquemos
la regla del producto.
Para la primera bola teah
rh
nh
nemos 10 urnas entre
u
u
u
u
u
u
u7 u8 u9 u10
3
5
6
2
1
4
las que elegir, para la segunda siguen quedando 10 urnas, puesto que puedo repetir la que est ocupada. Igualmente
para la tercera bola podemos elegir entre diez urnas. As la solucin es
10 10 10 = PR(10, 3) = 103
Ejercicio 3.23. Cuntas funciones se pueden definir desde un conjunto de r elementos a un conjunto de n elementos?

3.2.3. Permutaciones con objetos repetidos


Definicin 3.24. Sean n1 , n2 , . . . , nt nmeros naturales. Llamamos permuta- Denotamos
cin con objetos repetidos del conjunto { x1 , x2 , . . . , xt } a cualquier lista que POR(n1 , n2 , . . . , nt 1 , nt )
al nmero de
verifique que, para cada 1 i t, el elemento xi aparece ni veces.
Si n1 = n2 = = nt = 0, convenimos POR(0, 0, . . . , 0) = 1.
Ejemplo 3.25. Consideramos el conjunto A = { a, b, c, d, e}. Entonces, la lista hd, d, a, b, a, b, c, ai es una (3, 2, 1, 2, 0)-permutacin con objetos repetidos
de A.
Teorema 3.26. Sean n y n1 , n2 , . . . , nt nmeros naturales. Si n = n1 + n2 +
+ nt entonces
POR(n1 , n2 , . . . , nt ) =

n!
.
n1 ! n2 ! . . . n t !

Demostracin. Basta agrupar las permutaciones iguales entre las n! del conjunto de n elementos.

permutaciones con objetos


repetidos.

72

Tcnicas de Recuento

Ejercicio 3.27. De cuntas formas se pueden ordenar las letras de la palabra


MISSISIPPI?
Cuando en las listas obtenidas a partir de un conjunto prescindimos
del orden de sus elementos obtenemos lo que se llaman combinaciones. As,
por ejemplo, las listas h a, b, ci y hb, c, ai son distintas consideradas como
permutaciones, sin embargo, son la misma combinacin.

3.2.4.
El nmero de
r-combinaciones de n
elementos lo denotamos

n
por C (n, r ) =
ledo
r
nmero combinatorio n
sobre r.

Combinaciones ordinarias

Definicin 3.28. Dado un conjunto X de n elementos, llamamos r-combinacin ordinaria (o simplemente r-combinacin) de X a cualquier seleccin
no ordenada de r elementos de X, es decir, cualquier subconjunto de X de
cardinal r.
Ejemplo 3.29. Si consideramos el conjunto A = { a, b, c, d, e}, el conjunto
{ a, b, e} es una 3-combinacin de A. En las combinaciones el orden no influye con lo que, por ejemplo, {e, b, a} = { a, b, e}.
Teorema 3.30. Si n y r nmeros enteros tales que 0 r n entonces
C (n, r ) =


n
n!
=
.
r
r!(n r )!

Demostracin. Si un conjunto A tiene n elementos, entonces el nmero de


r-permutaciones es P(n, r ). Si no tenemos en cuenta el orden, se pueden
agrupar en grupos de P(r ) permutaciones que equivalen a la misma combinacin. Entonces
n!
C (n, r ) =

P(n, r )
n!
(n r )!
=
=
P (r )
r!
r!(n r )!

Ejemplo 3.31. Deseamos repartir tres bolas iguales entre diez urnas numeradas. Si las urnas tienen capacidad para una nica bola, de cuntas
formas podremos hacer el reparto?
S OLUCIN: Si las bolas
fuesen de distinto coh
h h
lor, habra P(10, 3) foru
u
u
u
u6 u7 u8 u9 u10
u
3
5
2
1
4
mas de repartir. Ahora
bien, puesto que las bolas son idnticas, el orden de colocacin de las bolas, o lo que es equivalente, el orden de eleccin de las urnas, no influye a la hora de contar. Por tanto
la solucin es

3.2 Permutaciones y combinaciones

73

C (10, 3) =

10!
3!7!

Ejercicio 3.32. Un comit de seis personas A, B, C, D, E y F deben elegir tres representantes (sin ningn rango entre ellos). Calcule el nmero de formas diferentes
de hacer la eleccin si:
1. No hay restricciones.
2. Deben figurar A y B.
3. Deben figurar A o B, pero no ambos.
4. Deben figurar A o B.
Nmeros combinatorios. Propiedades
Los llamados nmeros combinatorios, por su utilidad, merecen un estudio algo ms detallado.
Proposicin 3.33. Los nmeros combinatorios tienen las siguientes propiedades:
1. Para cada entero n


n
n
=
=1
0
n

Demostracin. Trivial, teniendo en cuenta que 0! = 1.

2. Para cada par de enteros 0 r n,

n
n
=
r
n r

Demostracin. Aplicando el teorema 3.30 a cada una de las partes es


evidente que son iguales.

3. Para cada par de enteros 0 < r n, se cumple



n
n
=
r
r

1
n 1
+
1
r

74

Tcnicas de Recuento
Demostracin. Partimos de la parte derecha y la vamos a igualar a la
izquierda.

n 1
n 1
( n 1) !
( n 1) !
+
=
+
=
r 1
r
(r 1)!(n r )! r!(n r 1)!

=
=
=

r ( n 1) !
(n r )(n 1)!
+
=
1)!(n r )! r!(n r )(n r 1)!

r (n

n
r

1)! + (n r )(n
r!(n r )!

1) !

n!
=
r!(n r )!

Las propiedades anteriores nos permiten construir de forma recursiva


la tabla conocida con el nombre de tringulo de Tartaglia o de Pascal:
1
1

1
1
.

1
..

En la fila n-sima estn


todos los nmeros
combinatorios (nr).

r (r

2
3

4
...

1
3

6
...

1
4

...

1
...

..

Figura 3.1: Tringulo de Tartaglia.


Ejercicio 3.34. Completa tres filas ms del tringulo de Tartaglia (figura 3.1).
Una aplicacin importante de los nmeros combinatorios es el desarrollo de la potencia de un binomio, un conocido resultado debido a Newton.
Teorema 3.35 (Binomio de Newton). Sean a, b elementos de una anillo conmutativo y n un nmero natural, entonces:

( a + b)n =



n 0 n
n 1 n
a b +
a b
0
1

++


n
n n 0
n i n i
a b =
ab .
n
i
i =0

Demostracin. Si aplicamos la propiedad distributiva a la expresin

( a + b)n = ( a + b)( a + b) .n.veces


. . . . ( a + b)
aparece una suma de expresiones aa . .i . abb n. . .i b = ai bn i , y cada una de
ellas aparece tantas veces como las formas de ordenarlas, que son

n
POR(i, n i ) = C (n, i ) =
i

3.2 Permutaciones y combinaciones

75

Ejercicio 3.36. Comprueba (a mano) la veracidad del teorema del binomio de Newton para n = 2, 3, 4.

3.2.5. Combinaciones con repeticin


Definicin 3.37. Dado un conjunto A no vaco de n elementos, llamamos Al nmero de
r-combinacin con repeticin de A a cualquier seleccin no ordenada de r r-combinaciones con
repeticin de n elementos
elementos de A que pueden estar repetidos.
lo denotamos por

Las r-combinaciones con repeticin las las representamos encerrando CR(n, r).
sus elementos entre los smbolos d y e.
Ejemplo 3.38. Consideramos el conjunto A = { a, b, c, d, e}. Entonces la lista
sin orden d a, a, a, b, b, d, de es una 7-combinacin con repeticin de A.
Teorema 3.39. Sean n un entero positivo y r un nmero natural, entonces
CR(n, r ) =

n+r
r

Demostracin. Una r-combinacin de los n objetos de un conjunto se puede


representar como una (r, n 1)-permutacin (con objetos repetidos) y viceversa. Pongamos un ejemplo, sobre el conjunto { a, b, c, d}, la 4-combinacin
con repeticin d a, b, b, de se identifica con la (4, 3)-permutacin x|xx||x (de
la cadena de caracteres xxxx|||).
Luego

( n + r 1) !
n+r 1
CR(n, r ) = POR(r, n 1) =
=
r!(n 1)!
r

Ejemplo 3.40. Disponemos de 10 urnas diferentes (con capacidad para tres


o ms bolas), y tres bolas iguales que se desean repartir entre las urnas. De
cuntas formas diferentes se puede realizar este reparto?

u1

jj

u2

u3

u4

u5

u6

u7

u8

u9

u10

S OLUCIN: Al colocar una bola en una urna realmente estamos seleccionando dicha urna (puesto que las bolas son idnticas). Por tanto, el problema equivale a elegir 3 urnas de entre las 10, con posibles repeticiones,
siendo el orden intrascendente, esto es


10 + 3 1
12
CR(10, 3) =
=
3
3

76

Tcnicas de Recuento

3.2.6.

Nmeros multinomiales

En la prueba de la frmula del binomio de Newton, Teorema 3.35, hicimos uso del hecho de que

n
POR(i, n i ) =
i
El ejemplo y el ejercicio que siguen nos muestran que, en general, existe una
relacin entre las combinaciones y las permutaciones de objetos repetidos.
Ejemplo 3.41. De cuntas formas podemos repartir tres bolas rojas, dos
azules y una verde en 10 urnas con capacidad para una nica bola.
rj
u1

rj
u2

aj
u3

u4

aj
u5

vj
u6

u7

rj
u8

u9

u10

S OLUCIN: Para resolverlo, descomponemos el reparto en tareas y aplicamos el principio del producto. As, al repartir las bolas rojas tenemos
C (10, 3) formas de hacerlo. Al repartir las azules, tenemos C (7, 3), puesto
que 3 urnas ya estn ocupadas, y, por ltimo, la bola verde se puede hacer
de C (5, 1) formas. Por tanto, la solucin es

10
7
5
3
2
1
Ejercicio 3.42. El problema del ejemplo anterior se ha resuelto por combinaciones.
Otra forma distinta de resolverlo es permutar de todas las formas posibles la cadena
de 10 caracteres
RRRAAVSSSS
donde el carcter S representa las urnas sin ninguna bola. Expresa la solucin y
compralo con la expresada en el ejemplo 3.41 anterior.
En general, si n = n1 + n2 + + nt
POR(n1 , n2 , . . . , nt )

n!
n!
( n n1 ) !
=
n1 !n2 ! . . . nt !
n1 ! ( n n1 ) ! n2 ! . . . n t !

= C (n, n1 ) POR(n2 , . . . , nt )
= C (n, n1 )C (n n1 , n2 ) POR(n3 , . . . , nt )
= .........


n
n n1
n n1 n2
nt
=
...
n1
n2
n3
nt

n
def
=
n1 , n2 , . . . , n t

3.3 Principio de inclusin y exclusin

77

Definicin 3.43. Las expresiones

n
n1 , n2 , . . . , n t

= POR(n1 , n2 , . . . , nt ).

reciben el nombre de nmeros multinomiales.

3.3.

Principio de inclusin y exclusin

El ltimo, pero no menos importante, regla o principio para recuento es


el principio de inclusin-exclusin. ste se basa en el cardinal de la unin
de conjuntos finitos.
Teorema 3.44. Sean A1 , A2 , ...An conjuntos finitos, entonces

| A1 [ A2 [ ... [ An | = a1

a2 + a3

+ ( 1 ) n +1 a n .

donde ai es la suma de los cardinales de todas las intersecciones posibles de i conjuntos (1 i n).
a1 = | A1 | + | A2 | + + | A n |,
a2 = | A1 \ A2 | + + | A n 1 \ A n |,
...
a n = | A1 \ \ A n |.
Generalmente, este principio se usa en sentido negativo, es decir, si tenemos un conjunto universal U , con |U | = N

| A1 \ A2 \ \ A n | = N

| A1 [ A2 [ ... [ An |

Ejercicio 3.45. Calcula el nmero de palabras distintas que se pueden formar reordenando la palabra MARINA de forma que las vocales no aparezcan consecutivas.

3.3.1. Desarreglos: nada en su lugar


Ejemplo 3.46. Un secretario (algo distrado) debe colocar cinco cartas en
cinco sobres. Las cartas y los sobres tienen la direccin impresa. De cuntas
formas distintas puede lograr la hazaa de no acertar ninguna?
S OLUCIN: Sabemos que el nmero de todas las posibles formas de colocar
las cartas en los sobres es N = P(5) = 5!. Si queremos contar las formas de
acertar ninguna, pensamos en lo contrario, que es acertar alguna.

78

Tcnicas de Recuento

Vamos a contar las formas en que esto ocurre usando terminologa de


conjuntos. Numeremos las cartas y los sobres de 1 a 5. Llamamos Ai al conjunto de situaciones en que la carta i caiga de forma correcta en su sobre i y
| Ai | es su cardinal, o sea, el nmero de formas en que esto ocurre. Nuestra
solucin ser, por tanto
N

| A1 [ A2 [ A3 [ A4 [ A5 |

y, por el Teorema 3.44

| A1 [ A2 [ A3 [ A4 [ A5 | = a1

a2 + a3

a4 + a5

siendo
a1 = | A1 | + | A2 | + | A3 | + | A4 | + | A5 | = 5 4!

5
a2 = | A1 \ A2 | + . . . | A4 \ A5 | =
3!
2

5
a3 = | A1 \ A2 \ A3 | + . . . | A3 \ A4 \ A5 | =
2!
3
a4 = | A1 \ A2 \ A3 \ A4 | + . . . | A2 \ A3 \ A4 \ A5 | =
a5 = | A1 \ A2 \ \ A5 | = 1


5
1!
4

luego, la solucin es
5!

(5!

10 3! + 10 2!

5 1! + 1) = 60

20 + 5

1 = 44

Ejercicio 3.47. Generaliza el resultado del ejercicio anterior para n cartas y n


sobres.

3.3.2.

Nmero de funciones sobreyectivas

Otra importante aplicacin del principio de inclusin-exclusin es el


clculo del nmero de funciones sobreyectivas que existen sobre dos conjuntos finitos. Este clculo, a su vez, nos da un mtodo para contar situaciones, como veremos en el ejemplo 3.49.
Teorema 3.48. El nmero de aplicaciones sobreyectivas diferentes que se pueden
establecer de un conjunto A de cardinal n en otro conjunto B de cardinal r con
r n es

r
( 1) i (r
i =0
r

i )n .

3.3 Principio de inclusin y exclusin

79

Demostracin. Supongamos que A = { a1 , . . . , an } y B = {b1 , . . . , br } y considermos como conjunto universo, U , el conjunto de todas las funciones de A en B.

|U | = r n

U = { f : A ! B | f es una funcin}

Vamos a calcular el conjunto de funciones f 2 U tales que Img f = B (funciones sobreyectivas). Se tiene que cumplir pues que b1 2 Img f , b2 2 Img f , . . . y br 2 Img f . Consideremos,
para cada 1 i r, los subconjuntos
Xi = { f | bi 2 Img f } U

El conjunto de funciones sobreyectivas ser X1 \ X2 \ . . . Xr y, para calcular su cardinal


hacemos las siguientes transformaciones:

| X1 \ X2 \ . . . X r | = | X1 \ X2 \ . . . X r | =
= | X1 [ X2 [ . . . Xr | = |U |

a1

a2 + ... + ( 1)r+1 ar

En el clculo de a1 precisaremos del cardinal de cada Xi . El nmero de funciones de A


en B que dejan a bi sin ser imagen de ningn elemento es el mismo que el de funciones de
A en B {bi }: (r 1)n .
a1 =

i =1

i =1

| Xi | = ( r

1) n = r (r

1) n

Para calcular a2 debemos sumar los cardinales de todas las posibles intersecciones de dos
conjuntos distintos. Sean Xi y X j dos cualesquiera de estos conjuntos. La interseccin de
ellos la forman las funciones de A en B que dejan fuera del conjunto imagen a los elementos bi y b j . Con un razonamiento similar al anterior podemos afirmar que el nmero de
aplicaciones con estas caractersticas es (r 2)n .
a2 =

| Xi \ X j | = ( r

i6= j

2) n

i6= j

Como todos los sumandos son iguales y tenemos tantos como formas de seleccionar dos
conjuntos distintos de entre X1 , ...Xr , a2 queda de la siguiente forma:

r
a2 =
(r 2) n
2
Generalizando para un h 2 N con 1 h r tenemos:

r
ah =
(r h ) n
h

Y, por tanto, el nmero de funciones sobreyectivas de A en B es:

| X1 \ X2 \ .. \ Xr |

=
=
=

lo que prueba el teorema

(a1 a2 + ... + ( 1)r+1 ar )




r
r
rn
(r 1) n +
(r 2) n
1
2

r
r
( 1) i i (r i ) n
i =0
|U |

.... + ( 1)r


r
(r
r

r )n

Ejercicio 3.49. El Ministerio de Defensa est interesado en siete proyectos distintos que pueden ser desarrollados por cuatro compaas diferentes. De cuntas
formas pueden concederse los contratos para que todas las compaas desarrollen,
al menos, un proyecto?

80

Tcnicas de Recuento

3.4. Particiones y nmeros de Stirling


Al nmero de particiones (Definicin 2.27) diferentes que se pueden
establecer de un conjunto de cardinal n en r partes (1 r n) lo representamos por
S(n, r )
A la hora de calcularlos es
importante tener en
cuenta que el orden de las
partes es irrelevante.

Estos nmeros reciben el nombre de nmeros de Stirling de segunda especie.


Teorema 3.50. El nmero de particiones diferentes de un conjunto de cardinal n
en r partes es:
S(n, r ) =


1 r
i r
(
1
)
(r
r! i
i
=0

i )n

Demostracin. Si A es un conjunto de n elementos y B = {1, 2, . . . , r } una


funcin f sobreyectiva de A en B puede ser considerada como una particin de A en r partes, a saber { f 1 (1), f 1 (2), . . . , f 1 (r )}. Obsrvese que
hay exactamente r! funciones sobreyectivas que dan lugar a la misma particin (correspondientes a permutar los elementos de B). Si F es el nmero
de funciones sobreyectivas de A en B, el nmero de particiones en r partes
son exactamente
F
S(n, r ) =
r!
que junto con la expresin de F dada en el teorema 3.48 nos determina la
expresin buscada.

Ejercicio 3.51. Sea n 2 N con 1 n. Determina S(n, 0), S(n, 1), S(n, n) y
S(n, r ) si r > n.
Ejercicio 3.52. Sea A un conjunto con n > 1 elementos, sea a 2 A y sea 1 <
r n. Justifica que S(n 1, r 1) es el nmero de particiones de A en r partes
que satisfacen que una de las partes es { a}.
Ejercicio 3.53. Sea A un conjunto con n > 1 elementos, sea a 2 A y sea 1 <
r n. Justifica que r S(n 1, r ) es el nmero de particiones de A en r partes
que satisfacen que { a} no es una de las partes, es decir, que la parte que contiene al
elemento a tiene ms elementos.
Como consecuencia directa de los resultados que acabas de probar, se
tiene el siguiente teorema.
Teorema 3.54. Sea S(n, r ) el nmero de particiones de un conjunto A de cardinal
n en r partes (1 < r n). Entonces:
1. S(n, 1) = 1

3.4 Particiones y nmeros de Stirling

81

2. S(n, n) = 1
1, r

3. S(n, r ) = S(n

1) + r S ( n

1, r )

Utilizando este teorema se construye fcilmente un tringulo similar


al de Pascal (o Tartaglia) que permite calcular los nmeros de Stirling de
segunda especie de forma recursiva.
Ejercicio 3.55. Rellena la siguiente tabla de nmeros de Stirling de segunda especie.
r
S(n, r )
1 2
3
4 5 ...
1
2
n

3
4
5
..
.

3.4.1. Nmeros de stirling de primera especie


Como es natural, tambin existen los nmeros de Stirling de primera
especie. Para cada entero n 1 consideramos el polinomio en x definido a
partir de las permutaciones (ordinarias)
P( x, n) =

x!

(x

n)!

1)( x

= x(x

2) . . . ( x

n + 1)

Los coeficientes de la expansin de este polinomio nos da los nmeros de


Stirling de primer especie s(n, r ), es decir,
Para n = 0 se define, como
es habitual, s(0, 0) = 1.

s(n, k)x

P( x, n) =

r =0

As, por ejemplo,


P( x, 1) = x
P( x, 2) = x ( x

1) =

x + x2

P( x, 3) = x ( x

1)( x

2) = 2x

3x2 + x3

por tanto,
s(1, 0) = 0, s(1, 1) = 1
s(2, 0) = 0, s(2, 1) =

1, s(2, 2) = 1

s(3, 0) = 0, s(3, 1) = 2, s(3, 2) =

3, s(3, 3) = 1

82

Tcnicas de Recuento

Ejercicio 3.56. Rellena la siguiente tabla de nmeros de Stirling de primera especie.


r
s(n, r )
0 1 2
3
4 5 ...
1
2
n

3
4
5
..
.

Observa que, si r > 0, los nmeros s(n, r ) tienen signo, es decir, algunos son positivos y otros negativos. Habitualmente se usan los nmeros de
Stirling de primera especie sin signo,
c(n, r ) = |s(n, r )|
Tanto los nmero s(n, r ) como c(n, r ) tienen interesantes propiedades que,
en este curso, no vamos a estudiar.

3.4.2.

Nmeros de Bell

En combinatoria, topologa, y otras ramas de las matemticas, se usan


los llamados (sucesin de) nmeros de Bell B(n), que se definen como el
nmero de particiones distintas de un conjunto de n elementos. Por tanto,
B(n) =

S(n, r)

r =0

3.5. Ecuaciones de Recurrencia


Abreviadamente E.R.

Se entiende por Ecuacin de Recurrencia a una expresin de la forma


an = f ( an

1 , an 2 , . . . )

donde { ai } es una sucesin de nmeros reales y f es una funcin real de


aridad1 conveniente.
Ejemplos 3.57. Las ecuaciones de recurrencia aparecen, de distintas formas, en muchas de las ramas de las ciencias.
1 Se entiende por aridad el nmero de entradas de la funcin (por ejemplo f ( x, y, z ) se
dice que es de aridad 3).

3.5 Ecuaciones de Recurrencia

83

En Anlisis de algoritmos, aparece el llamado Master Theorem, que


nos proporciona la relacin
n
T (n) = aT ( ) + g(n)
b

donde a

1, b

La funcin logstica
xn+1 = rxn (1

xn )

se usa frecuentemente para calcular modelos de crecimiento o bien


como punto de partida para otros modelos.
Ejercicio 3.58. Usa un programa de hoja de clculo para encontrar los primeros
20 valores de la sucesin xn de la funcin logstica xn+1 = rxn (1 xn ) siendo:
1. r = 4 y x0 = 0, 99.
2. r = 2 y x0 = 0, 01.
Observa como en cada caso se comporta de modo distinto2 .
Ejemplo 3.59. A veces aparecen sistemas de ecuaciones de recurrencia. Por
ejemplo, en teora de la seal se usa la llamada ecuacin de Hnon que ofrece
un desarrollo altamente irregular:
xn+1 = 1 1,4xn2 + yn
yn+1 = 0,3xn

(3.1)

y que est relacionada con la denominada teora del caos.


Ejercicio 3.60. Igual que en el ejercicio 3.58 anterior, rellena en el cuadro siguiente
un resumen de los resultados obtenidos en una hoja de clculo al calcular los 20
primeros valores de la ecuacin de Hnon cuando ( x0 , y0 ) = (0, 0).
Ejemplo 3.61. Ecuaciones de recurrencia que todos conocis son las progresiones aritmticas y geomtricas.
Progresin Aritmtica an = an 1 + d, siendo d un nmero real constante
llamado diferencia de la progresin.
Progresin Geomtrica an = r an 1 , siendo r un nmero real constante
llamado razn de la progresin.
Ejercicio 3.62. Pon ejemplos de progresiones aritmticas y de progresiones geomtricas expresadas de la forma { a0 , a1 , a2 , . . . }.
Por ejemplo la sucesin
2 La primera situacin se comporta de modo catico, en cambio la segunda la sucesin

aparece como convergente.

{0.5, 2, 3.5, 5, 6.5, . . . }.

84

Tcnicas de Recuento

3.5.1.

Objetivo

Dada una ecuacin de recurrencia junto con algunos valores iniciales


1 , a n 2 , . . . ),

an = f ( an

a0 = a, a1 = b, . . .

se pretende encontrar las sucesiones del tipo


an = g(n) (Solucin General)
donde g es una funcin real, que verifican la ecuacin y, entre ellas, las que
verifican los valores iniciales.
Ejemplo 3.63. La E.R. an = an

+ 3 con valor inicial a0 = 1 tiene por

Solucin General: an = 3n + k
si bien, entre ellas, la nica que verifica tambin el valor inicial dado es
an = 3n + 1
Ejercicio 3.64. Busca en tus viejos libros de texto, utiliza internet o bien cualquier otro mtodo para dar las frmulas de las soluciones generales de las progresiones aritmticas an = an 1 + d y de las geomtricas an = r an 1 .

Ecuaciones de recurrencia lineales de coeficientes constantes


Vamos a estudiar (y resolver) un tipo concreto de E.R. que tienen su
utilidad garantizada porque aparecen en muchos planteamientos de problemas aplicados (tanto de las telecomunicaciones, de la informtica y de
otras reas de conocimientos) y en cambio tienen una solucin bastante
Abreviadamente E.R.L. fcil. Este tipo de ecuaciones las denominaremos ecuaciones de recurrencia
lineales de coeficientes constantes.
Son las que se pueden expresar de la siguiente forma:
an + C1 an

+ C2 an

+ + Ck an

= f (n)

donde:
f (n) es una funcin que no depende de las ai .
Los coeficientes Ci son nmeros reales constantes (no dependen de n).
Llamamos orden k de la ecuacin a la mayor diferencia entre los lugares de la sucesin que intervienen en la ecuacin.

3.5 Ecuaciones de Recurrencia

85

Ejemplo 3.65. Observa que las progresiones aritmticas y geomtricas son


casos particulares de E.R.L. De que orden son cada una de ellas?
Ejemplo 3.66. A veces, las E.R.L. vienen expresadas, aparentemente, de
otra forma. Por ejemplo an+2 an 2 = an es una E.R.L. de orden 4, concretamente
an an 2 an 4 = 0
Clasificacin de las E.R.L.
Las E.R.L. las vamos a clasificar en dos tipos:

E.R.L. Homogneas: en las que f (n) = 0


E.R.L. No Homogneas: en las que f (n) 6= 0
Ejercicio 3.67. Segn la clasificacin anterior, cmo son las progresiones aritmticas (con d 6= 0) y las geomtricas (con r 6= 0)?

3.5.2. Ecuaciones de Recurrencia Lineales Homogneas


Son las que se pueden expresar de la siguiente forma
an + C1 an

+ C2 an

+ + Ck an

=0

(3.2)

Teorema 3.68. El conjunto de soluciones de (3.2) forman un subespacio vectorial


del espacio vectorial de las sucesiones (reales).
Demostracin. Figura al final del tema. Se considera un trabajo voluntario.

Ejemplo 3.69. La siguiente ecuacin (con valores iniciales) tiene por solucin la llamada sucesin de Fibonacci
an = an

+ an 2 ;

a0 = 1, a1 = 1

es un ejemplo tpico de 2o orden.


Ejercicio 3.70. Calcula los 8 primeros trminos de la sucesin de Fibonacci. Usa
una hoja de clculo o escribe un programa (o lo que se te ocurra) para calcular el
trmino a30 de dicha sucesin.
Resolucin
Puesto que las soluciones de la E.R.L. homognea es un subespacio vectorial, nicamente tenemos que encontrar una base formada por sucesiones reales de dicho subespacio. Cualquier otra solucin ser combinacin
lineal de dicha base.
A continuacin damos un mtodo para encontrar dicha base.

86

Tcnicas de Recuento

Polinomio caracterstico
Dada una ecuacin de recurrencia (3.2) de orden k llamamos polinomio
caracterstico de dicha ecuacin al polinomio de grado k formado por los
coeficientes de la ecuacin, del siguiente modo:
x k + C1 x k

+ C2 x k

+ + Ck

Ejercicio 3.71. Podras escribir el polinomio caracterstico de la ecuacin que


define la sucesin de Fibonacci del ejemplo 3.69?
Ejercicio 3.72. El polinomio caracterstico nunca puede tener 0 por raiz. Por
qu?
Las races de este polinomio nos permitir construir una base para las
soluciones segn el siguiente teorema.
Puede verse una justificacin
(aunque no demostracin
completa) al final de este
tema.

Teorema 3.73. Si x1 y x2 son races (complejas) distintas del polinomio caracterstico, entonces
1. Las sucesiones an = x1n y bn = x2n son soluciones linealmente independientes de la ecuacin homognea (3.2).
2. Si x1 es una raz de multiplicidad t entonces las t sucesiones siguientes
x1n ,

nx1n ,

n2 x1n ,

...

, nt

1 n
x1

son soluciones linealmente independientes.


Todo polinomio de grado k tiene exactamente k races en el cuerpo de
los nmeros complejos, iguales o distintas. Por tanto este teorema nos dice que podemos encontrar exactamente k sucesiones linealmente independientes que son solucin de una ecuacin de recurrencia lineal homognea
de orden k.
Dejando en el tintero la comprobacin de que estas k sucesiones son un
sistema generador del subespacio vectorial de las soluciones, deducimos el
siguiente corolario de los teoremas anteriores.
Corolario 3.74. El conjunto de soluciones de la ecuacin homognea (3.2) es un
subespacio vectorial de dimensin k. Podemos encontrar una base de dicho subespacio a partir de las races del polinomio caracterstico.
Resolucin cuando todas las races son reales
Ejemplo 3.75. La ecuacin que determina la sucesin de Fibonacci del ejemplo 3.69
an = an 1 + an 2 , con a0 = 1, a1 = 1

3.5 Ecuaciones de Recurrencia

87

tiene el siguiente polinomio caracterstico:


x2

1
p
p
1+ 5
1
5
que tiene dos races distintas: x1 =
y x2 =
.
2
2
Por tanto tenemos un subespacio vectorial de soluciones de dimensin 2
definido por la siguiente
p n
p n
Solucin general: an = K1 1+2 5 + K2 1 2 5
x

De las infinitas soluciones que describe esta solucin general, slo una
verifica los valores iniciales a0 = a1 = 1. Calculmosla:
p
9
p 0
p 0
5+1
>
p
K1 =
K1 1+2 5 + K2 1 2 5 = 1 =
2 5
p
()
p 1
p 1
>
5 1
K1 1+2 5 + K2 1 2 5 = 1 ;
p
K2 =
2 5

Sustituyendo en la solucin general nos da el trmino general de la sucesin de Fibonacci que tiene la siguiente expresin:
an =

(1 +

5 ) n +1

(1
p
2n +1 5

5 ) n +1

Ejercicio 3.76. Comprueba que el trmino general antes expresado da las mismas
soluciones que las halladas en el Ejercicio 3.70.
Resolucin cuando tiene races complejas no reales
Puesto que el polinomio caracterstico de una ERL homognea es real,
si z = a + ib es una raz compleja del mismo, por Proposicin 2.79 su conjugado z = a ib tambin es una raz. Siguiendo el Corolario 3.74 tenemos
entonces que
K1 zn + K2 zn = K1 ( a + ib)n + K2 ( a

ib)n

es la solucin general de la ecuacin de recurrencia.


Para tener una mejor expresin de las soluciones se usa la llamada forma trigonomtrica de los nmeros complejos. Sabemos que el mdulo de z
y z coinciden,
p
| z | = a2 + b2 = | z |
y los argumentos de z y de z son opuestos (ver Figura 3.2),
Arg z = arctan

b
= q ) Arg z =
a

88

Tcnicas de Recuento
Im
Llamamos arg(z) al ngulo q cuya tangente es

z
b
q a
q

Re
b
z

tan(q ) =

b
a

Llamamos mdulo de z a
p
| z | = a2 + b2

Figura 3.2: Representacin grfica del complejo z = a + ib y su conjugado.


luego las formas trigonomtricas
z = |z| (cos q + i sen q ) y z = |z| (cos( q ) + i sen( q ))
junto con la frmula de De Moivre en Proposicin 2.74 transforma la solucin
K1 zn + K2 zn =(|z|n (K1 + K2 )) cos(nq ) + (|z|n i (K1

K2 )) sen(nq )

= M1 |z|n cos(nq ) + M2 |z|n sen(nq )

Veamos un ejemplo de sto:


Ejemplo 3.77. Vamos a resolver la ecuacin ( an+1 + 4an
valores iniciales a1 = 0 y a2 = 1.

1)

= 12a2n con

S OLUCIN: Transformando la ecuacin anterior (que no p


es lineal) tenemos
dos posibles
ecuaciones
de
recurrencia
lineales:
a
2
3an + 4an 1 = 0
n
+
1
p
y bn+1 + 2 3bn + 4bn 1 = 0 que nos dar, cada una de ellas, una solucin.
Resolvamos la primera de ellas, que tiene por polinomio caracterstico
p
p( x ) = x2 2 3x + 4
p
p
que tiene como races complejas z = 3 + i y z = 3 i, ambas de mdulo
|z| = 2 y argumentos q = arctan( p13 ) = p6 y q = p6 , respectivamente.
Por lo anterior la solucin general ser
an = M1 2n cos

np
np
+ M2 2n sen
6
6

y, aplicando los valores iniciales


9
p
p
M1 =
=
a1 = M1 2 cos + M2 2 sen = 0 >
6
6
()
p
p
;
a2 = M1 4 cos + M2 4 sen = 1>
M2 =
3
3

1 9
>
=
4
p
3>
;
4

3.5 Ecuaciones de Recurrencia

89

y por tanto la solucin a nuestro problema se puede expresar de la forma

np p
np
an = 2n 2 cos
3 sen
6
6
Resolviendo la segunda ecuacin de recurrencia (Ejercicio 3.78) nos da
como solucin

5np p
5np
bn = 2n 2 cos
+ 3 sen
6
6
y, conjuntamente, ambas son soluciones de la ecuacin de recuerrencia que
nos piden.
p
Ejercicio 3.78. Resuelve la ecuacin de recurrencia bn+1 + 2 3bn + 4bn 1 = 0
con los valores iniciales b1 = 0 y b2 = 1 resultante del problema del ejemplo
anterior.
Ejemplos 3.79.
1. Resuelve an+2 + an

= 2an .

Determina tambin la nica solucin para la que a0 = a2 = 1 y a1 =


a3 = 0.
S OLUCIN:
General an = k1 + K2 n +(k3 ( 1)n + k4 n( 1)n
1 si n es par
1+( 1)n
Con v.i. an =
=
2
0 si n es impar

2. Resuelve la ecuacin de recurrencia an+2 + an =


iniciales a0 = 0 y a3 = 1.
S OLUCIN:
General
Con v.i.

3an+1 con valores

np
np
an = k1 cos
+ k2 sen
6
6
np
an = sen
6

3.5.3. E.R.L. No Homogneas


Ejemplo 3.80 (Las Torres de Hanoi). Segn una leyenda3 india, en el Templo de Benars, bajo el domo que marca el centro del mundo, hay una placa
de latn con tres agujas de diamante. Durante la creacin, Dios puso sesenta y cuatro discos de oro puro de distinto tamao en una de las agujas,
formando una torre. Los bramanes llevan generaciones cambiando de lugar, uno a uno, los discos de la torre entre las tres agujas de forma que en
ningn momento un disco mayor descanse sobre otro ms pequeo.
En el dibujo representamos una versin ms simple del problema: se
trata de pasar una torre de solamente cuatro discos.

Cuando hayan
conseguido trasladar
todos los discos a otra
aguja su trabajo estar
terminado, y la torre y el
templo se derrumbarn, y
con un gran trueno, el
3 En realidad no existe ninguna leyenda. Este problema fue inventado por el matemtico
mundo se desvanecer.
francs douard Lucas a finales del XIX.

90

Tcnicas de Recuento

Torre 0

Torre 1

Torre 2

Es necesaria la torre de ayuda para poner los discos que hay que apartar provisionalmente para llegar al disco ms grande. Si lo hiciramos por
computadora, una posible orden para resolverlo podra ser:
MOVER-TORRE(4, 0, 2, 1)
que quiere decir mueva una torre de tamao 4 tomando como torre de
origen la nmero 0, como torre de destino la nmero 2 y como ayuda
la nmero 1. En el cuadro 3.1 damos un posible pseudocdigo de este
problema.
Por lo anterior, si an representa el nmero de movimientos necesarios
para mover completamente n discos, para estos 4 discos ser a4 = 2a3 + 1,
pero a3 = 2a2 + 1 y por ltimo a2 = 2a1 + 1. Obviamente a1 = 1 puesto que
con un solo disco necesitamos nicamente un movimiento.
As que reconstruyendo los clculos anteriores (a la inversa) tenemos
a2 = 3, a3 = 7 y a4 = 15.
Si queremos resolver el problema de forma ms general tendramos la
siguiente ecuacin de recurrencia con valor inicial
an = 2an

+ 1;

a1 = 1

Resolucin de la Ecuacin de Recurrencia Lineal


Todas las E.R.L. no homogneas se expresan de la forma
an + C1 an

+ C2 an

+ + Ck an

= f (n)

donde f (n) 6= 0.
Cuadro 3.1: Torres de Hanoi. Pseudocdigo.
define MOVER-TORRE(n,origen,destino,ayuda)
si (n >0)
MOVER-TORRE(n 1,origen,ayuda,destino)
MOVER-UN-DISCO origen destino
MOVER-TORRE(n 1,ayuda,destino,origen)

(3.3)

3.5 Ecuaciones de Recurrencia

91

Llamaremos ecuacin homognea asociada a (3.3) a la que resulta de


hacer f (n) = 0, es decir,
an + C1 an

+ C2 an

+ + Ck an

=0

y al conjunto de soluciones (o solucin general) de la homognea se repre(h)


senta por an
(h)
Estas sucesiones an no son solucin de la ecuacin no homognea (3.3),
pero combinadas con una nica sucesin que s lo sea nos resuelve el problema. A esta solucin la llamaremos solucin particular que representare( p)
mos por an .
Teorema 3.81. La solucin general de la E.R.L. no homognea (3.3) queda determinada por la expresin
( p)

(h)

an = an + an .
( p)

(h)

Demostracin. Basta sustituir an + an en la parte derecha de (3.3) y comprobar que resulta f (n). Completa los detalles como ejercicio.

Ejemplo 3.82. Vamos a resolver la ecuacin de recurrencia de las Torres de


Hanoi
an = 2an 1 + 1;
a1 = 1
(3.4)
S OLUCIN: La ecuacin homognea asociada (de primer orden)
2an

an

tiene como polinomio caracterstico x

=0

2, con raz x = 2, luego

(h)

an = k2n
Por otro lado, si suponemos que la ecuacin (3.4) admite como solucin
( p)
particular una constante an = A al sustituir debe verificar la ecuacin, es
decir:
( p)
( p)
an = 2an 1 + 1 () A = 2A + 1 () A = 1
de donde la solucin general ser:
(h)

( p)

an = an + an = k2n

Nos queda encontrar la solucin que resuelve el valor inicial a1 = 1. Sustituyendo a1 en la solucin general obtenemos
a1 = k21

1 () 1 = 2k

luego
a n = 2n

1 () k = 1

92

Tcnicas de Recuento
(p)

Mtodo para encontrar una solucin particular an

( p)

En el Ejemplo 3.82 para encontrar una solucin particular an hemos


probado con una constante, es decir, del mismo tipo que f (n) = 1, que es
tambin constante. Este mtodo va a ser lo habitual.
La buscamos del mismo tipo que f (n). Ajustaremos unos valores
reales A, B, . . . para que sean solucin de la ecuacin4 .
( p)

f (n)
an
Constante
K
A
Polinomio
P(n) = K1 + K2 n + . . . Q(n) = A + Bn + . . .
Polinomio Exponencial
P(n)K n
Q(n)K n

Siendo P(n) y Q(n) polinomios del mismo grado (excepto en ocasiones que
hay subir un grado).
Ejercicio 3.83. Encuentra la solucin general de las siguientes relaciones de recurrencia lineales:
1. an

2an

2. an

an

1
1

+ an

= 2n2

= n 3 2n
n

n2
3n
Ejercicio 3.84. Sea una escalera con n escalones. Juanito puede subir la escalera
de diferentes modos. Usando un paso para subir un escaln, o dos escalones o tres
escalones. Combinando todos estos pasos para subir la escalera de cuntas formas
puede hacerlo?
3. an

2an

+ an

Observa que si an es el nmero de formas de subir una escalera con n


escalones, tenemos:
a1 = 1, a2 = 2, a3 = 4, . . .
Ejercicio 3.85. Juanita se ha propuesto ahorrar. Los meses pares guarda 2 euros en
una hucha y los meses impares slo 1 euro. Qu dinero tendr pasados n meses?
Observa que si an es la cantidad de dinero que posee en el mes n, tenemos:
a1 = 1, a2 = 3, a3 = 4, . . .
Ejercicio 3.86. Un banco nos presta una cantidad a devolver en cinco aos (60
meses) con un inters anual de 5 %. Cul es la amortizacin mensual A para
pagar por cada 100 euros prestados para cancelar el crdito en el tiempo previsto?
Observa que si an es el capital que se le debe al banco, tenemos:
a0 = 100, a1 = a0 +
4 Sin

5a0
1200

A, a2 = a1 +

que intervengan los valores iniciales.

5a1
1200

A, . . . , a60 = 0

3.5 Ecuaciones de Recurrencia

93

Complemento al tema. Pruebas de teoremas.


Teorema 3.68 El conjunto de soluciones de una ecuacin de recurrencia lineal
homognea del tipo (3.2) forman un subespacio vectorial del espacio vectorial de las
sucesiones (reales).
Demostracin. Ya sabemos que el conjunto de todas las sucesiones reales
forman un espacio vectorial real (con las operaciones usuales de suma y
producto por escalar).
Para probar que las soluciones de (3.2) son subespacio vectorial, consideremos dos soluciones cualesquiera sn y s0n y comprobemos:
1. Que xn = sn + s0n sigue siendo solucin de (3.2).
2. Que para cualquier l 2 R, se tiene que yn = l sn sigue siendo
solucin.
Completa la demostracin en el cuadro siguiente, sustituyendo, respectivamente, xn e yn en (3.2) y comprobando que se sigue cumpliendo la igualdad.

Teorema 3.73 Si x1 y x2 son races distintas del polinomio caracterstico de una


ERL Homognea (3.2), entonces
1. an = x1n y bn = x2n son soluciones linealmente independientes de la ecuacin (3.2).
2. Si x1 es una raz de multiplicidad t entonces las t sucesiones siguientes
x1n ,

nx1n ,

n2 x1n ,

, nt

...

1 n
x1

son soluciones linealmente independientes


Justificacin La demostracin completa sera tediosa e innecesaria. Veamos los aspectos ms importantes que justifican este resultado.
1. En este punto hay que probar dos cosas: primero que son solucin de la
ecuacin homognea y, segundo, que son independientes.
Para ver que an = x1n es solucin tenemos que sustituir en (3.2) y
comprobar que es 0.
x1n + C1 x1n

+ C2 x1n

+ + Ck x1n
=
=

x1n k
x1n k

( x1k

=
+ C1 x1k

0 = 0

+ + Ck ) =

por ser x1 raz del polinomio. Igualmente para bn = x2n .

(3.5)

94

Tcnicas de Recuento
Para comprobar que son linealmente independientes, consideramos una combinacin lineal igualada a cero, es decir
ax1n + bx2n = 0
y, como esta igualdad es verdad para todo natural n, lo es para
n = 0 y n = 1, que al sustituir nos da el siguiente sistema:
a+b = 0
ax1 + bx2 = 0
que se simplifica como a( x1 x2 ) = 0. Como, por hiptesis x1 y x2
son diferentes, se deduce que a = 0 y, por tanto, b = 0. Esto prueba
que son linealmente independientes.

2. Vamos a hacer la prueba en el caso (ms fcil) de t = 2. Igual que en el


punto 1. anterior hay que probar que x1n y nx1n son soluciones y adems
son linealmente independientes.
Ya hemos visto que x1n es solucin. Para ver que nx1n es tambin
solucin, usamos que x1 es solucin doble del polinomio caracterstico esto implica que es raiz del polinomio y de su derivada5 .
Por tanto tenemos las dos igualdades siguientes:
x1k + C1 x1k

kx1k 1

+ C2 x1k

+ C1 (k

+ + Ck
1) x1k 2

1 x1

+ Ck = 0

+ + Ck

(3.6)

=0

multiplicando la primera igualdad por k y la segunda por x1 nos


queda
kx1k + C1 kx1k
kx1k

+ C1 (k

+ C2 kx1k

1) x1k 1

+ C2 (k

+ + Ck
2) x1k 2

1 kx1

+ Ck k = 0

+ + Ck

1 x1

=0

y restando ambas igualdades nos da la igualdad siguiente que usaremos ms adelante:


C1 x1k

+ 2C2 x1k

+ + (k

1)Ck

1 x1

+ kCk = 0

(3.7)

Sustituyamos, ahora, nx1n en la ecuacin de recurrencia homognea


nx1n + C1 (n

1) x1n

+ C2 (n

= nx1n k ( x1k + C1 x1k


+x

n k

(C1 x1k 1

+ 2C2 x1k 2

2) x1n
1

+ + Ck (n

+ C2 x1k

+ + (k

k) xn

+ + Ck ) + . . .

1)Ck

1 x1

+ kCk ) = 0

que es 0 usando las igualdades (3.6) y (3.7).


5 La

afirmacin de esta llamada es muy conocida, pero si no la sabes piensa que una raz
doble x1 hace que un polinomio se pueda expresar p( x ) = ( x x1 )2 q( x ). Basta derivar para
hacer la comprobacin.

3.5 Ecuaciones de Recurrencia

95

Para ver que x1n y nx1n son linealmente independientes, partimos de


una combinacin lineal igualada a 0,
ax1n + bnx1n = 0
y comprobamos que a = b = 0, Dejamos los detalles como ejercicio.

Ejercicios Propuestos
Ej. 3.1 Cuntas permutaciones de las letras ABCDEF contienen las letras DEF juntas en cualquier orden?
Ej. 3.2 Un comit de seis personas A, B, C, D, E, F debe escoger un presidente, un secretario y un tesorero. De cuntas formas se puede hacer la
eleccin? De cuntas si el presidente debe ser A B?
De cuntas si E debe ocupar uno de los cargos? De cuntas si A y F deben
ocupar un cargo?
Ej. 3.3 Se ha recibido un paquete de 100 discos compactos con cinco discos defectuosos. De cuntas maneras se puede elegir una muestra de cuatro discos que contenga ms discos defectuosos que no defectuosos?
Ej. 3.4 Un autobs de 32 plazas numeradas (16 a la derecha y 16 a la
izquierda) transporta a 28 alumnos de la E.T.S. Ingeniera Informtica en
su viaje de fin de carrera. De cantas formas pueden sentarse si tres de
ellos slo pueden ir a la derecha y cinco de ellos slo a la izquierda?
Ej. 3.5 Cuntas cadenas de ocho bits hay? Cuntas de ellas comienzan
por 101? Cuntas de ellas comienzan por 101 o tienen el cuarto bit igual a
1?
Ej. 3.6 Cuntos nmeros de telfono (de 9 cifras) tienen al menos un
dgito repetido?
Ej. 3.7 Cuntas soluciones enteras de la ecuacin x1 + x2 + . . . x6 = 20
satisfacen 1 xi 9? (Utiliza incl. y excl.)
Ej. 3.8 (Feb. 2012) Se tienen 6 alumnos de 1er curso, 5 de 2o , 4 de 3o , 3
de 4o , 2 de 5o y 1 de 6o , como candidatos a recibir 5 premios de la Facultad
de Medicina, uno al alumno menos charlatn, otro al ms atento, otro al de
mejor letra, otro al que ms asiste a tutoras y otro al que mejor aparca el
coche. Suponiendo que ningn alumno puede recibir ms de un premio, se
pide:
1. De cuntas formas se pueden distribuir los premios?

96

Tcnicas de Recuento
2. A la persona encargada se le olvid de grabar el nombre del premio
en las copas. De cuntas formas se pueden repartir ahora las copas
si cada alumno puede recibir ms de una?

Ej. 3.9 (Dic. 2012) Se quieren formar cadenas de longitud 10 con los nmeros 0, 1, 2 y 3. Se pide:
1. Cuntas cadenas distintas se pueden formar?
2. Cuntas cadenas tienen peso 3 (es decir, la suma de sus cifras es 3)?
Ej. 3.10 Calcula el nmero de formas en que pueden ordenarse los dgitos 0, 1, 2, . . . 9 de modo que el primer dgito es mayor que 1, el ltimo es
menor que 8 y el tercero es distinto de 5. (Usa inclusin y exclusin)
Ej. 3.11 Se ha producido un robo y la polica interroga a dos testigos
sobre la matrcula del vehculo utilizado para la huida (cuatro dgitos y dos
letras de un alfabeto de 26). El primer testigo asegura que la segunda letra
de la matrcula era una O o una Q y que el ltimo dgito era un 3 o un 8. El
segundo testigo asegura que la primera letra era una C o una G y el primer
dgito era definitivamente un 7.
1. Cuntas placas diferentes tendr que verificar la polica?
2. Si en investigaciones posteriores la polica obtiene adems que la
matrcula no termina en 53 ni empieza en 78, cuntas comprobaciones se tendrn que hacer en este caso?
Ej. 3.12 Calcula cuntos nmeros enteros hay entre 1000 y 9999 que cumplan las siguientes condiciones (independientes entre ellas):
1. La suma de sus dgitos es exactamente 9.
2. La suma de sus dgitos es exactamente 9 y son todos distintos de 0.
3. Ser impar y tener todos los dgitos diferentes.
4. Alguno de sus dgitos es 9.
Ej. 3.13 Supongamos 7 pelotas de distintos colores y 4 recipientes numerados 1,2,3,4. De cuntas maneras se pueden distribuir las pelotas para
que no haya ningn recipiente vaco? Siendo una de las pelotas azul, De
cuntas formas la podemos distribuir si obligamos a la pelota azul a estar
en el recipiente nmero 2, y que no haya ninguno vaco?
Ej. 3.14 Los Reyes Magos traen n juguetes diferentes a n nios. En el
camino deciden dejar a exactamente un nio sin juguete y repartir todos
los juguetes entre los restantes nios. De cuntas formas pueden hacerlo?
Ej. 3.15 Completa la tabla siguiente indicando el nmero de maneras de

3.5 Ecuaciones de Recurrencia

97

distribuir nueve objetos en cinco recipientes:

Objetos (9)

Recipientes (5)

Indistinguibles
Distinguibles
Distinguibles

Distinguibles
Distinguibles
Indistinguibles

Posibilidad
recipientes
vacos
Si
No
No

Nmero
de
distribuciones

Ej. 3.16 (Dic. 2011) Calcula el nmero de formas en que pueden ordenarse los dgitos 0, 1, 2, . . . 9 de modo que el primer dgito es mayor que
1, el ltimo es menor que 8 y el tercero es distinto de 5. (Usa inclusin y
exclusin).
Ej. 3.17 (Sept. 2012) Se tienen 4 bolas de golf y 10 cajas distintas. Determine de cuntas maneras diferentes pueden distribuirse las bolas en las
cajas si:
1. Todas las bolas son distintas y en ninguna caja cabe ms de una bola.
2. Todas las bolas son iguales y en ninguna caja cabe ms de una bola.
3. Todas las bolas son iguales y en cada caja caben cuantas bolas se
quieran poner.
4. Todas las bolas son distintas y en cada caja caben cuantas bolas se
quieran poner.
Ej. 3.18 Para cada uno de los siguientes grafos: De cuantas formas puede asignarse un color a cada vrtice ai de la figura, con n colores, de modo
que dos vrtices con una arista comn deben tener necesariamente colores
distintos?

a3

a4

1.

a3

a4

2.
a1

a2

a3

a4

a1

a2

3.
a1

a2

Ej. 3.19 Resuelve las siguientes ecuaciones de recurrencia

98

Tcnicas de Recuento
1. an+2 = an con a0 = 1, a1 = 4.
2. an = an 1 + (n 1) con a0 =
1.
3. an = 2an 1 + 2 con a1 = 1.
4. an = an 1 + ( 1)n+1 con a1 =
1.
5. an+2 =
2an+1 + 3an con

a0 = 1, a1 = 2.
6. an+2 = 4an+1
1, a1 = 2.

7an con a0 =

7. an+2 + 4an+1 + 4an = n2 con


a0 = 0, a1 = 2.
8. an+2 + 3an+1 + 2an = 3n con
a0 = 0, a1 = 1.

Ej. 3.20 Resuelve las ecuaciones de recurrencia:


1. an+3

6an+2 + 11an+1

2. an+1 + 4an

6an = 0, con a0 = 2, a1 = 0, a2 =
= 2( an + 4an 2 ) con a2 = 2, a3 = 0, a4 = 0

2.

Ej. 3.21 Una pareja de conejos se reproduce mensualmente. Los meses


pares tienen dos conejos y los impares uno. Encuentra un modelo de recurrencia para el nmero de conejos hijos an habidos hasta el n-simo mes.
Resulvela.
Ej. 3.22 El nmero an de euros de activo de una compaa se incrementa
cada ao cinco veces lo que se increment el ao anterior. Si a0 = 3 y a1 = 7
calcula an .
Ej. 3.23 Un rumor se difunde va telefnica entre n personas. El rumor
est totalmente difundido cuando todas las personas han hablado entre s.
Sea un el nmero de llamadas realizadas con n personas (n 2).
1. Define recursivamente la sucesin {un }.

2. Da una frmula general de dicha sucesin.


Ej. 3.24 Halla y resuelve la relacin de recurrencia de la sucesin an que
da el nmero de sucesiones ternarias (los trminos de la sucesin pertenecen al conjunto {0, 1, 2}) de longitud n que no tienen dos ceros consecutivos.
Ej. 3.25 Cada partcula en un reactor nuclear produce, sin destruirse,
dos nuevas partculas cada segundo. Adems cada segundo (desde t = 0)
es inyectado al reactor una nueva partcula.
1. Cuntas partculas hay en el reactor en el n-simo segundo?
2. Si el reactor estalla a partir de 1024 partculas cunto tiempo tarda
en estallar?
Ej. 3.26
En un supermercado, las naranjas se encuentran apiladas en una pirmide de base cuadrada de forma que

3.5 Ecuaciones de Recurrencia


cada naranja est en contacto con cuatro naranjas de
la capa inferior. Si la pirmide tiene n capas, cuntas
naranjas la forman?

99

TEMA 4
ESPACIOS VECTORIALES

ndice
4.1.

Definicin y propiedades . . . . . . . . . . . . . . . .
4.1.1. Dependencia e independencia lineal . . . . .
4.2. Subespacios vectoriales . . . . . . . . . . . . . . . . .
4.2.1. Ecuaciones de un subespacio vectorial de R n
4.3. Bases y dimensin . . . . . . . . . . . . . . . . . . . .
4.3.1. Cambio de base . . . . . . . . . . . . . . . . .
4.3.2. Bases de subespacios . . . . . . . . . . . . . .
4.4. Operaciones con subespacios . . . . . . . . . . . . . .
4.4.1. Interseccin de subespacios . . . . . . . . . .
4.4.2. Suma de subespacios . . . . . . . . . . . . . .
4.5. Espacios cocientes . . . . . . . . . . . . . . . . . . . .
Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . .

4.1.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

101
103
105
107
109
111
112
113
113
115
117
118

Definicin y propiedades

Llamaremos espacio vectorial a una estructura algebraica (V, K, +, )


formada por un conjunto no vaco V junto con un cuerpo K dotados de A los elementos de V se
dos operaciones: una interna en V llamada suma (+) y un producto externo les llama vectores y a los
del cuerpo se les llama
(K V ! V) que verifican:
escalares o nmeros.

(V, +) es un grupo abeliano.


El producto externo verifica
1. 8l, 2 K, 8~v 2 V

(l + )~v = l~v + ~v
101

102

Espacios vectoriales

~ 2V
2. 8l 2 K, 8~v, w
3. 8l, 2 K, 8~v 2 V
4. 8~v 2 V

~ ) = l~v + lw
~
l(~v + w
l(~v) = (l)~v

1 ~v = ~v

Nota. A lo largo de este curso el cuerpo de escalares ser, salvo que se diga
lo contrario, K = R (nmeros reales) o K = C (nmeros complejos).
Ejercicio 4.1. El conjunto de todas las funciones de Z en Z es un espacio vectorial real? Y el conjunto de las funciones de Z en R lo es?
Proposicin 4.2. Las principales propiedades de un espacio vectorial son:
1. 8~v 2 V

0 ~v = ~0

2. 8l 2 K

l ~0 = ~0

Demostracin. l~v = (l + 0) ~v y por la hiptesis 1 del producto externo,


l~v = l~v + 0 ~v y por ser (V, +) grupo tenemos 0 ~v = ~0.

Demostracin. l~v = l(~v + ~0) y por la hiptesis 2 del producto externo,


l~v = l~v + l ~0 y por ser (V, +) grupo tenemos l ~0 = ~0.

3. l~v = ~0 ) l = 0 o ~v = ~0

Demostracin. Supongamos l~v = ~0. Si l = 0 ya estara probado y si l 6=


0, por ser un elemento del cuerpo, existe l 1 , luego l 1 (l~v) = ~0 como
acabamos de probar. Aplicando las hiptesis 3 y 4 del producto externo
tenemos ~v = ~0.

4. 8l 2 K, 8~v 2 V

( l)~v = l( ~v) =

(l~v)

Demostracin. Como (V, +) es un grupo abeliano, el opuesto de l~v es nico, por tanto nicamente tenemos que probar
l~v + ( l)~v = ~0

l~v + l( ~v) = ~0

Dejamos los detalles para el alumno.

Ejemplos 4.3. Los siguientes conjuntos con las operaciones correspondientes son espacios vectoriales reales:
1. Los vectores libres del plano (o del espacio).
2. F = { f : R ! R | f es funcin}.
3. El cuerpo R es espacio vectorial sobre el propio cuerpo. En este espacio vectorial, los elementos del cuerpo son vectores y escalares.
4. En general, R n es un espacio vectorial sobre el cuerpo R.

4.1 Definicin y propiedades

103

5. C n es tambin un espacio vectorial sobre el cuerpo C. Este espacio


vectorial es distinto al tambin espacio vectorial C n sobre el cuerpo R.
6. Los polinomios con coeficientes en R forman tambin un espacio vectorial real.
7. Las matrices reales m n.

4.1.1. Dependencia e independencia lineal


Dado un espacio vectorial V, llamaremos sistema de vectores a un conjunto finitode vectores X = {~v1 , ~v2 , . . . , ~vk } de V.
Definicin 4.4. Decimos que ~v es combinacin lineal del sistema X = {~v1 , ~v2 , . . . , ~vk }
si, y slo si, existen escalares l1 , l2 , . . . , lk tales que

~v = l1~v1 + l2~v2 + lk~vk =

li~vi

i =1

Definicin 4.5. Un sistema de vectores X = {~v1 , ~v2 , . . . , ~vk } se dice que es:
Linealmente Dependiente (L.D.) si existe una combinacin lineal de los
vectores de X nula, l1~v1 + l2~v2 + + lk~vk = ~0 con algn escalar li
no nulo.
En caso contrario se dice que es Linealmente Independiente (L.I.), es
decir,
l1~v1 + l2~v2 + + lk~vk = ~0 ) li = 0

8i = 1, . . . , n

Ejercicio 4.6. Aplica la anterior definicin para comprobar si los vectores de R4


siguientes
{(0, 1, 2, 1), ( 1, 1, 0, 1), ( 1, 1, 4, 1)}
forman un sistema linealmente dependiente o independiente.
Ejercicio 4.7. Comprueba que los vectores de V = P[ x ] (polinomios de variable x)
siguientes
{2, x 1, x2 }
forman un sistema linealmente independiente.
A continuacin exponemos propiedades de la dependencia e independiencia lineal. Demostramos una de ellas y dejamos las dems como ejercicio para el alumno.

104

Espacios vectoriales

Propiedades:
Probamos la primera y dejamos la demostracin de las dems como
ejercicio.
1. Un sistema de vectores es linealmente dependiente si y solo si alguno
de sus vectores se puede expresar como combinacin lineal de los
restantes.
Demostracin. Supongamos que el sistema es L.D., es decir
l1~v1 + l2~v2 + + lk~vk = ~0 y algn li 6= 0
podemos despejar ~vi =
de los restantes.

j 6 =i

lj
~v j , es decir, ~vi es combinacin lineal
li

Veamos la implicacin contraria. Sea un vector combinacin lineal de


los restantes, supongamos, sin prdida de generalidad, que es ~vn . Entonces ~vn = in=11 ai~vi y, por tanto,
a1~v1 + + an 1~vn

+ ( 1)~vn = ~0

de donde el sistema de vectores es L.D.

2. Un sistema de vectores que contenga al vector ~0 siempre es linealmente dependiente.


3. Un sistema con un nico vector no nulo siempre es linealmente independiente.
4. Todo sistema de vectores contenido en otro linealmente independiente, tambin es linealmente independiente.
5. Si un sistema de vectores contiene otro que es linealmente dependiente, entonces tambin es linealmente dependiente.
Independencia de vectores y sistemas de ecuaciones homogneos
Si igualamos a ~0 una combinacin lineal de un sistema de vectores X de
K n , es decir
l1~v1 + l2~v2 + + lk~vk = ~0
expresados los vectores ~vi = (vi1 , vi2 , . . . , vin ), obtenemos
l1 (v11 , v12 , . . . , v1n ) + l2 (v21 , v22 , . . . , v2n ) + . . .

+ lk (vk1 , vk2 , . . . , vkn ) = (0, 0, . . . , 0)

4.2 Subespacios vectoriales

105

que se traduce como un sistema de ecuaciones homogneo:


9
v11 l1 + v21 l2 + + vk1 lk = 0 >
>
>
v12 l1 + v22 l2 + + vk2 lk = 0 =
..
>
.
>
>
;
v1n l1 + v2n l2 + + vkn lk = 0

Entonces, el sistema X de vectores ser linealmente independiente si y solo si el sistema de ecuaciones es compatible determinado (tiene solucin
nica, li = 0). Podemos enunciar, entonces, el siguiente resultado:
Teorema 4.8. Un sistema de k vectores de R n (C n ), X = {~v1 , ~v2 , . . . , ~vk } es
linealmente independiente si y solo si k n y la matriz real (compleja) formada
por los vectores de X puestos en filas o columnas tiene rango k.
As, si vij es la coordenada j del vector ~vi , la matriz de los vectores,
puestos en columnas, es la siguiente:
0
1
v11 v21 . . . vk1
B v12 v22 . . . vk2 C
B
C
A=B .
..
.. C
@ ..
.
. A
v1n v2n . . . vkn

Corolario 4.9. Si K = R o C, el nmero mximo de vectores de K n linealmente independientes en un sistema X, es el rango de la matriz formada por sus
vectores columna (o fila).
Ejemplo 4.10. El sistema de vectores de R4 expresados en el ejercicio 4.6
es linealmente dependiente. Calculamos el rango de la matriz de vectores (columnas)
0
1
0
1
1
B 1 1
1C
C=2
rango B
@ 2
0
4 A
1 1
1
puesto que
son nulos:

4.2.

0
1

1
=
1
0
1
2

1 6= 0 y los nicos menores (orlados) de orden 3

1
1
0

1
1 =
4

0
1
1

1
1
1

1
1 =0
1

Subespacios vectoriales

Definicin 4.11. Diremos que un subconjunto S 6= de un espacio vectorial V es un subespacio vectorial si tiene estructura de espacio vectorial
con las operaciones heredadas de V.

106

Espacios vectoriales

Nota. Los subconjuntos S = V y S = {~0} son siempre subespacios vectoriales de V llamados subespacios triviales.
Para ver si un subconjunto no vaco de un espacio vectorial es un subespacio, no es necesario comprobar que se cumplen todas las hiptesis descritas en la pgina 102, como veremos en el siguiente teorema.
Teorema 4.12 (de caracterizacin). Dado S 6= subconjunto de un espacio
vectorial V. La condicin necesaria y suficiente para que S sea subespacio de V, es
que se verifique:

~ 2 S para cada l, 2 K y para cada ~v, w


~ 2S
l~v + w
Demostracin. La primera implicacin es trivial, es decir si S es subespacio
vectorial entonces, claramente, se cumple que cualquier combinacin de
vectores de S es de S.
Veamos la implicacin contraria.
~ 2 S,
Para ver que (S, +) es grupo abeliano, observamos que si ~v, w
~ 2 S. Adems el opuesto de un vector
para l = = 1, tenemos que ~v + w
de S tambin est en S, con ms que hacer l = 1 y = 0 (o al revs). El
resto de las propiedades de grupo se obtienen fcilmente.
Observamos que para cualquier ~v 2 S y para cualquier escalar l se
tiene que l~v 2 S (basta considerar = 0). De aqu, las cuatro hiptesis
del producto escalar por vector, se verifican trivialmente en S porque se
verifican en V.

Ejemplo 4.13.
1. En el espacio vectorial de las funciones de R en R, el conjunto de las
funciones continuas es un subespacio vectorial.
2. Si consideramos el espacio de las matrices M2 (R ) de orden 2 2, el
siguiente subconjunto

0 a
S=
|a2R
a 0
es un subespacio vectorial de M2 (R ).

Ejercicio 4.14. De los siguentes subconjuntos de R3 cules son subespacios vectoriales y cules no (y por qu).
1. S = {(1, a, 0) | a 2 R }.

2. S = {(0, a2 , 0) | a 2 R }.
3. S = {(0, a,

a ) | a 2 R }.

4.2 Subespacios vectoriales

107

Sistemas generadores
Proposicin 4.15. Si X = {~v1 , ~v2 , . . . , ~vk } es un sistema de vectores, el conjunto de todas las combinaciones lineales de X posibles forman un subespacio
vectorial que se representa por L( X ).

~ = ik=1 i~vi combinaciones lineales


Demostracin. Sean ~v = ik=1 li~vi y w
de X, entonces, dados l y escalares tenemos:
k

i =1

i =1

~ = l li~vi + i~vi =
l~v + w
que es una nueva combinacin lineal.

+ i ) ~vi = gi~vi
(|lli {z
}

i =1

= gi

i =1

Definicin 4.16. Al conjunto L( X ) de la Proposicin 4.15 anterior se le


denomina subespacio generado por el sistema de vectores X y al sistema
de vectores X se le llama sistema generador del subespacio.
Ejercicio 4.17. Da varias funciones del subespacio generado por las funciones
f ( x ) = x y g( x ) = x3 en el espacio de las funciones reales sobre el cuerpo R.

4.2.1. Ecuaciones de un subespacio vectorial de R n


Cuando el espacio vectorial en el que trabajamos es V = R n existen dos Todo lo que sigue en esta
subseccin se puede
formas clsicas de expresar un subespacio vectorial S de V.
extender a subespacios
vectorials de C n .

Ecuaciones paramtricas o explcitas


Supongamos el subespacio S = L({~v1 , ~v2 , . . . , ~vk }) generado por k vectores linealmente independientes. Entonces, cualquier vector ~x 2 S es de la
forma
~x = l1~v1 + l2~v2 + + lk~vk

que, por coordenadas, podemos escribirla como n ecuaciones que dependen de k parmetros.
x1
x2

=
=
..
.

9
v11 l1 + v21 l2 + + vk1 lk >
>
>
v12 l1 + v22 l2 + + vk2 lk =

xn = v1n l1 + v2n l2 + + vkn lk

>
>
>
;

Ecuaciones paramtricas

Por tanto, todos los vectores ( x1 , x2 . . . , xn ) 2 S se consiguen variando de


todas las formas posibles los parmetros li .

108

Espacios vectoriales

Ejemplo 4.18. Consideremos el subespacio vectorial de R4 generado por


los dos vectores (0, 1, 3, 1) y ( 1, 0, 0, 1). Entonces, segn lo anterior, sus
ecuaciones paramtricas sern
9
x1 =
>
>
=
x2 = l
x3 = 3l
>
>
;
x4 = l +
Ejercicio 4.19. Encuentra tres o ms vectores del subespacio del ejemplo 4.18
anterior cuya coordenada x4 sea 10.
Ecuaciones cartesianas o implcitas
Si eliminamos todos los parmetros li de las ecuaciones paramtricas
anteriores, nos resultan las relaciones (lineales) existentes entre las n variables xi en las que no intervienen parmetros.
Por otro lado, podemos pensar que cualquier vector ~x del subespacio
es combinacin lineal de los vectores ~v1 , ~v2 , . . . , ~vk , supuesto que son linealmente independientes, y por el corolario 4.9 sabemos que la matriz
0
1
v11 v21 . . . vk1 x1
B v12 v22 . . . vk2 x2 C
B
C
B ..
..
..
.. C
@ .
.
.
.A
v1n v2n . . . vkn xn
tiene rango k, luego todos los menores de orden k + 1 son cero. Desarrollando estos menores resultan, entonces, m = n k ecuaciones lineales
a11 x1 + a12 x2 + + a1n xn = 0
a21 x1 + a22 x2 + + a2n xn = 0
..
.
am1 x1 + am2 x2 + + amn xn = 0

9
>
>
>
=
>
>
>
;

Ecuaciones cartesianas

cuyas soluciones forman el subespacio vectorial S R n .

Nota. Al estar definido un subespacio vectorial como las soluciones de un


sistema de ecuaciones lineal homogneo, todos los sistemas equivalentes
son ecuaciones implcitas del mismo subespacio.
Ejemplo 4.18 (Continuacin). Para calcular las ecuaciones cartesianas del
subespacio del ejemplo definido en la pgina 108, el procedimiento natural
sera eliminar los parmetros, as, despejando l:
l = x2

l=

1
x3
3

l = x4

4.3 Bases y dimensin

109

tenemos las siguientes ecuaciones:


9
x1 =
=
3x2 = x3
;
x2 = x4

y, despejando

x1

= x4

x2

que transforman las ecuaciones anteriores en


3x2 = x3
x1 = x4

x2

equivalente a

3x2 x3 = 0
x1 x2 + x4 = 0

(4.1)

Una alternativa a este mtodo sera el siguiente:


Si ( x1 , x2 , x3 , x4 ) es un vector del subespacio, entonces, por el corolario 4.9, la matriz siguiente
0

0
B1
B
@3
1

1
0
0
1

1
x1
x2 C
C
x3 A
x4

tiene rango 2. Utilizando transformaciones elementales por filas, tenemos


que la siguiente matriz tambin tiene rango 2
0

1
B 0
B
@ 0
0

1
0
x2
1
x1 C
C
0
x3 3x2 A
0 x4 x2 + x1

que tambin nos da las ecuaciones cartesianas (4.1) anteriores.


Todo subespacio de R n se puede representar por ecuaciones cartesianas
que son un sistema de ecuaciones lineal homogneo. El inverso, tambin es
cierto:
Proposicin 4.20. El conjunto de soluciones de un sistema lineal homogneo con
n incgnitas siempre es un subespacio vectorial de R n .
Demostracin. Es trivial y se deja como ejercicio para el alumno.

4.3.

Bases y dimensin

Definicin 4.21 (Base de un espacio vectorial). Un sistema de vectores B


(finito o infinito) es una base de un espacio vectorial V si y solo si

110

Espacios vectoriales

1. Todo subconjunto finito es linealmente independiente


2. B es un sistema generador de V.
Ejercicio 4.22. Comprueba que los vectores del Ejemplo 4.18 anterior, en pgina
108, son una base para el subespacio que se define.
Ejemplo 4.23. Los espacios vectoriales R n tienen siempre una base distinguida, llamada base cannica del siguiente modo

B = {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)}

Ejercicio 4.24. Determina la dimensin de C n sobre C. Y cual es la dimensin


de C n sobre R?
El siguiente teorema, que damos sin demostracin, nos dice que cualquier espacio vectorial (no slo R n ) tiene una base y nos permite definir el
concepto de dimensin.
Teorema 4.25 (de la base). Todo espacio vectorial distinto de {~0} admite (al
Es decir, entre dos bases menos) una base. Adems todas las bases de un espacio vectorial tienen el mismo
siempre existe una funcin cardinal.
biyectiva.
A este cardinal se le llama dimensin del espacio vectorial V, representada por
dim V y entendemos que es el nmero de elementos que contiene la base. Convenimos que dim{~0} = 0.
Nota. Por tanto existen dos tipos de espacios vectoriales, los que tienen dimensin finita y los que tienen dimensin infinita. R n y sus subespacios son
ejemplos de espacios de dimensin finita (objeto principal de este curso).
Existen subespacios vectoriales de dimensin finita de espacios de dimensin infinita, pero nunca al contrario.

Ejemplo 4.26. El sistema {1, x, x2 , . . . , x n , . . . } es una base infinita para el


espacio vectorial V = P[ x ] de los polinomios. que es, por tanto, de dimensin infinita.
Si consideramos S = P3 [ x ] el subconjunto de los polinomios de grado
menor o igual que 3, estamos ante un subespacio del anterior y el sistema
{1, x, x2 , x3 } es una base. Por tanto dim S = 4.
Nota. Salvo que se diga lo contrario, todos los espacios vectoriales que usaremos a lo largo de este curso sern de dimensin finita.
Coordenadas de un vector
Sea V un espacio vectorial de dimensin n y sea B = {~e1 , ~e2 , . . . , ~en }
una base de V. Entonces todo vector ~v 2 V se puede expresar de forma
nica como combinacin lineal de B .

~v = a1~e1 + a2~e2 + + an~en

4.3 Bases y dimensin

111

Definicin 4.27. A la nica n-upla formada por los escalares ( a1 , a2 , . . . , an )


se le llama coordenadas de ~v respecto de la base B .
Comprobemos que, efectivamente las coordenadas son nicas:
Demostracin. La expresin ~v = a1~e1 + a2~e2 + + an~en existe porque B
es un sistema generador, por tanto ~v se puede expresar como combinacin
lineal de ~B. Para ver que es nica lo haremos como (casi) siempre, suponemos que existen dos y comprobamos que son iguales. Sea

~v = a1~e1 + a2~e2 + + an~en = a10 ~e1 + a20 ~e2 + + a0n~en


entonces

( a1

a10 )~e1 + ( a2

a20 )~e2 + + ( an

a0n )~en = ~0

y, por ser B un sistema linealmente independiente necesariamente los escalares


( ai ai0 ) = 0 () ai = ai0
lo cual prueba que la expresin es nica.

4.3.1. Cambio de base


Sea V un espacio vectorial de dim V = n y sean B = {~e1 , ~e2 , . . . , ~en } y
= {~e0 1 , ~e0 2 , . . . , ~e0 n } dos bases. Dado un vector ~x 2 V, ste tendr coordenadas distintas segn que base, as
B0

~x = ( x1 , x2 , . . . , xn ) B ) ~x = x1~e1 + x2~e2 + + xn~en


~x = ( x10 , x20 , . . . , xn0 ) B0 ) ~x = x10 ~e0 1 + x20 ~e0 2 + + xn0 ~e0 n

(4.2)
(4.3)

Y cada vector de una de las bases tendr unas coordenadas respecto a la


otra base, en particular consideramos las coordenadas los vectores de B
(base antigua) en la base B 0 (base nueva), as

~e1 = p11~e0 1 + p21~e0 2 + + pn1~e0 n


~e2 = p12~e0 1 + p22~e0 2 + + pn2~e0 n
..
..
.
.
0
~
~en = p1n e 1 + p2n~e0 2 + + pnn~e0 n
que, sustituyendo en (4.2) nos da una expresin de ~x diferente

~x = x1 ( p11~e0 1 + + pn1~e0 n ) + x2 ( p12~e0 1 + + pn2~e0 n ) + . . .


+ xn ( p1n~e0 1 + + pnn~e0 n )

112

Espacios vectoriales

y reordenando la expresin y comparando con la igualdad (4.3) tenemos

~x = ( x1 p11 + x2 p12 + + xn p1n )~e0 1 + ( x1 p21 + + xn p1n )~e0 2 + . . .


|
{z
}
|
{z
}
= x10

= x20

+ ( x1 pn1 + + xn pnn )~e0 n


|
{z
}
= xn0

que nos produce un sistema de ecuaciones lineales cuadrado, cuya expresin matricial es la siguiente
0

p11
B p21
B
B ..
@ .

pn1

p12
p22
..
.
pn2

1 0 1 0 01
p1n
x1
x1
B x2 C B x 0 C
p2n C
C B C B 2C
.. C B .. C = B .. C
. A @.A @.A
. . . pnn
xn
xn0
...
...

abreviadamente escribimos
P X = X0,
siendo X y X 0 las coordenadas del vector ~x expresadas como matrices columna. A la matriz P se le llama matriz del cambio de base de la base B a la base
B0.
Observaciones: La matriz P se construye poniendo en sus columnas las
coordenadas de los vectores ~ei 2 B (base antigua) respecto de la base B0
(base nueva).
Observa tambin que P es invertible, puesto que es la matriz de un sistema lineal de ecuaciones n n que tiene solucin nica y, por el teorema
de Rouch-Frbenius, det( P) 6= 0.
Por tanto, la expresin PX = X 0 es equivalente a P 1 X 0 = X que representa el cambio de base en sentido contrario
Ejercicio 4.28. Calcula las matrices de cambio de base entre la base cannica de
R4 y la base siguiente B = {(1, 1, 0, 0), (0, 0, 1, 1), (1, 0, 0, 1), (0, 1, 0, 1)}. Adems, usa la que corresponda para calcular las coordenas del vector (1, 1, 1, 1) en la
base B .

4.3.2.

Bases de subespacios

Proposicin 4.29. Sean V un espacio vectorial y S un subespacio vectorial de V


tal que dim S = dim V = n. Entonces S = V.

4.4 Operaciones con subespacios

113

Demostracin. Si B es una base de S, entonces contiene n vectores linealmente independientes de V. Slo queda ver que es un sistema generador
del propio V. Para ello consideremos ~x 2 V cualquier vector no contenido
en B , entonces el sistema B [ {~x } es necesariamente linealmente dependiente porque son n + 1 vectores en un espacio de dimensin n. Esto obliga
a que ~x sea combinacin lineal de B .

Como consecuencia del resultado anterior probaremos el siguiente que


nos ser de utilidad.
Teorema 4.30 (de la base incompleta). Sea S un subespacio vectorial de V de
dimensin n, con base BS = {~c1 , ~c2 , . . . , ~cm } (m n), entonces podemos aadir
n m vectores a dicha base,

B = {~c1 , ~c2 , . . . , ~cm , ~e1 , ~e2 , . . . , ~en

m}

para que sea una base (completa) de V.


Demostracin. Si S = V (es decir, n m = 0) la base ya est completa,
con lo que hemos terminado. En caso contrario, existe algn vector ~e1 en
V que no est en S, por tanto el sistema {~c1 , ~c2 , . . . , ~cm , ~e1 } es linealmente
independiente y es una base de un subespacio S1 de V.
Si S1 coincide con V (es decir, n m = 1) ya hemos acabado, en caso contrario repetimos el procedimiento S2 , S3 , . . . Sn m hasta llegar a un
subespacio que coincida con V.

Ejercicio 4.31. Para comprender mejor el teorema anterior, elige una base cualquiera del subespacio vectorial S de R4 del ejemplo 4.18. Ampla dicha base a una
de todo el espacio R4 .

4.4.

Operaciones con subespacios

4.4.1. Interseccin de subespacios


Observa que la interseccin de dos subespacios de un espacio vectorial
nunca es vaca puesto que el vector ~0 est en ambos. Adems la interseccin
de dos subespacios tambin es subespacio vectorial. Vamos a probar que
esto es cierto y algo ms, la interseccin de cualquier familia de subespacios
vectoriales es subespacio vectorial.
Teorema 4.32.
Dada una familia {Si }i2 I de subespacios vectoriales de V, la
\
interseccin
Si es tambin subespacio vectorial.
i2 I

114

Espacios vectoriales

Demostracin. Aplicamos el teorema 4.12 de caracterizacin de subespaT


~ 2 i2 I Si , y sean l, 2 K, entonces para cada i 2 I se
cios. Sean ~v, w
~ 2 Si , que como son subespacios vectoriales se cumple
tiene que ~v, w

~ 2
por tanto, l~v + w

~ 2 Si para cada i 2 I
l~v + w

i2 I

Si .

Nota. Obsrvese que la unin de subespacios no es un subespacio. (Encuentra algn contraejemplo que lo corrobore).
Ejemplo 4.33. Consideremos los subespacios S1 y S2 de R5 siguientes
S1 = L({(1, 2,

1, 0, 1), (0, 1, 1, 0, 1), (1, 0,

x1 + x4 = 0
S2
x2 + x3 = 0

3, 0, 3)})

vamos a calcular la interseccin de ambos.


Calculamos,
0 en primer
1 lugar, las ecuaciones cartesianas de S1 . La matriz de
vectores @

1
2
1
0
1

0
1
1
0
1

1
0
3A
0
3

tiene rango 2, y comprobamos que los dos primeros

vectores son linealmente independientes, por tanto nos quedamos con ellos
como base de0
S1 . Entonces,
1 si ~x = ( x1 , x2 , x3 , x4 , x5 ) es un vector de S1 la
nueva matriz @

1
2
1
0
1

0
1
1
0
1

x1
x2
x3
x4
x5

A sigue teniendo rango 2, Aplicando el mtodo de

Gauss obtenemos la siguiente matriz equivalente


0
1
1 0
x1
B 0 1
2x1 + x2 C
B
C
B 0 0
3x
x2 + x3 C
1
B
C
@ 0 0
x4 A
0 0
3x1 + x2 + x5
que nos da las ecuaciones cartesianas:
8
< 3x1 x2 + x3 = 0
x4 = 0
S1
:
3x1 + x2 + x5 = 0

Unimos por tanto, las ecuaciones de S1 y S2 para tener el siguiente sistema,


cuyas soluciones son el espacio interseccin S1 \ S2
9
3x1 x2 + x3 = 0 >
>
>
x4 = 0 >
=
3x1 + x2 + x5 = 0
>
x1 + x4 = 0 >
>
>
;
x2 + x3 = 0

4.4 Operaciones con subespacios

115

Este sistema es compatible determinado, por tanto, el vector ( x1 , . . . , x5 ) =


(0, 0, 0, 0, 0) representa la nica solucin. Es decir,
S1 \ S2 = {~0}
A ttulo ilustrativo, vemos a continuacin que el subespacio generado
puede verse como la interseccin de subespacios. El siguiente teorema describe una forma distinta de construir L( X ).
Proposicin 4.34. El subespacio generado L( X ) es la interseccin de todos los
subespacios que contienen a X.
Demostracin. Representamos por F la familia de subespacios vectoriales
que continen a X, entonces, como L( X ) es un subespacio vectorial y contiene a X, es, por tanto, un miembro de la familia luego una inclusin es
evidente
\
S L( X )
S2F

Veamos la inclusin contraria, si S es un miembro de F entonces (por ser


subespacio vectorial y contener a X) contiene todas las combinaciones lineales de los vectores de X, es decir, L( X ). Dicho de otro modo, L( X )
S, para cada S 2 F , luego
L( X )

S2F

que completa la igualdad.

4.4.2. Suma de subespacios


Ya hemos visto que la unin de subespacios vectoriales no es necesariamente un subespacio vectorial. Para solucionar este problema se extiende
la unin lo necesario (y suficiente) para que s sea un subespacio vectorial.
Lo vemos en la siguiente definicin.
Definicin 4.35. Dados dos subespacios vectoriales S1 y S2 de V se define
la suma de subespacios vectoriales como el conjunto
S1 + S2 = {~v1 + ~v2 | ~v1 2 S1 y ~v2 2 S2 }.
La suma S1 + S2 de subespacios vectoriales es un subespacio vectorial

~ son vectores de S1 + S2 ,
Demostracin. Aplicamos el teorema 4.12. Si ~v y w
~ =w
~1 +w
~ 2 siendo ~v1 , w
~ 1 2 S1 y ~v2 , w
~ 2 2 S2 , luego
entonces ~v = ~v1 + ~v2 y w
~ = (l~v1 + w
~ 1 ) + (l~v2 + w
~ 2 ) 2 S1 + S2
l~v + w

116

Espacios vectoriales

Proposicin 4.36. Si S1 y S2 son subespacios vectoriales de V de bases B1 y B2 ,


respectivamente, entonces
S1 + S2 = L(S1 [ S2 ) = L(B1 [ B2 )
Demostracin. La demostracin es trivial y la dejamos como ejercicio para
el alumno.

Ejemplo 4.37. Calculemos la suma de los subespacios siguientes de R4

x1 x2 + x4 = 0
S1 = L({(1, 0, 2, 0), (0, 1, 1, 1)}) y S2
x2 x4 = 0
S OLUCIN : Nos dan una base de S1 y obtenemos una base de S2 resolviendo el sistema de ecuaciones que lo define,
9
x1 = 0 >
>
=
x2 = l
x3 = >
>
;
x4 = l
por tanto B2 = {(0, 1, 0, 1), (0, 0, 1, 0)} es una base de S2 . Por tanto

S1 + S2 = L({(1, 0, 2, 0), (0, 1, 1, 1), (0, 1, 0, 1), (0, 0, 1, 0)})


1 0 0 0
y como rango 02 11 10 01 = 3 elegimos tres vectores independientes (por
0110

ejemplo, los tres primeros). Para calcular su ecuacin cartesiana aplicamos


el mtodo de Gauss a la matriz
0
1
0
1
1 0 0 0 x1
1 0 0
0
x1
B 0 1 1 0 x2 C Por filas B 0 1 0
1
2x1 + x3 C
B
C
B
C
@ 2 1 0 1 x3 A ! @ 0 0 1
1 2x1 + x2 x3 A
0 1 1 0 x4
0 0 0
0
x2 + x4
que nos da la ecuacin

x2

x4 = 0

Suma directa de subespacios


Definicin 4.38. Si S1 \ S2 = {~0}, entonces S1 + S2 se llama suma directa y
se representa S1 S2 .
Ejercicio 4.39. Calcula la interseccin de los subespacios S1 y S2 del e4.37 para
comprobar si la suma que all se calcula es directa o no.

4.5 Espacios cocientes

117

Definicin 4.40. Dos subespacios S1 y S2 se dice que son suplementarios si


y solo si S1 S2 = V.
Ejercicio 4.41. Expresa R5 como suma directa de dos subespacios. Hazlo ahora
como suma de directa de tres subespacios.
Ejercicio 4.42. Calcula el subespacio suma directa S1
Ejemplo 4.33, en pgina 114.

S2 de los subespacios del

Teorema 4.43 (Frmula de Grassmann). Si S1 y S2 son subespacios de un espacio vectorial V de dimensin finita, entonces
1. dim(S1 + S2 ) = dim(S1 ) + dim(S2 )
2. dim(S1

4.5.

dim(S1 \ S2 )

S2 ) = dim(S1 ) + dim(S2 )

Espacios cocientes

Si S es un subespacio vectorial de V podemos definir la siguiente relacin de equivalencia en V.

~v w
~ () w
~

~v 2 S

Veamos que, efectivamente, es de equivalencia:


Demostracin.
1. Reflexiva: ~v ~v es trivial, puesto que es equivalente a ~0 2 S.

~ () w
~
2. Simtrica: ~v w

~v 2 S () ~v

~ yw
~ ~x () w
~
3. Transitiva: ~v w
S () ~v ~x.

~ 2 S () w
~ ~v.
w

~v 2 S y ~x

~ 2 S () ~x
w

~v 2

Podemos dotar al conjunto cociente de suma y producto por un escalar:


~ ] y el producto l[~v] = [l~v],
Se definen: la suma como [~v] + [~
w] = [~v + w
lo que nos da una estructura de espacio vectorial llamado Espacio Vectorial
cociente V/S.
Demostracin. Esencialmente consiste es comprobar que la suma de clases
y el producto de un escalar por una clase de equivalencia son operaciones,
es decir, no dependen del representante de la clase elegido, es decir, ~v1 ~v2
~1 w
~ 2 , entonces [~v1 ] + [~
yw
w1 ] = [~v2 ] + [~
w2 ] y l[~v1 ] = l[~v2 ].

118

Espacios vectoriales

Teorema 4.44. Si V es un espacio vectorial de dimensin finita, entonces


dim(V/S) = dim(V )

dim(S).

Demostracin. Dada una base {~v1 , ~v2 , . . . , ~vk } de S, por el teorema 4.30 (de la base
incompleta), podemos ampliarla a una base {~v1 , ~v2 , . . . , ~vk , ~e1 , ~e2 , . . . , ~en k } de V.
Comprobamos, entonces, que el sistema de vectores

{[~e1 ], [~e2 ], . . . , [~en


es una base de V/S, es decir dim(V/S) = n
alumno.

k ]}

k. Dejamos los detalles para el

Ejercicios Propuestos
Ej. 4.1 Halla cuales de los siguientes conjuntos forman un subespacio
vectorial de R4 :
E1 = {( x1 , x2 , x3 , x4 ) | x1 + x2 = 1} E2 = {( x1 , x2 , x3 , x4 ) | x1 + x2 = x3 + x4 }
E3 = {( x1 , x2 , x3 , x4 ) | x1

x4 = 0} E4 = {( x1 , x2 , x3 , x4 ) | x1 2 Q }

Ej. 4.2 Considera en R4 el conjunto


X = {(1, 2, 1, 2), (1, 0, 1, 0), ( 3,

3,

3,

3), (0, 0, 1, 2), (0, 1, 0, 1)}

1. Determina un subconjunto mximo de vectores linealmente independientes.


2. Representa mediante ecuaciones paramtricas y mediante ecuaciones implcitas el subespacio generado por el conjunto X.
3. Determina una base de dicho subespacio.
Ej. 4.3 Sea V el conjunto formado por las sucesiones infinitas de nmeros reales; en V se consideran las operaciones:

{ a n } + { bn } = { a n + bn }
l{ an } = {lan }

para todo { an }, {bn } 2 V


para todo l 2 R

1. Comprueba que V es un espacio vectorial.


2. Indica cuales de los siguientes conjuntos son subespacios de V: las
sucesiones acotadas, las sucesiones constantes, las sucesiones con lmite, los infinitsimos, las sucesiones con lmite uno, las sucesiones
de trminos positivos y las sucesiones sin lmite.

4.5 Espacios cocientes

119

Ej. 4.4 En el espacio vectorial real R2n , se consideran los subespacios:


V = {( x1 , x2 , . . . , x2n ) | xn+i = xi ,

U = {(y1 , y2 , . . . , y2n ) | y2n+1

i = 1, 2, . . . , n}
= yi , i = 1, 2, . . . , n}

1. Halla la dimensin y determina una base de cada uno de los subespacios V y U.


2. Halla V \ U, su dimensin y una base (distngase los casos de n par
y n impar).
3. Halla V + U.
Ej. 4.5 Demuestra que los vectores (2, 1, 1), (1, 3, 1) y ( 2, 1, 3) forman
una base de R3 y halla las coordenadas en dicha base del vector (1, 1, 2).
Ej. 4.6 Un vector de R3 tiene por coordenadas (1, 2, 3) en la base B =
{~v1 , ~v2 , ~v3 }. Halla las coordenadas en la base B0 = {~u1 , ~u2 , ~u3 } siendo ~u1 =
3~v1 + 2~v2 ~v3 , ~u2 = 4~v1 + ~v2 + ~v3 y ~u3 = 2~v1 ~v2 + ~v3 .
Ej. 4.7 En el espacio R3 el vector ~v tiene por coordenadas (5, 1, 2) respecto de la base B = {~x, ~y, ~z} y respecto de la base B0 = {~p, ~q,~r } sus coordenadas son (6, 3, 4). Sabiendo que ~p = 3~x ~y +~z y ~q = 4~x + 5~y 6~z.
Halla las coordenadas de ~r en la base B.
Ej. 4.8 Sea V el espacio vectorial de los nmeros complejos construido
sobre R y sea U el espacio vectorial de los nmeros complejos construido
sobre C. Demuestra que dim V = 2 y dim U = 1.
Ej. 4.9 En R3 , consideramos E el subespacio generado por los vectores
(2, 0, 1), (1, 1, 2) y (1, 1, 1) y V = L({(1, 0, 1), (0, 1, 1)}).
1. Determina una base de E y las coordenadas en dicha base del vector (5, 3, 2).
2. Calcula tambin una base de V.
3. Expresa los subespacios E y V mediante ecuaciones implcitas y determina E \ V a partir de dichas ecuaciones.
4. Determina una base y la dimensin de E \ V.
5. Calcula una base de E + V y expresa este subespacio mediante ecuaciones paramtricas y mediante ecuaciones implcitas.
6. Se trata de una suma directa?Por qu?
Ej. 4.10 (Feb. 2012) Consideramos E = L({(2, 0, 1), (1, 1, 2), (1, 1, 1)})
y V = L({(1, 0, 1), (0, 1, 1)}) en el espacio vectorial R3 .
1. Determina una base de E y las coordenadas en dicha base del vector (5, 3, 2).

120

Espacios vectoriales
2. Expresa los subespacios E \ V y E + V mediante ecuaciones paramtricas y mediante ecuaciones implcitas.

Ej. 4.11 (Dic. 2012) Considera, en R4 , los subespacios


U = L({(1, 1, 0, 0), (0, 0, 1, 1), (0, 0,

5, 0), (3, 3, 2,

1)})

y
V = {( x1 , x2 , x3 , x4 ) | x1

x3 = 0}.

1. Determina una base de U y expresa U con ecuaciones implcitas.


2. Estudia si los siguientes vectores pertenecen a U y, en caso afirmativo, encuentra su representacin respecto de la base del apartado
anterior.
(2, 1, 2, 1), (2, 2, 1, 1), (1, 2, 2, 1)
3. Determina U \ V y U + V. Es suma directa?
Ej. 4.12 En R3 se considera el conjunto U = {( x1 , x2 , x3 ) | x1 x2 =
0 y x1 2x2 + x3 = 0} y la relacin de equivalencia ( x1 , x2 , x3 ) RU (y1 , y2 , y3 )
si ( x1 y1 , x2 y2 , x3 y3 ) 2 U.
1. Demuestra que U es un subespacio.
2. Demuestra que RU es una relacin de equivalencia.
3. Encuentra dos elementos que pertenezcan a la misma clase que el
vector (1, 2, 3).
4. Encuentra una base de R3 /U
Ej. 4.13 Demuestra que si los vectores ~x1 , ~x2 , . . . , ~xn son linealmente independientes, tambin lo son ~u1 , ~u2 , . . . , ~un siendo ~u1 = ~x1 , ~u2 = ~x1 + ~x2 ,
. . . , ~un = ~x1 + ~x2 + + ~xn .

TEMA 5
APLICACIONES LINEALES

ndice
5.1.

5.2.

5.3.

5.4.

5.5.

Definicin y propiedades . . . . . . . . . . . . . . . . . . 122


5.1.1.

Tipos de aplicaciones lineales . . . . . . . . . . . 125

5.1.2.

Operaciones de aplicaciones lineales . . . . . . . 126

5.1.3.

Ncleo e Imagen de una aplicacin lineal . . . . 127

5.1.4.

El Teorema de la Dimensin . . . . . . . . . . . . 130

Representacin matricial de una aplicacin lineal . . . . 130


5.2.1.

Matrices de una aplicacin lineal . . . . . . . . . 131

5.2.2.

Cambio de base y matrices equivalentes . . . . . 134

Matrices semejantes y endomorfismos . . . . . . . . . . . 136


5.3.1.

Matrices semejantes . . . . . . . . . . . . . . . . . 137

5.3.2.

Endomorfismos diagonalizables . . . . . . . . . 137

5.3.3.

Autovalores y Autovectores . . . . . . . . . . . . 138

Teorema de diagonalizacin . . . . . . . . . . . . . . . . 140


5.4.1.

Multiplicidad algebraica y geomtrica . . . . . . 141

5.4.2.

Teorema fundamental . . . . . . . . . . . . . . . 142

Aplicaciones de la diagonalizacin . . . . . . . . . . . . . 144


5.5.1.

Clculo de potencias y matriz inversa . . . . . . 144

5.5.2.

Teorema de Cayley-Hamilton . . . . . . . . . . . 145

5.5.3.

Exponencial de una matriz . . . . . . . . . . . . . 146

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . 148

121

122

Aplicaciones lineales

5.1. Homomorfismos de Espacios Vectoriales: Aplicaciones lineales


A partir de esta seccin consideraremos V y E espacios vectoriales de
dimensin finita sobre el mismo cuerpo K.
Tambin llamadas
transformaciones lineales o,
simplemente,
transformaciones.

Definicin 5.1. Una funcin entre espacios vectoriales f : V ! E es una


aplicacin lineal si es un homomorfismo de espacios vectoriales, es decir:
1. f (~v1 + ~v2 ) = f (~v1 ) + f (~v2 ) para cada ~v1 , ~v2 2 V
2. f (l~v) = l f (~v) para cada l 2 K y ~v 2 V

Ejemplo 5.2. La funcin f : R3 ! R3 definida f ( x1 , x2 , x3 ) = ( x2 , x1 , x3 ) es


una aplicacin lineal, puesto que
1. f (~v1 +~v2 ) = f ( x1 + x10 , x2 + x20 , x3 + x30 ) = ( x2 + x20 , x1 + x10 , x3 + x30 ) =
f (~v1 ) + f (~v2 ).
2. f (l~v) = f (lx1 , lx2 , l R x3 ) = (lx2 , lx1 , lx3 ) = l( x2 , x1 , x3 ) = l f (~v)
Observa que esta aplicacin lineal es una transformacin elemental de tipo I
que ya hemos visto en el Tema 2.
Una definicin equivalente de aplicacin lineal es la siguiente:
En general para k vectores:
f

li~vi

i =1

li f (~vi )

i =1

Proposicin 5.3. Una funcin entre espacios vectoriales f : V ! E es aplicacin


lineal si y solo si para cualquier combinacin lineal se tiene
f (l1~v1 + l2~v2 ) = l1 f (~v1 ) + l2 f (~v2 )
Demostracin. Claramente la proposicin 5.3 implica a la definicin 5.1, puesto que las dos hiptesis que se verifican lo hacen sobre combinaciones lineales: 1~v1 + 1~v2 y l~v + ~0.
Inversamente, a partir de la defincin 5.1 se deduce
por 1

por 2

f (l1~v1 + l2~v2 ) = f (l1~v1 ) + f (l2~v2 ) = l1 f (~v1 ) + l2 f (~v2 )

Ejemplo 5.4. La funcin f ( x1 , x2 , x3 ) = ( x1 x3 , 2x2 + x3 ) est expresada


analticamente y entendemos que est definida en R3 con imgenes en R2 .
Prueba que es una aplicacin lineal.
S OLUCIN : Usamos la definicin 5.3. Si expresamos ~v1 = ( x1 , x2 , x3 ) y ~v2 =
(y1 , y2 , y3 ) tenemos:
f (l~v1 + ~v2 ) = f (lx1 + y1 , lx2 + y2 , lx3 + y3 )

=(lx1 + y1 lx3 y3 , 2lx2 + 2y2 + lx3 + y3 )


=l( x1 x3 , 2x2 + x3 ) + (y1 y3 , 2y2 + y3 )
=l f (~v1 ) + f (~v2 )

5.1 Definicin y propiedades

123

Ejercicio 5.5. De las siguientes funciones f : V ! E, determina cuales son aplicaciones lineales:
1. V = E = R3 , f (~v) = ~v + ~v0 , con ~v0 un vector fijo de R3 .
2. V = E = R3 , f (~v) = ~v0 , con ~v0 un vector fijo de R3 .
3. V = E = Mnn , f ( A) = A + At .
4. V = E = P3 [R ], f ( p( x )) = xp0 ( x ). (Recordemos que P3 [R ] el espacio
vectorial de los polinomios de grado menor o igual que 3, y p0 ( x ) la derivada
de p( x ))
Proposicin 5.6 (Propiedades). Si f : V ! E una aplicacin lineal, entonces:
1. La imagen del vector cero es el vector cero. Ms brevemente, f (~0) = ~0.
2. Para todo ~v 2 V se satisface f ( ~v) =

f (~v).

3. Si un subespacio U = L({~v1 , . . . , ~vk }) de V est generado por k vectores,


entonces su imagen f (U ) es un subespacio vectorial de E generado por las
imgenes del sistema generador de U, es decir,
f (U ) = L({ f (~v1 ), . . . , f (~vk )})
4. La aplicacin lineal f viene completamente determinada por las imgenes de
una base de V.
Demostracin.
1. f (~0) = f (~0 + ~0) = f (~0) + f (~0), luego f (~0) = f (~0)
2. f ( ~v) = f (( 1)~v) = ( 1) f (~v) =

f (~0) = ~0.

f (~v).

3. En primer lugar veamos que f (U ) es un subespacio vectorial. Dados


~ 1 = f (~a1 ), w
~ 2 = f (~a2 ) con ~a1 ,~a2 en U, y dos
dos vectores de f (U ), w
escalares l, 2 K entonces

~ 1 + w
~ 2 = f (l~a1 + ~a2 ) = f (~v) 2 f (U )
lw
| {z }
~v2U

por tanto L({ f (~v1 ), . . . , f (~vk )}) f (U ) (puesto que el subespacio generado est en cualquier espacio que contenga al sistema generador).

~ 2 f (U ) ) w
~ = f (~v) con ~v 2 U y ~v = ik=1 ai~vi ,
Por otro lado si w
luego
~ =
w

ai f (~vi ) 2 L({ f (~v1 ), . . . , f (~vk )})

i =1

de donde se deduce la inclusin contraria y, por tanto, la igualdad


deseada.

124

Aplicaciones lineales

4. Si ~v es cualquier vector de V con base B = {~ei }in=1 , entonces ~v =


in=i ai~ei , luego
f (~v) = f

ai~ei
i =i

= ai f (~ei )
i =i

Es decir, si conocemos las imgenes de la base, f (~ei ) conocemos la


imagen f (~v) de cualquier vector.

Ejercicio 5.7. Consideramos la aplicacin lineal siguiente f : R4 ! R4 definida


a partir de las imgenes de una base,
f (1, 0, 0, 0) = (1, 1, 0, 0);

f (1, 1, 0, 0) = (1, 0, 1, 0);

f (1, 1, 1, 0) = (2, 1, 1, 0);

f (1, 1, 1, 1) = (1, 1, 0, 1)

se pide:
1. Da una expresin analtica de f .
2. Si U es el subespacio de R4 de ecuaciones cartesianas
calcula las ecuaciones de f (U ).

x1 x4 = 0
2x2 + x3 = 0

Otra propiedad es que las aplicaciones lineales respetan la dependencia


lineal, es decir
Proposicin 5.8. Sea f : V ! E una aplicacin lineal. Si X es un sistema de
vectores de V linealmente dependiente, entonces f ( X ) es un sistema linealmente
dependiente de E.
Demostracin. Sea X = {~v1 , . . . , ~vk } y supongamos que li 6= 0 y l1~v1 +
+ li~vi + + lk~vk = ~0. Aplicando f tenemos
l1 f (~v1 ) + + li f (~vi ) + + lk f (~vk ) = ~0, con li 6= 0
que prueba que f ( X ) es linealmente dependiente.

El resultado anlago para independencia lineal no es cierto.


Ejercicio 5.9. Da un ejemplo de esto ltimo, es decir, una aplicacin lineal f ,
un sistema de vectores linealmente independientes X de forma que f ( X ) no sea
linealmente independiente.

5.1 Definicin y propiedades

125

5.1.1. Tipos de aplicaciones lineales


Para las aplicaciones lineales se usan los siguientes trminos: monomorfismo (aplicacin lineal inyectiva), epimorfismo (sobreyectiva) e isomorfismo
(biyectiva). Adems, llameros endomorfismo: a cualquier aplicacin lineal
desde un espacio vectorial V al propio V, es decir, f : V ! V y automorfismo: a una aplicacin lineal que es endomorfismo e isomorfismo.
Nota. Especial inters tiene en lgebra lineal los isomorfismos de espacios
vectoriales. Si existe un isomorfismo entre V y E se dice que son espacios
vectoriales isomorfos y se representa V E. Notemos, adems que la relacin de isomorfismo es de equivalencia en el conjunto de los espacios
vectoriales.
Si f es una aplicacin lineal inyectiva, entonces respeta la independencia lineal como vemos a continuacin.
Proposicin 5.10. Si f es monomorfismo y X es un sistema de vectores de V
linealmente independientes, entonces f ( X ) es un sistema de vectores de E linealmente independientes.
Demostracin. La dejamos como ejercicio para el alumno.

Por tanto, si f : V ! E es un isomorfismo y B es una base de V, podemos hacer las siguientes observaciones:
1. f (B) es un sistema de vectores linealmente independiente de E, como
acabamos de ver en la anterior proposicin.
2. f (B) es un sistema generador de la imagen f (V ) = E por ser sobreyectiva. Consecuencia del apartado 3 de la proposicin 5.6.
Es decir,
La imagen de una base de V por un isomorfismo V ! E es una base de E.
Corolario 5.11. Dos espacios vectoriales isomorfos tienen la misma dimensin.
Por ltimo una observacin importante sobre los espacios vectoriales reales
de dimensin finita.
Teorema 5.12. Si V es un espacio vectorial real de dimensin n entonces V es Igualmente, un espacio
vectorial complejo de
isomorfo a R n .

dimensin n es isomorfo

n
Demostracin. Si fijamos una base B de V, cada vector ~v 2 V tiene unas ni- a C .
cas coordenadas ~v = (v1 , v2 , . . . , vn )B en B , y es fcil probar que la funcin
f : V ! R n definida f (~v) = (v1 , v2 , . . . , vn ) es un isomorfismo.

126

5.1.2.

Aplicaciones lineales

Operaciones de aplicaciones lineales

Representaremos por L(V, E) al conjunto de todas las aplicaciones lineales de V a E.


A este conjunto se pueden trasladar las operaciones de los espacios vectoriales que lo definen. As, si f , g : V ! E son aplicaciones lineales, se
define la suma f + g como una nueva aplicacin del siguiente modo
f + g: V ! E
~v f (~v) + g(~v)
y si l 2 K es un escalar lo multiplicamos por f para construir una nueva
aplicacin lineal producto l f definida:
lf : V ! E
~v l f (~v)
Ejercicio 5.13. Comprueba que las nuevas definiciones se corresponden con aplicaciones lineales. Aplica la definicin 5.1 o 5.3 para probar esto.
Si E = K, el espacio
vectorial L(V, K ), de la
misma dimensin que V,
recibe el nombre de Espacio
vectorial dual y se
representa V .

Proposicin 5.14. Si V, E son espacios vectoriales sobre un mismo cuerpo K,


entonces L(V, E) es un nuevo espacio vectorial sobre el cuerpo K.
Adems, si V y E son de dimensin finita n y m, respectivamente, entonces
L(V, E) tiene dimensin n m.
Demostracin. Es fcil probar que las operaciones de suma y producto por
escalar definidos en L(V, E) verifican todas las propiedades de un espacio
vectorial. Dejamos esto como ejercicio.
Por otro lado, si B1 = {~vi }in=1 es base de V y B2 = {~ei }im=1 es base
de E, construimos una base de funciones { f ij } de L(V, E). Por el punto 4
de la proposicin 5.6 para definir f ij es suficiente con decir cules son las
imgenes de la base B1 , as definimos
(
~e j si k = i
f ij (~vk ) =
~0 en otro caso
Se prueba que estas n m funciones { f ij } son linealmente independientes y
es un sistema generador de L(V, E), por tanto, una base.

Composicin e inversas de aplicaciones lineales


Las aplicaciones lineales se comportan bien para la composicin de funciones, es decir,
Proposicin 5.15. Si f : V ! E y g : E ! F son aplicaciones lineales, entonces
la composicin g f : V ! F tambin es una aplicacin lineal.

5.1 Definicin y propiedades

127

Demostracin. Ejercicio.

Adems la composicin tambin mantiene el tipo de morfismo, es decir,


la composicin de monomorfismo es un monomorfismo, la de epimorfismo
tambin es epimorfismo y, por ltimo, la composicin de isomorfismos es
un nuevo isomorfismo. En este ltimo caso podemos aadir el siguiente
resultado:
Proposicin 5.16. Sea f una aplicacin lineal, f es un isomorfismo si y solo si
f 1 es isomorfismo.

Demostracin. Ejercicio.

5.1.3. Ncleo e Imagen de una aplicacin lineal


Como cualquier funcin la aplicacin lineal f : V ! E tiene una imagen. Introducimos tambin el concepto de ncleo ker f .
Img f = f (V ) = {~y 2 E | f (~x ) = ~y para algn ~x 2 V }
ker f = f

1 ({~0})

= {~x 2 V | f (~x ) = ~0}

Proposicin 5.17 (Propiedades). Sea f : V ! E una aplicacin lineal.


1. Los conjuntos ker f y Img f son subespacios vectoriales de V y E respectivamente.
2. f es sobreyectiva si y solo si Img f = E.
3. f es inyectiva si y slo si ker f = {~0}.
4. ker f = {~0} si y slo si para cualquier sistema de vectores X V linealmente independiente se tiene que f ( X ) es linealmente independiente
Demostracin. Los puntos 1 y 2 son muy fcil de probar y se dejan como
ejercicio.
3. Supongamos que f es inyectiva. Sabemos que ker f no es vaco, puesto
que ~0 2 ker f . Sea entonces ~v 2 ker f ) f (~v) = ~0 = f (~0), y la inyectividad nos dice que ~v = ~0, es decir, el nico elemento posible de ker f es
el vector ~0.
Inversamente, supongamos que ker f = {~0} y sean ~v1 , ~v2 2 V con
f (~v1 ) = f (~v2 ). Tenemos, entonces, f (~v1 ~v2 ) = ~0 () ~v1 ~v2 2
ker f = {~0}. De aqu ~v1 = ~v2 . Es decir, f es inyectiva.
4. Sea X = {~v1 , . . . , ~vk }. Veamos la primera implicacin. Suponemos que
ker f = {~0} y X es linealmente independiente pero, en cambio, f ( X )

128

Aplicaciones lineales
es linealmente dependiente. Podemos entonces encontrar una combinacin lineal de f ( X ) igualada a ~0, es decir,
l1 f (~v1 ) + + li f (~vi ) + + lk f (~vk ) = ~0
con algn li 6= 0, por tanto
ker={~0}

f (l1~v1 + + li~vi + + lk~vk ) = ~0 =)

l1~v1 + + li~vi + + lk~vk = ~0

con li 6= 0, que contradice que X sea independiente.

Inversamente, suponemos que X independiente implica f ( X ) independiente y sea ~v 2 ker f . Si ~v 6= ~0 entonces X = {~v} es un sistema independiente, luego f ( X ) = { f (~v)} tambin es independiente, lo que
implica que f (~v) 6= ~0, que contradice que ~v sea un vector del ncleo.
Por tanto, necesariamente ker f = {~0}.

Ejemplo 5.18. Calculemos el ncleo y la imagen de la aplicacin lineal


f : R4 ! R3 definida
f ( x1 , x2 , x3 , x4 ) = ( x1 + 2x2

x3 , x1

x2 + x4 , 2x1 + x2

x3 + x4 )

S OLUCIN: Comencemos por el ncleo. Al considerar f ( x1 , x2 , x3 , x4 ) = ~0,


se nos plantea el siguiente sistema de ecuaciones
9
x1 + 2x2 x3 = 0 =
x1 x2 + x4 = 0
;
2x1 + x2 x3 + x4 = 0
que al resolverlo resultan las ecuaciones paramtricas del ncleo
9
x1 = l
>
>
=
x2 = l +
.
x3 = 3l + 2 >
>
;
x4 =

Esto nos permite encontrar una base para el ncleo (de dimensin 2)

Bker = {(1, 1, 3, 0), (0, 1, 2, 1)}


Ahora calculemos la imagen de f . Un mtodo para ello es considerar
una base B de R4 y hallar el subespacio L ( f (B)) = Img f . Consideramos B
la base cannica y formamos la matriz con sus imgenes puestos en columna (resp. filas) y con transformaciones elementales por columnas (resp. filas)
conseguimos una matriz escalonada por columnas (resp. filas) que nos da
una base.

5.1 Definicin y propiedades


0

1
@1
2

2
1
1

129

1
0
1
1 0
1 0 0 0
Por columnas
0 1A ! @0 1 0 0A
1 1
1 1 0 0

As, BImg = {(1, 0, 1), (0, 1, 1)} , que nos permite calcular las ecuaciones
cartesianas y/o paramtricas de dicho subespacio. Por ejemplo la (nica)
ecuacin cartesiana es:
1 0 x1
0 1 x2 = 0 () x1 + x2
1 1 x3

x3 = 0 Img f

Teorema de descomposicin de una aplicacin lineal


Dada una aplicacin lineal f : V ! E, existen otras aplicaciones lineales
p, f e i, para las que el siguiente diagrama conmuta1 y adems:
p es el epimorfismo definido p(~v) = [~v], a
cada vector se le lleva a su clase en V/ker f .
f es el isomorfismo definido f ([~v]) = f (~v),
que a cada clase de V/ ker f lo lleva a la
imagen por f de cualquier vector de la clase.

f
V
p
V/ker f

E
f

i
Img f

~ resi es el monomorfismo definido i (~


w) = w
tringido a Img f E (identidad).
Demostracin. Lo primero es comprobar que f est bien definida, es decir,
su valor no depende del representante elegido. Veamos

[~v1 ] = ~v2 ] () ~v1

~v2 2 ker f () f (~v1 ) = f (~v2 )

(5.1)

Trivialmente las funciones p, f , i son aplicaciones lineales. Adems p


es sobreyectiva porque las clases no son vacas, por tanto cualquier vector
de la clase tiene como imagen por p la propia clase. La aplicacin i es claramente inyectiva porque es la identidad. Y la funcin f es biyectiva, dejamos
los detalles como ejercicio, vase (5.1).
Por ltimo, (i f p)(~v) = (i f )([~v]) = i ( f (~v)) = f (~v), luego el diagrama conmuta.

1 Conmuta

quiere decir que


f =i

o que el resultado de componer funciones no vara siguiendo distintos caminos de flechas.

130

5.1.4.

Aplicaciones lineales

El Teorema de la Dimensin

Definicin 5.19 (Rango de una aplicacin lineal). Dada una aplicacin lineal entre espacios vectoriales de dimensin finita f : V ! E, llamamos
rango de f a la dimensin de la imagen de f , es decir:
rango f = dim (Img f ).
Nota. El apartado 3 de Proposicin 5.6 nos dice que, si B es base de V,
entonces Img f = L( f (B)) y, por tanto, rango f es el nmero de vectores linealmente independientes en f (B).
Las dimensiones del ncleo y de la imagen de una aplicacin lineal estn relacionadas. Los siguientes resultados nos determinan cmo.
Lema 5.20. La imagen de una aplicacin lineal f : V ! E es isomorfa al espacio
vectorial cociente V/ker f . Esto se representa
Img f V/ ker f
Demostracin. Consecuencia inmediata de la descomposicin de f , puesto
que f : V/ ker f ! Img f es isomorfismo.

Teorema 5.21 (de la dimensin). Si f : V ! E es una aplicacin lineal entre


espacios vectoriales de dimensin finita, entonces
dim V = dim(ker f ) + dim(Img f ).
Demostracin. Por el teorema 4.44, dim(V/ ker f ) = dim V
por tanto
dim(Img f ) = dim V dim(ker f )

dim(ker f ),

y el lema 5.20 prueba el resultado.

Ejercicio 5.22. Comprueba el teorema de la dimensin en el ejemplo 5.18.

5.2. Representacin matricial de una aplicacin lineal


A lo largo de esta seccin suponemos que V es un espacio vectorial de
dimensin n y E un espacio de dimensin m. Como hemos visto en teorema 5.12, si V y E son espacios vectoriales reales, podemos suponer, sin
ninguna prdida de generalidad, que V = R n y E = R m . Suponemos adems que todas las funciones f , g, . . . que aparecen son aplicaciones lineales.

5.2 Representacin matricial de una aplicacin lineal

131

5.2.1. Matrices de una aplicacin lineal


Sea f : V ! E y sean B1 = {~v1 , ~v2 , . . . , ~vn } y B2 = {~e1 , ~e2 , . . . , ~em } bases
de V y E respectivamente,
f (~v1 ) = ( a11 , a12 , . . . , a1m )B2 = a11~e1 + a12~e2 + + a1m~em
f (~v2 ) = ( a21 , a22 , . . . , a2m )B2 = a21~e1 + a22~e2 + + a2m~em
..
.
f (~vn ) = ( an1 , an2 , . . . , anm )B2 = an1~e1 + an2~e2 + + anm~em
Si el vector ~x tiene por coordenadas ( x1 , x2 , . . . , xn ) respecto a la base B1
y f (~x ) tiene por coordenadas (y1 , y2 , . . . , ym ) respecto a la base B2 entonces
f (~x ) = f ( x1~v1 + x2~v2 + + xn~vn )

= x1 f (~v1 ) + x2 f (~v2 ) + + xn f (~vn )


= x1 ( a11~e1 + a12~e2 + + a1m~em )+
+ x2 ( a21~e1 + a22~e2 + + a2m~em ) + . . .
+ xn ( an1~e1 + an2~e2 + + anm~em )

y deshaciendo los parntesis y agrupando respecto a los vectores ~ei nos


queda
f (~x ) =( a11 x1 + a21 x2 + + an1 xn )~e1 +
|
{z
}
= y1

+ ( a12 x1 + a22 x2 + + an2 xn )~e2 + . . .


|
{z
}
= y2

..
.

+ ( a1m x1 + a2m x2 + + anm xn )~em


|
{z
}
=ym

que nos da el sistema de ecuaciones

9
a11 x1 + a21 x2 + + an1 xn = y1 >
>
>
a12 x1 + a22 x2 + + an2 xn = y2 =
..
>
.
>
>
;
a1m x1 + a2m x2 + + anm xn = ym

expresado en forma matricial del siguiente modo


0

1 0
1 0 1
y1
a11 a21 . . . an1
x1
B y2 C B a12 a22 . . . an2 C B x2 C
B C B
C B C
B .. C = B ..
..
.. C B .. C
@ . A @ .
.
. A @.A
ym
a1m a2m . . . anm
xn

132

Aplicaciones lineales
La expresin matricial se suele representar ms brevemente de la forma
Y = A X.

Es nica fijadas las bases.


Claramente, si las bases
cambian la matriz tambin
cambia.

donde X son las coordenadas de ~v respecto de la base B1 , Y son las coordenadas de f (~v) respecto de la base B2 y A 2 Mmn es la nica matriz de la
aplicacin lineal f respecto de dichas bases, ms brevemente pondremos
A = M ( f ; B1 , B2 )
Nota. Observa que el nmero de filas de su matriz A es la dimensin de E
y el nmero de columnas la dimensin de V.
Ejercicio 5.23. Comprueba que la transformacin elemental de tipo I definida en
el Ejemplo 5.2 como f ( x1 , x2 , x3 ) = ( x2 , x1 , x3 ) tiene por matriz
0
1
0 1 0
@1 0 0A
0 0 1
que es una matriz elemental de tipo I.
Define analticamente ejemplos de transformaciones elementales (de tipo II y
tipo III) y comprueba que sus matrices son elementales del mismo tipo.
Ejemplo 5.24. Si f : R3 ! R4 es la aplicacin
f ( x1 , x2 , x3 ) = ( x1 + x3 ,

2x2 , x1

x2 + 2x3 , x3 )

vamos a calcular la matriz de f : 1) Respecto a las bases cannicas. 2) Respecto a las bases

B1 = {(0, 1, 1), ( 1, 1, 0), (0, 0, 2)},


B2 = {(2, 0, 1, 1), (0, 1, 1, 1), (2, 3, 0, 1), (0, 1, 0, 0)}
de R3 y R4 , respectivamente.
S OLUCIN:
1) Las columnas de A estn formadas por las imgenes de la base,
f (1, 0, 0) = (1, 0, 1, 0)
f (0, 1, 0) = (0,
f (0, 0, 1)
0
1
B 0
luego la matriz queda A = B
@ 1
0

2,

1, 0)

= (1, 0, 2, 1)
1
0 1
2 0 C
C.
1 2 A
0 1

5.2 Representacin matricial de una aplicacin lineal

133

2) Llamemos B a la matriz de f respecto a las bases B1 y B2 . Tenemos


que calcular las imgenes de los vectores de la base B1 y posteriormente las
coordenadas de dichos vectores respecto de B2 . As

3 5
11
f (0, 1, 1) = (1, 2, 1, 1) =
,
, 2,
2 2
2 B2

3 7
1
f ( 1, 1, 0) = ( 1, 2, 2, 0) =
, , 2,
2 2
2 B2
f (0, 0,

2) = ( 2, 0,

4,

2) = (5, 9,

por tanto la matriz de la aplicacin lineal es


0
3
B
B
B
B
B = M ( f ; B1 , B2 ) = B
B
B
B
@

2
5
2
2

3
2
7
2
2

11
2

1
2

6, 9)B2

C
C
C
9 C
C
C
6 C
C
A
9

Operaciones y matrices
Las operaciones de las matrices se corresponden con las operaciones de
las aplicaciones lineales.
Teorema 5.25. Sean B1 y B2 , bases de V y E, respectivamente, y f , g : V ! E.
Si A = M ( f ; B1 , B2 ) y B = M ( g; B1 , B2 ), entonces:
1) A + B = M ( f + g; B1 , B2 )

2) lA = M(l f ; B1 , B2 ).

Demostracin. Es muy fcil y la dejamos como ejercicio para el alumno.

Ejercicio 5.26. Comprueba el teorema con un ejemplo. Pongamos, por caso, las
x+z
aplicaciones lineales f , g : R3 ! R2 definidas f ( x, y, z) = (2x + 3y,
)y
2
g( x, y, z) = (2y z, z x y). Calcula f + g y posteriormente las matrices de
f , g y f + g respecto a las bases cannicas. Comprueba el teorema anterior, es decir,
la matriz de la suma es la suma de las matrices.
En el siguiente teorema comprobamos que el producto de matrices de
las aplicaciones lineales se corresponde con la composicin de funciones.
Teorema 5.27. Sean B1 , B2 y B3 bases de V, E y F, respectivamente, y f : V ! E
y g : E ! F. Si A = M ( f , B1 , B2 ) y B = M ( g, B2 , B3 ), entonces
B A = M( g

f , B1 , B3 )

134

Aplicaciones lineales

Demostracin. Sean los vectores: ~v, f (~v) y g( f (~v)), donde cada uno est en
su respectivo espacio vectorial y sean X, Y, Z sus respectivas coordenadas
en las respectivas bases del enunciado. Entonces Y = AX, Z = BY y si
llamamos C = M( g f , B1 , B3 ), entonces Z = CX.
Observamos que Z = B( AX ) = ( BA) X. Como, fijadas las bases, la
matriz C es nica, necesariamente C = B A.

Ejercicio 5.28. Dadas f : R2 ! R3 definida f ( x1 , x2 ) = (3x1 x2 , x2 , x2 x1 )


y g : R3 ! R2 definida g( x1 , x2 , x3 ) = ( x3 x1 , x3 x2 ), calcula g f y f g
y comprueba el teorema anterior (con las bases cannicas, por ejemplo).
Por ultimo, nos queda ver como es la matriz de la inversa de un isomorfismo.
Teorema 5.29. Si f : V ! E es isomorfismo, entonces cualquier matriz A =
M( f ; B1 , B2 ) es invertible, y adems
A

= M( f

1; B

2 , B1 )

Demostracin. Sea B = M ( f 1 ; B2 , B1 ). Sabemos que f 1 f = iV es la


aplicacin identidad en V, que es lineal y adems su matriz asociada a una
base cualquiera es la identidad, es decir In = M(iV ; B1 , B1 ).
Por el teorema 5.27 anterior tenemos B A = In , por tanto A tiene inversa que es justamente B (y al contrario), que prueba el resultado.

5.2.2.

Cambio de base y matrices equivalentes

Hemos visto que, para una misma aplicacin lineal f , cambiando las
bases de los espacios donde se define, cambia la matriz de f . La pregunta
natural es como trasladamos el cambio de las bases al clculo de la nueva matriz
de f ?
Recordemos que dos matrices del mismo orden m n son equivalentes
si y solo si existen matrices regulares (invertibles) P y Q tales que
B=Q

AP

Teorema 5.30. Dos matrices A, B 2 Mmn (K ) son matrices asociadas a


la misma aplicacin lineal f : V ! E si y solo si son equivalentes.
Demostracin. Representaremos por B1 , B 1 bases de V y B2 , B 2 bases de E.
Llamaremos P a la matriz del cambio de base de B 1 a B1 y Q a la matriz del
cambio de base de B 2 a B2 .

5.2 Representacin matricial de una aplicacin lineal

135

Supongamos en primer lugar que A y B son matrices asociadas a f ,


es decir, A = M( f ; B1 , B2 ) y B = M( f ; B 1 , B 2 ).
Dado cualquier vector ~v 2 V, tendr coordenadas X y X respecto de
las bases B1 y B 1 , por tanto X = P X.

Anlogamente para el vector f (~v) con coordenadas Y e Y respecto de


las bases B2 y B 2 , respectivamente, Y = Q Y.

Ahora bien, Y = AX () QY = BPX () Y = Q 1 AP X, por tanto,


| {z }
B

A y B son equivalentes.

Recprocamente, sean A y B son equivalentes, es decir, B = Q 1 AP.


Consideremos espacios vectoriales V y E de dimensiones n y m respectivamente, con bases

B1 = {~e1 = (1, 0, . . . , 0), ~e2 = (0, 1, . . . , 0), . . . , ~en = (0, 0, . . . , 1)}


B2 = {~# 1 = (1, 0, . . . , 0),~# 2 = (0, 1, . . . , 0), . . . ,~# m = (0, 0, . . . , 1)}
y definimos f , a partir de las imgenes de la base, como f (~ei ) el vector
de coordenadas Aei , siendo ei la matriz columna del vector ~ei . Claramente, A = M ( f , B1 , B2 ).
Consideremos las bases

B1 = { P

e1 , P

e2 , . . . , P

en } y B2 = { Q

#1, Q

#2, . . . , Q

#m}

de V y E, respectivamente.

V(B1 )
iV

V(B 1 )

f
A
f
B

E(B2 )
Q

iE

E(B 2 )

La matriz P es la matriz del cambio de base de B1 a B1 y la matriz Q


ser la del cambio de base de B2 a B2 y, adems, P = M (iV , B1 , B1 ) y
Q = M (i E , B2 , B2 ), donde iV : V ! V y i E : E ! E son las respectivas
funciones identidad.
Como la inversa de la funcin identidad es ella misma, podemos expresar
f = i E 1 f iV
de donde, por 5.27 y 5.29 , M ( f ; B1 , B2 ) = Q

1 AP

= B.

136

Aplicaciones lineales

Ejemplo 5.31. Si la matriz de un endomorfismo f en R3 es


0
1
1 3
0
0 A
A=@ 1 0
0 1
1
Resuelve este problema
conforme al mtodo
usado en el ejemplo 5.24,
sin usar las matrices de
cambio de base.

respecto a la base cannica, calcula la nueva matriz de f si cambiamos a la


base B = {(1, 1, 0), ( 1, 0, 2), (0, 1, 1)}.

S OLUCIN: Llamemos B a la matriz de f respecto de la base B . La matriz


del cambio de dicha base B a la base cannica es la matriz P
0
1
0
1
1
1 0
2
1 1
1 1 A
P = @ 1 0 1 A =) P 1 = @ 1
0 2 1
2 2
1
Por tanto siguiendo el teorema anterior tenemos B = P
B = 0
P 1AP =
1 0
1 0
2
1
1
1 3
0
1
1 A@ 1 0
0 A@
= @ 1
2
2
1
0 1
1
0
1
10
5
6
@
6
4
3 A
=
11
6
6

2 1 0
1
Ejercicio 5.32. Sea A =
la matriz de
0
3 2 0
B1 = {~v1 , ~v2 , ~v3 , ~v4 } y B2 = {~e1 , ~e2 }. Calcula la matriz de
bases

B 1 = {~v2 , ~v2

~v4 , 2~v1

1 AP,

1
1
0

luego

1
1 0
0 1 A=
2 1

f respecto de las bases


f respecto a las nuevas

3~v2 , ~v3 } y B 2 = {~e2 , ~e1 +~e2 }

5.3. Matrices semejantes y endomorfismos


En el tema anterior hemos visto que si f es una aplicacin lineal entre
espacios vectoriales, las matrices asociadas a f son equivalentes, es decir
B=Q

AP

donde P y Q son matrices de cambio de base en sus respectivos espacios.


En el caso especial de que f sea un endomorfismo V ! V las matrices asociadas son cuadradas, luego las correspondientes matrices, P y Q,
sern del mismo orden. Podemos, incluso pedir que P = Q o, lo que es lo
mismo, el cambio de base sea el mismo en el espacio inicial y en el final.
En este caso, la equivalencia de matrices se denomina semejanza de matrices
que estudiamos con ms detalle a continuacin.

5.3 Matrices semejantes y endomorfismos

137

5.3.1. Matrices semejantes


Definicin 5.33. Decimos que dos matrices cuadradas A y B son semejantes
si existe una matriz regular P tal que
B=P

AP

La relacin de semejanza es una relacin de equivalencia (reflexiva, simtrica y transitiva).


Proposicin 5.34 (Propiedades). Si A y B son matrices semejantes, entonces
1. Tienen el mismo determinante.
Demostracin. det B = det( P

A P) =

1
det P

det A det P = det A.

2. Tienen el mismo rango.


Demostracin. Puesto que se corresponden al mismo endomorfismo, tienen el mismo rango.

3. Tienen la misma traza (suma de los elementos de la diagonal principal).


Demostracin. Primero observamos que tr( AB) = tr( BA), puesto que
tr( AB) =

aij bji = bji aij = tr( BA)


i

Por tanto,
tr B = tr( P

AP) = tr(( AP) P

) = tr A

5.3.2. Endomorfismos diagonalizables


Sea V un espacio vectorial sobre el cuerpo R (o C) y f : V ! V aplicacin lineal (endomorfismo).
Definicin 5.35. Decimos que f es diagonalizable si existe una base de
V para la que la matriz asociada a f sea diagonal.
Si f es diagonalizable y A es su matriz asociada, deben existir una matriz
invertible P de cambio de base y una matriz D diagonal tales que
D=P

1 AP.

Es decir, A debe ser semejante a una matriz diagonal D.


A la matriz P se le suele
En general, una matriz cuadrada A se dice que es una matriz diagonali- llamar matriz de paso.
zable si su endomorfismo asociado es diagonalizable.

138

Aplicaciones lineales

Ejemplos 5.36.
El endomorfismo de R2 definido f ( x1 , x2 ) = (2x1 , x1 + 3x2 ) es diagonalizable, puesto que su matriz A = 20 13 es diagonalizable como
podemos comprobar:

2 0
1
1
2 1
1 1
=
0 3
0 1
0 3
0 1

1
1
1 1
1 0
y el producto

=
.
0 1
0 1
0 1
En cambio el endomorfismo f ( x1 , x2 )= (2x1 ,2x1 + 2x2 ) que, respecto
2 2
a la base cannica, nos da la matriz
no va a ser diagonali0 2
zable, aunque todava no sabemos porqu. Este ser el problema a
estudiar: cundo un endomorfismo es diagonalizable?

5.3.3.

Autovalores y Autovectores

Definicin 5.37. Si f (~x ) = l ~x con ~x 6= ~0, decimos que l es un autovalor o


valor propio y que ~x es una autovector o vector propio asociado a l.
Fijada una base, y representado f por su matriz A, respecto a dicha base,
tenemos que encontrar un vector de coordenadas X 6= 0 tal que
AX = lX () ( A

lI ) X = 0

donde I es la matriz identidad de orden adecuado.


Tenemos, por tanto, un sistema de ecuaciones lineales homogneo que,
como sabemos, tiene soluciones distintas de X = 0 si y slo el determinante
de la matriz del sistema es cero. Dicho de otro modo, el endomorfismo f , a
travs de su matriz A, tiene autovectores si y solo si
det( A

lI ) = 0

que nos da una ecuacin polinmica en l que recibe el nombre de ecuacin caracterstica de A, cuyas soluciones li (autovalores) aseguran que el
sistema ( A li I ) X = 0 tiene soluciones no triviales (autovectores). Al polinomo (de variable l) det( A lI ) se le llama, igualmente, polinomio caracterstico2 .
Proposicin 5.38. Matrices semejantes, por tanto matrices que representan al
mismo endomorfismo, tienen el mismo polinomio caracterstico, por tanto los misTambin tienen los mismos mos autovalores .

autovectores, pero sus


2 Para algunos autores el polinomio caracterstico se define como det( lI
A). Es fcil
coordenadas son distintas
porque estn expresados en comprobar que det( A lI ) = ( 1)n det(lI A), luego cuando la dimensin del espacio
bases distintas. es impar hay un cambio de signo.

5.3 Matrices semejantes y endomorfismos

139

Demostracin. Si A y B son semejantes, entonces


B

lI = P

AP

Luego
det( B

lI ) = det( P

(A

lP = P

(A

lI ) P

lI ) P) = det( A

lI )

Este resultado nos permite identificar los autovalores de un endomorfismo con los autovalores de su matriz sin ambigedad alguna.
Resumiendo, si a es una raz del polinomio caracterstico det( A lI ),
entonces
a es un autovalor de A y
Na = ker( A aI ) es el subespacio de autovectores asociados a a
(junto con el vector ~0, que, como sabemos, no es autovector). Este
subespacio recibe el nombre de subespacio propio asociado al autovalor
a. A una base de este subespacio, se le suele llamar, abusando del
lenguaje, conjunto de autovectores (asociados a a).

2 1
Ejercicio 5.39. Calcula los autovalores y autovectores de las matrices: 1)
0 3

2 2
y 2)
.
0 2
Los autovalores tienen las siguientes propiedades:
Proposicin 5.40. Sea A una matriz cuadrada de orden n, entonces:
1. A y A T tienen los mismos autovalores.
Demostracin. Es cierto puesto que
det( A T

lI ) = det( A T

lI T ) = det( A

lI ) T = det( A

lI )

2. Si l es autovalor de A, entones kl es autovalor de kA.


Demostracin. det(kA
kn 0 = 0

klI ) = det(k ( A

3. Si l es autovalor de A, entones l
Demostracin. det(( A
lI ) = 0

kI )

(l

lI )) = kn det( A

k es autovalor de A
k ) I ) = det( A

kI

lI ) =

kI
lI + kI ) = det( A

140

Aplicaciones lineales

4. Si l es autovalor de A y A es invertible, entonces

1
l

es autovalor de A

1.

Demostracin. Como det A no puede ser cero, obliga a que l 6= 0, luego


1
l est definido. Adems existe X 6 = 0 tal que AX = lX, de aqu que
A
por lo que

1
l

es autovalor de A

X=

1
X
l

1.

5. Si l es autovalor de A, para cada natural k tenemos que lk es autovalor de Ak .


Demostracin. Si k = 0 es evidente. Para k positivo: sabemos que existe
X 6= 0 tal que AX = lX ) A2 X = lAX = l2 X. Luego l2 es autovalor
de A2 , siguiendo este razonamiento las veces necesarias tenemos que lk
es autovalor de Ak . Para k negativo se prueba a partir de la propiedad
nmero 4 anterior.

5.4. Teorema de diagonalizacin


Teorema 5.41. Los autovectores asociados a autovalores diferentes son linealmente
independientes.
Demostracin. Supongamos que ~x y ~y autovalores asociados a l1 y l2 respectivamente, con l1 6= l2 .
Razonemos por reduccin al absurdo. Supongamos que ~x, ~y son linealmente dependientes, entonces podemos expresar ~x = a~y, y, como son autovalores, tenemos:
f (~x ) = l1~x
f (~x ) = f (a~y) = al2~y = l2~x
por tanto, l1~x = l2~x ) (l1 l2 )~x = ~0. Como ~x es autovector (no puede
ser cero) tenemos que l1 = l2 que es una contradiccin.

Corolario 5.42. Si un endomorfismo en un espacio vectorial de dimensin n tiene


n autovalores distintos, entonces es diagonalizable.
Demostracin. Efectivamente, por cada autovalor distinto podemos elegir
un autovector independiente de los dems. Esto nos lleva a que podemos
construir una base B de autovectores. La matriz del endomorfismo respecto a esta base B es diagonal, puesto que f (~vi ) = li~vi , que expresados en
coordenadas, nos da una matriz diagonal.

5.4 Teorema de diagonalizacin

141

Como hemos visto, si B = {~v1 , ~v2 , . . . , ~vn } es una base formada por
autovectores con sus respectivos autovalores l1 , l2 , . . . , ln , entonces:
0
B
B
B
@

l1 0 . . . 0
0 l2 . . . 0
..
.. . .
.
. ..
.
.
0 0 . . . ln

0
1
C
C @
v1 v2 v n A
C=
A

A @ v1 v2 v n A

donde vi (sin flechita) representa la columna de la matriz formada por


las coordenadas del vector ~vi .
Nota. Obsrvese que las columnas de la matriz de paso son los autovectores en el mismo
orden que los autovalores ocupan en la diagonal principal de la matriz D.

Ejemplo 5.43. Vamos a diagonalizar el endomorfismo A =

5 4
1 2

Ecuacin caracterstica:
det( A

lI ) =

l
1

= l2

7l + 6 = 0

Resolviendo la ecuacin anterior, obtenemos los autovalores:


l1 = 1

l2 = 6

Y para cada autovalor, calculando ker( A


pacios propios:

Para l1 = 1

Para l2 = 6

4 4
1 1
1
1

4
4

x1
x2

lI ), obtenemos los subes-


0
=
) N1 = L{(1, 1)}
0

x1
0
=
) N6 = L{(4, 1)}
x2
0

Diagonalizacin:

1 0
0 6

1/5
1/5

4/5
1/5

5 4
1 2

1 4
1 1

5.4.1. Multiplicidad algebraica y geomtrica


No siempre un endomorfismo en un espacio de dimensin n tiene exactamente n autovalores distintos. Esto no implica que no sea diagonalizable.
Bajo ciertas condiciones se puede diagonalizar.

142

Aplicaciones lineales

Factorizacin de un polinomio
Si un polinomio p tiene a li 2 K como raz, sabemos que se puede
expresar de la forma p(l) = (l li )q1 (l), donde q1 es otro polinomio.
Puede ocurrir que li siga siendo raz de q1 , entonces se puede repetir el
razonamiento. Existir, entonces, un nmero mximo mi de veces para lo
que esto ocurre, quedando p factorizado de la forma
p(l) = (l

En el cuerpo de los
nmeros reales no todos
los polinomios son
factorizables. No ocurre
as en en el cuerpo de los
nmeros complejos que es
algebraicamente cerrado
(vase Teorema 2.71).

l i ) mi q mi ( l )

A este nmero mi se le llama multiplicidad de la raz li .


Decimos, adems, que un polinomio p(l) se puede factorizar en K si se
puede expresar de la forma
p(l) = a(l

l 1 ) m1 . . . ( l

l r ) mr

con li 2 K races de p y mi 2 Z + sus respectivas multiplicidades.


Definicin 5.44. Dado un autovalor li de un endomorfismo, llamaremos:
Multiplicad algegraica de li al nmero mximo de veces mi que es
raz del polinomio caracterstico p(l) = det( A lI ).
Multiplicidad geomtrica de li a la dimensin de su subespacio propio dim Nli = dim ker( A li I ).
El siguiente resultado lo damos sin demostracin.
Proposicin 5.45. La multiplicidad geomtrica de un autovalor siempre es menor
o igual que su multiplicidad algebraica.

5.4.2.

Teorema fundamental

Teorema 5.46. Un endomorfismo f es diagonalizable en K si y slo si se satisfacen


las condiciones siguientes:

La primera condicin de este


teorema siempre se cumple
para espacios vectoriales
complejos. En cambio, en
espacios vectoriales reales no
la tenemos garantizada.

1. El polinomio caracterstico de f se puede factorizar en K, es decir, si A es


cualquier matriz de f , entonces
det( A

lI ) = ( 1)n (l

l 1 ) m1 . . . ( l

l r ) mr

2. Para cada autovalor li (i = 1, . . . , r ) la multiplicidad algebraica coincide


con la multiplicidad geomtrica, es decir, mi = dim Nli .

5.4 Teorema de diagonalizacin

143

Demostracin. Para probar este teorema basta observar que por comparacin de grados de polinomios se tiene m1 + m2 + + mr = n. Entonces para cada li podemos elegir mi vectores independientes por ser dim Nli = mi .
Como los autovectores de autovalores distintos son todos independientes (ver teorema 5.41 anterior), uniendo todos los autovectores conseguimos n vectores independientes, y por tanto, una base de V formada por
autovectores.

Ejemplo 5.47. Pretendemos diagonalizar la siguiente matriz.


0

2
A=@ 2
1

2
1
2

1
3
6A
0

Comenzamos calculando el polinomio caracterstico:


det( A

lI ) =

l3

l2 + 21l + 45 =

( l + 3)2 ( l

5)

De donde obtenemos sus autovalores y sus multiplicidades algebraicas: l1 = 3 (m1 = 2) y l2 = 5 (m2 = 1).
Que nos permiten calcular los autovectores, ms concretamente los
subespacios propios:
N

= L ({( 2, 1, 0), (3, 0, 1)}) y N5 = L ({( 1, 2, 1)})

Y, por ltimo, por el teorema 5.46, sabemos que se puede diagonalizar


0

3 0
@ 0
3
0
0
0
1/4
= @ 1/8
1/8

1
0
0 A=
5

10
1/2 3/4
2
1/4 5/8 A @ 2
1/4 3/8
1

2
1
2

10
3
2 3
6 A@ 1 0
0
0 1

Ejercicio 5.48. Diagonaliza, si es posible, la siguiente matriz


0

1
@ 12
6

3
1
3

1
3
6A
2

1
1
2 A
1

144

Aplicaciones lineales

5.5. Algunas aplicaciones de la diagonalizacin de endomorfismos


5.5.1.

Clculo de potencias y matriz inversa

Podemos usar una matriz diagonalizada para calcular sus potencias.


0
1
l1 0 . . . 0
B 0 l2 . . . 0 C
B
C
Si A es diagonalizable con D = P 1 AP = B .
.. . .
.. C se tiene
@ ..
.
.
. A
0 0 . . . ln
que

Am = PDP

= PD m P

m veces

z
}|
{
= ( PD P 1 )(
P D P 1 ) (
P DP 1 ) =
0 m
1
l1
0 ... 0
B 0 lm . . . 0 C
2
B
C 1
= P B ..
..
.. C P
..
@ .
.
.
. A

. . . lm
n

Clculo de la matriz inversa


Si una matriz A est diagonalizada y es invertible, tenemos una forma
alternativa de calcular la matriz inversa. As
A = PDP

() A

= PD

Adems el polinomio caracterstico nos da el valor del determinante.


Proposicin 5.49. El determinante de una matriz coincide con el trmino independiente de su polinomio caracterstico, que coincide con el producto de los autovalores (repitiendo cada valor segn su multiplicidad algebraica).
Demostracin. Efectivamente, si det( A lI ) = an ln + + a1 l + a0 es el
polinomio caracterstico, haciendo l = 0 en esta ecuacin tenemos det( A) =
a0 .
Adems como los autovalores li son las races del polinomio caracterstico, se tiene adems que det( A lI ) = (l1 l)(l2 l) (ln l) y
de aqu que a0 = l1 l2 ln .

La traza de una matriz tambin viene reflejada en el polinomio caracterstico. La Proposicin 5.34, pgina 137, en su punto 3 nos justifica la siguiente.

5.5 Aplicaciones de la diagonalizacin

145

Proposicin 5.50. La traza de una matriz cuadrada de orden n es el coeficiente


del trmino de grado n 1 del polinomio caracterstico multiplicado por ( 1)n 1 ,
que coincide con la suma de sus autovalores (repitiendo cada autovalor segn su
multiplicidad algebraica).
Resumiendo, el polinomio caracterstico det( A
an 1 ln 1 + + a0 , verifica:

lI )

= an ln +

a0 = l1 l2 ln = det A.
an

= ( 1) n

1 (l

+ l2 + + l n ) = ( 1) n

1 tr

A.

a n = ( 1) n .

Ejercicio 5.51. Comprueba las anteriores proposiciones 5.49 y 5.50 en las matrices
que hemos diagonalizado hasta ahora.

2 2
3
2 1
6
Ejemplo 5.52. Veamos la inversa de la matriz A =
diagonali1

2 0

zada en el ejemplo 5.47 . Observemos que es invertible por varios motivos,


por ejemplo, det A = a0 = 45 6= 0, o bien, observando que sus autovalores
son todos distintos de cero. Su inversa ser entonces:
A

= PD

Por tanto
A

2 3
=@ 1 0
0 1
0

B
B
B
=B
B
@

4
15
2
15
1
15

10 1
1
3
2A @ 0
1
0
2
15
1
15
2
15

1
5
2
5
2
15

1
3

0
1

10
0
0A @
1
5

1/4
1/8
1/8

1
1/2 3/4
1/4 5/8 A
1/4 3/8

C
C
C
C
C
A

5.5.2. Teorema de Cayley-Hamilton


El polinomio caracterstico, entendiendolo sobre el anillo de las matrices cuadradas complejas, tiene una propiedad curiosa, y es que admite como raz a la propia matriz que lo define. Esto es conocido como teorema de
Cayley-Hamilton y omitimos la demostracin.

146

Aplicaciones lineales

Teorema 5.53 (Cayley-Hamilton). Toda matriz cuadrada en C es raz de su polinomio caracterstico. Es decir, si p(l) = det( A lIn ) = an ln + + a1 l + a0
entonces
p( A) = an An + + a1 A + a0 In = 0n
El anterior teorema nos permite:
1. Calcular la potencia ensima de A a partir de las potencias anteriores
de A
1
An =
( an 1 An 1 + + a1 A + a0 In )
an
2. Si A invertible, det A = a0 6= 0, y
A

1
( an An
a0

+ + a1 In )

1
2 2
3
1
6A, conocido su polinoEjemplo 5.54. Para la matriz A = @ 2
1
2 0
mio caracterstico det( A lI ) = l3 l2 + 21l + 45 tenemos una forma
de calcular la inversa:
A3
luego

20

1 6@
4
45
0

B
B
B
= B
B
@

5.5.3.

4
15
2
15
1
15

A2 + 21A + 45I = 0) A( A2 + A

2
2
1

2
1
2
2
15
1
15
2
15

12 0
3
6 A +@
0

1
5
2
5
2
15

2
2
1

2
1
2

21I ) = 45I

1
3
6 A
0

13
1 0 0
7
21 @0 1 0A5 =
0 0 1
0

C
C
C
C
C
A

Exponencial de una matriz

En algunas aplicaciones3 , se hace necesaria calcular la exponencial de


una matriz que generaliza la funcin exponencial e x .
Si A es una matriz cuadrada, real o compleja, se define su exponencial
e A como:
3 Por

ejemplo, en los sistemas de ecuaciones diferenciales.

5.5 Aplicaciones de la diagonalizacin


e A = exp( A) = i=0 i!1 Ai = In + A1 +

147
1 2
2! A

1 3
3! A

+ + i!1 Ai + . . .

Nota. Cuando existe una potencia que anula la matriz (se dice que A es nilpotente) el

clculo de la exponencial se realiza en un nmero finito de pasos. Pero esto no tiene porqu
ocurrir, por lo que el clculo de la exponencial requerira un proceso de lmite.

Si una matriz es diagonalizable se pueden evitar los lmites para el


clculo de su exponencial. As, si A = PDP 1 , entonces
!
i

1 i
1
1 i
A
1
e = A =
PDP
= P D P 1 = P eD P 1
i!
i!
i!
i =0
i =0
i =0
y, por tanto, si podemos calcular e D , tenemos e A .
Ahora bien, como ya hemos visto, si D es una matriz diagonal, sus potencias se trasladan a la diagonal, es decir, para cada i tenemos
1
0
1i 0 i
d1
0 ... 0
d1 0 . . . 0
C
@ 0 d2 . . . 0 A = B
@ 0 d2 i . . . 0 A
0 0 . . . dn
0
0 . . . dn i
0

1
e1d 0 . . . 0
luego, e D = @ 0 e2d . . . 0 A.
0 0 . . . end

Ejemplo 5.55. Vamos a calcular exp

2 2
3
2 1
6
1 2 0

Como la matriz del exponente es diagonalizable, ya resuelta en el ejemplo 5.47, siguiendo lo anterior, tenemos
0
1
2 2
3
1
6A =
exp@ 2
1
2 0
0
1
0
10
1
2 3
1
3 0 0
1/4
1/2 3/4
2 A exp @ 0
3 0A @ 1/8
1/4 5/8 A =
=@ 1 0
0 1 1
0
0 5
1/8
1/4 3/8
0

B
B
B
=B
B
B
@

e8 + 7
8
e8 1
4
e8 1
8

e8 1
4
e8 + 1
2
e8 1
4

3e8 3
8
3e8 3
4
3e8 + 5
8

1
C
C
C
C
C
C
A

A continuacin exponemos algunas de las propiedades de la exponencial de una matriz.

148

Aplicaciones lineales

Proposicin 5.56 (Propiedades de la exponencial).


1. e0n = In .
2. Si l, 2 K, entonces elA + eA = e(l+) A .
3. La exponencial de una matriz siempre en invertible, y adems

Si AB 6= BA puede ser
e A e B 6= e A+ B .

eA

=e

4. Si AB = BA entonces e A e B = e B e A = e A+ B .
5. Si m 2 Z entonces emA = e A

6. Para cualquier matriz cuadrada A se tiene


e( A

T)

T
= eA

luego, si A es simtrica, e A es simtrica y, si A es antisimtrica, e A es ortogonal.


7. Relacin determinante-traza: det e A = etr A .

Ejercicios Propuestos
Ej. 5.1 De las siguientes aplicaciones de R3 en R3 cules son aplicaciones lineales? Encuentra el ncleo y la imagen de las que lo sean.
1. Sea l 2 R fijo. Consideramos la aplicacin f 1 (~x ) = l~x con ~x 2 R3
2. f 2 (~x ) = ( x1 , 1, x2 ) siendo ~x = ( x1 , x2 , x3 )
3. f 3 ( x1 , x2 , x3 ) = ( x1 + x2 + x3 , x1 + x2 , x3 )
Ej. 5.2 Dada la aplicacin lineal f : R3 ! R2 definida por f (1, 3, 5) =
(1, 0), f (0, 1, 1) = (1, 0) y f (0, 0, 1) = (0, 0)
1. Halla la matriz en las bases cannicas.
2. Halla las ecuaciones del subespacio transformado del subespacio U
dado por las ecuaciones

x1 + x2 x3 = 0
x2 x3 = 0
Ej. 5.3 Determina la aplicacin lineal f : R3 ! R2 que satisface que
ker f = {( a, b, c) | a + b = 0} y f (0, 1, 1) = (1, 1). Determina tambin
su imagen.

5.5 Aplicaciones de la diagonalizacin

149

Ej. 5.4 Dado el homomorfismo de R2 en R3 definido por f ( x, y) = ( x +


y, x y, x + 2y), halla la matriz de f respecto de las bases {(1, 2), (2, 0)} de
R2 y {(1, 0, 0), (0, 2, 0), (0, 0, 3)} de R3 .
Ej. 5.5 Sea f : R3 ! R3 la aplicacin lineal
f ( x1 , x2 , x3 ) = ((l

2) x1 + 2x2

x3 , 2x1 + lx2 + 2x3 , 2lx1 + 2(1 + l) x2 + (1 + l) x3 )

1. Encuentra la matriz asociada a f en la base cannica y su rango segn los valores de l.


2. Los conjuntos Im f y ker f .
Ej. 5.6 En R3 define dos bases y encuentra la matriz asociada al endomorfismo
f ( x, y, z) = ( x + y, y + z, x + 2y + z)
a cada una de ellas. Halla la relacin existente entre ellas.
Ej. 5.7 Si U y W son dos subespacios suplementarios de un espacio vectorial V, demuestra que V es isomorfo al espacio vectorial producto U W.
Encuentra un isomorfismo entre ellos.
Ej. 5.8 Encuentra un endomorfismo en R2 que cumpla:
1. La imagen y el ncleo de f coincidan.
2. La imagen y el nucleo de f sean subespacios suplementarios.
Ej. 5.9 Sea f el endomorfismo cuya matriz respecto de la base {e1 , e2 }
es

2
3
A=
3 2

Determina la matriz A0 que corresponde a dicho endomorfismo en otra


base {u1 , u2 } dadappor
p
2 u1 = e1 + e2 ,
2 u2 = e2 e1
Ej. 5.10 Sea f : R2 ! R2 una aplicacin lineal y B1 , B10 , B2 y B20 bases de
R2 . Si

1 0
0
0
M( f , B1 , B2 ) = M( f , B1 , B2 ) =
1 1
y, respecto de la base B1 los vectores de B10 son (1, 2) y (2, 1), determina la
matriz de cambio de base de B2 en B20 .
Ej. 5.11 Calcula, para la siguiente matriz
0
1
4 1
1
2 A
A=@ 2 5
1 1 2

150

Aplicaciones lineales

1. El polinomio caracterstico de A.
2. Los valores propios de A.
3. Un conjunto mximo de vectores propios linealmente independientes.
4. Es diagonalizable A? En caso afirmativo, halla P para que P
sea diagonal.
5. Calcula A4 , A

1 AP

y eA.

Ej. 5.12 Lo mismo que el ejercicio 5.11 para la siguiente matriz


0

2
A=@ 2
2

1
6
3 A
1

2
1
1

Ej. 5.13 Discute, segn los parmetros, si la siguiente matriz es diagonalizable y localiza, si lo es, una base de R3 en la que f tenga asociada una
matriz diagonal.
0

1
@ 0
0

1
2 a
A,
a
1

2
1
0

Ej. 5.14 Igual que el ejercicio 5.13 anterior para la matriz


0

1
2
6
4 4 a A
a
a

2
@ 0
0

Ej. 5.15 Encuentra, si existe, una matriz real de orden 3 que no sea diagonal pero s sea diagonalizable y que sus autovalores cumplan:
1. El nico autovalor sea l =

1.

2. Un autovalor doble l1 = 0 y otro autovalor l2 = 1.


Ej. 5.16 Calcula A3 + 4A2 + 4A + I2 , sabiendo que A es una matriz semejante a la matriz diagonal
D=

2
0

0
2

5.5 Aplicaciones de la diagonalizacin

151

Ej. 5.17 Sea f : R3 ! R3 el endomorfismo que admite los autovalores


l1 = 1, l2 = 2 y l3 = 1 y que tiene por vectores propios a los (1, 1, 1),
(0, 1, 2) y (1, 2, 1) respectivamente. Obtngase la matriz asociada a f respecto de la base cannica de R3 .
Ej. 5.18 Sabiendo que f : R3 ! R3 es un endomorfismo diagonalizable que tiene como vectores propios ( 1, 2, 2), (2, 2, 1) y (2, 1, 2) y que
f (5, 2, 5) = (0, 0, 7). Halla los autovalores de f y su ecuacin (expresin
analtica) en la base cannica.
Ej. 5.19 Escribe una matriz cuadrada regular de orden 3 y comprueba
que se cumple el teorema de Cayley-Hamilton. Utiliza dicho resultado para
encontrar la matriz inversa.
Ej. 5.20 Determina (sin calcular a, b, c, p, q y r) los valores propios de la
matriz
0
1
a b c
@ 1 2
1 A
p q r
sabiendo que admite como vectores propios: ~v1 = (1, 1, 0), ~v2 = (0, 1,
y ~v3 = ( 1, 1, 2). Determina despus los valores de a, b, c, p, q y r.

1)

TEMA 6
FORMAS BILINEALES Y
PRODUCTO ESCALAR

ndice
6.1.

Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . 154


6.1.1. Representacin matricial de una forma bilineal . 155
6.1.2. Formas multilineales reales . . . . . . . . . . . . 158
6.2. Formas cuadrticas . . . . . . . . . . . . . . . . . . . . . . 159
6.2.1. Representacin matricial de una forma cuadrtica161
6.2.2. Clasificacin . . . . . . . . . . . . . . . . . . . . . 161
6.3. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . 162
6.3.1. Norma de un vector . . . . . . . . . . . . . . . . 163
6.3.2. Ortogonalidad . . . . . . . . . . . . . . . . . . . . 166
6.3.3. Orientacin de un espacio vectorial eucldeo . . 170
6.3.4. Producto vectorial . . . . . . . . . . . . . . . . . 171
6.3.5. Aplicaciones ortogonales . . . . . . . . . . . . . . 173
6.4. Subespacios ortogonales . . . . . . . . . . . . . . . . . . . 174
6.4.1. Proyecciones ortogonales . . . . . . . . . . . . . 176
6.5. Diagonalizacin ortogonal . . . . . . . . . . . . . . . . . 179
6.5.1. Endomorfismos ortogonales . . . . . . . . . . . . 179
6.5.2. Diagonalizacin de matrices simtricas . . . . . 182
6.6. Diagonalizacin de formas cuadrticas . . . . . . . . . . 183
6.6.1. Mtodo de los autovectores . . . . . . . . . . . . 184
6.6.2. Mtodo de Lagrange . . . . . . . . . . . . . . . . 184
6.6.3. Clasificacin por invariantes . . . . . . . . . . . . 189
Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . 192

153

154

Formas bilineales y Producto escalar

6.1. Formas bilineales


Hasta ahora hemos visto aplicaciones lineales entre espacios vectoriales V y E ambos sobre un mismo cuerpo R. Ahora bien, R es tambin un
espacio vectorial (sobre s mismo) de dimensin 1.Las aplicaciones lineales
f : V ! R reciben el nombre de formas lineales (o 1-formas).
Ejercicio 6.1. De qu orden es la matriz de una forma lineal definida sobre un
espacio vectorial de dimensin n?
Podemos extender este concepto a funciones con ms de una entrada. Si
V y E son espacios vectoriales, y una funcin f : V V ! E es lineal para
cada una de las entradas, se dice que f es una aplicacin bilineal. Si adems E = R, entonces se dice que es una forma bilineal. Damos la definicin
explcita.
Una forma es bilineal si
tiene dos entradas de
vectores y, fijada una de
ellas, la forma que queda
es lineal, es decir, para
cada vector ~x0 2 V
obtenemos dos formas
lineales
f~x0 : V
~x

!
!

R
f (~x0 , ~x )

f ~x0 : V
~x

!
!

R
f (~x, ~x0 )

Definicin 6.2. Sea V un espacio vectorial de dimensin n sobre R. Una


forma bilineal es una funcin f : V V ! R tal que para cualquier combinacin lineal ik=1 li~vi de vectores de V se tiene:
1. f (ik=1 li~vi , ~y) = ik=1 li f (~vi , ~y) para cada ~y 2 V.

2. f (~x, ik=1 li~vi ) = ik=1 li f (~x, ~vi ) para cada ~x 2 V.

Ejemplo 6.3. La funcin f : R3 R3 ! R definida analticamente


f (( x1 , x2 , x3 ), (y1 , y2 , y3 )) = x1 y2

x2 y3

es una forma bilineal, puesto que, si fijamos el vector ~x0 = ( a, b, c), las
funciones
f~x0 (y1 , y2 , y3 ) = ay2

by3

f ~x0 ( x1 , x2 , x3 ) = bx1

cx2

son formas lineales.


Definicin 6.4. Una forma bilineal f : V V ! R se dice que es:
Simtrica, si f (~x, ~y) = f (~y, ~x ) para cada para de vectores ~x e ~y.
A las formas bilineales
(especialmente a las
antisimtricas) tambin se
les llama 2-formas.

Antisimtrica, si f (~x, ~y) =

f (~y, ~x ) para cada para de vectores ~x e ~y.

Veamos que las formas bilineales antisimtricas quedan caracterizadas


por las imgenes de los pares (~x, ~x ):
Proposicin 6.5. Una forma bilineal f definida en V es antisimtrica si y solo si
f (~x, ~x ) = 0 para cada ~x 2 V.

6.1 Formas bilineales

155

Demostracin. Si f es antisimtrica f (~x, ~x ) = f (~x, ~x ) luego f (~x, ~x ) = 0.


Inversamente, supongamos que f (~x, ~x ) = 0, para todo vector ~x, entonces

~ , ~v + w
~ ) = f (~v, w
~ ) + f (~
0 = f (~v + w
w, ~v)

luego f es antisimtrica.

Ejercicio 6.6. Usa la proposicin anterior para encontrar lo valores del parmetro a para la siguiente forma bilineal en R2 es antisimtrica.
f (( x1 , x2 ), (y1 , y2 )) = ax1 y1 + 3x1 y2

2x2 y1

6.1.1. Representacin matricial de una forma bilineal


Sea f una forma bilineal definida en un espacio V de dimensin finita
n y sea B = {~e1 , ~e2 , . . . , ~en } una base de V. Tenemos
!
n

i =1

j =1

f (~x, ~y) = f ( xi~ei , y j~e j ) =

i =1

j =1

xi f (~ei ,~e j )y j

= xi f (~ei , ~e j )y j
i,j

que matricialmente se puede expresar del siguiente modo

f (~x, ~y) = x1 x2 . . . xn

f (~e1 , ~e1 )
B f (~e2 , ~e1 )
B
B
..
@
.

f (~en , ~e1 )

f (~e1 , ~e2 ) . . .
f (~e2 , ~e2 ) . . .
..
.
f (~en , ~e2 ) . . .

10 1
f (~e1 , ~en )
y1
B y2 C
f (~e2 , ~en ) C
CB C
C B .. C
..
A@ . A
.

f (~en , ~en )

yn

por tanto, continuando con la notacin habitual, si X e Y son las matrices


columnas formadas por las coordenadas de los vectores ~x e ~y, respectivamente, una forma bilineal se puede escribir de una manera compacta como
f (~x, ~y) = X T A Y.
Y a la matriz A se le denomina matriz de la forma bilineal f respecto de la
base B .
Ejercicio 6.7. Sea f : R2 R2 ! R la forma bilineal
f (( x1 , x2 ), (y1 , y2 )) = 2x1 y1
Determina la matriz de f respecto a las bases:

3x1 y2 + x2 y2

156

Formas bilineales y Producto escalar

1. Cannica.

2. B = {(1,

1), (3,

2)}

Formas bilineales degeneradas


Una forma bilineal se anula cuando una de las entradas es el vector ~0,
veamos
f (~x,~0) = f (~x,~0 + ~0) = f (~x,~0) + f (~x,~0) ) f (~x,~0) = 0
anlogamente, f (~0, ~y) = 0.
Pero tambin puede ocurrir que f (~x, ~y) se anule siendo ~x e ~y vectores
distintos de cero.
El vector ~x0 es degenerado
para f cuando alguna de
las formas lineales f~x0 o
f ~x0 es nula (vase
Definicin 6.2 y
Ejemplo 6.3).

Definicin 6.8. Decimos que un vector ~x0 6= ~0 es degenerado para la forma


bilineal f si f (~x0 , ~y) = 0 para cada ~y 2 V o bien f (~x, ~x0 ) = 0 para cada
~x 2 V.
Ejercicio 6.9. Encuentra una forma bilineal en R2 que tenga un vector degenerado.
Definicin 6.10. Se dice que una forma bilineal f es degenerada si posee
algn vector degenerado. Por tanto, una forma bilineal es no degenerada si
cumple las dos condiciones siguientes (ambas)
Para todo ~x, f (~x, ~y) = 0 =) ~y = ~0
Para todo ~y, f (~x, ~y) = 0 =) ~x = ~0
Ejercicio 6.11. Determina si la forma bilineal f del ejemplo 6.3 es o no es degenerada.
Podemos clasificar las formas bilineales por su matriz, como vemos en
el siguiente teorema.
Teorema 6.12. Sea f una forma bilineal definida sobre un espacio vectorial finito
y A su matriz respecto a alguna base, entonces
1. f es simtrica si y solo si A es simtrica, es decir, A = A T .
2. f es antisimtrica si y solo si A es antisimtrica, es decir, A =

AT .

3. f es degenerada si y solo si A es singular, es decir det A = 0


Demostracin. Las dos primeras equivalencias son triviales y se dejan como
ejercicio. Veamos la tercera equivalencia.
Supongamos que f es degenerada, o sea, existe ~x0 6= ~0 de forma que
f (~x, ~x0 ) = 0 (o bien f (~x0 , ~x ) = 0) para cualquier vector ~x. Esto se traduce
en que
X T AX0 = 0 para alguna matriz columna X0 6= 0

6.1 Formas bilineales

157

y esto ocurre para cualquier X, por tanto la matriz columna AX0 tiene que
ser 0. Luego el sistema homogneo AX = 0 es (compatible) indeterminado,
por tanto, como sabemos, det A = 0.
Inversamente, si det A = 0, el sistema de AX = 0 tiene solucin X0 distinta de 0, por tanto X T ( AX0 ) = 0, que significa f (~x, ~x0 ) = 0 para cualquier
vector ~x, es decir, f es degenerada.

Clasificacin por el signo


Definicin 6.13 (Formas definidas). Una forma bilineal f se dice
Definida positiva si f (~x, ~x ) > 0 para todo ~x 6= ~0.
Definida negativa si f (~x, ~x ) < 0 para todo ~x 6= ~0.
Proposicin 6.14. Las formas bilineales definidas (positiva o negativa) son no
degeneradas.
Demostracin. Si f es degenerada existe ~x0 6= ~0 y f (~x0 , ~x ) = 0 para cada
vector ~x 2 V, entonces f (~x0 , ~x0 ) = 0, que contradice que f sea definida.
Definicin 6.15 (Formas semidefinidas). Una forma bilineal f es
Semidefinida positiva si f (~x, ~x )
va.

0 para todo ~x y no es definida positi-

Semidefinida negativa si f (~x, ~x ) 0 para todo ~x y no es definida negativa.


Proposicin 6.16. Las formas bilineales semidefinidas (positiva o negativa) son
degeneradas.
Demostracin. Evidente.

El resto de las formas bilineales reales no tienen signo, as:


Definicin 6.17 (Formas indefinidas). Una forma bilineal f es indefinida si
existen ~x, ~y 2 V con f (~x, ~x ) > 0 y f (~y, ~y) < 0.
Nota. Las formas bilineales indefinidas pueden ser degeneradas o no degeneradas.
Ejercicio 6.18. Da ejemplos de formas bilineales reales en R2 que sean definidas,
semidefinidas e indefinidas.

158

Formas bilineales y Producto escalar

Matrices definidas y semidefinidas


Diremos que una matriz cuadrada A es definida positiva si la forma
bilineal que define es definida positiva. Es decir,
X T AX > 0 para cada X 6= 0
Anlogamente para matriz definida negativa, semidefinida positiva y semidefinida negativa.
Cambio de base
Proposicin 6.19. Sea f una forma bilineal y sean B1 y B2 dos bases distintas de
V. Si A y B son las matrices de f asociadas a las bases B1 y B2 , respectivamente,
entonces existe una matriz invertible P tal que
B = P T AP
La congruencia de
matrices es una relacin
de equivalencia en el
conjunto de las matrices
cuadradas. Es un caso
particular de la
equivalencia de matrices,
puesto que existe una
matriz Q de forma que
P T = Q 1 , pero es distinta
de la semejanza.

(6.1)

Las matrices A y B que se relacionan mediante (6.1) se dice que son


congruentes.
Demostracin. Sea P la matriz del cambio de base de B2 a B1 . Dados dos
b respecto a B2 ,
beY
vectores ~x e ~y con coordenadas X e Y respecto a B1 y X
b entonces
b e Y = PY,
tenemos X = P X
B

z }| {
b) = X
b=X
b
b ) T A ( PY
b T ( P T AP) Y
b T BY
f (~x, ~y) = X AY = ( P X
T

de donde B = P T AP.

Ejercicio 6.20. Comprueba que las matrices de la aplicacin bilineal obtenidas en


el ejercicio 6.7 son congruentes.

6.1.2.

Formas multilineales reales

El concepto de forma bilineal se extiende a ms de dos entradas, as


Definicin 6.21. Llamamos forma multilineal (de orden m) a una aplicacin
m veces
f : V V ! R que es lineal en cada una de las m entradas, es decir
en cada entrada i = 1, . . . , m
f (~x1 , . . . , ak~xik , . . . , ~xm ) =
k

ak f (~x1 , . . . , ~xi , . . . , ~xm ).


k

El equivalente a las formas bilineales antisimtricas son las llamadas


formas multilineales alternadas.

6.2 Formas cuadrticas

159

Definicin 6.22. Una forma multilineal f es alternada, si para cualesquiera


i, j se tiene
Es decir, permutando dos
f (~x1 , . . . , ~xi , . . . , ~x j , . . . , ~xm ) =

entradas, la forma cambia


de signo.

f (~x1 , . . . , ~x j , . . . , ~xi , . . . , ~xm )

Teorema 6.23. Dada una base ordenada {~e1 , ~e2 , . . . .~en } de un espacio vectorial V,
existe una nica forma multilineal alternada D de orden n que verifica
D (~e1 , ~e2 , . . . , ~en ) = 1
A dicha n-forma se le llama determinante.
As, si ~x1 , ~x2 , . . . , ~xn son vectores de V, expresadas sus coordenadas respecto a la base B del teorema anterior en la siguiente matriz cuadrada
M = x1 x2 . . . xn formada por las coordenadas de los vectores puestos en columna, se tiene
D (~x1 , . . . , ~xn ) = det x1 x2 . . . xn
De la definicin y del teorema anterior se derivan todas las propiedades
que conoces de los determinantes.

6.2.

Formas cuadrticas

Definicin 6.24. Sea V un espacio vectorial real de dimensin n. Una forma


cuadrtica es una funcin q : V ! R que verifica
1. q(l~x ) = l2 q(~x )

8l 2 R, ~x 2 V

2. La funcin f q : V V ! R definida
f q (~x, ~y) =

1
(q(~x + ~y)
2

q(~x )

q(~y))

es una forma bilineal que recibe el nobre de forma polar asociada a la


forma cuadrtica.
Es fcil comprobar que la forma polar f q es simtrica. Efectivamente,
Demostracin.
1
(q(~x + ~y)
2
= f q (~y, ~x )

f q (~x, ~y) =

q(~x )

q(~y)) =

1
(q(~y + ~x )
2

q(~y)

q(~x )) =

160

Formas bilineales y Producto escalar

Equivalentemente, si f es una forma bilineal simtrica, entonces q(~x ) =


f (~x, ~x ) es una forma cuadrtica, tal que f q = f .
Demostracin. Efectivamente,
1
f q (~x, ~y) = ( f (~x + ~y, ~x + ~y) f (~x, ~x ) f (~y, ~y)) =
2
1
= ( f (~x, ~x ) + f (~x, ~y) + f (~y, ~x ) + f (~y, ~y) f (~x, ~x )
2
1
= ( f (~x, ~y) + f (~y, ~x )) =
2
= f (~x, ~y).
Ejemplo 6.25. La funcin q :

R3

! R definida

q( x1 , x2 , x3 ) = 2x12

x22

3x2 x3

x1 x3

f (~y, ~y)) =

es una forma cuadrtica. Vamos a comprobarlo:


1. q(l~x ) = q(lx1 , lx2 , lx3 ) = 2(lx1 )2
l2 q(~x )

(lx2 )2 =

3lx2 lx3

lx1 lx3

2. Veamos su forma polar:


f q (( x1 , x2 , x3 ), (y1 , y2 , y3 )) =

2 ( x1 + y1 )2
2x12

3 ( x2 + y2 ) ( x3 + y3 )

( x1 + y1 ) ( x3 + y3 )
3x2 x3

x1 x3

2
2y21

x22

y1 y3

( x2 + y2 )2

y22

3y2 y3

2
2
que, simplificando, queda una expresin analtica de una forma bilineal
f q (( x1 , x2 , x3 ),(y1 , y2 , y3 )) =
1
=2x1 y1
x1 y3
2
claramente simtrica.

3
x2 y3
2

x2 y2

1
x3 y1
2

3
x3 y2
2

Ejemplo 6.26. Las formas cuadrticas en R son todas de la forma q( x ) =


ax2 y en R2 son de la forma q( x, y) = ax2 + bxy + cy2 . En ambos casos se
pueden dibujar. Aqu tenemos algn ejemplo.

20

10
5

10
2

0
2

0
3

q( x ) =

3x2

0
1

q( x, y) =

x2

y2

2
2

q( x, y) =

0
1

2x2

xy

y2

6.2 Formas cuadrticas

161

6.2.1. Representacin matricial de una forma cuadrtica


Si fijamos una base B obtenemos una matriz cuadrada de orden n que
representa la forma polar A, es decir, f q (~x, ~y) = X T AY. Esta misma matriz
A (simtrica) representa a la forma cuadrtica (respecto de la base B ).
Definicin 6.27. Dada una forma cuadrtica q definida en V llamamos matriz de q respecto de una base B a la matriz de la forma polar de q respecto de
dicha base.
Por tanto, fijada una base del espacio V una forma cuadrtica toma la
expresin matricial
q(~x ) = X T AX
siendo A una matriz simtrica que corresponde a la forma cuadrtica q.
Ejemplo 6.28. La matriz asociada a la forma cuadrtica definida en el ejemplo 6.25 respecto de la base cannica es la siguiente:
0

2
A=@ 0

1
2

0
1
3
2

11
2
3A
2

Ejercicio 6.29. Calcula las formas analtica y matricial de una forma cuadrtica q
en R3 sabiendo que {~e1 , ~e2 , ~e3 } es una base y conociendo algunas imgenes de q:
q(~e1 ) = 2, q(~e2 ) = 0, q(~e3 ) =

1,

q(~e1 +~e2 ) = 5, q(~e1 +~e3 ) = 3, q(~e2 +~e3 ) = 0

6.2.2. Clasificacin
Las formas cuadrticas se clasifican segn su forma polar. As, decimos
que q es definida, semidefinida o indefinida si lo es f q segn las definiciones 6.13 y 6.15. As queda reflejado en el cuadro 6.1:
Ejemplo 6.30. La forma cuadrtica del ejemplo 6.25 anterior, q( x1 , x2 , x3 ) =
2x12 x1 x3 3x2 x3 x22 es indefinida, puesto que q(1, 0, 0) = 2 > 0 y
q(0, 1, 0) = 1 < 0.
La forma cuadrtica q( x1 , x2 , x3 ) = 2x12 + x32 es semidefinida positiva,
pues, claramente q 0 y el cero se alcanza: q(0, 1, 0) = 0.
No siempre es fcil clasificar una forma cuadrtica. En la section 6.6 de
este tema pretendemos dar herramientas para hacerlo, pero antes necesitamos el concepto de producto escalar.

162

Formas bilineales y Producto escalar

Seaq : V ! R una forma cuadrtica. Decimos que q es:


definida positiva si q(~x ) > 0 para todo ~x 6= 0.
definida negativa si q(~x ) < 0 para todo ~x 6= 0.
semidefinida positiva si q(~x )
positiva.

0 para todo ~x 6= 0 y no es definida

semidefinida negativa si q(~x ) 0 para todo ~x 6= 0 y no es definida


negativa.
indefinida cuando existen ~x, ~y 2 V con q(~x ) > 0 y q(~y) < 0.
Nota. Una forma cuadrtica semidefinida positiva y semidefinida negativa necesariamente es la forma cuadrtica nula q = 0.

Cuadro 6.1: Clasificacin de las formas cuadrticas.

6.3. Producto escalar


Definicin 6.31. Llamamos producto escalar (o producto interno) de
un espacio vectorial real V a cualquier forma bilineal en V simtrica y
definida positiva.
Notacin: Si g : V V ! R es un producto escalar, suele denotarse de las
siguientes formas:
g(~x, ~y) = h~x, ~yi = ~x ~y = (~x |~y)
Durante este curso usaremos casi siempre la notacin h , i para representar el producto interno, aunque se puede usar cualquiera de ellas.
Propiedades: Como consecuencia directa de la definicin se tiene el producto interno tiene las siguientes propiedades:

h~x, ~yi = h~y, ~x i (simtrico).


h~x, ~x i = 0 () ~x = ~0 (no degenerado).
h~x, ~x i > 0 () ~x 6= ~0 (definido positivo).
Definicin 6.32. Llamaremos espacio vectorial eucldeo a cualquier espacio
vectorial real V de dimensin finita sobre el que se ha definido un producto
interno.

6.3 Producto escalar

163

Ejemplos 6.33. Los siguientes espacios vectoriales son eucldeos.


1. Sea V = R n y sean ~x e ~y vectores de V cuyas coordenadas respecto a
una base fijada se representan por las matrices columnas
0

1
0 1
x1
y1
B x2 C
B y2 C
B C
B C
X =B . C eY =B . C
@ .. A
@ .. A
xn
yn

entonces el producto escalar usual o estndar est definido como


0

1
y1
B y2 C
B C
B .. C = x1 y1 + x2 y2 + + xn yn
@.A

~x ~y = X T Y = x1 x2 . . . xn

yn

2. Sea V = { f : [ a, b] ! R | f es continua en [ a, b]}. Definimos un producto interno en V de la siguiente forma:

h f , gi =

Z b
a

f ( x ) g( x ) dx

3. Sea V = Mmn (R ), definimos un producto interno en este espacio


del siguiente modo:
h A, Bi = tr( BT A)
donde tr M es la traza de la matriz cuadrada M, es decir, la suma de
los elementos de su diagonal principal.

6.3.1. Norma de un vector


Definicin 6.34. Dado un espacio vectorial eucldeo V, llamaremos norma
o mdulo de un vector ~x al nmero real (positivo o cero) siguiente

k~x k = +

h~x, ~x i

Nota. En un contexto de vectores libres, la norma de un vector se suele


interpretar como su longitud. Tambin k~x k se interpreta como la distancia
de un punto al origen de coordenadas, cuando se consideran los vectores
como puntos de R n (vase definicin 6.41).

164

Formas bilineales y Producto escalar

Ejemplos 6.35.
1. En caso del producto escalar usual ~x ~y = x1 y1 + + xn yn en R n se
tiene la norma usual o estndar
q
k~x k = x12 + x22 + + xn2
2. Cualquier producto interno en R n define una norma en dicho espacio.
Por ejemplo, en R2 , el producto interno


1
1
y1
(~x | ~y) = x1 x2
1 2
y2
p
da la norma siguiente k~x k = x1 2 2x1 x2 + 2x2 2 que es distinta de
la norma usual.

Ejercicio 6.36. Del producto escalar definido en el ejemplo 6.33-item 2, calcula las
normas de f ( x ) = e x y g( x ) = x x2 definidas en el intervalo [0, 1].
Ejercicio 6.37. Da una expresin para la norma de A = ( aij ) 2 Mmn (R )
segn el producto escalar definido en el ejemplo 6.33-item 3.

Solucin:
k Ak2 = im=1 nj=1 a2ij Teorema 6.38 (Propiedades de las normas). Si V es un espacio vectorial eucl-

deo, entonces
1. k~x k

0 y adems, k~x k = 0 () ~x = ~0.

2. kl~x k = |l| k~x k 8~x 2 V, 8l 2 R.


3. (Desigualdad de Schwarz) |h~x, ~yi| k~x k k~yk

8 ~x, ~y 2 V

4. (Desigualdad triangular) k~x + ~yk k~x k + k~yk


5. k~x

~yk

|k~x k

k~yk|

8~x, ~y 2 V

8~x, ~y 2 V

Demostracin. Vemos los ms complicados, dejando el resto de ejercicios:


3. (Desigualdad de Schwarz) Si ~x = ~0 o ~y = ~0, el resultado es evidente.
Supongamos entonces que ambos vectores ~x e ~y no son nulos, definimos entonces el nuevo vector

~z =
que sabemos que h~z, ~zi
D
~y
0 k~~xxk k~yk , k~~xxk
luego h~x, ~yi k~x kk~yk.

~x
k~x k

~y
k~yk

0 tenemos:
E
~y
x,~x i
= h~
+
k~yk
k~x k2
~y

h~y,~yi
k~yk2

h~x,~yi

2 k~xkk~yk = 2

h~x,~yi

2 k~xkk~yk

Si hacemos ~z = k~~xxk + k~yk , por el mismo procedimiento obtenemos


k~x kk~yk. Lo que prueba el resultado.
h~x, ~yi

6.3 Producto escalar

165

4. (Desigualdad triangular) Se prueba usando la desigualdad de Schwarz.

k~x + ~yk2 = h~x + ~y, ~x + ~yi = k~x k2 + k~yk2 + 2 h~x, ~yi


k~x k2 + k~yk2 + 2k~x k k~yk = (k~x k + k~yk)2

y, como la norma es positiva (o cero), podemos quitar los cuadrados.

Definicin 6.39. Un vector ~u es unitario si k~uk = 1.

A partir de cualquier vector ~x distinto de ~0 se puede obtener un vector


unitario sin ms que multiplicarlo por el inverso de su norma

~u =

1
~x (vector normalizado).
k~x k

A esta operacin la llamaremos normalizar.


Ejercicio 6.40. Normaliza la siguiente base de R3 :
p
B = {(1, 0, 1), (0, 2, 1), ( 2, 1, 1)}
Todo espacio eucldeo es tambin un espacio mtrico, es decir, se puede
definir una distancia entre cada par de elementos.
Distancia entre vectores
Definicin 6.41 (Distancia). Se define la distancia entre vectores ~x e ~y como
d(~x, ~y) = k~y

~x k

Nota. Obsrvese que hubiese dado igual definir d(~x, ~y) = k~x ~yk. Se hace
as por conveniencia de notacin con respecto al espacio afn eucldeo (seccin 7.2).
En dicha seccin 7.2 veremos como, de un
modo general, se puede trasladar el concepto
de distancia entre vectores a distancia entre puntos de un espacio sin ms que considerar los
vectores que definen dichos puntos.

y2
x2

Ejemplo 6.42. Si consideramos los vectores ~x e


~y del plano R2 , el producto escalar usual definido en el ejemplo 6.33 nos da la llamada distancia eucldea entre dichos vectores del plano
d (( x1 , x2 ), (y1 , y2 )) = k( x1 , x2 )

(y1 , y2 )k =

~0
q

( y1

~y
~x

~y

~x

x1

y1

x1 )2 + ( y2

x2 )2

166

Formas bilineales y Producto escalar

ngulos
Por otro lado, si dos vectores ~x y ~y no son nulos, la desigualdad de
Schwarz se puede traducir como

|h~x, ~yi|
1 ()
k~x k k~yk

h~x, ~yi
1
k~x k k~yk

que nos permite identificar este valor con el coseno de un cierto ngulo.
Definicin 6.43. Dados dos vectores ~x 6= ~0 e ~y 6= ~0, definimos el coseno del
ngulo a formado entre ellos de la forma:
cos a =

h~x, ~yi
k~x k k~yk

(6.2)

El ngulo a que forman dos vectores no


nulos, ser, por tanto, uno que tome como
~y
coseno el valor de la expresin (6.2). De ena
tre todos estos, nos quedamos con el nico
~x
que verifica 0 a p, es decir, el menor
positivo posible.
Segn lo anterior, si dos vectores no nulos tienen producto interno 0,
forman un ngulo de p/2 radianes. Estos vectores se dicen que son perpendiculares. Este concepto se generaliza con el de ortogonalidad

6.3.2. Ortogonalidad
El smbolo ? se lee es
ortogonal a y establece
una relacin simtrica
en V.

Definicin 6.44. Dos vectores ~x e ~y de un espacio eucldeo son ortogonales


si y solo si h~x, ~yi = 0. A veces representamos por ~x ? ~y para representar
que dos vecores son ortogonales.
Proposicin 6.45. En un espacio eucldeo
1. El vector ~0 es el nico ortogonal a s mismo.
2. El vector ~0 es el nico ortogonal a todos los vectores del espacio.
Demostracin. Es trivial, puesto que el producto interno es una forma bilineal no degenerada.

Los conceptos de producto interno y ortogonalidad nos permite demostrar de una manera fcil el teorema ms famoso de las matemticas.
Teorema 6.46 (de Pitgoras generalizado). Los vectores ~x e ~y son ortogonales
si y solo si
k~x + ~yk2 = k~x k2 + k~yk2

Demostracin. La dejamos como ejercicio. Sigue los mismos pasos que para
probar la desigualdad triangular en el teorema 6.38.

6.3 Producto escalar

167

k~yk
~x

90o

~x + ~y

k~x + ~yk

~y

k~x k

Figura 6.1: El teorema de Pitgoras.


Bases ortonormales
Definicin 6.47. Decimos que un sistema de vectores X = {~v1 , ~v2 , . . . , ~vk }
es
un sistema ortogonal si los vectores son ortogonales dos a dos, es decir,
~vi , ~v j = 0 siempre que i 6= j.

Teorema 6.48. Si X = {~v1 , ~v2 , . . . , ~vk } es un sistema ortogonal de vectores no


nulos, entonces es linealmente independiente.
Demostracin. Supongamos l1~v1 + l2~v2 + + ln~vn = ~0. Entonces para
cada i multiplicamos por ~vi :

h~vi , l1~v1 + l2~v2 + + ln~vn i = li h~vi , ~vi i = 0


y por tanto (como ~vi 6= ~0) se tiene que cada li = 0.

Definicin 6.49.
1. Llamaremos base ortogonal a una base que adems es un sistema
ortogonal.
2. Llamaremos base ortonormal a una base ortogonal de vectores unitarios.
Ejercicio 6.50. Comprueba que la base cannica en R n es ortonormal para el producto escalar usual en cambio no es ortonormal para otros productos internos.
Encontrar una base ortonormal para un espacio eucldeo es un problema importante para muchas aplicaciones. En caso de dimensin finita, el
siguiente teorema nos garantiza su existencia, adems de darnos un mtodo para encontrarla. Este mtodo se conoce con el nombre de mtodo de
Gram-Schmidt.

168

Formas bilineales y Producto escalar

Teorema 6.51 (Gram-Schmidt). Todo espacio vectorial eucldeo de dimensin


finita admite una base ortogonal.
Demostracin. Partiendo de una base cualquiera B = {~v1 , ~v2 , . . . , ~vn }, construimos una base ortogonal B = {~
e1 , ~e2 , . . . , e~n } definida en el cuadro 6.2
que prueba el teorema.

~e1 = ~v1
~e2 = ~v2
~e3 = ~v3
..
.

~en = ~vn

h~e1 , ~v2 i
~e1
h~e1 , ~e1 i
h~e1 , ~v3 i
~e1
h~e1 , ~e1 i

h~e2 , ~v3 i
~e2
h~e2 , ~e2 i

h~e1 , ~vn i
~e1
h~e1 , ~e1 i

h~e2 , ~vn i
~e2
h~e2 , ~e2 i

h~en 1 , ~vn i
~en
h~en 1 , ~en 1 i

Cuadro 6.2: Mtodo de Gram-Schmidt.


Corolario 6.52. Todo espacio vectorial eucldeo de dimensin finita admite una
base ortonormal.
Demostracin. Cada vector de la base ortogonal B se puede normalizar de
~ei
la forma ~eiNor =
, as obtenemos una nueva base
k~ei k

B Nor = {~e1Nor , ~e2Nor , . . . , ~enNor }

que es ortonormal.

Ejemplo 6.53. Consideremos el espacio vectorial real V = P3 [l] de los polinomios de coeficientes reales (con variable l) de grado menor o igual que
3 con el siguiente producto interno

h p, qi =

Z 1

p( x )q( x ) dx

Vamos a construir una base ortonormal de este espacio eucldeo.


S OLUCIN : Partimos de la base B = {1, l, l2 , l3 } para construir una base
ortogonal siguiendo el mtodo de Gram-Schmidt que hemos visto en el
teorema anterior.

6.3 Producto escalar

169

Entonces,
p1 = 1 ;
p2 = l
p3 = l2
p4 = l3

R1
xdx
0
h1, li
1 = l R 11
=l
=l;
2
h1, 1i
1dx
1
R1 2
R1 3

x dx
x dx
1, l2
l, l2
1
1
2
1
l=l
1 R 11
l = l2
;
R1
3
h1, 1i
hl, li
1dx
x2 dx
1
1
2 1 3

l
1, l3
l, l3
1
3
3, l
( l2
1
l
) = l3
l
3
5
h1, 1i
hl, li
l2 13 , l2 13

Es decir, la base B = {1, l, (l2 13 ), (l3 35 l)} es ortogonal. Para dar una
base ortonormal, calculamos la norma de cada uno de los vectores (polinomios)
s
Z 1
p
k p1 k = k1k =
12 dx = 2 ;
s

p
2
k p2 k = k l k =
dx = p ;
1
3
s
r
p
2
Z 1
1
1
8
2 2
2
k p3 k = l
=
x2
dx =
= p ;
3
3
45
1
3 5
s
r
p

Z 1
3
3 2
8
2 2
3
3
k p4 k = l
l =
x
x
dx =
= p
5
5
175
1
5 7
Z 1

x2

y normalizamos cada uno de los vectores de la base B para dar la siguiente


base ortonormal
(
)
p
p
p
5 3l2 1
7 5l3 3l
1
3l
Nor
p
p
B
= p , p ,
,
2
2
2 2
2 2
Las bases ortonormales simplifican el clculo del producto interno. Esto
se espresa en la siguiente proposicin.
Proposicin 6.54. Sea B = 0
{~e1 , ~e12 , . . . , ~en }0una
1 base ortonormal. Dados dos
x1
y1
B x2 C
B y2 C
B C
B C
vectores ~x, ~y de coordenas X = B . C e Y = B . C respectivamente, respecto de
@ .. A
@ .. A

xn
yn
la base B , entonces el producto escalar toma la expresin del producto escalar usual

h~x, ~yi = x1 y1 + x2 y2 + + xn yn = X T Y = ~x ~y

170

Formas bilineales y Producto escalar

Demostracin. Tenemos que ~x = x1~e1 + x2~e2 + + xn~en y ~y = y1~e1 + y2~e2 +


+ yn~en , luego

h~x, ~yi = h x1~e1 + x2~e2 + + xn~en , y1~e1 + y2~e2 + + yn~en i


y haciendo uso de la bilinealidad de producto escalar junto con

h~ei , ~e j i =

1 si i = j
0 si i 6= j

obtenemos el resultado requerido.

6.3.3. Orientacin de un espacio vectorial eucldeo


En Teorema 6.23 hemos definido, para un espacio vectorial real V, la
forma multilineal determinante D : V V V ! R.
Fijada una base ortonormal B = {~e1 , ~e2 , . . . , ~en } y definido el determinante, D (~e1 , ~e2 , . . . , ~en ) = 1, decimos que B define una orientacin.
Cualquier base tendr determinante positivo o negativo (nunca nulo),
de aqu, se establece una relacin de equivalencia en el conjunto de todas
las bases:
Nota. Dos bases estn relacionadas cuando sus determinantes tienen el mismo signo. Elegida, por tanto, una base tenemos una orientacin de V: positiva si est en la clase de la base B (determinante positivo) y negativa en
caso contrario.
En el espacio vectorial V = R2 la base {(1, 0), (0, 1)} es positiva. Dada otra base
{~x, ~y} = {( x1 , x2 ), (y1 , y2 )} su determinante es

~y

x1 y1
= x1 y2
x2 y2

rea

x2 y1

~x

que ser positivo cuando el giro del primer


vector hacia el segundo se hace en sentido conO
trario a las agujas del reloj.
Adems, el determinante 2 2, cuando la
orientacin de la base es positiva, nos da el rea del paralelogramo definido
por dicha base.
Demostracin. Como podemos ver en la figura ?? el rea del paralelogramo
es
Area(~x, ~y) = k~x k k~yk sen a

6.3 Producto escalar

171

En el espacio vectorial V = R3 , una base {~x1 , ~x2 , ~x3 } tendr orientacin


positiva si sigue la regla del sacacorchos: al girar ~x1 hacia ~x2 (por el ngulo
menor) el sacacorchos seguira la direccin de ~x3 .
Tambin se suele utilizar la llamada regla de la mano derecha. Consiste en
sealar la direccin y el sentido del vector ~x3 con el pulgar de dicha mano
y el sentido que siguen los restantes dedos indican el sentido positivo de la
base si sealan el giro desde el vector ~x1 hacia el vector ~x2 .
As ocurre, por ejemplo con la base cannica {(1, 0, 0), (0, 1, 0), (0, 0, 1)}.

http://youtu.be/faevbjfs28I

6.3.4. Producto vectorial


En un espacio vectorial eucldeo tridimensional orientado tenemos un caso especial de operacin de vectores que vamos a
describir.
h = k~yk sen a
En primer lugar observamos que el seno
k~yk
del ngulo (en sentido positivo) de dos veca
tores independientes, junto con la norma
k~x k
de cada uno de ellos, nos determina el rea
del paralelogramo, Area(~x, ~y), que definen
(vase figura al margen). As, si a es el ngulo entre ellos, tenemos
Area(~x, ~y) = k~x k k~yk sen a

Es de notar, tambin, que (en R3 ) el determinante de una base orientada


positivamente es el volumen del paraleleppedo que determinan.
Volumen(~x, ~y, ~z) = D (~x, ~y, ~z)
Definicin 6.55. Definimos el producto vectorial de dos vectores {~x, ~y} del
espacio tridimensional como el nico vector ~x ~y que verifica:
1. ~x ~y es ortogonal a ambos vectores,

2. Si ~x, ~y son independientes, {~x, ~y, ~x ~y} es una base orientada positivamente.
3. k~x ~yk = k~x k k~yk sen a.

Del punto 3 se deduce que si los vectores {~x, ~y} son linealmente dependientes, entonces ~x ~y = ~0. Adems son inmediatas las siguientes propiedades del producto vectorial
Proposicin 6.56.
1. El producto vectorial es antisimtrico: ~x ~y =
2. Si ~x 6= ~0 y ~y 6= 0, entonces

~y ~x.

~x ~y = ~0 ) ~x, ~y son linealmente dependientes.

Si ~x, ~y son independientes,


k~x ~yk = Area(~x, ~y).

172

Formas bilineales y Producto escalar

Expresin analtica del producto vectorial


Dada una base ortonormal de V = R3 orientada positivamente, los vectores ~x, ~y tendrn unas coordenadas, ~x = ( x1 , x2 , x3 ) e ~y = (y1 , y2 , y3 ). Entonces, el producto escalar tiene las siguientes coordenadas, respecto a dicha base ortonormal

~x ~y =

x2 y2
,
x3 y3

x1 y1 x1 y1
,
x3 y3 x2 y2

Demostracin. Tenemos que probar que se verican los puntos de la definicin 6.55.
1. Como las coordenadas estn expresadas en una base ortonormal, se
tiene que

h~x, ~x ~yi = x1

x2 y2
x3 y3

x2

x1 x2 y2
x1 y1
x y
+ x3 1 1 = x2 x2 y2 = 0
x3 y3
x2 y2
x3 x3 y3

luego ~x ? ~x ~y. Igualmente ~y ? ~x ~y.


2. Basta comprobar que
D (~x, ~y, ~x ~y) =

x2 y2
x3 y3

x1 y1
x3 y3

x1 y1
x2 y2

>0

(6.3)

3. Por (6.3) tenemos k~x ~yk2 = D (~x, ~y, ~x ~y) = Volumen(~x, ~y, ~x ~y).
Pero se puede comprobar (vase figura 6.2) que
Volumen(~x, ~y, ~x ~y) = Area2 (~x, ~y)

que prueba el teorema.

Como consecuencia directa de este resultado se tiene las siguientes propiedades del producto vectorial:
1. El producto vectorial es una aplicacin bilineal V V ! V, ya que

~x (~y +~z) = ~x ~y + ~x ~z
~x l~y = l(~x ~y)
2. Regla de exclusin: ~x (~y ~z) = h~x, ~zi~y

h~x, ~yi~z.

3. Identidad de Jacobi ~x (~y ~z) +~z (~x ~y) + ~y (~z ~x ) = 0.

6.3 Producto escalar

173
Eje Z

~x ~y
Altura = x1 y2

~y = (y1 , y2 , 0)
y2

rea base = x1 y2

~x = ( x1 , 0, 0)

Eje X

Eje Y
Figura 6.2: El volumen = ( x1 y2 )2 es el cuadrado del rea de la base.

6.3.5. Aplicaciones ortogonales


Definicin 6.57. Diremos que una aplicacin f : V ! E entre espacios vectoriales eucldeos es ortogonal si conserva el producto escalar, es decir

h f (~x ), f (~y)i = h~x, ~yi para cada ~x, ~y 2 V

(6.4)

Evidentemente, las aplicaciones ortogonales mantienen la norma, la distancia y ngulo entre vectores.
En realidad, la condicin 6.4 sobre cualquier funcin f entre espacios
vectoriales eucldeos implica automticamente la linealidad de f .
Demostracin. Basta probar: 1. k f (~x +~y) f (~x ) f (~y)k2 = 0, y 2. k f (l~x )
l f (~x )k2 = 0 y, ambas pruebas las dejamos como ejercicio.

Proposicin 6.58. Las aplicaciones ortogonales son monomorfismos de espacios


vectoriales.
Demostracin. Sea ~x 2 ker f , entonces h~x, ~x i = h f (~x ), f (~x )i = 0. Por tanto,
la no degeneracin del producto escalar implica ~x = ~0.

Especial inters tienen las aplicaciones ortogonales entre espacios vectoriales de la misma dimensin, as
Teorema 6.59. Una aplicacin lineal f : E ! V entre espacios vectoriales eucldeos de la misma dimensin es ortogonal si y solo si es lineal y transforma bases
ortonormales en bases ortonormales.
Demostracin. Trivial

Este resultado tiene como consecuencia inmediata que las aplicaciones


ortogonales entre espacios de la misma dimensin son invertibles.

174

Formas bilineales y Producto escalar

Ejercicio 6.60. Sea V un espacio vectorial eucldeo de dimensin 2 con base ortonormal {~e1 , ~e2 } y f un endomorfismo en V que verifica
f (~e1 ) = ~e1 + a~e2 y f (~e2 ) = b~e1 +~e2
determina para que valores de a y b es f una aplicacin ortogonal.

6.4. Subespacios ortogonales. Complemento ortogonal


Extendemos el concepto de ortogonalidad a un subespacio. As, en un
espacio eucldeo V, diremos que un vector ~x es ortogonal a un subespacio
vectorial S, si es ortogonal a todos los vectores de S, y lo representamos
~x ? S.
Si S1 y S2 son subespacios vectoriales, diremos que son ortogonales,
representado S1 ? S2 , si todos los vectores de S1 son ortogonales a todos
los vectores de S2 .
Claramente, si ~0? = V, en
otro caso, ~x0? est una
dimensin por debajo de V,
que es lo que se llama
hiperplano.

Proposicin 6.61. Si V es un espacio eucldeo de dimensin n, entonces el conjunto de todos los vectores ortogonales a un vector ~x0 forman un subespacio vectorial
de V, que representaremos por ~x0? .
Adems, si ~x0 es un vector no nulo, entonces dim ~x0? = n 1.
Demostracin. La funcin f : V ! R definida f (~x ) = h~x, ~x0 i es lineal y ~x0?
es su ncleo, por tanto es subespacio vectorial. Por otro lado, por Teorema 5.21, si ~x0 6= ~0,
n = dim Img f + dim ker f = 1 + dim x0?

prueba la segunda parte.


Ejemplo 6.62. Si ~x0 = ( 1, 2,
base de ~x0? .

3) es un vector de R3 , vamos a calcular una

S OLUCIN: De ( x1 , x2 , x3 ) ( 1, 2, 3) = 0, tenemos la siguiente ecuacin


(cartesiana) de ~x0?
x1 + 2x2 3x3 = 0
que se expresa

~x0? = L({(2, 1, 0), ( 3, 0, 1)})


Definicin 6.63. Si S es un subespacio vectorial de V, representamos por
S? el conjunto de los vectores ortogonales a S y que recibe el nombre de
complemento ortogonal de S.
Teorema 6.64. El complemento ortogonal S? es un subespacio de V y adems

6.4 Subespacios ortogonales

175
S? .

V=S

Demostracin. Consideremos {~e1 , ~e2 , . . . , ~er } una base ortonormal de S. Es


fcil ver que
S? =

r
\

i =1

~ei?

y, por 6.61, S? es un subespacio vectorial.


Por otro lado, si ~x 2 S \ S? , entonces h~x, ~x i = 0 ) ~x = ~0. Por tanto,
S \ S? = {~0}
Y, por ltimo, si ~x es un vector de V, definimos el vector

~xS = h~e1 , ~x i~e1 + h~e2 , ~x i~e2 + + h~er , ~x i~er


que claramente es de S. Entonces ~x N = ~x

h~x N , ~ei i = h~x, ~ei i

(6.5)

~xS es ortogonal a S porque

h~xS , ~ei i = h~x, ~ei i

h~x, ~ei i = 0

para cada i = 1, 2, . . . r, que nos dice que ~v = ~xS + ~x N 2 S + S? . Por tanto, V = S + S? .

Ejercicio 6.65. Si V = R4 , calcula es complemento ortogonal del subespacio vectorial S generado por los vectores (1, 0, 1, 0) y (1, 1, 0, 1).
Corolario 6.66. Si S es subespacio vectorial de V, entonces

S?

= S.

Demostracin. Si ~x 2 S entonces ~x ? S? , luego S

S?

. Recproca-

mente, si ~x 2 S? , por el teorema anterior lo expresamos de la forma


~x = ~xS + ~x N 2 S S? . Entonces,
0 = h~x, ~x N i = h~xS , ~x N i + h~x N , ~x N i = h~x N , ~x N i
luego ~x N = ~0 y de aqu que ~x = ~xS 2 S.

176

Formas bilineales y Producto escalar

6.4.1.

Proyecciones ortogonales

Una endomorfismo f : V ! V se dice que es una proyeccin si y solo si


f2 = f

f = f

Si S = Img f , entonces la aplicacin f |S es la identidad, pues f (~x ) = ~x


para cada ~x 2 S. Adems si N = ker f tenemos que S \ N = {~0} y, como
dim V = dim N + dim S (vase 5.21) se deduce
V=S

En los trminos anteriores, si S es la imagen y N el ncleo de una proyeccin, se dice f proyecta V en el subespacio S a lo largo del subespacio N.
Ojo! una proyeccin
ortogonal no es una
aplicacin ortogonal.

Definicin 6.67. Diremos que f es una proyeccin ortogonal si N ? S, en


caso contrario se dice que es una proyeccin oblicua.
En la figura al margen representamos
una proyeccin en el plano en una recta S
a lo largo de otra N. Esta proyeccin sera
oblicua, puesto que S y N no son ortogonales.

~x
~0

f (~x )

Definicin 6.68. Un endomorfismo f : V !


V en un espacio eucldeo se dice que es autoadjunto si

h f (~x ), ~yi = h~x, f (~y)i


para cada para de vectores ~x, ~y 2 V.
Teorema 6.69. Sea f : V ! V una proyeccin. Entonces, f es ortogonal si y
solo si es autoadjunta.
Demostracin. Veamos que toda proyeccin ortogonal es autoadjunta, para
ello observamos que ~y f (~y) 2 ker f = N, luego

h f (~x ), ~y

f (~y)i = 0 ) h f (~x ), ~yi = h f (~x ), f (~y)i

Anlogamente se prueba que h~x, f (~y)i = h f (~x ), f (~y)i.


Inversamente, supongamos que f es una proyeccin autoadjunta. Sean
~x 2 N e ~y 2 S = Img f , entonces existe un vector ~v tal que f (~v) = ~y, de
aqu
h~x, ~yi = h~x, f (~v)i = h f (~x ), ~vi = h~0, ~vi = 0
por tanto, tenemos N ? S, que prueba que f es una proyeccin ortogonal.

6.4 Subespacios ortogonales

177

Obsrvese que si S es un subespacio vectorial de V, podemos definir el


endomorfismo ProyS : V ! V como ProyS (~x ) = ~xS , conforme a (6.5). Cla- Nota: Proy N = I ProyS ,
ramente ProyS es una proyeccin ortogonal, cuyo ncleo N = ker( ProyS ) donde I es la identidad
en V.
es precisamente el complemento ortogonal de S? de S.
Ejercicio 6.70. Prueba que si f es una proyeccin ortogonal en S a lo largo de N,
entonces f = ProyS (y, por tanto, N = S? ).
La proyeccin ortogonal ProyS aplicada a un vector de V nos devuelve
otro vector que tiene la siguiente propiedad:
Teorema 6.71 (de aproximacin ptima). El vector ProyS (~x ) es el vector de S
que ms se aproxima a ~x.
Demostracin. Para cualquier ~v 2 S sabemos que ~v ~xS 2 S y que ~xS
S? , aplicando el teorema 6.46 de Pitgoras generalizado
d2 (~x, ~v) = k~v

~x k2 = k~v

~xS + ~xS

d2 (~x, ~xS )

~x k2 = k~v

~xS k2 + k~xS

~x 2

~x k2

que prueba que ~xS = ProyS (~x ) es el vector que ms se aproxima a ~x en S.

Matriz de una proyeccin ortogonal


Consideremos una base ortonormal B = {~e1 , ~e2 , . . . , ~en } de un espacio
vectorial eucldeo V. Si f es una proyeccin en V, entonces, como hemos
visto, f es un endomormismo autoadjunto. Esto significa que su matriz
(respecto a la mencionada base ortonormal) es simtrica. Veamos
Teorema 6.72. Si A es la matriz asociada a un endomorfismo f respecto de una
base ortonormal, entonces f es autoadjunto si y solo si A es simtrica.
Demostracin. Dados dos vectores ~x, ~y con coordenadas X e Y respecto a la
base ortonormal dada, la proposicin 6.54 nos dice que el producto escalar
se reduce al producto escalar usual, es decir h~x, ~yi = X T Y. Por tanto,
f autoadjunto ) h~x, f (~y)i = h f (~x ), ~yi ) X T ( AY ) = ( AX ) T Y )
X T AY = X T A T Y ) A = A T .
Recprocamente, A simtrica ) A = A T , luego

h~x, f (~y)i = X T ( AY ) = X T AT Y = ( AX )T Y = h f (~x ), ~yi


es decir, f es autoadjunto.

178

Formas bilineales y Producto escalar

Sea que S es un subespacio vectorial de V de base {~a1 ,~a2 , . . . ,~ar } (no


necesariamente ortonormal). Consideremos la matriz A 2 Mnr formada
por las coordenadas de dichos vectores respecto de una base ortornormal.
Usaremos dicha matriz A para dar una expresin de la matriz P del endomorfismo ProyS . En primer lugar tenemos el siguiente lema.
Lema 6.73. La matriz A T A 2 Mrr es invertible, por tanto existe ( A T A)

1.

Demostracin. Si no fuese invertible, el sitema ( A T A) X = 0 tendra solucin X0 6= 0, luego el producto escalar

h AX0 , AX0 i = ( AX0 )T ( AX0 ) = X0T ( AT A) X0 = X0T 0 = 0

de donde AX0 = 0. Esto implica que el rango de A es menor que r, pero


esto es imposible porque sus r columnas son linealmente independientes
(A est construida a partir de una base).

S?

~x

~x N
~a2

~xS
~a1
S

Figura 6.3: Proyeccin ortogonal del espacio en un plano S.


Dado un vector ~x = ~xS + ~x N 2 S S? , como cada vector de la base ~ai
de la base de S es ortogonal a ~x N , en coordenadas respecto de la base de V
(ortogonal) podemos exscribir A T x N = 0, luego
AT x N = AT ( x

xS ) = 0 ) A T x = A T xS

Ahora bien, como ~xS 2 S, existen r nmeros reales ai tales que

~xS = a1~a1 + a2~a2 + + ar~ar


0 1
a1
B a2 C
B C
que, en coordenadas, nos da la expresin xS = A B . C = Aa, luego
@ .. A
ar

A T x = A T Aa ) ( A T A)

AT x = a

entonces A( A T A) 1 A T x = Aa = xS y, como Proy X (~x ) = ~xS , tenemos la


matriz P de la proyeccin ortogonal ProyS ,

6.5 Diagonalizacin ortogonal

179

Teorema 6.74. La matriz de la proyeccin ortogonal en un subespacio vectorial S


es
P = A( AT A)

AT

siendo A la matriz cuyas columnas son las coordenadas de una base de S respecto Si elegimos como base de S
una base ortonormal,
de una base ortonormal del espacio.
entonces la matriz

T
Ejemplo 6.75. La proyeccin de R3 en el plano S = L({1, 1, 0), ( 1, 2, 1)} P = AA .
est definida por la matriz

1
P = @1
0
0
B
B
B
=B
B
B
@

6.5.

12
0

1
1
1 1 0 @
2 A4
1
1 2 1
1
0
1
10 1
3
11 11
11 C
C
1 10
3 C
C
11 11
11 C
C
3
3
2 A
11 11
11

13
1
2 A5
1

1 1 0
1 2 1

Diagonalizacin ortogonal

6.5.1. Endomorfismos ortogonales


En la subseccin 6.3.5 ya hemos estudiado las aplicaciones ortogonales.
En el caso que una aplicacin ortogonal sea un endomorfismo en un espacio vectorial eucldeo de dimensin finita, respecto a una base, que podemos suponer ortonormal, le corresponde una matriz cuadrada invertible,
que diremos que es ortogonal, ms concretamente:
Definicin 6.76. Decimos que una matriz cuadrada P de orden n es ortogonal si y solo si
P T P = In .
Del teorema 6.59 se dedude inmediatamente el siguiente resultado que
nos permite reconocer fcilmente las matrices ortogonales.
Teorema 6.77. Las matrices de los endomorfismos ortogonales respecto a bases
ortonormales son la matrices ortogonales. Por tanto una matriz P es ortogonal si
y solo si las columnas (resp. filas) de P forman una base ortonormal respecto al
producto escalar usual.

P es ortogonal sii
P 1 = PT .

180

Formas bilineales y Producto escalar

Demostracin. Es trivial, puesto que las imgenes de los vectores de una


base ortonormal tambin lo es, luego al multiplicar P T P estamos realizando
los productos escalares de los elementos de dicha base imagen.

Corolario 6.78. Si P es ortogonal, entonces det P = 1.

Demostracin. det( P T P) = det In ) det P T det P = (det P)2 = 1.

Endomorfismos ortogonales en R2
Giros (o rotaciones) de vectores. Un endomorfismo f en R2 se dice que es un
giro vectorial si cada vector ~x forma un ngulo constante a con f (~x ).
~e2

Es muy fcil comprobar que la matriz de


un giro en R2 , respecto a una base ortonormal,
es de la forma

cos q
sen q
sen q
cos q

f (~e1 )

f (~e2 )
q

cos q

sen q
q
cos q ~e1

donde q es el ngulo de giro.


~0
2
Ejemplo 6.79. La identidad I : R ! R2 es un giro de 0 radianes.
sen q

Simetras axiales o reflexiones. Llamaremos simetra axial en R2 a una apli-

cacin lineal que deja invariantes los vectores de una recta (vectorial) y refleja al
otro lado de dicha recta al resto de vectores.
Eje de simetria

f (~e1 )

~e2

q
q
2

~e1

~0
q

f (~e2 )
As, como se puede comprobar en el dibujo, para una base ortonormal, las
coordenadas de las imgenes de los vectores sern (cos q, sen q ) y (sen q, cos q ),
siendo q/2 el ngulo del eje de simetra con el primer vector de la base.
Por tanto, la matriz de una simetra axial ser de la forma

cos q
sen q
sen q
cos q

Los giros y las simetras axiales determinan todos los endomorfismos ortogonales en R2 como reflejamos en el siguiente teorema que damos sin demostracin:
Teorema 6.80. Los nicos endomorfismos ortogonales en R2 son los giros y las reflexiones. Adems, si P 2 M22 es una matriz ortogonal entonces:
1. P es un giro si y solo si det P = 1

2. P es una reflexin si y solo si det P =

1.

6.5 Diagonalizacin ortogonal

181

Endomorfismos ortogonales en R3
Giros axiales de vectores Un endomorfismo f en R3 es un giro axial si existe
una recta r = L(~u1 ) (con k~u1 k = 1) invariante1 para f , y si ~x 2
/ r, entonces las
proyecciones ortogonales en S = ~u1? de los vectores ~x y f (~x ) forman un ngulo

(constante) q en S. A la recta r se le llama eje de giro.


Si el vector ~u1 es el primero de una base ortonormal {~u1 , ~u2 , ~u3 }, en dicha base, ~u2 y ~u3 son base
la matriz de f toma la expresin
ortononormal de S = ~u1? .
0

1
@0
0

1
0
sin q A
cos q

0
cos q
sin q

Simetra especular o reflexin Un endomorfismo f en R3 es una simetra


especular si existe un plano p = L({~u2 , ~u3 }) (con {~u2 , ~u3 } base ortonormal de p)
invariante2 para f de forma que si ~x 2 p ? se tiene f (~x ) = ~x. La matriz de f
respecto a la base ortonormal {~u2 ^ ~u3 , ~u2 , ~u3 } es
0

1
@ 0
0

1
0 0
1 0A
0 1

Composicin de giro y simetra Si componemos un giro axial y una simetra


especular obtenemos un endomorfismo ortogonal, que respecto a la base adecuada, tiene por matriz
0
1
1
0
0
@ 0 cos q
sen q A
0 sen q
cos q

Estos tres tipos de endomorfismos caracterizan los endomorfismos ortogonales en


R3 , es decir
Teorema 6.81. Los nicos endomorfismos ortogonales en R3 son los giros axiales, las
simetras especulares o las composiciones de ambas.
Nota. Un caso distinguido es la identidad que es un giro axial de 0 radianes. Otro
caso distinguido es la composicin de una simetra especular con un giro de p
radianes que, respecto a la base adecuada, tiene por matriz
0

1
@ 0
0

0
1
0

1
0
0 A
1

que recibe el nombre de simetra central o respecto del un punto.


1~
u

1 es autovector para de f
2 p es subespacio propio de

para el autovalor l = 1.
f para l = 1.

182

Formas bilineales y Producto escalar

El grupo ortogonal
En el tema de estructuras algebraicas ya mencionamos el grupo general lineal de
grado n, representado GL(n) definido como el conjunto de las matrices cuadradas
invertibles junto con la operacin producto. Este grupo es isomorfo al grupo de
los automorfimos V ! V en un espacio de dimensin n.
El conjunto de las matrices ortogonales de orden n forman un subgrupo de
grupo GL(n) que recibe el nombre de grupo ortogonal y se representa O(n). Las
matrices ortogonales con determinante 1 forman a su vez un subgrupo del grupo
O(n) que recibe el nombre de grupo ortogonal especial que se representa SO(n).

6.5.2.

Diagonalizacin de matrices simtricas

Definicin 6.82. Sea f un endomorfismo de un espacio vectorial eucldeo


V. Se dice que f es simtrico (o autoadjunto) si y solo si

h~x, f (~y)i = h f (~x ), ~yi

8~x, ~y 2 V.

Los endomorfismos autoadjuntos se relacionan con las matrices simtricas mediante el siguiente teorema.
Teorema 6.83. Si A es la matriz asociada a un endomorfismo f respecto de una
base ortonormal, entonces f es autoadjunto si y solo si A es simtrica.
Demostracin. Dados dos vectores ~x, ~y con coordenadas X e Y respecto a la
base ortonormal dada, la proposicin 6.54 nos dice que el producto escalar
se reduce al producto escalar usual, es decir h~x, ~yi = X T Y. Por tanto,
f autoadjunto ) h~x, f (~y)i = h f (~x ), ~yi ) X T ( AY ) = ( AX ) T Y )
X T AY = X T A T Y ) A = A T .
Recprocamente, A simtrica ) A = A T , luego

h~x, f (~y)i = X T ( AY ) = X T AT Y = ( AX )T Y = h f (~x ), ~yi


es decir, f es autoadjunto.

Es decir, en el caso que la matriz A que se quiere diagonalizar sea simtrica, la podemos considerar como la matriz asociada a un endomorfismo
autoadjunto f y el siguiente teorema nos prueba que los autovectores asociados a autovalores distintos de una matriz simtrica, no slo sean linealmente independientes, sino que adems son ortogonales.
Teorema 6.84. Los autovectores correspondientes a autovalores distintos de un
endomorfismo autoadjunto son ortogonales.

6.6 Diagonalizacin de formas cuadrticas

183

Demostracin. Sean l1 6= l2 autovalores y ~x, ~y autovectores asociados a


ellos respectivamente. Entonces f (~x ) = l1~x y f (~y) = l2~y. As tenemos:

h f (~x ), ~yi = l1 h~x, ~yi


h~x, f (~y)i = l2 h~x, ~yi
restando, tenemos (l1 l2 ) h~x, ~yi = 0, y como l1 6= l2 , queda probado
que ~x e ~y son ortogonales.

Ejercicio 6.85. Comprueba que el anterior


calculando los autovalores y
teorema

1 1
autovectores de la matriz simtrica A =
.
1 1

6.6.

Diagonalizacin de formas cuadrticas

Dada la expresin matricial de una forma cuadrtica q(~x ) = X T AX,


como siempre, nos hacemos la siguiente pregunta:
Cmo cambia la matriz de una forma cuadrtica q cuando se cambia
la base?
La respuesta es la misma que hemos visto cuando analizbamos el cambio
de base en formas bilineales (tema anterior).
Si P es la matriz del cambio de base de B2 a B1 , las coordenadas de un
vector ~x en cada base se relacionan de la forma X = PX. Por tanto
T

q(~x ) = X T AX = ( PX ) T A( PX ) = X ( P T AP) X
de donde vemos que dos matrices (simtricas) de la misma forma cuadrtica son congruentes, es decir, B = P T AP, con P invertible.
Ejercicio 6.86. Prueba que, efectivamente, si una matriz A es simtrica, cualquier
matriz congruente con A tambin es simtrica.
Proposicin 6.87. Dada una forma cuadrtica q : V ! R, existe una base de V
tal la que la matriz de q es diagonal.
Demostracin. Sea A la matriz simtrica de q respecto de una base B . Consideramos el endomorfismo simtrico f : V ! V cuya matriz respecto a dicha base es A = M( f ; B). Diagonalizando ortogonalmente, existe una base
ortonormal B Nor de autovectores de f de forma que D = M( f ; B Nor ) es
diagonal. Puesto que la matriz de paso P es ortogonal, tenemos D = P T AP.
Por tanto, respecto de la base ortonormal B Nor la matriz de q es D, y
esto prueba la proposicin.

184

Formas bilineales y Producto escalar

Definicin 6.88. Una forma cuadrtica q se dice que est diagonalizada cuando est expresada matricialmente con una matriz D diagonal, es decir
q(~x ) = X T DX
Esto quiere decir que existe una base de V para la cual ~x se expresa analticamente como
q(~x ) = d1 x12 + d2 x22 + + dn xn2
donde di 2 R y ( x1 , x2 , . . . , xn ) son las coordenadas de ~x en dicha base.

6.6.1.

Mtodo de los autovectores

La prueba de la proposicin 6.87 nos est dando un mtodo de diagonalizacin. Si partimos de una matriz simtrica A de q,
q(~x ) = X T AX
diagonalizando ortogonalmente A podemos encontrar una matriz ortogonal P tal que D = P T AP. Haciendo el cambio de base X = PX () X T =
T
X P T , tenemos
T

q(~x ) = X T AX = X ( P T AP) X = X DX
que nos da la diagonalizacin.
Este mtodo, en teora, funciona siempre, pero el problema estriba en
que, para formas cuadrticas de tres o ms variables, la diagonalizacin
ortogonal de su matriz implica encontrar races de polinomios de grado
mayor o igual que tres, y esto no siempre es realizable (sin usar mtodos
numricos).
Damos un mtodo alternativo que no involucra resolucin de ecuaciones polinmicas.

6.6.2.

Mtodo de Lagrange

Este mtodo consiste en ir completando cuadrados perfectos con las


variables. Partimos de una forma cuadrtica en forma analtica
q( x1 , x2 , . . . , xn ) = a11 x12 + a12 x1 x2 + + aij xi x j + + ann xn2

y pueden darse dos situaciones:

1. Si algn coeficiente aii 6= 0. Agrupando todos los sumandos donde


interviene xi podemos expresar q de la siguiente manera:
!2
q( x1 , x2 , . . . , xn ) = aii

bj x j

j =1

+ q 1 ( x , . . . , x i 1 , x i +1 , . . . , x n )

hacemos, entonces, el cambio de variable xi = nj=1 b j x j y volvemos


aplicar el mtodo a q1 que tiene una variable menos.

6.6 Diagonalizacin de formas cuadrticas

185

2. Si todos los coeficientes aii son ceros, elegimos aij 6= 0 (debe existir,
claro, en caso contrario q = 0). Hacemos entonces los cambios de
variable
xi = xi + x j ,

x j = xi

entonces aij xi x j = aij xi 2

xj,

xk = xk si k 6= i, j

aij x j 2 y pasamos al caso 1 anterior.

Ejemplos de diagonalizacin de formas cuadrticas


Explicamos lo anterior con algunos ejemplos.
Ejemplo 6.89. Encuentra una base para la que la forma cuadrtica en R2
siguiente


1
2
x1
q1 ( x1 , x2 ) = x1 x2
= x12 4x1 x2
(6.6)
2 0
x2
sea diagonalizable.
S OLUCIN:
Mtodo de los autovectores Llamando A = 12 02 , y calculando sus
autovalores
1 1p
1 1p
l1 =
17 1,56 y l2 = +
17 2,56
2 2
2 2
obtenemos la forma cuadrtica diagonalizada que toma la expresin

p
p
q1 ( x1 , x2 ) = 12 12 17 x1 2 + 12 + 12 17 x2 2
Los sistemas de ecuaciones ( A

1p
Nl1 = L 1,
17 +
4

li I ) = 0 nos dan los subespacios propios

1
1p
1
y Nl2 = L 1,
17 +
4
4
4

y tomando un vector de cada subespacio propio obtenemos una base de


autovectores que sabemos que es ortogonal. Dividiendo cada vector por su
mdulo obtenemos la base ortonormal buscada:

B=

1
q
,
p
2
1
4
16 ( 17+1) +1
1

p
( 17+1)
q
p
2
1
16 ( 17+1) +1
q

1
16

1
,
p
2
( 17 1) +1

,
1
q
4

p
( 17
p
1
16 ( 17

1)
2

1) + 1

19
=
A
;

186

Formas bilineales y Producto escalar

En este caso se ha podido obtener la solucin al problema explcitamente de una forma algebraica (el polinomio caracterstico es de segundo
grado) y lo hemos hecho, claramente, usando un programa de clculo simblico. En la mayora de ocasiones, incluso esto, es imposible y hay que
recurrir a mtodos numricos para dar una solucin aproximada.
Mtodo de Lagrange Obsrvese que ( x1 2x2 )2 = x12 4x1 x2 + 4x22 , luego para obtener este cuadrado perfecto sumamos y restamos 4x22 en la expresin (6.6), as
q1 ( x1 , x2 ) = x12

4x1 x2 + 4x22

As haciendo

x1 = x1
x2 = x2

4x22 = ( x1

2x2 )2

4x22

2x2

tenemos la forma cuadrtica diagonalizada


q1 ( x1 , x2 ) = x1 2

4x2 2 = x1 x2

1
0

0
4


x1
x2

Para calcular la base respecto de la cual hemos diagonalizado hacemos lo


siguiente:
x1 = x1 2x2
x1 = x1 + 2x2
()
x2 = x2
x2 = x2
que matricialmente se expresa
X=

1 2
X
0 1

luego la base buscada es B = {(1, 0), (2, 1)} .


La ventaja del primer mtodo es que obtenemos directamente una base ortonormal para la cual diagonaliza la forma cuadrtica. La ventaja del
segundo est en la facilidad del clculo.
Observa que los valores de la diagonal por los dos mtodos coinciden
en los signos (es decir, igual cantidad de positivos que de negativos que de
ceros). Esto es siempre as, son invariantes, que veremos ms adelante.
Ejemplo 6.90. Igual para
q ( x1 , x2 , x3 ) = x1 x3
S OLUCIN :

2x2 x3

6.6 Diagonalizacin de formas cuadrticas

187

Mtodo de Lagrange En este caso no existe ningn trmino cuadrado.


Recurrimos a hacer el cambio introduciendo sumas por diferencias: x1 =
x1 + x3 , x3 = x1 x3 , x2 = x2 .
q ( x1 , x2 , x3 ) = x1 2

x3 2

2x1 x2 + 2x2 x3

Buscamos, entonces, un cuadrado perfecto para x1 , observamos que


( x1 x2 )2 = x1 2 2x1 x2 + x2 2 , quedando entonces la forma cuadrtica
x2 )2

q ( x1 , x2 , x3 ) = ( x1

x2 2 + 2x2 x3

x3 2

Igualmente
x2 )2

q ( x1 , x2 , x3 ) = ( x1

( x2

x3 )2

haciendo los cambios de variable siguientes:


x1 = x1
x2 = x2
x3 = x3

x2
x3

q aparece diagonalizada
q ( x1 , x2 , x3 ) = x1

x2 + 0x3

Por ltimo, para calcular la base para la cual la forma cuadrtica q est
diagonalizada, trabajamos con los cambios de base matricialmente, as
0 1 0
x1
1
@ x2 A = @0
0
x3

por tanto,

1
1
0

10 1
0
x1
1A @ x2 A
1
x3

0 1 0
x1
1 0
@ x2 A = @0 1
x3
1 0

10
1
1
0 A @0
1
0

0 1 0
x1
1 0
@ x2 A = @0 1
x3
1 0
1
1
0

que, operando las matrices, podemos expresar

1
0
1A
1

1
1 1 2
X = @0 1 1A X
1 1 0
de donde la base es B = {(1, 0, 1), (1, 1, 1), (2, 1, 0)} .

10 1
1
x1
0 A @ x2 A
1
x3

0 1
x1
@ x2 A
x3

188

Formas bilineales y Producto escalar

Mtodo de los autovalores


te de la forma

La forma cuadrtica se expresa matricialmen-

q ( x1 , x2 , x3 ) = x1 x2 x3

0
@0
1
2

0
0
1

10 1
x1
1A @ x2 A
x3
0
1
2

En este ejemplo usamos software de clculo de matemticas para encontrar


los autovalores y autovectores, as, los autovalores son
l1 = 0, l2 =

1,118033988749895, l3 = 1,118033988749895

que nos da la expresin diagonalizada aproximada de q


q ( x1 , x2 , x3 )

1,118 x2 2 + 1,118 x3 2

y los autovectores, en el orden adecuado nos producen la base

{(1, 12 , 0), (1, 2, 2,23606797749979), (1, 2, 2,236067977499790)}

pero nos interesa la base ortonormal. Sin ms que normalizar dicha base
obtenemos la base (aproximada) que buscamos:

B = {(0,8944, 0,4472, 0), (0,3162, 0,6324,

0,7071),
(0,3162, 0,6324, 0,7071)}

Ejemplo 6.91. Vamos a diagonalizar la forma cuadrtica siguiente


q( x1 , x2 , x3 ) = 3x12 + 4x1 x2 + 2x1 x3 + x32 + 4x2 x3
S OLUCIN :
Mtodo de Lagrange Comenzamos encontrando un cuadrado perfecto
para la primera variable. Observamos que
2
1
x3 2 4x2 x3 4x2 2
3( x1 + x2 + x3 )2 = 3x1 2 + 4x1 x2 + 2x1 x3 +
+
+
3
3
3
3
3
por tanto, q se expresa
2
q ( x1 , x2 , x3 ) = 3( x1 + x2 +
3
2
= 3( x1 + x2 +
3
Haciendo los cambios de variables

1 2
x3 )
3
1 2
x3 )
3

x1 = x1 + 23 x2 + 13 x3
x2 = x2 x3
x3 = x3
obtenemos la forma cuadrtica diagonalizada

4 2
x +
3 2
4
( x2
3

8
2
x2 x3 + x32
3
3
x3 )2 + 2x32

6.6 Diagonalizacin de formas cuadrticas


q(~x ) = 3x1 2

4 2
3 x2

189

+ 2x3 2

Para calcular la base observamos que


0

1 23
@
X= 0 1
0 0

1
3

1
1A X () X = @0
0
1

2
3

1
0

y obtenemos una base que diagonaliza a q.

B = {(1, 0, 0), (

2
3 , 1, 0), (

1
1
1 AX
1

1, 1, 1)}

6.6.3. Clasificacin por invariantes de una forma cuadrtica


Sabemos que el rango de una matriz es un invariante para matrices
equivalentes, por tanto, para tambin para matrices congruentes. Obsrvese que, si una forma cuadrtica est diagonalizada, el rango es el nmero de
elementos de la diagonal principal no nulos, independientemente de la diagonalizacin elegida. Es, lo que se llama, un invariante de la forma cuadrtica.
Definicin 6.92. Si q es una forma cuadrtica diagonalizada, llamaremos
signatura al nmero de elementos positivos de su diagonal principal.
Para el siguiente teorema no damos demostracin y nos remitimos a los
manuales de lgebra Lineal.
Teorema 6.93 (Ley de inercia de Sylvester). Sea q una forma cuadrtica real
definida en un espacio vectorial V. El rango y la signatura son invariantes de q.
Ejercicio 6.94. Determina el rango y la signatura de las formas cuadrticas de
todos los ejemplos de la seccin 6.6 anterior.
Clasificacin de las formas cuadrticas
Sea q una forma cuadrtica diagonalizada
q(~x ) = d1 x12 + d2 x22 + + dn xn2
entonces:
1. q es definida positiva () di > 0

8i = 1, 2, . . . , n.

2. q es definida negativa () di < 0

8i = 1, 2, . . . , n.

3. q es semidefinida positiva ()
d j = 0.

di

8i = 1, 2, . . . , n con algn

190

Formas bilineales y Producto escalar

4. q es semidefinida negativa () di 0
d j = 0.

8i = 1, 2, . . . , n con algn

5. En cualquier otro caso q es indefinida. Dicho de otro modo, existen


di < 0 y d j > 0.
Ejercicio 6.95. Clasifica la siguiente forma cuadrtica, usando los autovalores y
por el mtodo de Lagrange.
q( x1 , x2 , x3 ) = x3 (7x3 + x1 ) + x1 ( x3 + 7x1 ) + 4x22
Criterio de Sylvester
Existe un criterio que caracteriza las formas cuadrticas definidas, aunque no clasifica las semidefinidas ni las indefinidas.
Teorema 6.96 (Criterio de Sylvester). Sea q(~x ) = X T AX una forma cuadrtica real y sean D1 , D2 , , Dn los menores principales de A. Entonces:
1. q es definida positiva () Di > 0

8i = 1, 2, . . . , n.

2. q es definida negativa () ( 1)i Di > 0

8i = 1, 2, . . . , n.

En cualquier otro caso este criterio no clasifica nada, es decir podra ser
semidefinida o indefinida.
Demostracin. Supongamos que la forma cuadrtica est diagonalizada. Si
q es definida positiva, entonces los elementos de la diagonal principal son
todos positivos, esto es equivalente a que los Di son todos positivos. Si q
es definida negativa, entonces los elementos de la diagonal principal son
todos negativos, de aqu que los Di alternan su signo en la forma indicada
en el teorema.

Clasificacin de formas cuadrticas en espacios bidimensionales


Para el caso de formas cuadrticas en espacios vectoriales reales de dimensin 2 (como sabemos, isomorfos a R2 ) se puede hacer una clasificacin
completa independiente de los teoremas 6.93 y 6.96. Sea
q ( x1 , x2 ) = x1 x2

a b
b c


x1
= ax12 + 2bx1 x2 + cx22
x2

a b
= ac b2 y, aplicando el mtodo de Lagranb c
ge se da una de las tres siguientes situaciones:
tenemos D1 = a y D2 =

6.6 Diagonalizacin de formas cuadrticas

1. Si D1 = a 6= 0, entonces D2 = a c

b
q ( x1 , x2 ) = a x1 + x2
a

b2
a

+ c

191

b2
a

2. Si D1 = a = 0 y c 6= 0, necesariamente D2 =

x22 = D1 x1 2 +

D2 2
x2
D1

b2 0 y

2 2
b
b
D2 2
q( x1 , x2 ) = 2bx1 x2 + cx22 = c x2 + x1 +
x12 =
x1 + cx2 2
c
c
c

3. Si D1 = a = 0 y c = 0, D2 0 y haciendo los cambios de variables


x1 = |b|1/2 ( x1 + x2 ) y x2 = |b|1/2 ( x1 x2 ) obtenemos
q( x1 , x2 ) = 2bx1 x2 = 2b|b| x1 2

x2 2 = (2)D2 x1 2 + (2D2 ) x2 2

Teorema 6.97 (Criterio de Sylvester para dim=2). Sea q(~x ) = X T AX una


forma cuadrtica real de dmensin 2 y sean D1 , D2 los menores principales de A.
Entonces:
1. q es definida positiva () D1 > 0 y D2 > 0.
2. q es definida negativa () D1 < 0 y D2 > 0.
3. q es indefinida () D2 < 0.
4. q es semidefinida3 () D2 = 0.
Veamos un ejemplo. La siguiente forma
cuadrtica
100
f ( x1 , x2 ) = x12 + x22 2x1 x2

50
1
1
5
tiene por matriz
, por tanto,
0
1
1
0
4
2
0
2
D1 = 1 y D2 = 0. El teorema 6.97 anterior
4
5
nos dice que esta forma cuadrtica es semidefinida, pero no nos dice si es (semidefinida) positiva o negativa. Buscando un vector ~v para el que q(~v) no sea cero,
nos dar el signo. En este ejemplo, q(1, 0) = 1 > 0, luego q es semidefinida
positiva. En la siguiente grfica podemos ver que, efectivamente, lo es.

Ejercicio 6.98. Da un ejemplo de forma cuadrtica definida en R2 de cada uno de


las clases: definida positiva, definida negativa, semidefinida . . . .
3 En

este caso es nula cuando tambin D1 = 0 y c = 0.

192

Formas bilineales y Producto escalar

Ejercicios Propuestos
Ej. 6.1 Comprueba que la forma bilineal f (( x1 , x2 ), (y1 , y2 )) = x2 (y1
y2 ) 2x1 (y1 y2 ) es degenerada encontrando al menos un vector degenerado para f . Comprueba, adems, que es indefinida.
Ej. 6.2 Sea f : R2 R2 ! R la forma bilineal definida como: f (( x1 , x2 ), (y1 , y2 )) =
2x1 y1 3x1 y2 + x2 y2
1. Halla la matriz A de f en la base {u1 = (1, 0), u2 = (1, 1)}.
2. Halla la matriz B de f en la base {v1 = (2, 1), v2 = (1,

1)}.

3. Encuentra la matriz de cambio de base P de la base {v1 , v2 } a la base


{u1 , u2 } y comprueba que B = PT AP.
0

1
1
1 3
Ej. 6.3 Si A = @ 1 1 0 A es la matriz de una forma bilineal res3
0 1
pecto a la base cannica, se pide:
1. Calcula su matriz respecto a la base B = {(1, 1, 0), (0, 1, 0), (1, 1, 1)} .
2. Determina si es o no es degenerada.

3. Da las expresiones analticas de la forma cuadrtica asociada a f respecto de la base cannica y respecto de la base B anterior.
Ej. 6.4 Dada la siguiente matriz simtrica A =
expresiones analticas de:

3
1

1
, encuentra las
1

1. El endomorfismo asociado a A.
2. La forma bilineal asociada a A.
3. La forma cuadrtica asociada a A.
Ej. 6.5 Sea V el espacio vectorial real de los polinomios de grado menor
o igual que 2. Para f , g 2 V, se define el siguiente producto escalar: h f , gi =
Z 1
0

f (t) g(t) dt. Se pide:

1. Da una base ortonormal para este producto escalar


2. Dados los polinomios p(t) = t + 2 y q(t) = 2t
y el coseno del ngulo que forman.

3; halla sus mdulos

~u y ~v para que
Ej. 6.6 Qu ngulo deben formar los vectores unitarios
p
la norma del vector suma tome el valor k~u + ~vk = 3.
Ej. 6.7 Sea V el espacio vectorial sobre R de los polinomios de grado
2. Sean a, b, c tres nmeros reales distintos. Se considera la aplicacin

6.6 Diagonalizacin de formas cuadrticas

193

f : V V ! R, definida de la forma:
f ( p( x ), q( x )) = p( a)q( a) + p(b)q(b) + p(c)q(c)
1. Probar que es una forma bilineal simtrica.
2. Hallar la matriz asociada a dicha forma bilineal en la base B =
{1, x, x2 }.
3. Para a = 1, b = 1 y c = 0, f define un producto escalar. Encontrar
una base ortonormal, para dicho producto escalar, del subespacio de
los polinomios sin trmino independiente.
Ej. 6.8 Sabemos que dos vectores ~u, ~v 2 R3 verifican k~vk = 2k~uk y que
k~u ~vk = 2. Expresa el ngulo entre ~u y ~v en funcin del mdulo de ~u.
1. Encuentra para que valor de k~uk se tiene que el ngulo entre ambos
p
vectores sea radianes.
4
2. Encuentra, si existen, vectores ~u y ~v en las anteriores condiciones con
la condicin de que k~vk2 = 2.
Ej. 6.9 En el espacio vectorial eucldeo R4 con el producto usual se pide:
1. Obtener mediante el mtodo de Gram-Schmidt una base de vectores
ortonormales para el subespacio:
S = L{(1, 2,

1, 0), (0, 1, 1, 0), (1, 0,

2, 1)}

2. Determina una base ortonormal del espacio ortogonal S? del subespacio anterior.
Ej. 6.10 De un endomorfismo F de R4 se conoce :
a) = F = ker F.

b) F (1, 2,

2, 1) = (0, 1, 0, 1) y F (3, 3,

1, 2) = (1, 0, 1, 0)

Se pide:
1. Calcula la matriz de F.
2. Ecuaciones paramtricas e implcitas de = F (o del ncleo) y una base
ortonormal de la misma.
Ej. 6.11 Consideramos el producto escalar definido por la matriz:
0
1
1 1
0
@ 1 2
1 A.
0
1 5
Se pide:

194

Formas bilineales y Producto escalar


1. Comprueba que, efectivamente, es la matriz de un producto escalar.
2. A partir de la base cannica de R3 , obtn una base ortonormal respecto de dicho producto escalar y halla la matriz del cambio de base.

Ej. 6.12 Consideramos el espacio eucldeo tridimensional y el subespacio vectorial S generado por la base B = {(1, 0, 2), (0, 1, 1)}. Se pide:
1. Matriz A del producto escalar restringido a S.
2. Sustituye el segundo vector de la base B por otro vector ~x de forma
que {(1, 0, 2), ~x } sea una base ortogonal de S.
3. Encuentra la matriz B asociada a este producto escalar en esta nueva
base y la matriz P que hace B = P T AP.
Ej. 6.13 Calcula una base, as como las ecuaciones, del subespacio ortogonal en R4 del subespacio
(
x y + 2t = 0
S
z+t = 0
Ej. 6.14 Diagonalizar la matriz A y encontrar la matriz de paso ortogonal.
0
1
3
1 0
A=@ 1 3 0 A
0
0 2
Ej. 6.15 Clasifica las siguientes formas cuadrticas:
1. 3x2 6xy + 11y2
2. 3x2 + 2xy + 3y2 + 2xz + 2yz + 3z2
3. xy + yz + zx
Ej. 6.16 Clasifica la siguiente forma cuadrtica para los distintos valores
de a.
q( x, y, z) = ax2 + ay2 + (a 1)z2 + 2xy con a 2 R fijo.
Ej. 6.17 Diagonaliza las formas cuadrticas del ejercicio 6.15 anterior.
Ej. 6.18 Dada la forma cuadrtica cuya matriz asociada es
0
1
a
0
a
@ 0 a+c 0 A
a
0
a

6.6 Diagonalizacin de formas cuadrticas

195

1. Exprsala como suma de cuadrados usando dos mtodos diferentes.


2. Clasifcala en funcin de los parmetros a y c.
3. Pon un ejemplo, si existe, de valores de a y c para los que la forma
cuadrtica es definida positiva.
4. Pon un ejemplo, si existe, de valores de a y c para los que la forma
cuadrtica es semidefinida positiva.
5. Pon un ejemplo, si existe, de valores de a y c para los que la forma
cuadrtica es indefinida.
Ej. 6.19 Diagonaliza de dos maneras distintas las formas cuadrticas siguientes:
1. q( x, y) = 6xy + 8y2
2. q( x, y, z, t) = x2 + 2y2 6xz + z2 4t2
Ej. 6.20 Se consideran en R3 y con respecto a la base cannica, las formas
cuadrticas
q a ( x, y, z) = x2 + ay2 + 3z2 + 2xy + 2xz + 2ayz
donde a es un parmetro real. Diagonaliza y estudia el carcter de q a para
los distintos valores de a.

TEMA 7
GEOMETRA

ndice
7.1.

7.2.

El Espacio afn . . . . . . . . . . . . . . . . . . . . . . . . 197


7.1.1.

Sistemas de Referencia . . . . . . . . . . . . . . . 198

7.1.2.

Subespacios afines . . . . . . . . . . . . . . . . . 200

7.1.3.

Variedades en el plano y en el espacio real . . . . 201

El espacio afn eucldeo . . . . . . . . . . . . . . . . . . . 203


7.2.1.

Perpendicularidad . . . . . . . . . . . . . . . . . 204

7.2.2.

ngulo y distancia entre variedades lineales . . 205

7.2.3.

Coordenadas polares . . . . . . . . . . . . . . . . 209

7.2.4.

Coordenadas cilndricas y esfricas . . . . . . . . 211

Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . 215

7.1.

El Espacio afn

Los espacios vectoriales nos dan una imagen geomtrica muy limitada,
puesto que sus elementos son vectores. Generalmente los conceptos geomtricos comienzan con la definicin de puntos. El espacio geomtrico ms
prximo al espacio vectorial es el espacio afn.
Definicin 7.1. Llamaremos espacio afn a una cuaterna (A, V, K, j), donde: A es un conjunto cuyos elementos llamamos puntos,V es un espacio
vectorial sobre el cuerpo K y j : A A ! V es una funcin que a cada dos
!
puntos P, Q 2 A le asigna un vector j( P, Q) = PQ 2 V y que verifica los
siguientes axiomas:
197

198

Geometra
Q

1. (Relacin de Chasles). Si P, Q, R son elementos de A, entonces

!
!
!
PQ + QR = PR

R
P

P + ~x
2. Si P 2 A y ~x 2 V exise un nico punto Q
!
tal que PQ = ~x.
Este punto lo representamos Q = P + ~x.

~x

Llamaremos dimensin del espacio afn a la dimensin del espacio vectorial V asociado a A.
Ejemplo 7.2. Todo espacio vectorial V puede ser considerado un espacio
afn (asociado a s mismo) sin ms que identificar los puntos con los vecto!
res P = ~x, Q = ~y y definiendo PQ = ~y ~x.
Propiedades. De forma inmediata, a partir de la definicin, tenemos las
siguientes propiedades:

!
1. Para cada P 2 A se tiene PP = ~0.

!
2. Para cada par de puntos P, Q 2 A se tiene PQ =

!
QP.

3. (Regla del paralelogramo). Si P, Q, R, S 2 A entonces

!
!
!
!
PQ = RS () PR = QS

Ejercicio 7.3. Prueba las anteriores propiedades.

7.1.1. Sistemas de Referencia


Al punto O se le llama
origen del sistema u origen
de coordenadas.

Llamamos sistema de refencia afn de A al formado por un punto de


O 2 A y una base {~v1 , ~v2 , . . . .~vn } del espacio vectorial asociado V. Un sistema lo expresamos de la forma

R = {O; ~v1 , ~v2 , . . . .~vn }


Todo punto P de A tiene unas coordenadas respecto al sistema de referencia
!
que sern las coordenadas del vector OP, as

!
P = ( p1 , p2 , . . . , pn )R () OP = p1~v1 + p2~v2 + + pn~vn

7.1 El Espacio afn

199

Ejemplo 7.4. En el espacio afn A = R n se suele llamar sistema de referencia


cannico el que se construye a partir de la base cannica

RC = {O; (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)}


siendo el origen el punto O = (0, 0, . . . , 0).
Cambio de coordenadas
Dado un punto de coordenadas X ( x1 , x2 , . . . , xn )R respecto al sistema
R = {O; ~v1 , ~v2 , . . . .~vn }, queremos calcular sus nuevas coordenadas
X ( x10 , x20 , . . . , xn0 )S
respecto al sistema S = { P; ~e1 , ~e2 , . . . , ~en }.
Para ello, calculamos las coordenadas de P( p1 , p2 , . . . , pn )R en R y la
matriz A del cambio de base de {~e1 , ~e2 , . . . .~en } a {~v1 , ~v2 , . . . , ~vn }. Entonces
0 1 0 1 0
1
x1
p1
x1 p1
C B C B
C
!
! B
!
B x2 C B p2 C B x2 p2 C
PX = OX OP = B . C B . C = B
C
.
..
@ .. A @ .. A @
A
xn
pn
xn pn

y las coordenadas de X ( x10 , x20 , . . . , xn0 )S en el nuevo sistema de referencia


cumplen la relacin
0

1
0 01
x1 p1
x1
B x2 p2 C
B x0 C
B
C
B 2C
B
C = A B .. C
...
@
A
@.A
xn pn
xn0
Ejercicio 7.5. En el espacio afn A = R2
calcula las coordenadas del punto A( x, y)
en el sistema de referencia R = { P, ~v1 , ~v2 }
siendo
P = (2,

1)

~v1 = (1, 1)
~v2 = ( 1, 1)

y
y0

~v2

~v1

x0
x

O
P

Nota. A veces es habitual dar un sistema de referencia a partir de n + 1 puntos del


! !
!
espacio afn, R = {O; A1 , A2 , . . . , An }, de forma que los vectores {OA1 , OA2 , . . . , OAn }
forman una base de V. Es evidente que esta manera de dar un sistema de referencia es equivalente a la anterior.

200

Geometra

7.1.2.

Subespacios afines

Un subconjunto no vaco L de puntos de un espacio afn A asociado


a un espacio vectorial V es un subespacio afn si existe algn subespacio
vectorial S V para el que L es un espacio afn. Como es habitual llamaremos dimensin de L a la dimensin del subespacio S. Los subespacios
afines de dimensin finita se les suele denominar variedades lineales afines o simplemente variedades lineales. Una variedad de dimensin n 1
de un espacio afn de dimensin n se dice que es un hiperplano.
Variedades lineales y sistemas de ecuaciones
Ya sabemos que los sistemas de ecuaciones lineales homogneos se corresponden con subespacios vectoriales de R n . Vamos a ver que las variedades lineales de R n , visto como espacio afn, se corresponden con los sistemas de ecuaciones, no necesariamente homogneos.
La primera observacin es que si S es un subespacio vectorial de R n y
llamamos origen O = ~0, entonces S = O + S, por tanto S es tambin una
variedad lineal (que pasa por el origen).
Proposicin 7.6. El conjunto de soluciones de un sistema lineal AX = C de m
ecuaciones con n incgnitas, compatible es una variedad lineal de R n .
Demostracin. Sea S el subespacio vectorial formado por las soluciones del
sistema homogneo asociado AX = 0 y sea L el conjunto de soluciones del
!
Por tanto, dim L es igual a sistema (en general, no homogneo) AX = C. Si X, Y 2 L, entonces XY =
dim S = n rango A Y
X es un elemento de S, que prueba que L es una variedad lineal.

Ecuaciones de una variedad lineal real


Sea L = P + S una variedad lineal de R n tal que el subespacio vectorial
S est generado por una base de vectores {~v1 , ~v2 , . . . , ~vk } y sea O el origen,
es decir O = ~0. Entonces un punto X 2 L se puede expresar como

!
!
OX = OP + l1~v1 + l2~v2 + + lk~vk

(Ecuacin vectorial de L)

Como es habitual, al ser los puntos de L elementos de R n , los expresamos


como matrices columnas de nmeros reales, as
0 1 0 1
0 1
0 1
0 1
x1
p1
v11
v12
v1k
B x2 C B p2 C
B v21 C
B v22 C
B v2k C
B C B C
B C
B C
B C
B .. C = B .. C + l1 B .. C + l2 B .. C + + lk B .. C
@.A @ . A
@ . A
@ . A
@ . A
xn
pn
vn1
vn2
vnk
por tanto tenemos las siguientes ecuaciones

7.1 El Espacio afn

201

x1 = p1 + l1 v11 + l2 v12 + + lk v1k


x2 = p2 + l1 v21 + l2 v22 + + lk v2k
..
.
xn = pn + l1 vn1 + l2 vn2 + + lk vnk

9
>
>
>
=
>
>
>
;

Ecuaciones
paramtricas de L

Y, por ltimo, de forma similar a como hemos ya vimos en la seccin


4.2.1, en pgina 108, las anteriores ecuaciones paramtricas se pueden entender como las soluciones de un sistema de ecuaciones lineales, luego, por
eliminacin de parmetros, lo podemos expresar de la forma
a11 x1 + a12 x2 + + a1n xn = c1
a21 x1 + a22 x2 + + a2n xn = c2
..
.
am1 x1 + am2 x2 + + amn xn = cm

9
>
>
>
=
>
>
>
;

Ecuaciones cartesianas de L

Ecuacin de un hiperplano En el caso de la variedad lineal de R n sea un


hiperplano, es decir de dimensin n 1, es fcil ver que queda determinada
por una nica ecuacin cartesiana
a1 x1 + a2 x2 + + a n x n = c

Ejemplo 7.7. Determina las tres ecuaciones (vectorial, paramtrica y cartesiana) del hiperplano de R4 que contiene al plano de ecuaciones cartesianas

x1 x2 x3 = 2
P
3x2 + x4 = 1
y pasa por el punto P(1, 1, 0, 0)

S OLUCIN: La direccin del hiperplano H viene determinada por dos vectores (independientes) del plano P y un tercer vector desde algn punto
del plano al punto P.
Resolviendo el sistema de ecuaciones que define P, tenemos
x1
x2
x3
x4

= 2+l+
=l
=
= 1 3l

de donde obtenemos (fcilmente) dos vectores independientes de la direccin de P : {(1, 1, 0, 3), (1, 0, 1, 0)} y un punto Q(2, 0, 0, 1) 2 P.

7.1.3. Variedades en el plano y en el espacio real


Especial inters tienen las variedades lineales contenidas en R2 y R3 .
Recordemos algunos conceptos importantes.

202

Geometra

Rectas en el plano
Una recta en el plano es un hiperplano. sta viene determinada a partir
El vector de direccin de un punto P ( p1 , p2 ) y un vector de direccin ~
v = (v1 , v2 ) 6= ~0, por la
determina el subespacio llamada ecuacin vectorial
de direccin es S = L(~v).
!
!
OX = OP + l~v
y la ecuacin paramtrica

( x, y) = ( p1 + lv1 , p2 + lv2 )
de donde se obtienen, a su vez, las llamada ecuacin general
ax + by = c
y la ecuacin continua

p1
v1

p2
v2

Tambin se puede expresar la ecuacin de una recta a partir de dos puntos P( p1 , p2 ) y Q(q1 , q2 ) distintos que estn contenidos en la propia recta
x
q1

p1
y
=
p1
q2

p2
p2

Si el vector de direccin es (0, 1) la recta es vertical o con pendiente infinita


y tiene por ecuacin x = c. En caso contrario, el vector de direccin es
~v = (v1 , v2 ), con v1 6= 0, y se dice que la recta tiene pendiente
m=

v2
v1

La recta, entonces, se puede representar por la llamada ecuacin puntopendiente:


y p2 = m ( x p1 )
Paralelismo. La interseccin de dos rectas del plano se traduce en un sistema de dos ecuaciones con dos incgnitas.
a1 x + b1 y = c1
a2 x + b2 y = c2
que puede ser nicamente
Incompatible: Rectas paralelas y distintas.
Compatible indeterminado: Rectas coincidentes.
Compatible determinado: Rectas secantes (un nico punto en
la interseccin).

7.2 El espacio afn eucldeo

203

Rectas y planos en el espacio (R3 )


Los planos son los hiperplanos en R3 , por tanto tendrn una nica ecuacin cartesiana llamada ecuacin general
ax + by + cz = d
A partir de un punto P( p1 , p2 , p3 ) y una base del espacio de direccin ~u =
(u1 , u2 , u3 ), ~v = (v1 , v2 , v3 )} podemos expresarlo por las ecuaciones vectoriales y parametricas.
en cuenta que si X ( x, y, z) es un punto del
n Teniendo
!o
plano los vectores ~u, ~v, PX sern linealmente dependientes y esto nos da
una ecuacin en forma de determinante
x

u1
v1

p1 y

p2 z p3
u2
u3
=0
v2
v3

que nos permite dar una ecuacin a partir de tres puntos P, Q, R no alineados
x p1 y p2 z p3
q1 p1 q2 p2 q3 p3 = 0
r1 p1 r2 p2 r3 p3
Las rectas del espacio: en ecuaciones cartesianas son de la forma
a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2
A partir de dos puntos P, Q distintos podemos obtener las ecuaciones continuas de la recta que los contiene,
x
q1

7.2.

p1
y
=
p1
q2

p2
z
=
p2
q3

p3
p3

El espacio afn eucldeo

Para calcular distancias y ngulos dentro de un espacio afn necesitamos incluir el principal elemento del espacio eucldeo: el producto escalar.
Definicin 7.8. Llamaremos espacio afn eucldeo E a un espacio afn en el
que el espacio vectorial asociado V es eucldeo.
En un espacio E podemos definir la distancia entre puntos P, Q 2 E
como
!
d( P, Q) = k PQk

El teorema 6.38, pgina 164, nos permite probar las propiedades de la


distancia

204

Geometra

Teorema 7.9. En un espacio afn eucldeo E tenemos las siguientes propiedades de


la distancia:
1. d( P, Q) = 0 () P = Q,
2. d( P, Q) = d( Q, P),

8 P, Q 2 E.

8 P, Q 2 E.

3. d( P, Q) + d( Q, R) d( P, R),

8 P, Q, R 2 E.

Demostracin. Ejercicio.

Al igual que en los espacios vectoriales eucldeos tenamos las bases ortonormales, en un espacio afn distinguiremos unos sistemas de referencia
Definicin 7.10. Diremos que {O; ~e1 , ~e2 , . . . , ~en } en un espacio E es un sistema de referencia rectangular si {~e1 , ~e2 , . . . , ~en } es una base ortonormal del
espacio vectorial asociado V.
Ejemplo 7.11. El sistema de referencia del ejercicio 7.5 es rectangular.
Si las coordenadas de los puntos P( p1 , p2 , . . . , pn ) y Q(q1 , q2 , . . . , qn ) estn dadas respecto a un sistema de referencia rectangular, la distancia toma
la conocida expresin
d( P, Q) =

7.2.1.

( q1

p1 )2 + ( q2

p2 )2 + + ( q n

p n )2

Perpendicularidad

Se dice que dos variedades lineales L1 = P1 + S1 y L2 = P2 + S2 de un


espacio afn eucldeo E son perpendiculares si se verifica: 1. L1 \ L2 6= y
2. S1 ? S2 , es decir, son perpendiculares si se cortan y sus direcciones son
ortogonales.
Siempre se pueden construir variedades lineales perpendiculares a una
dada. Especial inters tiene las rectas perpendiculares a un hiperplano.
Teorema 7.12. Dado un hiperplano L cuya ecuacin cartesiana, respecto a un
sistema de referencia rectangular, es
a1 x1 + a2 x2 + + a n x n = c
el vector ~n de coordenadas n = ( a1 , a2 , . . . , an ) define rectas perpendiculares a L.
Demostracin. Si P( p1 , p2 , . . . , pn y Q(q1 , q2 , . . . , qn son puntos de L, se cumple
a1 ( q1 p1 ) + a2 ( q2 p2 ) + + a n ( q n p n ) = 0
!
y esto implica que h~n, PQi = 0.

7.2 El espacio afn eucldeo

205

Definicin 7.13. El vector ~n del teorema 7.12 se dice que es un vector normal al hiperplano.
Ejemplo 7.14. En el espacio afn eucldeo R2 las rectas son los hiperplanos.
Dada, entonces, una recta de ecuacin general
r ax + by = c

el vector ~n = ( a, b) es un vector normal, luego las rectas perpendiculares


tiene por ecuacin
x p1
y p2
=
a
b
Ejercicio 7.15. En R3 , encuentra las ecuaciones de una recta que pasa por el punto
P( p1 , p2 , p3 ) perpendicular al plano
p ax + by + cz = d

7.2.2. ngulo y distancia entre variedades lineales


ngulo entre hiperplanos
Si L1 y L2 son dos hiperplanos de E, podemos elegir dos vectores normales ~n1 y ~n2 a cada uno ellos.
Definicin 7.16. Llamaremos ngulo de L1 y L2 al menor de los ngulos
que forman sus respectivos vectores normales. Por tanto
cos( L1 , L2 ) =

|h~n1 , ~n2 i|
k~n1 k k~n2 k

Ejercicio 7.17. Da una expresin analtica del ngulo de dos rectas en el plano y
dos planos en el espacio.
Otra situacin en que interesa calcular el ngulo es en el espacio E = R3 .
ngulo entre una recta y un plano en el espacio
Definicin 7.18. El ngulo que forman una recta y un plano de R3 es el que
forman el vector de direccin de la recta y su proyeccin ortogonal sobre el
plano.
Sea r una recta con vector de direccin ~v y sea p un plano de vector
normal ~n, entonces
Proposicin 7.19. El ngulo formado por la recta r y el plano p es tal que cumple
sen(r, p ) =

|h~v, ~ni|
k~vk k~nk

Demostracin. La dejamos como ejercicio.

206

Geometra

Distancia entre variedades lineales


Puesto que el concepto de distancia es puntual, dada dos variedades
L1 = P1 + S1 y L2 = P2 + S2 , se define la distancia entre ellas como el
Del mismo modo se nfimo de las distancia entre sus respectivos puntos,

puede definir la distancia


entre dos subconjuntos de
puntos cualesquiera.

d( L1 , L2 ) = nf {d( X, Y ) | X 2 L1 , Y 2 L2 }
Evidentemente, si las variedades L1 y L2 tienen interseccin no vaca, su
distancia es cero.
Vamos a ver algunos casos particulares para encontrar esta distancia.
Distancia de un punto a una variedad lineal

De forma natural
!
PS = Q + ProyS ( QP).

Sea P un punto y L = Q + S una variedad lineal, entonces la distancia de P


P
a L ser la distancia de P al punto (ortogonalmente) proyectado sobre la variedad L, que llamaremos PS .
PS
Q
Seguiremos la metodologa descrita en la subseccin 6.4.1 para calcular
L = Q+S
la distancia buscada. Suponemos que
el espacio E est dotado de un sistema de refencia rectangular.
Si {~a1 ,~a2 , . . . ,~ar } es una base de S, representamos por A la matriz n r
formada por las coordenadas de los vectores expresados en columna. La
proyeccin ortogonal (vase teorema 6.74) es A( A T A) 1 A T , luego

d( P, L) = d( P, PS ) = d P, Q + A( A T A)

!
A T QP

(7.1)

que nos da un mtodo general para calcular la distancia de P a L.


Ejemplo 7.20. Calcula la distancia al origen de coordenadas de la recta, en
el espacio E = R3 , que tiene por ecuaciones
r

2x y + z = 6
x+z = 1

S OLUCIN: Las ecuaciones paramtricas de


8
< x=1 l
y= 4 l
r
:
z=l

nos dan un vector de direccin, ~v = (1, 1, 1) y un puntoo Q(1, 4, 0). Por


tanto, la proyeccin ortogonal del espacio en el subespacio de direccin

7.2 El espacio afn eucldeo

207

S = L(~v) tiene por matriz


0

10
0 11
1
1
1 @ 1 AA
Pr = A( A A ) 1 A T = @ 1 A @ 1 1
1
1
0
1
1
1
1
1@
1
1
1A
=
3
1
1 1

1 1

1 =

De aqu, el origen de coordenas O proyectado en r es

0 1
1
!
OS = Q + ProyS ( QO) = (1, 4, 0) + Pr @ 4 A = (2, 3, 1)
0
Por tanto,

d(O, r ) =

22 + ( 3 ) 2 + ( 1 ) 2 =

14

Distancia de un punto a un hiperplano


En el caso de que la variedad lineal L sea un hiperplano, la frmula (7.1)
toma una expresin ms conveniente.
Supongamos que la ecuacin del hiperplano L viene expresada de la forma
~n
P
a1 x1 + a2 x2 + + x n a n + c = 0
respecto de un sistema de referencia rectangular (orientado positivamente), de
aqu ~n = ( a1 , a2 , . . . , an ) es el vector normal a L. Entonces sabemos que
si Q 2 L,

a
a
Q

PS
L

!
!
h QP, ~ni = k QPk k~nk cos a

~ k cos a = d( P, PS ), luego
siendo a el ngulo entre ambos vectores, pero k QP
d( P, L) = d( P, PS ) =

!
h QP, ~ni
(p
= 1
k~nk
=

q ) a + + ( pn qn ) an
q1 1
=
a21 + a22 + + a2n

( a1 p1 + + a n p n ) + ( a1 q1
q
a21 + a22 + + a2n

an qn )

simplificando la anterior expresin e incorporando un valor absoluto porque el vector ~n podra tener orientacin contraria, tenemos

208

Geometra

d( P, L) =

| a1 p1 + a2 p2 + + a n p n + c |
q
a21 + a22 + + a2n

(7.2)

Distancia entre un punto a una recta en el espacio


La expresin (7.1) toma tambin una expresin ms simple cuando la
variedad L es una recta en un espacio tridimensional. Supongamos que la
recta, en un sistema de referencia rectangular tiene como ecuaciones continuas:
x q1
y q2
z q3
r
=
=
v1
v2
v3
entonces podemos enunciar el siguiente resultado
Proposicin 7.21. Sea Q(q1 , q2 , q3 ) un punto cualquiera de la recta r, entonces
la distancia del punto P a r es

d( P, r ) = q

!
QP ^ ~v
v21 + v22 + v23

!
Demostracin. La norma del vector producto vectorial, k QP ^ ~vk es el rea
!
del paralelogramo que define, del cual, k PPS k = d( P, r ) es su altura.
P

PS

~v

!
Por tanto, este rea es k QP ^ ~vk = k~vk d( P, r ), de donde se obtiene la frmula que queremos probar.

Ejemplo 7.22. En el ejemplo 7.20 seguimos un mtodo general para encontrar la distancia al origen de la recta

2x y + z = 6
r
x+z = 1
Para aplicar la frmula de la proposicin anterior calculamos las ecuaciones
continuas de r
x 1
y+4
z
=
=
1
1
1

7.2 El espacio afn eucldeo

209

de aqu
d(O, r ) =

k(1, 4, 0) ^ ( 1, 1, 1)k
p
=
3

( 4)2 + ( 1)2 + ( 5)2 p


p
= 14
3

Algunas situaciones particulares nos permiten encontrar una expresin


para las distancia entre variedades lineales, como son las siguientes.
Distancia entre variedades lineales paralelas
Ser la distancia desde un punto de una de ellas a la otra variedad. Es
decir si P 2 L1 y L1 es paralela a L2 , tenemos
d( L1 , L2 ) = d( P, L2 )
Distancia ente dos rectas que se cruzan en E = R3
Dos rectas en el espacio afn eucldeo tridensional que no son secantes
(se cortan) ni paralelas, se dice que se cruzan. Sean dos de estas rectas r1 y
r2 , con sus respectivos vectores de direccin ~v1 y ~v2 , y sea ~h un vector que
une dos puntos de cada una de las rectas de forma que la base {~v1 , ~v2 ,~h} Esto siempre se puede
hacer porque las rectas no
tenga orientacin positiva.
son coplanarias.
El paraleleppedo formado por estos tres vectores tiene por volumen
det(~v1 , ~v2 ,~h). Si entendemos que los vectores ~v1 y ~v2 determinan la base, y
llamamos H a la altura del paraleleppedo, que es la distancia entre ambas
rectas, tenemos
det(~v1 , ~v2 ,~h) = rea de la base H
y como el rea de la base es k~v1 ^ ~v2 k, entonces
d ( L1 , L2 ) =

det(~v1 , ~v2 ,~h)


.
k~v1 ~v2 k

Ejercicio 7.23. Calcula la distancia entre el eje Z y la recta perpendicular al plano


determinado por los puntos A(0, 0, 1), B(0, 1, 0), C (0, 0, 2) que pasa por el punto
(1, 1, 0).

7.2.3. Coordenadas polares


En el espacio afn eucldeo E = R2 adems de los sistemas de referencia
rectangulares S = {O; ~e1 , ~e2 } a partir de una base ortonormal, es habitual
el sistema de referencia polar o coordenadas polares.

210

Geometra

Definicin 7.24. Llamaremos sistema de referencia polar en el plano afn


eucldeo a un punto origen O y un vector ~v, a partir de los cuales, a cada
punto P se le asigna dos valores (r, q ) siendo
r 2 [0, ) la distancia d(O, P) y

!
q el ngulo que forman ~v y OP (expresado en radianes).
A (r, q ) se le llama las coordenadas polares de del punto P.
Estas coordenadas no son nicas, por ejemplo el origen de coordenadas
es (0, q ) siendo q cualquier valor real. En general, un punto viene represenA veces es conveniente tado por una infinidad de ngulos q 2kp, de los que, de forma cannica,
considerar q 2 [0, 2p ). elegimos q 2 ( p, p ].

r es la coordenada radial y
q la coordenada angular.

Conversin de coordenadas
Los siguientes resultados dan la conversin de coordenadas polares a
rectangulares y viceversa. Las demostraciones son fciles y se dejan como
ejercicio.
Proposicin 7.25. Un punto P del plano con coordenadas polares (r, q ) tiene por
coordenadas rectangulares (o cartesianas) ( x, y) siendo
x = r cos q
y = r sen q
Proposicin 7.26. Un punto P de coordenadas ( x, y) distinto del origen, en un
sistema de referencia rectangular tiene por coordenadas polares (r, q ) siendo
r2 = x 2 + y2
8
y
>
arctan
>
>
>
x
>
< p
q=
>
2
>
>
>
>
: p
2

si x 6= 0 (conforme a su cuadrante)
si x = 0 e y > 0
si x = 0 e y < 0

Al origen de coordenadas se le representa, en coordenadas polares, como r = 0.


Ejercicio 7.27. En la siguiente tabla, convierte los puntos expresados en coordenadas polares en coordenadas rectangulares y viceversa.
Puntos del plano
Polares
Rectang. ( 3, 2)

r = 2, q = p

r = 3, q =

( 2, 2)

p
3

7.2 El espacio afn eucldeo

211
P

y = r sen q

q
x = r cos q

r2 = x 2 + y2
y
tan q =
x

Figura 7.1: Coordenadas polares.


Ecuaciones polares
De igual forma que la ecuacin y = f ( x ) representa puntos del plano
expresados en coordenadas rectangulares (o cartesianas), tambin una expresin de la forma r = f (q ) representa puntos en coordenada polar.
Ejemplo 7.28. La circunferencia de radio r toma como expresin en coordenadas cartesianas x2 + y2 = r2 . La misma circunferencia toma una expresin muy simple en coordenadas polares r = r.
Ejemplo 7.29. Ciertas curvas, sobre todo de tipo circular o elptico, toman
una expresin adecuada en coordenadas polares. As en las grficas se pueden observar dos ejemplos clsicos, la rosa polar (una de las muchas que se
pueden construir) y la espiral de Arqumedes.

r = sen(2q )

r = aq, con q 2 [0, )

Ejercicio 7.30. Usa una calculadora o programa de clculo para dibujar la curva
que que tiene por ecuacin en polares
r=

1
, con q 2 [0,2p )
1 + 0,5 cos q

y observa que es una elipse .

7.2.4. Coordenadas cilndricas y esfricas


La extensin de las coordenadas polares al espacio afn eucldeo tridimensional se hace a travs de las coordenadas cilndricas y las coordenadas
esfricas.
Supongamos un sistema de referencia rectangular orientado positivamente de origen O, cuyos vectores definen las direcciones: eje X, eje Y y
eje Z.

212

Geometra

Coordenadas cilndricas
Definicin 7.31. Un punto P del espacio eucldeo E = R3 se representa en
coordenadas cilndricas por (r, j, z), donde:
r 2 [0, ) es la coordenada radial, definida como la distancia del
punto P al eje Z, o bien la norma del vertor que resulta de proyectar
!
ortogonalmente el vector OP sobre el plano XY.
j 2 ( p, p ] es la coordenada acimutal, definida como el ngulo
!
que forma el eje X con la proyeccin ortogonal del vector OP sobre el
plano XY.
z 2 ( , ) es la coordenada vertical o altura, definida como la
distancia (con signo) desde el punto P al plano XY.

Eje Z
P
z
x O
j

y
r

Eje Y

Eje X

Figura 7.2: Coordenadas cilndricas.

Proposicin 7.32. Si un punto P del espacio tiene por coordenadas cilndricas


(r, j, z), entonces sus coordenadas rectangulaes son
x = r cos j
y = r sen j
z=z
Proposicin 7.33. Si un punto P del espacio tiene por coordenadas rectangulares

7.2 El espacio afn eucldeo

213

( x, y, z), entonces sus coordenadas cilndricas son


q

x 2 + y2
8
y
>
>arctan
>
>
< p x
j=
>
2
>
>
>
: p
2
z=z
r=

si x 6= 0 (conforme al cuadrante de ( x, y, 0))


si x = 0 e y > 0
si x = 0 e y < 0

El eje Z, en coordenadas cilndricas, es r = 0 y el origen de coordenadas es r =


0, z = 0.
Ejemplo 7.34. Si r > 0 la ecuacin r = r representa el cilindro (vertical) de
radio r.
Coordenadas esfricas
Definicin 7.35. Un punto P del espacio eucldeo E = R3 se representa en
coordenadas esfricas por (r, q, j), donde:
r 2 [0, ) es la coordenada radial, definida como la distancia del
origen al punto P.
q 2 [0, p ] es la inclinacin o latitud, definida como el ngulo del
!
eje Z con el vector OP.
j 2 ( p, p ] es la coordenada acimutal, tambin llamada longitud definida como el ngulo que forma el eje X con la proyeccin
!
ortogonal del vector OP sobre el plano XY.

Proposicin 7.36. Si un punto P del espacio tiene por coordenadas cilndricas


(r, j, z), entonces sus coordenadas rectangulaes son
x = r sen q cos j
y = r sen q sen j
z = r cos q
Proposicin 7.37. Si un punto P del espacio tiene por coordenadas rectangulares

214

Geometra
Eje Z

P
q
O

r
y
r se
nq

Eje Y

Eje X

Figura 7.3: Coordenadas esfricas

( x, y, z), entonces sus coordenadas esfricas son


q
r = x 2 + y2 + z2
z
q = arc cos
si r 6= 0
r
8
y
>
arctan
si x 6= 0 (conforme al cuadrante de ( x, y, 0))
>
>
>
< p x
si x = 0 e y > 0
j=
>
2
>
>
p
>
:
si x = 0 e y < 0
2
En coordenadas esfricas el origen de coordenadas es r = 0.
Ejemplo 7.38. Si r > 0 la ecuacin esfrica r = r representa la esfera de
radio r.
Ejercicio 7.39. En la siguiente tabla, convierte los puntos del espacio de una representacin a las otras.
Puntos del espacio

( 2, 2, 2)
8
>
<r =
Cilndricas
j=
>
:
z=
8
>r =
<
Esfricas
q=
>
:
j=
Rectang.

8
>
<r = 1
j = p/2
>
:
z= 1
8
>
<r =
q=
>
:
j=

8
>
<r =
j=
>
:
z=
8
>
<r = 3
q = p/4
>
:
j = p/2

7.2 El espacio afn eucldeo

215

Ejercicios Propuestos
Ej. 7.1 Considera el punto P(0, 0, 1) y la recta r

x+y = 2
z=1

1. Calcula el punto Q de la recta r ms prximo a P.


2. Halla los puntos R de la recta r tal que el tringulo PQR tenga rea
2.
Ej. 7.2 Encuentra las ecuaciones que definen una circunferencia centrada en el punto (1, 1, 1) contenida en el plano x + y 2z = 0 y es tangente a
la recta de corte de dicho plano con el plano horizontal z = 0.
Ej. 7.3 Considera, los planos de un haz (1
l) = 0.

2l) x + (1

l)y

(2 +

1. Comprueba que existe una recta comn a todos los planos dados y
determina su ecuacin.
2. Halla la ecuacin de un plano que pase por el origen y sea perpendicular a todos los planos del haz.
3. Determina cul de los planos del haz contiene a la recta s x + 1 =
z+2
.
y 1=
2
(

x=y
y
x+z = 1
el punto A 2 p \ r. Dado cualquier punto P de la recta consideramos el
punto Q del plano p ms cercano a P. Expresa el rea del tringulo APQ
en funcin del valor de x.
P
Ej. 7.4 Sean el plano p x + y = 2 y la recta r

p
Q

Ej. 7.5 Dos caras de un cubo se encuentran en los planos 3x


3x y + 2z = 7. Calcular el volumen del cubo.

y + 2z = 5,

Ej. 7.6 Determina las coordenadas polares de cada uno de los vrtices
de un pentgono regular de lado unidad centrado en el origen y uno de los
vrtices se apoya en el eje polar.

216

Geometra

Ej. 7.7 Consideramos el movimiento en el plano eucldeo definido como


un giro de 30o (en sentido positivo) con centro el punto C = (2, 1). Calcula
la nueva ecuacin de la recta x + y 1 = 0 tras aplicarle el giro anterior.
Ej. 7.8 Halla el lugar geomtrico de los puntos, P, del plano cuya distancia a A(2, 0) sea el doble de la distancia a B( 1, 0).
Ej. 7.9 Halla la ecuacin del lugar geomtrico de los puntos, P, del plano
tales que su distancia al punto A(1, 0), es el triple de su distancia a la recta
x = 2.
Ej. 7.10 Una cadena se tensa sobre una polea circular de radio R de forma que queda enganchada a una distancia 2R del centro de la polea, conforme se aprecia en el dibujo. Calclese la longitud de la cadena.
R
2R
Indicacin: El radio de una circunferencia es perpendicular a la recta tangente.
Ej. 7.11 Determina la ecuacin polar de las curva de ecuacin en coordenadas rectangulares y2 (2a x ) = x3 , a > 0.
Ej. 7.12 Expresa en forma rectangular las siguientes ecuaciones que representan superficies en forma cilndrica. Indica tambin qu tipo de superficie son.
a) z = r2 .

b) r = 2 cos q.

c) r2 + z2 = 25.

Ej. 7.13 Encuentra el centro y el radio de la esfera que tiene por ecuacin
en coordenadas esfricas r = sen q sen j.

NDICE ALFABTICO

(n1 , n2 , . . . , nt )-permutacin, vase Permuortogonal, 173


tacin con objetos repetidos
Argumento, 48
principal, 49
1-forma, vase Forma lineal
X T A Y , vase Representacin matri- Asociativa, 39
Autoadjunto, 176, 182
cial de una forma bilineal
Automorfismo, 125
X T AX, vase Expresin matricial
Autovalor, 138
, vase Isomorfo
Autovector, 138
(nr), vase Nmero combinatorio
Autovectores
(n1 ,n2n,...,nt ), vase Nmero multinomial
Mtodo de, 184
Z n , vase Enteros modulares
A , vase Matriz adjunta
A T , vase Matriz traspuesta
Abeliano, 42
Adjunto, 6
Ampliada, vase Matriz ampliada
ngulo, 166, 180
Anillo, 43
de matrices cuadradas, 6
Antirreflexiva, vase Relacin Antirreflexiva
Antisimtrica, vase Relacin antisimtrica
Aplicacin
bilineal, 154
lineal, 122
Imagen, vase Imagen
Matriz, vase Matriz de una aplicacin lineal
Ncleo, vase Ncleo
Propiedades, 123
propiedades, 127
Rango, vase Rango de una aplicacin lineal

Base, 109
cannica, 110
incompleta, 113
ortogonal, 167, 168
ortonormal, 167, 168
Bell, 82
Binomio de Newton, 74
Biyectiva, vase Funcin biyectiva, 38
C (n, r ), vase Combinacin ordinaria
CR(n, r ), vase Combinacin con repeticin
Cambio de base, 111
Matriz de, 112
Cardinal, 25, 110
Cartesiano, vase Producto cartesiano
Cayley-Hamilton, vase Teorema de CayleyHamilton
seeRelacin de Chasles, 198
Circular, vase Relacin circular
Codominio, vase Imagen
Cofactor, vase Adjunto
Combinacin
con repeticin, 75

217

218
lineal, 103
ordinaria, 72
Complejos, vase Nmeros complejos
Complementario, 25
Complemento ortogonal, 174
Composicin
de funciones, 36
de aplicaciones lineales, 133
Ley de, vase Operacin
Congruencia, 158
Conjugado, 51
Conjunto, 24
cociente, 34, 117
de las partes, 25
Igualdad, 25
Operaciones de, 25
universal, 25
vaco, 24
Conmutativa, 39
Coordenadas, 111, 198
cilndricas, 212
esfricas, 213
polares, 210
Correspondencia, 29
Coseno, 56, 166
hiperblico, 57
Cotangente, 56
hiperblica, 57
Cramer, 18
Criterio de Sylvester, 190, 191
Cuerpo, 46
de los complejos, 46

NDICE ALFABTICO
de endomorfismos, 136
de formas cuadrticas, 184189
Diferencia de conjuntos, 27
Diferencia simtrica, 27
Dimensin, 110, 198, 200
Teorema, vase Teorema de la dimensin
Dirichlet, 67
Principio de, vase Principio del palomar
Distancia, 163
entre puntos, 203
entre vectores, 165
Distributivas, 39
Divisor de cero, 45
Doble inclusin, vase Principio de doble inclusin
Dominio, 30, 36

E.R., vase Ecuaciones de recurrencia


E.R.L., vase Ecuaciones de recurrencia
lineales
Ecuacin caracterstica, 138
Ecuacin
vectorial, 200
Ecuaciones
cartesianas, 108
de recurrencia, 82
lineales, 84, 90
explcitas, vase paramtricas
implcitas, vase cartesianas
paramtricas, 107, 200
Elemento, 24
D, vase Matriz diagonal
absorbente, 41
det( A), vase Determinante
comparable, 35
det( A lI ), vase Polinomio caractersneutro, 39, 47
tico
opuesto,inverso, 41
Dependencia
regular, 41
lineal, 103
simtrico,simetrizable, 40, 47
Desarreglos, 77
Endomorfismo, 125
Descomposicin
autoadjunto, 176
Teorema de la, 129
diagonalizable, 137
Desigualdad
ortogonal, 179
de Schwarz, 164
simtrico, 182
triangular, 164
Enteros modulares, 34
Desigualdad triangular, 52
anillo de, 44
Determinante, 4, 159, 170
grupo de, 43
Diagonal principal, 2
Epimorfismo, 125
Diagonalizable, 137, 140, 142
Equivalencia
Diagonalizacin
de matrices, 8, 134

NDICE ALFABTICO
clase de, 32
de sistemas, 14
Relacin de, 32
Escalar, 101
Espacio
afn, 197203
eucldeo, 203215
mtrico, 165
vectorial, 101
cociente, 117
de aplicaciones lineales, 126
dual, 126
eucldeo, 162
Espacio cociente, 117
Eucldeo, 162
Euler, 50, 58
Exclusin
Regla de, 172
Exponencial, 54
de una matriz, 146
Expresin binomial, vase Forma rectangular de un complejo
Expresin matricial
de una aplicacin lineal, 132
de una forma cuadrtica, 161
f q , vase Forma polar
Fibonacci, 86
Forma
bilineal, 154
(anti)simtrica, 154, 156
definida, 157
degenerada, 156
indefinida, 157
semidefinida, 157
cuadrtica, 159
definida, 162, 189
indefinida, 162, 190
semidefinida, 162, 189
lineal, 154
multilineal, 158
alternada, 159
polar, 159
polar de un complejo, 50
rectangular de un complejo, 48
Frmula
de Euler, 50
de Grassmann, 117
Funcin, 3538
biyectiva, 38

219
composicin, 36
exponencial, 54
de base, 58
inversa, 37, 57
invertible, 38
inyectiva, 38, 54
sobreyectiva, 38
trigonomtrica, 55
hiperblica, 57
GL(n), vase Grupo general lineal
Gauss, 12, 16
Gauss-Jordan, 12, 16
Generador, vase Sistema generador de
vectores
Giro
vectorial, 180
Grado de libertad, 15
Grafo
de una relacin, 29
Gram-Schmidt, 167
Grassmann, vase Frmula de Grassmann
Grupo, 42
general lineal, 43, 182
ortogonal, 182
especial, 182
simtrico, 42
Hanoi
Torres de, 89, 91
Hiperplano, 174, 200, 201
Homomorfismo, vase Aplicacin lineal
i, vase Unidad imaginaria
Img f , vase Imagen
In , vase Matriz identidad
Identidad, 3, 31
de Jacobi, 172
Imagen, 30, 36, 125, 127
Inclusion-exclusion, vase Principio de inclusinexclusin
Independencia
lineal, 103
Inercia, vase Ley de inercia de Sylvester
Interseccin, 25
de subespacios, 113
generalizada, 28
Invariante, 186, 189
Inversa, 37
Invertible, 6, 37

220
Inyectiva, vase Funcin inyectiva
Isomorfismo, 125
Isomorfo, 125
Jacobi, vase Identidad de Jacobi
ker f , vase Ncleo
Lagrange
Mtodo de, 184
Ley de inercia de Sylvester, 189
Logaritmo
complejo, 57
neperiano, 57
principal, 58
M ( f ; B1 , B2 ), vase Matriz de una aplicacin lineal
Matrices
congruentes, 158, 183
equivalentes, 134, 136
semejantes, 137
Matriz, 13
adjunta, 6
ampliada, 13, 15
antisimtrica, 2
columna, 1
cuadrada, 1
de paso, 137, 141
de una aplicacin lineal, 132
de una forma bilineal, 155
de una forma cuadrtica, 161
definida, 158
diagonal, 2, 137
diagonalizable, 137
elemental, 9
escalar, 2
escalonada, 8
reducida, 9
exponencial, 146
fila, 1
identidad, 3
inversa, 6, 144
clculo, 7, 12, 144
invertible, 6
ortogonal, 179
regular, vase invertible
simtrica, 2
singular, 6
traspuesta, 2

NDICE ALFABTICO
triangular
inferior, 2
superior, 2
Menor, 6
Mdulo, 48, 163
Monomorfismo, 125
Multilineal, 158
Multiplicidad
algebraica, 142
geomtrica, 142
Newton, vase Binomio de Newton
Norma
usual o estndar, 164
Norma de un vector, 163
Normalizar, 165
Notacin aditiva y multiplicativa, 43
Ncleo, 127
Nmero
combinatorio, 72
Propiedades, 73
de Bell, 82
de funciones, 71
biyectivas, 70
inyectivas, 69
sobreyectivas, 78
de Stirling
de 1a especie, 81
de 2a especie, 80
e de Euler, 58
multinomial, 77
Nmeros complejos, 47
Operacin, 38
externa, 38
Orden total y parcial, 35
Orientacin
de un espacio vectorial, 170
Origen, 36, 198
Ortogonalidad, 166
P(n, r ), vase r-permutacin
P(n), vase Permutacin
PR(n, r ), vase Permutacin con repeticin
POR(n1 , n2 , . . . , nt ), vase Permutacin con
objetos repetidos
Par ordenado, 28
Parte real e imaginaria, 48
Partes de un conjunto, 25

NDICE ALFABTICO
Particin, 32
Pendiente, 202
Permutacin
con objetos repetidos, 71
con repeticin, 70
ordinaria, 69
Perpendicular, 166, 204
Pitgoras, vase Teorema de Pitgoras
Polinomio
caracterstico, 86, 138
Potencia, 144
Principio
de doble inclusin, 25
de inclusin-exclusin, 27, 77
de la suma, 67
del palomar, 67
del producto, 68
Producto
cartesiano, 29
escalar, 162
estndar, vase usual
usual, 163, 179
interno, vase escalar
vectorial, 171
Progresin, 83
Proyeccin, 176
ortogonal, 176
r-combinacin, 72
r-permutacin, 69
Rango
de una aplicacin lineal, 130
de una forma cuadrtica, 189
de una matriz, 11
Referencia, vase Sistema de referencia
Reflexiva, vase Relacin reflexiva
Relacin, 2935
representacin, 29
antirreflexiva, 31
antisimtrica, 31
circular, 31
de Chasles, 198
de equivalencia, 32
de orden, 35
grafo, vase Grafo de una relacin
identidad, 31
interna, 31
reflexiva, 31
simtrica, 31
transitiva, 31

221
Representacin matricial
de un sistema de ecuaciones lineales, 14
de una forma bilineal, 155
de una forma cuadrtica, 161
S( A), Sn , vase Grupo simtrico
s(n, r ), vase Nmero de Stirling de 1a
especie
S(n, r ), vase Nmeros de Stirling de 2a
especie
Schwarz, vase Desigualdad de Schwarz
Semejanza, 137
Semigrupo, 42
Seno, 56
hiperblico, 57
Signatura, 189
Simtrica, vase Relacin simtrica
Simetra
central, 181
especular, 181
Sistema
(in)compatible, 14
de ecuaciones, 1319, 200
cuadrado, 18
homogneo, 14, 17
de referencia, 198
polar, 209
rectangular, 204
de vectores, 103
de vectores (in)dependientes, 103
generador de vectores, 107
ortogonal de vectores, 167
Sobreyectiva, vase Funcin sobreyectiva
Solucin
General, 84
particular, 91
Stirling, vase Nmero de Stirling
Subconjunto, 24
trivial/propio, 25
Subespacio
afn, 200
ortogonal, 174
propio, 139
suplementario, 117
vectorial, 105
generado, 107
trivial, 106
Suma

222
de subespacios
vectoriales, 115
directa, 116
Suplementario, vase Subespacio suplementario
Sylvester, 189191
tr( A), vase Traza
Tangente, 56
hiperblica, 57
Teorema
de aproximacin ptima, 177
de caracterizacin, 106
de Cayley-Hamilton, 146
de la base, 110
de la base incompleta, 113
de la descomposicin, 129
de la dimensin, 130
de Pitgoras generalizado, 166
de Rouch-Frbenius, 15
Transformacin
elemental, 9, 132
lineal, vase Aplicacin lineal
Transitiva, vase Relacin transitiva
Traza, 3, 137, 145, 163
Tringulo de Tartaglia (o Pascal), 74
Triangular, 2, 164
Unin, 25
generalizada, 28
Unidad imaginaria, 48
Universo, vase Conjunto universal
Valor absoluto, 48
Valor propio, vase Autovalor
Variedad lineal, vase Subespacio afn
Vector, 101, 197
degenerado, 156
normal, 205
normalizado, 165
ortogonal, 166
propio, vase Autovector
unitario, 165
Vectores
Sistema de, 103
Sistema generador de, 107

NDICE ALFABTICO

Você também pode gostar