Você está na página 1de 22

Captulo X

Matrices y determinantes
Recordemos que nuestra intenci on es estudiar anillos como Z
_
2

y hasta
ahora s olo tenemos una teora razonable sobre cuerpos como Q
_
2
_
. La raz on
es que la teora de cuerpos se apoya en la teora de espacios vectoriales, mientras
que el an alogo para anillos es la teora de m odulos, que no es tan potente o,
al menos, requiere razonamientos m as delicados para conseguir resultados que
en el caso de espacios vectoriales son mucho m as simples. En este captulo
introduciremos dos poderosas herramientas de la teora de m odulos con las que
nalmente estaremos en condiciones de abordar los anillos numericos.
10.1 Matrices
Denici on 10.1 Sea A un anillo unitario y m, n n umeros naturales no nulos.
Una matriz mn sobre A es una aplicaci on B : {1, . . . , m} {1, . . . , n} A.
Escribiremos b
ij
en lugar de B(i, j) y tambien B = (b
ij
). En la pr actica escri-
biremos los elementos de una matriz mn dispuestos en m las y n columnas
as:
B =
_
_
_
b
11
b
1n
.
.
.
.
.
.
b
m1
b
mn
_
_
_
Llamaremos Mat
mn
(A) al conjunto de todas las matrices m n sobre A.
Las matrices n n se llaman matrices cuadradas. Escribiremos Mat
n
(A) en
lugar de Mat
nn
(A).
Evidentemente dos matrices B = (b
ij
) y C = (c
ij
) son iguales si y s olo si
tienen las mismas dimensiones mn y b
ij
= c
ij
para todo par de ndices i, j.
Podemos identicar los elementos de A
n
con las matrices 1 n, es decir,
con las matrices con una sola la y n columnas. A estas matrices se las llama
matrices la. Cuando A es un anillo de divisi on se las llama tambien vectores
la.
157
158 Captulo 10. Matrices y determinantes
Por analoga, las matrices m1, es decir, las matrices que constan de una
sola columna, se llaman matrices columna o vectores columna cuando A es un
anillo de divisi on.
En las matrices la y columna suprimiremos el ndice jo, es decir, las re-
presentaremos as:
(a
1
, . . . , a
n
),
_
_
_
a
1
.
.
.
a
n
_
_
_
Llamaremos matriz traspuesta de una matriz B Mat
mn
(A) a la matriz
B
t
Mat
nm
(A) que resulta de intercambiar las las de B por sus columnas,
es decir, la componente (i, j) de B
t
es la componente (j, i) de B.
De este modo, la traspuesta de una matriz la es una matriz columna y
viceversa. Claramente B
tt
= B.
Una matriz cuadrada B es simetrica si B = B
t
, es decir, si b
ij
= b
ji
para
todo par de ndices i, j.
La la i-esima de una matriz B es la matriz la B
i
= (b
i1
, . . . , b
in
). La
columna j-esima de la matriz B es la matriz columna
B
j
=
_
_
_
b
1j
.
.
.
b
m,j
_
_
_
luego, en este sentido, una matriz mn tiene m las y n columnas.
Llamaremos matriz nula de orden mn a la matriz mn que tiene todas
sus componentes iguales a 0.
Llamaremos diagonal principal de una matriz cuadrada B Mat
n
(A) a la
n-tupla (b
11
, . . . , b
nn
).
Una matriz cuadrada es una matriz diagonal si tiene nulas todas sus com-
ponentes que no est an en la diagonal principal.
Una matriz diagonal es una matriz escalar si tiene todas sus componentes
de la diagonal principal iguales entre s.
La matriz identidad de orden n es la matriz escalar nn cuyas componentes
de la diagonal principal son iguales a 1. La representaremos por I
n
.
Si denimos la delta de Kronecker mediante

ij
=

1 si i = j
0 si i 6= j
entonces I
n
= (
ij
).
Ahora denimos unas operaciones con matrices:
Si B = (b
ij
) y C = (c
ij
) son matrices mn, llamaremos B +C a la matriz
mn dada por B +C = (b
ij
+c
ij
).
Si B = (b
ij
) es una matriz mn y a A, llamaremos aB a la matriz mn
dada por aB = (ab
ij
).
10.1. Matrices 159
Con estas operaciones Mat
mn
(A) se convierte en un A-m odulo libre de
rango mn. Una base la forman las mn matrices que tienen un 1 en cada una de
las posiciones posibles y las restantes componentes nulas.
La estructura de A-m odulo en los espacios de matrices la no es sino la
estructura usual en los espacios A
n
.
Finalmente denimos el siguiente producto de matrices:
Si B Mat
mn
(A) y C Mat
nr
(A), la matriz BC Mat
mr
(A) es la
que tiene en la posici on (i, j) el elemento

n
k=1
b
ik
c
kj
.
Es pura rutina comprobar las propiedades siguientes (que se cumplen cuando
las dimensiones de las matrices son las apropiadas):
B(CD) = (BC)D.
B(C +D) = BC +BD.
(B +C)D = BD +CD.
BI
n
= I
m
B = B.
Si A es conmutativo (BC)
t
= C
t
B
t
.
En general, el producto de matrices no es una operaci on interna en el con-
junto Mat
mn
(A), pero s lo es en los espacios de matrices cuadradas. Los
espacios Mat
n
(A) son anillos unitarios con la suma y el producto de matrices.
Salvo en casos triviales no son conmutativos. La aplicaci on que a cada elemento
a A le asigna la matriz escalar aI
n
es un monomorsmo de anillos, con lo que
podemos identicar los elementos de A con las matrices escalares, y as A es un
subanillo de Mat
n
(A). El producto de una matriz por el elemento a coincide
con el producto por la matriz aI
n
.
Vamos a dar una interpretaci on de todo esto en terminos de m odulos.
Sea M un A-m odulo libre de rango nito n. Una base ordenada de M es
una n-tupla B = (u
1
, . . . , u
n
) tal que u
1
, . . . , u
n
forman una base de M.
Llamaremos sistema de coordenadas asociado a la base ordenada B a la
aplicaci on
B
: M A
n
que a cada elemento m M le asigna la n-tupla
(a
1
, . . . , a
n
) tal que m = a
1
u
1
+ + a
n
u
n
. A
B
(m) se le llama n-tupla de
coordenadas de m respecto a la base B.
Sea f : M N un homomorsmo entre m odulos libres de rangos m y n
respectivamente. Sean B = (u
1
, . . . , u
m
) y B
0
= (v
1
, . . . , v
n
) bases ordenadas
de M y N. Para cada u
i
existen unos unicos elementos a
ij
A tales que
f(u
i
) =

n
j=1
a
ij
v
j
.
Llamaremos matriz asociada a f en las bases B y B
0
a M
B
0
B
(f) = (a
ij
), es
decir, a la matriz que tiene por las a las coordenadas en la base B
0
de las
im agenes de los miembros de la base B.
Teorema 10.2 Sea f : M N un homomorsmo entre A-m odulos libres
de rangos m y n respectivamente. Sean B y B
0
bases ordenadas de M y N.
Entonces M
B
0
B
(f) es la unica matriz que cumple:

B
0
_
f(u)
_
=
B
(u)M
B
0
B
(f),
para todo u M.
160 Captulo 10. Matrices y determinantes
Demostraci on: Sean B = (u
1
, . . . , u
m
) y B
0
= (v
1
, . . . , v
n
), sea M
B
0
B
(f) =
(a
ij
) y sea
B
(u) = (x
1
, . . . , x
m
). Entonces u =

m
i=1
x
i
u
i
y
f(u) =
m

i=1
x
i
f(u
i
) =
m

i=1
x
i
n

j=1
a
ij
v
j
=
n

j=1

i=1
x
i
a
ij
_
v
j
,
luego

B
0
_
f(u)
_
=

i=1
x
i
a
ij
_
=
B
(u)M
B
0
B
(f).
Si una matriz C cumple
B
0
_
f(u)
_
=
B
(u)C, entonces tomando u = u
i
la
n-tupla
B
(u) es la que tiene un 1 en el lugar i-esimo y 0 en los restantes. El
producto
B
(u)C no es sino la la i-esima de C, luego dicha la i-esima est a
formada por las coordenadas
B
0
_
f(u
i
)
_
, al igual que la la i-esima de M
B
0
B
(f).
Por lo tanto C = M
B
0
B
(f).
Denici on 10.3 Si M y N son A-m odulos libres de rangos m y n, llamaremos
Hom
A
(M, N) al conjunto de todos los homomorsmos entre M y N. Fijadas
dos bases ordenadas B y B
0
de M y N respectivamente, tenemos denida una
aplicaci on
M
B
0
B
: Hom
A
(M, N) Mat
mn
(A),
que claramente es biyectiva.
En efecto, si M
B
0
B
(f) = M
B
0
B
(g), entonces por el teorema anterior para todo
elemento u de M, se cumple
B
0
_
f(u)
_
=
B
0
_
g(u)
_
, luego ha de ser f(u) =
g(u) y por lo tanto f = g, la aplicaci on es inyectiva. Por otra parte, dada una
matriz C Mat
mn
(A), por el teorema 7.31 existe f Hom
A
(M, N) que enva
a cada componente de la base B al elemento de N que en la base B
0
tiene por
n-tupla de coordenadas a la correspondiente la de C, con lo que M
B
0
B
(f) = C.
Ejercicio: Calcular la matriz asociada a los automorsmos del cuerpo ciclot omico
Q(), donde
5
= 1, respecto a la base ordenada (1, ,
2
,
3
).
Si A es un anillo conmutativo, el conjunto Hom
A
(M, N) puede ser dotado
de estructura de A-m odulo de forma natural:
Denimos f + g como el homomorsmo que sobre cada m M act ua me-
diante (f +g)(m) = f(m) +g(m), y si a A, entonces af es el homomorsmo
determinado por (af)(m) = a
_
f(m)
_
(notar que si A no es conmutativo af no
tiene por que ser un homomorsmo).
Es f acil comprobar que la aplicaci on M
B
0
B
es un isomorsmo de m odulos, es
decir, que M
B
0
B
(f +g) = M
B
0
B
(f) + M
B
0
B
(g) y que M
B
0
B
(af) = aM
B
0
B
(f).
Por ejemplo, si u M, entonces

B
(u)
_
M
B
0
B
(f) + M
B
0
B
(g)
_
=
B
(u)M
B
0
B
(f) +
B
(u)M
B
0
B
(g)
=
B
0
_
f(u)
_
+
B
0
_
g(u)
_
=
B
0
_
f(u) +g(u)
_
=
B
0
_
(f +g)(u)
_
,
10.1. Matrices 161
luego por la unicidad de 10.2, M
B
0
B
(f +g) = M
B
0
B
(f) + M
B
0
B
(g).
Esto explica las deniciones que hemos dado de suma de matrices y producto
de una matriz por un elemento de A: la suma de dos matrices es la operaci on
que nos da la matriz asociada al homomorsmo suma de los homomorsmos
asociados a los sumandos, y similarmente con el producto por elementos de A.
Respecto al producto de matrices, su interpretaci on es la siguiente:
Teorema 10.4 Sean f : M N y g : N R homomorsmos de A-
m odulos libres de rango nito. Sean B, B
0
y B
00
bases ordenadas de M, N y R
respectivamente. Entonces M
B
00
B
(f g) = M
B
0
B
(f)M
B
00
B
0 (g).
Demostraci on: Si u M, entonces

B
(u)M
B
0
B
(f)M
B
00
B
0 (g) =
B
0
_
f(u)
_
M
B
00
B
0 (g) =
B
00

g
_
f(u)
_
_
=
B
00
_
(f g)(u)
_
,
luego por la unicidad de 10.2, M
B
00
B
(f g) = M
B
0
B
(f)M
B
00
B
0 (g).
El espacio Hom
A
(M, M) es un anillo unitario con la suma y la composici on
de aplicaciones. Acabamos de probar que la aplicaci on M
B
0
B
es un isomorsmo.
Notar que la matriz identidad se corresponde con la aplicaci on identidad.
El lector debe tener presente que todas las propiedades sobre los conjuntos
de matrices Mat
mn
(A) se traducen a propiedades de los espacios Hom
A
(M, N)
a traves de los isomorsmos que hemos denido.
Denici on 10.5 Una matriz C Mat
n
(A) es regular si es una unidad del
anillo Mat
n
(A), es decir, si existe una matriz C
1
Mat
n
(A) tal que CC
1
=
C
1
C = I
n
. En tal caso la matriz C
1
es unica y se llama matriz inversa de C.
Una matriz cuadrada que no es regular es una matriz singular.
Una propiedad elemental es que si A es conmutativo y B es una matriz
regular, entonces la matriz traspuesta B
t
tambien es regular y (B
t
)
1
= (B
1
)
t
.
En efecto, basta observar que (B
1
)
t
B
t
= (BB
1
)
t
= I
t
n
= I
n
, e igualmente en
orden inverso.
Teorema 10.6 Si f : M N es un homomorsmo entre m odulos libres del
mismo rango nito y B, B
0
son bases ordenadas de M y N respectivamente,
entonces f es un isomorsmo si y s olo si M
B
0
B
(f) es regular y, en tal caso,
M
B
B
0 (f
1
) = M
B
0
B
(f)
1
.
Demostraci on: Sea g Hom
A
(N, M) tal que g = f
1
si suponemos que
f es isomorsmo o tal que M
B
B
0 (g) = M
B
0
B
(f)
1
si suponemos que M
B
0
B
(f) es
regular.
En cualquier caso se cumple que M
B
0
B
(f)M
B
B
0 (g) = M
B
B
(f g) = I
n
= M
B
B
(I)
y M
B
B
0 (g)M
B
0
B
(f) = M
B
0
B
0 (g f) = I
n
= M
B
0
B
0 (I), de donde se siguen las dos
implicaciones.
162 Captulo 10. Matrices y determinantes
Denici on 10.7 Si B = (u
1
, . . . , u
n
) y B
0
= (v
1
, . . . v
n
) son dos bases ordena-
das de un mismo A-m odulo M, se llama matriz de cambio de base a la matriz
M
B
0
B
= M
B
0
B
(I), donde I es la identidad en M.
Claramente M
B
0
B
es regular y (M
B
0
B
)
1
= M
B
B
0 . La la i-esima de M
B
0
B
es
B
0 (u
i
)
y para todo m M se cumple la relaci on

B
0 (m) =
B
(m)M
B
0
B
,
es decir, el producto por M
B
0
B
transforma las coordenadas de m en B en las
coordenadas de m en B
0
.
Ejercicio: Sabemos que el cuerpo ciclot omico Q() coincide, para p = 3, con el
cuerpo cuadr atico Q
_
3
_
. Concretamente, =
_
1 +

3
_
/2. Calcular la matriz
de cambio de base asociada a
_
1,

3
_
y (1, ).
Terminamos las propiedades generales sobre matrices con las observaciones
siguientes:
Teorema 10.8 Se cumple
1. Si A es un dominio ntegro y B, C Mat
n
(A) cumplen que BC = I
n
,
entonces B y C son regulares y C = B
1
.
2. Si A es un dominio ntegro y B Mat
mn
(A), C Mat
nm
(A) cumplen
que BC = I
m
, CB = I
n
, entonces n = m, B y C son regulares y C = B
1
.
Demostraci on: Sea K el cuerpo de cocientes de A. Entonces Mat
n
(A)
puede considerarse como un subanillo de Mat
n
(K). Fijemos una base del espacio
vectorial K
n
y consideremos las aplicaciones lineales f, g : K
n
K
n
cuyas
matrices en la base considerada sean B y C respectivamente. Entonces la matriz
de f g es I
n
, lo que signica que f g es la aplicaci on identidad. De aqu se
sigue que f es un monomorsmo, luego dimImf = dimK
n
= n. Por 7.26
tenemos que Imf = K
n
, luego f es un isomorsmo y por el teorema anterior
B es regular. Multiplicando por B
1
en BC = I
n
obtenemos que C = B
1
.
La prueba de 2 es an aloga.
10.2 Determinantes
Pasamos ahora al estudio de los determinantes de matrices cuadradas. En
lugar de denir directamente el concepto de determinante, que puede resultar
articial, vamos a establecer las propiedades que deseamos que cumplan los
determinantes y concluiremos que la unica denici on posible es la que vamos a
adoptar.
Denici on 10.9 Sea A un dominio y n un n umero natural no nulo. Entonces
A
n
es un A-m odulo libre de rango n. Una aplicaci on f : (A
n
)
n
A es
10.2. Determinantes 163
una forma multilineal si para todos los elementos v
1
, . . . , v
n
, v
0
A
n
, todos los
a, a
0
A y todo ndice 1 i n se cumple
f(v
1
, . . . , av
i
+a
0
v
0
, . . . , v
n
) = af(v
1
, . . . , v
i
, . . . , v
n
) +a
0
f(v
1
, . . . , v
0
, . . . , v
n
).
Una forma multilineal f es antisimetrica si cuando la n-tupla x (A
n
)
n
resulta de intercambiar el orden de dos componentes de la n-tupla y (A
n
)
n
,
entonces f(x) = f(y).
Una forma multilineal f es alternada si toma el valor 0 sobre todas las n-
tuplas que tienen dos componentes iguales.
Antes de discutir estos conceptos conviene destacar algunas consecuencias
sencillas de la denici on:
Teorema 10.10 Sea A un anillo conmutativo y unitario y f : (A
n
)
n
A
una forma multilineal.
1. La forma f es antisimetrica si y s olo si para toda permutaci on
n
y
todos los v
1
, . . . , v
n
A
n
se cumple
f(v
(1)
, . . . , v
(n)
) = (sig )f(v
1
, . . . , v
n
)
2. Si f es alternada, entonces es antisimetrica.
Demostraci on: 1) Si f cumple esta propiedad es antisimetrica, pues al
intercambiar dos elementos estamos aplicando una trasposici on y las trasposi-
ciones tienen signatura 1. Si f es antisimetrica, el valor de f(v
(1)
, . . . , v
(n)
)
puede obtenerse aplicando sucesivas trasposiciones sobre f(v
1
, . . . , v
n
), que cam-
biar an el signo de f tantas veces como trasposiciones compongan a . Por lo
tanto el resultado nal ser a (sig )f(v
1
, . . . , v
n
).
2) Supongamos que f es alternada y sean 1 i < j n, v
1
, . . . , v
n
A
n
.
Entonces
0 = f(v
1
, . . . ,
(i)
v
i
+v
j
, . . . ,
(j)
v
i
+v
j
, . . . v
n
)
= f(v
1
, . . . ,
(i)
v
i
, . . . ,
(j)
v
i
, . . . v
n
) +f(v
1
, . . . ,
(i)
v
i
, . . . ,
(j)
v
j
, . . . v
n
)
+ f(v
1
, . . . ,
(i)
v
j
, . . . ,
(j)
v
i
, . . . v
n
) +f(v
1
, . . . ,
(i)
v
j
, . . . ,
(j)
v
j
, . . . v
n
)
= 0 +f(v
1
, . . . ,
(i)
v
i
, . . . ,
(i)
v
j
, . . . v
n
) +f(v
1
, . . . ,
(i)
v
j
, . . . ,
(j)
v
i
, . . . v
n
) + 0,
luego f(v
1
, . . . , v
j
, . . . , v
i
, . . . v
n
) = f(v
1
, . . . , v
i
, . . . , v
j
, . . . v
n
).
Ejercicio: Probar que si car A es impar entonces una forma multilineal sobre (A
n
)
n
es antisimetrica si y s olo si es alternada.
De este modo vemos que los conceptos de forma antisimetrica y forma alter-
nada son casi equivalentes. El segundo nos evita algunos problemas que surgen
cuando puede ocurrir x = x sin que x sea 0, pero en tal caso la teora que
vamos a desarrollar es de poca utilidad. Ahora probamos que siempre existe
una forma multilineal alternada en (A
n
)
n
, y que es esencialmente unica, lo que
dar a pie a la denici on de la funci on determinante.
164 Captulo 10. Matrices y determinantes
Teorema 10.11 Sea A un dominio y n un n umero natural no nulo. Para cada
i = 1, . . . , n sea e
i
= (
i1
, . . . ,
in
), es decir, la n-tupla que tiene un 1 en la
posici on i-esima y 0 en las restantes. Sea a A. Existe una unica forma
multilineal alternada f : (A
n
)
n
A tal que f(e
1
, . . . , e
n
) = a.
Demostraci on: Supongamos que existe f y veamos que es unica. De este
modo obtendremos la forma que ha de tener y podremos construirla.
Sea (v
1
, . . . , v
n
) (A
n
)
n
. Para cada i = 1, . . . , n sea v
i
= (a
i1
, . . . , a
in
) =

n
j=1
a
ij
e
j
.
Por la multilinealidad,
f(v
1
, . . . , v
n
) = f
_
_
n

j
1
=1
a
1j
1
e
j
1
, . . . ,
n

j
n
=1
a
nj
n
e
j
n
_
_
=
n

j
1
=1

n

j
n
=1
a
1j
1
a
nj
n
f(e
j
1
, . . . , e
j
n
).
Como f es alternada, todas las asignaciones k 7 j
k
que no sean biyecciones
har an que f(e
j
1
, . . . , e
j
n
) = 0, luego podemos eliminarlas de las sumas y as
f(v
1
, . . . , v
n
) =

n
a
1(1)
a
n(n)
f(e
(1)
, . . . , e
(n)
).
Como f es alternada tenemos que f(e
(1)
, . . . , e
(n)
) = (sig )f(e
1
, . . . , e
n
),
luego
f(v
1
, . . . , v
n
) = a

n
(sig )a
1(1)
a
n(n)
. (10.1)
Dado que esta expresi on no depende de f concluimos que si f existe es
unica. Adem as esto nos lleva a denir f : (A
n
)
n
A por la f ormula (10.1).
Si probamos que la funci on as denida es una forma multilineal alternada y
adem as f(e
1
, . . . , e
n
) = a, el teorema quedar a demostrado.
Tomemos v
1
, . . . , v
n
, v
0
A
n
, b, b
0
A y 1 i n. Sea v
i
= (a
i1
, . . . , a
in
),
v
0
= (a
1
, . . . , a
n
). Claramente bv
i
+b
0
v
0
= (ba
i1
+b
0
a
1
, . . . , ba
in
+b
0
a
n
), luego
f(v
1
, . . . , bv
i
+b
0
v
0
, . . . , v
n
) = a

n
(sig )a
1(1)
(ba
i(i)
+b
0
a
(i)
) a
n(n)
= ba

n
(sig )a
1(1)
a
i(i)
a
n(n)
+b
0
a

n
(sig )a
1(1)
a
(i)
a
n(n)
= bf(v
1
, . . . , v
i
, . . . , v
n
) +b
0
f(v
1
, . . . , v
0
, . . . , v
n
).
Esto prueba que f es multilineal. Para probar que es alternada supongamos
que v
i
= v
j
con i < j. Entonces a
ik
= a
jk
para k = 1, . . . , n.
Sea A
n
el grupo alternado, formado por las permutaciones de signatura
positiva, y sea B
n
el conjunto de las permutaciones impares.
10.2. Determinantes 165
Es inmediato que la aplicaci on g : A
n
B
n
dada por g() = (i, j) es
biyectiva.
Si A
n
y = g(), entonces a
i(i)
= a
i(j)
= a
j(j)
e igualmente se
cumple a
j(j)
= a
i(i)
. De aqu resulta que a
1(1)
a
n(n)
= a
1(1)
a
n(n)
,
y como sig = sig g(), el sumando correspondiente a se cancela con el
correspondiente a g() y, en total, f(v
1
, . . . , v
n
) = 0.
Por ultimo, si (v
1
, . . . , v
n
) = (e
1
, . . . , e
n
), entonces a
ij
=
ij
y el unico
sumando no nulo en (10.1) es el correspondiente a = 1, con lo que queda
f(e
1
, . . . , e
n
) = a.
Ahora ya podemos denir la aplicaci on determinante. Conviene observar que
si A es un dominio y n un n umero natural no nulo, podemos identicar (A
n
)
n
con Mat
n
(A). Concretamente, cada (v
1
, . . . , v
n
) (A
n
)
n
puede identicarse
con la matriz que tiene por las a v
1
, . . . , v
n
. De hecho esta correspondencia es
un isomorsmo de A-m odulos.
Por ello es indistinto considerar que el dominio de una forma multilineal es
(A
n
)
n
o Mat
n
(A). El teorema anterior puede reformularse como que existe una
unica forma multilineal alternada f sobre Mat
n
(A) tal que f(I
n
) sea un valor
dado a A.
Denici on 10.12 Si A es un dominio y n es un n umero natural no nulo, llama-
remos funci on determinante det : Mat
n
(A) A a la unica forma multilineal
alternada que cumple det(I
n
) = 1.
Dada una matriz cuadrada B, escribiremos indistintamente det(B) o |B|
para representar al determinante de B.
Seg un la construcci on del teorema anterior, si B = (b
ij
), entonces
|B| =

n
(sig )b
1(1)
b
n(n)
.
Por ejemplo, si n = 1 es claro que |a| = a para todo a A.
Para n = 2 tenemos la f ormula:

a b
c d

= ad bc.
Para n = 3 hay 6 sumandos, tres con signo positivo y tres con signo negativo.
El lector puede comprobar que el desarrollo es el siguiente:

a b c
d e f
g h i

= aei +bfg +cdh ceg bdi afh.


El esquema siguiente (conocido como regla de Sarrus) permite recordar
f acilmente la f ormula:
166 Captulo 10. Matrices y determinantes
La f ormula de los determinantes de orden 4 contiene 24 sumandos, por lo
que no resulta pr actica. M as adelante veremos formas razonables de calcular
determinantes de cualquier orden.
Teorema 10.13 El determinante de una matriz cuadrada coincide con el de su
traspuesta.
Demostraci on: Sea B = (b
ij
) una matriz n n con coecientes en un
dominio A. Entonces
|B
t
| =

n
(sig )b
(1)1
b
(n)n
.
Reordenando los factores de cada sumando queda
|B
t
| =

n
(sig )b
1
1
(1)
b
n
1
(n)
=

n
(sig
1
)b
1
1
(1)
b
n
1
(n)
,
y como la correspondencia 7
1
es biyectiva queda
|B
t
| =

n
(sig )b
1(1)
b
n(n)
= |B|.
El interes de este teorema reside en que, gracias a el, todas las propiedades
que cumplen los determinantes respecto a las las de una matriz se cumplen
tambien respecto a las columnas.
Una de las propiedades m as importantes de los determinantes es la siguiente:
Teorema 10.14 Consideremos un dominio A, un n umero natural no nulo n y
dos matrices B, C Mat
n
(A). Entonces |BC| = |B| |C|.
Demostraci on: Sea f : Mat
n
(A) A dada por f(B) = |BC|. Vamos a
probar que f es una forma multilineal alternada.
Por comodidad usaremos la notaci on f(B
1
, . . . , B
n
) para indicar la imagen
de la matriz B que tiene las B
1
, . . . , B
n
. Notar que la la i-esima de BC es
(B
i
C
1
, . . . , B
i
C
n
), donde C
1
, . . . , C
n
son las columnas de la matriz C.
As, f(B
1
, . . . , B
n
) = det(Z
1
, . . . , Z
n
), donde Z
i
= (B
i
C
1
, . . . , B
i
C
n
). A
partir de aqu se sigue inmediatamente la multilinealidad de f. Adem as, si
B
i
= B
j
, entonces Z
i
= Z
j
, luego f(B
1
, . . . , B
n
) = 0.
10.2. Determinantes 167
Con la notaci on del teorema 10.11, tenemos adem as que
f(e
1
, . . . , e
n
) = f(I
n
) = |I
n
C| = |C|,
luego f ha de ser la aplicaci on construida en la prueba de dicho teorema para
a = |C| (f ormula (10.1)), que en terminos de matrices y determinantes es sim-
plemente f(B) = |B|a. As pues: |BC| = f(B) = |B||C|.
Ahora vamos a dar algunas propiedades elementales que permiten manipular
determinantes.
Teorema 10.15 Sea A un dominio y B, C Mat
n
(A).Entonces
1. Si C resulta de intercambiar dos las o columnas de la matriz B, entonces
|C| = |B|.
2. Si C resulta de multiplicar una la o columna de B por un cierto a A,
entonces |C| = a|B|.
3. Si C resulta de sumar a la la (o columna) i-esima de B la la (o columna)
j-esima de B con i 6= j, multiplicada por un a A, entonces |C| = |B|.
Demostraci on: 1) y 2) son consecuencias inmediatas de la denici on de
determinante (las variantes con columnas se cumplen por el teorema 10.13).
3) Se cumple porque |C| se descompone por multilinealidad en dos sumandos,
uno es |B| y otro el determinante de la matriz que resulta de repetir en el lugar
i-esimo la columna j-esima (multiplicado por a), y este es nulo.
Estos resultados nos permiten calcular determinantes de cualquier orden
mediante manipulaciones adecuadas. Basta notar que si una matriz cuadrada
B tiene nulos todos los coecientes bajo la diagonal principal, es decir, si b
ij
= 0
cuando i > j, entonces |B| es el producto de los coecientes de la diagonal
principal (pues la unica permutaci on que no da lugar a un sumando nulo en la
denici on de determinante es la identidad).
Por otro lado conviene observar que si A es un dominio ntegro y K es su
cuerpo de cocientes, una matriz en Mat
n
(A) est a tambien en Mat
n
(K) y su
determinante es el mismo en cualquier caso. Por ello a la hora de calcular
determinantes podemos trabajar siempre en los cuerpos de cocientes, es decir,
podemos hacer divisiones cuando convenga.
Calculemos por ejemplo:

2 3 2 3
4 3 5 0
3 2 0 3
5 2 4 7

2 3 2 3
0 9 1 6
0
13
2
3
15
2
0
19
2
1
1
2

=
El segundo determinante resulta de sumar a la segunda la la primera multi-
plicada por 2, a la tercera la la primera multiplicada por 3/2 y a la cuarta
la primera multiplicada por 5/2. De este modo conseguimos ceros bajo el
termino a
11
.
168 Captulo 10. Matrices y determinantes
Por el mismo proceso hacemos ceros en todas las posiciones bajo la diagonal
principal: sumamos a la tercera la la segunda multiplicada por 13/18 y a la
cuarta la segunda multiplicada por 19/18. Despues sumamos a la cuarta la
la tercera multiplicada por 37/67 y obtenemos una matriz triangular, es decir,
con ceros bajo la diagonal:
=

2 3 2 3
0 9 1 6
0 0
67
18

19
6
0 0
37
18
36
6

2 3 2 3
0 9 1 6
0 0
67
18

19
6
0 0 0
508
67

=
Ahora el determinante se reduce al producto de los elementos de la diagonal, o
sea:
= 2 9 (67/18) (508/67) = 508.
De este modo se puede calcular cualquier determinante, pero vamos a probar
que el trabajo puede reducirse considerablemente.
Denici on 10.16 Sea A un dominio y B Mat
n
(A). Llamaremos menor
complementario de b
ij
al determinante de la matriz que resulta de eliminar la
ja i-esima y la columna j-esima de B. Lo representaremos por B
ij
.
Teorema 10.17 Sea A un dominio y sea B Mat
n
(A) tal que en su la i-
esima el unico elemento no nulo sea b
ij
. Entonces |B| = (1)
i+j
b
ij
B
ij
.
Demostraci on: Supongamos en primer lugar que i = j = n, o sea, b
nj
= 0
si j = 1, . . . , n 1. As
|B| =

n
(sig )b
1(1)
b
n(n)
=

n
(n)=n
(sig )b
1(1)
b
(n1)(n1)
b
nn
= b
nn

n1
(sig )b
1(1)
b
(n1)(n1)
= b
nn
B
nn
= (1)
n+n
b
nn
B
nn
Si i y j son cualesquiera, sea B
0
la matriz que resulta de llevar la la i-esima
de B a la posici on n-sima. Para hacer este cambio hay que permutar la la
i-esima con las n i las que le siguen, luego el signo del determinante cambia
n i veces: |B| = (1)
ni
|B
0
|.
Sea ahora B
00
la matriz que resulta de llevar la columna j-esima de B
0
a la
posici on n-sima. De nuevo |B
0
| = (1)
nj
|B
00
| y as |B| = (1)
2nij
|B
00
| =
(1)
i+j
|B
00
|.
La la n-sima de B
00
tiene unicamente la componente n-sima no nula, y
adem as es igual a b
ij
.
Por lo ya probado |B| = (1)
i+j
b
ij
B
00
nn
, pero es obvio que B
00
nn
= B
ij
, luego
|B| = (1)
i+j
b
ij
B
ij
.
10.2. Determinantes 169
Teniendo esto en cuenta, en nuestro ejemplo era suciente con hacer ceros
en la primera columna:

2 3 2 3
4 3 5 0
3 2 0 3
5 2 4 7

2 3 2 3
0 9 1 6
0
13
2
3
15
2
0
19
2
1
1
2

= 2

9 1 6
13
2
3
15
2
19
2
1
1
2

,
y el determinante que resulta se puede calcular f acilmente. Por supuesto el
teorema anterior vale para columnas igual que para las.
Ejemplo Como aplicaci on vamos a calcular los llamados determinantes de
Vandermonde. Concretamente probaremos que

1 1
a
1
a
n
.
.
.
.
.
.
a
n1
1
a
n1
n

i<j
(a
j
a
i
),
donde a
1
, . . . , a
n
son elementos de un dominio A. En particular, si A es un
dominio ntegro, un determinante de Vandermonde es no nulo si y s olo si los
elementos de su segunda la son distintos dos a dos.
Lo probaremos por inducci on sobre n. Para n = 1 o incluso n = 2 es
inmediato. Supuesto para n 1 restamos a cada la la anterior multiplicada
por a
1
, con lo que obtenemos

1 1 1
0 a
2
a
1
a
n
a
1
.
.
.
.
.
.
.
.
.
0 a
n1
2
a
1
a
n2
2
a
n1
n
a
1
a
n2
n

.
Ahora aplicamos el teorema anterior y obtenemos

a
2
a
1
a
n
a
1
.
.
.
.
.
.
a
n1
2
a
1
a
n2
2
a
n1
n
a
1
a
n2
n

.
Por la multilinealidad sobre las columnas este determinante es igual a
(a
2
a
1
) (a
n
a
1
)

1 1
a
2
a
n
.
.
.
.
.
.
a
n2
2
a
n2
n

.
Finalmente por la hip otesis de inducci on esto es igual a

i<j
(a
j
a
i
).
En realidad el teorema 10.17 es un caso particular de un resultado m as
general:
170 Captulo 10. Matrices y determinantes
Teorema 10.18 Sea A un dominio y B Mat
n
(A). Entonces
|B| =
n

j=1
(1)
i+j
b
ij
B
ij
=
n

i=1
(1)
i+j
b
ij
B
ij
.
Demostraci on: Sean B
1
, . . . , B
n
las las de B. As B
i
=

n
j=1
b
ij
e
j
,
donde e
j
= (
ij
). Claramente,
det(B) = det(B
1
, . . . ,
n

j=1
b
ij
e
j
, . . . , B
n
) =
n

j=1
b
ij
det(B
1
, . . . , e
j
, . . . , B
n
)
=
n

j=1
b
ij
(1)
i+j
B
ij
.
La otra igualdad se prueba an alogamente.
Pasemos ahora a mostrar el interes te orico de los determinantes. En primer
lugar veremos que los determinantes determinan cu ando una matriz es regular.
Denici on 10.19 Sea A un dominio y B Mat
n
(A). Llamaremos matriz
adjunta de B a la matriz

B Mat
n
(A) dada por

b
ij
= (1)
i+j
B
ji
.
Notar que en la posici on (i, j) est a el menor complementario de b
ji
, es decir,

B se forma sustituyendo en B cada elemento por su menor complementario


multiplicado por el signo adecuado y despues trasponiendo la matriz resultante.
Por ejemplo, si
B =
_
_
1 3 2
5 1 0
3 4 2
_
_
,
entonces
B
11
=

1 0
4 2

= 2, B
12
=

5 0
3 2

= 10, B
13
=

5 1
3 4

= 23,
B
21
=

3 2
4 2

= 14, B
22
=

1 2
3 2

= 4, B
23
=

1 3
3 4

= 13,
B
31
=

3 2
1 0

= 2, B
32
=

1 2
5 0

= 10, B
33
=

1 3
5 1

= 14.
Al reemplazar cada elemento por su menor con el signo adecuado queda
_
_
2 10 23
14 4 13
2 10 14
_
_
luego la matriz adjunta de B es

B =
_
_
2 14 2
10 4 10
23 13 14
_
_
.
10.2. Determinantes 171
Teorema 10.20 Sea A un dominio y B Mat
n
(A). Entonces
B

B =

BB = |B|I
n
.
Demostraci on: El termino (i, j) de B

B es igual a

n
k=1
b
ik
(1)
k+j
B
jk
.
Si i = j queda

n
k=1
b
ik
(1)
k+j
B
ik
= |B| por el teorema 10.18, luego los
elementos de la diagonal principal de B

B son todos iguales a |B|.
Si i 6= j llamemos D la matriz cuyas las son las de B salvo que en la posici on
j-esima tiene repetida la la i-esima. Entonces |D| = 0 y desarrollando por la
la j-esima queda 0 = |D| =

n
k=1
d
jk
(1)
k+j
D
jk
=

n
k=1
b
ik
(1)
k+j
B
jk
, o
sea, los elementos fuera de la diagonal principal de B

B son nulos. Por lo tanto,
B

B = |B|I
n
. Del mismo modo se prueba la otra igualdad.
Esto signica que la matriz adjunta de una matriz B es casi su matriz inversa.
Para obtener la inversa s olo falta que sea lcito dividir entre el determinante de
B. La situaci on es la siguiente:
Teorema 10.21 Sea A un dominio y B Mat
n
(A). Entonces la matriz B es
regular si y s olo si |B| es una unidad de A, y en tal caso
B
1
=
1
|B|

B.
Demostraci on: Si la matriz B es regular, entonces existe B
1
de manera
que BB
1
= I
n
, luego tomando determinantes |B| |B
1
| = |I
n
| = 1, lo que
prueba que |B| es una unidad de A.
Si |B| es una unidad de A, entonces sea C =
1
|B|

B Mat
n
(A). Por el
teorema anterior, BC = CB = I
n
, luego B es regular y B
1
= C.
En particular una matriz con coecientes en un cuerpo es regular si y s olo
si su determinante es distinto de cero.
Aplicaci on: La regla de Cramer Los resultados anteriores nos dan una
expresi on sencilla en terminos de determinantes para las soluciones de un sistema
de ecuaciones lineales:
a
11
x
1
+ +a
1n
x
n
= b
1

a
n1
x
n
+ +a
nn
x
n
= b
n
_
_
_
Claramente podemos escribirlo matricialmente como
Ax
t
= b
t
,
donde A = (a
ij
) es la matriz de los coecientes, b = (b
i
) es el vector de terminos
independientes y x = (x
1
, . . . , x
n
). Si |A| 6= 0, el sistema tiene una unica
soluci on, dada por
x
t
= A
1
b
t
=
1
|A|

Ab
t
.
172 Captulo 10. Matrices y determinantes
En particular,
x
j
=
1
|A|
n

i=1
(1)
i+j
b
i
A
ij
.
Ahora bien, si llamamos C = (c
uv
) a la matriz que resulta de sustituir en
A su columna j-esima por el vector b, tenemos que C
ij
= A
ij
para todo i, as
como que c
ij
= b
i
, luego, aplicando el teorema 10.18, llegamos a que
x
j
=
1
|A|
n

i=1
(1)
i+j
c
ij
C
ij
=
|C|
|A|
.
En resumen:
Regla de Cramer: La j-esima coordenada de la soluci on de un
sistema de n ecuaciones lineales con n inc ognitas (cuya matriz de
coecientes A tenga determinante no nulo) puede calcularse divi-
diendo entre |A| el determinante de la matriz que resulta de sustituir
la columna j-esima de A por el vector de terminos independientes.
Ejemplo La soluci on del sistema de ecuaciones
x 2y +z = 3
2x + 2y z = 1
x + y +z = 2
_
_
_
Puede calcularse con la regla de Cramer, pues

1 2 1
2 2 1
1 1 1

= 9 6= 0,
y viene dada por
x =
1
9

3 2 1
1 2 1
2 1 1

y =
1
9

1 3 1
2 1 1
1 2 1

, z =
1
9

1 2 3
2 2 1
1 1 2

,
lo que nos da (x, y, z) = (4/3, 1/3, 1).
Los determinantes tambien nos permiten decidir si n elementos de un m odulo
libre de rango n son o no linealmente independientes, y si son o no una base.
Teorema 10.22 Sea A un dominio ntegro, sea M un A-m odulo libre de rango
n, sea (v
1
, . . . , v
n
) una base ordenada de M, sean w
1
, . . . , w
n
elementos de M
y sea B = (b
ij
) la matriz cuyas las son las coordenadas de w
1
, . . . , w
n
en la
base dada. Entonces:
1. (w
1
, . . . , w
n
) es una base de M si y s olo si |B| es una unidad de A.
2. (w
1
, . . . , w
n
) son linealmente independientes si y s olo si |B| 6= 0.
10.2. Determinantes 173
Demostraci on: 1) Por 7.31 existe un homomorsmo f : M M tal que
f(v
i
) = w
i
para cada i = 1, . . . , n. La matriz de f en la base (v
1
, . . . , v
n
) es
precisamente B.
Si w
1
, . . . , w
n
forman una base de M entonces tambien existe un homomor-
smo g : M M tal que f(w
i
) = v
i
para cada i = 1, . . . , n. La composici on
f g es la identidad sobre la base (v
1
, . . . , v
n
), luego por la unicidad del teo-
rema 7.31 se cumple que f g es la aplicaci on identidad en M. Igualmente g f
es la identidad en M. Esto prueba que f es un isomorsmo y por lo tanto |B|
es una unidad.
Si |B| es una unidad, la aplicaci on f es un isomorsmo, luego (w
1
, . . . , w
n
)
es una base de M (pues son la imagen de una base por un isomorsmo).
2) Como la aplicaci on que asocia a cada elemento de M sus coordenadas
en la base dada es un isomorsmo entre M y A
n
, los elementos w
1
, . . . , w
n
son
linealmente dependientes si y s olo si lo son sus coordenadas, es decir, las las
de B.
Las las de B son linealmente independientes en A
n
si y s olo si son lineal-
mente independientes en K
n
, donde K es el cuerpo de fracciones de A. En
efecto, si tenemos una combinaci on lineal de las las de B con coecientes en
K no todos nulos y que es igual a 0, multiplicando por el producto de los deno-
minadores de los coecientes no nulos, obtenemos una nueva combinaci on lineal
que tambien anula a las las de A, ahora con los coecientes en A y no todos
nulos. La otra implicaci on es obvia.
Como K
n
es un espacio vectorial de dimensi on n, las las de B son lineal-
mente independientes en K
n
si y s olo si son una base de K
n
.
Por 1), las las de B son una base de K
n
si y s olo si |B| es una unidad en
K, o sea, si y s olo si |B| 6= 0.
Concluimos la secci on con otra aplicaci on de los determinantes, esta vez al
c alculo del cardinal de los m odulos cociente de los Z-m odulos libres.
Teorema 10.23 Sea M un Z-m odulo libre de rango m y sea N un subm odulo
de rango n. Entonces:
1. El m odulo cociente M/N es nito si y s olo si n = m.
2. Si n = m, (v
1
, . . . , v
n
) es una base de M, (w
1
, . . . , w
n
) es una base de N
y B es la matriz cuyas las son las coordenadas de w
1
, . . . , w
n
en la base
(v
1
, . . . , v
n
), entonces el cardinal de M/N es | det B|.
Demostraci on: 1) Sea (z
1
, . . . , z
m
) una base de M tal que (a
1
z
1
, . . . , a
n
z
n
)
sea una base de N para ciertos elementos a
1
, . . . , a
n
Z (de acuerdo con el
teorema 7.30). Sea R = (Z/a
1
Z) (Z/a
n
Z) Z
mn
.
Sea f : M R el homomorsmo que a cada z
i
lo enva a la n-tupla
que tiene un 1 en la posici on i-esima y 0 en las restantes. Obviamente f es
un epimorsmo y un elemento c
1
z
1
+ + c
m
z
m
est a en N(f) si y s olo si
_
[c
1
], . . . , [c
n
], c
n+1
, . . . , c
m
_
= 0, lo que equivale a que a
i
| c
i
para i = 1, . . . , n
y c
i
= 0 para i = n + 1, . . . , m.
174 Captulo 10. Matrices y determinantes
Consecuentemente, N(f) = ha
1
z
1
, . . . , a
n
z
n
i = N, y por el teorema de iso-
morfa M/N

= (Z/a
1
Z) (Z/a
n
Z) Z
mn
.
El cociente ser a nito si y s olo si mn = 0, o sea, si y s olo si m = n.
2) Si m = n, en las condiciones de 1) tenemos
|M/N| = |(Z/a
1
Z) (Z/a
n
Z)| = |a
1
a
n
| = | det C|,
donde C es la matriz que tiene a a
1
, . . . , a
n
en la diagonal y los restantes coe-
cientes nulos.
Sea f : N M la aplicaci on dada por f(x) = x para todo x N. La
matriz de f en las bases (a
1
z
1
, . . . , a
n
z
n
) y (z
1
, . . . , z
n
) es precisamente C.
Sea P la matriz de la aplicaci on identidad en N respecto de las bases
(w
1
, . . . , w
n
) y (a
1
z
1
, . . . , a
n
z
n
) (la matriz de cambio de base). Por el teorema
10.21 tenemos que |P| = 1.
Sea Q la matriz de la aplicaci on identidad en M respecto de las bases
(z
1
, . . . , z
n
) y (v
1
, . . . , v
n
). Por la misma raz on |Q| = 1.
Por el teorema 10.4 la matriz PCQ es la matriz de f respecto de las bases
(w
1
, . . . , w
n
) y (v
1
, . . . , v
n
). Por lo tanto las las de PCQ son las coordenadas
de w
1
, . . . , w
n
en la base (v
1
, . . . , v
n
), es decir, B = PCQ.
Tomando determinantes y valores absolutos,
| det B| = | det P| | det C| | det Q| = | det C| = |M/N|.
10.3 Formas bilineales
En las secciones anteriores hemos visto c omo las matrices describen homo-
morsmos entre m odulos libres y c omo los determinantes aportan informaci on
sobre las matrices. Aqu emplearemos la matrices (y por lo tanto los determi-
nantes) para describir otros objetos algebraicos de interes: las formas bilineales.
Aunque podramos trabajar m as en general, nos centramos en el caso que real-
mente nos va a interesar en la pr actica.
Denici on 10.24 Sea V un espacio vectorial sobre un cuerpo K. Una forma
bilineal en V es una aplicaci on F : V V K tal que para todo v
1
, v
2
, v V ,
y todo a, b K se cumple
F(av
1
+bv
2
, v) = aF(v
1
, v) +bF(v
2
, v),
F(v, av
1
+bv
2
) = aF(v, v
1
) +bF(v, v
2
).
La aplicaci on determinante es un ejemplo de forma bilineal en K
2
, pero es
antisimetrica, y ahora nos vamos a interesar por las formas bilineales opuestas:
Una forma bilineal F es simetrica si para todo par de vectores v
1
, v
2
V se
cumple F(v
1
, v
2
) = F(v
2
, v
1
).
10.3. Formas bilineales 175
Si B = (v
1
, . . . , v
m
) es una base ordenada de V , llamaremos matriz de F
respecto a dicha base a
M
B
(F) =
_
F(v
i
, v
j
)
_
.
Teorema 10.25 Sea F : V V K una forma bilineal en un K-espacio
vectorial V . Sea B = (v
1
, . . . , v
n
) una base ordenada de V . Entonces M
B
(F)
es la unica matriz de Mat
n
(K) tal que para todo v, v
0
V se cumple
F(v, v
0
) =
B
(v) M
B
(F)
B
(v
0
)
t
.
Demostraci on: Sea
B
(v) = (x
1
, . . . , x
n
) y
B
(v
0
) = (y
1
, . . . , y
n
). Enton-
ces
F(v, v
0
) = F
_
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
_
=
n

i=1
n

j=1
x
i
F(v
i
, v
j
) y
j
=
B
(v) M
B
(F)
B
(v
0
)
t
.
Si una matriz tiene esta propiedad, aplic andola a los vectores v
i
y v
j
obtenemos
que su componente (i, j) ha de ser precisamente F(v
i
, v
j
).
Ejercicio: Probar que una forma bilineal es simetrica si y s olo si su matriz en una
base cualquiera es simetrica.
Ejercicio: Encontrar la relaci on entre las matrices de una misma forma bilineal en
dos bases distintas.
Las formas bilineales est an muy relacionadas con el concepto de espacio dual,
que introducimos seguidamente.
Denici on 10.26 Si K es un cuerpo y V es un K-espacio vectorial, llamaremos
espacio dual de V a V

= Hom(V, K).
Si V tiene dimensi on nita n sabemos que V

= Mat
n1
(K), luego en
particular dimV

= dimV .
Con m as exactitud, si B = (v
1
, . . . , v
n
) es una base de V y jamos 1 como
base de K, entonces la aplicaci on M
1
B
determina un isomorsmo entre V

y
Mat
n1
(K). Una base del segundo espacio la forman los vectores e
i
= (
ij
). La
antiimagen de e
i
por el isomorsmo es una aplicaci on v

i
tal que M
1
B
(v

i
) = e
i
,
lo que signica que v

i
(v
j
) =
ij
. La base B

= (v

1
, . . . , v

n
) se llama base dual
de (v
1
, . . . , v
n
). Es f acil hallar las coordenadas de un elemento de V

respecto
a esta base:
Teorema 10.27 Sea K un cuerpo, V un K-espacio vectorial y B = (v
1
, . . . , v
n
)
una base V . Entonces, las coordenadas en la base dual B

= (v

1
, . . . , v

n
) de un
elemento cualquiera v

son
B
(v

) =
_
v

(v
1
), . . . , v

(v
n
)
_
.
176 Captulo 10. Matrices y determinantes
Demostraci on: Basta observar que

i=1
v

(v
i
)v

i
_
(v
j
) =
n

i=1
v

(v
i
)v

i
(v
j
) =
n

i=1
v

(v
i
)
ij
= v

(v
j
),
y como ambas aplicaciones lineales coinciden sobre la base B, han de ser iguales,
o sea, v

n
i=1
v

(v
i
)v

i
.
Ejercicio: Probar que si f : V W es una aplicaci on lineal entre espacios vectoria-
les, entonces la aplicaci on dual f

: W

dada por f

(w

) = f w

es tambien
lineal. Adem as f

es inyectiva (suprayectiva) si y s olo si f es suprayectiva (inyectiva).


Dadas bases B y C, hallar la relaci on entre M
C
B
(f) y M
B

C
(f

).
Si F : V V K es una forma bilineal simetrica tenemos denida una
aplicaci on lineal

F
: V V

v 7 V K
w 7 F(v, w)
Consideremos una base B = (v
1
, . . . , v
n
) de V y vamos a calcular la matriz
de esta aplicaci on respecto a las bases B y B

. El elemento (i, j) de esta matriz


ser a la coordenada j-esima de (v
i
), pero seg un el teorema anterior se trata de

F
(v
i
)(v
j
) = F(v
i
, v
j
). Por lo tanto M
B

B
(
F
) = M
B
(F).
Denici on 10.28 Una forma bilineal simetrica F : V V K es regular si
la aplicaci on
F
es inyectiva.
Si el espacio V tiene dimensi on nita esto equivale a que
F
sea un isomor-
smo, y por el teorema 10.6 esto equivale a que M
B
(F) sea una matriz regular
(para una base cualquiera B de V ), o a que |M
B
(F)| 6= 0.
As pues, toda forma bilineal simetrica regular en un espacio vectorial de
dimensi on nita induce un isomorsmo entre V y su espacio dual, del que hay
que destacar que no depende de ninguna elecci on de bases. Si B = (v
1
, . . . , v
n
)
es una base de V , la antiimagen por
F
de su base dual es una base B

=
(v

1
, . . . , v

n
) de V (a la que tambien llamaremos base dual de B) caracterizada
por que F(v
i
, v

j
) =
ij
, para todo par de ndices i, j.
Al igual que las dem as construcciones algebraicas abstractas, las formas
bilineales aparecen en contextos muy diversos en el estudio de los n umeros.
Dado el nivel introductorio de este libro, a nosotros s olo nos aparecer an en el
ejemplo siguiente:
Teorema 10.29 Sea K/k una extensi on de cuerpos nita separable. Entonces
la traza determina una forma bilineal simetrica regular dada por
K K k
(, ) 7 Tr()
10.3. Formas bilineales 177
Demostraci on: Es claro que la aplicaci on as denida es una forma bilineal
simetrica. Calculemos su matriz en una base cualquiera B = (v
1
, . . . , v
n
) de K.
Sean
1
, . . . ,
n
los k-monomorsmos de K. Entonces
M
B
= (Tr(v
i
v
j
)) =

k=1

k
(v
i
v
j
)
_
=

k=1

k
(v
i
)
k
(v
j
)
_
=
_

k
(v
i
)
_
ik
_

k
(v
j
)
_
kj
=
_

i
(v
j
)
__

i
(v
j
)
_
t
.
Por lo tanto |M
B
| =

i
(v
j
)

2
. Basta comprobar que este determinante es no
nulo para una base en particular. Concretamente, por el teorema del elemento
primitivo sabemos que K = k() para cierto K, y una k-base de K es
B = (1, , . . . ,
n1
). Para esta base, el determinante que hemos de calcular es

1 1

1
()
n
()
.
.
.
.
.
.

1
()
n1

n
()
n1

,
y este determinante es de Vandermonde, y su segunda la la forman los n
conjugados de , que son todos distintos (pues es separable y su polinomio
mnimo tiene grado n). Por lo tanto |M
B
| 6= 0 y la forma es regular.
En particular hemos probado que la traza de una extensi on nita separable
es siempre no nula (lo que en caracterstica prima no es trivial).
Ejercicio: Considerar el cuerpo Q
_
3
_
. Calcular la base dual respecto a la traza de
la base
_
1,

3
_
.
Conviene extraer algunas ideas de la demostraci on del teorema anterior:
Denici on 10.30 Sea K/k una extensi on nita separable y B = (v
1
, . . . , v
n
)
una k-base de K. Llamaremos discriminante de B al determinante de la matriz
de la forma bilineal asociada a la traza respecto a la base B. Equivalentemente:
[B] = [v
1
, . . . , v
n
] =

Tr(v
i
v
j
)

i
(v
j
)

2
,
donde
1
, . . . ,
n
son los k-monomorsmos de K.
Notar que la segunda expresi on implica que [B] no depende del orden de
los elementos de la base B (ni por supuesto del de los monomorsmos), pues una
alteraci on de dicho orden se traduce en una permutaci on de las las o columnas
del determinante, lo que a lo sumo implica un cambio de signo que a su vez es
absorbido por el cuadrado.
Hemos probado que [B] k es no nulo y si es un elemento primitivo de
la extensi on, entonces

_
1, , . . .
n1

i<j
_

j
()
i
()
_
2
.
Hay una ultima propiedad de los discriminantes que conviene observar.
178 Captulo 10. Matrices y determinantes
Teorema 10.31 Sea K/k una extensi on de cuerpos nita separable y sean B,
C dos k-bases de K. Entonces [B] =

M
C
B

2
[C].
Demostraci on: Basta probar que las matrices de la forma bilineal asociada
a traza guardan la relaci on
M
B
= M
C
B
M
C
_
M
C
B
_
t
. (10.2)
Ahora bien, para todo v, w K,

B
(v) M
C
B
M
C
_
M
C
B
_
t

B
(w)
t
=
C
(v) M
C

C
(w)
t
= Tr(vw),
luego por la unicidad de la matriz de una forma bilineal, se cumple (10.2).

Você também pode gostar