Escolar Documentos
Profissional Documentos
Cultura Documentos
FORMAS BILINEALES Y
PRODUCTO ESCALAR
ndice
6.1.
153
154
6.1.
Formas bilineales
Hasta ahora hemos visto aplicaciones lineales entre espacios vectoriales V y E ambos sobre un mismo cuerpo R. Ahora bien, R es tambin un
espacio vectorial (sobre s mismo) de dimensin 1.Las aplicaciones lineales
f : V R reciben el nombre de formas lineales (o 1-formas).
Ejercicio 6.1. De qu orden es la matriz de una forma lineal definida sobre un
espacio vectorial de dimensin n?
Podemos extender este concepto a funciones con ms de una entrada. Si
V y E son espacios vectoriales, y una funcin f : V V E es lineal para
cada una de las entradas, se dice que f es una aplicacin bilineal. Si adems E = R, entonces se dice que es una forma bilineal. Damos la definicin
explcita.
Una forma es bilineal si
tiene dos entradas de
vectores y, fijada una de
ellas, la forma que queda
es lineal, es decir, para
cada vector ~x0 V
obtenemos dos formas
lineales
f~x0 : V
~x
R
f (~x0 , ~x )
f ~x0 : V
~x
R
f (~x, ~x0 )
155
~ , ~v + w
~ ) = f (~v, w
~ ) + f (~
0 = f (~v + w
w, ~v)
luego f es antisimtrica.
Ejercicio 6.6. Usa la proposicin anterior para encontrar lo valores del parmetro a para la siguiente forma bilineal en R2 es antisimtrica.
f (( x1 , x2 ), (y1 , y2 )) = ax1 y1 + 3x1 y2 2x2 y1
6.1.1.
j =1
xi
i =1
f (~ei , ~e j )y j
j =1
= xi f (~ei , ~e j )y j
i,j
f (~e1 , ~e2 ) . . .
f (~e2 , ~e2 ) . . .
..
.
y1
f (~e1 , ~en )
y2
f (~e2 , ~en )
..
..
.
.
f (~en , ~e1 )
f (~en , ~e2 ) . . .
f (~en , ~en )
f (~x, ~y) = x1 x2
yn
156
1. Cannica.
157
y esto ocurre para cualquier X, por tanto la matriz columna AX0 tiene que
ser 0. Luego el sistema homogneo AX = 0 es (compatible) indeterminado,
por tanto, como sabemos, det A = 0.
Inversamente, si det A = 0, el sistema de AX = 0 tiene solucin X0 distinta de 0, por tanto X T ( AX0 ) = 0, que significa f (~x, ~x0 ) = 0 para cualquier
vector ~x, es decir, f es degenerada.
Clasificacin por el signo
Definicin 6.13 (Formas definidas). Una forma bilineal f se dice
Definida positiva si f (~x, ~x ) > 0 para todo ~x 6= ~0.
Definida negativa si f (~x, ~x ) < 0 para todo ~x 6= ~0.
Proposicin 6.14. Las formas bilineales definidas (positiva o negativa) son no
degeneradas.
Demostracin. Si f es degenerada existe ~x0 6= ~0 y f (~x0 , ~x ) = 0 para cada
vector ~x V, entonces f (~x0 , ~x0 ) = 0, que contradice que f sea definida.
Definicin 6.15 (Formas semidefinidas). Una forma bilineal f es
Semidefinida positiva si f (~x, ~x ) 0 para todo ~x y no es definida positiva.
Semidefinida negativa si f (~x, ~x ) 0 para todo ~x y no es definida negativa.
Proposicin 6.16. Las formas bilineales semidefinidas (positiva o negativa) son
degeneradas.
Demostracin. Evidente.
158
(6.1)
z }| {
b) = X
b=X
b
b ) T A ( PY
b T ( P T AP) Y
b T BY
f (~x, ~y) = X T AY = ( P X
de donde B = P T AP.
6.1.2.
159
6.2.
Formas cuadrticas
R, ~x V
2. La funcin f q : V V R definida
f q (~x, ~y) =
1
(q(~x + ~y) q(~x ) q(~y))
2
f q (~x, ~y) =
160
2
2x12 x1 x3 3x2 x3 x22
2y21 y1 y3 3y2 y3 y22
2
2
que, simplificando, queda una expresin analtica de una forma bilineal
f q (( x1 , x2 , x3 ),(y1 , y2 , y3 )) =
1
3
1
3
=2x1 y1 x1 y3 x2 y2 x2 y3 x3 y1 x3 y2
2
2
2
2
claramente simtrica.
Ejemplo 6.26. Las formas cuadrticas en R son todas de la forma q( x ) =
ax2 y en R2 son de la forma q( x, y) = ax2 + bxy + cy2 . En ambos casos se
pueden dibujar. Aqu tenemos algn ejemplo.
20
10
5
10
0
2
0
2
q( x ) =
3x2
0
0
q( x, y) =
0
0
2 2
x2
+ y2
q( x, y) =
2x2
2 2
xy y2
6.2.1.
161
2
A= 0
21
0 12
1 23
32 0
Ejercicio 6.29. Calcula las formas analtica y matricial de una forma cuadrtica q
en R3 sabiendo que {~e1 , ~e2 , ~e3 } es una base y conociendo algunas imgenes de q:
q(~e1 ) = 2, q(~e2 ) = 0, q(~e3 ) = 1,
q(~e1 +~e2 ) = 5, q(~e1 +~e3 ) = 3, q(~e2 +~e3 ) = 0
6.2.2.
Clasificacin
162
6.3.
Producto escalar
163
x1
y1
x2
y2
X = . eY = .
.
.
..
xn
yn
entonces el producto escalar usual o estndar est definido como
y1
y2
. . . x n . = x1 y1 + x2 y2 + + x n y n
..
~x ~y = X T Y = x1 x2
yn
2. Sea V = { f : [ a, b] R | f es continua en [ a, b]}. Definimos un producto interno en V de la siguiente forma:
h f , gi =
Z b
a
f ( x ) g( x ) dx
6.3.1.
Norma de un vector
k~x k = +
h~x, ~x i
164
Ejemplos 6.35.
1. En caso del producto escalar usual ~x ~y = x1 y1 + + xn yn en Rn se
tiene la norma usual o estndar
q
k~x k = x12 + x22 + + xn2
2. Cualquier producto interno en Rn define una norma en dicho espacio.
Por ejemplo, en R2 , el producto interno
1 1
y1
(~x | ~y) = x1 x2
1 2
y2
p
da la norma siguiente k~x k = x1 2 2x1 x2 + 2x2 2 que es distinta de
la norma usual.
Ejercicio 6.36. Del producto escalar definido en el ejemplo 6.33-item 2, calcula las
normas de f ( x ) = e x y g( x ) = x x2 definidas en el intervalo [0, 1].
Ejercicio 6.37. Da una expresin para la norma de A = ( aij ) Mmn (R)
segn el producto escalar definido en el ejemplo 6.33-item 3.
Solucin:
k Ak2 = im=1 nj=1 a2ij Teorema 6.38 (Propiedades de las normas). Si V es un espacio vectorial eucl-
deo, entonces
1. k~x k 0 y adems, k~x k = 0 ~x = ~0.
2. k~x k = || k~x k ~x V, R.
3. (Desigualdad de Schwarz) |h~x, ~yi| k~x k k~yk
~x, ~y V
~x, ~y V
~x, ~y V
~z =
~y
~x
k~x k k~yk
h~y,~yi
k~yk2
x,~yi
x,~yi
2 k~h~
= 2 2 k~h~
x kk~yk
x kk~yk
165
~u =
1
~x (vector normalizado).
k~x k
y2
x2
~0
q
~y
~y ~x
~x
x1
y1
( y1 x1 )2 + ( y2 x2 )2
166
ngulos
Por otro lado, si dos vectores ~x y ~y no son nulos, la desigualdad de
Schwarz se puede traducir como
|h~x, ~yi|
h~x, ~yi
1 1
1
k~x k k~yk
k~x k k~yk
que nos permite identificar este valor con el coseno de un cierto ngulo.
Definicin 6.43. Dados dos vectores ~x 6= ~0 e ~y 6= ~0, definimos el coseno del
ngulo formado entre ellos de la forma:
cos =
h~x, ~yi
k~x k k~yk
(6.2)
6.3.2.
El smbolo se lee es
ortogonal a y establece
una relacin simtrica
en V.
Ortogonalidad
167
~x + ~y
k~yk
~x
90o
k~x + ~yk
~y
k~x k
Definicin 6.49.
1. Llamaremos base ortogonal a una base que adems es un sistema
ortogonal.
2. Llamaremos base ortonormal a una base ortogonal de vectores unitarios.
Ejercicio 6.50. Comprueba que la base cannica en Rn es ortonormal para el producto escalar usual en cambio no es ortonormal para otros productos internos.
Encontrar una base ortonormal para un espacio eucldeo es un problema importante para muchas aplicaciones. En caso de dimensin finita, el
siguiente teorema nos garantiza su existencia, adems de darnos un mtodo para encontrarla. Este mtodo se conoce con el nombre de mtodo de
Gram-Schmidt.
168
~e1 = ~v1
h~e1 , ~v2 i
~e1
h~e1 , ~e1 i
h~e , ~v i
h~e , ~v i
~e3 = ~v3 1 3 ~e1 2 3 ~e2
h~e1 , ~e1 i
h~e2 , ~e2 i
..
.
h~en1 , ~vn i
h~e , ~vn i
h~e , ~vn i
~e1 2
~e2
~en1
~en = ~vn 1
h~e1 , ~e1 i
h~e2 , ~e2 i
h~en1 , ~en1 i
~e2 = ~v2
que es ortonormal.
Ejemplo 6.53. Consideremos el espacio vectorial real V = P3 [] de los polinomios de coeficientes reales (con variable ) de grado menor o igual que
3 con el siguiente producto interno
h p, qi =
Z 1
1
p( x )q( x ) dx
169
Entonces,
p1 = 1 ;
R1
xdx
0
h1, i
p2 =
1 = R11
= = ;
2
h1, 1i
1 1dx
R1 3
R1 2
x dx
1, 2
, 2
1
1 x dx
2
2
1 R1 1
= 2 ;
p3 =
1
= R1
2
3
h1, 1i
h, i
1 1dx
1 x dx
2 13 , 3
1, 3
, 3
3
1
( 2 ) = 3
p4 = 3
1
1
1
2
2
3
5
h1, 1i
h, i
3, 3
Es decir, la base B = {1, , (2 13 ), (3 53 )} es ortogonal. Para dar una
base ortonormal, calculamos la norma de cada uno de los vectores (polinomios)
s
Z 1
k p1 k = k1k =
12 dx = 2 ;
1
2
k p2 k = k k =
dx = ;
1
3
r
sZ 1
2
2 1
8
2
1
2
k p3 k =
x2
dx =
= ;
3
=
3
45
1
3 5
r
sZ 1
2
3 3
3
2
8
2
x3 x
=
k p4 k =
dx =
5
=
5
175
1
5 7
s
Z 1
x2
)
21
3 3
5
3
7
5
3
1
B Nor = , ,
,
2
2
2 2
2 2
Las bases ortonormales simplifican el clculo del producto interno. Esto
se espresa en la siguiente proposicin.
Proposicin 6.54. Sea B =
{~e1 , ~e2 , . . . , ~en }una
base ortonormal. Dados dos
x1
y1
x2
y2
vectores ~x, ~y de coordenas X = . e Y = . respectivamente, respecto de
.
.
..
xn
yn
la base B , entonces el producto escalar toma la expresin del producto escalar usual
h~x, ~yi = x1 y1 + x2 y2 + + xn yn = X T Y = ~x ~y
170
h~ei , ~e j i =
1 si i = j
0 si i 6= j
6.3.3.
~y
x1 y1
x2 y2 = x1 y2 x2 y1
rea
+
~x
171
6.3.4.
http://youtu.be/faevbjfs28I
Producto vectorial
En un espacio vectorial eucldeo tridimensional orientado tenemos un caso especial de operacin de vectores que vamos a
describir.
h = k~yk sen
En primer lugar observamos que el seno
k~yk
del ngulo (en sentido positivo) de dos vec
tores independientes, junto con la norma
k~x k
de cada uno de ellos, nos determina el rea
del paralelogramo, Area(~x, ~y), que definen
(vase figura al margen). As, si es el ngulo entre ellos, tenemos
Area(~x, ~y) = k~x k k~yk sen
Es de notar, tambin, que (en R3 ) el determinante de una base orientada
positivamente es el volumen del paraleleppedo que determinan.
Volumen(~x, ~y, ~z) = D (~x, ~y, ~z)
Definicin 6.55. Definimos el producto vectorial de dos vectores {~x, ~y} del
espacio tridimensional como el nico vector ~x ~y que verifica:
1. ~x ~y es ortogonal a ambos vectores,
2. Si ~x, ~y son independientes, {~x, ~y, ~x ~y} es una base orientada positivamente.
3. k~x ~yk = k~x k k~yk sen .
Del punto 3 se deduce que si los vectores {~x, ~y} son linealmente dependientes, entonces ~x ~y = ~0. Adems son inmediatas las siguientes propiedades del producto vectorial
Proposicin 6.56.
1. El producto vectorial es antisimtrico: ~x ~y = ~y ~x.
2. Si ~x 6= ~0 y ~y 6= 0, entonces
172
(6.3)
3. Por (6.3) tenemos k~x ~yk2 = D (~x, ~y, ~x ~y) = Volumen(~x, ~y, ~x ~y).
Pero se puede comprobar (vase figura 6.2) que
Volumen(~x, ~y, ~x ~y) = Area2 (~x, ~y)
Como consecuencia directa de este resultado se tiene las siguientes propiedades del producto vectorial:
1. El producto vectorial es una aplicacin bilineal V V V, ya que
~x (~y +~z) = ~x ~y + ~x ~z
~x ~y = (~x ~y)
2. Regla de exclusin: ~x (~y ~z) = h~x, ~zi~y h~x, ~yi~z.
3. Identidad de Jacobi ~x (~y ~z) +~z (~x ~y) + ~y (~z ~x ) = 0.
173
Eje Z
~x ~y
Altura = x1 y2
~y = (y1 , y2 , 0)
y2
rea base = x1 y2
~x = ( x1 , 0, 0)
Eje X
Eje Y
Figura 6.2: El volumen = ( x1 y2 )2 es el cuadrado del rea de la base.
6.3.5.
Aplicaciones ortogonales
Definicin 6.57. Diremos que una aplicacin f : V E entre espacios vectoriales eucldeos es ortogonal si conserva el producto escalar, es decir
(6.4)
Evidentemente, las aplicaciones ortogonales mantienen la norma, la distancia y ngulo entre vectores.
En realidad, la condicin 6.4 sobre cualquier funcin f entre espacios
vectoriales eucldeos implica automticamente la linealidad de f .
Demostracin. Basta probar: 1. k f (~x +~y) f (~x ) f (~y)k2 = 0, y 2. k f (~x )
f (~x )k2 = 0 y, ambas pruebas las dejamos como ejercicio.
Proposicin 6.58. Las aplicaciones ortogonales son monomorfismos de espacios
vectoriales.
Demostracin. Sea ~x ker f , entonces h~x, ~x i = h f (~x ), f (~x )i = 0. Por tanto,
la no degeneracin del producto escalar implica ~x = ~0.
Especial inters tienen las aplicaciones ortogonales entre espacios vectoriales de la misma dimensin, as
Teorema 6.59. Una aplicacin lineal f : E V entre espacios vectoriales eucldeos de la misma dimensin es ortogonal si y solo si es lineal y transforma bases
ortonormales en bases ortonormales.
Demostracin. Trivial
174
Ejercicio 6.60. Sea V un espacio vectorial eucldeo de dimensin 2 con base ortonormal {~e1 , ~e2 } y f un endomorfismo en V que verifica
f (~e1 ) = ~e1 + ~e2 y f (~e2 ) = ~e1 +~e2
determina para que valores de y es f una aplicacin ortogonal.
6.4.
175
V = S S .
r
\
~ei
i =1
(6.5)
h~x N , ~ei i = h~x, ~ei i h~xS , ~ei i = h~x, ~ei i h~x, ~ei i = 0
para cada i = 1, 2, . . . r, que nos dice que ~v = ~xS + ~x N S + S . Por tanto, V = S + S .
Ejercicio 6.65. Si V = R4 , calcula es complemento ortogonal del subespacio vectorial S generado por los vectores (1, 0, 1, 0) y (1, 1, 0, 1).
Corolario 6.66. Si S es subespacio vectorial de V, entonces
= S.
Demostracin. Si ~x S entonces ~x S , luego S S . Recproca
mente, si ~x S , por el teorema anterior lo expresamos de la forma
~x = ~xS + ~x N S S . Entonces,
0 = h~x, ~x N i = h~xS , ~x N i + h~x N , ~x N i = h~x N , ~x N i
luego ~x N = ~0 y de aqu que ~x = ~xS S.
176
6.4.1.
Proyecciones ortogonales
~x
~0
f (~x )
177
d2 (~x, ~xS )
que prueba que ~xS = ProyS (~x ) es el vector que ms se aproxima a ~x en S.
Matriz de una proyeccin ortogonal
Consideremos una base ortonormal B = {~e1 , ~e2 , . . . , ~en } de un espacio
vectorial eucldeo V. Si f es una proyeccin en V, entonces, como hemos
visto, f es un endomormismo autoadjunto. Esto significa que su matriz
(respecto a la mencionada base ortonormal) es simtrica. Veamos
Teorema 6.72. Si A es la matriz asociada a un endomorfismo f respecto de una
base ortonormal, entonces f es autoadjunto si y solo si A es simtrica.
Demostracin. Dados dos vectores ~x, ~y con coordenadas X e Y respecto a la
base ortonormal dada, la proposicin 6.54 nos dice que el producto escalar
se reduce al producto escalar usual, es decir h~x, ~yi = X T Y. Por tanto,
f autoadjunto h~x, f (~y)i = h f (~x ), ~yi X T ( AY ) = ( AX )T Y
X T AY = X T A T Y A = A T .
Recprocamente, A simtrica A = A T , luego
178
~x
~x N
~a2
~xS
~a1
S
179
R3
entonces la matriz
P = AA T .
1
1 1
1 1
1
1
0
1
1
0
1 2
P = 1 2
=
1 2 1
1 2 1
0 1
0 1
10 1
3
11 11 11
1
10
3
=
11 11
11
3
3
2
11 11
11
6.5.
Diagonalizacin ortogonal
6.5.1.
Endomorfismos ortogonales
P es ortogonal sii
P 1 = P T .
180
Endomorfismos ortogonales en R2
Giros (o rotaciones) de vectores. Un endomorfismo f en R2 se dice que es un
giro vectorial si cada vector ~x forma un ngulo constante con f (~x ).
~e2
f (~e1 )
f (~e2 )
cos
sen
cos ~e1
sen
Simetras axiales o reflexiones. Llamaremos simetra axial en R2 a una aplicacin lineal que deja invariantes los vectores de una recta (vectorial) y refleja al
otro lado de dicha recta al resto de vectores.
Eje de simetria
f (~e1 )
~e2
~0
~e1
f (~e2 )
As, como se puede comprobar en el dibujo, para una base ortonormal, las
coordenadas de las imgenes de los vectores sern (cos , sen ) y (sen , cos ),
siendo /2 el ngulo del eje de simetra con el primer vector de la base.
Por tanto, la matriz de una simetra axial ser de la forma
cos
sen
sen cos
Los giros y las simetras axiales determinan todos los endomorfismos ortogonales en R2 como reflejamos en el siguiente teorema que damos sin demostracin:
Teorema 6.80. Los nicos endomorfismos ortogonales en R2 son los giros y las reflexiones. Adems, si P M22 es una matriz ortogonal entonces:
1. P es un giro si y solo si det P = 1
2. P es una reflexin si y solo si det P = 1.
181
Endomorfismos ortogonales en R3
Giros axiales de vectores Un endomorfismo f en R3 es un giro axial si existe
una recta r = L(~u1 ) (con k~u1 k = 1) invariante1 para f , y si ~x
/ r, entonces las
proyecciones ortogonales en S = ~u1 de los vectores ~x y f (~x ) forman un ngulo
1
0
0
0
cos
sin
0
sin
cos
1 0 0
0 1 0
0 0 1
1
0
0
0 cos sen
0 sen
cos
Estos tres tipos de endomorfismos caracterizan los endomorfismos ortogonales en
R3 , es decir
Teorema 6.81. Los nicos endomorfismos ortogonales en R3 son los giros axiales, las
simetras especulares o las composiciones de ambas.
Nota. Un caso distinguido es la identidad que es un giro axial de 0 radianes. Otro
caso distinguido es la composicin de una simetra especular con un giro de
radianes que, respecto a la base adecuada, tiene por matriz
1 0
0
0 1 0
0
0 1
que recibe el nombre de simetra central o respecto del un punto.
1~
u1 es autovector para de f
2 es subespacio propio de
para el autovalor = 1.
f para = 1.
182
El grupo ortogonal
En el tema de estructuras algebraicas ya mencionamos el grupo general lineal de
grado n, representado GL(n) definido como el conjunto de las matrices cuadradas
invertibles junto con la operacin producto. Este grupo es isomorfo al grupo de
los automorfimos V V en un espacio de dimensin n.
El conjunto de las matrices ortogonales de orden n forman un subgrupo de
grupo GL(n) que recibe el nombre de grupo ortogonal y se representa O(n). Las
matrices ortogonales con determinante 1 forman a su vez un subgrupo del grupo
O(n) que recibe el nombre de grupo ortogonal especial que se representa SO(n).
6.5.2.
~x, ~y V.
Los endomorfismos autoadjuntos se relacionan con las matrices simtricas mediante el siguiente teorema.
Teorema 6.83. Si A es la matriz asociada a un endomorfismo f respecto de una
base ortonormal, entonces f es autoadjunto si y solo si A es simtrica.
Demostracin. Dados dos vectores ~x, ~y con coordenadas X e Y respecto a la
base ortonormal dada, la proposicin 6.54 nos dice que el producto escalar
se reduce al producto escalar usual, es decir h~x, ~yi = X T Y. Por tanto,
f autoadjunto h~x, f (~y)i = h f (~x ), ~yi X T ( AY ) = ( AX )T Y
X T AY = X T A T Y A = A T .
Recprocamente, A simtrica A = A T , luego
Es decir, en el caso que la matriz A que se quiere diagonalizar sea simtrica, la podemos considerar como la matriz asociada a un endomorfismo
autoadjunto f y el siguiente teorema nos prueba que los autovectores asociados a autovalores distintos de una matriz simtrica, no slo sean linealmente independientes, sino que adems son ortogonales.
Teorema 6.84. Los autovectores correspondientes a autovalores distintos de un
endomorfismo autoadjunto son ortogonales.
183
6.6.
q(~x ) = X T AX = ( PX )T A( PX ) = X ( P T AP) X
de donde vemos que dos matrices (simtricas) de la misma forma cuadrtica son congruentes, es decir, B = P T AP, con P invertible.
Ejercicio 6.86. Prueba que, efectivamente, si una matriz A es simtrica, cualquier
matriz congruente con A tambin es simtrica.
Proposicin 6.87. Dada una forma cuadrtica q : V R, existe una base de V
tal la que la matriz de q es diagonal.
Demostracin. Sea A la matriz simtrica de q respecto de una base B . Consideramos el endomorfismo simtrico f : V V cuya matriz respecto a dicha base es A = M( f ; B). Diagonalizando ortogonalmente, existe una base
ortonormal B Nor de autovectores de f de forma que D = M( f ; B Nor ) es
diagonal. Puesto que la matriz de paso P es ortogonal, tenemos D = P T AP.
Por tanto, respecto de la base ortonormal B Nor la matriz de q es D, y
esto prueba la proposicin.
184
Definicin 6.88. Una forma cuadrtica q se dice que est diagonalizada cuando est expresada matricialmente con una matriz D diagonal, es decir
q(~x ) = X T DX
Esto quiere decir que existe una base de V para la cual ~x se expresa analticamente como
q(~x ) = d1 x12 + d2 x22 + + dn xn2
donde di R y ( x1 , x2 , . . . , xn ) son las coordenadas de ~x en dicha base.
6.6.1.
La prueba de la proposicin 6.87 nos est dando un mtodo de diagonalizacin. Si partimos de una matriz simtrica A de q,
q(~x ) = X T AX
diagonalizando ortogonalmente A podemos encontrar una matriz ortogonal P tal que D = P T AP. Haciendo el cambio de base X = PX X T =
T
X P T , tenemos
T
q(~x ) = X T AX = X ( P T AP) X = X DX
que nos da la diagonalizacin.
Este mtodo, en teora, funciona siempre, pero el problema estriba en
que, para formas cuadrticas de tres o ms variables, la diagonalizacin
ortogonal de su matriz implica encontrar races de polinomios de grado
mayor o igual que tres, y esto no siempre es realizable (sin usar mtodos
numricos).
Damos un mtodo alternativo que no involucra resolucin de ecuaciones polinmicas.
6.6.2.
Mtodo de Lagrange
q( x1 , x2 , . . . , xn ) = aii
bj x j
+ q 1 ( x , . . . , x i 1 , x i +1 , . . . , x n )
j =1
185
2. Si todos los coeficientes aii son ceros, elegimos aij 6= 0 (debe existir,
claro, en caso contrario q = 0). Hacemos entonces los cambios de
variable
x j = xi x j ,
xi = xi + x j ,
xk = xk si k 6= i, j
B=
1
q
,
2
1
4
16 ( 17+1) +1
1
( 17+1)
q
2
1
16 ( 17+1) +1
1
16
1
2
( 171) +1
1
q
4
( 17 1)
2
1
16 ( 17 1) + 1
186
En este caso se ha podido obtener la solucin al problema explcitamente de una forma algebraica (el polinomio caracterstico es de segundo
grado) y lo hemos hecho, claramente, usando un programa de clculo simblico. En la mayora de ocasiones, incluso esto, es imposible y hay que
recurrir a mtodos numricos para dar una solucin aproximada.
Mtodo de Lagrange Obsrvese que ( x1 2x2 )2 = x12 4x1 x2 + 4x22 , luego para obtener este cuadrado perfecto sumamos y restamos 4x22 en la expresin (6.6), as
q1 ( x1 , x2 ) = x12 4x1 x2 + 4x22 4x22 = ( x1 2x2 )2 4x22
As haciendo
x1 = x1 2x2
x2 = x2
tenemos la forma cuadrtica diagonalizada
q1 ( x1 , x2 ) = x1 2 4x2 2 = x1 x2
1 0
x1
0 4
x2
x2 = x2
x2 = x2
que matricialmente se expresa
X=
1 2
X
0 1
187
q( x1 , x2 , x3 ) = x1 x2 + 0x3
Por ltimo, para calcular la base para la cual la forma cuadrtica q est
diagonalizada, trabajamos con los cambios de base matricialmente, as
x1
1 1 0
x1
x2 = 0 1 1 x2
0 0
1
x3
x3
1 0 1
x1
x1
x2 = 0 1 0 x2
x3
1 0 1
x3
por tanto,
1
x1
x1
1 0 1
1 1 0
x2 = 0 1 0 0 1 1 x2
x3
1 0 1
0 0
1
x3
que, operando las matrices, podemos expresar
1 1 2
X = 0 1 1 X
1 1 0
de donde la base es B = {(1, 0, 1), (1, 1, 1), (2, 1, 0)} .
188
q ( x1 , x2 , x3 ) = x1 x2
0
x3 0
1
2
1
x1
0
2
0 1
x2
x3
1 0
1 2
x3 )
3
1 2
x3 )
3
x1 = x1 + 23 x2 + 13 x3
x2 = x2 x3
x3 = x3
obtenemos la forma cuadrtica diagonalizada
4 2 8
2
x + x2 x3 + x32
3 2 3
3
4
( x2 x3 )2 + 2x32
3
189
1
1 23
1 32
3
X = 0 1 1 X X = 0 1
0 0
0 0 1
1
1 X
1
6.6.3.
i = 1, 2, . . . , n.
i = 1, 2, . . . , n.
3. q es semidefinida positiva
d j = 0.
di 0
i = 1, 2, . . . , n con algn
190
4. q es semidefinida negativa di 0
d j = 0.
i = 1, 2, . . . , n con algn
i = 1, 2, . . . , n.
i = 1, 2, . . . , n.
En cualquier otro caso este criterio no clasifica nada, es decir podra ser
semidefinida o indefinida.
Demostracin. Supongamos que la forma cuadrtica est diagonalizada. Si
q es definida positiva, entonces los elementos de la diagonal principal son
todos positivos, esto es equivalente a que los i son todos positivos. Si q
es definida negativa, entonces los elementos de la diagonal principal son
todos negativos, de aqu que los i alternan su signo en la forma indicada
en el teorema.
Clasificacin de formas cuadrticas en espacios bidimensionales
Para el caso de formas cuadrticas en espacios vectoriales reales de dimensin 2 (como sabemos, isomorfos a R2 ) se puede hacer una clasificacin
completa independiente de los teoremas 6.93 y 6.96. Sea
a b
x1
q ( x1 , x2 ) = x1 x2
= ax12 + 2bx1 x2 + cx22
b c
x2
a b
= ac b2 y, aplicando el mtodo de Lagrantenemos 1 = a y 2 =
b c
ge se da una de las tres siguientes situaciones:
b2
a
191
2
b
2 2
b2
q ( x1 , x2 ) = a x1 + x2 + c
x2
x22 = 1 x1 2 +
a
a
1
2. Si 1 = a = 0 y c 6= 0, necesariamente 2 = b2 0 y
q ( x1 , x2 ) =
2bx1 x2 + cx22
b
= c x2 + x1
c
2
b2
+
c
x12 =
2 2
x1 + cx2 2
c
192
Ejercicios Propuestos
Ej. 6.1 Comprueba que la forma bilineal f (( x1 , x2 ), (y1 , y2 )) = x2 (y1
y2 ) 2x1 (y1 y2 ) es degenerada encontrando al menos un vector degenerado para f . Comprueba, adems, que es indefinida.
Ej. 6.2 Sea f : R2 R2 R la forma bilineal definida como: f (( x1 , x2 ), (y1 , y2 )) =
2x1 y1 3x1 y2 + x2 y2
1. Halla la matriz A de f en la base {u1 = (1, 0), u2 = (1, 1)}.
2. Halla la matriz B de f en la base {v1 = (2, 1), v2 = (1, 1)}.
3. Encuentra la matriz de cambio de base P de la base {v1 , v2 } a la base
{u1 , u2 } y comprueba que B = PT AP.
1 1 3
Ej. 6.3 Si A = 1 1 0 es la matriz de una forma bilineal res3
0 1
pecto a la base cannica, se pide:
1. Calcula su matriz respecto a la base B = {(1, 1, 0), (0, 1, 0), (1, 1, 1)} .
2. Determina si es o no es degenerada.
3. Da las expresiones analticas de la forma cuadrtica asociada a f respecto de la base cannica y respecto de la base B anterior.
Ej. 6.4 Dada la siguiente matriz simtrica A =
3 1
, encuentra las
1 1
~u y ~v para que
Ej. 6.6 Qu ngulo deben formar los vectores unitarios
193
f : V V R, definida de la forma:
f ( p( x ), q( x )) = p( a)q( a) + p(b)q(b) + p(c)q(c)
1. Probar que es una forma bilineal simtrica.
2. Hallar la matriz asociada a dicha forma bilineal en la base B =
{1, x, x2 }.
3. Para a = 1, b = 1 y c = 0, f define un producto escalar. Encontrar
una base ortonormal, para dicho producto escalar, del subespacio de
los polinomios sin trmino independiente.
Ej. 6.8 Sabemos que dos vectores ~u, ~v R3 verifican k~vk = 2k~uk y que
k~u ~vk = 2. Expresa el ngulo entre ~u y ~v en funcin del mdulo de ~u.
1. Encuentra para que valor de k~uk se tiene que el ngulo entre ambos
1 1
0
1 2 1 .
0 1 5
Se pide:
194
Ej. 6.12 Consideramos el espacio eucldeo tridimensional y el subespacio vectorial S generado por la base B = {(1, 0, 2), (0, 1, 1)}. Se pide:
1. Matriz A del producto escalar restringido a S.
2. Sustituye el segundo vector de la base B por otro vector ~x de forma
que {(1, 0, 2), ~x } sea una base ortogonal de S.
3. Encuentra la matriz B asociada a este producto escalar en esta nueva
base y la matriz P que hace B = P T AP.
Ej. 6.13 Calcula una base, as como las ecuaciones, del subespacio ortogonal en R4 del subespacio
(
x y + 2t = 0
S
z+t = 0
Ej. 6.14 Diagonalizar la matriz A y encontrar la matriz de paso ortogonal.
3 1 0
A = 1 3 0
0
0 2
Ej. 6.15 Clasifica las siguientes formas cuadrticas:
1. 3x2 6xy + 11y2
2. 3x2 + 2xy + 3y2 + 2xz + 2yz + 3z2
3. xy + yz + zx
Ej. 6.16 Clasifica la siguiente forma cuadrtica para los distintos valores
de a.
q( x, y, z) = x2 + y2 + ( 1)z2 + 2xy con R fijo.
Ej. 6.17 Diagonaliza las formas cuadrticas del ejercicio 6.15 anterior.
Ej. 6.18 Dada la forma cuadrtica cuya matriz asociada es
a
0
a
0 a+c 0
a
0
a
195