Escolar Documentos
Profissional Documentos
Cultura Documentos
DE INGENIERÍA INFORMÁTICA
Apuntes de
ÁLGEBRA NUMÉRICA
para la titulación de
INGENIERÍA INFORMÁTICA
Portada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1 Ecuaciones no lineales 7
1.1 Errores y condicionamiento en problemas numéricos . . . . . . 8
1.2 Método y algoritmo de la bisección: análisis de errores . . . . 12
1.3 Punto fijo e iteración funcional . . . . . . . . . . . . . . . . . . 19
1.4 Análisis del método de Newton-Raphson . . . . . . . . . . . . 25
1.4.1 Método de Newton generalizado . . . . . . . . . . . . . 31
1.5 Un problema mal condicionado: ceros de un polinomio . . . . 34
1.5.1 Sucesiones de Sturm . . . . . . . . . . . . . . . . . . . 38
1.5.2 Algoritmo de Horner . . . . . . . . . . . . . . . . . . . 41
1.6 Sistemas de ecuaciones no lineales . . . . . . . . . . . . . . . . 43
1.6.1 Método de Newton para sistemas . . . . . . . . . . . . 46
1.7 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . 48
1.8 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . 59
3
4 Contenido
Bibliografı́a 221
1. Ecuaciones no lineales
• Métodos directos
Sin embargo, el siglo XIX, Abel probó que no existe ninguna fórmula equi-
valente (en término de raı́ces) para resolver ecuaciones de grado superior a
cuatro.
7
8 Ecuaciones no lineales
Dado que cualquier algoritmo puede cometer errores, no sólo por el algoritmo
en sı́, sino porque los datos pueden venir afectados de algún tipo de error
(redondeo, etc.) es muy importante el estudio de los distintos tipos de error
que puedan cometerse con vista a la fiabilidad de los resultados.
Obsérvese que si sólo disponemos del dato de que el error es, por ejemplo,
de 1m. no sabemos nada acerca de la fiabilidad del resultado, ya que no
es lo mismo decir que se ha cometido un error de un metro al medir la
altura de una persona que al medir la distancia entre dos galaxias.
por lo que aunque el error del dato sea muy pequeño, si la derivada f 0 (x) es
muy grande, el resultado obtenido f (x) puede diferir mucho del valor exacto
f (x).
Para el problema inverso, es decir conocido f (x) buscar el valor de x (resolver
una ecuación) se tendrá que
1
|x − x| ' |f (x) − f (x)|
|f 0 (x)|
por lo que si |f 0 (x)| fuese muy pequeño el error de la solución puede ser muy
grande.
Además el problema no está en el algoritmo que se aplique para evaluar f (x)
sino en el propio problema a resolver.
κ(x) = |f 0 (x)|
10 Ecuaciones no lineales
Ası́ pues, un problema (en ambos sentidos) estará mejor condicionado mientras
más se acerque a 1 su número de condición.
Ejemplo 1.1 Si queremos calcular la tangente de 89◦ 590 lo primero que de-
bemos hacer es expresar el ángulo en radianes, por lo que necesariamente
debemos redondear el dato (el número π hay que redondearlo), por lo que el
dato vendrá afectado de un error de redondeo.
Utilicemos el método que utilicemos, dado que | tg x−tg x| ' |1+tg 2 x|·|x−x|
y tg x → +∞ cuando x → π, el problema estará mal condicionado.
tg a + tg b
Sin embargo si tenemos en cuenta que tg (a + b) = podemos
1 − tg a tg b
reducir nuestro problema al cálculo de la tangente de 44◦ 590 resultando éste
un proceso bien condicionado, ya que tg 45 = 1.
Si, por el contrario los errores que se producen en los distintos pasos no alteran
de forma significativa el resultado del problema, diremos que el algoritmo es
estable.
a+1
I0 = ln
a
Algoritmo
1
In = − aIn−1
n
11
Sin embargo, dado que para a = 10 es I0 = ln = 0.09531017980432 . . .
10
y el número 0.09531017980432 . . . no podemos introducirlo en el ordenador
de manera exacta, debemos cometer algún error introduciendo un número
aproximado I 0 de tal forma que cometemos un error inicial ε0 = |I 0 − I0 |.
El error εn que se cometerá al calcular In vendrá dado por
1 1
εn = |I n − In | = − aI n−1 − ( − aIn−1 ) = | − a(I n−1 − In−1 )| = |a|εn−1
n n
es decir,
εn = |a|εn−1 = |a|2 εn−2 = · · · = |a|n ε0
por lo que si tomamos las 10 primeras cifras decimales de I0 , es decir, si
tomamos
I 0 = 0.0953101798 con ε0 < 10−10
obtendremos un error en la décima iteración
en otras palabras,
a1 + b 1
Tomando el punto medio x1 =
2
Algoritmo de la bisección
ai + b i
Para i = 1, . . . , n, . . ., Ii = [ai , bi ] y mi = (punto medio de Ii ) con
2
[ai , mi ] si sig(f (ai )) 6= sig(f (mi ))
I1 = [a, b] y Ii+1 =
[mi , bi ] si sig(f (bi )) 6= sig(f (mi ))
Algoritmo de la Bisección
while (b-a)/2>ε
m = a+(b-a)/2;
if f(m) == 0
a = m;
b = m;
end
if sign f(a) == sign f(m)
a = m;
else
b = m;
end
end
m
• Si son f (c) y f (b) los que tienen signos contrarios, la raı́z está en el
intervalo [c, b].
c = a;
while abs f(c)>ε
c = (a*f(b)-b*f(a))/(f(b)-f(a));
if f(c) == 0
a = c;
b = c;
end
if sign f(a) == sign f(c)
a = c;
else
b =c;
end
end
c
16 Ecuaciones no lineales
Error “a posteriori”
f (x)
f (x)
x x
xn
f (x)
f (x)
x x
xn
f (x) − f (xn )
= f 0 (c).
x − xn
18 Ecuaciones no lineales
f (xn )
Como f (x) = 0, nos queda que x − xn = − , obteniéndose:
f 0 (c)
)
|f (xn )| |f (xn )| |f (xn )| (x, xn )
εn = 0 ≤ 0 ≤ con ∈ (a, b)
|f (c)| mı́n |f (x)| mı́n |f 0 (x)| (xn , x)
(x, xn ) x∈(a,b)
x∈ (xn , x)
es decir, puede que obtengamos por ejemplo que f (xn ) = k y sin embargo su
verdadero valor difiera mucho de k debido a la fuerte pendiente existente en
dicho punto, con lo que obtendremos una cota errónea del error.
Debemos, por tanto, asegurarnos de que nuestro problema está bien condicio-
nado, es decir, no existen en el intervalo pendientes muy grandes (condiciona-
miento directo) ni muy pequeñas (condicionamiento inverso) para garantizar
la fiabilidad del “error a posteriori”.
Sea ϕ(x) una función continua en [a, b], derivable en (a, b), con ϕ([a, b]) ⊆ [a, b]
tal que |ϕ0 (x)| ≤ q < 1 ∀ x ∈ [a, b], y sea x0 un punto cualquiera del intervalo
[a, b]. La sucesión
Demostración.
• Convergencia
(
[xn , xn+1 ]
xn+1 − xn = ϕ(xn ) − ϕ(xn−1 ) = (xn − xn−1 )ϕ0 (c) con c ∈
[xn+1 , xn ]
por lo que
|x2 − x1 | ≤ q|x1 − x0 |
|x3 − x2 | ≤ q|x2 − x1 | ≤ q 2 |x1 − x0 |
..
.
|xn+1 − xn | ≤ q n |x1 − x0 |
..
.
S1 = x 0
S2 = x0 + (x1 − x0 ) = x1
..
.
Sn+1 = Sn + (xn − xn−1 ) = xn
..
.
es decir
• Unicidad
|x − x0 | = |ϕ(x) − ϕ(x0 )| = |(x − x0 )ϕ0 (c)| = |(x − x0 )| · |ϕ0 (c)| con c ∈ [a, b]
Dependiendo de los valores que toma ϕ0 (x) en el intervalo [a, b], podemos
distinguir cuatro casos:
pudiéndose observar (véase la Fig. 1.4) que en los casos (a) y (d) la sucesión
resulta ser divergente ya que |ϕ0 (x)| > 1.
En los casos (b) y (c), en los que |ϕ0 (x)| ≤ q < 1 el método converge
monótonamente en (b) y de forma oscilatoria en (c).
2 2 2
|ϕ0 (x)| = 2
≥ 2 = para cualquier x ∈ [1, 2]
(1 + x) 3 9
podemos garantizar que partiendo de x0 = 1 el método convergerá a la raı́z
cuadrada de 3 y que el “error a posteriori” será fiable.
3 + xn
Ası́ pues, partiendo de x0 = 1 y haciendo xn+1 = obtenemos:
1 + xn
x1 = 2 x14 = 1.73205079844084
x2 = 1.66666666666667 x15 = 1.73205081001473
x3 = 1.75000000000000 x16 = 1.73205080691351
x4 = 1.72727272727273 x17 = 1.73205080774448
x5 = 1.73333333333333 x18 = 1.73205080752182
x6 = 1.73170731707317 x19 = 1.73205080758148
x7 = 1.73214285714286 x20 = 1.73205080756550
x8 = 1.73202614379085 x21 = 1.73205080756978
x9 = 1.73205741626794 x22 = 1.73205080756863
x10 = 1.73204903677758 x23 = 1.73205080756894
x11 = 1.73205128205128 x24 = 1.73205080756886
x12 = 1.73205068043172 x25 = 1.73205080756888
x13 = 1.73205084163518 x26 = 1.73205080756888
|f (xn )|
El error vendrá dado por εn < donde f (x) = x2 − 3, por lo que
mı́n |f 0 (x)|
x∈[1,2]
|x226 − 3|
ε26 < = 4.884981308350688 · 10−15 < 10−14
2
√
es decir, 3 = 1.73205080756888 con todas sus cifras decimales exactas.
Orden de convergencia
x 1
• ϕ(x) = en [−1, 1] es contractiva ya que |ϕ0 (x)| = < 1 ∀ x ∈ [−1, 1]
2 2
x0 = 1 =⇒ x1 = 00 5 ⇒ x2 = 00 25 ⇒ x3 = 00 125 =⇒ x4 = 00 0625 · · ·
x2 x 1
• ϕ(x) = en [−1, 1] es contractiva: |ϕ0 (x)| = ≤ < 1 ∀ x ∈ [−1, 1]
4 2 2
x0 = 1 ⇒ x1 = 00 25 ⇒ x2 = 00 015625 ⇒ x3 = 60 105 . . . · 10−5 · · ·
x3
2
x 1
• ϕ(x) = en [−1, 1] es contractiva: |ϕ0 (x)| = ≤ < 1 ∀ x ∈ [−1, 1]
6 2 2
¿Cómo elegir una función de iteración ϕ(x) que nos garantice una convergen-
cia, al menos, de segundo orden?
f (xn )
Si partiendo de x0 ∈ [a, b] la sucesión (xn ) con xn+1 = ϕ(xn ) = xn −
f 0 (xn )
converge entonces ϕ(x) es contractiva.
Además:
f (lim xn ) f (lim xn )
lim xn+1 = lim xn − 0
=⇒ = 0 =⇒ f (lim xn ) = 0
lim f (xn ) lim f 0 (xn )
es decir, lim xn = x.
y = f (x)
x
x2 x1 x0
Orden de convergencia
f (x)
Si el método converge, ϕ(x) = x − es contractiva y además
f 0 (x)
f 02 (x) − f (x)f 00 (x) f (x)f 00 (x)
ϕ0 (x) = 1 − = con f 0 (x) 6= 0 =⇒ ϕ0 (x) = 0
f 02 (x) f 02 (x)
1 n máx |f 00 (x)|
εn ≤ (kε0 )2 con k ≥
k 2 mı́n |f 0 (x)|
lo que nos proporciona una cota del error “a priori”, pudiéndose garantizar la
1
convergencia siempre que kε0 < 1 es decir, si ε0 ≤ .
k
Algoritmo
Una vez realizado un estudio previo para ver que se cumplen las condiciones
que requiere el método, establecer el valor inicial x0 y calcular el valor de
m = mı́n |f 0 (x)|, el algoritmo, que tiene por entradas los valores de a, b, x, ε,
x∈[a,b]
f (x) y m y por salida la raı́z x, es el siguiente:
Algoritmo de Newton
e = abs (f(x)/m);
while e > ε
x = x-f(x)/f0 (x);
e = abs (f(x)/m);
end
x
28 Ecuaciones no lineales
x2 − 3 x2 + 3
f (xn ) 1 3
xn+1 = xn − 0 = xn − n = n = xn +
f (xn ) 2xn 2xn 2 xn
x0 =2
x1 = 1.75000000000000
x2 = 1.73214285714286
x3 = 1.73205081001473
x4 = 1.73205080756888
|f (xn )|
El error vendrá dado, al igual que en el Ejemplo 1.3 por εn < ,
mı́n |f 0 (x)|
x∈[1,2]
por lo que
|x24 − 3|
ε4 < = 4.884981308350688 · 10−15 < 10−14
2
√
es decir, 3 = 1.73205080756888 con todas sus cifras decimales exactas.
1 A
La fórmula xn+1 = xn + es conocida como fórmula de Heron ya que
2 xn
este matemático la utilizaba para aproximar la raı́z cuadrada de un número
real positivo A hacia el año 100 a.C. pues sabı́a que si disponı́a de un valor
aproximado xn y éste fuese mayor que la raı́z buscada, necesariamente A/xn
serı́a menor que su raı́z y viceversa, por lo que la media entre ambos debı́a ser
una mejor aproximación que xn . En otras palabras, en cada iteración tomaba
como aproximación de la raı́z la media aritmética entre el valor xn anterior y
el cociente A/xn .
Análisis del método de Newton-Raphson 29
9
x1 x0
x x2
y = f (x)
x x0 x1
Por otra parte, como no nos interesa que x0 esté situado cerca de un extremo
local, vamos a estudiar los diferentes casos con que podemos encontrarnos
y elegir, en cada uno de ellos, un valor adecuado para x0 (aquel que no se
encuentre cercano a un extremo local).
Análisis del método de Newton-Raphson 31
a a b b
b b a a
Obsérvese que en cualquiera de los cuatro casos (véase la Figura 1.8) hemos
optado por elegir, como valor inicial x0 , el extremo en el que la función tiene
el mismo signo que su segunda derivada.
Este resultado, que formalizamos a continuación en forma de teorema es co-
nocido como regla de Fourier.
Sea f (x) una función continua y dos veces derivable [a, b]. Si sig f (a) 6= sig f (b)
y sus dos primeras derivadas f 0 (x) y f 00 (x) no se anulan en [a, b] existe una
única raı́z de la ecuación f (x) = 0 en dicho intervalo y se puede garantizar la
convergencia del método de Newton tomando como valor inicial x0 el extremo
del intervalo en el que la función y su segunda derivada tienen el mismo signo.
f (x)
• La raı́z x de f (x) también lo es de g(x) = pero con la particularidad
f 0 (x)
de que
g(x)
ϕ(x) = x −
g 0 (x)
verifica que ϕ0 (x) y ϕ00 (x) tienden a cero cuando x lo hace a x, por lo
que al aplicar el método de Newton a la función g(x) obtenemos x con
una convergencia de, al menos, tercer orden.
Este proceso tiene el inconveniente de que si f (x) es, por ejemplo, un
polinomio, g(x) es una función racional, por lo que se complican los
cálculos.
f (xn )
xn+1 = xn − k (1.3)
f 0 (xn )
y=x
y = sen x
-1
0 1
x0 = 1
.....................
f 0 (x10 ) = 0.0001 . . .
x10 = 0.016822799 . . . f 00 (x10 ) = 0.016 . . .
f 000 (x ) = 0.9998 . . .
10
.....................
f 0 (x20 ) = 0.00000001 . . .
x20 = 0.0000194 . . . f 00 (x20 ) = 0.0019 . . .
f 000 (x ) = 0.9999 . . .
20
Como la convergencia es muy lenta, hace pensar que se trata de una raı́z
múltiple. Además, como la primera y la segunda derivadas tienden a cero y
la tercera lo hace a 1, parece que nos encontramos ante una raı́z triple, por lo
que aplicamos el método generalizado de Newton.
xn − sen xn
xn+1 = xn − 3
1 − cos xn
que comenzando, al igual que antes, por x0 = 1 se obtiene:
x0 =1
x1 = −0.034 . . .
x2 = 0.000001376 . . .
x3 = 0.00000000000009 . . .
Por el teorema fundamental del Álgebra sabemos que Pn (x) posee n raı́ces y,
por tanto, puede ser factorizado de la forma
Pn (x) = a0 (x − x1 )(x − x2 ) · · · (x − xn )
por lo que
P (x)
Q(x) = = a0 (x − x1 )(x − x2 ) · · · (x − xk )
D(x)
Es decir, hemos encontrado un polinomio cuyas raı́ces son las mismas que las
de P (x) pero todas ellas simples.
por lo que
P (x)
Q(x) = = x3 − 3x + 2 = (x − 1)(x − 2)
D(x)
que tiene las mismas raı́ces que P (x) pero todas simples.
Si ya conocemos que una ecuación sólo tiene raı́ces simples y queremos calcu-
larlas, parece apropiado que un primer paso consista en detectar dónde pueden
encontrarse. Ası́ por ejemplo, si son reales, determinar intervalos de una am-
plitud reducida en los que se encuentren las raı́ces de la ecuación.
se verifica que:
A
|x| < 1 + siendo A = máx |ai |
|a0 | i≥1
A
|x| < 1 + con |x| > 1
|a0 |
Es evidente que esta cota también la verifican las raı́ces x con |x| < 1.
Un problema mal condicionado: ceros de un polinomio 37
Consideremos la ecuación
por lo que cualquier raı́z real del polinomio debe estar en el intervalo (−13, 13).
Aplicando la regla de Laguerre obtenemos:
2 −9 −1 24 12
4 8 −4 −20 16
2 −1 −5 4 28
2 −9 −1 24 12
5 10 5 20 240
2 1 4 48 252
ecuación deba tener alguna raı́z en el intervalo (4, 5). En otras palabras, 4
puede ser una cota superior para las raı́ces positivas de la ecuación aunque la
regla de Laguerre no lo garantice. De hecho, la mayor de las raı́ces positivas
de nuestra ecuación es x = 3.56155281280883 . . . < 4.
• Si fi (c) = 0 entonces fi−1 (c) y fi+1 (c) tienen signos opuestos, es decir,
fi−1 (c) · fi+1 (c) < 0. (Engloba al apartado anterior).
f0 (x)
• Si f0 (c) = 0 con c ∈ [a, b] entonces pasa de negativa a positiva
f1 (x)
en c. (Está bien definida en c por ser f1 (c) 6= 0 y es creciente en dicho
punto).
Para determinar las demás funciones de la sucesión vamos dividiendo fi−1 (x)
entre fi (x) para obtener
Ejemplo 1.9 Vamos a construir una sucesión de Sturm que nos permita se-
parar las raı́ces de la ecuación x4 + 2x3 − 3x2 − 4x − 1 = 0.
f0 (x) = x4 + 2x3 − 3x2 − 4x − 1. f00 (x) = 4x3 + 6x2 − 6x − 4.
f1 (x) = 2x3 + 3x2 − 3x − 2.
f2 (x) = 9x2 + 9x + 2.
f3 (x) = 2x + 1.
f4 (x) = 1.
−∞ −3 −2 −1 0 1 2 +∞
4 3 2
f0 (x) = x + 2x − 3x − 4x − 1 + + − − − − + +
f1 (x) = 2x3 + 3x2 − 3x − 2 − − 0 + − 0 + +
2
f2 (x) = 9x + 9x + 2 + + + + + + + +
f3 (x) = 2x + 1 − − − − + + + +
f4 (x) = 1 + + + + + + + +
cambios de signo 4 4 3 3 1 1 0 0
Un problema mal condicionado: ceros de un polinomio 41
Sabemos, por ello, que existe una raı́z en el intervalo (−3, −2), dos raı́ces en
el intervalo (−1, 0) y una cuarta raı́z en el intervalo (1, 2).
Como f0 (−1) = −1 < 0, f0 (−0.5) = 0.0625 > 0 y f0 (0) = −1 < 0 podemos
separar las raı́ces existentes en el intervalo (−1, 0) y decir que las cuatro raı́ces
de la ecuación dada se encuentran en los intervalos
Si, una vez eliminadas las raı́ces múltiples y separadas las raı́ces, queremos
resolver la ecuación, utilizaremos el método de Newton.
Al aplicarlo nos encontramos con que tenemos que calcular, en cada paso, los
valores de P (xn ) y P 0 (xn ) por lo que vamos a ver, a continuación, un algo-
ritmo denominado algoritmo de Horner que permite realizar dichos cálculos
en tiempo lineal.
Algoritmo de Horner
P (x) − P (x0 )
= Q(x) = b0 xn−1 + b1 xn−2 + · · · + bn−2 x + bn−1
x − x0
se tiene que
b 0 = a0
b 1 = a1 + x 0 b 0
b 2 = a2 + x 0 b 1
..
.
bn−1 = an−1 + x0 bn−2
r = P (x0 ) = an + x0 bn−1
se tiene que
P 0 (x0 ) = Q(x0 )
y el cálculo de Q(x0 ) es análogo al que hemos realizado para P (x0 ), es decir,
aplicando el algoritmo de Horner a Q(x) obtenemos
Regla de Ruffini
Una regla útil para hacer los cálculos a mano es la conocida regla de Ruffini
que consiste en disponer las operaciones como se indica a continuación.
a0 a1 a2 ··· an−1 an
x0 x0 b0 x0 b1 · · · x0 bn−2 x0 bn−1
Si utilizamos la regla de Ruffini sólo tenemos que volver a dividir por x0 , como
se muestra a continuación, para obtener el valor de P 0 (x0 ).
2 5 7 18 31
2 4 18 50
2 9 25 68
por lo que
P (2) = 31 y P 0 (2) = 68
f2 (x1 , x2 , . . . , xm ) = 0
..
.
fm (x1 , x2 , . . . , xm ) = 0
44 Ecuaciones no lineales
f : D ⊂ Rm → Rm
f1 (x)
t 1
t
-1 1
-2 2
-0.5
f2 (x)
-1
Como hemos transformado el sistema en una ecuación del tipo f (x) = 0, parece
lógico que tratemos de resolverla por algún método paralelo a los estudiados
para ecuaciones no lineales como puedan ser la iteración funcional o el método
de Newton.
Sistemas de ecuaciones no lineales 45
x2 − y + 0.5
x2 − 2x − y + 0.5 = 0 =⇒ 2x = x2 − y + 0.5 =⇒ x =
2
x2 + 4y 2 − 4 = 0 =⇒ x2 + 4y 2 + y − 4 = y =⇒ y = x2 + 4y 2 + y − 4
es decir,
x = (x, y)T
x = F (x) con y
x2 − y + 0.5 2
, x + 4y 2 + y − 4)T
F (x) = (
2
Si x es una solución de la ecuación y xn+1 es una aproximación obtenida, se
tiene que
kx − xn+1 k ≤ kx − xn k
y la sucesión
x0 , x1 , . . . , xn , . . .
converge a la única raı́z de la ecuación x = F (x) en la bola considerada
(intervalo de Rm ).
46 Ecuaciones no lineales
• Se ha utilizado una versión del teorema del valor medio para varias va-
riables al decir que
x = xn + h
de donde
h ' −f 0−1 (xn )f (xn )
y, por tanto
x ' xn − f 0−1 (xn )f (xn ).
Esta aproximación es que utilizaremos como valor de xn+1 , es decir
obteniéndose el sistema
1
−0.25 −1 h2 −0.0625
=
2
−0.5 8 h2 −0.0625
1
h2 0.022561 . . .
cuya solución es h2 = = y, por tanto
2
h2 −0.006 . . .
−0.227439 . . .
x2 = x1 + h2 =
0.994 . . .
Solución:
Para x < 0:
1 1
< 0 y ex > 0 =⇒ ex 6=
x x
y por tanto, no existen raı́ces negativas.
Para x > 0:
(
f (0) = −1 < 0
f (x) = xex − 1 =⇒
f (+∞) = +∞ > 0
y existe, por tanto, un número impar de raı́ces positivas (al menos una).
La función derivada f 0 (x) = xex + ex = (x + 1)ex sólo se anula para
x = −1. Dado que, si existiese más de una raı́z positiva, el teorema de
Rolle nos asegura que la función derivada debe anularse en algún punto
intermedio y hemos visto que f 0 (x) no se anula para ningún valor positivo
de la variable, podemos asegurar que sólo existe una raı́z real α, que esta
es positiva y simple, pues f 0 (α) 6= 0.
Dado que f (1) = e − 1 > 0 y f (0) = −1 < 0, podemos asegurar que la
única raı́z real de la ecuación se encuentra en el intervalo (0, 1).
b) Método de la bisección:
(
f (0) = −1 < 0
[a1 , b1 ] = [a, b] = [0, 1] con
f (1) = e − 1 > 0
c) Método de Newton:
f (xn )
La fórmula de Newton-Raphson es xn+1 = xn −
f 0 (xn )
Dado que, por el apartado anterior, se conoce que la raı́z se encuentra
en el intervalo [0.5625, 0.5703125] y que
f (0.5625) < 0
f (x) = xex − 1 =⇒
f (0.5703125) > 0
f 0 (x) = (x + 1)ex =⇒ f 0 (x) > 0 ∀ x ∈ [0.5625, 0.5703125]
f 00 (x) = (x + 2)ex =⇒ f 00 (x) > 0 ∀ x ∈ [0.5625, 0.5703125]
es decir
|f (xn )| |f (xn )|
εn ≤ 0 <
mı́n |f (x)| 2.74
x∈[0.5625,0.5703125]
obteniéndose que
|f (x0 )|
x0 = 0.5703125 con ε0 < = 0.00320437856505 . . .
2.74
|f (x1 )|
x1 = 0.56715149835900 . . . con ε1 < = 0.00000827757122 . . .
2.74
Si redondeamos a 0.567 el error acumulado es
Por lo que la solución de la ecuación es 0.567 con sus tres cifras decimales
exactas.
Ejercicio 1.2 Probar que la ecuación x2 + ln x = 0 sólo tiene una raı́z real y
hallarla, por el método de Newton, con 6 cifras decimales exactas.
Puede observarse que sólo existe un punto de corte entre ellas, por lo que la
ecuación x2 + ln x = 0 sólo posee una raı́z real.
Analı́ticamente hay que probar que las gráficas no vuelven a cortarse en ningún
otro punto, sin embargo, dado que en su dominio de definición, que es (0, +∞),
ln x es creciente y −x2 decreciente, no pueden volver a cortarse.
Partiendo de x0 = 0.1 y aplicando el método de Newton, en el intervalo (0.1, 1)
(no tomamos (0, 1) por no estar definido el logaritmo en 0), dado por la fórmula
|f (xn )| |f (xn )|
con un error, a posteriori, dado por εn ≤ 0 = , obtenemos:
mı́n |f (x)| 2
x∈(0,1)
Solución:
a)
3
|x| < 1 + = 4 =⇒ −4 < x < 4
1
b) f0 (x) = P (x) = x3 + 3x2 + 2.
P 0 (x) = 3x2 + 6x =⇒ f1 (x) = x2 + 2x
x3 + 3x2 + 2 = (x2 + 2x)(x + 1) + (−2x + 2) =⇒ f2 (x) = x − 1
x2 + 2x = (x − 1)(x + 3) + 3 =⇒ f3 (x) = −1
−4 −3 4
x3 + 3x2 + 2 − + +
2
x + 2x + + +
x−1 − − +
−1 − − −
Cambios de signo 2 1 1
54 Ecuaciones no lineales
por lo que sólo posee una raı́z real, la cual se encuentra en el intervalo
(−4, −3).
f (−4) = −14 < 0
c) f (x) = x3 + 3x2 + 2 =⇒ es decir, la función
f (−3) = 2 > 0
cambia de signo en los extremos del intervalo (−4, −3).
por lo que se verifican las hipótesis del teorema de Fourier y, por tanto,
tomando como valor inicial x0 = −4 (extremo en el que la función tiene
el mismo signo que la segunda derivada) se tiene garantizada la conver-
gencia del método de Newton.
xn+1 = −3.19582334575880.
Ejercicio 1.5 Aplicar el método de Sturm para separar las raı́ces de la ecua-
ción
2x6 − 6x5 + x4 + 8x3 − x2 − 4x − 1 = 0
y obtener la mayor de ellas con seis cifras decimales exactas por el método de
Newton.
f4 (x) = x2 − x − 1
Dividimos ahora f3 (x) entre f4 (x), obteniendo:
Al haber llegado a un resto nulo sabemos que la ecuación original tiene raı́ces
múltiples.
56 Ecuaciones no lineales
A
Dado que |x| < 1 + , donde A = 4 y |a0 | = 2, se tiene que |x| < 3, o lo que
|a0 |
es lo mismo, −3 < x < 3.
−3 −1 −0.5 0 1 1.5 2 3
2x4 − 4x3 − x2 + 3x + 1 + + − + + − + +
6x3 − 9x2 − x + 2 − − − + − + + +
g2 (x) = 13x2 − 13x − 8 + + + − − + + +
2x − 1 − − − − + + + +
1 + + + + + + + +
Cambios de signo 4 4 3 2 2 1 0 0
La mayor de las raı́ces se encuentra en el intervalo [1.5, 2], pero dado que
Q0 (1.5) = 0 podemos tomar el intervalo [1.6, 2] en el cual:
(
Q(1.6) < 0
Q(x) = 2x4 − 4x3 − x2 + 3x + 1
Q(2) > 0
Q0 (x) = 8x3 − 12x2 − 2x + 3 > 0 ∀ x ∈ [1.6, 2]
Q(x)
Teniendo en cuenta que xn+1 = xn − se obtiene la sucesión:
Q0 (x)
x0 =2
x1 = 1.8
x2 = 1.684726867
x3 = 1.632243690
x4 = 1.618923782 =⇒ ε4 ≤ 0.01841
x5 = 1.618037855 =⇒ ε5 ≤ 0.0011
x6 = 1.618033989 =⇒ ε6 ≤ 0.0000047
x7 = 1.618033989 =⇒ ε7 ≤ 0.885 · 10−10
Fig. 1 Fig. 2
a) Probar, analı́ticamente, que en el intervalo [0.5, 1.5] posee una única raı́z
real.
Solución:
b) Dado que f 0 (x) = 10x9 y f 00 (x) = 90x8 son positivas (tienen signo cons-
tante) en todo el intervalo, debe tomarse como valor inicial el extremo
en que f (x) tiene el mismo signo que la segunda derivada (Regla de
Fourier), es decir x0 = 1.5.
a) Probar, mediante una sucesión de Sturm, que posee una única raı́z en el
intervalo (6, 7).
b) Si expresamos la ecuación P (x) = 0 de la forma
1
x = F (x) = (x3 − 6x2 + 7),
3
¿podemos asegurar su convergencia?
Sol : a = 0.
c) ¿Cuál de los extremos del intervalo [a, a + 1] debe tomarse como valor
inicial para asegurar la convergencia del método de Newton?
Sol : x0 = a = 0.
d) Aplicar el método de Newton para obtener la menor de las raı́ces positivas
de la ecuación con seis cifras decimales exactas.
Sol : x = 0.500562.
60 Ecuaciones no lineales
a) Acotar las raı́ces y construir una sucesión de Sturm para probar que sólo
posee dos raı́ces reales, una positiva y otra negativa, dando intervalos de
amplitud 1 que las contengan.
c) Aplicar Fourier para determinar el valor inicial que debe tomarse para
garantizar la convergencia del método de Newton en el cálculo de la raı́z
negativa. ¿Tenemos las tres cifras exactas si tomamos como raı́z -4.646 ?
a) Utilizar una sucesión de Sturm para probar que el polinomio p(x) sólo
tiene una raı́z α ∈ R y que ésta se encuentra en el intervalo I = [0, 3].
a) ¿Puede carecer de raı́ces reales? ¿y tener dos y sólo dos raı́ces reales?
b) Utilizar el método de Sturm para probar que tiene una única raı́z real
si, y sólo si, k < 0 o k > 4, y que sólo tiene raı́ces múltiples si k = 0 o
k = 4 no existiendo, en ningún caso, una raı́z triple.
c) Para k = −4 admite una única raı́z real en el intervalo [0, 1]. Si tomamos
como valor aproximado de la raı́z x = 0.3553 ¿de cuántas cifras decimales
exactas disponemos?
Sol : x0 = 1, x2 = 0.365079 . . ..
Ejercicios propuestos 63
Ejercicio 1.15
“Cuando dos raı́ces positivas de una ecuación polinómica están muy próximas,
suele ser difı́cil separarlas mediante intervalos cerrados. Para alejarlas se
puede proceder como sigue:
Se obtiene ası́ una ecuación polinómica cuyas raı́ces son los cuadrados de las
raı́ces de la ecuación P (x) = 0. La relación entre las raı́ces de la nueva
ecuación con las de P (x) = 0 es αi2 − αj2 = (αi + αj )(αi − αj ). Ası́, se observa
que las nuevas raı́ces se alejan (o se acercan) αi + αj veces más que las raı́ces
de P (x) = 0.
Si este procedimiento se aplica dos veces se obtiene una ecuación de la forma
(t − α14 ) · · · (t − αn4 ) = 0”
Sea la ecuación P (x) = 2x2 − 9x + 10 = 0, y sea Q(x) = 0 la ecuación obtenida
al aplicar dos veces el método anteriormente descrito. Se pide:
d.1) Encontrar un intervalo [a, b] que sólo contenga a la mayor raı́z real
de esta ecuación y en donde se verifiquen las hipótesis de la regla
de Fourier.
√
d.3) Con una calculadora se ha obtenido β = 4 α = 2.49995999903 como
mejor aproximación.
¿Cuántas de las cifras decimales se podrı́an garantizar que coinciden
con las de la verdadera raı́z de P (x)?
Ejercicio 1.16
Sol : x2 = 4.78799912600669
b) ¿Es posible aproximar α aplicando un método de iteración funcional
x
5 + xe
sobre la función ϕ1 (x) = ln partiendo de cualquier punto del
5
intervalo I = [1, 5]? Justifica tu respuesta.
Sol : Sı́.
2. Sistemas de ecuaciones linea-
les
kx · yk ≤ kxk · kyk
67
68 Sistemas de ecuaciones lineales
n
X
• Norma-1 kxk1 = |xi |
i=1
v
u n
uX √
• Norma euclı́dea o Norma-2 kxk2 = t |xi |2 = x∗ x
i=1
d(x, y) = kx − yk
d(x, y) = 0 ⇐⇒ kx − yk = 0 ⇐⇒ kx − yk = 0 ⇐⇒ x = y.
• d(x, y) = kx − yk = kx − z + z − yk ≤ kx − zk + kz − yk =
lim kvk − vk = 0
k→∞
Esta definición coincide con la idea intuitiva de que la distancia de los vectores
de la sucesión al vector lı́mite v tiende a cero a medida que se avanza en la
sucesión.
Se define
kAxk
kAk = máx = máx{kAxk : kxk = 1}
x∈V −{0} kxk
de tal forma que a cada norma vectorial se le asociará, de forma natural, una
norma matricial.
Xn
• Norma infinito kAk∞ = máx{ |aij xj | : kxk∞ = 1}.
j=1
Como ahora se dará el máximo en un vector que tenga todas sus coor-
denadas iguales a 1, se tiene que
n
X
kAk∞ = máx |aij |.
i
j=1
Tenemos pues, que las normas asociadas (algunas veces llamadas subordinadas)
a las normas de vector estudiadas anteriormente son:
n
X
Norma-1 kAk1 = máx |aij |.
j
i=1
Norma euclı́dea kAk2 = máx σi .
i
n
X
Norma infinito kAk∞ = máx |aij |.
i
j=1
1 1 2
Ejemplo 2.2 Para la matriz A = 2 −1 1 se tiene:
1 0 1
n
X
• kAk1 = máx |aij | = máx{(1 + 2 + 1), (1 + | − 1| + 0), (2 + 1 + 1)} = 4
j
i=1
6 −1 5
T
• El polinomio caracterı́stico de la matriz A A = −1 2 1 es
5 1 6
p(λ) = λ3 − 14λ2 + 33λ = λ(λ − 3)(λ − 11)
Los autovalores de la matriz AT √
A son√0, 3 y 11, por lo que los valores
singulares de la matriz A son 0, 3 y 11 y, por tanto,
√
kAk2 = máx σi = 11
i
72 Sistemas de ecuaciones lineales
n
X
• kAk∞ = máx |aij | = máx{(1 + 1 + 2), (2 + | − 1| + 1), (1 + 0 + 1)} = 4
i
j=1
√ √ √
• kAkF = tr AT A = 6+2+6= 14.
Demostración.
• Como los valores singulares de la matriz A son las raı́ces cuadradas posi-
tivas de los autovalores de A∗ A y los de A∗ las raı́ces cuadradas positivas
de los autovalores de AA∗ (los mismos que los de A∗ A), las matrices A
y A∗ poseen los mismos valores singulares.
Demostración.
kU xk2 kxk2
kU k2 = máx = máx =1
x∈V −{0} kxk2 x∈V −{0} kxk2
Teorema 2.7 El radio espectral de una matriz es una cota inferior de todas
las normas multiplicativas de dicha matriz.
3 1 1
Ejemplo 2.3 La matriz A = 0 2 1 es de diagonal dominante por
2 −1 5
verificar que
3>1+1 2>0+1 y 5 > 2 + | − 1| = 3
n n
X αi X
|akk | ≤ |aki | ≤
|aki |
αk
i=1 i=1
i 6= k i 6= k
Cn = {z : |z − ann | ≤ rn }
n
[
Demostración. Si λ 6∈ Ci es porque λ 6∈ Ci para ningún i = 1, 2, . . . , n,
i=1
por lo que
|λ − a11 | > r1
|λ − a22 | > r2
..
.
|λ − ann | > rn
0 2 3
Ejemplo 2.4 Dada la matriz A = 2 8 2 , sus cı́rculos de Gerschgorin
2 0 10
Sistemas de ecuaciones lineales 77
C1 = {z : |z − 0| ≤ 5}
C2 = {z : |z − 8| ≤ 4}
C3 = {z : |z − 10| ≤ 2}
C1 = {z : |z − 0| ≤ 4}
C2 = {z : |z − 8| ≤ 2}
C3 = {z : |z − 10| ≤ 5}
Estos últimos nos dicen que la matriz tiene, al menos, un autovalor real (hay
un cı́rculo que sólo contiene a un autovalor y éste debe ser real ya que de
ser complejo el conjugado también serı́a autovalor de A y al tener el mismo
módulo se encontrarı́a en el mismo cı́rculo contra la hipótesis de que en dicho
cı́rculo sólo se encuentra un autovalor), es decir los cı́rculos obtenidos por filas
no nos dan información sobre el autovalor real, mientras que los obtenidos por
columnas nos dicen que existe un autovalor real en el intervalo (-4,4).
• Su tamaño
• Su estructura
• Métodos directos
r1 r10 r1 r10
%
s
%
%
@ %
@
%
@s s
@ %
%
@
s
%
@
@ r2
%
%
@@ %
r2 %
%
%
kIk
kA−1 k ≤
1 − kI − Ak
Es decir:
kIk
κ(A) ≤ kAk · k con k=
1 − kI − Ak
Debemos tener cuidado con esta acotación ya que si tenemos una matriz casi
regular, es decir, con det(A) ' 0, quiere decir que tiene un autovalor próximo
a cero, por lo que la matriz I − A tiene un autovalor próximo a 1 y será el
mayor de todos. En este caso kI − Ak ' 1, por lo que k → ∞ y darı́a lugar a
un falso condicionamiento, ya que A no tiene que estar, necesariamente, mal
condicionada.
3x + 4.00001y = 7.00001
Sistemas de ecuaciones lineales 83
Se tiene que
!
3 4
A= =⇒ det(A) = 0.00003
3 4.00001
!
1 4.00001 −4
A−1 =
0.00003 −3 3
n
X
Utilizando la norma infinito kAk∞ = máx |aij | se tiene que
i
j=1
kAk∞ = 7.00001
56
=⇒ κ∞ (A) ' · 105 > 1.8 · 106
8.00001 3
kA−1 k∞ =
0.00003
Se trata pues, de un sistema mal condicionado.
Xn
Si utilizamos la norma-1 kAk1 = máx |aij | obtenemos:
j
i=1
kAk1 = 8.00001
56
=⇒ κ1 (A) ' · 105 > 1.8 · 106
7.00001 3
kA−1 k1 =
0.00003
obteniéndose, también, que se trata de un sistema mal condicionado.
Demostración.
1 kA−1 k
κ(B) = kBk kB −1 k = kzAk k A−1 k = |z| kAk = kAk kA−1 k =
z |z|
= κ(A)
√ √
κF (A) = kAkF kA−1 kF ≤ n nkAk2 kA−1 k2 = nκ2 (A) =⇒
⇐) A = zU =⇒ κ2 (A) = 1.
A = zU =⇒ A∗ A = zU ∗ zU = |z|2 U ∗ U = |z|2 I =⇒
λi (A∗ A) = |z|2 cualquiera que sea i = 1, 2, . . . , n y, por tanto,
σ1 = σ2 = · · · = σn = |z|
por lo que
σn
κ2 (A) = =1
σ1
⇒) κ2 (A) = 1 =⇒ A = zU .
R∗ A∗ AR = σ 2 I
Entonces
A∗ A = R(σ 2 I)R∗ = σ 2 (RIR∗ ) = σ 2 I
86 Sistemas de ecuaciones lineales
de donde
1 ∗ 1
A A =I
σ σ
1 1
Llamando U = A se tiene que U ∗ = A∗ , ya que σ ∈ R ⇒ σ = σ.
σ σ
∗ 1 ∗ 1
U U= A A = I =⇒ U es unitaria
σ σ
y, por tanto,
A = σU con U unitaria
Los sistemas mejor condicionados son aquellos que tienen sus filas o columnas
ortogonales y mientras mayor sea la dependencia lineal existente entres ellas
peor es el condicionamiento del sistema.
Al ser κ(U A) = κ(A) trataremos de utilizar métodos de resolución de sistemas
de ecuaciones lineales que trabajen con transformaciones unitarias que no em-
peoren su condicionamiento como lo hace, por ejemplo, el método de Gauss
basado en la factorización LU y que también estudiaremos a continuación.
2.3.1 Factorización LU
Al aplicar el método de Gauss al sistema Ax = b realizamos transformaciones
elementales para conseguir triangularizar la matriz del sistema.
A = L0 U 0 = LU =⇒ L−1 L0 = U U 0−1
Métodos directos de resolución de sistemas lineales 87
El hecho de que L−1 L0 = U U 0−1 nos dice que necesariamente L−1 L0 = I, ya que
es simultáneamente triangular inferior y superior y su diagonal es de unos.
y calculando los valores de los n2 elementos que aparecen entre las dos matrices.
3 1 2
Ejemplo 2.7 Considérese la matriz A = 6 3 2
−3 0 −8
3 1 2 1 0 0 u11 u12 u13
6 3 2 = l21 1 0 0 u22 u23 =
l31 u11 l31 u12 + l32 u22 l31 u13 + l32 u23 + u33
por lo que de la primera fila obtenemos que
u11 = 3 u12 = 1 u13 = 2
de la segunda (teniendo en cuenta los valores ya obtenidos) se tiene que
3l21 = 6 l21 = 2
l21 + u22 = 3 =⇒ u22 = 1
2l21 + u23 = 2 u23 = −2
88 Sistemas de ecuaciones lineales
3 1 2 1 0 0 3 1 2
es decir: 6 3 2 = 2 1 0 0 1 −2
−3 0 −8 −1 1 1 0 0 −4
Teorema 2.12 Una matriz regular A admite factorización LU si, y sólo si,
sus matrices fundamentales Ai (i = 1, 2, . . . , n) son todas regulares.
Reiterando el procedimiento se puede ver que todos los elementos que vamos
obteniendo en la diagonal son no nulos y, por tanto, válidos como pivotes. Es
decir, puede realizarse la factorización LU .
hérmı́tica ⇐⇒ A = A∗
(
x∗ Ax ≥ 0 ∀ x
definida positiva ⇐⇒
x∗ Ax = 0 ⇐⇒ x = 0
admite factorización LU .
−3 0 −8 5
90 Sistemas de ecuaciones lineales
−1 1 1 y3 5 4
3 1 2 x1 0 1
U x = y ⇐⇒ 0 1 −2 x2 = 1 =⇒ x = −1
0 0 −4 x3 4 −1
√ √
u11 0 ··· 0 u11 0 ··· 0
√ √
0 u22 ··· 0 0 u22 ··· 0
= L V ⇒
.. .. .. . .. ..
... . ...
. . . . . .
√ √
0 0 ··· unn 0 0 ··· unn
A = BR
√
u11 0 0 ··· 0
√
0 u22 0 ··· 0
√
0
B = L 0 u33 · · · 0 es triangular inferior.
.. .. .. ... ..
. . . .
√
0 0 0 ··· unn
√
u11 0 0 ··· 0
√
0 u22 0 ··· 0
√
R= 0 0 u33 · · · 0 V es triangular superior.
.. .. .. .. ..
. . . . .
√
0 0 0 ··· unn
Como A es hermı́tica, BR = A = A∗ = R∗ B ∗ , por lo que (R∗ )−1 B = B ∗ R−1 , y
dado que (R∗ )−1 B es triangular inferior y B ∗ R−1 es triangular superior, ambas
han de ser diagonales.
Por otra parte,
Hemos visto que toda matriz hermı́tica y definida positiva admite factorización
de Cholesky, pero podemos llegar más lejos y enunciar el siguiente teorema.
4 − 2i 2 + 2i 10 x3 −4
2
Se obtiene multiplicando, que r11 = 4 =⇒ r11 = 2.
2r12 = 2i =⇒ r12 = i
Utilizando este resultado tenemos que
2r13 = 4 + 2i =⇒ r13 = 2 + i
2 2 2
r12 + r22 = 2 =⇒ r22 = 1 =⇒ r22 = 1.
r12 r13 + r22 r23 = 2 − 2i =⇒ 1 − 2i + r23 = 2 − 2i =⇒ r23 = 1.
2 2 2 2 2
r13 + r23 + r33 = 10 =⇒ 5 + 1 + r33 = 10 =⇒ r33 = 4 =⇒ r33 = 2.
Ası́ pues, el sistema nos queda de la forma
2 0 0 2 i 2+i x1 0
−i 1 0 0 1 1 x2 = 0
2−i 1 2 0 0 2 x3 −4
Métodos iterados de resolución de sistemas lineales 93
2 0 0 y1 0 0
R∗ y = b ⇐⇒ −i 1 0 y2 = 0 =⇒ y = 0
2−i 1 2 y3 −4 −2
2 i 2+i x1 0 1
Rx = y ⇐⇒ 0 1 1 x2 = 0 =⇒ x = 1
0 0 2 x3 −2 −1
xn+1 − x = 2(xn − x)
x∗ − x = 2(x∗ − x) =⇒ x∗ − x = 0 =⇒ x∗ = x
94 Sistemas de ecuaciones lineales
kxn+1 − xk = 2kxn − xk
xn+1 = Kxn + c
en los que K será la que denominemos matriz del método y que dependerá de
A y de b y en el que c es un vector que vendrá dado en función de A, K y b.
Demostración.
x∗ − x = K(x∗ − x) + c − (I − K)A−1 b
por lo que
(I − K)(x∗ − x) = c − (I − K)A−1 b (2.2)
y dado que x∗ = x nos queda que 0 = c − (I − K)A−1 b, es decir,
c = (I − K)A−1 b.
(I − K)(x∗ − x) = 0
lim K n = 0
n→∞
Si para alguna norma matricial es kKk < 1, la sucesión (xn ) definida por
xn+1 = Kxn +c, donde x0 ∈ Rn es un vector cualquiera, converge a la solución
de la ecuación x = Kx + c que existe y es única.
96 Sistemas de ecuaciones lineales
Demostración.
• Existencia y unicidad
• Convergencia
Demostración.
• Condición suficiente
por lo que los autovalores de la matriz lı́mite lim K n son todos nulos,
n→∞
es decir, lim K n = 0 por lo que
n→∞
• Condición necesaria
Métodos de descomposición
(M − N )x = b =⇒ M x = N x + b =⇒ x = M −1 N x + M −1 b
Dado que
y la matriz (I − K) = (I − M −1 N ) = M −1 (M − N ) = M −1 A es invertible,
estamos en las condiciones del Teorema 2.17 por lo que xn+1 = Kxn + c es
consistente con el sistema Ax = b.
98 Sistemas de ecuaciones lineales
0 a12 a13 · · · a1n
0 0 a23 · · · a2n
−F = 0 0 0 · · · a3n
.. .. .. .
..
. ..
. . .
0 0 0 ··· 0
A = M − N = D − (E + F )
Ax = b =⇒ Dx = (E + F )x + b =⇒ x = D−1 (E + F )x + D−1 b
(
J = D−1 (E + F )
Método de Jacobi xn+1 = Jxn + c con
c = D−1 E
A = M − N = (D − E) − F
Teorema 2.24 Una condición necesaria para que converja el método de rela-
jación es que ω ∈ (0, 2).
Esto nos indica que al pasar de x a x + t̂v siempre hay una reducción en el
valor de q excepto si v ⊥ (b − Ax), es decir, si h v, b − Ax i = 0. Ası́ pues, si
x no es una solución del sistema Ax = b existen muchos vectores v tales que
h v, b − Ax i =
6 0 y, por tanto, x no minimiza a la forma cuadrática q. Por el
contrario, si Ax = b, no existe ningún rayo que emane de x sobre el que q tome
un valor menor que q(x), es decir, x minimiza el valor de q.
Estos vectores nos permitirán buscar una dirección apropiada v (k) y el siguiente
punto de la sucesión vendrá dado por
donde
h v (k) , b − Ax(k) i
tk =
h v (k) , Av (k) i
Gráficamente, si kv (k) k = 1, tk mide la distancia que nos movemos de x(k) para
obtener x(k+1)
tk v (k) - -
v (k)
3
x(k)
(k+1)
x
for k = 1:n
v = b-A*x;
t = (v0 *v)/(v0 Av);
x = x+t*v;
end
x
r = b-A*x;
v = r;
c = r0 *r;
for k = 1:n
if sqrt(v0 *v)< δ then stop
z = A*v;
t = c/(v0 *z);
x = x+t*v;
r = r-t*z;
d = r0 *r;
if d<ε then stop
v = r+(d/c)*v;
c = d;
end
x
104 Sistemas de ecuaciones lineales
Solución:
!
3 4
a) La matriz del sistema es A = .
3 5
! ! !
∗ 3 3 3 4 18 27
A A= =
4 5 3 5 27 41
λ − 18 −27
P (λ) = = (λ − 18)(λ − 41) − 272 = λ2 − 59λ + 9.
−27 λ − 41
√ √
59 ± 3481 − 36 59 ± 3445
Las raı́ces de P (λ) son: λ = = =⇒
2 2
s √ s √
59 − 3445 59 + 3445
σ1 = y σ2 =
2 2
s √ s √ √
σ2 59 + 3445 (59 + 3445)2 59 + 3445
κ2 (A) = = √ = = =⇒
σ1 59 − 3445 36 6
κ2 (A) = 19.61568707 . . .
29 25
Tomando, por ejemplo, a = y b = − (el otro caso es análogo),
3 3
obtenemos:
! !
3 4 0.6 0.8
B= = 5 U con U = unitaria.
4 −3 0.8 −0.6
(
3x + 4y = 7
El sistema resultante es y su número de condición
4x − 3y = 1
euclı́deo es κ2 (B) = 1.
1 1
! −1 1 ! 1−
xn+1 α x α
n
= +
yn+1 1 yn 1
−1 +1 1−
α α
Se pide
c) Para los valores anteriores que hacen que la sucesión sea convergente,
¿con cuál lo hace más rápidamente?
! !
x0 0.5
d) Comenzando con el vector = , aproximar iteradamente
y0 0.5
el lı́mite de la sucesión utilizando el valor de α que acelere más la con-
vergencia.
Ejercicios resueltos 107
Solución:
! !
x 1
que podemos observar como converge a = que era la
y 1
solución del sistema.
Sol : κF (A) = 7.
b) Calcular “a” para que el número de condición del sistema resultante de
sumarle a la segunda ecuación la primera multiplicada por dicha cons-
tante “a”, sea mı́nimo.
Sol : a = −3/2.
1 + 2i −1 − i 2 x3 1 − 2i
Ejercicios propuestos 109
2p −1 6p − 1
Sol : x1 = −1, x2 = 0, x3 = 1.
0 −90 154
110 Sistemas de ecuaciones lineales
Sol : 1999.
Ejercicios propuestos 111
Ejercicio 2.11
−1 0 2 z 0
¿Podrı́as decir cuál es la solución exacta del sistema?
Sol : (4,-1,2).
!
−2k n + 1
Sol : xk = que diverge si n 6= 0. No existe contradicción
2k n
¿porqué?. Justifı́calo.
Ejercicio 2.13 Se quiere encontrar una función de la forma f (x) = ax3 +bx+c
que pase por los puntos (1, 4), (−2, −23) y (2, 21).
b) Usar una sucesión de Sturm para saber cuántas raı́ces reales tiene la
ecuación f (x) = 0.
c) Separar dichas raı́ces por intervalos adecuados para que se den las hipó-
tesis de las condiciones de Fourier.
d) ¿Cuantas iteraciones son necesarias para obtener las raı́ces reales con 6
cifras decimales exactas usando para su cálculo el método de Newton?
Sol : Tres.
Sol : x = 0.312908409479.
3. Sistemas inconsistentes y sis-
temas indeterminados
115
116 Sistemas inconsistentes y sistemas indeterminados
Entonces,
y1∗
h a1 , y 1 i · · · h an , y 1 i
. .. .. ..
Q∗ A = .. (a1 · · · an ) ⇐⇒ Q∗ A = .
. .
yn∗ h a1 , y n i · · · h an , y n i
• Si aii 6= 0 tendremos que hacer −aii sen α + aji cos α = 0, por lo que
aji
t = tg α = y, por tanto,
aii
t 1
sen α = √ cos α = √
1 + t2 1 + t2
Obsérvese además que los únicos elementos que se alteran en la matriz Qji A
son los correspondientes a la filas y columnas i y j.
Podemos, por tanto, mediante rotaciones, anular todos los elementos subdia-
gonales y llegar a una matriz R triangular superior
Qk · · · Q2 Q1 A = R ⇐⇒ Q∗ A = R con Q∗ = Qk · · · Q2 Q1
118 Sistemas inconsistentes y sistemas indeterminados
a) H es hermı́tica (H ∗ = H).
b) H es unitaria (H ∗ H = HH ∗ = I).
c) H 2 = I o lo que es lo mismo, H −1 = H.
Factorizaciones ortogonales 119
Demostración.
∗
∗ 2 2 2
a) H = I − ∗ vv ∗ ∗
=I − ∗
(vv ∗ )∗ = I − ∗ vv ∗ = H
v v v v v v
Interpretación geométrica en Rn
3
x
α v
-
λ -
6Q y
Q
k x
36
y + λv Q
Q
x − λv
Q
−v Q
Q
v
Q
- -
λv −λv
Figura 3.2: Un vector x y su transformado y = Hx.
a) x ⊥ v =⇒ Hx = x.
b) x k v =⇒ Hx = −x en particular Hv = −v.
Demostración.
Interpretación geométrica en Cn
• Caso real
h x + y, x − y i = kxk2 − h x, y i + h y, x i − kyk2 = 0
6x + y
y x
KA
A
A
A
A x −-y
• Caso complejo
±k(xk+1 , . . . , xn )T k
y = (x1 , x2 , . . . , xk , xk+1 , 0, . . . , 0)T
|xk+1 |
La transformación de Householder asociada al vector v = x − y trans-
forma x en y y deja invariante a cualquier vector que tenga nulas todas
sus coordenadas a partir de la k + 1-ésima.
2 2
H=I− ∗
vv ∗ = I − vv ∗
v v 12
verifica que:
2 ∗ 2 2
Hx = (I − vv )x = x − v(v ∗ x) = x − v10 = x − v = y
20 20 20
y para cualquier vector que tenga su última coordenada nula
w = (a, b, 0)T
2 ∗ 2 2
Hw = (I − vv )w = w − v(v ∗ w) = w − v · 0 = w
20 20 20
Factorización QR de Householder
(1)
en la que ai representa la columna i-ésima de la matriz H1 A.
Busquemos ahora otro vector v2 tal que la transformación de Householder H2
(1) (1)
asociada a él, deje invariante al vector a1 y transforme al vector a2 en otro
de la forma (r12 , r22 , 0, . . . , 0)T .
124 Sistemas inconsistentes y sistemas indeterminados
(1) (1)
a21 a21
(1) (1) (1)
a22 k(a22 , . . . , an2 )T k
(1)
(1)
Tomando x2 = a2 = a32 e y2 = 0 , la trans-
.. ..
. .
(1)
an2 0
(1)
formación H2 asociada al vector v2 = x2 − y2 deja invariante al vector a1 y
(1)
transforma x2 = a2 en y2 .
Reiterando al procedimiento se puede transformar la matriz A en una trian-
gular superior R en, a lo más, n − 1 transformaciones.
Llegados a ese paso se tiene que
Hk Hk−1 · · · H1 A = R ⇐⇒ Q∗ A = R con Q∗ = Hk Hk−1 · · · H1
de donde
A = QR. con Q = H1 H2 · · · Hk
−2 7 1
p
1 12 + 22 + (−2)2 3
Como x1 = 2 e y1 = 0 = 0 , se tiene que
−2 0 0
−2
v1 = x 1 − y1 = 2
−2
−2 1/3 2/3 − 2/3
2 2
H1 = I − ∗ v1 v1∗ = I − 2 −2 2 −2 = 2/3 1/3 2/3
v1 v1 12
−2 − 2/3 2/3 1/3
1/3 2/3 − 2/3 1 −1 −1 3 −5 − 1/3
H1 A = 2/3 1/3 2/3 2 0 1 = 0 4 1/3
−5 −5 −5 0
√
x2 = 4 y2 = 42 + 32 = 5 =⇒ v2 = x2 −y2 = −1
3 0 0 3
0 1 0 0
2 2
H2 = I − ∗ v2 v2∗ = I − −1 0 −1 3 = 0 4/5 3/5
v2 v2 10
3 0 3/5 − 4/5
1 0 0 3 −5 − 1/3 3 −5 − 1/3
H2 H1 A = 0 4/5 3/5 0 4 1/3 = 0 5 19/15 = R
(1) (1)
α11 a12 ··· a1n
0
siendo A(1) una matriz de
Obsérvese que H1 A = ..
. A(1)
0
un orden inferior al de la matriz A.
El vector v2 tiene la primera coordenada nula, por lo que
1 0 ··· 0
2 ∗
0
H2 = I − ∗ v2 v2 = .. (2)
v2 v2 . H
0
(1) (1)
1 0 ··· 0 α11 a12 ··· a1n
0 0
H2 (H1 A) =
..
.. =⇒
. H(2)
. A(1)
0 0
(1) (1)
α11 a12 ··· a1n
0
H2 H1 A =
..
. H(2) A(1)
0
126 Sistemas inconsistentes y sistemas indeterminados
−2 0 0
−2
v1 = x 1 − y1 = 2
−2
−2 1/3 2/3 − 2/3
2 2
H1 = I − ∗ v1 v1∗ = I − 2 −2 2 −2 = 2/3 1/3 2/3
v1 v1 12
−2 − 2/3 2/3 1/3
1/3 2/3 − 2/3 1 −1 −1 3 −5 − 1/3
H1 A = 2/3 1/3 2/3 2 0 1 = 0 4 1/3
Tomando
! √ ! ! !
4 42 + 32 5 −1
x2 = y2 = = =⇒ v2 = x2 − y2 =
3 0 0 3
! !
2 2 −1 4/5 3/5
H(2) = I2 − ∗ v2 v2∗ = I2 − −1 3 =
v2 v2 10 3 3/5 − 4/5
Sistemas superdeterminados. Problema de los mı́nimos cuadrados 127
1 0 0
Por lo que H2 = 0 4/5 3/5
0 3/5 − 4/5
Podrı́amos obtener
3 −5 − 1/3
H2 H1 A = 0 5 19/15
0 0 − 17/15
que es el mismo resultado que el obtenido en el Ejemplo 3.3 pero trabajando
cada vez con una dimensión menos.
x 1 a1 + x 2 a2 + · · · + x n an = b
Sin embargo, existen problemas en los que no ocurre ası́. Supongamos que
se tienen tres puntos en el plano y se desea calcular la recta que pasa por
ellos. Evidentemente, y dado que una recta la determinan sólo dos puntos, el
problema no tiene solución (salvo que los tres puntos estén alineados). Desde
el punto de vista algebraico este problema se expresa de la siguiente forma:
sean P = (a1 , b1 ), Q = (a2 , b2 ) y R = (a3 , b3 ). Si tratamos de hallar la ecuación
de la recta y = mx + n que pasa por ellos se obtiene
ma1 + n = b1 a1 1 ! b1
m
ma2 + n = b2 ⇐⇒ a2 1 = b2
n
ma3 + n = b3 a3 1 b3
128 Sistemas inconsistentes y sistemas indeterminados
Decir
queel sistema no posee solución equivale a decir que el vector
b1 a1 1
b = b2 no pertenece al espacio columna de la matriz A = a2 1 .
b3 a3 1
a11 · · · a1n b1
. .. .. .
.. ..
. . x1
..
an1 · · · ann = bn
.
.
.. .. .
..
.
xn
am1 · · · amn bm
6 b
c
-
C(A) b̃
Entonces:
α1 h a1 , a1 i + · · · + αn h a1 , an i = h b̃, a1 i = h b, a1 i
.................................................
.................................................
α1 h an , a1 i + · · · + αn h an , an i = h b̃, an i = h b, an i
que equivale a
es decir
a∗1 a∗1
α1
.. . ..
. a1 · · · an .. = . b
a∗n αn a∗n
130 Sistemas inconsistentes y sistemas indeterminados
o, lo que es lo mismo:
α1
.
A∗ A .. = A∗ b
αn
Las soluciones del sistema determinado por las ecuaciones normales de un sis-
tema superdeterminado Ax = b reciben el nombre de solución(es) en mı́nimos
cuadrados y de todas las posibles soluciones en mı́nimos cuadrados, la de me-
nor norma recibe el nombre de pseudosolución del sistema.
Obsérvese que si la matriz A no tiene rango máximo, lo único que se dispone del
espacio columna de A es de un sistema generador y no de una base, por lo que
las coordenadas del vector proyección respecto de dicho sistema generador no
son únicas obteniéndose infinitas soluciones en mı́nimos cuadrados del sistema.
Ax = b y BAx = Bb
Sistemas superdeterminados. Problema de los mı́nimos cuadrados 131
posean la misma pseudosolución, han de tener igual solución (han de ser equi-
valentes) los sistemas
A∗ Ax = A∗ b
por lo que sólo podremos garantizar que ambos sistemas son equivalentes si
B ∗ B = I ya que, en dicho caso, ambos sistemas son el mismo.
Es decir, las únicas transformaciones que podemos garantizar que no alterarán
la solución de un sistema superdeterminado son las unitarias.
Dado que las transformaciones de Householder son unitarias, podemos utili-
zarlas para resolver sistemas superdeterminados.
b01
.
.. !
0
T
b0 .
0 ∗ ∗
o llamando Hb = b = bn , T Θ x= T Θ
.
.. Θ
0
bm
132 Sistemas inconsistentes y sistemas indeterminados
b01
.
.
0
. b1
.
∗
Es fácil comprobar que T ∗ Θ b0n = T .. , por lo que el cálculo
.
.. b0n
b0m
de la pseudosolución del sistema superdeterminado Ax = b se hace resolviendo
el sistema 0
b1
∗ ∗ ..
T Tx = T .
b0n
y dado que estamos suponiendo que A tiene rango máximo, la matriz T posee
inversa y por tanto T ∗ , por lo que la solución es la misma que la del sistema
triangular
0
b1
..
Tx = . ⇐⇒ T x = b̃
b0n
Una vez calculada la pseudosolución, la norma del error está representada por
la distancia kb − b̃k que viene dada por
b 0 b 0
1 1
b01
.. ..
.
. .
0
..
!
bn+1
T
b0 b0
.
x − b0n
=
n − 0 n
=
..
Θ .
0 bn+1
..
b 0
.. ..
m
. .
b0m
0 b0m
Por último, si la matriz A no tiene rango máximo, sus columnas no son li-
nealmente independientes, por lo que sólo constituyen un sistema generador
(no una base) del espacio columna C(A). Ello nos lleva a la existencia de
infinitas n-uplas (α1 , α2 , . . . , αn ) soluciones del sistema Ax = b̃ y, por tanto, a
infinitas soluciones en mı́nimos cuadrados del sistema superdeterminado, pero
teniendo en cuenta que al ser única la proyección ortogonal b̃ de b sobre el es-
pacio columna C(A), todas ellas representan diferentes coordenadas del vector
b̃ respecto del sistema generador de C(A) dado por las columnas de A.
Sin embargo, el error cometido kb − b̃k es el mismo para todas las soluciones
en mı́nimos cuadrados del sistema. De entre todas ellas, la de menor norma
euclı́dea es la pseudosolución.
Descomposición en valores singulares y pseudoinversa de Penrose 133
u∗i uj = σi−1 (Avi )∗ σj−1 (Avj ) = (σi σj )−1 (vi∗ A∗ Avj ) = (σi σj )−1 (vi∗ σj2 vj ) = δij
A = U ΣV ∗
Para cada matriz A existe, a lo más, una matriz X que verifica las siguientes
propiedades:
a) AXA = A
b) XAX = X
c) (AX)∗ = AX
d) (XA)∗ = XA
Descomposición en valores singulares y pseudoinversa de Penrose 135
X = XAX (b)
= XAY AX (a)
= XAY AY AY AX (a)
= (XA)∗ (Y A)∗ Y (AY )∗ (AX)∗ (d) y (c)
= A ∗ X ∗ A ∗ Y ∗ Y Y ∗ A∗ X ∗ A∗
= (AXA)∗ Y ∗ Y Y ∗ (AXA)∗
= A ∗ Y ∗ Y Y ∗ A∗ (a)
= (Y A)∗ Y (AY )∗
= Y AY AY (d) y (c)
= Y AY (b)
= Y (b)
Los términos Σik y Σlj hacen que el segundo miembro de la igualdad sea nulo
excepto en los casos en que i, j ≤ r en cuyo caso
r
X r
X r
X
−1
+
(ΣΣ Σ)ij = Σik Σ+
kl Σlj = σi Σ+
il Σlj = σi σi Σij = Σij .
k=1 l=1 l=1
Razonamientos análogos nos permiten probar que Σ+ verifica las otras tres
propiedades de Penrose.
136 Sistemas inconsistentes y sistemas indeterminados
AA+ A = U ΣV ∗ V Σ+ U ∗ U ΣV ∗ = U ΣΣ+ ΣV ∗ = U ΣV ∗ = A
x = A+ b. (3.2)
4x + 5y = 13
3x + 5y = 11
Solución:
! ! !
4 5 x 13
a) El sistema a resolver es Ax = b ⇐⇒ =
3 5 y 11
Ejercicios resueltos 137
v1 ⊥ v2 =⇒ h v1 , v2 i = 0 =⇒ 35 + 25λ = 0 =⇒ λ = − 7/5
por tanto,
" ! !# ! !
1 25 4 − 3/5 4/5 − 3/5
v2 = −7 = ⇒ Q=
5 25 3 4/5 3/5 4/5
! ! !
4/5 3/5 4 5 5 7
∗
R=Q A= =
− 3/5 4/5 3 5 0 1
Se obtiene, por tanto, que A = QR donde Q es unitaria y R trian-
gular superior. El sistema se transforma en otro triangular de la
manera siguiente:
Ax = b ⇐⇒ QRx = b ⇐⇒ Rx = Q∗ b
En nuestro caso:
! ! !
4/5 3/5 13 17
Q∗ b = =
− 3/5 4/5 11 1
cuya solución es
x=2 y = 1.
! ! !
2 1 0 1 1 −3 4/5 3/5
H = I − ∗ vv ∗ = − =
v v 0 1 5 −3 9 3/5 − 4/5
138 Sistemas inconsistentes y sistemas indeterminados
! ! !
4/5 3/5 4 5 5 7
R = Q∗ A = HA = =
3/5 − 4/5 3 5 0 −1
Transformando el sistema obtenemos:
Ax = b ⇐⇒ QRx = b ⇐⇒ Rx = Q∗ b = Hb
Dado que
! ! !
4/5 3/5 13 17
Hb = =
3/5 − 4/5 11 −1
cuya solución
x=2 y = 1.
σ2
b) El número de condición euclı́deo viene dado por κ2 (A) = donde σ2 el
σ1
mayor y σ1 el menor de los valores singulares de la matriz A.
Los valores singulares son las raı́ces cuadradas positivas de los autovalo-
res de la matriz A∗ A.
Cuando calculamos el número de condición de la matriz R del sistema
transformado, realizaremos el mismo proceso con esta nueva matriz, es
decir, debemos calcular los autovalores de la matriz R∗ R.
Dado que ! ! !
4 3 4 5 25 35
A∗ A = =
5 5 3 5 35 50
! ! !
∗ 5 0 5 7 25 35
R R= =
7 1 0 1 35 50
los valores singulares de las matrices A y R son los mismos, por lo que
se obtiene el mismo número de condición euclı́deo.
Ejercicios resueltos 139
−2 7 1 z −7
Solución:
1 3 −2
x= 2 y= 0 v1 = x − y = 2
−2 0 −2
−2
2
H1 = I3 − 2
v1 v1∗ = I3 − 2 −2 2 −2 =
v1∗ v1
12
−2
2 −2 2 1/3 2/3 − 2/3
1
= I3 − −2 2 −2 = /3 1/3 2/3
2
3
2 −2 2 − 2/3 2/3 1/3
0 4 1/3 y = − /3
10
0 3 5/3 z 1/3
! !
2 1 −1 4/5 3/5
H2 = I2 − ∗ v2 v2∗ = I2 − −1 3 =
v2 v2 5 3 3/5 − 4/5
! ! ! !
4 1/3 5 19/15 − 10/3 − 37/15
H2 = H2 =
3 5/3 0 − 17/15 1/3 − 34/15
0 5 19/15 y = − 37/15
0 0 − 17/15 z − 34/15
cuya solución es x = 1, y = −1, z = 2.
0 1 1
Solución:
b)
3 kx1 k 5 −2
x1 = 4 =⇒ y1 = 0 = 0 =⇒ v1 = x1 −y1 = 4
0 0 0 0
−2
2 ∗ 2
H1 = I3 − v∗ v1 2v1 v1 = I3 − 4 −2 4 0 =
1 20
0
3/5 4/5 0
= /5 − 3/5 0
4
0 0 1
Aplicando la transformación al sistema, se obtiene
5 1 ! 8/5
x
0 −2 = − 6/5
y
0 1 1
!
(1)
! √ !
(1) −2 (1) kx2 k 5
Para que x2 = se transforme en y2 = =
1 0 0
(2)
construimos la transformación H2 de Householder asociada al vector
√ !
(1) (1) −2 − 5
v2 = x2 − y2 =
1
√ √ ! 1 0 0
(2) − 2 5/5 5/5 √ √
H2 = √ √ =⇒ H2 = 0 − /5
2 5 5/5
5/5 5/5 √ √
2
0 5/5 2 5/5
23 17
porlo que la pseudosolución del sistema es x = ,y= y el error
125 25
4
viene dado por √ ' 0.3578.
5 5
142 Sistemas inconsistentes y sistemas indeterminados
Se pide:
Sol : x = 1, y = 1/2.
b) Sea v = (−1, 1, 1, 1)T . Demostrar que la transformación de Householder
asociada al vector v transforma la primera columna de la matriz A en el
vector (2, 0, 0, 0)T dejando invariante la segunda columna de A ası́ como
al vector b.
c) Calcular la pseudosolución del sistema utilizando transformaciones de
Householder, ası́ como la norma del error.
√
Sol : x = 1, y = 1/2, E = 3 2/2.
d) Si la matriz A del sistema fuese cuadrada y su número de condición fuese
mayor que 1, ¿qué ventajas e inconvenientes tendrı́a el resolver el sistema
multiplicando por la traspuesta de A y el resolverlo por transformaciones
de Householder?
(1.1, 5), (1, 5.1), (2, 7.3), (1.8, 6.9), (1.5, 6.1), (3, 8.8), (3.1, 9) y (2.9, 9.1)
0 0 − 1/4 − 1/4
−2 2 −1
12 0 13
0 0 1/12
tal que divide por 12 la tercera de las ecuaciones del sistema:
3 2 ! 3
x
T Ax = T b ⇐⇒ 4 5 = 1
y
1 0 13/12
Ejercicios propuestos 147
− 4/5 0 3/5
0 −4 4 z 2
Sol : cond(A) = ∞.
b) Utilizar la descomposición LU de la matriz AT A para resolver el sistema
AT Ax = AT b. ¿Qué propiedad caracteriza a las soluciones en relación al
sistema Ax = b? Interpreta geométricamente el resultado.
0 − 4/5 − 3/5
d) ¿Qué relación hay entre las soluciones obtenidas en los apartados ante-
riores?
Si se obtienen las soluciones en mı́nimos cuadrados del sistema Ax = b,
escalonando previamente la matriz A, ¿se debe obtener mismo resultado
que en alguno de los apartados anteriores?
Ejercicio 3.17
1 0 −1 z −1
Sol : κ1 (A) = 6.
b.2) Resolver el sistema por medio de transformaciones de Householder.
Sol : No.
4 1 4a
c) Demostrar que el vector c = (− , , − − 1)T y la matriz
3 2 3
0 − 23 0
L1 = 0 0 − 12
0 − 2a
3
0
a 0 −1 z 1
150 Sistemas inconsistentes y sistemas indeterminados
−1 −1
exacta pero con aritmética de ordenador es sólo una buena aproximación.
d) Probar que si una matriz real B tiene sus columnas linealmente inde-
pendientes, entonces B T B es definida positiva.
Sol : No.
e.3) Sea (s0 , s1 , s2 , . . .) la sucesión que se obtiene al aplicar el método
de Gauss-Seidel al sistema, con s0 = (0, 0)T . Probar que, operando
en aritmética exacta, la sucesión (sn ) es convergente y obtener su
lı́mite s.
Sol : x = 2, y = 1, kEk = 5.
0 12 0
Sol : x = 2, y = 1, kEk = 3.
d) Teniendo en cuenta el rango de la matriz A, calcular el vector s = A+ b
donde A+ representa la pseudoinversa de la matriz A.
!
2/9 2/9 1/9 0
Sol : A+ = .
1/9 0 − 2/9 2/9
1 2 3
Ejercicios propuestos 155
Sol : Sólo LU .
b) Utilizar dichas factorizaciones
(encasode existir) para resolver el sistema
x 3
Ax = b con x = y y b = 2 .
z 1
Sol : Sı́, α = 0.
p
Sol : x = −2/3, y = −8/9, z = 8/9, kEk = 2/3.
V (1, 2, − 53 ) = −3
V (1, 2, −4) = 2
V (2, −1, 2) = −2
V (1, 0, −2) = −1
V (3, 2, −1) = −2
Ax ∈ V ∀x ∈ V
Las variedades invariantes más simples son aquellas que tienen dimensión 1,
por lo que una base está constituida por un único vector v 6= 0.
Podemos observar que, en ese caso, cualquier vector x ∈ V puede expresarse
de la forma x = αv con α 6= 0 si x 6= 0 y que, por tratarse de una variedad
invariante, ha de ser Ax = βv, pero entonces:
β
Ax = Aαv = αAv = βv =⇒ Av = v = λv
α
157
158 Autovalores y autovectores
Los autovalores de una matriz son, en general, números complejos. Sin em-
bargo, las matrices hermı́ticas (en el caso real, las simétricas) tienen todos sus
autovalores reales como prueba el siguiente teorema.
Teorema 4.3 Los autovalores de una matriz hermı́tica son todos reales y au-
tovectores correspondientes a dos autovalores diferentes son ortogonales.
Demostración. Sea A una matriz hermı́tica, es decir, una matriz tal que
A∗ = A y sea λ un autovalor de A asociado al autovector x. Se verifica
entonces que Ax = λx.
Multiplicando la expresión anterior, por la izquierda por x∗ obtenemos que
x∗ Ax = x∗ λx = λx∗ x (4.1)
λx∗ x = λ̄x∗ x
Conceptos básicos 159
x∗ y = 0 ⇐⇒ x ⊥ y
La solución del sistema resultante nos proporciona los coeficientes del polino-
mio caracterı́stico.
162 Autovalores y autovectores
1 3 2 5
4 2 −1 0
Ejemplo 4.1 Dada la matriz A = , su polinomio ca-
0 1 0 1
2 −2 −1 1
4 3 2
racterı́stico es de grado cuatro P (λ) = λ + a1 λ + a2 λ + a3 λ + a4 , por lo que
vamos a dar a λ cuatro valores:
λ= 0 =⇒ a4 = det (−A) = 41
λ= 1 =⇒ 1 + a1 + a2 + a3 + a4 = det(I − A) = 74
λ = −1 =⇒ 1 − a1 + a2 − a3 + a4 = det(−I − A) = −20
λ= 2 =⇒ 16 + 8a1 + 4a2 + 2a3 + a4 = det(2I − A) = 67
dado que a4 = 41 el sistema se reduce a
a1 + a2 + a3 = 32
−a1 + a2 − a3 = −62 =⇒ a1 = −4, a2 = −15 y a3 = 51
8a1 + 4a2 + 2a3 = 10
por lo que su polinomio caracterı́stico es
P (λ) = λ4 − 4λ3 − 15λ2 + 51λ + 41
siendo ε > 0 muy pequeño (incluso más pequeño que la resolución del orde-
nador) se obtiene como polinomio caracterı́stico PB (λ) = λn + (−1)n ε que
posee n raı́ces distintas (las raı́ces n-ésimas de (−1)n−1 ε), por lo resultan muy
sensibles a cualquier perturbación que se produzca en la matriz, por pequeña
que ésta sea.
Nos preguntamos entonces,
P −1 x = (µI − D)−1 (P −1 EP )P −1 x
es decir
1 ≤
(µI − D)−1
P −1 EP
−1 1 1
Dado que (µI − D) = diag ,..., tenemos que
µ − λ1 µ − λn
1
−1
1 ≤ máx
P
kEk kP k
i µ − λi
164 Autovalores y autovectores
por lo que
mı́n |µ − λi | ≤
P −1
kP k kEk = kEkκ(P )
i
Por tanto, las mejores matrices para el cálculo efectivo de sus autovalores y
autovectores son las diagonalizables unitariamente y éstas reciben el nombre
de matrices normales.
Es necesario, por tanto, encontrar alguna forma de detectar si una matriz es,
o no es, normal sin necesidad de calcular sus autovalores y autovectores para
ver si es posible diagonalizarla mediante una matriz de paso unitaria.
! ! !
a b a 0 |a|2 + |b|2 bc
TT∗ = =
0 c b c bc |c|2
Dado que T ∗ T = T T ∗ , igualando ambas matrices se obtiene que |b|2 = 0 es
decir b = 0 y, por tanto, T es diagonal.
U ∗ AU = T.
!
1 Θ
Sea Q = en donde Un es la matriz unitaria que, por hipótesis de
Θ Un
inducción, verifica que Un∗ An Un = Triangular superior.
Si consideremos la matriz U = P Q es fácil comprobar que U ∗ AU = Q∗ P ∗ AP Q
es una triangular superior.
• Desviación de la normalidad
Por el Teorema 4.10 cualquier matriz cuadrada A es unitariamente se-
mejante a una triangular superior T donde
t11 t12 · · · t1n t11 0 · · · 0 0 t12 · · · t1n
0 t22 · · · t2n 0 t22 · · · 0 0 0 · · · t2n
T =
.. .. . . .. = .. .. . . .. + .. .. . . .
. . . . . . . . . . . ..
0 0 · · · tnn 0 0 · · · tnn 0 0 ··· 0
Matrices normales 167
• Matriz conmutatriz
kC(A)k22 2
• 2 ≤ kM k2 Desigualdad de Eberlein.
6 kAk2
r
n3 − 3
• kM k22 ≤ kC(A)k22 Desigualdad de Heurici.
12
Cociente de Rayleigh
Podemos, por tanto, obtener una aproximación del autovector por un método
iterado para más tarde aproximar el autovalor mediante el cociente de Ray-
leigh.
zn = Azn−1 = A2 zn−2 = · · · = An z0 .
zk = Ak z0 = Ak (α1 x1 + · · · + αn xn ) = α1 Ak x1 + · · · + αn Ak xn =
" n k #
X λ i
= λk1 α1 x1 + · · · + λkn αn xn = λk1 α1 x1 + αi xi
i=2
λ 1
k
λi
Dado que |λ1 | > |λi | se tiene que lim =0 ∀i = 2, 3, . . . , n.
k→∞ λ1
zk
Se verifica entonces que lim = α1 x1 que es un autovector de A asociado al
k→∞ λk
1
autovalor λ1 .
Si k es suficientemente grande, se tiene
zk+1 ≈ λ1 zk 6= zk .
Ahora bien, dado que zk+1 y zk tienen la misma dirección, ambos representan
al autovector buscado.
170 Autovalores y autovectores
Escalado
Si |λ1 | > 1 la sucesión (zn ) converge a una dirección determinada (la del
autovector), pero las normas de los vectores van creciendo llegando a diverger
a un vector de coordenadas infinitas. Si, por el contrario, |λ1 | < 1, la sucesión
(zn ) converge al vector nulo. Es decir: en ninguno de los dos casos podremos
calcular ni el autovalor ni el autovector.
Como sólo nos interesa la dirección y los vectores de la sucesión (zn ) convergen
a una determinada dirección, podemos dividir o multiplicar en cada paso el
vector zk por una constante sin que ello modifique su dirección. Con ello
conseguiremos que la sucesión (zn ) converja a un autovector asociado a λ1 .
Este proceso de modificar las normas de los vectores recibe el nombre de
escalado.
La cantidad por la que se escala puede ser arbitraria, pero lo más útil es escalar
por la coordenada de mayor módulo.
zk
De esa forma los vectores escalados wk y wk+1 = al ser muy próximos
kzk k∞
tendrán la coordenada de mayor módulo en en la misma posición y además
valdrán 1 por lo que se evita el problema de la divergencia a infinito o la
convergencia al vector nulo. Además, dado que llamando α al factor de pro-
porcionalidad se verifica que
αwk = zk = Awk−1
el factor de proporcionalidad α existente entre los vectores zk y wk es precisa-
mente el autovalor λ1 buscado. En otras palabras, escalando los vectores por
su coordenada de mayor módulo, el proceso converge a un autovector cuya
coordenada de mayor módulo (antes de escalar) es el autovalor buscado.
5 3 6
13.0000 11.5714 11.6824 11.7013
z1 = 7.0000 z2 = 5.8571 z3 = 5.8706 z4 = 5.8748
z7T Az7
λ1 = T = 12.22753579693696.
z7 z7
z = ones(length(A),1);
w = zeros(length(A),1);
n = 0;
while norm(z-w)>10^ (-14)
n = n + 1;
w = z;
z = A*w;
for i = 1:length(A)
if abs(z(i)) == max(abs(z))
break
end
end
z= z/z(i);
end
n
autovalor = (z’*A*z)/(z’*z)
Error = norm(A*z-autovalor*z)
172 Autovalores y autovectores
Ejecutando este algoritmo con MatLab para la matriz del Ejemplo 4.2 obtene-
mos la aproximación 12.22753579693706 del autovalor con un error del orden
de 1.986027322597819 · 10−15 en 17 iteraciones.
z = ones(length(A),1);
w = zeros(length(A),1);
n = 0;
while norm(z-w)>10^ (-14)
n = n + 1;
w = z;
z = A*w;
l=(z’*A*z)/(z’*z);
if rcond(A-l*eye(length(A)))>10^ (-15)
z = (A-l*eye(length(A)))z;
end
for i = 1:length(A)
if abs(z(i)) == max(abs(z))
break
end
end
z= z/z(i);
end
n
autovalor = (z’*A*z)/(z’*z)
Error = norm(A*z-autovalor*z)
Métodos iterados para la obtención de autovalores y autovectores 173
Ejecutando este algoritmo con MatLab para la matriz del Ejemplo 4.2 obtene-
mos la aproximación 12.22753579693706 del autovalor con un error del orden
de 2.664535259100376 · 10−15 en tan sólo 4 iteraciones, frente a las 17 que eran
necesarias con algoritmo anterior.
Este método sólo nos permite calcular, en caso de existir, el autovalor do-
minante de una matriz. Existen sin embargo otras variantes del método de
la potencia simple que nos permiten calcular cualquiera de sus autovalores a
partir de una aproximación de ellos. Debido a la existencia de dichas variantes
es por lo que el método estudiado anteriormente es conocido como método de
la potencia simple para distinguirlo de los que estudiaremos a continuación.
Sea A ∈ Rn×n una matriz diagonalizable regular para la que sus autovalores
verifican que:
0 < |λ1 | < |λ2 | ≤ · · · ≤ |λn | (4.4)
1 1 1
> ≥ ··· ≥ ⇐⇒ |µ1 | > |µ2 | ≥ · · · ≥ |µn |
|λ1 | |λ2 | |λn |
0.5000 1.6667 1.8846 1.9106
z1 = 1.5000 z2 = 4.3333 z3 = 4.7308 z4 = 4.7724
−1.0000 −3.6667 −4.0769 −4.1220
1.9140 1.9144 1.9145 1.9145
z5 = 4.7777 z6 = 4.7784 z7 = 4.7785 z8 = 4.7785
−4.1278 −4.1285 −4.1286 −4.1287
1.9145
z9 = 4.7785
−4.1287
z = ones(length(A),1);
w = zeros(length(A),1);
n = 0;
while norm(z-w)>10^ (-14)
n = n + 1;
w = z;
z = A\w;
for i = 1:length(A)
if abs(z(i)) == max(abs(z))
break
end
end
z= z/z(i);
end
n
autovalor = (z’*A*z)/(z’*z)
Error = norm(A*z-autovalor*z)
Métodos iterados para la obtención de autovalores y autovectores 175
z = ones(length(A),1);
w = zeros(length(A),1);
n = 0;
while norm(z-w)>10^ (-14)
n = n + 1;
w = z;
z = A\w;
l=(z’*A*z)/(z’*z);
if rcond(A-l*eye(length(A)))>10^ (-15)
z = (A-l*eye(length(A)))z;
end
for i = 1:length(A)
if abs(z(i)) == max(abs(z))
break
end
end
z = z/z(i);
end
n
autovalor = (z’*A*z)/(z’*z)
Error = norm(A*z-autovalor*z)
Para la matriz de nuestro Ejemplo 4.2 obtenemos, con MatLab, mediante el al-
goritmo del método de la potencia inversa, la aproximación 0.20927063325837
del autovalor de menor módulo con un error 5.119756492560000 · 10−16 en 18
iteraciones, mientras que con el mejorado, obtenemos, en tan solo 8 iteraciones,
la misma aproximación con un error del orden de 9.723368807669973 · 10−16 .
Veamos, por último, una nueva variante de este método nos permite calcular
un autovalor cualquiera de una matriz regular A a partir de una aproximación
suya. Sin embargo, hay que tener en cuenta que si el autovalor que vamos a
aproximar es múltiple o existen otros con el mismo módulo aparecen dificul-
tades que sólo podremos solventar utilizando otros métodos.
176 Autovalores y autovectores
Consideremos una matriz A regular tal que todos sus autovalores tengan dife-
rente módulo y supongamos conocida una aproximación α de un determinado
autovalor λk . Si la aproximación es buena se verificará que |λk − α| < |λi − α|
para cualquier i = 1, 2, . . . n con i 6= k.
Dado que 1/(λi − α) son los autovalores de A − αI y ésta posee un autovalor
(λk − α) de menor valor absoluto que los demás, el método de la potencia
1
inversa nos proporcionará el valor µk = pudiéndose, a partir de éste
λk − α
último, hallar el valor de λk .
Está variante es conocida como método de la potencia inversa con desplaza-
miento.
5 3 4.5
−3.1429 −15.8701 −15.8499 −15.8233
z1 = 2.5714 z2 = 13.8442 z3 = 13.7466 z4 = 13.7272
z7T Az7
λ2 = T = 1.56319356980456.
z7 z7
Métodos iterados para la obtención de autovalores y autovectores 177
z = ones(length(A),1);
w = zeros(length(A),1);
n = 0;
while norm(z-w)>10^ (-14)
n = n + 1;
w = z
z = (A-αI)\w;
for i = 1:length(A)
if abs(z(i)) == max(abs(z))
break
end
end
z = z/z(i);
end
n
autovalor = (z’*A*z)/(z’*z)
Error = norm(A*z-autovalor*z)
Para la matriz del Ejemplo 4.2 y conociendo que tiene un autovalor próximo
a 1.5, el algoritmo de la potencia inversa con desplazamiento, ejecutado con
MatLab, nos proporciona la aproximación 1.56319356980457 del autovalor con
un error de 3.845925372767128 · 10−16 en 12 iteraciones.
También, en este caso, podemos hacer la misma mejora que en los anteriores
algoritmos.
178 Autovalores y autovectores
z = ones(length(A),1);
w = zeros(length(A),1);
n = 0;
while norm(z-w)>10^ (-14)
n = n + 1;
w = z;
z = (A-αI)\w;
l=(z’*A*z)/(z’*z);
if rcond(A-l*eye(length(A)))>10^ (-15)
z = (A-l*eye(length(A)))z;
end
for i = 1:length(A)
if abs(z(i)) == max(abs(z))
break
end
end
z = z/z(i);
end
n
autovalor = (z’*A*z)/(z’*z)
Error = norm(A*z-autovalor*z)
A0 = A = Q0 R0
A1 = R0 Q0 = Q∗0 AQ0 = Q1 R1
A2 = R1 Q1 = Q∗1 Q∗0 AQ0 Q1 = Q2 R2
.. =⇒
.
An+1 = Rn Qn = Q∗n · · · Q∗1 Q∗0 AQ0 Q1 · · · Qn = Qn+1 Rn+1
..
.
0 a32 a33
!
a22 a23
donde a11 es el autovalor real y los autovalores de la matriz
a32 a33
son los dos autovalores complejos de la matriz A.
180 Autovalores y autovectores
1 2 3
Ejemplo 4.5 Para el cálculo de los autovalores de la matriz A = 2 2 3
3 3 3
se tiene:
1 2 3 7 −1.9415 0.6671
A0 = A = 2 2 3 A1 = −1.9415 −0.5385 0.1850
2 3 5
√
Ejemplo 4.6 La matriz A = 1 4 6 tiene por autovalores 7 y ± 2.
−1 3 1
Al tener dos autovalores de igual módulo no converge a una matriz triangular,
sino a la matriz triangular por cajas.
Realizando el proceso con MatLab hemos obtenido en la iteración 31 que
7.0000 6.7412 −0.6901
A31 = −0.0000 0.5797 2.4374
por lo que sabemos que un autovalor es 7 y los otros dos son los autovalores
de la matriz !
0.5797 2.4374
B=
0.6826 −0.5798
√
cuyos autovalores son ± 2.
Algoritmo de cálculo
!
a b
a) Dada A =
b c
a.1) Si b = 0 FIN.
a.2) Si b 6= 0 y a = c
√ √
2/2 2/2 ∗ 0
P = √ √
y P −1 AP = . FIN.
− 2/2 2/2 0 ∗
√
2b −1 ± 1 + m2
b) m = t= .
c−a m
1 t
c) cos α = √ sen α = √ .
1+t 2 1 + t2
cos α sen α ∗ 0
P = y P −1 AP = . FIN.
− sen α cos α 0 ∗
y a partir de ella
0.6986 −1.6791 0 −1.6230
T
−1.6791 −5.0065 −1.5358 0
P AP =
0 −1.5358 5.4506 0.4353
−1.6230 0 0.4353 0.8573
Demostración. Por ser A normal, existe una matriz unitaria U tal que
U ∗ AU = D
α + iβ 0 ··· 0
0 α2 + iβ2 ··· 0
∗
D = U AU = .. .. ... .. =⇒
. . .
0 0 · · · αn + iβn
α 0 ··· 0 β 0 ··· 0
0 α2 ··· 0 0 β2 ··· 0
∗ ∗
A=U .. .. .. .. U + iU .. .. .. .. U =⇒
. . . .
. . . .
0 0 · · · αn 0 0 · · · βn
α 0 ··· 0 β 0 ··· 0
0 α2 ··· 0 0 β2 ··· 0
∗ ∗
H1 = U .. .. ... .. U H2 = U .. .. .. .. U
. . .
. . . .
0 0 · · · αn 0 0 · · · βn
donde H1 y H2 son hermı́ticas. Se tiene entonces que α es un autovalor de
H1 asociado a x (primera columna de U ) y β un autovalor de H2 asociado
también a x.
Reducción del problema a matrices simétricas reales 187
Teorema 4.16 Una matriz cuadrada A es normal si, y sólo si, sus compo-
nentes hermı́ticas conmutan.
A es normal ⇐⇒ H1 H2 = H2 H1
Demostración.
A + A∗ A − A∗ A2 − AA∗ + A∗ A + (A∗ )2
H1 H2 = · =
2 2i 4i
A − A∗ A + A∗ A2 + AA∗ − A∗ A + (A∗ )2
H2 H1 = · =
2i 2 4i
A + A∗ A − A∗ A2 + (A∗ )2
H1 H2 = · =
2 2i 4i
=⇒ H1 H2 = H2 H1
A − A∗ A + A∗ A2 + (A∗ )2
H2 H1 = · =
2i 2 4i
• Si H1 H2 = H2 H1 se verifica que
por lo que
por lo que ! ! !
A −B a a
=α
B A b b
!
A −B
Obsérvese además que la matriz real es simétrica, ya que
B A
!T ! !
A −B AT B T A −B
= =
B A −B T AT B A
!
A −B
Los autovalores de la matriz son, por tanto, los mismos que los
B A
!
A −B
de H y si un autovector de es (x1 , . . . , xn , xn+1 , . . . , x2n ), el co-
B A
rrespondiente autovector de la matriz H es (x1 + ixn+1 ), . . . , (xn + ix2n ) .
vi∗ H2 vi
Paso 3 Calcular los cocientes de Rayleigh µi = .
vi∗ vi
Como los vectores vi (1 ≤ i ≤ n) son también autovectores de H2 , los µi
obtenidos son sus autovalores asociados.
−1 0 −1
−1 0 −2 0 0
0 0 1
que
1 0 1
P −1 AP = P T AP = 0 1 1
0 −1 −1
!
1 1
La submatriz tiene como autovalores el 0 doble y un autovec-
−1 −1
tor asociado a él es el vector (1 − 1)T que puede ser ampliado hasta una
base ortogonal de R2 con el vector (1 1)T por lo que una base ortonor-
2
mal de
R es le constituida
por ambos vectores normalizados y, por tanto
1 0 0
1 1
Q= 0 √ √ obteniéndose que
2 2
0 − √12 √1
2
√ √
1 − 22 22
QT P T AP Q = U T AU = 0 0 2
0 0 0
Ejercicios resueltos 191
0 − √12 √1
2
!
0.6 0.8
Ejercicio 4.2 Comprobar que la matriz U = es unitaria (or-
−0.8 0.6
togonal) y obtener, basándose en ella, una matriz normal A que tenga por
autovalores 2 y 3i. Calcular la conmutatriz de A y comprobar que sus compo-
nentes hermı́ticas conmutan.
Solución:
! ! !
0.6 −0.8 0.6 0.8 1 0
U ∗U = U T U = = =I
0.8 0.6 −0.8 0.6 0 1
Solución:
Los cı́rculos de Gerschgorin por filas son:
a11 = 9 r1 = 1 + 2 + 1 = 4 '$
a22 = 8 r2 = 1 + 1 = 2
1
7 9
&%
a33 = 7 r3 = 1
a44 = 1 r4 = 1
El cı́rculo C4 (1, 1) es disjunto con los demás:
Solución:
! !
1 2 1 1 3 2
a) H1 = (A + A∗ ) = H2 = (A − A∗ ) =
2 1 2 2i 2 3
! !
8 7 8 7
H1 H2 = H2 H1 = =⇒ H1 H2 = H2 H1 =⇒
7 8 7 8
A es normal.
• Componente
H1
λ − 2 −1
P (λ) = = λ2 − 4λ + 3 = (λ − 1)(λ − 3) =⇒
−1 λ − 2
λ11 = 1 y λ12 = 3
• Componente H2
Los autovectores son los mismos que los de H1 .
Sus autovalores vienen dados por
5 3 6
Solución:
13.0000 11.5714 11.6824 11.7013
z1 = 7.0000 z2 = 5.8571 z3 = 5.8706 z4 = 5.8748
por lo que
z9T Az9
λ3 ' ' 0.20927063325837
z9T z9
−3.1429 −15.8701 −15.8499 −15.8233
z1 = 2.5714 z2 = 13.8442 z3 = 13.7466 z4 = 13.7272
2.0000 8.5455 8.5663 8.5501
−15.8244 −15.8244 −15.8244
z5 = 13.7280 z6 = 13.7279 z7 = 13.7279
8.5508 8.5508 8.5508
por lo que
z7T Az7
λ2 ' T ' 1.56319356980456
z7 z7
!
1 + i −2 + i
Ejercicio 4.6 Dada la matriz A = se pide:
2−i 1+i
!
−i
a) Comprobar que es normal y que v1 = es un autovector de su
1
primera componente hermı́tica H1 asociado al autovalor λ1 = 0.
b) Calcular el otro autovalor (y un autovector asociado) de la matriz H1
aplicando el método de la potencia simple.
196 Autovalores y autovectores
!
x y
c) Considérese la matriz real y simétrica S = . Probar que la
y x
!
cos α sen α
transformación de Jacobi Qt SQ con Q = y α = π/4
− sen α cos α
nos anula los elementos extradiagonales.
d) Transformar el problema del cálculo de los autovalores de la matriz H2
(segunda componente hermı́tica de la matriz A) al del cálculo de los au-
tovalores de una matriz C simétrica real y comprobar que son suficientes
dos transformaciones de Jacobi Q1 y Q2 , del tipo de las del apartado
anterior, para diagonalizar dicha matriz C y obtener los autovalores de
H2 .
e) Obtener, a partir de las columnas de la matriz Q = Q1 Q2 , los autovec-
tores de la matriz H2 . ¿Cuáles son los autovalores de la matriz A?
Solución:
a)
! ! !
1−i 2+i 1 + i −2 + i 7 6i
A∗ A =
=
−2 − i 1 − i 2−i 1+i −6i 7
! ! ! =⇒
1 + i −2 + i 1−i 2+i 7 6i
AA∗ =
=
2−i 1+i −2 − i 1 − i −6i 7
!
1
b) Partiendo, por ejemplo, de z0 = obtenemos w0 = z0
1
! !
1+i z1 i
z1 = H1 w0 = =⇒ w1 = =
1−i 1−i 1
Ejercicios resueltos 197
! !
2i z2 i
z2 = H1 w1 = =⇒ w2 = = .
2 2 1
!
i
Hemos obtenido que w2 = w1 , por lo que v2 = es un autovector
1
de H1 asociado al autovalor
v2∗ H1 v2
λ2 = =2
v2 ∗ v2
∗ y(cos2 α − sen2 α)
c) QT SQ = por lo que, para
y(cos2 α − sen2 α) ∗
α = π/4, se anulan los elementos extradiagonales.
! !
1 0 0 2
d) Hacemos M = real(H2 ) = yN = imag(H2 ) =
0 1 −2 0
para construir la matriz simétrica y real
! 1 0 0 −2
M −N 0
1 2 0
C= =
N M 0 2 1 0
−2 0 0 1
2
a) Se considera el proceso iterado xn+1 = ϕ(xn ) = xn − 1 + .
exn
a.1) ¿Se puede garantizar que, partiendo de cualquier número real
x0 ∈ [0.5, 1], el proceso convergerá a un punto fijo?
a.2) En caso de converger, ¿cuál es el punto fijo de la sucesión?
a.3) Utiliza la figura adjunta para justificar, geométricamente, la con-
vergencia del proceso para cualquier valor inicial x0 ∈ [0.5, 1].
Ejercicios resueltos 199
a.4) Si el proceso xn+1 = φ(xn ) verifica que |φ0 (x)| < 0.1 en el intervalo
[0.5, 1] ¿cuál de los dos procesos anteriores tendrá una convergencia
más rápida?
0 1/2 1/3
b) Se considera la matriz A = 1/4 0 1/5
1/6 α 0
Solución:
2
a) a.1) Tenemos un método de la forma xn+1 = ϕ(xn ) con ϕ(x) = x−1+ x .
e
0 2
ϕ (x) = 1 − x .
e
2
Dado que ϕ00 (x) = x es siempre positiva, sabemos que ϕ0 (x) es
e
creciente pasando de ϕ0 (0.5) = −0.2131 a ϕ0 (1) = 0.2642 es decir
2
a.2) Aplicando lı́mites, y llamando lim xn = x, se obtiene x = x − 1 + x
e
de donde
2
x
= 1 =⇒ ex = 2 =⇒ x = ln 2
e
a.3) Basta ver el comportamiento de la red que se forma al ir de la
gráfica a la recta, de la recta a la gráfica y ası́ sucesivamente.
los dos últimos están incluidos dentro del primero, por lo que el
módulo de cualquiera de sus autovalores es menor que 5/6 < 1, es
decir, el radio espectral de la matriz A es ρ(A) < 1 y, por tanto, el
método es convergente.
Ejercicios propuestos 201
−4 6 2
√ √ √
0 0 − 7√14 14 6 2 5
5
1 √
Sol : 0 0 − √175 con U = √ 0 5 −3 5 .
70 √ √
0 0 −1 2 14 −3 − 5
202 Autovalores y autovectores
a 1 1
Ejercicio 4.9 Dada la matriz A = 1 a 1 donde a es un número com-
1 1 a
plejo cualquiera, se pide:
−2 + 4i 2 − 4i 3 − 3i
−2 2 3
c) Calcular los autovalores y los autovectores de H1 .
T
λ1 = 0 v1 = (2, −1, 2)
Sol : λ2 = 3 v2 = (2, 2, −1)T .
λ3 = 6 v3 = (−1, 2, 2)T
!
2 1
Ejercicio 4.11 Dada la matriz A = se pide:
1 0
Sol : λ2 − 2λ − 1.
b) Tomar una aproximación, con dos cifras decimales exactas, del mayor de
los autovalores y afinarla con el cociente de Rayleigh.
√
Sol : λ = 1 + 2 ' 2.41 =⇒ λ ' 2.41421.
1 2 3
Ejercicio 4.12 Dada la matriz A = 2 2 3
3 3 3
Ejercicio 4.14
−a −b −c
v T A(p)v
Sol : La raı́z de mayor módulo de P (λ) viene dada por .
vT v
c) Si el algoritmo QR aplicado a la matriz A(p) converge a una matriz
triangular T , ¿qué relación tiene T con las raı́ces del polinomio P (λ)?
0 0 1 0 0 1
Ejercicios propuestos 205
a) Utilizar una sucesión de Sturm para probar que el polinomio p(x) tiene
sus raı́ces reales y que sólo una de ellas, que denotaremos α, es positiva.
1 0 0
0 0 1
1 0 0
206 Autovalores y autovectores
Ejercicio 4.16
a) ¿Qué pasos se dan para calcular los autovalores de una matriz cuadrada
A mediante el algoritmo QR? y ¿que forma tiene la matriz a la que
converge el algoritmo en los siguientes casos?
Sol : −4.64565808596372.
1 −1 ε 2
0 −1 −2
J = 0 0 −1 .
−1 1 0
1 −2 1 0 0 ε
Sabiendo que λ3 tiene una cota de error estimada en e < 0.5. ¿Es
suficiente dicha aproximación para analizar la convergencia de la sucesión
(xn ) del método de Jacobi?
−1 −1 8
Sol : Los tres son reales. P (λ) = λ3 − 9λ2 + 3λ + 39. [8, 9].
Ejercicios propuestos 209
0 x y
¿Puede ser nulo el elemento x?, ¿se pueden determinar los elementos
que faltan sin necesidad de volver a aplicar el algoritmo QR? ¿Sabrı́as
decir cuál es la aproximación obtenida para los otros dos autovalores de
210 Autovalores y autovectores
la matriz A?
−0.25 −0.125 1
a) Demostrar que las raı́ces del polinomio P (x) = 2+x−8x2 +8x3 coinciden
con los autovalores de A. Acotar y separar las raı́ces de P (x), indicando
cuántas raı́ces reales y complejas tiene. Comparar los resultados con la
información que se desprende del estudio de los cı́rculos de Gerschgorin.
Ejercicio 4.21
1 0 5
Ejercicios propuestos 211
Sol : x0 = 5
a) Probar, mediante una sucesión de Sturm, que sólo tiene una raı́z real
y determinar α ∈ Z para que dicha raı́z esté contenida en el intervalo
[α, α + 1].
Sol : α = −1.
Sol : No.
212 Autovalores y autovectores
0 1 0
1 0 0
esta forma el condicionamiento del sistema? Comprueba que la solución
1
es el vector x = 21 (−50, 58, −74)T .
Sol : β = 1/2.
Ejercicio 4.25
0 3 0
a) Calcular el polinomio caracterı́stico de la matriz A = 3 28 4
0 4 5
mediante el método interpolatorio. ¿Puede no ser real alguno de sus
autovalores?
0 0.6 0.8 3 28 4
Sol : Q = 1 0 0 R= 0 5 4 .
0 0.8 −0.6 0 0 −3
0 1 0
polinomio caracterı́stico, el polinomio P (x) cuando a = 3, ¿podemos
garantizar la convergencia del método de la potencia simple? ¿y del de
la potencia inversa?
Sol : No, lo hará a una triangular por bloque con un bloque de orden 2
(las dos raı́ces complejas conjugadas).
4 5 3
Ejercicio 4.27 Se considera la matriz A = 3 5 1 .
0 2 3
e) Partiendo del vector z0 = (1, 1, 1)T realizar dos iteraciones del método
de la potencia simple (trabajar con 2 cifras decimales) y utilizar z2 para
aproximar el autovalor real de la matriz A.
Sol : ε ≤ 0.04 < 10−1 por lo que sólo se dispone de un decimal exacto.
2 −2 0
Ejercicio 4.28 Sea la matriz A = 2 3 ω
1 0 2
Sol : λ = 2.5.
1 0
b.2) Siendo F = 0 −1 y B = AF , hallar la pseudosolución del sis-
0 −1
2
tema Bx = 7 resolviendo el sistema formado por las ecuaciones
4
218 Autovalores y autovectores
4 4 2
9+9i 9
i
Ejercicio 4.29 Consideremos la matriz A =
. Se pide:
2 5 5
+ i
9 9 9
Sol : Sı́. Las raı́ces de P (λ) son los autovalores de H1 pero todos dupli-
cados.
1 2 2
Sol : x1 = (−10, −7, 9)T , x2 = (15, 11, −14)T . Es una aproximación del
autovector asociado al autovalor de menor valor absoluto.
Bibliografı́a
[1] Burden, R.L. y Faires, J.D. Análisis Numérico (Sexta edición). Interna-
cional Thomson Ed. 1998.
[2] Golub, G.H. y Van Loan, C.F. Matrix Computations (Third edition). Johns
Hopkins University Press
[5] Noble, D. y Daniel, J.W. Álgebra Lineal Aplicada. Ed. Prentice-Hall. 1989.
221