Você está na página 1de 13

Tema 2

Resoluci
on de sistemas de
ecuaciones lineales
2.1

2.1.1

M
etodos directos de resoluci
on de sistemas de ecuaciones
lineales
Resoluci
on de sistemas triangulares

Definici
on 2.1.1 Una matriz A se dice triangular superior si
aij = 0, i > j,
es decir, si todos los elementos por debajo de la diagonal principal son nulos. An
alogamente, A es triangular inferior si
aij = 0, i < j,
es decir, si todos los elementos por encima de la diagonal principal son nulos.
Sea
Ax = b, A Rn,n , b Rn ,
un sistema de ecuaciones lineales compatible determinado (|A| 6 =0) expresado en
forma matricial, siendo A una matriz triangular superior. Entonces la solucion del
sistema es inmediata:

bn

,
xn =

ann
n

X
1

x
=
b

a
x

k
ki i , k = n 1, . . . , 1.
k a
kk

i=k+1

Tema 2. Resolucion de sistemas de ecuaciones lineales


Analogamente se resuelve el caso en el que la matriz de coeficientes es triangular

inferior.
2.1.2

M
etodo de Gauss (o de eliminaci
on)

Sea
Ax = b, A Rn,n , |A| 6 =0, b Rn ,
un sistema de ecuaciones lineales con solucion u
nica. Se trata de transformarlo en
un sistema triangular superior equivalente, es decir, con la misma solucion.
Por ejemplo, resolvamos por el metodo de Gauss descrito el sistema de ecuaciones
lineales:

+z = 6,

+
3z = 5,

y 2z =
2.

x 3y
2x
2x

En este caso la matriz ampliada es

1 3

(A|b) =
2

1 6

3 5

2 1 2
2
0

y, aplicando el metodo de Gauss, se consigue de esta forma el sistema triangular,


equivalente al inicial, dado por:

x 3y +z = 6,

6y +5z = 17,

1
1

z = ,
6
6
cuyas soluciones son
x = 1, y = 2, z = 1.
El n
umero de operaciones elementales que se realizan durante el proceso de eliminacion sucesiva de incognitas es del orden de O(n3 /3) multiplicaciones y sumas. Las
necesidades de memoria se cifran en una matriz de n n elementos y un vector de
n componentes, es decir, O(n2 ) posiciones de memoria.

2.1. Metodos directos de resolucion de sistemas de ecuaciones lineales

(i)

Si en alg
un momento aii = 0, bastara con cambiar dos ecuaciones entre s para
conseguir un elemento no nulo en la misma posicion. A este elemento se le llama
pivote iesimo.
Debido a que los errores de redondeo en un denominador producen grandes
errores en el cociente, una buena tecnica para evitar un gran error en la solucion
es modificar el orden de las ecuaciones y las incognitas en cada paso, para que el
pivote sea el mayor posible, en valor absoluto, dejando invariantes las i1 ecuaciones
anteriores. Si el pivote se elije entre los elementos aji , con j > i, se dice que se ha
elegido el mejor pivote parcial. Si se elije entre los elementos ajk , con j, k > i, se
dice que se ha elegido el mejor pivote total.
Esta u
ltima tecnica garantiza casi siempre la estabilidad numerica de la eliminacion gaussiana. Sin embargo, presenta dos inconvenientes: exige realizar O(n3 )
comparaciones suplementarias, y destruye la estructura particular (por ejemplo, de
tipo banda) de ciertas matrices. Por ello, en la practica suele preferirse la estrategia de pivote parcial, combinada, en todo caso, con un equilibrado de filas. Cabe
destacar que, en numerosas ocasiones, el metodo de Gauss es estable sin necesidad
de aplicar ninguna estrategia de pivoteo: es el caso de sistemas con matrices de
coeficientes diagonal dominantes o simetricas definidas positivas.
2.1.3

M
etodo de descomposici
on LU

Si se conoce una descomposicion de la matriz A del sistema


Ax = b, A Rn,n , b Rn , |A| 6 =0,
en la forma
A = LU,
con L una matriz triangular inferior y U una matriz triangular superior, la resolucion
del sistema queda reducida a la resolucion de dos sistemas triangulares ya que, si se
llama
y = U x,
y se resuelven los sistemas
Ly = b,
U x = y,

Tema 2. Resolucion de sistemas de ecuaciones lineales

la solucion x obtenida verifica


Ax = (LU )x = L(U x) = Ly = b,
y, por tanto, es la solucion del sistema inicial. Luego es evidente el interes por
conseguir factorizaciones en la forma LU .
Si A = (aij ), U = (uij ) y L = (lij ), se obtienen las siguientes relaciones:

l11 u11 = a11 ,

a1j

u1j =
, j 2,

l11

ai1

li1 =
, i 2,

u
11

k1
X
lkk ukk = akk
lkr urk , k 2,

r=1

k1

u
=
a

l
u
kj
kj
kr rj , j > k, k 2,

l
kk

r=1

k1

lir urk , i > k, k 2.

lik = ukk uik


r=1

Por ejemplo, compruebese que la matriz

3 1

A=
1
0

2 1

se puede descomponer en la forma

0 0

2 3 1

A=
1 0
0 1
0

0 0
1 4 1

1 .

Teorema 2.1.1 Si |A| 6= 0, existe una permutaci


on de las filas y columnas de A tal
que la matriz resultante es descomponible en la forma LU .

2.1. Metodos directos de resolucion de sistemas de ecuaciones lineales


En particular, si A es tridiagonal,

a1 c1 0

b2 a2 c2

. . .
A = .. .. ..

0 0 0

0 0 0

es decir,
... 0

... 0

..
.

..
.

..
.

..
.

. . . bn1 an1 cn1


... 0

se puede descomponer en la forma LU siguiente

1 0 . . . 0
0
0
1

b2 2 . . . 0

0
0

.
..
..
..
..
.. ..
A = ..
.
.
.
.
. .

0
0
.
.
.
b

0
n1
n1

0 0 ... 0
bn
n
0
siempre que
1 = a1 , 1 =

bn

an

1 0

... 0 0

2 . . . 0 0

..
.

..
.

..
.

. . . 1 n1

... 0 1

..
.

..
.

(2.1.1)

c1
,
1

i = ai bi i1 , i = 2, . . . , n,
ci
, i = 2, . . . , n,
i
y esto es posible si y solo si i 6 =0, para todo i = 1, . . . , n.
i =

Puede demostrarse que si A es diagonalmente dominante, es decir,


|a1 | > |c1 |, |an | > |bn |, |ai | > |bi | + |ci |, i = 2, . . . , n 1,
entonces i 6 =0, para todo i = 1, . . . , n, y, por tanto, A se puede descomponer en la
forma (2.1.1).
2.1.4

M
etodo de Cholesky para matrices sim
etricas definidas positivas

Se puede comprobar que, si A es una matriz simetrica y definida positiva, admite


una descomposicion en la forma LU con U = LT , es decir,
A = LLT .

Tema 2. Resolucion de sistemas de ecuaciones lineales

En este caso, el algoritmo de calculo de los elementos de L es

l11 = a11 ,

ai1

l
=
, i 2,
i1

11

u
k1
u
X
t
2
, k 2,
lkk = akk
lkr

r=1

k1

aik
lir lkr

r=1

lik =
, i > k.
lkk
Por ejemplo, la matriz

1 1

A=
5 5
1

1 5
6
es simetrica, obviamente, y sus menores principales son:
|1| = 1 > 0,

1 1

= 4 > 0,

1
5
|A| = 4 > 0,
por lo que A es definida positiva. Por tanto, admite una descomposicion del tipo
LLT mediante el metodo de Cholesky descrito. Aplicando el metodo se tiene que:

l11 = 1 = 1,
1
= 1,
1
1
= = 1,
1
p
= 5 (1)2 = 2,

l21 =
l31
l22

5 1.(1)
= 2,
2
p
= 6 1 (2)2 = 1,

l32 =
l33

2.2. Metodos iterativos para la resolucion de sistemas de ecuaciones lineales


y, por tanto,

0 0

L = 1
2 0
.

1 2 1
Comprobemoslo:

1
0 0
1 1
1
1 1
1

LL = 1
2 0 0
2 2 = 1
5 5
= A.
1 2 1
0
0
1
1 5
6

2.2

M
etodos iterativos para la resoluci
on de sistemas de ecuaciones lineales

A medida que aumenta el n


umero de ecuaciones de un sistema lineal, crece considerablemente el n
umero de operaciones que los metodos directos necesitan efectuar, lo
cual, ademas de implicar largos tiempos de calculo, puede producir una significativa
acumulacion de los errores de redondeo. Para solventar en lo posible estos problemas,
se puede recurrir a los metodos iterativos, que son menos sensibles a la propagacion de
los errores de redondeo y estan mejor adaptados a la resolucion de grandes sistemas
lineales.
Dado el sistema de ecuaciones lineales, en forma matricial,
Ax = b, A Rn,n , x, b Rn ,

(2.2.1)

pretendemos transformarlo en otro equivalente del tipo


x = Bx + c, B Rn,n , x, c Rn .

(2.2.2)

Un metodo de obtener un sistema del tipo (2.2.2) se construye efectuando una


descomposicion de la matriz A en la forma
A = M N,
donde M es inversible y, por tanto, el sistema
Ax = b

Tema 2. Resolucion de sistemas de ecuaciones lineales

es equivalente al sistema
(M N )x = b
y este es equivalente al sistema
M x = N x + b,
es decir,
x = M 1 N x + M 1 b.
Por tanto, en este caso, se trata del sistema equivalente al inicial
x = Bx + c, B = M 1 N, c = M 1 b,

(2.2.3)

es decir
c = (I B)A1 b,
relacion llamada condici
on de consistencia.
Una vez considerado el sistema en la forma (2.2.3), podemos considerar para su
resolucion el metodo iterativo:
x(m+1) = Bx(m) + c, x(0) dado.
Una condicion necesaria y suficiente para la convergencia del metodo es que todos
los valores propios de B sean menores que 1.

2.2.1

El m
etodo de Jacobi

Se trata de un metodo iterativo en la forma


M x(m+1) = N x(m) + b,
siendo A = M N .

(2.2.4)

2.2. Metodos iterativos para la resolucion de sistemas de ecuaciones lineales

Para ello, se considera A = D L U , donde

a1
0 ...
0

0 a22 . . .

,
D=
.
..
..
..
..
.
.
.

0
0 . . . ann

0 a12 a13 . . .
a1n

0
0
a
a
23 . . .
2n

..
..
..
..
..
U = .
.
.
.
. ,

0
0 . . . an1,n
0

0
0
0 ...
0

0
0
0 ...
0

a21
0
0 ...
0

0 ...
0
L = a31 a32

..
..
..
..
..

.
.
.
.
.

an1 an2 an3 . . . ann1

0
0
0
..
.

Eligiendo
M = D, N = L + U,
se tiene que A = M N y se puede aplicar el metodo (2.2.4). Al metodo resultante
se le denomina metodo de Jacobi y se puede escribir en la forma:

a13 (m)
a1n (m)
b1
a12 (m)
(m+1)

x3
...
xn
+
x1
=
x2

a11
a11
a11
a11

a21 (m)
a23 (m)
a2n (m)
b2
(m+1)

= x1
x3
...
xn
+
x2
a22
a22
a22
a22
..
..
..
..
..
..
..

.
.
.
.
.
.
.

an1 (m)
an2 (m)
ann1 (m)
bn

x(m+1)
=
x1

x2
...
xn1
+
n
ann
ann
ann
ann

10

Tema 2. Resolucion de sistemas de ecuaciones lineales

2.2.2

El m
etodo de GaussSeidel

Este metodo se obtiene tomando


M = D L y N = U,
de donde, de nuevo, A = M N y aplicando (2.2.4) se obtiene el siguiente metodo
iterativo
(D L)x(m+1) = U x(m) + b,
con x(0) dado.
En forma no matricial, el metodo obtenido se puede escribir:

a12 (m)
a13 (m)
a1n (m)
b1
(m+1)

x1
=
x2
x3
...

xn
+

a11
a11
a11
a11

a21 (m+1)
a23 (m)
a2n (m)
b2
(m+1)

= x1
x3
...

xn
+
x2
a22
a22
a22
a22
..
..
..
..
..
..

.
.
.
.
.
.

an2 (m+1)
ann1 (m+1)
bn
an1 (m+1)

x(m+1)
x1

x2
...
xn1
+
=
n
ann
ann
ann
ann
La diferencia respecto de metodo de Jacobi es que el metodo de Gauss-Seidel
(m+1)

aprovecha las componentes calculadas del vector x(m) , es decir, para hallar xi
(m+1)

utiliza las componentes x1

(m+1)

(m)

(m

, . . . , xi1 , recientes y las anteriores xi , . . . , xn ).

Por tanto, mientras que para el metodo de Jacobi se necesitan tener almacenadas
todas las componentes de x(m) para calcular x(m+1) , en el metodo de GaussSeidel
basta con un vector x en el que, en el paso iesimo esten almacenados los valores
(m+1)

x1

2.2.3

(m+1)

(m)

(m)

, . . . , xi1 , xi , . . . , xn .
M
etodo de relajaci
on

Al metodo de Gauss-Seidel, en el que no hay por que conservar x(m) para calcular
completo x(m+1) se le denomina un metodo de relajacion. Pero no es el u
nico.
Si 6 =0, se puede escribir
D=
y, por tanto,
A=

1
1
D
D

1
1
D
D L U.

2.2. Metodos iterativos para la resolucion de sistemas de ecuaciones lineales

11

El metodo de relajacion de parametro consiste en considerar el metodo iterativo


(2.2.4) dado por
M=
es decir,
1
(m+1)

a11 x1

(m+1)

a22 x2

1 a x(m+1)
nn n

1
1
D L, N =
D + U,

1
(m)
a11 x1

...

1
(m)
...
a22 x2

....
..
..
..
.
.

(m+1)

an1 x1

(m+1)

De nuevo, para calcular xi

(m+1)

an2 x2

...

(m+1)

se utilizan x1

(m)

+b1

(m)

+b2

a1n xn

(m+1)

a21 x1

..
.
=

(m)

a12 x2

a2n xn

..
.
1
ann x(m)
+bn
n

(m)

(m)

(m)

, . . . , xi1 , xi , . . . , xn . El

metodo de GaussSeidel se obtiene, obviamente, para = 1.


2.2.4

Convergencia de los m
etodos

Recordemos que el metodo iterativo


x(m+1) = Bx(m) + c
es convergente si y solo si todos los valores propios de B son de modulo menor que
1.
Existen algunos resultados en tal sentido como son los siguientes:
a) Si A es simetrica y definida positiva, el metodo de Gauss-Seidel es convergente.
b) Si A es simetrica y D + L + U es definida positiva, el metodo de Jacobi es
convergente.
c) Si A es simetrica y definida positiva, el metodo de relajacion converge si y solo
si 0 < < 2.
d) Si A es simetrica, definida positiva y tridiagonal, el valor de para el cual
2
p
el metodo converge mas rapidamente hacia la solucion es =
,
1 + 1 2J
siendo J el radio espectral de D1 (L + U ), es decir, el modulo del valor propio
que lo tiene mayor.

12

2.3

Tema 2. Resolucion de sistemas de ecuaciones lineales

Ejercicios

1.- Encontrar la factorizacion de Cholesky de la matriz

60 30 20

30 20 15

20 15 12
2.- Demostrar que, si una matriz tiene una factorizacion LU , donde L es una
matriz triangular inferior unitaria, entonces L y U son u
nicas.
3.- Demostrar que las matrices no regulares de la forma
!

0 a
,
0 b
donde a, b R, tienen una factorizacion LU .
4.- Resolver, por el metodo de Cholesky, el sistema
2x

+z = 1,

x +3y 2z = 2,
x 2y +4z = 0.
5.- Resolver el sistema
9x 2y

= 5,

2x +4y z = 1,
5
y +z = ,
6
aplicando 6 veces
a) el metodo de Jacobi;
b) el metodo de Gauss-Seidel.
6.- Dado el sistema
3x

+y

z = 4,

x +2y

+z = 7,

+y +2z = 5,

cuya solucion es x = 2, y = 1, z = 3,

2.2. Metodos iterativos para la resolucion de sistemas de ecuaciones lineales

13

a) comprobar la velocidad de aproximacion de los metodos de Jacobi, Gauss1


Seidel y relajacion, para = , partiendo de
2

0

(0)

x =
0
0
con 4 aproximaciones.
b) Estudiar la convergencia de tales metodos.

Você também pode gostar