Você está na página 1de 132

C

ALCULO NUM

ERICO
Antonio Vigueras Campuzano
11 de diciembre de 2013

Indice general
1. Calculo Numerico: generalidades 11
1.1. Introducci on: metodos de c alculo numerico . . . . . . . . . . . 11
1.2. Esquema general de construccion y aplicaci on de metodos numeri-
cos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1. Ejemplos que ilustran estos criterios: . . . . . . . . . . 13
1.3. Orden y rapidez de convergencia: notaciones o y O . . . . . . 14
1.3.1. Las notaciones o y O de Landau para funciones . . . . 14
1.3.2. Las notaciones o y O de Landau para sucesiones: orde-
nes de convergencia . . . . . . . . . . . . . . . . . . . . 15
1.3.3. Resolver los ejercicios siguientes: . . . . . . . . . . . . . 15
1.4. Errores en los metodos numericos . . . . . . . . . . . . . . . . 16
1.5. Algoritmos y diagramas de ujo . . . . . . . . . . . . . . . . . 17
1.6. Problemas y trabajos propuestos . . . . . . . . . . . . . . . . 18
2. Resoluci on numerica de ecuaciones no lineales 21
2.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2. Ecuaciones no lineales con una variable . . . . . . . . . . . . . 23
2.2.1. El metodo de bisecci on . . . . . . . . . . . . . . . . . . 23
2.2.2. Teorema del punto jo: Metodo de iteraci on simple . . 24
2.2.3. Metodos iterativos particulares de aproximaci on de so-
luciones . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.2.4. Aceleracion de la convergencia. El metodo
2
de Aitken 30
2.3. Ecuaciones polinomiales . . . . . . . . . . . . . . . . . . . . . 31
2.3.1. Acotacion de las races de una ecuaci on polin omica . . 32
2.3.2. Determinacion de cotas superiores de las races reales
de una ecuaci on polinomica . . . . . . . . . . . . . . . 32
2.4. Sistemas no lineales. Metodo de Newton para sistemas . . . . 33
2.4.1. Metodo de iteraci on simple en varias variables . . . . . 33
2.4.2. El metodo de Newton para sistemas . . . . . . . . . . . 34
2.5. Problemas y trabajos propuestos . . . . . . . . . . . . . . . . 35
3
4

INDICE GENERAL
3. Resoluci on numerica de sistemas lineales 39
3.1. Introducci on. Normas vectoriales y matriciales . . . . . . . . . 39
3.1.1. Normas matriciales inducidas . . . . . . . . . . . . . . 40
3.1.2. N umero de condicion de una matriz . . . . . . . . . . . 41
3.2. Metodos directos de resolucion de sistemas lineales . . . . . . 42
3.2.1. Sistemas triangulares . . . . . . . . . . . . . . . . . . . 43
3.2.2. Eliminacion gaussiana: el metodo de Gauss y sus va-
riantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.3. Otros metodos de factorizaci on . . . . . . . . . . . . . 47
3.3. Metodos iterativos de resoluci on de sistemas lineales . . . . . . 49
3.3.1. Generalidades: convergencia y construcci on de meto-
dos iterativos . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2. Metodos iterativos particulares: Jacobi, Gauss-Seidel y
relajacion . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4. Introducci on al c alculo aproximado de valores y vectores propios 55
3.5. Problemas y trabajos propuestos . . . . . . . . . . . . . . . . 56
4. Interpolaci on. Derivaci on e integraci on numerica 61
4.1. Interpolaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1.1. Introduccion. diferentes problemas de interpolacion. . . 61
4.1.2. Interpolacion polinomial de Lagrange. . . . . . . . . . . 62
4.1.3. Diferencias divididas: f ormula de Newton. . . . . . . . 63
4.1.4. Diferencias nitas: f ormula de Newton. . . . . . . . . . 65
4.1.5. Estimacion del error de interpolaci on. . . . . . . . . . . 67
4.1.6. Funciones spline. Splines c ubicos. . . . . . . . . . . . . 69
4.2. Derivacion numerica . . . . . . . . . . . . . . . . . . . . . . . 71
4.2.1. Formulas de tipo interpolatorio. Expresi on del error. . 72
4.2.2. Formulas de derivaci on numerica de orden superior. . . 73
4.2.3. Estabilidad de las formulas de derivaci on numerica. . . 74
4.3. Integraci on numerica . . . . . . . . . . . . . . . . . . . . . . . 75
4.3.1. Formulas de tipo interpolatorio. . . . . . . . . . . . . . 76
4.3.2. Formulas de Newton-Cotes simples. . . . . . . . . . . . 77
4.3.3. Formulas de cuadratura compuestas. . . . . . . . . . . 78
4.3.4. Estabilidad y convergencia . . . . . . . . . . . . . . . . 79
4.4. Problemas y trabajos propuestos . . . . . . . . . . . . . . . . 80
5. Resoluci on numerica de problemas de valor inicial 85
5.1. Problemas de valor inicial para ecuaciones diferenciales ordi-
narias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2. Metodos de un paso generales: deniciones y resultados . . . . 87
5.2.1. Expresion general de los metodos de un paso . . . . . . 89

INDICE GENERAL 5
5.3. Metodos de Taylor . . . . . . . . . . . . . . . . . . . . . . . . 93
5.4. Desarrollo asint otico del error global y aplicaciones . . . . . . 95
5.4.1. Estimacion del error global mediante el metodo de ex-
trapolaci on al lmite de Richardson . . . . . . . . . . . 96
5.4.2. Extrapolacion al lmite de Richardson . . . . . . . . . . 97
5.5. Metodos Runge-Kutta explcitos de m etapas: formulaci on ge-
neral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.5.1. Tablas de Butcher: ejemplos diversos . . . . . . . . . . 99
5.5.2. Convergencia y orden de los metodos RK(m) explcitos 101
5.6. Formulaci on general de los metodos lineales multipaso: orden,
consistencia, estabilidad y convergencia. Teoremas de Dahlquist102
5.6.1. Metodos predictor-corrector . . . . . . . . . . . . . . . 104
5.6.2. Orden, consistencia, estabilidad y convergencia de un
metodo lineal multipaso . . . . . . . . . . . . . . . . . 104
5.7. F ormulas de Adams . . . . . . . . . . . . . . . . . . . . . . . . 107
5.7.1. Formulas de Adams-Bashforth . . . . . . . . . . . . . . 107
5.7.2. Formulas de Adams-Moulton . . . . . . . . . . . . . . 110
6. Metodos en diferencias nitas 113
6.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2. Metodos en diferencias nitas para problemas de contorno li-
neales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3. Generalidades sobre ecuaciones en derivadas parciales . . . . . 116
6.4. Ecuaciones elpticas: Problemas de valor en la frontera para
ecuaciones de Poisson o Laplace . . . . . . . . . . . . . . . . . 118
6.5. Ecuaciones parab olicas: la ecuaci on del calor . . . . . . . . . . 120
6.6. Ecuaciones hiperbolicas: la ecuacion de ondas . . . . . . . . . 126
7. Bibliografa 131
Prologo
La asignatura C alculo Numerico se plantea como una introduci on al es-
tudio de los metodos numericos. En el caso de la Universidad Politecnica de
Cartagena, se estudia en el primer cuatrimestre del tercer curso del Grado
en Ingeniera en Tecnologas Industriales. Se trata de una asignatura de 6
ECTS, cuyo objetivo es que el alumno conozca y sepa aplicar los metodos
numericos b asicos en situaciones concretas propias de su titulaci on, as como
capacitarle para que pueda preparar y manejar algoritmos y programas de
c alculo para la resolucion de problemas pr acticos, a la vez que comprenda
las posibilidades y limitaciones de las tecnicas numericas utilizadas.
Como es sabido, las leyes que rigen buena parte de los problemas estu-
diados en esta titulacion, como transmision de calor, din amica de sistemas
mec anicos, planicacion y control de trayectorias de un robot, an alisis de cir-
cuitos electricos, din amica de uidos y medios continuos, deformaciones de
s olidos, propagacion de ondas, c alculo de estructuras, etc., se modelizan ma-
tem aticamente y a menudo acaban traduciendose en sistemas de ecuaciones
lineales o no, problemas de valor inicial o de contorno para ecuaciones diferen-
ciales ordinarias o en derivadas parciales, por lo que no cabe duda de que el
conocimiento de estos t opicos, al menos en sus aspectos m as basicos y elemen-
tales, resulta imprescindible en la formacion del ingeniero. Ahora bien, como
es sabido pocos son los problemas se nalados que pueden abordarse unicamen-
te con las herramientas matem aticas vistas hasta este momento, por ello se
hace necesario introducir unos conocimiento mnimos de C alculo Numerico.
En palabras de Henrici, podramos denir el C alculo Numerico como la teora
de los metodos constructivos en An alisis Matem atico. Se hace especial enfa-
sis en la palabra constructivo ya que, propuesto un problema matem atico,
adem as de estudiar la existencia de soluci on, hay que dar un procedimiento
para calcularla de modo explcito. Esta soluci on se construir a mediante al-
goritmos, entendiendo por tal una especicaci on no ambigua de operaciones
aritmeticas en un orden prejado. Dos ser an los objetivos esenciales de esta
disciplina: 1) Dado un problema matem atico, encontrar algoritmos, a veces
llamados metodos numericos, que bajo ciertas condiciones permitan obtener
7
8

INDICE GENERAL
una solucion aproximada del problema propuesto; y 2) Analizar las condi-
ciones bajo las cuales la soluci on del algoritmo es proxima a la verdadera,
estimando los errores en la soluci on aproximada. Se trata pues de encontrar
metodos aproximados para resolver todo tipo de problemas matem aticos y
analizar los errores producidos en estas aproximaciones, si bien dada la am-
plitud de la materia ha sido necesario elegir determinados contenidos en
detrimento de otros. En esta eleccion se han tenido en cuenta, fundamental-
mente, las necesidades de los estudiantes de la titulaci on, intentando que los
conceptos estudiados en esta asignatura sean de utilidad y sirvan para poder
aprender otros por su cuenta cuando sea preciso. Pero, al mismo tiempo,
se busca ofrecer un curso coherente y estructurado, para que el estudiante
no perciba el estudio de esta signatura como una mera colecci on de tecni-
cas y recetas para resolver problemas, sino que sea tambien consciente del
signicado de los diferentes metodos y conozca sus limitaciones y ambitos
de aplicacion, para que sea capaz de decidir cuando un procedimiento es
adecuado o no lo es. En resumidas cuentas, aunque un ingeniero no es un
matem atico, por lo que no tiene obligaci on de conocer el signicado profundo
de la materia, en particular los detalles m as tecnicos y sutiles, s es un usuario
avanzado, especialmente aquellos que desarrollar an su actividad profesional
en el campo emergente de la I+D+i, tanto en instituciones p ublicas como en
empresas privadas, por lo que debe ser consciente de las dicultades que en-
cierra la utilizacion de los metodos numericos contemplados en el programa
de la asignatura.
Los contenidos a abordar se denen brevemente en el plan de estudios
como: Errores. Algoritmos. Interpolacion polinomial. Resolucion numerica
de ecuaciones y sistemas no lineales. Resolucion numerica de sistemas de
ecuaciones lineales. Derivaci on e Integraci on numerica. Metodos numericos
para las ecuaciones diferenciales y las ecuaciones en derivadas parciales, que
concretaremos en los siguientes (dejando el resto para la segunda):
Conocer las caractersticas y limitaciones de los metodos constructivos,
la evolucion de los errores en los c alculos numericos y el esquema general
de construccion y aplicacion de los metodos iterativos.
Conocer y saber aplicar en situaciones concretas los metodos numericos
fundamentales de resolucion aproximada de ecuaciones y sistemas no
lineales.
Conocer y saber aplicar los principales metodos directos e iterativos de
resoluci on se sistemas lineales.
Conocer el problema de la interpolacion, as como los principales meto-
dos de interpolaci on por polinomios y su aplicaci on para obtener los

INDICE GENERAL 9
metodos de integraci on y derivacion numerica.
Conocer los conceptos, resultados fundamentales y limitaciones de los
metodos numericos de un paso y de los metodos lineales multipaso,
para la integracion numerica de problemas de valor inicial, para ecua-
ciones diferenciales ordinarias. En particular, conocer y saber aplicar,
en situaciones concretas, los metodos de Euler, Taylor, Runge-Kutta y
Adams.
Conocer y saber aplicar los metodos en diferencias nitas a la resoluci on
numerica de problemas de contorno para EDOs y para ecuaciones en
derivadas parciales, en particular para la ecuaci on del calor, de ondas
y de Laplace.
Captulo 1
Calculo Numerico:
generalidades
1.1. Introducci on: metodos de calculo numeri-
co
En este tema estudiamos el concepto de C alculo (o An alisis) Numerico,
el esquema general de construcci on y aplicaci on de metodos numericos, los
errores inherentes a los mismos as como el dise no de algoritmos y diagramas
de ujo.
Las leyes que rigen buena parte de los problemas estudiados en esta titu-
laci on, como transmisi on de calor, din amica de sistemas mecanicos, plani-
caci on y control de trayectorias de un robot, analisis de circuitos electricos,
din amica de uidos y medios continuos, deformaciones de solidos, propaga-
ci an de ondas, c alculo de estructuras, etc., se modelizan matem aticamente y
a menudo acaban traduciendose en sistemas de ecuaciones lineales o no, pro-
blemas de valor inicial o de contorno para ecuaciones diferenciales ordinarias
o en derivadas parciales, por lo que no cabe duda de que el conocimiento
de estos t opicos, al menos en sus aspectos m as b asicos y elementales, resul-
ta imprescindible en la formaci on del ingeniero. Ahora bien, como es sabido
pocos son los problemas se nalados que pueden abordarse unicamente con
las herramientas matematicas vistas hasta este momento, por ello se hace
necesario introducir unos conocimiento mnimos de Calculo Numerico. En
frase de Henrici, podramos denir el Calculo (o Analisis) Numerico
comola teora de los metodos constructivos en Analisis Matemati-
co. Se hace especial enfasis en la palabra constructivo ya que, propuesto
un problema matem atico, adem as de estudiar la existencia de solucion, hay
que dar un procedimiento para calcularla de modo explcito. Esta solucion
11
12 Captulo 1. Calculo Numerico: generalidades
se construir a mediante algoritmos, entendiendo por tal una especicaci on
no ambigua de operaciones aritmeticas en un orden prejado. La aparici on
de los ordenadores y su creciente potencia de calculo ha potenciado el uso
y desarrollo de metodos numericos para resolver multitud de problemas y
ha hecho posible abordar problemas tan complejos como el de la predicci on
meteorol ogica. Hasta tal punto ha producido esto un cambio en la situaci on
que el estudio de los metodos numericos lleva camino de convertirse en una
de las ramas mas importantes de las m atematicas y, desde luego una de las
de m as actualidad. Podemos decir que un metodo numerico de resoluci on
de un determinado problema es un conjunto de reglas que permite la
obtencion mediante un n umero nito de operaciones elementales,
de un resultado que se aproxima de alguna manera a la solucion
del problema en cuestion. Suelen proporcionar soluciones tan proximas
como se quiera (s olo en teora puesto que al realizar los c alculos se come-
ten errores debido a que los ordenadores tienen una precisi on limitada) a la
soluci on exacta, pero en general no se obtiene esta. Este hecho lo pone de
maniesto Ortega cuando dene el Calculo (o Analisis) Numerico como
el estudio de los metodos y procedimientos usados para obtener
soluciones aproximadas a problemas matematicos.
Por lo dicho antes, dos ser an los objetivos esenciales de esta disciplina:
1
o
) Dado un problema matem atico, encontrar algoritmos, a veces llamados
metodos numericos, que bajo ciertas condiciones permiten obtener una solu-
ci on aproximada del problema propuesto, y 2
o
) Analizar las condiciones bajo
las cuales la soluci on del algoritmo es proxima a la verdadera, estimando
los errores en la soluci on aproximada. Se trata pues de encontrar metodos
aproximados para resolver todo tipo de problemas matematicos y analizar
los errores producidos en estas aproximaciones.
1.2. Esquema general de construccion y apli-
caci on de metodos numericos
En la construcci on y aplicaci on de metodos numericos para resolver un
determinado problema matematico se suelen seguir los siguientes pasos:
1. Sustituir el problema inicial por un algoritmo de calculo, que contiene
un parametro n.
2. Probar la convergencia del algoritmo, es decir asegurar que las aproxi-
maciones x
n
a la soluci on x son tan pr oximas como se desee; estimando
1.2. Esquema general de construccion y aplicaci on de metodos
numericos 13
la rapidez o velocidad de convergencia.
3. Otro requisito sobre los metodos numericos es el que sean estables, que
signica, hablando coloquialmente, que peque nas modicaciones en los
datos no ocasionen fuertes cambios en el resultado nal; o de otra forma
si los c alculos no se efect uan con exactitud (debido a los redondeos) no
obstante se tiene convergencia a la solucion.
4. Realizar el organigrama y el programa del algoritmo en cuestion en un
adecuado lenguaje de programaci on.
Criterios habitualmente utilizados para la selecci on de un algoritmo, en-
tre otros posibles, para obtener la solucion aproximada de un determinado
problema son los siguientes:
Elegir aquel metodo que minimice los errores.
Elegir aquel metodo que minimice el n umero de operaciones efectuadas,
directamente relacionado con el costo computacional.
Elegir aquel metodo que minimice la memoria requerida para almacenar
datos, cada vez menos importante debido a las grandes capacidades
actuales de los medios de c alculo a nuestra disposici on.
Tambien podramos adoptar como criterio m as adecuado el de selec-
cionar aquel metodo que produciendo errores dentro de margenes
admisibles necesite el menor costo computacional.
1.2.1. Ejemplos que ilustran estos criterios:
Comparar el costo computacional de diferentes formas de evaluar un
polinomio: algoritmo de Horner frente a otro.
Comparar la evaluacion del determinante de una matriz de orden n
seg un la f ormula de Vandermonde y por el metodo de Gauss.
Dar algunos ejemplos de calculos inestables:
a) Calcular el valor de la integral y
10
=
_
1
0
x
10
dx
10+x
, mediante una formula
de reduccion que lleva a un algoritmo inestable por crecimiento
exponencial del error.
b) Calcular las races de la ecuaci on polinomial (Wilkinson, 1959)
(x1)(x2).....(x19)(x20) = 0, tras incrementar el coeciente
de x
19
por 10
7
.
14 Captulo 1. Calculo Numerico: generalidades
1.3. Orden y rapidez de convergencia: nota-
ciones o y O
1.3.1. Las notaciones o y O de Landau para funciones
Sean f y g aplicaciones reales denidas en un entorno del punto x
0
, deci-
mos que f es una o min uscula de g cuando x tiende a x
0
(y escribimos
f(x) = o(g(x)) cuando x x
0
) si para x pr oximo a x
0
con x ,= x
0
, g no se
anula y lm
xx
0
f(x)/g(x) = 0, es decir si para todo > 0 existe un r > 0,
tal que para todo x vericando 0 <[ x x
0
[< r es [ f(x) [< [ g(x) [; la
denici on viene a expresar la idea de que f(x) se vuelve despreciable frente a
g(x) caundo x tiende a x
0
.
A veces interesa lo que ocurre solamente cuando nos acercamos a x por
la derecha, por ello tambien decimos que f es una o min uscula de g
cuando x tiende a x
0
por la derecha (y escribimos f(x) = o(g(x)) cuando
x x
+
0
) si para x pr oximo a x
0
por la derecha con x ,= x
0
, g no se anula y
lm
xx
+
0
f(x)/g(x) = 0, es decir si para todo > 0 existe un r > 0, tal que
para todo x vericando x
0
< x < x
0
+ r es [ f(x) [< [ g(x) [.
Otra notaci on habitual para hablar del tama no relativo de las funciones
en las proximidades de un punto es la siguiente: decimos que f es una O
may uscula de g cuando x tiende a x
0
(y escribimos f(x) = O(g(x))
cuando x x
0
) si existen constantes K y r positivas tales que para todo x
vericando [ x x
0
[< r es [ f(x) [ K [ g(x) [.
Las deniciones anteriores pueden extenderse sin dicultad al caso en que
x
0
= .
En ocasiones lo que interesa es comparar una funcion f(x) con monomios
g(x) = (x x
0
)
m
cuando x x
0
, as hablamos de que f(x) = o((x x
0
)
m
)
cuando x x
0
para expresar que f(x) es un innitesimo de orden superior a
(xx
0
)
m
cuando x x
0
, es decir f(x) converge a cero mas rapidamente
que lo hace (x x
0
)
m
cuando x x
0
. En algunas ocasiones f(h) expresa
el error que se comete en un metodo numerico que depende de un par ametro
de discretizacion positivo h, en este contexto decimos que f(h) = O(h
m
)
cuando h 0
+
si existen constantes K y r positivas tales que para todo h
vericando 0 < h < r es [ f(h) [ Kh
m
, lo que viene a expresar que f(h)
converge a 0
+
al menos tan rapido como h
m
.
1.3. Orden y rapidez de convergencia: notaciones o y O 15
1.3.2. Las notaciones o y O de Landau para sucesiones:
ordenes de convergencia
Dadas dos sucesiones x
n
e y
n
, tal que y
n
,= 0 para toda n, se dice que
x
n
= o(y
n
) si lm
n
x
n
/y
n
= 0; asimismo, se dice que x
n
= O(y
n
) si existen
constantes positivas K y r tales que [ x
n
[ K [ y
n
[ para toda n r, en caso
de ser y
n
,= 0 para toda n, esto signica que [ x
n
/y
n
[ permanece acotada por
K cuando n . Si ambas sucesiones tienden a cero, en el primer caso se
dice que la sucesi on x
n
converge a cero mas rapidamente que lo hace la
y
n
, y en el segundo que converge al menos tan rapidamente como esta.
Dada una sucesion de n umeros reales x
n
convergente al n umero real x,
se dice que la convergencia es:
lineal si existe una constante positiva c < 1 y un entero n
0
tal que
[ x
n+1
x [ c [ x
n
x [ para todo n n
0
.
superlineal si existe una sucesion convergente a cero
n
y un entero
n
0
tal que [ x
n+1
x [
n
[ x
n
x [
p
para todo n n
0
.
de orden, al menos, p > 1 si existen dos constantes K (no necesa-
riamente menor que 1) y n
0
tal que [ x
n+1
x [ K [ x
n
x [
p
para
todo n n
0
. Si p = 2, la convergencia se dice, al menos, cuadr atica; si
p = 3 c ubica, etc.
1.3.3. Resolver los ejercicios siguientes:
1. Probar que es falso que cot x = o(x
1
) cuando x 0.
2. Probar que dada la sucesion x
n
, entonces x
n
= x + o(1) si y s olo si
lim
n
x
n
= x
3. Probar tambien que es falso que e
x
1 = O(x
2
) cuando x 0.
4. Utilizando el desarrollo de Maclaurin de la funci on sin x, probar que
sin x = x
x
3
6
+ O(x
5
) cuando x 0.
5. Probar que
n+1
n
3
= o(
1
n
) cuando n .
16 Captulo 1. Calculo Numerico: generalidades
1.4. Errores en los metodos numericos
La aplicacion de metodos numericos nos lleva a la consideracion de los
errores inherentes a los mismos, que son b asicamente los que siguen:
Errores en los datos iniciales, por ejemplo si son resultado de una
medida con alg un instrumento.
Errores de redondeo, debidos al hecho de que el ordenador maneja
s olo un n umero nito de cifras signicativas o dgitos.
Errores de truncatura o discretizaci on, que provienen de sustituir
un problema contnuo por otro discreto, por ejemplo una serie por una
suma nita, una derivada por un cociente incremental, o una integral
denida por una suma de un n umero nito de terminos, etc.
En Calculo Numerico se estudian basicamente los errores de los dos ultimos
tipos, sobre todo los de truncatura o discretizaci on como veremos en las
lecciones siguientes.
Obtenida una aproximaci on x del verdadero valor x de una determinada
magnitud, se llama error absoluto e = x x, si x > x se dice que la
aproximaci on es por exceso y si x < x se dice por defecto, en ocasiones
solo interesa el error sin signo o sea el [ e [, adem as si x ,= 0 se dene el
error relativo por [ e [ / [ x [, si este ultimo se multiplica por 100 se tiene el
error porcentual. Normalmente, como no es usual conocer los errores con
exactitud, trataremos de obtener cotas de estos errores.
Aunque en los siguientes captulos no analizaremos con detalle los errores
de redondeo y su propagaci on, conviene que reparemos en algunas obser-
vaciones al respecto. En primer lugar, se nalemos que no todo n umero real
puede representarse de modo exacto en un ordenador digital, de hecho ni
tan siquiera todos los n umeros decimales con un n umero nito de cifras,
como por ejemplo 0,1, pues en base 2 posee innitos dgitos, de hecho es
0,1 = 0,00011001100110011...
(2
. Por ello, al ser almacenado el n umero 0,1 en
un ordenador digital sufrira un redondeo, es decir que no s olo lo sufren los
irracionales o los racionales con innitas cifras decimales.
Para hacernos una idea es suciente con trabajar en base 10. Como es
sabido todo n umero real no nulo x puede expresarse de modo unico en la
forma x = m 10
q
con 0,1 m < 1 y q entero, a m se le denomina mantisa
y a q exponente, para almacenar dicho n umero en el ordenador, debemos
guardar su signo, la mantisa y el exponente con su signo, pero para guardar
m y q s olo podemos utilizar un n umero nito de dgitos, si por ejemplo q s olo
pudiera tener dos dgitos en base 10 el intervalo de los n umeros representables
sera el dado por
1.5. Algoritmos y diagramas de ujo 17
10
100
[ x [ 10
99
pero dentro de este intervalo, por las razones antes expuestas, no todos los
n umeros pueden ser representados con exactitud, pues si por ejemplo s olo
pueden ser representados k dgitos para almacenar m, dado x cualquiera del
intervalo anterior, quedar a representado como
x = m 10
q
con m obtenida por redondeo (lo mas usual) o corte tras el k-esimo dgito.
El error absoluto [ e [=[ x x [ est a acotado por
1
2
10
k
10
q
(en
redondeo) y por 10
k
10
q
(en corte). Y el error relativo en x, supuesto este
no nulo, esta acotado por
1
2
10
k+1
(en redondeo) y por 10
k+1
en corte.
La aritmetica de k dgitos, en punto otante, tiene propiedades algo
distintas de las habituales, por ejemplo la suma deja de ser asociativa, hay
n umeros no nulos que al ser sumados a otro no alteran la suma, se produce
la perdida de cifras signicativas al hace la diferencia de n umeros pr oximos,
etc.
1.5. Algoritmos y diagramas de ujo
Podemos decir que un algoritmo es un procedimiento que describe,
sin ambig uedad alguna, una sucesion nita de pasos a realizar en un
orden especco para resolver un determinado problema.
Un organigrama o diagrama de ujo es una representaci on gr aca
del algoritmo, que nos da los pasos del algoritmo y el ujo de control
entre los diferentes pasos. Los distintos tipos de operaciones se indican
por distintos tipos de cajas, y los ujos de control se indican por lneas
dirigidas entre las cajas.
El esquema general de un organigrama esta constituido por tres bloques
principales, correspondientes a los tres tipos de operaciones siguientes:
Operaciones de entrada. Son utilizadas para la entrada de datos
desde el exterior a las unidades de almacenamiento.
Operaciones de proceso. Se emplean para la manipulaci on de los da-
tos anteriormente almacenados, de donde se obtendr an unos resultados
que seran asimismo almacenados.
18 Captulo 1. Calculo Numerico: generalidades
Operaciones de salida. Son aquellas que comunican al usuario unos
resultados, extraidos de las unidades de almacenamiento.
Un subconjunto de un programa tiene una estructura:
repetitiva, si consta de una secuencia l ogica principio, una secuencia
l ogica n, ejecutadas una vez en el conjunto y un subconjunto repetitivo
ejecutado n veces.
alternativa, si consta de de una secuencia l ogica principio, una se-
cuencia l ogica n, ejecutadas una vez en el conjunto y dos o m as sub-
conjuntos mutuamente excluyentes, de manera que si se realiza uno de
ellos no se realizan los restantes.
compleja,si consta de varias estructuras elementales, alternativas o
repetitivas. Si s olo consta de estructuras repetitivas, se dice repetitivo
complejo; si s olo consta de estructuras alternativas se dice alternativo
complejo y si comprende de ambas se dice complejo mixto.
Cada una de estas operaciones se representan gracamente por smbolos,
por ejemplo por crculos para iniciar o parar, por rect angulos para calculo o
proceso diferente de una decision, por rombos para las decisiones, por trape-
cios para la entrada de datos, se conectan las diversas partes del programa
mediante una lnea de ujo, etc.
Realizar los organigramas de los programas siguientes:
Del que calcula las normas | |
1
y | |
2
de un vector de R
n
.
Del que ordena de mayor a menor dos n umeros reales dados.
Del que nos da el n umero de positivos y el de negativos o nulos de un
conjunto de N n umeros reales.
1.6. Problemas y trabajos propuestos
Problemas propuestos:
1. Probar que si f C
(n)
(R) se anula en n+1 puntos distintos x
0
< x
1
<
. . . < x
n
entonces existe un (x
0
, x
n
) tal que f
(n)
() = 0 (Ayuda:
utilizar el teorema de Rolle).
2. Obtener el desarrollo de Taylor para f(x) = e
x
entorno al punto x = 2;
asimismo, obtenerlo a partir de la serie para f en torno a x = 0.
1.6. Problemas y trabajos propuestos 19
3. El menor valor positivo , tal que 1 + > 1 se denomina el epsilon
de maquina, este depende del hardware y de como el compilador del
lenguaje de programacion utilizado almacena la mantisa de un n umero
en punto otante. Se pide que determineis el epsilon de maquina para
el ordenador y lenguaje que utiliceis.
4. Para ilustrar la perdida de dgitos signicativos por sustracci on de can-
tidades casi iguales, calcular

x
2
+ 1 1 y x senx para valores de x
pr oximos a cero. Disponer los calculos de manera que, en ambos casos,
se evite dicha perdida.
5. Para calcular la integral I
n
=
_
1
0
x
n
e
x
dx(n 0) podemos utilizar (in-
tegrando por partes) el algoritmo I
n+1
= e (n + 1)I
n
con I
0
= e 1.
Obtener hasta I
18
contradice esto el hecho de que lim
n
I
n
= 0, que
se puede decir de la estabilidad de este algoritmo.
Observaci on. Para los trabajos propuestos en esta y en sucesivas leccio-
nes, se pide el an alisis teorico de los mismos, diversas aplicaciones y el algo-
ritmo o programa computacional necesario para su implementaci on practica.
Tambien deben estar bien escritos (preferentemente en latex) y ser presenta-
dos en clase por sus autores.
Trabajos propuestos:
Aritmetica del punto otante y errores de redondeo.
Captulo 2
Resoluci on numerica de
ecuaciones y sistemas no
lineales
2.1. Introducci on
Runi y Abel demostraron que, en general, no se puede resolver la ecua-
ci on algebraica de orden n con n > 4 por radicales. Aunque hay cierto tipos
de ecuaciones de grado superior al cuarto, como por ejemplo las binomias
x
n
+a = 0 que se resuelven de esta forma. Pero esta imposibilidad no ocasio-
na inconvenientes mayores, pues se dispone de diversos metodos que permiten
calcular (seg un veremos a lo largo de este tema) los valores numericos de las
races con tanta aproximaci on como se desee.
El proceso a seguir para resolver una ecuaci on dada f(x) = 0 (algebraica o
no) suele ser el siguiente, se comienza determinando un intervalo donde esten
todas las raices, es lo que se llama acotaci on de las races. Seguidamente,
se subdivide este intervalo en otros tales que cada uno contenga solamente
una raz, es lo que se denomina separaci on de races. Finalmente, se reduce
la amplitud de dichos intervalos hasta que sus extremos constituyan valores
aproximados aceptables, por exceso o defecto, de la raz contenida en su
interior, en esto consite la aproximaci on de races.
Algunos resultados pr acticos sobre acotaci on de races de ecuaciones po-
lin omicas se ver an m as adelante; ahora recordamos algunos resultados de
c alculo innitesimal por su interes en la separacion de races, comenzando
por el teorema de Bolzano.
Teorema 1 Sea f : [a, b] R continua y tal que f(a)f(b) < 0 (es decir que
toma valores opuestos en los extremos del intervalo) entonces existe r (a, b)
21
22 Captulo 2. Resoluci on numerica de ecuaciones no lineales
tal que f(r) = 0.
Observaci on.- El teorema asegura que, en las condiciones anteriores,
existe un r en el que f(x) se anula, pero no que este r sea unico, puede o no
serlo, aunque se pueden dar condiciones adicionales para precisar la unicidad,
como en la siguiente proposici on.
Proposicion 1 Si ademas de las condiciones del torema 1 anterior se su-
pone que f es derivable en el intervalo abierto (a, b) con f

(x) > 0 x (a, b)


(o f

(x) < 0 x (a, b)), entonces la raz r (a, b) de la ecuacion f(x) = 0


cuya existencia se garantiza en el teorema 1 es unica.
Demostraci on. En efecto, si es f

(x) > 0 x (a, b) entonces f es


estrictamente creciente en (a, b) por tanto no puede tener races distintas,
para el otro caso f es estrictamente decreciente y la demostraci on es analoga.
Un resultado sencillo que nos permite en muchos casos acotar el error
absoluto que se comete al tomar el valor aproximado de una raz r viene
dado por la proposicion siguiente.
Proposicion 2 Sea r una raz de la ecuacion f(x) = 0, un valor aproxi-
mado de la misma, tal que r, [a, b]. Si f es derivable en [a, b] y [ f

(x) [
m
1
> 0 x [a, b], entonces
[ r [
[ f() [
m
1
.
Demostraci on. Por el teorema del valor medio se tiene f() f(r) =
( r)f

(c) con c intermedio entre y r, luego [ f() f(r) [=[ f() [=


=[ r [[ f

(c) [[ r [ m
1
, de donde se sigue que [ r [
|f()|
m
1
.
Ejercicios. Se pide resolver los siguientes:
1. Acotar las races reales de la ecuaci on x
3
x 1 = 0.
2. Escribir los desarrollos de Taylor y Maclaurin para funciones reales de
una o varias variables reales.
Adem as, en los apartados siguientes de este tema estudiaremos los meto-
dos b asicos de resoluci on de ecuaciones no lineales (biseccion, Lagrange, se-
cante, Newton-Raphson, etc.), algunos resultados para el caso particular de
las ecuaciones polinomiales, un metodo de aceleracion de la convergencia
y una introducci on a la resolucion numerica de sistemas de ecuaciones no
lineales.
2.2. Ecuaciones no lineales con una variable 23
2.2. Ecuaciones no lineales con una variable
2.2.1. El metodo de bisecci on
Es quiz as el metodo mas sencillo de aproximacion de la ecuaci on f(x) =
0, pero en general, bastante lento; aunque puede utilizarse como punto de
partida para otro tipo de metodos.
Pasemos a exponerlo brevemente, en primer lugar sea una ecuaci on f(x) =
0, con f continua en [a, b] y tal que f(a)f(b) < 0, es decir f posee una raz
en [a, b], que en lo sucesivo supondremos unica. Para buscar dicha raz, di-
vidimos el intervalo [a, b] en dos partes iguales por su punto medio
a+b
2
; si
f(
a+b
2
) = 0 entonces r =
a+b
2
es la raz buscada, en otro caso tomamos aquella
de las dos mitades [a,
a+b
2
] o [
a+b
2
, b] en que la funcion toma signos opuestos
en los extremos, el nuevo segmento que designamos por [a
1
, b
1
] lo volvemos
a dividir en dos partes iguales por su punto medio y reiteramos el mismo ra-
zonamiento anterior; as en una cierta etapa se obtiene la raz o una sucesi on
de intervalos encajados
[a, b] [a
1
, b
1
] [a
2
, b
2
] [a
n
, b
n
]
tales que f(a
n
)f(b
n
) < 0(n = 1, 2, ...) y b
n
a
n
=
ba
2
n
. Puesto que los
extremos inferiores de dichos intervalos a
n
forman una sucesion creciente
y acotada superiormente por b y los extremos superiores de los mismos b
n

forman una sucesion decreciente y acotada inferiormente por a, existen los


lmites
lim
n
a
n
= b
lim
n
b
n
= a
como adem as lim
n
(a
n
b
n
) = = 0 se sigue que = [a, b],
siendo este lmite com un la raz buscada, pues al ser f(a
n
)f(b
n
) < 0 por la
continuidad de f se deduce que lim
n
f(a
n
)f(b
n
) = f()
2
0, por tanto
f() = 0 y = r es la raz buscada de f(x) = 0 en el intervalo [a, b].
Cota de error absoluto de la enesima aproximacion. Si como valor
de la raz buscada r tomamos la aproximacion enesima por defecto a
n
, se
tiene la siguienta acotaci on del error 0 r a
n

1
2
n
(b a); si se toma la
aproximaci on por exceso b
n
se tiene la acotacion 0 b
n
r
1
2
n
(b a), en
tanto que si se toma como aproximacion de la raz r buscada el punto medio
del enesimo intervalo x
n
=
a
n
+b
n
2
, entonces tenemos la siguiente acotacion
para el error [ r x
n
[
ba
2
n+1
, es por tanto una mejor aproximacion pero no
precisamos su posici on relativa a r.
24 Captulo 2. Resoluci on numerica de ecuaciones no lineales
Ejercicio. Probar que la ecuacion x
3
x1 = 0 posee una unica raz en
[1, 2] y aproximarla por el metodo de bisecci on con error menor que 5 10
6
.
2.2.2. Teorema del punto jo: Metodo de iteracion sim-
ple
Dada una ecuacion f(x) = 0 con f continua y una unica raz s en el
intervalo cerrado [a, b], se quiere aproximar dicha raz, para lo cual se pasa de
alguna manera a una ecuaci on equivalente de la forma x = g(x) (es decir con
las mismas races, en este caso con la misma unica raz s en dicho intervalo);
entonces f(s) = 0 si y s olo si s = g(s) o sea s es raz de f si y s olo si s es
un punto jo de la aplicaci on g. Para aproximar esta raz se parte de alg un
punto x
0
[a, b] se genera la sucesi on x
n
en la forma x
n+1
= g(x
n
), el
problema que se plantea es saber elegir un metodo, es decir una funcion g de
modo que la sucesion x
n
converja a la raz buscada s. El siguiente teorema
de punto jo nos da condiciones sucientes para la existencia y unicidad de
dicha raz, as como un metodo que genera una sucesion convergente a dicha
raz.
Teorema 2 Si g es una funcion real denida en el intervalo [a, b], que cum-
ple las dos condiciones siguientes:
x [a, b] es g(x) [a, b] (1)
Existe un n umero real k vericando 0 k < 1 tal que x, y [a, b] es
[ g(x) g(y) [ k [ x y [ (2)
Entonces existe una unica raz s de la ecuacion x = g(x) en [a, b], que se
obtiene como lmite de una sucesion x
n
donde x
0
es un punto arbitrario
de [a, b] y x
n+1
= g(x
n
) para n 0
Demostraci on. En realidad este teorema, aunque se puede probar di-
rectamente, es caso particular del teorema de la aplicacion contractiva
(cuya demostraci on no haremos) que arma que si E es un espacio metrico
completo (es decir un espacio metrico en el que toda sucesi on de Cauchy en
E es convergente), g : E E una aplicaci on tal que existe un n umero real
k vericando 0 k < 1 y que x, y E es d(g(x), g(y)) kd(x, y) (una tal
aplicaci on se denomina una contracci on de E), entonces existe una unica raz
s de la ecuacion x = g(x) en E, que se obtiene como lmite de una sucesion
x
n
, donde x
0
es un punto cualquiera de E y x
n+1
= g(x
n
) para n 0.
2.2. Ecuaciones no lineales con una variable 25
Ya que si g verica las condiciones (1) y (2) anteriores es una contracci on
en [a, b] y puesto que este intervalo es un cerrado en R es por tanto un espacio
metrico completo con la d(x, y) =[ x y [ y en virtud del teorema citado se
sigue la tesis.
Observaciones:
1. Cuando una funci on verica la condici on (2) del teorema anterior con
k cualquiera (k 0) se dice que es lipschitziana en [a, b] o que verica
una condicion de Lipschitz.
2. Si g es derivable con derivada continua y cumple la condici on:
[ g

(x) [ k < 1 x [a, b] (2

)
entonces, por el teorema del valor medio, g verica la condici on (2) del
teorema anterior.
3. El teorema anterior con la condici on (2) o la (2

) sigue siendo valido si


se sustituye el intervalo [a, b] por cualquier otro intervalo cerrado de R
no necesariamente acotado, I, pues este constituira un espacio metri-
co completo, ya que todo subconjunto cerrado de un espacio metrico
completo es el mismo un espacio metrico completo.
4. Los errores en el paso enesimo vienen dados por
[ x
n
s [
k
1 k
[ x
n
x
n1
[
k
n
1 k
[ x
1
x
0
[
5. El teorema anterior (o sus varaiantes apuntadas) nos dan resultados
de convergencia global pues la aseguran para todo punto inicial x
0
en
el intervalo dado, pero sus condiciones son muy restrictivas, por ello
estamos interesados en resultados de convergencia local como el que
sigue.
Teorema 3 Sea g de clase C
(1)
en alg un intervalo que contenga a un punto
jo s de g. Si [ g

(s) [< 1, existe > 0 tal que x


0
[s , s + ] se tiene
que la sucesion x
n

0
con x
n+1
= g(x
n
)(n 0) converge a s.
Demostracion. Si [ g

(s) [< 1 por continuidad k < 1 tal que [ g

(x) [
k, en un entorno [s , s + ]. Entonces, en dicho entorno se cumple la
condici on (2) del teorema 2 anterior. Para ver que tambien se cumple la
condici on (1), basta con tener en cuenta que si [ x s [ se sigue que
[ g(x)s [=[ g(x)g(s) [ k [ xs [< lo cual implica que g(x) [s, s+]
como queramos demostrar.
26 Captulo 2. Resoluci on numerica de ecuaciones no lineales
Orden de convergencia de un metodo.
Adem as de la convergencia de un metodo dado, se quiere saber si la
sucesi on denida por las iteraciones x
n+1
= g(x
n
) converge rapidamente a la
raz buscada s; es decir como disminuye el error e
n
= x
n
s de una iteraci on
a la siguiente, lo que nos conducir a a la siguiente denicion de orden de un
metodo iterativo.
Denici on 1 Se dice que el metodo x
n+1
= g(x
n
) es convergente de
orden p, con p 1, si lim
n
|e
n+1
|
|e
n
|
p
= k > 0 (siendo 0 < k < 1 si p = 1).
Para estudiar el orden de un metodo, denido por la aplicacion g, si esta
es sucientemente regular, se recurre al desarrollo de Taylor, de modo que si
g C
(k+1)
(I) en un intervalo I que contiene a s se tendra:
e
n+1
= x
n+1
s = g(x
n
) g(s) =
g

(s)e
n
+
1
2
g

(s)e
2
n
+ ... +
g
(k)
(s)
k!
e
k
n
+
g
(k+1)
(
n
)
(k+1)!
e
k+1
n
Por tanto lim
n
|e
n+1
|
|e
n
|
=[ g

(s) [ , luego si 0 <[ g

(s) [< 1 se dice que


el metodo tiene convergencia lineal o de primer orden. Si g

(s) = 0, se
deduce que lim
n
|e
n+1
|
|e
n
|
2
=
1
2
[ g

(s) [ , luego si g

(s) ,= 0 se dice que la


convergencia es cuadratica o de segundo orden. Y, en general, si se
verican las condiciones g

(s) = g

(s) = ... = g
(r1)
(s) = 0 y g
r
(s) ,= 0 el
metodo sera de orden r. Para otros metodos cuyo error no se comporta de
esta forma el orden de convergencia puede no ser entero.
2.2.3. Metodos iterativos particulares de aproximacion
de soluciones
En cada uno de los metodos que se exponen a continuacion, se parte de
una ecuaci on f(x) = 0, con f real continua en [a, b] y tal que f(a)f(b) < 0,
es decir f posee una raz s en [a, b], que supondremos unica.
Metodo de aproximaciones sucesivas.
Aunque los metodos denidos por el teorema 2 anterior son todos metodos
de aproximaciones sucesivas, se suele conocer como tal al metodo que consiste
en pasar de la ecuaci on f(x) = 0 a la ecuaci on equivalente x = x f(x) =
g(x). Ahora bien si f y f

son continuas tambien lo seran g y g

, y para tener
convergencia, al menos, local del metodo iterativo
x
0
dado
x
n+1
= x
n
f(x
n
)
2.2. Ecuaciones no lineales con una variable 27
es preciso, de acuerdo con el teorema 3, que si s es la raz buscada se tenga
[ g

(s) [=[ 1 f

(s) [< 1 o equivalentemente 0 < f

(s) < 2. Puesto que esta


condici on es muy restrictiva, a veces suele introducirse una funcion real no
nula (x) de la manera siguiente
x
n+1
= x
n

f(x
n
)
(x
n
)
En particular si (x
n
) = es constante se tiene que g

(s) = 1
f

(s)

con
lo cual basta con elegir para que [ 1
f

(s)

[< 1; ademas, de acuerdo


con el apartado anterior si g

(s) = 1
f

(s)

,= 0 el metodo correspondiente
tendr a convergencia lineal o de orden uno.
Metodo de Lagrange.
El metodo de Lagrange, tambien conocido como metodo de las partes
proporcionales o regula falsi, consiste basicamente en reemplazar la gr aca
de f restringida al intervalo [a, b] por la recta pasando por los puntos extremos
A(a, f(a)) y B(b, f(b)), es decir se sustituye la funci on f por un polinomio
de grado uno p(x) y se resuelve la ecuaci on p(x) = 0; el punto de intersecci on
de la recta AB con el eje de las x esta dado por
x
1
= a f(a)
ba
f(b)f(a)
=
af(b)bf(a)
f(b)f(a)
Seguidamente se calcula f(x
1
) y se determina en cual de los dos intervalos
[a, x
1
] o [x
1
, b] esta la raz buscada s, suponiendo que s [a, x
1
], entonces
se puede volver a aplicarar el mismo procedimiento cambiando b por x
1
,
obteniendose
x
2
= a f(a)
x
1
a
f(x
1
)f(a)
=
af(x
1
)x
1
f(a)
f(x
1
)f(a)
En general, si esto es posible en cada paso, se tendra el siguiente algoritmo
x
0
= b
x
n+1
= g(x
n
)
con g denida por la expresi on
g(x) = a f(a)
xa
f(x)f(a)
=
af(x)xf(a)
f(x)f(a)
Con objeto de dar condiciones sucientes de convergencia local, suponga-
mos que f(x) es derivable, entonces para el algoritmo obtenido ser a g

(s) =
f(a)+(sa)f

(s)
f(a)
y si f es de clase C
(2)
en un intervalo que contenga al [a, s]
entonces desarrollando por Taylor se tiene f(a) = f

(s)(a s) +
f

(c)
2
(a s)
2
28 Captulo 2. Resoluci on numerica de ecuaciones no lineales
con a < c < s (pues f(s) = 0), luego una condicion suciente para que haya
convergencia local, en general de primer orden o lineal es que se verique
[ g

(s) [=[
f

(c)(as)
2
2f(a)
[< 1.
Ejercicio. En el supuesto anterior, el punto inicial es el extremo b, pero
podra darse el caso de que el punto inicial fuera el extremo a, obtener los
algoritmos correspondientes para todos los casos posibles partiendo de fun-
ciones f de clase C
(2)
vericando condiciones analticas para que sus gr acas
en el intervalo [a, b] tengan las formas que se indican a continuaci on.
Metodo de Newton-Raphson.
Si f(x) = 0 posee una raz en el punto s del intervalo [a, b], la idea de este
metodo consiste en reemplazar la curva f(x) por la recta tangente a la misma
en uno de sus puntos extremos. En el caso de la gura, se tiene interes en
tomar la tangente en b, cuya ecuaci on est a dada por y f(b) = f

(b)(x b)
y su interseccion con el eje OX est a dada por
x
1
= b
f(b)
f

(b)
que representa un valor aproximado de s. Si ahora volvemos a trazar la
tangente por el punto de abscisa x
1
y cortamos con el eje OX se obtiene la
segunda aproximaci on de la raz en la forma
x
2
= x
1

f(x
1
)
f

(x
1
)
Reiterando este modo de proceder, obtenida la aproximaci on n-sima se ob-
tiene la (n+1)-sima mediante el algoritmo siguiente
x
0
= b , x
n+1
= x
n

f(x
n
)
f

(x
n
)
(n 0)
o tambien
x
0
= b , x
n+1
= g(x
n
) (n 0)
con
g(x) = x
f(x)
f

(x)
El metodo estara bien denido para x
n
pr oximo a s con la condicion f

(s) ,= 0;
es decir s es un cero simple de f, pues si f

(s) ,= 0, siendo f

continua y x
n
sucientemente pr oximo a s se tendra f

(x
n
) ,= 0.
Otra forma de deducir este metodo es la siguiente; dada la ecuaci on
f(x) = 0 pasemos a la ecuaci on equivalente
2.2. Ecuaciones no lineales con una variable 29
x = x
f(x)
(x)
= g(x)
con (x) ,= 0; ahora si dichas funciones son derivables, se tendr a
g

(x) = 1
f

(x)(x)

(x)f(x)
(x)
2
y si s es una raz de de f(x) = 0 obtendremos g

(s) = 1
f

(s)
(s)
, por tanto
siempre que (x) verque (s) = f

(s) la convergencia del metodo x


n+1
=
g(x
n
) ser a cuadr atica, por lo que basta con tomar (x) = f

(x), si f

(x), no
se anula para que el metodo
x
n+1
= x
n

f(x
n
)
f

(x
n
)
(n 0)
tenga convergencia, al menos, cuadr atica.
Seguidamente, damos sendos resultados relativos a la convergencia local
y global del metodo.
Teorema 4 (Teorema de convergencia local) Sea f

continua y f

no
nula en alg un intervalo abierto que contenga la raz s de f(x) = 0. Entonces,
existe > 0 tal que el metodo de Newton es convergente para todo x
0
tal
que [ x
0
s [ . Si ademas f

es continua la convergencia es, al menos,


cuadratica.
Teorema 5 (Teorema de convergencia global-1) Sea f C
(2)
([a, b])
vericando:
1. f(a) f(b) < 0
2. x [a, b] es f

(x) ,= 0 (monotona estricta)


3. x [a, b] es f

(x) 0 (o x [a, b] es f

(x) 0, concavidad en el
mismo sentido)
Entonces, existe una unica raz s de f(x) = 0 en [a, b] y la sucesion x
n

0
,
denida por el algoritmo del metodo de Newton converge, hacia s para todo
x
0
[a, b] tal que f(x
0
)f

(x
0
) 0. Si ademas f C
(3)
([a, b]) la convergencia
es, al menos, cuadratica.
Teorema 6 (Teorema de convergencia global-2) Sea f C
(2)
([a, b])
vericando:
1. f(a) f(b) < 0
2. x [a, b] es f

(x) ,= 0 (monotona estricta)


30 Captulo 2. Resoluci on numerica de ecuaciones no lineales
3. x [a, b] es f

(x) 0 (o x [a, b] es f

(x) 0, concavidad en el
mismo sentido)
4. m ax [
f(a)
f

(a)
[, [
f(b)
f

(b)
[ b a
Entonces, existe una unica raz s de f(x) = 0 en [a, b] y la sucesion x
n

0
,
denida por el algoritmo del metodo de Newton converge, hacia s para todo
x
0
[a, b]. Si ademas f C
(3)
([a, b]) la convergencia es, al menos, cuadrati-
ca.
2.2.4. Aceleracion de la convergencia. El metodo
2
de Aitken
Para el metodo de aproximaciones sucesivas y el de Lagrange, as como
para cualquier otro metodo de orden uno, los errores de las aproximaciones
sucesivas de la raz buscada verican
e
n+1
= (A +
n
)e
n
con A = g

(s), 0 <[ A [< 1 y lim


n

n
= 0
Si se supone que
n
= 0, entonces se tiene
x
n+1
s = A(x
n
s)
x
n+2
s = A(x
n+1
s)
por tanto, restando a la segunda la primera, deducimos x
n+2
x
n+1
=
A(x
n+1
x
n
), de donde resulta
A =
x
n+2
x
n+1
x
n+1
x
n
luego de la primera de las ecuaciones anteriores se deduce
s =
1
1A
(x
n+1
Ax
n
) = x
n
+
1
1A
(x
n+1
x
n
)
y sustituyendo A por su valor, nalmente, se obtiene
s = x
n

(x
n+1
x
n
)
2
x
n+2
2x
n+1
+x
n
Es decir bajo la hip otesis de que el metodo sea de orden uno y con
n
= 0, se
obtiene la solucion exacta con s olo tres iteraciones sucesivas. Ahora bien, en
el caso de un metodo de primer orden para el que
n
,= 0, pero sea peque no en
comparaci on con A en el entorno del lmite, se puede preveer que la sucesi on
x

n
denida por
x

n
= x
n

(x
n+1
x
n
)
2
x
n+2
2x
n+1
+ x
n
= x
n

(x
n
)
2

2
x
n
sea una mejor aproximaci on de s que x
n
, y eso es precisamente lo que arma
el teorema siguiente, que damos sin demostracion.
2.3. Ecuaciones polinomiales 31
Teorema 7 Si x
n
es una sucesion que converge hacia s, con convergencia
de orden uno, entonces la sucesion x

n
denida anteriormente converge a
s mas rapidamente, es decir que
lim
n
x

n
s
x
n
s
= 0
Se conoce como metodo de aceleracion de la convergencia
2
de Aitken.
Ejercicio. Aproximar la unica raz de la ecuaci on f(x) = x
3
x1 = 0 en
el intervalo [1, 2] con error menor que 5 10
6
por los metodos de bipartici on,
Lagrange, Lagrange acelerado y Newton.
2.3. Ecuaciones polinomiales
Los metodos anteriormente expuestos son aplicables a la resoluci on de
ecuaciones polinomicas p(x) = 0, siendo
p(x) = a
0
x
n
+ a
1
x
n1
+ + a
n1
x + a
n
= 0 con a
i
R y a
0
,= 0
pero hay diversas peculiaridades relativas a la evaluaci on de polinomios y
sus derivadas, as como a la acotacion de sus races, que por su eciencia
pasamos a relatar. En particular, para evaluar un polinomio es util escribirlo
en la forma anidada
p(x) = a
n
+ x(a
n1
+ x(a
n2
+ + x(a
0
) . . . )) con a
i
R y a
0
,= 0
Ahora bien, el algoritmo
p
0
(x) = a
0
p
k
(x) = a
k
+ xp
k1
(x) (k = 1, 2, . . . , n)
nos da
p
k
(x) = a
k
+ a
k1
x + + a
0
x
k
(k = 1, 2, . . . , n)
resultando, en particular, que p
n
(x) = p(x); se conoce como algoritmo de
Horner, para evaluar un polinomio de grado n se requieren por este metodo
un total de 2n operaciones (n sumas y n multiplicaciones), en tanto que por el
metodo ordinario seran necesarias 3n1 operaciones (2n1 multiplicaciones
y n sumas).
32 Captulo 2. Resoluci on numerica de ecuaciones no lineales
2.3.1. Acotacion de las races de una ecuaci on polin omi-
ca
En general, dada una ecuaci on f(x) = 0, se dice que el n umero real L
es una cota superior de sus races reales si para toda raz real r de dicha
ecuaci on se verica que r L. An alogamente se dice que el n umero real
l es una cota inferior de sus races si verica que l r. Y se dice que
se han acotado sus races reales si se ha determinado un intervalo [l, L]
que las contiene a todas. Si se admite la posibilidad de races complejas, se
dir a que se han acotado si existe M 0 tal que [ r [ M para toda raz r
de f(x) = 0. Veamos algunos resultados sencillos de acotaci on de races de
ecuaciones polinomicas.
Teorema 8 Sea la ecuacion polinomica p(x) = a
0
x
n
+a
1
x
n1
+ +a
n1
x+
a
n
= 0 con a
0
,= 0, entonces si = m ax[
a
i
a
0
[[ 1 i n, toda raz de
p(x) = 0 verica que [ r [ + 1. Es decir todas las races de la ecuacion
estan contenidas en el crculo de radio + 1.
Demostraci on. Si r es una raz de dicha ecuaci on, entonces se tiene
a
0
r
n
+ a
1
r
n1
+ + a
n1
r + a
n
= 0 de donde se deduce que
[ r [
n
=[
a
1
a
0
r
n1
+ +
a
n1
a
0
r +
a
n
a
0
[ ([ r [
n1
+ + [ r [ +1) =
|r|
n
1
|r|1
Si siendo r raz fuese [ r [> + 1 se tendra que [ r [ 1 > o equivalen-
temente
1
|r|1
<
1

y entonces cumplira [ r [
n
<
|r|
n
1

=[ r [
n
1 lo cual es
absurdo, por tanto para toda raz r se debe vericar que [ r [ + 1, como
queramos demostrar.
Ejercicio. Acotar las races de la ecuaci on f(x) = x
3
x 1 = 0.
2.3.2. Determinaci on de cotas superiores de las races
reales de una ecuaci on polin omica
Veamos brevemente tres metodos para obtener una cota superior L de las
races reales de una ecuaci on polinomica. Puesto que las ecuaciones f(x) = 0
y f(t) = 0 tienen races opuestas, si L

es una cota superior de las races


de f(t) = 0 entonces l = L

es una cota inferior de las races reales


de f(x) = 0, en consecuencia si sabemos hallar una cota superior tambien
sabemos obtener una cota inferior.
1. (Laguerre-Thibault) Si L 0 y en la divisi on de p(x) por x L
son no negativos todos los coecientes del cociente y tambien el resto,
entonces L es una cota superior de las races reales de p(x).
2.4. Sistemas no lineales. Metodo de Newton para sistemas 33
Demostracion. En efecto, p(x) = p(L)+(xL)(b
0
x
n1
+ +b
n2
x+
b
n1
) y si p(L) 0 y b
i
0 (i = 0, 1, . . . , n 1), entonces para todo
x > L 0 real resulta ser p(x) > 0 y x no puede ser raz, de donde se
sigue el resultado.
2. Newton Si p(L) 0, p

(L) 0, . . . , p
(n)
(L) 0 entonces L es una cota
superior de las races reales de p(x) = 0.
Demostracion. Puesto que p(x) = p(L) + p

(L)(x L) +
p

(L)
2!
(x
L)
2
+ +
p
(
n)(L)
n!
(x L)
n
, entonces para todo x > L 0 real resulta
p(x) > 0, luego L es una cota superior de las races reales.
3. Metodo de agrupacion de terminos. Supongamos la ecuaci on or-
denada y con el primer coeciente a
0
positivo (si fuera necesario mul-
tiplicamos por -1), seguidamente agrupemos los terminos de la misma
de manera que cada grupo empiece por un termino con coeciente po-
sitivo y no presente mas que una variaci on de signo, supongamos que
para un cierto
0
> 0 el primero de dichos grupos es positivo, entonces
tambien lo es para todo x >
0
, si designamos por L al mayor de los
valores
i
que corresponden a cada grupo, entonces todos los grupos
son positivos para x L, o sea no hay races reales mayores que L, y
por tanto L es una cota superior de sus races reales.
Ejercicio. Dada la ecuaci on p(x) = x
7
2x
6
+x
5
x
4
+2x
3
3x
2
+7x1 =
0, se pide acotar sus races y obtener (utilizando alguno de los metodos
anteriores) cotas superiores e inferiores de sus races reales.
2.4. Sistemas no lineales. Metodo de Newton
para sistemas
Vamos a restringirnos a sistemas de dos ecuaciones con dos inc ognitas,
aunque para el caso general de n ecuaciones con n inc onitas estos metdos se
generalizan sin dicultad alguna.
2.4.1. Metodo de iteraci on simple en varias variables
Para jar ideas sea un sistema de dos ecuaciones con dos incognitas
f
1
(x
1
, x
2
) = 0
f
2
(x
1
, x
2
) = 0
34 Captulo 2. Resoluci on numerica de ecuaciones no lineales
lo escribimos en forma equivalente como
x
1
= g
1
(x
1
, x
2
)
x
2
= g
2
(x
1
, x
2
)
con lo cual el problema se traduce en buscar un punto jo de la transforma-
ci on y = g(x) denida por
y
1
= g
1
(x
1
, x
2
)
y
2
= g
2
(x
1
, x
2
)
Teorema 9 Sea I un cerrado de R
2
tal que
i) g(x) I, x I
ii) |g(x) g(y)| L | x y |, x, y I con 0 L < 1
Entonces, para todo x
(0)
= (x
(0)
1
, x
(0)
2
) I, la sucesion x
(m)

0
= (x
(m)
1
, x
(m)
2
)

0
denida por x
(m+1)
= g(x
(m)
) o tambien
x
(m+1)
1
= g
1
(x
(m)
1
, x
(m)
2
)
x
(m+1)
2
= g
2
(x
(m)
1
, x
(m)
2
)
converge a la unica solucion s = (s
1
, s
2
)) del sistema de ecuaciones
x
1
= g
1
(x
1
, x
2
)
x
2
= g
2
(x
1
, x
2
)
Ademas, para todo m 1 se tiene |x
(m)
s|
L
m
1L
| x
(1)
x
(0)
| .
Demostraci on. Es una consecuencia del teorema de la aplicaci on con-
tractiva de un espacio metrico completo.
2.4.2. El metodo de Newton para sistemas
Dado el sistema
f
1
(x
1
, x
2
) = 0
f
2
(x
1
, x
2
) = 0
con f(x
1
, x
2
) = (f
1
(x
1
, x
2
), f
2
(x
1
, x
2
)) de clase C
(2)
en un entorno de la raz
buscada s = (s
1
, s
2
) y con jacobiano inversible en s, pasamos al sistema
equivalente
x
1
= g
1
(x
1
, x
2
)
x
2
= g
2
(x
1
, x
2
)
2.5. Problemas y trabajos propuestos 35
donde ahora es g(x) = x J
1
f
(x)f(x). El metodo denido por esta g se
denomina metodo de Newton para sistemas, es localmente convergente
con convergencia de segundo orden y viene dado por el algoritmo
x
(m+1)
= x
(m)
J
1
f
(x
(m)
)f(x
(m)
)
La aplicaci on de este metodo requiere que J
f
(x
(m)
) sea inversible para
todo m y en la pr actica se suele presentar en la forma
J
f
(x
(m)
)(x
(m+1)
x
(m)
) = f(x
(m)
)
y llamando
(m)
= x
(m+1)
x
(m)
, el metodo consiste en
Hallar
(m)
vericando J
f
(x
(m)
)
(m)
= f(x
(m)
)
y obtener x
(m+1)
= x
(m)
+
(m)
Ejercicio. Haced un par de iteraciones por el metodo de Newton para apro-
ximar la raz del sistema
x
3
3xy
2
+ 1 = 0
3x
2
y y
3
= 0
partiendo del punto inicial (x
0
, y
0
) = (1, 1) (la solucion exacta es s
1
=
1
2
y
s
2
=

3
2

= 0,866025).
2.5. Problemas y trabajos propuestos
Problemas propuestos:
1. Utilizar el metodo de biseccion para encontrar una soluci on aproxima-
da, con error menor que 10
2
en [4, 4,5], de la ecuaci on x = tan x.
2. Probar que la ecuacion xcosx = 0 tiene una unica raz. Considerar el
esquema iterativo: tomar x
0
arbitrario y calcular x
k+1
= cos(x
k
) (k =
0, 1, 2, . . . ), probar su convergencia.
3. Utilizando el metdo iterativo del punto jo, encontrar una raz proxima
a x
0
= 0 de la ecuaci on 2
x
5x +2 = 0, trabajar con cuatro decimales
redondeados e iterar hasta que [ x
i
x
i1
[< 0,00005.
4. Realizar dos iteraciones con el metodo de Lagrange para aproximar la
raz de 2x
3
+x2 = 0 en el intervalo [0, 1], utilizando cuatro decimales
redondeados en cada iteraci on.
36 Captulo 2. Resoluci on numerica de ecuaciones no lineales
5. Sean m R y [ [< 1, probar que la ecuaci on x = m senx tiene
una unica soluci on en el intervalo [m, m+] y proponer un metodo
iterativo para aproximarla.
6. Aplicar el metodo de bisecci on a la funci om f(x) = x
3
17 para deter-
minar la raz c ubica de 17 con error menor que 10
2
, iniciar los c alculos
en el intervalo [2, 3]. Asimismo, aproximarla utilizando un metodo ite-
rativo adecuado y el metodo de Newton.
7. Para la ecuacion 3x +senx e
x
= 0, utilizando el metodo de Newton,
aproximar la raz pr oxima a x
0
= 0, redondeando los c alculos a cinco
cifras signicativas e iterando hasta que [ x
i
x
i1
[< 0,001.
8. Acotar las races reales de la ecuacion x
4
+ 2x
3
7x
2
+ 3 = 0, y de-
terminar su n umero. Calcular con error menor que 5 10
6
, mediante
el metodo de Newton, una de sus races positivas (justicando todos
los extremos del teorema que garantice la convergencia del metodo).
Comprobar el orden de convergencia del metodo de Newton en este
caso.
9. Probar que la ecuaci on f(x) = e
x
3x
2
= 0 posee tres races reales
distintas, aproximar la mayor de ellas utilizando el metodo de New-
ton, la menor mediante el metodo de Lagrange y la intermedia por
un metodo convergente ideado por vosotros, realizando cuatro pasos y
estimando el error correspondiente a la cuarta iteraci on; justcar los
procedimientos utilizados.
10. Sea f(x) una funcion de clase C
(3)
con una unica raz simple en el
intervalo [c, d]; determinar unas funciones a(x) y b(x) de modo que el
metodo:
x
n+1
= x
n
+ a(x
n
)f(x
n
) + b(x
n
)f(x
n
)
2
(n = 0, 1, 2, . . . )
sea al menos de tercer orden.
11. Dada la expresion
g(x) = x
f(x)
f

(x)
+ h(x)(
f(x)
f

(x)
)
2
Se pide elegir h(x) para que la iteracion denida por g(x) converja
c ubicamente a una solucion de f(x) = 0. Aplicar dicha iteraci on para
aproximar la

10, partiendo del extremo de [3, 4] para el que se puede


asegurar la convergencia del metodo de Newton; realizar tres iteracio-
nes.
2.5. Problemas y trabajos propuestos 37
12. Realizar al menos una iteracion con el metodo de Newton para sistemas,
a n de aproximar la raz del sistema
x x
2
y
2
= 0
y x
2
+ y
2
= 0
pr oxima a x
0
= 0,8, y
0
= 0,4.
13. Con el metodo de Newton para sistemas, realizar dos iteraciones a n
de aproximar la raz del sistema
x
2
10x + y
2
+ 8 = 0
xy
2
+ x 10y + 8 = 0
partiendo del punto (0, 0).
Trabajos propuestos:
Variantes del metodo de Newton-Raphson. Metodo de la secante.
Sucesiones de Sturm y aplicaci on a la separaci on de races reales, caso
de las ecuaciones polin omicas.
Metodos numericos especiales para ecuaciones polinomicas: metodo de
Bairstow.
Ecuaciones en diferencias y metodo de Bernoulli para el c alculo de la
raz dominante de un polinomio.
Variantes del metodo de Newton para sistemas no lineales.
Captulo 3
Resoluci on numerica de
sistemas lineales. Problemas de
valores propios
3.1. Introducci on. Normas vectoriales y ma-
triciales
Los metodos de resolucion de sistemas lineales Ax = b los podemos cla-
sicar en directos (que persiguen obtener la solucion exacta en un n umero
nito de pasos, como por ejemplo los metodos de Kramer, Gauss, LU, Cho-
lesky, etc.) e iterativos (en los que se parte de unos valores aproximados
iniciales y a partir de ellos se van obteniendo valores cada vez m as aproxi-
mados de la solucion x = A
1
b, ejemplos de tales metodos son los de Jacobi,
Gauss-Siedel, relajacion, etc.).
Para unos y otros se dene la estabilidad numerica como la sensibi-
lidad del metodo utilizado respecto a peque nas perturbaciones o errores en
los datos. Seguidamente damos las deniciones de normas vectoriales y ma-
triciales que nos permitir an dar resultados sobre convergencia y acotaci on de
errores en unos y otros.
Denici on 2 Sea V un espacio vectorial real o complejo, una norma sobre
V es una aplicacion | |: V R vericando las propiedades siguientes:
1. x V es | x | 0 y | x |= 0 x = 0
2. x V y K es | x |=[ [| x | (K es el cuerpo de los n umeros
reales o complejos).
3. x, y V es | x + y | | x | + | y |
39
40 Captulo 3. Resoluci on numerica de sistemas lineales
Ejemplos de normas en R
n
y C
n
son | x |
p
= (

n
i=1
[ x
i
[
p
)
1
p
para 1
p < y | x |

= m ax
1in
[ x
i
[ (denominada norma del supremo); casos
especialmente interesantes son los relativos a p = 1 y p = 2 dados por
| x |
1
= (

n
i=1
[ x
i
[) y | x |
2
= (

n
i=1
[ x
i
[
2
)
1
2
= x
t
x, aqu x denota la
matriz columna con las mismas componentes que el vector x, en tanto que x
t
es su matriz traspuesta es decir la matriz la con las mismas componentes que
x (esta es la norma eucldea). Se puede probar que en los espacios vectoriales
de dimensi on nita sobre el cuerpo K, de los n umeros reales o complejos,
todas las normas son equivalentes, en el sentido de que denen los mismos
abiertos con la distancia asociada a la norma denida por d(x, y) =| xy |.
Denici on 3 Sobre el espacio vectorial de las matrices cuadradas de orden
n reales o complejas M
n
(K), una norma se dice que es una norma matri-
cial si ademas de las tres propiedades anteriores verica la siguiente:
A, B M
n
(K) es | AB | | A | | B |
Denici on 4 Una norma vectorial | |
V
sobre K
n
y una norma matricial
| |
M
sobre M
n
(K) se dicen compatibles si se verica la siguiente propie-
dad:
A M
n
(K) y x K
n
es | Ax |
V
| A |
M
| x |
V
El teorema siguiente , que enunciamos pero cuya demostracion no hare-
mos, nos dice como construir una norma matricial compatible con una norma
vectorial dada.
Teorema 10 Si | |
V
es una norma vectorial sobre K
n
y A M
n
(K)
denimos | A |= m ax
x
V
=1
| Ax |
V
, entonces | | es una norma matricial
compatible con | |
V
. Se denomina norma inducida o subordinada por
| |
V
.
3.1.1. Normas matriciales inducidas
Las normas matriciales inducidas por | |
1
, | |
2
y | |

que indicamos
por los mismos smbolos resultan ser:
| A |
1
= max
j

n
i=1
[ a
ij
[ (o sea es el m aximo de las normas subuno
de los vectores columna de la matriz dada).
| A |
2
= (A

A)
1
2
(se llama norma espectral, donde A

= A
t
es la
denominada matriz asociada de A que es la traspuesta de su matriz
conjugada, si A fuese real su asociada sera simplemente su traspuesta).
Conviene recordar que el radio espectral de una matriz M, (M) =
m ax
1in
[
i
[ tal que
i
es valor propio de A.
3.1. Introducci on. Normas vectoriales y matriciales 41
| A |

= m ax
i

n
j=1
[ a
ij
[ (o sea es el m aximo de las normas subuno
de los vectores la de la matriz dada).
3.1.2. N umero de condici on de una matriz
Denici on 5 Con respecto a la resolucion de sistemas lineales Ax = b, si
la matriz A es inversible, se denomina n umero de condicion (o con-
dicionamiento) de dicha matriz respecto a una norma matricial dada al
n umero
k(A) = |A||A
1
|
Cuando A no es inversible se dene k(A) = . Es facil probar que siempre
se cumple k(A) 1, cuando es k(A) = 1 se dice que A esta perfectamente
condicionada.
Analisis de errores.
Sea Ax = b un sistema lineal, si se perturba la matriz de terminos inde-
pendientes del sistema con b, la nueva soluci on sera x +x, veric andose
A(x +x) = b +b
Entonces, se tendr a Ax = b o tambien x = A
1
b y tomando cualquier
norma vectorial y su norma matricial inducida resultar a
|x| |A
1
||b|
lo que nos da una acotacion del error absoluto x. Si se desea obtener una
acotaci on del error relativo en x debido a la perturbaci on de los terminos
independientes b, basta con escribir
|x| |A
1
||b| = |A
1
||Ax|
b
b
|A
1
||A||x|
b
b
resultando
x
x
|A||A
1
|
b
b
= k(A)
b
b
es decir que el error relativo en x es menor o igual que k(A) veces el error
relativo en b.
Si el n umero de condici on es grande se dice que la matriz est a mal con-
dicionada y la soluci on puede ser muy sensible con respecto a peque nos
cambios en los terminos independientes, en caso contrario se dice bien con-
dicionada.
En general si se perturban tanto la matriz de coecientes como los termi-
nos independientes con A y b resulta una soluci on x +x que cumple
42 Captulo 3. Resoluci on numerica de sistemas lineales
(A +A)(x +x) = b +b
y se puede probar el siguiente teorema.
Teorema 11 Si |A| <
1
A
1

entonces, usando normas vectoriales y ma-


triciales compatibles, se verica
x
x

k(A)I
1k(A)
A
A
(
A
A
+
b
b
)
Que nos da una acotaci on del error relativo de la soluci on en estas condicio-
nes.
Ejercicios. Se pide resolver los siguientes:
Calcular las normas | |
1
y | |

de la matriz
_
_
1 2 0
0 2 2
3 5 4
_
_
.
Para una matriz ortogonal A, obtener | A |
2
.
Sea f la funci on de la forma f(x) = Ax
12
+ Bx
13
, vericando que
f(0,1) = 6,06 10
13
y f(0,9) = 0,03577. Determinar A y B, y evaluar
la sensibilidad de estos parametros respecto de peque nos cambios en
los valores de f.
3.2. Metodos directos de resoluci on de siste-
mas lineales
Teorema 12 En general, dado un sistema Ax = b de m ecuaciones li-
neales con n incognitas, si a la matriz ampliada (A, b)
m(n+1)
le efectuamos
operaciones elementales de las (lo cual equivale a multiplicar por matrices
regulares de orden m a izquierda), se obtiene una nueva matriz ampliada
(A, b)
m(n+1)
; entonces x
0
es solucion del sistema Ax = b si y solo si es
solucion del sistema Ax = b.
Demostraci on. En efecto, puesto que (A, b) = M
p
M
1
(A, b) =
(MA, Mb), siendo M = M
p
M
1
una matriz regular por ser producto
de un n umero nito de matrices regulares, se sigue que x
0
es soluci on de
Ax = b Ax
0
= b MAx
0
= Mb Ax
0
= b x
0
es soluci on de Ax = b.
Este metodo de resoluci on de sistemas de ecuaciones lineales se conoce como
metodo de eliminaci on.
3.2. Metodos directos de resoluci on de sistemas lineales 43
Observaci on. Dado que todo sistema de ecuaciones lineales con coe-
cientes complejos es equivalente a un sistema de doble n umero de ecuaciones
e incognitas con coecientes reales, consideraremos en lo que sigue tan s olo
sistemas lineales con coecientes reales.
Seguidamente veamos como resolver f acilmente sistemas triangulares y
luego como llevar un sistema lineal dado a forma triangular.
3.2.1. Sistemas triangulares
Consideremos un sistema compatible determinado de la forma
_
_
_
_
_
a
11
a
12
. . . a
1n
0 a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
nn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
=
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
Es evidente que de la ultima ecuaci on resulta x
n
= b
n
/a
nn
, este valor se
puede sustituir en la pen ultima ecuaci on y de ah despejar x
n1
y reiterando
el proceso se obtiene f acilmente la soluci on. El c alculo de cualquier incognita
viene dado por el algorimto
x
n
= b
n
/a
nn
x
i
= (b
i

n
j=i+1
a
ij
x
j
)/a
ii
(i = n 1, . . . 2, 1)
este c alculo es f acil y rapido de realizar con ordenador. El costo compu-
tacional de esta resoluci on se puede ver que asciende a n
2
operaciones (entre
sumas, productos y divisiones).
3.2.2. Eliminacion gaussiana: el metodo de Gauss y sus
variantes
El metodo de Gauss.
Sea un sistema Ax = b compatible determinado, es decir tal que [ A [, = 0,
el metodo de Gauss consiste en llevar el sistema a forma triangular superior,
produciendo ceros en la matriz de coecientes por debajo de la diagonal,
realizando siempre operaciones elementales de las. Recordemos que hay tres
operaciones elementales de las, a saber intercambiar dos las entre s (por
ejemplo la la i por la la j), multiplicar una la por un escalar no nulo
(por ejemplo multiplicar todos los elementos de la la i por el n umero ,
siendo ,= 0) y a nadir a una la otra diferente multiplicada por un n umero
cualquiera (por ejemplo sumar a la la i la j multiplicada por un escalar ).
44 Captulo 3. Resoluci on numerica de sistemas lineales
F acilmente se prueba que cada una de estas operaciones equivale a multiplicar
por una matriz elemental a izquierda, as la primera equivale a multiplicar
por la matriz de permutacion P
ij
obtenida al intercambiar las las i y j
de la matriz identidad, la segunda equivale a multiplicar a izquierda por la
matriz diagonal P
i
() con unos en la diagonal, salvo el elemento a
ii
= ,= 0
y la tercera equivale a multiplicar a izquierda por la matriz P
ij
() cuyos
elementos elementos de la diagonal son iguales a 1 y los restantes nulos , salvo
el a
ij
= , adem as es obvio que estas matrices son regulares o inversibles,
luego su producto tambien lo es.
Para comenzar a describir el metodo, llamemos A
(1)
= A y b
(1)
= b; as,
partiendo de A
(1)
x = b
(1)
realizamos las operaciones elementales de las para
ir obteniendo los sistemas equivalentes: A
(1)
x = b
(1)
, . . . , A
(k)
x = b
(k)
(k =
1, 2, . . . , n), donde A
(k)
tiene nulos los elementos por debajo de la diagonal
en las k 1 primeras columnas, de esta forma obtendremos en n 1 pasos
un sistema A
(n)
x = b
(n)
donde A
(n)
es una matriz triangular superior, que se
resolvera por el algortimo indicado en la seccion anterior.
Veamos con m as precisi on el primer paso a realizar para pasar del sistema
A
(1)
x = b
(1)
al A
(2)
x = b
(2)
, se pueden dar dos casos:
1. Si a
(1)
11
,= 0 a la la i le sumamos la primera multiplicada por
a
(1)
i1
a
(1)
11
y
esto para cada i = 2, 3, . . . , n.
2. Si a
(1)
11
= 0, se busca la primera la cuyo elemento de la primera columna
sea distinto de cero y se intercambia con la primera la mediante una
permutaci on de las, as estarammos en el caso anterior y se procedera
como se ha descrito en el apartado 1 anterior.
Asimismo, el paso general del sistema A
(k)
x = b
(k)
al A
(k+1)
x = b
(k+1)
se
puede expresar como sigue:
1. Si a
(k)
kk
= 0 se permuta esta la con la primera la posterior cuyo ele-
mento de la columna k sea no nulo, se obtiene as una matriz equivalente

A
(k)
= P
kt
k
A
(k)
siendo t
k
= mnt k [ a
(k)
tk
,= 0,
tambien hacemos

b
(k)
= P
kt
k
b
(k)
seguidamente, a las las posteriores a la k le sumamos la la k multipli-
cada por
a
(k)
ik
a
(k)
kk
y esto para cada i = k + 1, . . . , n, todo lo cual equivale
a hacer
A
(k+1)
= M
(k)

A
(k)
y b
(k+1)
= M
(k)

b
(k)
3.2. Metodos directos de resoluci on de sistemas lineales 45
siendo
M
(k)
=
_
_
_
_
_
_
_
_
_
_
_
1 0 . . . 0 0 . . . 0
0 1 . . . 0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 0 . . . 0
0 0 . . . m
k+1,k
1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . m
n,k
0 . . . 1
_
_
_
_
_
_
_
_
_
_
_
la denominada matriz de Frobenius, con unos en la diagonal, con ele-
mentos signicativos en la columna k bajo la diagonal denidos por
m
ik
=
a
(k)
ik
a
(k)
kk
(i = k + 1, . . . , n) y siendo nulos los restantes elementos.
El efecto de multiplicar por esta matriz es el de sacar ceros por debajo
de la diagonal en la columna k.
2. Si a
(k)
kk
,= 0 entonces t = k y P
kt
k
= I no siendo necesario el intercambio
de las y quedando

A
(k)
= A
(k)
y

b
(k)
= b
(k)
.
El elemento a
(k)
kk
se llama pivote, y el hecho de gurar en el denominador
puede acarrear errores de truncaminento grandes al tratar la ecuaci on por
ordenador, por ello hace falta un metodo mas estable de elegir dicho pivote en
cada paso del metodo, las estrategias de eleccion de pivote m as usuales
son las siguientes:
a) Pivote parcial. Esta estrategia consiste en elegir la la t
k
a intercambiar
con la k de manera que [ a
(k)
t
k
k
[= m ax[ a
(k)
tk
[ [t k, es decir consiste
en elegir para intercambiar con la la k no la primera la posterior a la
k con elemento de la columna k no nulo, sino la que tiene dicho elemen-
to con m odulo m aximo, a un as puede ocurrir que, en alg un caso, este
metodo tambien de errores apreciables, por ello puede ser necesario usar
la siguiente estrategia.
b) Pivote total. En este caso, se elige como pivote el elemento [ a
(k)
t
k
s
k
[=
m ax[ a
(k)
ts
[ [k t, s n, el problema en este caso es que pueden
cambiarse las columnas y, por tanto, las inc ognitas y esto ha de tenerse
encuenta.
Nota informativa. El metodo de Gauss puede llevarse a acabo de modo
estable sin intercambio de las para matrices estrictamente diagonal domi-
nantes y para matrices simetricas denidas positivas.
46 Captulo 3. Resoluci on numerica de sistemas lineales
Observaci on. Si dado el sistema Ax = b con [ A [, = 0, puede aplicarse
el metodo de Gauss sin permutaciones de las, entonces se tiene que A
(n)
=
M
(n1)
M
(n2)
M
(1)
A, pero la inversa de cada matriz de Frobenius es
otra del mismo tipo con los elementos de la columna k por debajo de la
diagonal opuestos de los de la matriz de partida, si despejamos la matriz
A en la f ormula anterior, se tendr a A = M
(1)1
M
(n1)1
A
(n)
= LU,
siendo L = M
(1)1
M
(n1)1
una matriz triangular inferior con unos en la
diagonal y U = A
(n)
una matriz triangular superior con elementos diagonales
no nulos, pues [ A [=[ U [. En denitiva A se ha factorizado en la forma
A = LU, donde L es una matriz triangular inferior y U triangular superior.
En todo caso si [ A [, = 0 hay una reordenacion de las las de A tal que la
nueva matriz es factotizable de esta forma.
Algoritmo y costo computacional del metodo de Gauss. Dar el
algoritmo para resolver un sistema triangular superior, as como del metodo
de Gauss para llevar a forma triangular un sistema compatible determinado
(en el caso de no ser necesarias permutaciones de las). Asimismo, probar
que para resolver completamente dicho sistema por el metodo de Gauss son
necesarias (2n
3
+ 3n
2
5n)/6 sumas, un n umero igual de multiplicaciones y
(n
2
+ n)/2 divisiones.
Ejercicio. Supongamos que el determinante se calcula directamente con
su denicion, como suma de todos los productos posibles de n elementos de
manera que haya uno de cada la y columna afectados del signo positivo
o negativo seg un que las permutaciones de los ndices de la y columna
correspondientes sean de la misma o distinta paridad, y que resolvemos un
sistema de n ecuaciones lineales con n inc ognitas por el metodo de Kramer
y por el metodo de Gauss, si en cada operaci on elemental es necesario un
tiempo de 1,5 10
6
segundos, estimar el tiempo necesario para resolver un
sistema de n = 5, 10, 20 ecuaciones por el metodo de Kramer y por el metodo
de Gauss.
Metodo de Gauss-Jornan.
Consiste en llevar la matriz a forma diagonal, en vez de eliminar x
k
sola-
mente de las las i con i > k, se elimina de todas las las i ,= k, con lo cual
la matriz del sistema queda diagonal despej andose f acilmente las variables.
A su vez, puede aplicarse con estrategia de pivote parcial o total. El costo
computacional se incrementa con respecto al metodo de Gauss.
3.2. Metodos directos de resoluci on de sistemas lineales 47
3.2.3. Otros metodos de factorizaci on
Factorizacion LU
Si dado un sistema lineal Ax = b con [ A [, = 0, se conoce una descom-
posicion de A en la forma A = LU con L triangular inferior y U triangular
superior, la resolucion de dicho sistema se reduce a la resolucion de dos siste-
mas triangulares, pues llamando y = Ux, bastara resolver primero el sistema
Ly = b y a continuacion el Ux = y, con el costo de 2n
2
operaciones. El pro-
blema sera saber si dicha factorizaci on existe y como calcularla. Veamos a
continuacion respuestas a estas cuestiones.
Teorema 13 Sea A M
n
(R) tal que todos los determinantes de las sub-
matrices A
k
= (a
ij
)
1i,jk
(k = 1, 2, . . . , n) son distintos de cero. Entonces,
A es descomponible como producto de una matriz L, triangular inferior con
l
ii
= 1 para todo i = 1, 2, . . . , n, por U triangular superior. Siendo unica la
descomposicion en las anteriores condiciones.
Demostracion. Puede hacerse por inducci on pero la omitimos.
Calculo directo de la factorizacion. En las hip otesis del teorema
anterior la factorizacion LU de la matriz A es posible, calcul andose los l
ij
sin
utilizar el metodo de Gauss, pues de A = LU resulta
a
ij
=
h

p=1
l
ip
u
pj
siendo h = mni, j
o sea
a
kj
= l
k1
u
1j
+ l
k2
u
2j
+ + l
kk
u
kj
(para j k) (i)
a
ik
= l
i1
u
1k
+ l
i2
u
2k
+ + l
ik
u
kk
(para i k) (i)
y hemos tomado l
kk
= 1 para todo k. Una vez descompuesta A hay que
resolver los dos sistemas triangulares
Ly = b Ux = y (ii)
el primero de los cuales se resuelve mediante:
b
k
= l
k1
y
1
+ l
k2
y
2
+ + l
kk
y
k
(k = 1, 2, . . . , n) (iii)
relaci on an aloga a la (i). En conseceuncia el algoritmo:
Para cada k = 1, 2, . . . , n, hacer:
48 Captulo 3. Resoluci on numerica de sistemas lineales
Para j = k, k + 1, . . . , n calcular:
u
kj
= a
kj

k1

p=1
l
kp
u
pj
y
k
= b
k

k1
p=1
l
kp
y
p
Para i = k + 1, k + 2, . . . , n calcular:
l
ik
= (a
ik

k1

p=1
l
ip
u
pk
)/u
kk
este algortimo realiza la factorizaci on a la vez que calcula y = L
1
b, luego
habra que resolver el sistema triangular Ux = y, en conjunto se conoce como
metodo de Doolitle-Banachiewicz, si se tomasen unos en la diagonal de
L, tendramos el metodo de Crout.
Factorizacion de Cholesky
Teorema 14 Para matrices A reales son equivalentes:
i) A es simetrica y denida positiva
ii) Existe L triangular inerior real, con elementos diagonales positivos, tal
que A = LL
t
.
Demostraci on. Se hace por inducci on pero la omitimos.
Calculo directo de la factorizacion de Cholesky. En las hipotesis
del teorema anterior es A = LL
t
, por tanto ser a
a
ij
=
n

k=1
l
ik
l
t
kj
=
h

k=1
l
ik
l
jk
siendo h = mni, j
ahora para i = j resulta
a
jj
=
j

k=1
l
2
jk
=
j1

k=1
l
2
jk
+ l
2
jj
de donde se deduce que
3.3. Metodos iterativos de resoluci on de sistemas lineales 49
l
jj
=

_
a
jj

j1

k=1
l
2
jk
en tanto que para i = j + 1, j + 2, . . . , n se tendra
a
ij
=
j

k=1
l
ik
l
jk
=
j1

k=1
l
ik
l
jk
+ l
ij
l
jj
de la que se obtienen los
l
ij
= (a
ij

j1

k=1
l
ik
l
jk
)/l
jj
Una vez hallada la matriz L mediante el algoritmo descrito, se resolveran
los dos sistemas triangulares Ly = b y L
t
x = y, con un costo computacional
total para n grande del orden de n
3
/3.
Ejercicios.
1. Resolver, seg un el metodo de Doolitle, el sistema Ax = (1, 1, 1)
t
sien-
do la matriz A =
_
_
1 1 2
1 0 1
2 1 1
_
_
.
2. Resolver aplicando el metodo de Cholesky, el sistema Ax = (1, 1, 0)
t
siendo la matriz A =
_
_
1 1 1
1 5 1
1 1 3
_
_
.
3.3. Metodos iterativos de resolucion de sis-
temas lineales
Denici on 6 Una sucesion de matrices cuadradas, de orden n, A
(k)

1
tiene por lmite la matriz A del mismo orden si lm
k
| A
(k)
A |= 0 para
alguna norma matricial. Y se dice que una matriz A es casinilpotente si
lm
m
A
m
= 0.
Nos sera util el siguiente teorema, cuya demostracion omitiremos.
Teorema 15 Una matriz A, de orden n, es casinilpotente (A) < 1.
50 Captulo 3. Resoluci on numerica de sistemas lineales
3.3.1. Generalidades: convergencia y construccion de
metodos iterativos
En los metodos iterativos de resolucion de sistemas lineales, se parte de
una aproximaci on inicial de la solucion x
(0)
del sistema Ax = b y se generan
las aproximaciones sucesivas x
(k)

0
en la forma
x
(k+1)
= Ex
(k)
+ F (k = 0, 1, 2, . . . ) (1)
donde E M
n
(R) se denomina matriz de iteraci on y F M
n1
(R).
Denici on 7 Un metodo como el descrito se dice convergente para el
sistema Ax = b si x
(0)
R
n
: lm
k
x
(k)
= x = A
1
b.
Desde luego si el metodo es convergente la soluci on ha de vericar la
relaci on
x = Ex + F (2)
o lo que es equivalente
F = (I E)A
1
b (3)
aunque puede no vericarse el recproco, por ello se introduce la siguiente
denici on.
Denici on 8 Un metodo (1) se dice consistente con el sistema Ax = b
si se verica la condicion (2) o equivalentemente (3).
Conviene en este punto recordar el siguiente resultado tecnico.
Teorema 16 Para toda norma matricial | | y toda matriz A M
n
(R) se
verca que (A) | A |. Ademas, se tiene que
(A) =nf| A | : | | es una norma matricial.
Con ayuda del cual puede probarse el toerema fundamental sobre con-
vergencia de metodos iterativos de resoluci on aproximada de sistemas linea-
les, que nos limitamos a enunciar.
Teorema 17 El metodo (1) es convergente con respecto al sistema Ax = b
si y solo si se verican simultaneamente las dos condiciones siguientes:
1. El metodo es consistente con el sistema. Y
2. (E) < 1.
3.3. Metodos iterativos de resoluci on de sistemas lineales 51
Construccion de metodos iterativos
Sea el sistema Ax = b con A inversible cuya soluci on es x = A
1
b,
descomponiendo A en la forma: A = M N con M inversible, entonces
Ax = b (M N)x = Mx Nx = b
Mx = Nx + b x = M
1
Nx + M
1
b
expresi on que sugiere el metodo
x
(k+1)
= M
1
Nx
(k)
+ M
1
b (4)
los metodos as construidos son consistentes por tanto, seg un el teorema fun-
damental, ser an convergentes si y s olo si (M
1
N) < 1. Ademas, el teorema
siguiente asegura que todo metodo iterativo convergente puede construirse
de esa manera.
Teorema 18 Todo metodo (1) convergente es de la forma (4) con A =
M N y M inversible.
Cota de error en los metodos iterativos
Sea x
(k+1)
= Ex
(k)
+ F un metodo iterativo convergente para Ax = b,
entonces x
(m1)
x = x
(m1)
x
(m)
+ x
(m)
x, lo cual implica
| x
(m1)
x || x
(m1)
x
(m)
| + | x
(m)
x | (A)
como ademas
x
(m)
x = Ex
(m1)
+ F (Ex + F) = E(x
(m1)
x)
resulta que
| x
(m)
x || E || x
(m1)
x | (B)
de la que tambien se deduce que
| x
(m)
x || E |
m
| x
(0)
x |
que puede servirnos para estimar a priori el n umero de iteraciones necesrias
para una precisi on deseada.
Ahora, combinando (A) y (B) es f acil obtener
(1 | E |) | x
(m1)
x || x
(m)
x
(m1)
| (C)
52 Captulo 3. Resoluci on numerica de sistemas lineales
y como el metodo es convergente, tomando una norma matricial tal que
| E |< 1 y una vectorial compatible con ella, de las desigualdades (B) y (C)
se deduce
| x
(m)
x |
| E |
1 | E |
| x
(m)
x
(m1)
|
| E |
m
1 | E |
| x
(1)
x
(0)
|
que puede utilizarse para estimar el error y como test de parada del programa
correspondiente.
3.3.2. Metodos iterativos particulares: Jacobi, Gauss-
Seidel y relajaci on
La expresion (4) anterior puede escribirse tambien en la forma
Mx
(k+1)
= Nx
(k)
+ b (5)
donde A = M N y M inversible. As pues, dado el sistema Ax = b,
descompongamos la matriz A = D L U con
D =
_
_
_
_
_
_
_
a
11
0 0 . . . 0
0 a
22
0 . . . 0
0 0 a
33
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . a
nn
_
_
_
_
_
_
_
L =
_
_
_
_
_
_
_
0 0 0 . . . 0
a
21
0 0 . . . 0
a
31
a
32
0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
n3
. . . 0
_
_
_
_
_
_
_
U =
_
_
_
_
_
_
_
0 a
12
a
13
. . . a
1n
0 0 a
23
. . . a
2n
0 0 0 . . . a
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0
_
_
_
_
_
_
_
3.3. Metodos iterativos de resoluci on de sistemas lineales 53
Metodo de Jacobi.
En estas condiciones, el metodo de Jacobi consiste en hacer
M = D y N = L + U
como M debe ser inversible es necesario que todo a
ii
,= 0 para i = 1, 2, . . . , n,
con lo que puede expresarse en la forma
Dx
(k+1)
= (L + U)x
(k)
+ b
y en componentes resulta
x
(k+1)
i
= (
n

j=1
j=i
a
ij
x
(k)
j
+ b
i
)/a
ii
se dice que es un metodo de aproximaciones simultaneas, pues para hallar
un x
(k+1)
i
hace falta conocer todos los x
(k)
i
, los cuales se utilizan simult anea-
mente. Este metodo sera convergnete si y s olo si (D
1
(L + U)) < 1.
Metodo de Gauss-Seidel.
El metodo de Gauss-Seidel consiste en tomar
M = D L y N = U
con lo cual puede expresarse en forma vectorial como
(D L)x
(k+1)
= Ux
(k)
+ b
y en componentes se expresa en la forma
x
(k+1)
i
= (
i1

j=1
a
ij
x
(k+1)
j

n

j=i+1
a
ij
x
(k)
j
+ b
i
)/a
ii
se dice que es un metodo de aproximaciones sucesivas, pues e van usando
las aproximaciones obtenidas en la pasada que se est a realizando a partir
del momento en que se calculan. Este metodo ser a convergnete si y s olo
si ((D L)
1
U) < 1, se espera que sea mas r apidamente convergente y
as ocurre en muchos casos, pero este comportamiento no es general. Veamos
dos resultados sobre convergencia.
54 Captulo 3. Resoluci on numerica de sistemas lineales
Teorema 19 Si La matriz de coecientes del sistema Ax = b es estricta-
mente diagonal dominante los metodos de Jacobi y Gauss-Seidel son conver-
gentes, siendo los radios espectrales de las matrices de iteracion correspon-
dientes menores o iguales a c con
c = m ax
1in

j=1
j=i
[ a
ij
[
[ a
ii
[
< 1
Teorema 20 Para matrices tridiagonales, los radios espectrales de las ma-
trices de iteracion de Jacobi (E
J
) y Gaus-Seidel (E
G
) verican la relacion
(E
G
) = (E
J
)
2
y por tanto ambos son simultaneamente convergentes o divergentes, y cuando
ambos convergen el de Gauss-Seidel es asintoticamente mas rapido que el de
Jacobi.
Observaci on. Recordemos que una matriz se dice estrictamente dia-
gonal dominante si para cada la i se verica que
[ a
ii
[>
n

j=1
j=i
[ a
ij
[
Asimismo, una matriz se dice tridiagonal si a
ij
= 0 para todo i, j tal que
[ i j [> 1, es decir los elementos que no est an en la diagonal principal o en
una paralela por encima o por debajo son nulos.
Metodo de relajacion.
Los metodos del tipo de Gauss-Seidel se conocen con el nombre de meto-
dos de relajaci on. Si en la descomposici on de la matriz A = DLU, para
,= 0 escribimos D =
1

D
1

D, entonces nos quedara A =


1

D L
1

D U y tomando
M =
1

D L y N =
1

D + U
obtenemos el metodo de relajacion, que se expresa en forma vectorial
como
(
1

D L)x
(k+1)
= (
1

D + U)x
(k)
+ b
3.4. Introducci on al calculo aproximado de valores y vectores
propios 55
y en componentes por la f ormula
1

a
ii
x
(k+1)
i
+
i1

j=1
a
ij
x
(k+1)
j
=
1

a
ii
x
(k)
i

n

j=i+1
a
ij
x
(k)
j
+ b
i
Para cada valor de obtenemos un metodo distinto, en particular para = 1
se obtiene el metodo de Gauss-seidel. Puede probarse que una condicion
necesaria de convergencia es que 0 < < 2. Tambien puede probarse el
siguiente.
Teorema 21 Si A es estrictamente diagonal dominante y 0 < 1 el
metodo de relajacion es convergente.
3.4. Introducci on al calculo aproximado de
valores y vectores propios
Otro problema importante en la practica es el de determinar los valores y
vectores propios de una matriz cuadrada A, de orden n. Recordemos que los
valores propios de una matriz A son las races
i
de la ecuacion algebraica
[ A I [= 0, donde I es la matriz identidad de orden n, en tanto que
un vector u
i
no nulo es un vector propio correspondiente al valor propio
i
si Au
i
=
i
u
i
. En general, el c alculo de los valores propios de A requerira
primero determinar el polinomio caracterstico para luego intentar aproximar
sus races, lo cual es a menudo imposible. Pero, en muchos problemas, s olo
interesa el valor propio dominante es decir el de m odulo maximo de la matriz
A, supuesto existente. Veremos, en primer lugar un metodo de localizaci on de
valores propios de una matriz A y luego se esbozara el metodo de potencias
de calculo aproximado de un valor propio dominante y un vector propio
asociado. Ahora, se podra reducir la matriz a otra de orden n 1 y se
volvera a aplicar el metodo en un proceso llamado de deaci on.
Teorema 22 (Teorema de Gerschgorin) Sea A una matriz cuadrada
de orden n y sean
r
i
=
n

j=1
j=i
[ a
ij
[ y c
j
=
n

i=1
i=j
[ a
ij
[
entonces se tiene:
a) Todo valor propio de A esta en la union de los discos R
i
, (i = 1, 2, . . . , n)
con R
i
= z [ [ z a
ii
[ r
i

56 Captulo 3. Resoluci on numerica de sistemas lineales


b) Todo valor propio de A esta en la union de los discos C
j
, (j = 1, 2, . . . , n)
con C
j
= z [ [ z a
jj
[ c
j

Metodo de potencias. Dada una matriz real de orden n, diagonalizable


con un valor propio dominante, es decir vericando [
1
[>[
2
[ [
n
[,
entonces
1
es real y por tanto puede tomarse un vector propio correspon-
diente u
1
de componentes reales. Ademas, si x
(0)
es un vector arbitrario y
denimos x
(m+1)
= Ax
(m)
, la direccion de x
(m)
tiende, en general, a ser la
de u
1
para m , sucesion que conviene normalizar para evitar fuertes
cambios de un paso al siguiente. Por otro lado, si dividimos las componentes
k-esimas de x
(m+1)
y x
(m)
la sucesi on
m

m=1
, denida por
m+1
=
x
(m+1)
k
x
(m)
k
,
converge al valor propio dominante
1
.
3.5. Problemas y trabajos propuestos
Problemas propuestos:
1. Dadas las matrices
A =
_
2 1
1 2
_
y B =
_
_
2 1 0
1 2 0
0 0 3
_
_
Calcular:
a) Las normas | |
1
, | |
2
y | |

de las matrices A y B.
b) El radio espectral de dichas matrices.
2. Dada la matriz
A =
_
_
1 0 1
2 2 1
1 0 0
_
_
hallar sus valores propios, su radio espectral y | A |
2
.
3. Determinar el n umero de condici on de la matriz A =
_
1 2
3 7
_
con
respecto a las normas matriciales | |
1
, | |
2
y | |

.
4. Resolver, utilizando los metodos de Gauss y Gauss-Jordan, el sistema
lineal
2x + 4y + z = 4
2x + 6y z = 10
x + 5y + 2z = 2
3.5. Problemas y trabajos propuestos 57
5. Averiguar si es posible la factorizaci on A = LU y calcularla en caso
armativo, siendo la matriz
A =
_
_
1 0 1
0 1 0
1 0 1
_
_
6. Aplicando el metodo de Crout, resolver el sistema
2x + 3y z = 4
x y + 3z = 4
y z = 2
7. Hallar si es posible la factorizacion de Cholesky de la matriz
A =
_
_
13 11 11
11 13 11
11 11 13
_
_
8. Utilizando el metodo de Cholesky, resolver el sistema
x y + z = 1
x + 5y + z = 1
x + y + 3z = 0
9. Dado el sistema
9x 2y = 5
2x + 4y z = 1
y + z = 5/6
Partiendo de (0, 0, 0), obtener un valor aproximado de su solucion apli-
cando seis veces el metodo de Jacobi, trabajando con cuatro cifras
decimales redondeadas. Hacer lo mismo pero utilizando el metodo de
Gauss-Seidel.
10. Aplicar el metodo de Gauss-Seidel obtener la soluci on exacta del siste-
ma
x + 6y + 2z = 15
x + y 6z = 3
6x + y + z = 9
realizando los c alculos con tres cifras decimales redondeadas (la soluci on
exacta se obtiene tras cinco iteraciones).
58 Captulo 3. Resoluci on numerica de sistemas lineales
11. Probar que el sistema
x y = 1
x 1,01y = 0
est a mal condicionado, resolviendolo y comparandolo con la solucion
del sistema
x y = 1
x 0,99y = 0
Hallar el n umero de condici on para el sistema inicial.
12. Dado el sistema
ax + by = p
cx + dy = q
probar que una condici on necesaria y suciente para que los metodos
de Jacobi y Gauss-Seidel sean convergentes es que [ bc [<[ ad [.
13. Hacer dos iteraciones, partiendo de (1, 1, 1) por el metodo de relajacion,
tomando = 1/2 para aproximar la soluci on del sistema
10x y z = 13
x + 10y + z = 36
x y + 10z = 35
Averiguar si el metodo es convergente en este caso.
14. Sea Ax = b un sistema lineal de orden n, con A real no singular,
y sean x
(k+1)
= Bx
(k)
+ c y x
(k+1)
= Cx
(k)
+ d dos metodos ite-
rativos consistentes con el sistema dado. Sea entonces y
(k)
la suce-
si on de valores dada por el algoritmo y
(2k+1)
= By
(k)
+ c, y
(2k+2)
=
Cy
(k)
+d (con y
(0)
arbitrario, k = 1, 2, . . . , n). Probar que si llamamos
x
(k)
= y
(2k)
, k 0, las x
(k)
constituyen una sucesion de vectores que
proporciona un nuevo metodo iterativo x
(k+1)
= Gx
(k)
+e. Indicar quie-
nes son G y e, y probar que este nuevo metodo iterativo es consistente
con el sistema dado.
15. Dado el istema lineal
4x + 3y = 24
3x + 4y z = 30
y + 4z = 24
3.5. Problemas y trabajos propuestos 59
realizar cuatro iteraciones por el metodo de Jacobi y por el de relajaci on
(con = 1,25), partiendo en ambos casos de (1, 1, 1). Acotar el error
de la cuarta iteraci on obtenida por el metodo de Jacobi.
16. Realizar tres iteraciones por los metodos de Jacobi y Gauss-Seidel,
comenzando por (0, 0, 0), para aproximar la soluci on del sistema
7x 2y + 3z = 0
x + 5y 2z = 11
x + y 3z = 6
Justicar la convergencia de dichos metodos y acotar el error de la
tercera aproximaci on en ambos.
17. Para el sistema lineal Ax = b, se forma la sucesion dada por
x
(k+1)
= x
(k)
(Ax
(k)
b), con x
(0)
R
n
y R
Se pide
Expresar esta sucesi on en la forma x
(k+1)
= Ex
(k)
+ F, dando
expresiones explcitas de E y F.
Dar una condicion necesaria y suciente para que dicho metodo
sea convergente.
Trabajos propuestos:
Se propone en este tema realizar alguno de los siguientes trabajos:
Metodos directos por bloques.
Metodos iterativos para sistemas tridiagonales.
Metodos iterativos por bloques.
Metodo del gradiente conjugado.
Metodos tipo gradiente para la resoluci on de sistemas no lineales.
Captulo 4
Interpolaci on polinomial.
Derivaci on e integraci on
numerica
4.1. Interpolaci on
4.1.1. Introducci on. diferentes problemas de interpo-
lacion.
El problema de la interpolacion consiste en calcular el valor de una funci on
en un punto, cuando o bien no se conoce la expresion explcita de la misma,
o bien no es facil se evaluar dicha funci on en ese punto. Para resolverlo, se
construye una funcion f acil de evaluar y que coincida con la funci on objeto
del problema en los datos que conocemos sobre esta.
En todo problema de interpolaci on hay que concretar dos cuestiones basi-
cas: 1
o
) los datos que se desea que sean comunes a la funci on dada y a la que
la va a interpolar, y 2
o
) el tipo de funcion que se va a utilizar como funci on
de interpolacion.
Los tipos mas usuales de problemas de interpolaci on son los que se des-
criben a continuacion.
1. Interpolaci on polinomial de Lagrange. El problema de la inter-
polaci on polinomial de Lagrange consiste en dados los valores de una
funci on f, f
i
= f(x
i
) (i = 0, 1, 2, . . . , n), en n + 1 puntos distintos
x
i

n
0
del intervalo [a, b], determinar, si existe, un polinomio p(x) de
grado menor o igual a n tal que p(x
i
) = f
i
(i = 0, 1, 2, . . . , n).
2. Interpolaci on de Taylor. En este problema se suponen conocidos los
61
62 Captulo 4. Interpolacion. Derivacion e integracion numerica
valores de la funci on f y sus derivadas sucesivas hasta el orden n en el
punto x
0
y se trata de hallar un polinomio p(x) de grado menor o igual
que n tal que p
(k)
(x
0
) = f
(k)
(x
0
) (k = 0, 1, 2, . . . , n).
3. Interpolaci on de Hermite. Ahora se suponen conocidos los valo-
res de la funci on f y su derivada f

en los puntos x
0
, x
1
, . . . , x
n
, que
abreviamos por f
i
y f

i
(para i = 1, 2, . . . , n) y se trata de hallar un
polinomio p(x), de grado menor o igual a 2n + 1 tal que p(x
i
) = f
i
y
p

(x
i
) = f

i
(para i = 1, 2, . . . , n).
4. Interpolaci on trigonometrica. En este caso se conocen los valores
de f en los 2n+1 puntos distintos x
0
, x
1
, . . . , x
2n
del intervalo [, ) y
se trata de hallar un polinomio trigonometrico de grado n de la forma
p
n
(x) = a
0
+
n

k=1
(a
k
coskx + b
k
senkx)
tal que p
n
(x
i
) = f
i
(para i = 0, 1, 2, . . . , 2n).
Aunque la existencia y unicidad de solucion de cada uno de los proble-
mas planteados se puede resolver de un modo similar, nos vamos a referir
solamente al primero de ellos en los p arrafos que siguen.
4.1.2. Interpolaci on polinomial de Lagrange.
En primer lugar veamos el siguiente teorema que garantiza la existencia
y unicidad de soluci on del problema de interpolaci on de Lagrange planteado
anteriormente.
Teorema 23 Existe un unico polinomio de grado a lo mas n tal que p(x
i
) =
f
i
para i = 0, 1, . . . , n.
Demostraci on. Veamos en primer lugar la unicidad de soluci on. Su-
poner que p(x) y q(x) son dos polinomios de grado a lo mas n, vericando
dichas condiciones, entonces el polinomio diferencia r(x) = p(x) q(x) es
tambien un polinomio de grado a lo m as n y adem as verica que r(x
i
) =
p(x
i
) q(x
i
) = f
i
f
i
= 0 para i = 0, 1, . . . , n, luego r(x) posee n + 1 races
distintas lo cual implica que r(x) = 0, ya que por el teorema fundamental
del algebra todo polinomio no nulo de grado n tiene exactamente n races,
contando cada una tantas veces como indique su multiplicidad, luego posee
a lo mas n races distintas, en consecuencia debe de ser r(x) = 0 y por tanto
p(x) = q(x) como queramos demostrar.
4.1. Interpolaci on 63
Probaremos la existencia de modo constructivo. Para ello consideremos
los polinomios de base de Lagrange de grado n, l
k
(x) para k = 0, 1, . . . , n
denidos por
l
k
(x) =

n
i=0
i=k
(x x
i
)

n
i=0
i=k
(x
k
x
i
)
=
(x x
0
) (x x
k1
)(x x
k+1
) (x x
n
)
(x
k
x
0
) (x
k
x
k1
)(x
k
x
k+1
) (x
k
x
n
)
entonces se verica que l
k
(x
i
) = 0 para todo i ,= k y l
k
(x
k
) = 1. Luego el
polinomio de interpolacion buscado, p(x), se obtiene como combinacion lineal
de los polinomios de base de Lagrange l
k
(x) en la forma
p(x) = f
0
l
0
(x) + f
1
l
1
(x) + + f
n
l
n
(x) =
n

k=0
f
k
l
k
(x)
que se conoce como formula de Lagrange para dicho polinomio.
Para el caso n = 1 se tiene la interpolaci on lineal, que consiste en hacer
pasar una poligonal por los puntos dados. Por otro lado, la f ormula anterior
se simplica si los puntos de interpolaci on, tambien llamados nodos est an
igualmente separados.
El principal inconveniente de la f ormula de Lagrange estriba en que al
a nadir nuevos puntos de interpolacion no nos sirven los c aculos anteriores,
siendo necesario rehacer todos los c alculos comenzando por los nuevos polino-
mios de base de Lagrange, que seran de un grado superior; por ello ser a con-
veniente disponer de otra f ormula para determinar el polinomio de interpo-
laci on p
k
(x) que permita una m as facil transicion de p
k
(x) a p
k+1
(x), lo que
se aborda en el p arrafo siguiente.
4.1.3. Diferencias divididas: f ormula de Newton.
Con objeto de obtener una f ormula que cumpla el objetivo marcado al
nal del p arrafo anterior, veamos lo que ocurre al pasar del polinomio p
k1
que interpola a f en los nodos x
0
, x
1
, . . . , x
k1
al p
k
que la interpola en los
puntos x
0
, x
1
, . . . , x
k1
, x
k
, el polinomio diferencia q
k
(x) = p
k
(x) p
k1
(x)
es un polinomio de grado menor o igual que k, que se anula para los puntos
x
0
, x
1
, . . . , x
k1
, ya que en dichos puntos se tiene p
k
(x
i
) = p
k1
(x
i
) = f(x
i
)
para i = 0, 1, . . . , k 1, luego debe ser de la forma
q
k
(x) = A
k
(x x
0
)(x x
1
) (x x
k1
) = A
k
k1

i=0
(x x
i
)
64 Captulo 4. Interpolacion. Derivacion e integracion numerica
con A
k
constante. Por tanto resulta que
p
k
(x) = p
k1
(x) + q
k
(x) = p
k1
(x) + A
k
k1

i=0
(x x
i
)
de donde se deduce que
A
k
=
p
k
(x) p
k1
(x)

k1
i=0
(x x
i
)
y dandole a x el valor x
k
, como p
k
(x
k
) = f
k
resulta para k 1 que
A
k
=
f
k
p
k1
(x
k
)

k1
i=0
(x
k
x
i
)
dado que p
0
(x) = f(x
0
), podemos denir A
0
= f(x
0
) y con la formula anterior
se pueden calcular sin dicultad los coecientes A
0
, A
1
, . . . , A
n
; al coeciente
A
k
se le llama diferencia dividida de f en los puntos x
0
, x
1
, . . . , x
k
y se
representa por
A
k
= f[x
0
, x
1
, . . . , x
k
]
con ayuda de estos coecientes el polinomio de interpolaci on de f en los
nodos x
0
, x
1
, . . . , x
n
puede escribirse en la forma
p
n
(x) = A
0
+A
1
(xx
0
)+A
2
(xx
0
)(xx
1
)+ +A
n
(xx
0
)(xx
1
) (xx
n1
)
o tambien
p
n
(x) =
n

i=0
f[x
0
, x
1
, . . . , x
i
]
i1

j=0
(x x
j
)
que se denomina formula de Newton en diferencias divididas. Como
se ve en la f ormula para pasar de p
k1
a p
k
es suciente con a nadir un
termino a la primera. Por otro lado, para obtener dicha f ormula se requiere
el calculo previo de las diferencias divididas de todos los ordenes de f en los
puntos x
0
, x
1
, . . . , x
n
; lo que se ve facilitado por medio de las dos proposiciones
siguientes cuya demostracion no haremos, pero que puede verse en el libro
de M. Gasca: C alculo Numerico, editado por la UNED.
Proposicion 3 Para k 1 se verica que
f[x
0
, x
1
, . . . , x
k
] =
k

i=0
f(x
i
)
(x
i
x
0
) (x
i
x
i1
)(x
i
x
i+1
) (x
i
x
k
)
4.1. Interpolaci on 65
por tanto es una funcion simetrica de sus argumentos, es decir que
f[x
0
, x
1
, . . . , x
k
] = f[x
j
0
, x
j
1
, . . . , x
j
k
]
para toda permutacion (j
0
, j
1
, . . . , j
k
) de (0, 1, . . . , k).
Proposicion 4 Para k 1 se verica que
f[x
0
, x
1
, . . . , x
k1
, x
k
] =
f[x
0
, . . . , x
k1
] f[x
1
, . . . , x
k
]
x
0
x
k
=
f[x
1
, . . . , x
k
] f[x
0
, . . . , x
k1
]
x
k
x
0
.
4.1.4. Diferencias nitas: f ormula de Newton.
Denici on 9 Sea una funcion f denida sobre una sucesion de puntos
igualmente espaciados x
j
= x
0
+ jh, j Z y h > 0, se llama diferencia
progresiva de f en x
k
a
f(x
k
) = f(x
k
+ h) f(x
k
) = f(x
k+1
) f(x
k
)
para simplicar denotemos f
j
= f(x
j
), con lo cual se tiene
f
k
= f
k+1
f
k
Las diferencias progresivas de orden superior se denen por induccion en la
forma

n+1
f
k
= (
n
f
k
) =
n
f
k+1

n
f
k
, n 1
ademas se conviene que
0
f
k
= f
k
, a
n
f
k
se le llama la diferencia pro-
gresiva de orden n de f en x
k
.
An alogamente se denen las diferencias regresivas.
Denici on 10 En las condiciones anteriores, se llama diferencia regre-
siva de f en x
k
a
f
k
= f
k
f
k1
y se denen las diferencias regresivas de orden superior en la forma

n+1
f
k
= (
n
f
k
) =
n
f
k

n
f
k1
, n 1
ademas, se conviene que
0
f
k
= f
k
, a
n
f
k
se le llama la diferencia re-
gresiva de orden n de f en x
k
.
66 Captulo 4. Interpolacion. Derivacion e integracion numerica
La relacion entre ambas diferencias esta dada por
f
k
= f
k1
luego

n
f
k
=
n
f
kn
La siguiente proposici on nos proporciona la relaci on entre las diferencias pro-
gresivas y las diferencias divididas en el caso de puntos igualmente espaciados.
Proposicion 5 Para todo n 0 se verica

n
f
k
= n!h
n
f[x
k
, x
k+1
, . . . , x
k+n
]
Demostraci on. Se hara por induccion, para n = 0 es evidente pues

0
f
k
= f
k
= f(x
k
) = f[x
k
]
supongamos que dicha propiedad es cierta para n = 0, 1, . . . , r; y veamos que
tambien lo es para n = r + 1; en efecto:
r+1
f
k
= (
r
f
k
) =
r
f
k+1

r
f
k
= r!h
r
f[x
k+1
, x
k+2
, . . . , x
k+r+1
]r!h
r
f[x
k
, x
k+1
, . . . , x
k+r
] = r!h
r
(x
k+r+1

x
k
)f[x
k
, x
k+1
. . . , x
k+r
, x
k+r+1
], luego la propiedad es cierta para todo n N.
An alogamente, para diferencias regresivas se tiene
n 0 :
n
f
k
= n!h
n
f[x
kn
, x
kn+1
, . . . , x
k1
, x
k
]
Formulas de Newton progresiva y regresiva
Seg un vimos, la f ormula de Newton para el polinomio de interpolaci on de
f en n + 1 puntos distintos x
0
, x
1
, . . . , x
n
, se poda escribir en la forma
p(x) =
n

i=0
f[x
0
, x
1
, . . . , x
i
]
i1

j=0
(x x
j
)
Ahora bien, si los puntos estan igualmente espaciados, o sea x
j
= x
0
+ jh,
en virtud de la proposicion 3 anterior se tiene
f[x
0
, . . . , x
i
] =

i
f
0
i!h
i
con lo que el polinomio de interpolaci on puede escribirse en la forma
p(x) =
n

i=0

i
f
0
i!h
i
i1

j=0
(x x
j
)
4.1. Interpolaci on 67
y haciendo el cambio de variable x = x
0
+ th nos queda
p(x) = p(x
0
+ th) =
n

i=0

i
f
0
i!
i1

j=0
(t j)
por lo que si denimos el n umero combinatorio generalizado
_
t
i
_
=
t(t 1) (t i + 1)
i!
nos queda
p(x) = p(x
0
+ th) =
n

i=0
_
t
i
_

i
f
0
conocida como formula de Newton progresiva.
An alogamente, si escribimos el polinomio p(x) que interpola a f en los
puntos x
n
, x
n1
, . . . , x
0
en la forma de Newton
p(x) =
n

i=0
f[x
n
, x
n1
, . . . , x
ni
]
i1

j=0
(x x
nj
)
y para puntos igualmente separados, haciendo el cambio x = x
n
+th, podemos
escribir el polinomio de interpolacion en la forma
p(x) = p(x
n
+ th) =
n

i=0
_
t + i 1
i
_

i
f
n
=
n

i=0
(1)
i
_
t
i
_

i
f
n
que se conoce como formula de Newton regresiva.
4.1.5. Estimaci on del error de interpolacion.
Dada una funcion real f, denida en el intervalo [a, b], sea p
n
(x) el polino-
mio de interpolaci on de f en los puntos distintos x
0
, x
1
, . . . , x
n
del intervalo
[a, b] (que si no hay lugar a confusi on denotamos simplemente como p(x));
entonces, dado cualquier otro punto x [a, b] se dene el error de interpo-
laci on como E(x) = f(x) p(x). En los teoremas siguientes se dan sendas
expresiones del error que nos permitir an en muchos casos su acotacion.
Teorema 24 Si f es una funcion denida en los puntos x
0
, x
1
, . . . , x
n
, x
todos distintos, y p
n
(x) es el polinomio de grado menor o igual que n que
68 Captulo 4. Interpolacion. Derivacion e integracion numerica
interpola a f en los puntos x
0
, x
1
, . . . , x
n
, el error de interpolacion se puede
escribir en la forma
E(x) = f(x) p
n
(x) = f[x
0
, x
1
, . . . , x
n
, x]
n

i=0
(x x
i
)
Demostraci on. Como hemos visto para la diferencia dividida se tiene
f[x
0
, x
1
, . . . , x
k
] =
f
k
p
k1
(x
k
)

k1
i=0
(x
k
x
i
)
(k 1)
Entonces, tomando k = n + 1 y llamando x
n+1
= x se tendra
f(x) p
n
(x) = f[x
0
, x
1
, . . . , x
n
, x]
n

i=0
(x x
i
)
como queramos demostrar.
La f ormula del teorema anterior para el error de interpolaci on no deja de
ser una expresi on puramente formal, con objeto de dar otra, que sirva para el
cometido de acotar errores, es necesario dar condiciones de regularidad sobre
la funacion f, lo que se contempla en el teorema siguiente.
Teorema 25 Si f C
(n)
([a, b]) y x
0
, x
1
, . . . , x
n
son n + 1 puntos distintos
de [a, b], entonces existe un punto (a, b) tal que
f[x
0
, x
1
, . . . , x
n
] =
f
(n)
()
n!
Demostraci on. La funcion error de interpolacion E(x) = f(x) p
n
(x)
es de clase C
(n)
([a, b]) por ser diferencia de dos funciones que lo son, y se
anula en los puntos x
0
, x
1
, . . . , x
n
; entonces, aplicando el teorema de Rolle,
resulta que E

(x) se anular a en, al menos, n puntos distintos intermedios


entre aquellos, siendo E

(x) C
(n1)
([a, b]), aplicando nuevamente el teorema
de Rolle E

(x) se anular a en n 1 puntos distintos intermedios entre los


anteriores, as se llega a que E
(n1)
(x) es de clase C
(1)
([a, b]) y se anula
en dos puntos en (a, b), luego E
(n)
(x) se anula en un punto (a, b), es
decir E
(n)
() = f
(n)
() p
(n)
n
() = 0, ahora bien la derivada enesima de
un polinomio es el coeceinte de su termino de mayor grado multiplicado
por n!, por tanto p
n
(x) = f[x
0
.x
1
, . . . , x
n
]n!, pues el coeciente de x
n
en la
f ormula de Newton del polinomio de interpolaci on es la diferencia dividida
f[x
0
.x
1
, . . . , x
n
], de todo lo cual se deduce que f[x
0
.x
1
, . . . , x
n
] =
f
(n)
()
n!
.
4.1. Interpolaci on 69
Corolario 1 Si f C
(n+1)
([a, b]), x
0
, x
1
, . . . , x
n
, x son n + 2 puntos distin-
tos en [a, b] y p
n
(x) es el polinomio de interpolacion de f en x
0
, x
1
, . . . , x
n
,
entonces
E(x) = f(x) p
n
(x) =
f
(n+1)
()
(n + 1)!
n

i=0
(x x
i
)
con intermedio entre x
0
, x
1
, . . . , x
n
, x.
Expresi on muy util para acotar el error de interpolacion como se pone de
maniesto en el corolario siguiente.
Corolario 2 Si llamamos M = m ax
atb
[ f
(n+1)
(t) [ se tendra la siguiente
acotacion:
[ E(x) [
M
(n + 1)!
m ax
atb
[
n

i=0
(t x
i
) [ , x [a, b]
4.1.6. Funciones spline. Splines c ubicos.
Las funciones spline est an denidas a trozos por varios polinomios, de
manera que se unen entre s mediante ciertas condiciones de continuidad, este
tipo de funciones suele dar mejor resultado a la hora de aproximar la forma
de una funci on dada que tomar polinomios de grado alto, que suele producir
grandes oscilaciones. Veamos a continuaci on la denici on precisa de spline.
Denici on 11 Sea a = t
1
< t
2
< . . . < t
n
= b una particion del intervalo
[a, b] se llama spline de grado m N con nudos en t
1
< t
2
< . . . < t
n
a
una funcion s(x) denida en [a, b] vericando
1. La restriccion de s(x) a cada [t
i
, t
i+1
] , i = 1, 2, . . . , n 1 es un polino-
mio de grado no mayor que m.
2. s(x) y sus derivadas de ordenes sucesivas hasta m 1 inclusive son
continuas en [a, b].
Ejemplos de funciones spline son las poligonales, denidas por funciones
lineales en cada subintervalo y contnuas en [a, b], que constituyen splines de
grado 1. Las funciones spline de grado impar tienen buenas propiedades de
suavidad en sus gracas, siendo las menos oscilantes en cierto sentido; ahora
bien, dado que las poligonales ya son discontinuas en su derivada primera,
estamos interesados en la interpolacion por splines c ubicos, muy utilizados
en la pr actica.
70 Captulo 4. Interpolacion. Derivacion e integracion numerica
Splines c ubicos
Para interpolar f sobre los puntos a = t
1
< t
2
< . . . < t
n
= b mediante
un spline c ubico, sean f
i
= f(t
i
), h
i
= t
i+1
t
i
y S
i
(x) la restricci on de
S(x) al subintervalo [t
i
, t
i+1
]. Como S
i
(x) es un polinomio de grado tres, su
derivada segunda S

i
es una funci on lineal; entonces, denotando por z
i
, z
i+1
a los valores, desconocidos de momento, de S

i
en [t
i
, t
i+1
] respectivamente,
se tendra:
s

i
(x) = z
i+1
x t
i
h
i
+ z
i
t
i+1
x
h
i
e integrando dos veces se obtiene
s
i
(x) =
z
i+1
6h
i
(x t
i
)
3
+
z
i
6h
i
(t
i+1
x)
3
+ E
i
x + F
i
Ahora el termino lineal de coecientes constantes E
i
x + F
i
puede escribirse
en la forma E
i
x+F
i
= C
i
(xt
i
)+D
i
(t
i+1
x) y de las condiciones S
i
(t
i
) = f
i
y S
i+1
(t
i+1
) = f
i+1
, se deducen los valores de C
i
y D
i
, quedando el spline en
la forma
s
i
(x) =
z
i+1
6h
i
(xt
i
)
3
+
z
i
6h
i
(t
i+1
x)
3
+(
y
i+1
h
i

z
i+1
h
i
6
)(xt
i
)+(
y
i
h
i

z
i
h
i
6
)(t
i+1
x)
expresi on que garantiza la continuidad del spline S y que este coincide con
f en los nudos t
1
< t
2
< . . . < t
n
; para que s

sea contnua en [t
1
, t
n
] debe
vericarse que S

i1
(t
i
) = S

i
(t
i
) para i = 2, . . . , n 1. Entonces, derivando la
expresi on del spline S
i
(x), as como la de S
i1
(x) y evaluando para x = t
i
,
se tiene que las z
i
han de vericar el sistema
h
i1
z
i1
+ 2(h
i1
+ h
i
)z
i
+ h
i
z
i+1
=
6
h
i
(f
i+1
f
i
)
6
h
i1
(f
i
f
i1
) (*)
para i = 2, . . . , n1, as pues los valores z
1
, z
2
, . . . , z
n
deben vericar las n2
condiciones anteriores. Por otro lado, la continuidad de S

(x) est a asegurada


pues se tiene, por construccion, que S

i1
(t
i
) = z
i
= S

(t
i
). Luego si se jan
arbitrariamente z
1
y z
2
en (*) resulta un sistema de n2 ecuaciones lineales
con n 2 incognitas, que denotando por
b
i
=
6
h
i
(f
i+1
f
i
)
6
h
i1
(f
i
f
i1
)
se puede escribir como el sistema tridiagonal que sigue
2(h
1
+ h
2
)z
2
+ h
2
z
3
= b
2
h
1
z
1
h
2
z
2
+ 2(h
2
+ h
3
)z
3
+ h
3
z
4
= b
3
.
.
.
h
n2
z
n2
+ 2(h
n2
+ h
n1
)z
n1
= b
n1
z
n
4.2. Derivaci on numerica 71
si hacemos z
1
= z
n
= 0 se obtiene el denominado Spline natural.
4.2. Derivacion numerica
En muchas ocasiones es necesario disponer del valor de la derivada de
una funcion f en un punto c, o bien de su integral en un intervalo [a, b], pero
no nos es posible calcularlas por disponer tan s olo de una tabla de valores
de la funcion en cuestion o bien por ser su expresi on analtica inmanejable.
Entonces, lo mas usual es aproximar una u otra por una combinacion lineal
de los valores de f en los puntos x
i
, i = 0, 1, . . . , n, en los que f est a denida,
es decir
f

(c)
n

i=0
a
i
f(x
i
) (2.1)
al tomar este valor como aproximacion de la derivada se comete un error que
denotamos por R(f), que est a denido por medio de la formula
f

(c) =
n

i=0
a
i
f(x
i
) + R(f)
Nuestro objetivo en este punto sera el estudio de f ormulas de este tipo y de
su error correspondiente. Diremos que la formula (2.1) es exacta para la
funcion si R() = 0, y se dir a exacta de orden r si R(x
i
) = 0 para i =
0, 1, . . . , r y R(x
r+1
) ,= 0 (si se verican las primeras diremos que es de orden
al menos r). Asimismo, se dira que es de tipo interpolatorio si se ha obte-
nido derivando el polinomio de interpolacion de f; es decir si f es derivable
en un punto c [a, b] y es p(x) =

n
i=0
f
i
l
i
(x) el polinomio de interpolaci on
de f, en los puntos x
i
, (i = 0, 1, . . . , n) de dicho intervalo, expresado en la
forma de Lagrange, entonces se tendra
f

(c) p

(c) =
n

i=0
f
i
l

i
(c) (2.2)
Puesto que el error de interpolacion se dene por la igualdad
f(x) = p(x) + E(x)
si f es derivable en c, E(x) tambien lo ser a, por ser diferencia de dos funciones
derivables en dicho punto, siendo R(f) = E

(c).
El siguiente teorema, cuya demostraci on es sencilla, relaciona la exactitud
de una f ormula como la (2.1) con el hecho de ser de tipo interpolatorio.
72 Captulo 4. Interpolacion. Derivacion e integracion numerica
Teorema 26 La formula (2.1) es exacta para todo polinomio de grado me-
nor o igual que n si y solo si es de tipo interpolatorio (o sea si a
i
= l

i
(c) para i =
0, 1, . . . , n, siendo l
i
(x) los polinomios de base de Lagrange).
4.2.1. F ormulas de tipo interpolatorio. Expresi on del
error.
Veamos algunas de las f ormulas m as usuales de derivacion numerica de
tipo interpolatorio, cuando tan s olo se conoce la funci on en uno, dos, tres o
cuatro puntos, as como las expresiones de los errores correspondientes:
1. Si s olo se conoce el valor de f en un punto x
0
, f(x
0
), entonces f

(c) 0.
2. Si se conocen f(x
0
) y f(x
1
) entonces el polinomio de interpolaci on es
la recta dada por p(x) = f(x
0
) + f[x
0
, x
1
](x x
0
) y resulta la formula
f

(c) f[x
0
, x
1
] =
f(x
1
) f(x
0
)
x
1
x
0
(2.3)
ahora, si se toman x
0
= c y x
1
= c + h, la (2.3) se escribe en la forma
f

(c)
f(c + h) f(c)
h
(2.4)
Y si f es de clase C
(2)
en el intervalo [c, c+h](o [c+h, c]) el error puede
expresarse en la forma
R(f) =
h
2
f

() (2.4*)
con intermedio entre c y c + h, para probarlo basta con utilizar el
desarrollo de Taylor.
En cambio, si se toman puntos simetricos con respecto a c, o sea x
0
=
c h y x
1
= c + h la formula (2.3) queda en la forma
f

(c)
f(c + h) f(c h)
2h
(2.5)
en cuyo caso, suponiendo que f es de clase C
(3)
en el intervalo [c
h, c + h], se obtiene para el error, utilizando el desarrollo de Taylor, la
expresi on
R(f) =
h
2
6
f

() (2.5*)
con [c h, c + h].
4.2. Derivaci on numerica 73
3. F ormulas con tres puntos: x
0
, x
1
, x
2
. En este caso el polinomio de in-
terpolaci on puede escribirse como
p(x) = f(x
0
) + f[x
0
, x
1
](x x
0
) + f[x
0
, x
1
, x
2
](x x
0
)(x x
1
)
entonces se obtiene
f

(c) f[x
0
, x
1
] + f[x
0
, x
1
, x
2
](2c x
0
x
1
) (2.6)
en particular, tomando x
0
= c, x
1
= c + h, x
2
= c + 2h se tiene
f

(c)
f(c + 2h) + 4f(c + h) 3f(c)
2h
(2.7)
en tanto que si f es de clase C
(3)
en un intervalo que contenga a los
puntos c, c +h, c + 2h, se obtiene para el error, utilizando el desarrollo
de Taylor, la expresi on
R(f) =
h
2
3
f

() (2.7*)
con intermedio entre c y c + 2h.
4. F ormulas con cuatro puntos. En este caso lo mas usual es tomar x
0
=
c 2h, x
1
= c h, x
2
= c +h y x
3
= c + 2h; obteniendose la expresi on
f

(c)
f(c + 2h) + 8f(c + h) 8f(c h) + f(c 2h)
12h
(2.8)
y si f es de clase C
(5)
en un intervalo que contenga a los puntos, el
error correspondiente puede escribirse en la forma
R(f) =
h
4
30
f
(4)
() (2.8*)
con intermedio a los nodos de interpolacion.
4.2.2. F ormulas de derivaci on numerica de orden su-
perior.
Estas f ormulas se obtienen sin dicultad, por el mismo procedimiento,
derivando k veces el polinomio de interpolacion para hallar un valor apro-
ximado de f
(k)
(c), si bien en este caso el n umero de puntos a utilizar de-
be ser mayor que el orden de derivacion, pues en otro caso se obtendra
f
(k)
(c) p
(k)
(c) = 0.
74 Captulo 4. Interpolacion. Derivacion e integracion numerica
En el caso particular de que k = 2, utilizando tres puntos x
0
, x
1
, x
2
,
obtendremos la aproximaci on
f

(c) 2f[x
0
, x
1
, x
2
] (2.9)
y usando puntos simetricos respecto al central x
0
= ch, x
1
= c y x
2
= c+h,
resulta
f

(c)
f(c + h) 2f(c) + f(c h)
h
2
(2.10)
adem as si f es de clase C
(4)
en alg un intervalo que contenga a c h y c +h,
se puede probar f acilmente por el desarrrollo de Taylor que el error corres-
pondiente adopta la forma
R(f) =
h
2
12
f
(4)
() (2.10*)
con intermedio entre c h y c + h.
4.2.3. Estabilidad de las f ormulas de derivaci on numeri-
ca.
La estabilidad de un metodo numerico mide como este responde frente a
errores de redondeo o en los datos. Veamos la denici on con m as precisi on
para el caso que nos ocupa.
Denici on 12 Se dira que una formula de derivacion numerica en n + 1
puntos, que escribimos ahora en la forma
f

(c)
n

i=0
a
n
i
f(x
i
)
es estable si (
0
,
1
, . . . ,
n
) existe una constante M tal que
[
n

i=0
a
n
i
f(x
i
) [ M m ax
k
[
k
[
A este respecto conviene recordar el siguiente teorema, cuya demostraci on
omitimos.
Teorema 27 Las formulas de derivacion numerica son inestables.
4.3. Integraci on numerica 75
4.3. Integraci on numerica
En muchas ocasiones es necesario disponer del valor de la integral de una
funci on f en un intervalo [a, b], pero no nos es posible calcularla por disponer
tan s olo de una tabla de valores de la funci on en cuesti on o bien por ser su
expresi on analtica inmanejable. Entonces, lo mas usual es aproximarla por
una combinacion lineal de los valores de f en los puntos x
i
, i = 0, 1, . . . , n,
en los que f es conocida, es decir
_
b
a
f(x)dx
n

i=0
a
i
f(x
i
) (3.1)
al tomar este valor como aproximaci on de la integral se comete un error que
denotamos por R(f), que est a denido por medio de la formula
_
b
a
f(x)dx =
n

i=0
a
i
f(x
i
) + R(f)
Nuestro objetivo en este punto sera el estudio de f ormulas de integraci on
(o cuadratura) numerica de este tipo y de los errores correspondientes. Di-
remos que la f ormula (3.1) es exacta para la funcion si R() = 0, y
se dira exacta de orden, al menos, r si R(x
i
) = 0 para i = 0, 1, . . . , r y
de orden exactamente r si adem as es R(x
r+1
) ,= 0. Asimismo, se dir a que
es de tipo interpolatorio si se ha obtenido integrando el polinomio de
interpolaci on de f; es decir si f es integrable en el intervalo [a, b] y es
p(x) =

n
i=0
f
i
l
i
(x) el polinomio de interpolaci on de f, en los puntos x
i
, (i =
0, 1, . . . , n) de dicho intervalo, expresado en la forma de Lagrange, entonces
se tendra
_
b
a
f(x)dx
_
b
a
p(x)dx =
n

i=0
(
_
b
a
l
i
(x)dx)f(x
i
) + R(f) (3.2)
Puesto que el error de interpolacion se dene por la igualdad
f(x) = p(x) + E(x)
si f es integrable en [a, b], E(x) tambien lo sera, por ser diferencia de dos
funciones integrables en dicho intervalo, siendo R(f) =
_
b
a
E(x)dx.
El siguiente teorema, cuya demostraci on es sencilla, relaciona la exactitud
de la f ormula (3.1) con el hecho de ser de tipo interpolatorio.
Teorema 28 La formula (3.1) es exacta para todo polinomio de grado me-
nor o igual que n si y solo si es de tipo interpolatorio (o sea si a
i
=
_
b
a
l
i
(x)dx para i =
0, 1, . . . , n, siendo l
i
(x) los polinomios de base de Lagrange).
76 Captulo 4. Interpolacion. Derivacion e integracion numerica
4.3.1. F ormulas de tipo interpolatorio.
Veamos algunas de las formulas mas usuales de integraci on numerica de
tipo interpolatorio, cuando tan s olo se conoce la funci on en uno o dos puntos,
as como las expresiones de los errores correspondientes (algunas de las cuales
ser an demostradas como ejercicio):
1. Cuando s olo se conce el valor de f en un punto x
0
de intervalo [a, b] se
puede aproximar la integral en la forma:
_
b
a
f(x)dx f(x
0
)(b a) (3.3)
en tanto que el error correspondiente puede escribirse como
R(f) =
_
b
a
f[x
0
, x](x x
0
)dx (3.3*)
En particular, si x
0
= a se tiene la formula del rectangulo
_
b
a
f(x)dx f(a)(b a) (3.4)
y si f C
(1)
([a, b]) su error viene dado por
R(f) = f

()
(b a)
2
2
(3.4*)
con [a, b].
En tanto que si x
0
=
a+b
2
se tiene la formula del punto medio
_
b
a
f(x)dx f(
a + b
2
)(b a) (3.5)
que si f C
(2)
([a, b]) admite un error dado por la expresion
R(f) =
f

()
24
(b a)
3
(3.5*)
4.3. Integraci on numerica 77
2. Cuando se conoce el valor de f en dos puntos x
0
y x
1
, se tiene para el
polinomio de interpolaci on de f en dichos puntos la expresi on
p(x) = f(x
0
) + f[x
0
, x
1
](x x
0
)
e integrando resulta
_
b
a
p(x)dx = f(x
0
)(b a) + f[x
0
, x
1
][
(b x
0
)
2
(a x
0
)
2
2
]
en particular tomando x
0
= a y x
1
= b se obtiene la f ormula de cua-
dratura numerica
_
b
a
f(x)dx
1
2
(b a)[f(a) + f(b)] (3.6)
conocida como formula del trapecio; ahora si f C
(2)
([a, b]) su error
viene dado por
R(f) = f

()
(b a)
3
12
(3.6*)
con [a, b].
4.3.2. F ormulas de Newton-Cotes simples.
Se denomina as a las formulas de cuadratura numerica de tipo interpola-
torio en que los puntos de interpolaci on estan igualmente espaciados
y resultan de la divisi on en partes iguales del intervalo de integracion [a, b],
si es h =
ba
n
entonces x
i
= x
0
+ ih siendo x
0
= a. Si se utilizan los puntos
extremos se dicen cerradas y en otro caso abiertas. Veamos seguidamente
las formulas cerradas con tres, cuatro o cinco puntos:
1. Con tres puntos igualmente espaciados: a,
a+b
2
y b, se calcula el polino-
mio de interpolaci on que pasa por ellos, se integra en [a, b] y se obtiene
la conocida formula de Simpson (una de las m as usadas en la practi-
ca por su simplicidad y precisi on):
_
b
a
f(x)dx
b a
6
[f(a) + 4f(
a + b
2
) + f(b)] (3.7)
que si f C
(4)
([a, b]) nos permite obtener la siguiente expresi on del
error
R(f) = f
(4)
()
(b a)
5
2880
= f
(4)
()
h
5
90
(3.7*)
78 Captulo 4. Interpolacion. Derivacion e integracion numerica
en la que h =
ba
2
y es un punto intermedio entre a y b. De la expresi on
del error se deduce que es exacta para todo polinomio de grado menor
o igual a 3.
2. Con cuatro puntos igualmente espaciados a,
2a+b
3
,
a+2b
3
y b se obtiene
_
b
a
f(x)dx
b a
8
[f(a) + 3f(
2a + b
3
) + 3f(
a + 2b
3
) + f(b)] (3.8)
pudiendo expresarse su error, si f C
(4)
([a, b]), en la forma
R(f) = f
(4)
()
3h
5
80
(3.8*)
siendo ahora h =
ba
3
.
3. Con cinco puntos x
0
= a, x
1
= a + h, x
2
= a + 2h, x
3
= a + 3h, x
4
=
a + 4h = b (donde h =
ba
4
) se obtiene la formula de cuadatura
_
b
a
f(x)dx
b a
90
(7f
0
+ 32f
1
+ 12f
2
+ 32f
3
+ 7f
4
) (3.9)
en tanto que el error puede escribirse como
R(f) = f
(6)
()
8h
7
945
(3.9*)
La mayor precision del metodo de Simpson con 2+1 puntos con respecto
a sus rivales, con 1+1 o 3+1 puntos, es general; de hecho, se puede demostrar
el teorema siguiente, que admitiremos sin demostracion.
Teorema 29 En las formulas de Newton-Cotes cerradas con n par (n + 1
nodos), el error es un innitesimo del orden de h
n+3
. por contra, para n par
el error es del orden de h
n+2
(De aqu la ventaja de utilizar formulas como
la de Simpson, con n par).
4.3.3. F ormulas de cuadratura compuestas.
Son las que se obtienen al dividir el intervalo de integraci on [a, b] en n
subintervalos iguales y a cada uno de estos aplicarles una formula sencilla,
por ejemplo la f ormula del trapecio o la regla de Simpson, estas f ormulas
tienen buenas propiedades de estabilidad y convergencia. Veamos a modo de
ejemplo las f ormulas compuestas del trapecio y de Simpson.
4.3. Integraci on numerica 79
1. F ormula del trapecio compuesta. Dividimos el intervalo de partida
[a, b] en n subintervalos de la misma amplitud, haciendo h =
ba
n
, x
0
=
a, x
j
= x
0
+jh y aplicamos a cada subintervalo la f ormula del trapecio
simple, entonces se obtiene
_
b
a
f(x)dx =
n1

j=0
_
x
j+1
x
j
f(x)dx
n1

j=0
h
2
[f(x
j
) + f(x
j+1
)]
de donde se obtiene
_
b
a
f(x)dx
h
2
[f
0
+ 2
n1

j=1
f
j
+ f
n
] (3.10)
en la que f
j
= f(x
j
); ahora si f C
(2)
([a, b]) el error puede escribirse,
tras sumar los errores cometidos en cada subintervalo, en la forma
R(f) = f

()
(b a)
3
12n
2
= f

()
(b a)
12
h
2
(3.10*)
2. F ormula de Simpson compuesta. De la misma manera que antes
dividamos el intervalo de partida en n subintervalos de la misma lon-
gitud, suponiendo que f es conocida en todos los extremos x
j
de los
subintervalos y en los puntos medios de los mismos que indicamos por
x
j+
1
2
= x
j
+
h
2
, aplicando a cada subintervalo la regla de Simpson simple
se obtiene la f ormula compuesta correspondiente
_
b
a
f(x)dx
h
6
[f
0
+ 2
n1

j=1
f
j
+ 4
n1

j=0
f
j+
1
2
+ f
n
] (3.11)
y el error correspondiente,si f C
(4)
([a, b]), viene dado por
R(f) = f
(4)
()
(b a)h
4
2880
= f
(4)
()
(b a)
5
2880n
4
(3.11*)
con intermedio entre a y b.
4.3.4. Estabilidad y convergencia
Como se ha dicho anteriormente, la estabilidad de un metodo numerico
mide su sensibilidad frente a errores de c alculo o en los datos. Para el caso
de las f ormulas de cuadratura se da la siguiente.
80 Captulo 4. Interpolacion. Derivacion e integracion numerica
Denici on 13 Se dira que una formula de integracion numerica en n + 1
puntos, que escribimos ahora en la forma
_
b
a
f(x)dx
n

i=0
a
n
i
f(x
i
)
es estable si (
0
,
1
, . . . ,
n
) existe una constante M independiente de n tal
que:
[
n

i=0
a
n
i
f(x
i
) [ M m ax
k
[
k
[
Tambien se introduce el concepto de convergencia como sigue.
Denici on 14 Una formula de integracion numerica en n + 1 puntos
_
b
a
f(x)dx
n

i=0
a
n
i
f(x
i
)
se dira convergente sobre un conjunto V cualquiera que sea f V se tiene
lim
n
[
n

i=0
a
n
i
f(x
i
) [=
_
b
a
f(x)dx
Notas. Damos seguidamente algunos resultados sobre estabilidad y conver-
gencia.
Las formulas de Newton-C otes simples son inestables (luego no son
recomendables para valores grandes de n).
Una condici on necesaria y suciente para que un metodo de cuadratura
de tipo interpolatorio sea convergente sobre C([a, b]) es que sea estable.
Las f ormulas del trapecio y Simpson compuestas son estables y con-
vergentes; en general, las f ormulas compuestas de Newton-C otes, de
grado de exactitud r en n + 1 puntos, tales que los coecientes de la
correspondiente f ormula simple son positivos es estable.
4.4. Problemas y trabajos propuestos
Problemas propuestos:
1. Hallar el polinomio de interpolaci on de Lagrange que pasa por los pun-
tos: (0, 2), (1, 6), (3, 40).
4.4. Problemas y trabajos propuestos 81
2. Utilizando el polinomio de interpolaci on de Lagrange, estimar el valor
de f(4), sabiendo que f(1) = 2, f(0) = 0, f(3) = 4 y f(7) = 7.
3. Mediante la formula de Newton en diferencias divididas, obtener el
polinomio de interpolaci on que se ajusta a la tabla
x : 0 1 2
f(x) : 1 2 3
4. Obtener, mediante la f ormula de Newton progresiva, el polinomio que
interpola a la funci on de la que se conocen los siguientes datos:
x : 0 1 2 3 4
f(x) : 0 1 8 27 64
5. Calcular, mediante la formula de Newton regresiva, el polinomio inter-
polador que pasa por los puntos: (1, 1), (0, 1), (1, 1) y (2, 5).
6. Dada la tabla
x : 0,125 0,250 0,375 0,500
f(x) : 0,792 0,773 0,744 0,704
Obtener el polinomio de interpolacion mediante la formula de
Newton progresiva.
Obtener el polinomio de interpolacion mediante la formula de
Newton regresiva.
Razonar la posible igualdad de ambos.
7. De la tabla de logaritmos decimales se obtienen los siguientes valores
aproximados para log
10
(x): log
10
(1,5) = 0,17609, log
10
(2) = 0,30103,
log
10
(3) = 0,47712, log
10
(3,5) = 0,54407. Mediante el polinomio de
interpolaci on aproximar el log
10
(2,5) y acotar el error cometido.
8. Utilizando la f ormula de Newton progresiva, hallar el polinomio de
grado menor o igual que 5, que pasa por los puntos de la tabla
x : 3 1 1 3 5 7
f(x) : 14 4 2 8 22 44
9. Calcular una aproximacion de

2 y dar una cota del error cometido


utilizando el polinomio de interpolaci on de la funci on f(x) = 2
x
en los
puntos 2, 1, 0, 1.
82 Captulo 4. Interpolacion. Derivacion e integracion numerica
10. Dada la tabla de valores
x : 0 1 2 3 4
f(x) : 0 1 4 7 8
Se pide el spline c ubico que pasa por esos puntos y una estimacion de
f(1,5) y de f

(2).
11. Usar una f ormula de Newton progresiva para hallar el polinomio de
interpolaci on que aproxime a una funci on f(x) tal que f(0) = 0 y
f(n) = 1
2
+ 2
2
+ + n
2
, n N.
12. Probar que si f(x) = (x x
0
)(x x
1
) (x x
n
), entonces para todo
x es f[x
0
, x
1
, . . . , x
n
, x] = 1 (Ayuda: Usar la relaci on existente entre la
diferencia dividida y una adecuada derivada de f).
13. El valor de e
0,2
se estima por interpolacion a partir de los valores e
0
=
1, e
0,1
1,1052 y e
0,3
1,3499. Hallar dicho valor interpolado y acotar
el error cometido.
14. Hallar a
1
y a
2
para que las formulas de derivacion e integraci on numeri-
cas:
f

(
1
2
) a
1
f(0) + a
2
f(
1
2
) y
_
1
0
f(x)dx a
1
f(0) + a
2
f(
1
2
)
sean exactas para las funciones 1 y x.
15. Obtener una formula de derivaci on numerica de tipo interpolatorio para
el calculo aproximado de f

(a), siendo conocidos los valores de f en los


puntos a, a +
h
4
, a +
h
2
y a +h. Utilizar dicha f ormula par aproximar la
derivada de f(x) = cos(hx
2
) con x = a = 1 y h = 0,1.
16. Calcular a
1
, a
2
y a
3
para que la f ormula
_
1
1
f(x)dx a
1
f(1) + a
2
f(1) + a
3
f()
sea exacta del mayor grado posible, siendo un n umero dado tal que
1 < < 1. Utilizar dicha formula para estimar el valor de la integral
_
1
1
_
5x + 13
2
dx
con = 0,1. Comparar el valor obtenido con el verdadero valor de
dicha integral.
4.4. Problemas y trabajos propuestos 83
17. Supuestos conocidos los valores de f en los puntos c 2h, c h, c +
h, c + 2h; hallar una formula para aproximar la derivada f

(c) y dar
una expresi on del error si f es de clase C
(5)
en un intervalo que contenga
a dichos puntos.
18. Calcular los coecientes y nodos para que la f ormula de integracion
numerica
_
1
1
f(x)dx A
0
f(x
0
) + A
1
f(x
1
) tenga el maximo orden de
exactitud. Aplicarla para calcular aproximadamente la integral
_
1
1
(1 + x
2
)senxdx
19. Aplicar la regla de Simpson compuesta a la integral
_
x
1
1
t
dt, para obtener
una aproximaci on de ln2, determinando el n umero de subintervalos a
considerar para que el error cometido en esa aproximaci on sea menor
que 10
3
.
20. Utilizar la regla del trapecio compuesta para aproximar la integral
_
3,4
1,8
e
x
dx, eligiendo el paso h para que el error cometido sea menor
que 5 10
3
. Con el mismo paso anterior, integrarla por la regla de
Simpson compuesta y estimar el error correspondiente.
21. Obtener el valor aproximado de la integral
_
2
1
(lnx)
2
dx utilizando las
f ormulas compuestas del punto medio, trapecio y Simpson, dividiendo
el intervalo en ocho subintervalos y estimando el error en cada caso.
Trabajos propuestos:
Se propone en este tema realizar alguno de los siguientes trabajos:
Diferencias divididas con argumentos repetidos y errores en los metodos
interpolatorios.
Interpolaci on de Hermite y aplicaciones.
Interpolaci on por polinomios trigonometricos y transformada r apida de
Fourier.
Estabilidad y convergencia en los problemas de derivaci on e integracion
numerica.
F ormulas de cuadratura gaussianas.
Metodo de Romberg para derivacion e integraci on numerica.
Captulo 5
Resoluci on numerica de
problemas de valor inicial para
ecuaciones diferenciales
ordinarias: Metodos
Runge-Kutta y multipaso
lineales
5.1. Problemas de valor inicial para ecuacio-
nes diferenciales ordinarias
Se denomina problema de valor inicial, abreviadamente PVI, para la ecua-
ci on diferencial ordinaria y

(t) = f(t, y(t)) al problema de hallar una soluci on


de la misma vericando una condicion inicial dada y(a) = . Es decir, se tra-
ta de obtener una funci on y(t), denida en alg un intervalo I conteniendo al
punto a, vericando las condiciones
PV I
_
y

(t) = f(t, y(t)), t I


y(a) =
En primer lugar, enunciamos el siguiente teorema que garantiza la exis-
tencia y unicidad de soluci on del problema de valor inicial planteado ante-
riormente, en el caso escalar.
Teorema 30 Sea f : D = [a, b] R R, con a y b reales nitos, una
funcion continua vericando una condicion de Lipschitz, con respecto a y en
85
86 Captulo 5. Resoluci on numerica de problemas de valor inicial
D, de la forma: existe L constante tal que cualesquiera que sean t, y, y con
(t, y), (t, y) D es
[f(t, y) f(t, y)[ L [ y y [
entonces, si es cualquier n umero real dado, existe una unica solucion y(t)
del PVI que se denota por y(t; a, ), que es de clase C
(1)
con respecto a
t [a, b] y continua con respecto a .
Observaci on: Damos aqu una condici on suciente para que f(t, y) ve-
rique una condicion de Lipschitz.
Si f(t, y) y
f(t,y)
y
son contnuas para todo (t, y) D, siendo D convexo
(lo es en las hipotesis del teorema anterior), por el teorema del valor medio
se tiene
f(t, y) f(t, y) =
f(t, y)
y
(y y)
con y y y o bien y y y. Entonces, si existe L = sup
(t,y)D
[
f(t,y)
y
[,
f(t, y) vericar a la condici on de Lipschitz anterior.
Para el caso vectorial tenemos an alogamente el siguiente teorema
Teorema 31 Sea f : D = [a, b] R
s
R
s
, con a y b nitos, una fun-
cion continua vericando la siguiente condicion de Lipschitz con respecto a
y en D: existe L constante de manera que cualesquiera que sean t, y, y con
(t, y), (t, y) D es
| f(t, y) f(t, y) | L | y y |
entonces, si es cualquier vector dado de R
s
, existe una unica solucion vecto-
rial y(t) del PVI que se denota por y(t; a, ), que es de clase C
(1)
con respecto
a t [a, b] y continua con respecto a R
s
. Si se sustituye la condicion ini-
cial y(a) = por y(t
0
) = y
0
, tambion existe una unica solucion y(t; t
0
, y
0
)
que depende continuamente de los datos (t
0
, y
0
). Si ademas de las condicines
anteriores f C
(p)
en D, entonces la solucion y(t; t
0
, y
0
) es de clase C
(p+1)
respecto a t en [a, b] y de clase C
(p)
con respecto a y
0
en R
s
.
Observaciones:
Aqu | | es una norma cualquiera en R
s
(se indicar a indistintamente
por [ [ si no hay lugar a confusion).
Como antes, si f(t, y) y f(t, y)/y (Jacobiana de f respecto a y) son
continuas y existe L = sup
(t,y)D
| f(t, y)/y |, la funcion f(t, y)
vericar a la condici on de Lipschitz anterior.
5.2. Metodos de un paso generales: deniciones y resultados 87
El problema de valor inicial vectorial se escribe desarrollado en la forma:
y

1
= f
1
(t, y
1
, y
2
, ..., y
s
), y
1
(a) =
1
y

2
= f
2
(t, y
1
, y
2
, ..., y
s
), y
2
(a) =
2
...............
y

s
= f
s
(t, y
1
, y
2
, ..., y
s
), y
s
(a) =
s
En lo sucesivo indicaremos por C
L
= f : D = [a, b] R
s
R
s
[ f es
continua y verica una condicion de Lipschitz del tipo anterior y por
C
(p)
= f : D = [a, b] R
s
R
s
[ tal que f admite todas las derivadas
parciales hasta el orden p y son continuas en D.
Ecuaciones de orden superior al primero
En la pr actica suelen aparecer problemas de valor inicial para ecuaciones
diferenciales ordinarias de orden s > 1, que escritas en la forma normal o
explcita se expresan como sigue
y
(s)
= f(t, y, y

, y

, ..., y
(s1)
), y
(k)
(a) =
k
(k = 0, 1, 2, ..., s 1)
Entonces, deniendo las funciones vectoriales
y =
_
_
_
_
_
y
1
y
y
2
y

.
.
.
.
.
.
.
.
.
y
s
y
(s1)
_
_
_
_
_
F(t, y) =
_
_
_
_
_
y
2
y
3
.
.
.
f(t, y
1
, y
2
, ..., y
s
)
_
_
_
_
_
=
_
_
_
_
_

2
.
.
.

s
_
_
_
_
_
El problema del valor inicial dado ser a equivalente al PVI para el sistema
de primer orden
y

= F(t, y), y(a) =


Dado que, en general, nos referiremos a metodos numericos para problemas
de valor inicial expresados en esta forma, conviene recordar este modo simple
de pasar de una ecuacion de orden superior al primero a un sistema de primer
orden equivalente.
5.2. Metodos de un paso generales: denicio-
nes y resultados
Cuando se estudia la resolucion numerica de un problema de valor inicial
es habitual suponer que esta matematicamente bien planteado, es decir, que
88 Captulo 5. Resoluci on numerica de problemas de valor inicial
tiene soluci on unica y que esta depende continuamente de los datos inicia-
les. Con las hipotesis antes se naladas esto esta garantizado. Aunque no es
suciente para asegurar una buena resolucion numerica; en efecto, si conside-
ramos dos soluciones que salen en el instante t = 0 de y
0
e y
0
respectivamente,
se puede probar que
t [a, b] :[ y(t, t
0
, y
0
) y(t, t
0
, y
0
[ e
t
[ y
0
y
0
[
entonces, si el factor e
t
se hace grande, una resolucion numerica puede no
tener sentido con medios de c alculo limitados, ya que los posibles errores de
redondeo propagados podran ser amplicados por el factor e
t
. De manera
que, en lo que sigue, consideraremos la resoluci on numerica de PVI numeri-
camente bien planteados en el sentido de que e
t
no sea demasiado grande,
donde esta terminologa heurstica depende de la precision del ordenador o
medio de calculo utilizado. En la resolucion numerica de un PVI de la forma
_
y

(t) = f(t, y(t)), t [a, b]


y(a) =
donde f es, indistintamente, escalar o vectorial, se suele considerar un con-
junto de puntos en [a,b] de la forma
a = t
0
< t
1
< t
2
< .... < t
N
= b
que llamamos red en [a, b], y a los h
j
= t
j+1
t
j
, pasos de la red. En general,
por simplicidad en el planteamiento, tomaremos todos los pasos h
j
= h jos,
aunque se podran tomar variables siempre que el mayor de ellos tendiera a
cero. Llamaremos metodo de un paso a todo algoritmo en el que a partir
de los datos t
n
, y
n
(aproximacion de la solucion en el punto t
n
de la red) y el
paso h, podemos calcular un valor y
n+1
que aproxima a la soluci on del PVI
en el punto t
n
+ h.
Algunos de los metodos m as antiguos de aproximacion numerica de las
soluciones de una ecuaci on diferencial estan motivados por sencillas conside-
raciones geometricas basadas sobre el campo de direcciones (o pendientes)
denidas por el miembro de la derecha de la ecuaci on diferencial; entre es-
tos estan los metodos de Euler y de Euler modicado. Otros m as precisos y
sosticados est an basados en los desarrollos en serie de Taylor y los veremos
en un p arrafo posterior.
El metodo de Euler fue propuesto por dicho autor en 1768, en los
primeros das del calculo. Consiste basicamente en seguir la pendiente del
punto (t
n
, y
n
) sobre un intervalo de longitud h, as la aproximaci on en el
punto t
n
+ h est a dada por
5.2. Metodos de un paso generales: deniciones y resultados 89
y
n+1
= y
n
+ hf(t
n
, y
n
), (n = 0, 1, ..., N 1)
y cuyo signicado geometrico es bastante sencillo, consiste en dar como apro-
ximaci on de la soluci on en el punto t
n+1
= t
n
+h, la que dara la recta tangente
en el punto (t
n
, y
n
) a la curva integral del PVI: y

(t) = f(t, y(t)), y(t


n
) = y
n
,
evaluada en el punto t
n+1
= t
n
+ h.
5.2.1. Expresion general de los metodos de un paso
Seg un hemos dicho antes, un metodo de un paso es un algoritmo que
relaciona la aproximaci on y
n+1
a y(t
n+1
; t
n
, y
n
) con (t
n
, y
n
) y la longitud del
paso h, se suele expresar como sigue
y
0
=
y
n+1
= y
n
+ h(t
n
, y
n
; h)(n = 0, 1, ..., N 1)
(5.1)
donde es una funci on que depende de la ecuaci on diferencial considerada y
se llama funci on incremento del metodo, puede pensarse como el incremen-
to aproximado por unidad de paso. Para el denominado metodo de Euler
explcito o progresivo, descrito antes es (t, y; h) = f(t, y) y para el meto-
do de Euler implcito o regresivo, dado por el algoritmo
y
n+1
= y
n
+ hf(t
n+1
, y
n+1
)
la funci on incremento habra que denirla implcitamente por medio de la
ecuaci on funcional
(t, y; h) = f(t + h, y + h(t, y; h))
En general, si la funci on incremento se puede expresar explcitamente
en terminos de f (y eventualmente de derivadas de f), el metodo se llama
explcito, en cambio si est a relacionada implcitamente con f, el metodo se
llama implcito. Sin perdida de generalidad, tomaremos redes uniformes, con
paso jo h = t
j+1
t
j
=
ba
N
> 0 (en otro caso basta con hacer que h =
m ax h
n
0). Dada la ecuacion diferencial y

(t) = f(t, y(t)), supondremos,


como siempre, que f es continua en D y lipschitziana con respecto a y en D
o dicho brevemente que f C
L
.
Denici on 15 Llamaremos error local en el punto (

t, y) con paso h al
que se cometera partiendo de ese punto con paso h, dividido por h, es decir
e(

t, y; h) =
1
h
[y(

t + h;

t, y) y] ((

t, y; h)
90 Captulo 5. Resoluci on numerica de problemas de valor inicial
o sea es la diferencia entre el incremento exacto y aproximado por unidad de
paso.
Se dira que este error es de orden p, si para toda ecuacion diferencial
con f de clase C
(p)
, continua y lipschitziana con respecto a y en D, se tiene
[ e(

t, y; h) [= O(h
p
), (h O
+
)
El concepto de estabilidad se introduce para controlar el comportamien-
to global del metodo frente a perturbaciones locales, que pueden interpretarse
como errores locales de truncatura o de redondeo. Para simplicar la presen-
taci on, en lo sucesivo, y mientras no se diga lo contrario, supondremos que
el metodo se aplica con paso jo h = T/N, donde N es un entero positivo.
Denici on 16 Sea el esquema numerico original
_
y
0
=
y
n+1
= y
n
+ h(t
n
, y
n
; h)(n = 0, 1, ..., N 1)
(5.2)
y el esquema perturbado
_
y
0
= y
0
+
0
y
n+1
= y
n
+ h(t
n
, y
n
; h) +
n+1
(n = 0, 1, ..., N 1)
(5.3)
donde
i
son perturbaciones arbitrarias. Diremos que el metodo (5.1) es es-
table, si para todo PVI las soluciones de (5.2) y (5.3) verican
m ax
0nN
[ y
n
y
n
[ k
1
N

j=0
[
j
[
donde k
1
depende solo del PVI considerado, pero no depende de h ni de las
perturbaciones.
Con objeto de averiguar si un metodo (5.1) tiene esta propiedad, exigible
a todo metodo numerico, enunciamos a continuaci on un teorema que nos
da condiciones sucientes para la estabilidad de un metodo numerico de un
paso.
Teorema 32 Condicion suciente de estabilidad.- Si la funcion in-
cremento del metodo numerico (t, y; h) verica una condicion de Lipschitz
respecto a y de la forma: existe constante tal que y, y R
s
, t [a, b]
y h [0, h
0
) es [ (t, y; h) (t, y; h) [ [ y y [; entonces, el metodo
numerico de un paso (5.1) es estable.
5.2. Metodos de un paso generales: deniciones y resultados 91
Desde luego a todo metodo numerico le vamos a requerir que sea con-
vergente, es decir que las aproximaciones que genere converjan a la solucion
buscada, lo que denimos a continuaci on con m as precisi on.
Denici on 17 El metodo (5.1) se dice convergente si para todo PVI con
f C
L
se verica que
lm
h0
+
m ax
0nN
[ y
n
y(t
n
) [= 0 (siendo Nh = T)
Y se dice convergente de orden p si para todo PVI con f C
L

C
(p)
, se
verica que
m ax
0nN
[ y
n
y(t
n
) [= O(h
p
) (h O
+
)
Nos ser a util introducir un nuevo concepto, a saber la consistencia, que nos
mide c omo las soluciones exactas verican la ecuaci on del metodo numerico.
Denici on 18 El metodo (5.1) se dice consistente si para todo PVI con
f C
L
se verica que
lm
h0
+
m ax
0nN1
[
1
h
[y(t
n+1
) y(t
n
)] (t
n
, y(t
n
); h) [= 0 (siendo Nh = T)
para toda solucion y(t) de la ecuacion diferencial y

= f(t, y). Y consistente


de orden p si para todo PVI con f C
L

C
(p)
, se verica que
m ax
0nN1
[
1
h
[y(t
n+1
) y(t
n
)] (t
n
, y(t
n
); h) [= O(h
p
) (h O
+
)
Ahora estamos en condiciones de enunciar el teorema fundamental que sigue,
que nos da una condicion necesaria y suciente de convergencia.
Teorema 33 Teorema fundamental.- Un metodo numerico de un paso
(5.1), con funcion incremento vericando la condicion de Lipschitz del teo-
rema anterior, es convergente (respectivamente convergente de orden p) si y
solo s es consistente (respectivamente consistente de orden p).
Veamos seguidamente el enunciado de dos teoremas que nos dan condi-
ciones sucientes de consistencia.
Teorema 34 Si el error local de un metodo (5.1) es de orden p, el metodo
es consistente de orden p, y por el anterior convergente del mismo orden.
92 Captulo 5. Resoluci on numerica de problemas de valor inicial
Teorema 35 Si la funcion incremento de un metodo (5.1), , es continua
respecto a todos sus argumentos en su dominio de denicion, y verica la
condicion de Lipschitz del teorema 3. El metodo (5.1) es consistente (y por
lo tanto convergente) si y solo si para todo PVI con f C
L
se tiene que
(t, y, 0) = f(t, y), (t, y) [a, b] R
s
Los conceptos de convergencia, estabilidad y consistencia se generalizan
sin dicultad a redes no uniformes. Siendo los teoremas anteriores igualmente
v alidos en esta situacion m as general.
Finalmente, para el estudio del orden de un metodo numerico de un pa-
so, nos ser a muy util el teorema siguiente, que se prueba desarrollando en
potencias de h, mediante desarrollos de Taylor, los errores locales, con paso
h, a partir de los puntos (t
n
, y(t
n
)) de la soluci on exacta.
Teorema 36 Sea f : [a, b]R
s
R
s
de clase C
(p)
y suponer que las funcio-
nes (t, y; h),

h
(t, y; h), ... ,

p

h
p
(t, y; h) son continuas en [a, b] R
s
[0, h

],
siendo (t, y; h) lipschitziana con respecto a y en dicho dominio. Entonces,
una condicion necesaria y suciente para que el metodo numerico de fun-
cion incremento (t, y; h) sea de orden, al menos, p es que se veriquen las
condiciones siguientes:
(t, y; 0) = f(t, y)

h
(t, y; 0) =
1
2
f
(1)
(t, y)
...

p1

h
p1
(t, y; 0) =
1
p
f
(p1)
(t, y)
y se dice de orden, exactamente, p si ademas es

h
p
(t, y; 0) ,=
1
p+1
f
(p)
(t, y)
donde las derivadas sucesivas de f a lo largo de las soluciones del sistema
diferencial vienen dadas por
f
(0)
(t, y) = f(t, y)
f
(1)
(t, y) = f
(0)
t
(t, y) + f
(0)
y
(t, y)f(t, y)
...
f
(k)
(t, y) = f
(k1)
t
(t, y) + f
(k1)
y
(t, y)f(t, y)
5.3. Metodos de Taylor 93
5.3. Metodos de Taylor
El metodo m as sencillo de un paso es el metodo de Euler, que a su vez es
f acilmente programable, pero tiene el inconveniente de que al ser los errores
globales (EG) del orden de h, para conseguir que sean peque nos hay que
tomar pasos peque nos, con lo que el costo computacional se hace mayor, a la
vez que los errores de redondeo aumentan. Interesa pues, buscar metodos que
den EG peque nos con un costo computacional razonable. Entonces, se hace
necesario considerar metodos de orden p > 1. Una posibilidad es la siguiente:
Metodos de Taylor de orden p. Si la funcion que dene la ecuacion
diferencial es f C
L

C
(p)
; entonces, la soluci on exacta del PVI
PV I
_
y

(t) = f(t, y(t)), t [a, b]


y(t
n
) = y
n
admite el siguiente desarrollo de Taylor si t
n
, t
n
+ h [a, b]:
y(t
n
+h; t
n
, y
n
) = y
n
+hy

(t
n
)+
h
2
2!
y

(t
n
)+ +
h
p
p!
y
(p)
(t
n
)+
h
p+1
(p + 1)!
y
(p+1)
(

t
n
) =
y
n
+ hf(t
n
, y
n
) +
h
2
2!
f
(1)
(t
n
, y
n
) + +
h
p
p!
f
(p1)
(t
n
, y
n
) +
h
p+1
(p + 1)!
f
(p)
(

t
n
, y
n
)
donde
y

(t
n
) = f(t
n
, y
n
)
y

(t
n
) = f
(1)
(t
n
, y
n
) = (f
t
+ f
y
f)(t
n
, y
n
)
y

(t
n
) = f
(2)
(t
n
, y
n
) = (f
(1)
t
+ f
(1)
y
f)(t
n
, y
n
)
. . .
y
(k+1)
(t
n
) = f
(k)
(t
n
, y
n
) = (f
(k1)
t
+ f
(k1)
y
f)(t
n
, y
n
)
Por tanto, si prescindimos del resto en la expresi on del desarrollo de Taylor
anterior, obtenemos el metodo numerico de un paso
y
n+1
= y
n
+h(t
n
, y
n
; h) = y
n
+hf(t
n
, y
n
)+
h
2
2!
f
(1)
(t
n
, y
n
)+ +
h
p
p!
f
(p1)
(t
n
, y
n
)
que verica
[
1
h
[y(t
n
+ h; t
n
, y
n
) y
n
] (t
n
, y
n
; h) [= O(h
p
), (h 0
+
)
94 Captulo 5. Resoluci on numerica de problemas de valor inicial
es decir el error local es de orden p, se denomina metodo de Taylor de
orden p. Para el caso p = 1 se reduce al metodo de Euler. Desde luego, la
funci on incremento para el metodo de Taylor de orden p est a dada por:
(t, y; h) = f(t, y) +
h
2!
f
(1)
(t, y) + +
h
p1
p!
f
(p1)
(t, y)
Es facil ver que si las funciones f
(k)
(t, y) verican en su dominio [a, b] R
s
,
condiciones de Lipschitz con respecto a y, con constates de Lipschitz respec-
tivas L
0
, L
1
,...;L
p1
; entonces, (t, y; h) tambion la verica con constante de
Lipschitz:
L = L
O
+
1
2
L
1
+ +
1
p!
L
p1
en virtud de los teoremas anteriores se concluye que se trata de un metodo
convergente de orden p. As pues, si la funcion que describe la ecuacion
diferencial f, es una funci on sucientemente derivable, en principio, dispone-
mos de un procedimiento sencillo para obtener metodos numericos de integra-
ci on de un paso de orden elevado. Aunque este metodo puede presentar los
siguientes inconvenientes: 1) Que f(t,y) no admita las derivadas necesarias
para aplicarlo. 2) Que a un existiendo las derivadas sucesivas, la compleji-
dad de su calculo sea extraordinariamente grande y esto complique o haga
imposible su obtenci on efectiva.
Ejercicio. Aplicar el metodo de Taylor de tercer orden para integrar
numericamente el PVI: y

= y, y(0) = 1, tomando h = 0,1 en el intervalo


[0, 1].
Hemos de realizar el algoritmo
y
0
= 1
y
n+1
= y
n
+ h(t
n
, y
n
; h)(n = 0, 1, ..., N 1)
(5.4)
donde para orden tres, la funcion incremento se reduce a
(t
n
, y
n
; h) = f(t
n
, y
n
) +
h
2!
f
(1)
(t
n
, y
n
) +
h
2
3!
f
(2)
(t
n
, y
n
)
y puesto que en este caso se tiene que
f(t, y) = f
(1)
(t, y) = f
(2)
(t, y) = y
la funcion incremento viene dada por
(t
n
, y
n
; h) = y
n
+
h
2
y
n
+
h
2
3!
y
n
= (1 +
h
2
+
h
2
3!
)y
n
5.4. Desarrollo asint otico del error global y aplicaciones 95
y el metodo se reduce a realizar el algoritmo
y
0
= 1
y
n+1
= (1 + h +
h
2
2
+
h
3
3!
)y
n
(n = 0, 1, ..., 9)
(5.5)
ahora sustituyendo cada uno en el siguiente y teniendo en cuenta que y
0
= 0,
resulta
y
n+1
= (1 + h +
h
2
2
+
h
3
3!
)
n+1
(n = 0, 1, ..., 9)
Reteniendo 6 cifras decimales redondeadas se obtiene la siguiente tabla, en
cuya primera columna se representan los nodos t
i
= i 0,1, en la segunda
los valores aproximados y
i
, proporcionados por el metodo de Taylor de tercer
orden, y en la tercera los valores de la solucion exacta y(t
i
) = e
t
i
0,0 1,000000 1,000000
0,1 1,105167 1,105171
0,2 1,221393 1,221403
0,3 1,349843 1,349859
0,4 1,491802 1,491825
0,5 1,648690 1,648721
0,6 1,822077 1,822119
0,7 2,013698 2,013753
0,8 2,225472 2,225541
0,9 2,459518 2,459603
1,0 2,718177 2,718282
Que a un coincidiendo en x = 1 s olo tres cifras decimales de la soluci on
aproximada obtenida y de la exacta mejora notablemente al de Euler que,
integrando con el mismo paso, solo da correcta la parte entera.
5.4. Desarrollo asintotico del error global y
aplicaciones
Para el estudio de desarrollos asint oticos del error en los metodos gene-
rales de un paso, haremos las siguientes hipotesis sobre el PVI a integrar y
el metodo de integracion:
1. Que f C
(p)
(), siendo el -entorno de la solucion = (t, y)[t
[a, b] e [y y(t)[ .
2. Que el metodo numerico de integraci on tiene orden p 1 y su funci on
incremento (t, y; h) C
(q)
( [0, h

]) y p + 1 q.
96 Captulo 5. Resoluci on numerica de problemas de valor inicial
Entonces podemos enunciar el siguiente teroema.
Teorema 37 Si el PVI y el metodo numerico verican las hipetesis 1 y 2
anteriores, el error global en todo punto t = t
n
de la red admite un desarrollo
asintotico de la forma:
y(t) y
h
(t) = d
p
(t)h
p
+ + d
q
(t)h
q
+ E(t, h)h
q+1
donde las funciones d
i
(t) depende de t pero no de h y E(t, h) esta acotada
en conjuntos compactos.
5.4.1. Estimaci on del error global mediante el metodo
de extrapolacion al lmite de Richardson
Sea y
h
(t) el valor de la solucion numerica en el punto t, calculado con
paso h, donde t = t
n
= nh. De acuerdo con el teorema anterior, si el metodo
es de orden p, se tiene:
y(t) y
h
(t) = d
p
(t)h
p
+ O(h
p+1
)
siendo d
p
(t) independiente del paso h, repitiendo la integracion con paso h/2
se tendra:
y(t) y
h/2
(t) = d
p
(t)(h/2)
p
+ O(h
p+1
)
y restando a la primera la segunda, resulta
y
h/2
(t) y
h
(t) = (1
1
2
p
)h
p
d
p
(t) + O(h
p+1
) = (2
p
1)(h/2)
p
d
p
(t) + O(h
p+1
)
luego
y
h/2
(t) y
h
(t)
2
p
1
= (h/2)
p
d
p
(t) + O(h
p+1
)
por tanto
E =
y
h/2
(t) y
h
(t)
2
p
1
es una estimacion asint oticamente correcta del error de la solucion de
orden p con paso h/2 y se llama de Richardson.
En realidad, segu un el teorema anterior, el error global esta dado por un
desarrollo de la forma
y(t) y
h
(t) = d
p
(t)h
p
+ d
p+1
(t)h
p+1
+ . . .
donde las d
i
(t) son independientes del paso h; por tanto, se tendra
y(t) y
h/2
(t) = d
p
(t)(h/2)
p
+ d
p+1
(t)(h/2)
p+1
+ . . .
5.4. Desarrollo asint otico del error global y aplicaciones 97
ahora, multiplicando esta segunda por 2
p
y restandole la primera se obtiene
(2
p
1)y(t) 2
p
y
h/2
(t) + y
h
(t) = (
1
2
)
p
d
p+1
(t)h
p+1
+ . . .
por tanto
y(t)
2
p
y
h/2
(t) y
h
(t)
2
p
1
= (
1
2(2
p
1
)d
p+1
(t)h
p+1
+ . . .
luego
2
p
y
h/2
(t) y
h
(t)
2
p
1
=
y
h
(t) 2
p
y
h/2
(t)
1 2
p
= y
h/2
(t) + E
es una aproximacion de y(t) de orden superior a las previas (concretamente
de orden mayor o igual que p + 1), que podemos llamar aproximaci on
mejorada de Richardson. Este procedimeinto se puede reiterar y obtener
aproximaciones de orden superior, siendo aplicable a otros problemas cuyo
desarrolo del error es similar al expuesto, lo vemos abreviadamente en lo que
sigue.
5.4.2. Extrapolacion al lmite de Richardson
En muchas situaciones en Analisis Numerico queremos evaluar un n umero
I
0
, pero s olo somos capaces de obtener una aproximacion I(h), donde h es un
par ametro de discretizaci on positiva (longitud de paso) y donde I(h) I
0
cuando h 0; supongamos ademas que I(h) tiene un desarrollo asint otico
de la forma
I(h) =
N

k=0
I
k
h
k
+ O(h
N+1
)(h 0)
donde los coecientes I
k
son independientes de h, que escribiremos de la
forma
I(h)

=
N

k=0
I
k
h
k
supongamos que calculamos I(h
0
) e I(h
0
/2), entonces
I(h
0
) = I
0
+ I
1
h
0
+ I
2
h
2
0
+ = I
0
+ O(h
0
)
I(h
0
/2) = I
0
+ I
1
h
0
/2 + I
2
(h
0
/2)
2
+ = I
0
+ O(h
0
/2)
combinando ambas
2I(h
0
/2) I(h
0
) = I
0

1
2
I
2
h
2
0
+ = I
0
+ O(h
2
0
)
98 Captulo 5. Resoluci on numerica de problemas de valor inicial
Luego, 2I(h
0
/2) I(h
0
), es una mejor aproximaci on de I
0
, que I(h
0
) o
I(h
0
/2), Si combinamos I(h
0
), I(h
0
/2), I(h
0
/4), podemos obtener una apro-
ximaci on de I
0
con un error O(h
3
0
). No es necesario usar la sucesi on h
0
, h
0
/2, h
0
/4,
es suciente con tomar h
0
> h
1
> h
2
> . . . En general, podemos encontrar
una combinaci on lineal con la propiedad
I(h) =
S

s=0
c
sS
I(h
s
) = I
0
+ O(h
S+1
0
)(h 0)
5.5. Metodos Runge-Kutta explcitos de m
etapas: formulaci on general
Se llama metodo RK explcito de m etapas (abreviadamente RK(m))
para la resoluci on numerica del problema de valor inicial
PV I
_
y

(t) = f(t, y(t)), t I


y(t
0
) = y
0
a un algoritmo en el que a partir de la aproximacion a la soluci on (t
n
, y
n
) se
obtiene la (t
n+1
, y
n+1
) mediante
t
n+1
= t
n
+ h
y
n+1
= y
n
+ h

m
j=1
b
i
K
i
(5.6)
donde
_

_
K
1
= f(t
n
, y
n
)
K
2
= f(t
n
+ c
2
h, y
n
+ ha
21
K
1
)
K
3
= f(t
n
+ c
3
h, y
n
+ h(a
31
K
1
+ a
32
K
2
))
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
k
m
= f(t
n
+ c
m
h, y
n
+ h(a
m1
K
1
+ a
m2
K
2
+ a
m,m1
K
m1
))
c
i
, a
ij
, b
j
, son constantes reales caractersticas del metodo. Siguiendo las
notaciones de Butcher es habitual especicar un metodo RK(m) por sus
coecientes escritos en forma de tabla como sigue
0
c
2
a
21
c
3
a
31
a
32
.
.
.
.
.
.
.
.
.
.
.
.
c
m
a
m1
a
m2
. . . a
m,m1
b
1
b
2
. . . b
m1
b
m
5.5. Metodos Runge-Kutta explcitos de m etapas: formulacion
general 99
o abreviadamente
c A
b
t
donde A es una matriz real de orden m m con ceros en la diagonal y por
encima de esta, b y c son matrices reales de ordenes m1, cuyos elementos
aparecen en la tabla anterior, en tanto que b
t
es la traspuesta de la matriz
columna b. En la forma usual de un metodo explcito, se escribir a
y
n+1
= y
n
+ h(t
n
, y
n
; h)
con (t
n
, y
n
; h) =

m
j=1
b
j
K
j
y K
j
= f(t
n
+ c
j
h, y
n
+ h

j1
s=1
a
js
K
s
los de-
nidos anteriormente, por tanto
(t, y; 0) =
m

j=1
b
j
f(t, y) = f(t, y)
m

j=1
b
j
luego, en las condiciones del teorema 6 sera consistente si y s olo si

m
j=1
b
j
=
1, condicion que supondremos siempre.
5.5.1. Tablas de Butcher: ejemplos diversos
1. El metodo debido a Runge (1895) esta dado por la tabla
0
1/2 1/2
0 1
que se corresponde con el algortimo
_
_
_
K
1
= f(t
n
, y
n
)
K
2
= f(t
n
+
1
2
h, y
n
+
1
2
hK
1
)
y
n+1
= y
n
+ hf(t
n
+
1
2
h, y
n
+
1
2
hf(t
n
, y
n
))
y se trata de un metodo Runge-Kutta explcito de dos etapas y orden
dos.
2. El metodo debido a Kutta (1905) esta dado por la tabla
0
1/2 1/2
1/2 0 1/2
1 0 0 1
1/6 1/3 1/3 1/6
100 Captulo 5. Resolucion numerica de problemas de valor inicial
y se corresponde con el algoritmo
_

_
K
1
= f(t
n
, y
n
)
K
2
= f(t
n
+
1
2
h, y
n
+
1
2
hK
1
)
K
3
= f(t
n
+
1
2
h, y
n
+
1
2
hK
2
)
K
2
= f(t
n
+ h, y
n
+ hK
3
)
y
n+1
= y
n
+
1
6
h[K
1
+ 2(K
2
+ K
3
) + K
4
]
que es un metodo RK explcito de cuatro etapas y orden cuatro, es
de los m as conocidos y utilizados, le denominamos el metodo Runge-
Kutta clasico de cuarto orden.
Observaci on.- Respecto a la aplicacion del metodo RK(m) a sistemas
diferenciales no autonomos, notemos que dado el PVI no aut onomo
_
y

(t) = f(t, y(t)), t I


y(t
0
) = y
0
R
s
si se introducen los vectores de R
s+1
: y(t) = (t, y(t))
t
, y
0
= (t
0
, y
0
)
t
y

f( y) =
(1, f(t, y(t)))
t
el problema de valor inicial no aut onomo anterior es equivalente
al problema autonomo
_
y

(t) =

f( y(t)), t I
y(t
0
) = y
0
Por tanto, si aplicamos el metodo RK(m) (5.6) a este, interesa que la soluci on
y
n+1
(t) en t
n+1
sea de la forma (t
n+1
, y
n+1
), donde t
n+1
= t
n
+ h e y
n+1
sean
los obtenidos anteriormente; y puede probarse, pero no lo haremos, que esto
ocurre para toda ecuaci on diferencial s y s olo si los coecientes del metodo
verican las relaciones
m

j=1
b
j
= 1
i1

j=1
a
ij
= c
i
(i = 1, 2, . . . , m)
Por ello, en lo sucesivo consideraremos unicamente metodos RK(m)
vericando estas igualdades, la primera de las cuales es la condicion de
consistencia y las segundas son denominadas condiciones de simplica-
cion (y expresan el hecho de que para cada la i, el c
i
correspondiente debe
ser igual a la suma de los a
ij
de esa misma la, lo que se traducir a en la
simplicaci on de las condiciones de orden).
5.5. Metodos Runge-Kutta explcitos de m etapas: formulacion
general 101
5.5.2. Convergencia y orden de los metodos RK(m)
explcitos
Consideraremos la clase PVI autonomos de la forma
_
y

(t) = f(y(t))
y(t
0
) = y
0
donde f verica la condicion de Lipschitz con respecto a y, con constante de
Lipschitz y supongamos un metodo RK(m) dado por
y
n+1
= y
n
+ h
m

j=1
b
i
K
i
donde
K
i
= f(y
n
+ h
i1

j=1
a
ij
K
j
) (i = 1, 2, . . . , m)
Para aplicar el teorema de estabilidad es necesario asegurar que la funci on
incremento satisface la condici on de Lipschitz con respecto a y. Para ello, se
puede probar por inducci on el siguiente teorema (cuya demostraci on detalla-
da puede verse en Calvo y otros).
Teorema 38 Si f verica la condicion de Lipschitz con respecto a y, con
constante para todo h (0, h
0
), entonces (y, h) tambien la verca con
constante

=
1
(1 + h
0
a)
m1
, donde a = m ax [ a
ij
[ y
1
=

m
j=1
[
j
[.
Conclusion.- Por el teorema fundamental de convergencia, todo metodo
RK(m) explcito es convergente si y solo si es consistente (y convergente de
orden q si y s olo si es consistente de orden q. Que es consistente es inmediato
pues (t, y; 0) = f(t, y) luego todos estos metodos son convergentes.
Orden de los metodos Runge-Kutta explcitos. Barreras de Butcher
El estudio del orden es algo complicado y recurre, en general, digamos
que para un n umero de etapas mayor o igual que 4, a la teora de arboles.
Seguidamente, damos sin demostracion algunos resultados relativos al orden
m aximo alcanzable por un metodo Runge-Kutta explcito de m etapas.
Teorema 39 Todo metodo RK explcito de m etapas tiene orden menor o
igual que m. Ademas, en la tabla que sigue se muestran algunos resultados
relativos al orden maximo alcanzable por un metodo Runge-Kutta explcito
de m etapas (barreras de Butcher):
N umero de etapas = m 1 2 3 4 5 6 7 8 9 10 11 . . .
Maximo orden alcanzable 1 2 3 4 4 5 6 6 7 7 8 . . .
102 Captulo 5. Resolucion numerica de problemas de valor inicial
Condiciones de orden.- Se pueden obtener, ya sea por desarrollo en serie
de Taylor de los errores o por aplicaci on del teorema 7 sobre el orden, las
siguientes condiciones de orden 2 para los metodos Runge-Kutta
explcitos de 2 etapas:
b
1
+ b
2
= 1
b
2
c
2
=
1
2
(5.7)
de donde se obtiene la familia uniparametrica de metodos RK explcitos de
2 etapas y orden 2
b
2
=
1
2c
2
; b
1
= 1
1
2c
2
(c
2
= a
21
, constante no nula) (5.8)
Y las condiciones de orden 3 para los metodos Runge-Kutta explci-
tos de 3 etapas resultan ser:
1) b
1
+ b
2
+ b
3
= 1
2) b
2
c
2
+ b
3
c
3
= 1/2
3) b
2
c
2
2
+ b
3
c
2
3
= 1/3 y 4) b
3
a
32
c
2
= 1/6
(5.9)
As, el metodo es de orden 1 si se verica la primera, pero no la segunda, de
orden 2 si se verican primera y segunda pero no alguna de las restantes y
de orden 3 (m aximo alcanzable) si se verican todas.
5.6. Formulaci on general de los metodos li-
neales multipaso: orden, consistencia, es-
tabilidad y convergencia. Teoremas de
Dahlquist
Seguidamente estudiaremos los metodos lineales multipaso (MLM) para
la resolucion numerica del PVI:
_
y

(t) = f(t, y(t)), t I


y(t
0
) = y
0
(5.10)
En los metodos multipaso la integracion avanza paso a paso utilizando infor-
maci on de la soluci on en varios pasos previos, concretamente los valores de la
soluci on y/o la derivada en varios puntos consecutivos de la red; as, suponga-
mos calculadas las aproximaciones y
j
, y

j
= f
j
= f(t
j
, y
j
) (j = 0, 1, . . . , n1)
a la soluci on y su derivada en los puntos t
j
de una red en el intervalo
[a, b]. Un metodo de k pasos es un algoritmo que permite determinar
y
n
y(t
n
) en funcion de y
nj
, f
nj
(j = 1, . . . , k). Con objeto de simpli-
car supondremos que la red es uniforme con paso jo h, de manera que
5.6. Formulacion general de los metodos lineales multipaso: orden,
consistencia, estabilidad y convergencia. Teoremas de Dahlquist 103
t
j
= a + jh (j = 0, 1, . . . , N) (siendo Nh = T = b a); y nos restringiremos
a los metodos lineales multipaso con coecientes constantes, en los que el
algoritmo que dene y
n
es lineal (se dice lineal porque los valores de y
j
, y

j
aparecen linealmente), y adopta la forma

k
j=0

kj
y
nj
= h

k
j=0

kj
f
nj
(5.11)
donde
j
,
j
son coecientes constantes independientes del paso h, siendo

k
,= 0 y [
0
[ + [
0
[, = 0. Si
k
= 0, la formula se dice explcita, y en caso
contrario, es decir si
k
,= 0 se dice implcita. La formula anterior tambien
puede escribirse desarrollada como sigue

k
y
n
+
k1
y
n1
+ +
0
y
nk
= h(
k
f
n
+
k1
f
n1
+ +
0
f
nk
)
(5.12)
Del problema de valor inicial solo se conoce el valor de la soluci on en el
punto inicial, por tanto un metodo de k pasos (k > 1) no puede ser aplicado
directamente y es necesario dar otro algoritmo (por ejemplo, basado en un
metodo de un paso) para calcular y
j
, y

j
= f
j
, aproximaciones de la solucion
y su derivada en t
j
(j = 1, . . . , k 1), dicho algoritmo se llama de iniciaci on
o arranque y estar a implcito en todo metodo de k pasos. Si el metodo es
explcito, el calculo desde (5.11) o (5.12) es inmediato a partir de los valores
en los k puntos anteriores. Pero si el metodo fuera implcito se tendra

k
y
n
+
k1
y
n1
+ +
0
y
nk
= h(
k
f
n
+
k1
f
n1
+ +
0
f
nk
)
de donde se deduce que
y
n
= [h
k
f(t
n
, y
n
)

k
s=1

ks
y
ns
+ h

k
s=1

ks
f(t
ns
, y
ns
)]/
k
luego y
n
ser a soluci on de la ecuaci on (generalmente no lineal) en y
y = g(y) = h

k
f(t
n
, y) + F
n
(5.13)
donde F
n
es una funcion constante que depende de terminos conocidos de los
pasos anteriores y est a dada por la expresi on
F
n
= [

k
s=1

ks
y
ns
+ h

k
s=1

ks
f(t
ns
, y
ns
)]/
k
Puesto que f es lipschitziana respecto a y, con constante de Lipschitz L > 0,
ser a
[ g(y) g( y) [ h [

k

k
[ L [ y y [
104 Captulo 5. Resolucion numerica de problemas de valor inicial
por tanto si h es tal que
h [

k

k
[ L < 1 h <[

k

k
[
1
L
entonces la funcion g(y) es contractiva y la ecuaci on (5.13) tiene solucion
unica, que se obtiene como el lmite de la sucesion dada por el algoritmo
_
y
0
n
(valor inicial)
y
k+1
n
= g(y
k
n
) = h

k
f(t
n
, y
k
n
) + F
n
en ocasiones si se parte de un valor inicial adecuado es suciente con una
unica iteraci on, a veces se toma como valor inicial el proporcionado por un
metodo explcito, si el valor de h anterior fuera muy peque no se podra optar
por otro metodo iterativo, por ejemplo el metodo de Newton, se introducen
en este contexto los denominados metodo predictor-corrector.
5.6.1. Metodos predictor-corrector
Son pares de metodos lineales multipaso, uno explcito y otro implcito,
normalmente del mismo orden, donde la f ormula explcita es utilizada para
predecir la siguiente aproximaci on y la implcita para corregirla. Suponer que
utilizamos un metodo de k pasos, de orden k, explcito con coecientes
k
,
k
,
para el predictor, y un metodo implcito de k 1 pasos para el corrector
con coecientes

k
,

k
entonces, si y
n
(0) es la aproximacion predicha, uno
procede como sigue (en el supuesto de que
k
=

k
= 1):
_
_
_
y
0
n
=

k
s=1

ks
y
ns
+ h

k
s=1

ks
f
ns
y
n
=

k
s=1

ks
y
ns
+ h[

ks
f(t
n
, y
0
n
) +

k1
s=1

ks
f
ns
]
f
n
= f(t
n
, y
n
)
(5.14)
Esto requiere dos evaluaciones de f por paso y es frecuentemente referido
como un PECE method (Predecir, Evaluar, Corregir, Evaluar). Uno puede,
naturalmente corregir una vez m as y luego salir o reevaluar f, y as sucesi-
vamente. As pues, hay metodos P(EC)2, P(EC)2E, los mas econ omicos son
los del tipo PECE.
5.6.2. Orden, consistencia, estabilidad y convergencia
de un metodo lineal multipaso
Denotando por E el operador desplazamiento, cuyas potencias act uan
sobre sucesiones en la forma: E
j
(z
n
) = z
n+j
, e introduciendo los polinomios
5.6. Formulacion general de los metodos lineales multipaso: orden,
consistencia, estabilidad y convergencia. Teoremas de Dahlquist 105
caractersticos del metodo
() =

k
j=0

j
=
0
+
1
+
2

2
+ +
k

k
() =

k
j=0

j
=
0
+
1
+
2

2
+ +
k

k
(5.15)
y los operadores polinomiales
(E) =

k
j=0

j
E
j
y (E) =

k
j=0

j
E
j
(5.16)
Las ecuaciones del metodo (5.10) pueden escribirse en la forma abreviada:
(E)y
nk
= h(E)f
nk
(n = k, . . . , N) (5.17)
y se habla del metodo (, ).
Denici on 19 Si y(t) es la solucion exacta del problema de valor inicial,
se dene el error de discretizacion local en t
n
de un metodo lineal mul-
tipaso, y se pone EDL(t
n
), mediante la formula

k
j=0

kj
y(t
nj
) = h

k
j=0

kj
y

(t
nj
) +
k
EDL(t
n
) (5.18)
es decir, es el defecto de la solucion exacta respecto a la ecuacion del metodo.
En relacion con el EDL, para funciones y(t) sucientemente derivables en
[a, b], se introduce un operador diferencial lineal L = L[y(t);h], que llama-
remos operador error local por la expresion
L[y(t); h] = [

k
j=0

kj
y(t jh) h
kj
y

(t jh)] (5.19)
Por tanto, se tiene que EDL(t
n
) = L[y(t
n
); h]/
k
. Ademas, el operador lineal
y el metodo lineal multipaso (, ), se dicen de orden p si este es el maximo
entero positivo tal que
L[y(t); h] = O(h
p+1
) (cuando h 0
+
) y(t) C
p+1
([a, b])
o equivalentemente
1
h
L[y(t); h] = O(h
p
) (cuando h 0
+
) y(t) C
p+1
([a, b])
El siguiente teorema da las condiciones de orden de un metodo lineal multi-
paso.
106 Captulo 5. Resolucion numerica de problemas de valor inicial
Teorema 40 Un metodo lineal multipaso (, ) es de orden p s y solo si
c
0
=
k

j=0

j
= 0, c
1
=
k

j=0
(j
j

j
) = 0, c
2
=
1
2!
k

j=0
(j
2

j
2j
j
) = 0
. . . , c
p
=
1
p!
k

j=0
(j
p

j
pj
p1

j
) = 0 y c
p+1
,= 0
La c
p+1
es denominada constante de error. Ademas, si c
0
= c
1
= = c
p
= 0,
el metodo tiene orden al menos p.
Denici on 20 Un metodo se dice consistente si para todo f C
L
y toda
solucion y(t) de la ecuacion diferencial y

(t) = f(t, y(t)), se verica


lm
h0
+ m ax
knN
[

k
j=0
[
1
h

kj
y(t
nj
)
kj
f(t
nj
, y(t
nj
)] (5.20)
Adem as, se verica el siguiente teorema.
Teorema 41 Un MLM es consistente si y solo si su orden es 1, es
decir si y solo si c
0
= c
1
= 0 (1) = 0 y

(1) = (1).
La denici on de estabilidad es analoga a la dada para metodos de un paso y
se caracteriza por el teorema siguiente, tambien conocido como condicion
de Dahlquist de estabilidad.
Teorema 42 Un metodo lineal multipaso es estable si y solo si toda raz
de la ecuacion () = 0 verica que [ [< 1 o si [ [= 1 dicha raz es simple
(condicion de las races).
Denici on 21 Un metodo se dice convergente si para todo f C
L
y toda
solucion y(t) de la ecuacion diferencial y

(t) = f(t, y(t)), se verica


lm
h0
+ m ax
knN=[
T
h
]
[ y
n
y(t
n
) [= 0
(5.21)
siempre que los valores de inicializacion
n
satisfagan
lm
h0
+
[ y(t
n
)
n
[= 0 (n = 0, 1, . . . , k 1)
Se llaman errores de discretizaci on global a las cantidades d
n
= y
n
y(t
n
)
y el metodo se dice de orden p si
m ax
knN=[
T
h
]
[ d
n
[= O(h
p
)
para todo PVI con f C
(p)
.
Ahora estamos en condiciones de enunciar los dos teoremas fundamentales
que siguen.
5.7. F ormulas de Adams 107
Teorema 43 (Teorema de convergencia) Un metodo lineal multipaso
es convergente si y solo si es consistente y estable.
Teorema 44 (Primera barrera de Dahlquist) El orden maximo al-
canzable por un metodo lineal de k pasos que sea consistente y estable (i.e.
convergente) es k + 1 si k es impar y k + 2 si k es par. Ademas, si
k
0
(en particular si es explcito) el orden maximo alcanzable es k.
Nota: Los metodos de orden k + 2 son llamados optimales, aunque en
la pr actica tampoco funcionan bien, por tanto el mejor orden que se puede
alcanzar por un metodo util de k pasos es k + 1.
5.7. F ormulas de Adams
Para introducir las f ormulas de Adams, que son de los metodos lineales
multipaso m as utilizados, ser a util recordar la f ormula de Newton en dife-
rencias regresivas del polinomio de interpolacion: sean t
j
= t

jh (j =
0, 1, . . . , q), q+1 puntos distintos igualmente espaciados, donde t

es el punto
de referencia, h es una constante positiva y f
j
= f(t
j
) son los valores que
toma una funcion f en esos puntos. Para expresar el polinomio de interpola-
ci on de f en diferencias regresivas, conviene introducir la variable =
tt

h
, lo
que equivale a tomar t

como origen y h como unidad de longitud, entonces


el polinomio de interpolaci on (t), de grado a lo mas q, que interpola a f en
dichos puntos, seg un vimos, puede escribirse mediante la f ormula de Newton
regresiva como sigue:
(t) =

q
i=0
(1)
j
_

j
_
_
j
f

(5.22)
siendo el n umero combinatorio
_

j
_
=
()( 1) . . . ( k + 1)
j!
=
(1)
j
( + 1) . . . ( + k 1)
j!
5.7.1. F ormulas de Adams-Bashforth
En primer lugar, introducimos la familia de metodos lineales multipaso
de Adams-Bashforth, que como veremos son metodos lineales explcitos de k
pasos y orden k. Para ello, supongamos conocidos
y
nj
, y

nj
= f(t
nj
, y
nj
) (j = 1, 2, . . . , k)
108 Captulo 5. Resolucion numerica de problemas de valor inicial
aproximaciones de la soluci on y su derivada en k puntos consecutivos de la
red anteriores a t
n
= a+nh, puesto que la soluci on y(t) del PVI (5.10) verica
la ecuacion integral
y(t
n
) = y(t
n1
) +
_
t
n
t
n1
y

(t)dt (5.23)
podemos sustituir y(t
n1
) por y
n1
y la funci on subintegral por su polinomio
de interpolacion (t) en los k valores previos t
n1
, t
n2
, . . . , t
nk
, que de
acuerdo con (5.22), est a dado por
(t) =

k1
j=0
(1)
j
_

j
_
_
j
y

n1
con =
tt
n1
h
; por tanto, aproximando la integral de y

(t) por la de su
polinomio de interpolaci on, tendremos
_
t
n
t
n1
y

(t)dt
_
t
n
t
n1
(t)dt = h
_
1
0

k1
j=0
(1)
j
_

j
_
_
j
y

n1
d =
= h
k1

j=0

j
_
j
y

n1
con
j
= (1)
j
_
1
0
_

j
_
d
valores constantes, caractersticos del metodo.
Luego, tras las aproximaciones anteriores, el c alculo de y
n
, y

n
se realiza
por las f ormulas
_
y
n
= y
n1
+ h

k1
j=0

j
_
j
y

n1
y

n
= f(t
n
, y
n
)
(5.24)
que se conocen como formulas de Adams-Bashforth de k pasos, abrevia-
damente A-B de k pasos o simplemente AB(k). Expresando el segundo
miembro de (5.24) en funci on de los valores y

nj
[ j = 1, 2, . . . , k, resulta
la siguiente expresion de las f ormulas de Adams-Bashforth:
_
y
n
= y
n1
+ h

k1
j=0

k,j
y

n1j
y

n
= f(t
n
, y
n
)
(5.25)
donde los coecientes
k,j
(j = 0, 1, . . . , k 1) estan dados por la formula

k,j
= (1)
j
__
j
j
_

j
+
_
j + 1
j
_

j+1
+ +
_
k 1
j
_

k1
_
(5.26)
Seg un se desprende de (5.25), las formulas AB(k) son lineales y explcitas y su
aplicaci on s olo necesita una evaluaci on de funci on por paso; fueron obtenidas
por Adams y Bashforth en 1883.
5.7. F ormulas de Adams 109
Funcion generatriz de los coecientes del metodo. Veamos como
obtener de forma sencilla los coecientes del metodo
m
, en vez de realizando
las integrales anteriores, que son sencillas para los primeros valores, pero
cuyo calculo se hace m as largo y tedioso para valores grandes de m. Sea
G(t) =

0

m
t
m
la funcion real analtica que tiene
m
como coecientes
de su desarrollo de MacLaurin. Entonces, teniendo en cuenta la expresi on
anterior de estos coecientes, resulta
G(t) =

m=0
(1)
m
t
m
_
1
0
_

m
_
d =
_
1
0

m=0
(1)
m
t
m
_

m
_
d =
=
_
1
0
(1 t)

d =
t
(1t)ln(1t)
(5.27)
De esta deducimos que

ln(1 t)
t
G(t) =
1
1 t
y de los desarrollos en serie de MacLaurin
1
1 t
= 1 + t + t
2
+ . . .

ln(1 t)
t
= 1 +
t
2
+
t
2
3
+ . . .
obtenemos la identidad formal entre las series de polinomios anteriores
(1 +
t
2
+
t
2
3
+
t
3
4
+. . . )(
0
+
1
t +
2
t
2
+
3
t
3
+. . . ) = (1 +t +t
2
+t
3
+. . . )
y comparando los coecientes de las potencias respectivas de t en ambos
miembros resulta

m
+

m1
2
+

m2
3
+ +

0
m + 1
= 1 (m = 0, 1, 2, . . . ) (5.28)
de la que, f acilmente, obtenemos para los primeros valores de m:
m 0 1 2 3 4 5 6 . . .

m
1 1/2 5/12 3/8 251/720 95/288 19087/60480 . . .
en consecuencia, los coecientes (5.26) resultan ser
k
k,0

k,1

k,2

k,3

k,4

k,5
1 1
2 3/2 1/2
3 23/12 16/12 5/12
4 55/24 59/24 37/24 9/24
5 1901/720 2774/720 2616/720 1724/720 251/720
6 4277/1440 7923/1440 9982/1440 7298/1440 2887/1440 475/1440
110 Captulo 5. Resolucion numerica de problemas de valor inicial
Error de discretizaci on local. Recordemos que de acuerdo con (5.18),
se llama as al defecto de la solucion y(t) respecto a la ecuaci on en diferencias
del metodo. Notemos que, en este caso, se puede interpretar como la dife-
rencia y(t
n
) y
n
, supuesto que y
n
ha sido calculado a partir de los valores
exactos de la soluci on, es decir y
nj
= y(t
nj
) (j = 1, 2, . . . , k), por tanto
sera el error cometido en un paso del algoritmo suponiendo que se partiese
de valores exactos. Seguidamente, obtenemos una expresi on del mismo supo-
niendo que y(t) es sucientemente diferenciable. Llamando (t) al polinomio
de interpolacion de y

(t) en los k puntos t


nj
[ j = 1, 2, . . . , k, se tiene (por
denici on de estos metodos):
EDL(t
n
) =
_
t
n
t
n1
(y

(t) (t))dt
Y utilizando la f ormula del error de interpolaci on de Lagrange de y

(t), se
deduce que para alg un

[t
nk
, t
n
] se tiene
EDL(t
n
) = h
k+1

k
y
(k+1)
(

)
Por tanto, salvo errores de redondeo, la integracion numerica con A-B
de orden k permitira obtener valores exactos para todo PVI cuya soluci on
y(t) fuera un polinomio de grado k. El error introducido en un paso del
algoritmo es O(h
k+1
).
5.7.2. F ormulas de Adams-Moulton
De un modo similar al desarrollado en el p arrafo anterior, se introduce
la familia de metodos lineales implcitos de k pasos y orden k +1, conocidas
como formulas de Adams-Moulton. Pero, ahora, vamos a sustituir la funcion
subintegral de (5.23) por su polinomio de interpolacion

(t) en los k + 1
puntos t
nj
[ j = 0, 1, 2, . . . , k, que est a dado por la f ormula

(t) =

k
j=0
(1)
j
_

j
_
_
j
y

n
siendo ahora =
tt
n
h
. por tanto, aproximando la integral de y

(t) por la de
su polinomio de interpolaci on, tendremos ahora
_
t
n
t
n1
y

(t)dt
_
t
n
t
n1

(t)dt = h
_
0
1

k
j=0
(1)
j
_

j
_
_
j
y

n
d =
= h
k

j=0

j
_
j
y

n
siendo

j
= (1)
j
_
0
1
_

j
_
d
5.7. F ormulas de Adams 111
valores constantes, caractersticos del metodo. Tras las aproximaciones ante-
riores se obtiene la formula
_
y
n
= y
n1
+ h

k
j=0

j
_
j
y

n
y

n
= f(t
n
, y
n
)
(5.29)
que se conoce como f ormula de Adams-Moulton de k pasos, abreviadamen-
te A-B de k pasos o simplemente AM(k). Igual que antes, se puede expresar
el segundo miembro de (5.29) en funci on de los valores y

nj
[ j = 1, 2, . . . , k,
obteniendose
_
y
n
= y
n1
+ h

k
j=0

k,j
y

nj
y

n
= f(t
n
, y
n
)
(5.30)
donde los coecientes

k,j
(j = 0, 1, . . . , k) est an dados ahora por la formula

k,j
= (1)
j
__
j
j
_

j
+
_
j + 1
j
_

j+1
+ +
_
k
j
_

k
_
(5.31)
Puesto que se trata de un metodo implcito, se puede proceder como se
indic o en la formula (5.13) al comienzo del p arrafo 6. Asimismo, pueden
obtenerse los coecientes

j
mediante una funcion generatriz de modo similar
al visto para el caso de los metodos AB(k). Si la solucion buscada y(t) es
sucientemente diferenciable, puede obtenerse para el error de discretizaci on
local la expresi on
EDL(t
n
) = h
k+2

k+1
y
(k+2)
()
para alg un [t
nk
, t
n
]. Por tanto, se puede decir que la f ormula A-M de k
pasos integrara exactamente PVI cuya solucion y(t) fuera un polinomio de
grado k + 1.
Captulo 6
Metodos en diferencias nitas
para la resoluci on numerica de
problemas de contorno para
ecuaciones diferenciales
ordinarias y en derivadas
parciales
6.1. Introducci on
Hasta ahora hemos estudiado la soluci on numerica de PVI, pero hay otro
tipo de problemas cuya solucion interesa en la pr actica, como por ejemplo,
hallar la soluci on de
PC
_
y

(t) = f(t, y(t), y

(t)), t [a, b]
y(a) = , y(b) =
(6.1)
que es un problema de valor en la frontera (o de contorno) en dos puntos.
Tales problemas son, en general, m as difciles de resolver que los problemas
de valor inicial. Consideremos un ejemplo sencillo
_
y

(t) = y(t)t [0, /2]


y(0) = 3, y(/2) = 7
su soluci on general sera y(t) = Asent +Bcost, e imponiendo las condiciones
y(0) = 3 e y(/2) = 7, tenemos A = 7 y B = 3, luego la soluci on sera
113
114 Captulo 6. Metodos en diferencias nitas
y(t) = 7sent + 3cost. Pero, este modo de resoluci on no es, en general, viable
como puede verse con unos sencillos ejemplos.
Antes de considerar los metodos numericos utilizados para resolver este
tipo de problemas, veamos algunos resultados relativos a la existencia y uni-
cidad de soluciones en este tipo de problemas; resultados poco generales y
complicados de establecer.
Teorema 45 Sea el problema de contorno
PC
_
y

(t) = f(t, y(t), y

(t)), t [a, b]
y(a) = , y(b) =
donde f : D = [a, b] R
2
R, con a y b reales nitos, es tal que f(t, y, y

),
f(t,y,y

)
y
y
f(t,y,y

)
y

son continuas en D. Entonces, si se verican las condi-


ciones:
1.
f(t,y,y

)
y
> 0 (t, y, y

) D
2. [ [
f(t,y,y

)
y

[ , (t, y, y

) D
el problema tiene una unica solucion.
Observaci on: Cuando puede f ser expresada en la forma f(t, y, y

) =
p(t)y

+q(t)y+r(t) , la ecuacion diferencial se dice lineal y el teorema anterior


se simplica en el siguiente.
Corolario 3 Dado el problema de contorno
PC
_
y

(t) = p(t)y

+ q(t)y + r(t), t [a, b]


y(a) = , y(b) =
(6.2)
vericando las condiciones
1. p(t), q(t) y r(t) son contiunas en [a, b].
2. q(t) > 0, t [a, b]
el problema tiene solucion unica.
Ejercicio.- Probar que el problema de contorno:
_
y

+ e
ty
+ seny

= 0, t [1, 2]
y(1) = y(2) = 0
Tiene solucion unica (basta aplicar el teorema anterior).
6.2. Metodos en diferencias nitas para problemas de contorno
lineales 115
6.2. Metodos en diferencias nitas para pro-
blemas de contorno lineales
Los metodos numericos mas utilizados en la pr actica para el c alculo de
soluciones aproximadas de este problema son los metodos de tiro y de dife-
rencias nitas, pasamos a describir este ultimo. La idea basica de este tipo
de metodos consiste en la aproximacion de las derivadas en las ecuaciones
diferenciales por cocientes en diferencias, adecuadamente elegidos para man-
tener un cierto orden del error de truncamiento. Este tipo de metodos es
preferido con relaci on a los anteriores debido a los problemas de inestabili-
dad, si bien requieren un poco mas de computacion para una aproximaci on
deseada. Veamos el caso de un problema de contorno lineal.
Sea el problema de contorno lineal (6.2) escrito en la forma:
PC
_
y

(t) + p(t)y

+ q(t)y + r(t) = 0, t [a, b]


y(a) = , y(b) =
para su resoluci on numerica, elegimos una malla de puntos equidistantes
t
j
= a + jh, j = 0, 1, 2, . . . , n + 1, con un tama no de paso h dado por
h =
ba
n+1
, en los puntos interiores de la malla t
j
, j = 1, 2, . . . , n podemos
utilizar las siguientes aproximaciones de las derivadas:
_
y

(t
j
)

=
y(t
j+1
)2y(t
j
)+y(t
j1
)
h
2
y

(t
j
)

=
y(t
j+1
)y(t
j1
)
2h
(6.3)
con errores de truncamiento de la forma O(h
2
), obtenidos en el tema anterior,
suponiendo que f es sucientemente diferenciable, para obtener el sistema de
ecuaciones, asociado al problema de contorno (6.2) dado, tomemos y
0
=
, y
n+1
= y llamemos y
1
, y
2
, . . . , y
n
a las aproximaciones buscadas de la
soluci on en los puntos interiores t
j
, j = 1, 2, . . . , n, al sustituir (6.3) en la
ecuaci on se obtienen las ecuaciones en diferencias:
y
j1
+ 2y
j
y
j+1
h
2
+p(t
j
)
y
j+1
y
j1
2h
+q(t
j
)y
j
+r(t
j
) = 0, (j = 1, 2, . . . , n)
tras multiplicar por h
2
y ordenar dichas ecuaciones, resulta que y
1
, y
2
,. . . , y
n
deben vericar el sistema lineal:
(1+
h
2
p(t
j
))y
j1
+(2+h
2
q(t
j
))y
j
(1
h
2
p(t
j
))y
j+1
= h
2
r(t
j
), (j = 1, 2, . . . , n)
(6.4)
que puede expresarse en la forma abreviada
Ay = b
116 Captulo 6. Metodos en diferencias nitas
siendo A, b e y las matrices siguientes:
A =
_

_
2 + h
2
q(t
1
) 1 +
h
2
p(t
1
) 0 . . . 0
1
h
2
p(t
2
) 2 + h
2
q(t
2
) 1 +
h
2
p(t
2
) . . . 0
0 1
h
2
p(t
3
) 2 + h
2
q(t
3
) . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 1
h
2
p(t
n1
) 2 + h
2
q(t
n1
)
_

_
b =
_

_
h
2
r(t
1
) + (1 +
h
2
p(t
1
))y
0
h
2
r(t
2
)
.
.
.
h
2
r(t
n1
)
h
2
r(t
n
) + (1
h
2
p(t
n
))y
n+1
_

_
y =
_

_
y
1
y
2
.
.
.
y
n1
y
n
_

_
Y para el que se tiene el siguiente resultado.
Teorema 46 Supongamos que p(t), q(t), r(t) son continuas en [a, b]. Enton-
ces, si q(t) 0 sobre [a, b], el sistema lineal anterior tiene una unica solucion,
siempre que h < 2/L, siendo L = m ax
t[a,b]
[ p(t) [.
Observaciones:
1. Si la soluci on del problema de contorno lineal es de clase C
(4)
([a, b]),
entonces, el error de la aproximacion en diferencias nitas es del orden
de O(h
2
). Puede mejorarse por el metodo de extrapolaci on al lmite de
Richardson considerando una reduccion en el tama no del paso, pues el
error se puede expresar mediante un desarrollo de potencias pares de h
con coecientes independientes del paso h (ver Keller (1968)).
2. Para el caso no lineal, el metodo es similar, si bien hay que resolver un
sistema de n ecuaciones no lineales, para lo cual podemos utilizar el
metodo de Newton para sistemas no lineales que requiere que el valor
inicial este sucientemente proximo a la raz buscada y que la matriz
Jacobiana correspondiente sea inversible.
6.3. Generalidades sobre ecuaciones en deri-
vadas parciales
Vamos a considerar tan solo ecuaciones en derivadas parciales lineales de
segundo orden, a las que pertenecen las denominadas ecuaciones de la Fsica
6.3. Generalidades sobre ecuaciones en derivadas parciales 117
Matem atica. Si el n umero de variables independientes es dos, denomin andolas
por x e y, su forma general es
a(x, y)

2
u
x
2
+b(x, y)

2
u
xy
+c(x, y)

2
u
y
2
+d(x, y)
u
x
+e(x, y)
u
y
+f(x, y)u = g(x, y)
(6.5)
donde u es una funcion a determinar sobre alg un dominio , verican-
do la ecuaci on (6.5) y algunas condiciones especcas sobre la frontera. Si
g(x, y) = 0 la ecuacion se dice homogenea y en caso contrario completa o no
homogenea. Atendiendo a los terminos conteniendo las derivadas de mayor
orden, la ecuaci on (6.5) se dice que en el punto (x, y) es del tipo:
1. Hiperb olico si b
2
4ac > 0
2. Parabolico si b
2
4ac = 0
3. Elptico si b
2
4ac < 0
Si a(x, y), b(x, y) y c(x, y) son constantes en la regi on , el tipo tambien lo es.
Ejemplos paradigm aticos de cada una de ellas son las ecuaciones siguientes:
1. u
tt
= c
2
u
xx
es la ecuaci on de ondas unidimensional (hiperbolica)
2. u
t
= ku
xx
es la ecuaci on del calor unidimensional (parab olica)
3. u
xx
+ u
yy
= 0 es la ecuaci on de Laplace bidimensional (elptica)
Para la resoluci on numerica de las ecuaciones anteriores utilizaremos los
denominados metodos en diferencias nitas, en los que las derivadas de una
funci on se sustituyen por cocientes de diferencias; adem as, se considerara una
malla de puntos (x
i
, y
j
) para el caso elptico y (x
i
, t
j
) para los casos hiperboli-
co o parab olico, denidos por
_
x
i
= x
0
+ ih, h constante positiva
y
j
= y
0
+ jk, (o t
j
= t
0
+ jk) k constante positiva
Los valores de cualquier funci on en dichos puntos se denotaran por h
ij
=
h(x
i
, y
j
) (o bien h
ij
= h(x
i
, t
j
)) y las aproximaciones o discretizaciones por
diferencias nitas m as frecuentes de las derivadas de u en tales puntos, puede
probarse, como ejercicio, que con hipotesis adecuadas de diferenciabilidad
ser an:
118 Captulo 6. Metodos en diferencias nitas
Aproximaciones Errores de truncatura
u
x
(x
i
, t
j
)

=
u
i+1,j
u
i,j
h
O(h)
u
t
(x
i
, t
j
)

=
u
i,j+1
u
i,j
h
O(k)
u
x
(x
i
, t
j
)

=
u
i,j
u
i1,j
h
O(h)
u
t
(x
i
, t
j
)

=
u
i,j
u
i,j1
h
O(k)
u
x
(x
i
, t
j
)

=
u
i+1,j
u
i1,j
2h
O(h
2
)
u
t
(x
i
, t
j
)

=
u
i,j+1
u
i,j1
2k
O(k
2
)
u
xx
(x
i
, t
j
)

=
u
i+1,j
2u
i,j
+u
i1,j
h
2
O(h
2
)
u
yy
(x
i
, y
j
)

=
u
i,j+1
2u
i,j
+u
i,j1
k
2
O(k
2
)
u
yy
(x
i
, y
j
)

=
u
i+1,j+1
+u
i1,j1
u
i+1,j1
u
i1,j+1
4hk
O(h
2
+ k
2
)
Ejercicio.- Con condiciones adecuadas de diferenciabilidad sobre la fun-
ci on u, obtener las expresiones explcitas de los errores de truncatura de la
tabla anterior.
6.4. Ecuaciones elpticas: Problemas de valor
en la frontera para ecuaciones de Poisson
o Laplace
Una ecuacion de Poisson con condiciones de contorno tipo Dirichlet es
una ecuacion del tipo

2
u
x
2
+

2
u
y
2
= f (6.6)
con las condiciones de contorno
u(x, y) = g(x, y), (x, y) = (frontera de ) (6.7)
Representa problemas independientes del tiempo. Un caso particular intere-
sante del anterior es aquel en el que f 0, se denomina ecuaci on de Laplace,
as el problema:
_

2
u
x
2
+

2
u
y
2
= 0
u(x, y) = g(x, y), (x, y)
(6.8)
Representara, por ejemplo una distribuci on de temperatura en en estado
estacionario. A veces nos dan la variaci on normal de u en la frontera de ,
tenemos entonces una condicion de contorno de tipo Newmann
u
n
= g, en
6.4. Ecuaciones elpticas: Problemas de valor en la frontera para
ecuaciones de Poisson o Laplace 119
o bien, una condici on mixta

u
n
+ u = g en
Consideremos el problema de Poisson bidimensional (6.6) en el rect angulo
= [0, a] [0, b], dividamos el intervalo [0, a] en n + 1 subintervalos iguales
de longitud h =
a
n+1
y el [0, b], en m + 1 subintervalos iguales de longitud
k =
b
m+1
, con ello se forma una malla bidimensional, cuyos nodos (x
i
, y
j
) son
x
i
= ih e y
j
= jk; llamaremos H = (h, k) y [H[ = m ax h, k (norma de la
partici on). Sean los conjuntos discretos

H
(x
i
, y
j
)[1 i n, 1 j m

H
= (x
0
, y
0
), . . . , (x
n+1
, y
0
), (x
0
, y
m+1
), . . . , (x
n
, y
m+1
)
(6.9)
constituido el primero por los nm puntos de la malla interiores a y el
segundo por los 2(n +m) +4 puntos de la malla pertenecientes a la frontera
de . Entonces, si u es de clase C
(4)
en un entorno de , tras sustituir u
xx
y u
yy
en cada uno de los nm puntos interiores (x
i
, y
j
) por sus aproximaciones
de segundo orden, se obtienen las ecuaciones
u
i+1,j
2u
i,j
+u
i1,j
h
2
+
u
i,j+1
2u
i,j
+u
i,j1
k
2
= f
i,j
(1 i n, 1 j m)
(6.10)
que constituyen un sistema lineal de nm ecuaciones y nm+2(n+m) incogni-
tas, pues por la forma de discretizar no guran los valores de u en los vertices
del rectangulo, ahora bien por las condiciones de contorno
u
i,j
= g
i,j
en
H
(6.11)
son conocidos los valores de u en los 2(n+m) puntos de la frontera que apare-
cen en las mismas, por tanto (6.10) se reduce a un sistema de nm ecuaciones
lineales de coecientes constantes con el mismo n umero de inc ognitas u
i,j
que seran las aproximaciones de la soluci on buscada en los puntos interiores
de la malla. Para la resolucion de este sistema si el n umero de ecuaciones
es alto, que es lo normal, se suelen utilizar metodos iterativos tipo Jacobi,
Gauss-Seidel o relajaci on.
En relaci on a este problema, podemos enunciar los dos resultados siguien-
tes.
Proposicion 6 El problema discreto planteado tiene solucion unica.
120 Captulo 6. Metodos en diferencias nitas
Proposicion 7 El error de truncatura local del problema puede escribirse
como sigue
(u) = [
h
2
12

4
u(x
i
+
i
h, y
j
)
x
4
+
k
2
12

4
u(x
i
, y
j

j
k)
y
4
] (6.12)
y si las derivadas cuartas anteriores de la solucion u estan acotadas por
1
y
2
respectivamente en
H
se tiene
[ (u) [
1
12
[h
2

1
+ k
2

2
] (6.13)
Y si la norma de la particion tiende a cero se tiene la convergencia, es decir
u
i,j
u(x
i
, y
j
).
6.5. Ecuaciones parabolicas: la ecuaci on del
calor
Consideraremos en este apartado diversos esquemas explcitos e implcitos
para la resoluci on numerica de la ecuacion parabolica unidimensional, escrita
en forma can onica como u
t
= u
xx
sujeta a condiciones de contorno e iniciales
que garantizan la existencia y unicidad de soluciones del problema, dicha
ecuaci on se suele utilizar para modelizar la distribuci on de temperaturas
u(x
i
, t
j
) en los puntos x
i
de una varilla nita en cada instante t
j
.
Metodo explcito en diferencias nitas. Sin perdida de generalidad,
consideraremos el problema de difusion del calor en una varilla de longitud
unidad con k = 1, dado por la ecuacion
u
t
= u
xx
, 0 < x < 1, t R
+
(6.14)
con las condiciones de frontera
u(0, t) = u(1, t) = 0, t R
+
(6.15)
y la condici on inicial
u(x, 0) = f(x), 0 < x < 1 (6.16)
Elijamos dos tama nos de paso constantes h, k, de modo que 1/h = n, sea
un n umero entero y k sea un n umero real positivo arbitrario. As, tendremos
denidos los nodos espaciales x
i
= ih (i = 0, 1, . . . , n) y los tiempos discretos
t
j
= jk (j = 0, 1, . . . , m). De modo que la solucion numerica vendr a dada por
6.5. Ecuaciones parabolicas: la ecuacion del calor 121
un conjunto de valores u
ij
, que ser an las aproximaciones de la soluci on exacta
en los puntos: (x
i
, t
j
), es decir u
ij
es una aproximaci on a la temperatura del
punto de la varilla de abscisa x
i
en el tiempo t
j
. En condiciones adecuadas
la formula de Taylor nos permite escribir el desarrollo
u(x
i
, t
j
+k) = u(x
i
, t
j
)+ku
t
(x
i
, t
j
)+
k
2
2
u
tt
(x
i
, t
j
+
j
k) con 0 <
j
< 1 (6.17)
por tanto se tiene
u
t
(x
i
, t
j
) =
u(x
i
, t
j
+ k) u(x
i
, t
j
)
k

k
2
u
tt
(x
i
, t
j
+
j
k) con 0 <
j
< 1 (6.18)
estando dada la aproximaci on de la derivada temporal en diferencias progre-
sivas por
u
t
(x
i
, t
j
)

=
u(x
i
, t
j
+ k) u(x
i
, t
j
)
k
(6.19)
An alogamente, los desarrollos de Taylor respecto a la variable x proporcionan
la formula
u
xx
(x
i
, t
j
) =
u(x
i
+k,t
j
)2u(x
i
,t
j
)+u(x
i1
,t
j
)
h
2

h
2
12
u
xxxx
(x
i
+
i
h, t
j
)
siendo 1 <
i
< 1
(6.20)
de donde deducimos la siguiente aproximacion en diferencias centrales para
las derivadas espaciales
u
xx
(x
i
, t
j
)

=
u(x
i
+ k, t
j
) 2u(x
i
, t
j
) + u(x
i1
, t
j
)
h
2
(6.21)
Utilizando la aproximaciones de las derivadas (6.19) y (6.21), y representan-
do por u
ij
, el valor aproximado de u(x
i
, t
j
), nos quedan las ecuaciones en
diferencias
u
i,j+1
u
i,j
k
=
u
i+1,j
2u
i,j
+ u
i1,j
h
2
(6.22)
En tanto que, el error de truncamiento local viene dado por la f ormula

ij
=
k
2
u
tt
(x
i
, t
j
+
j
k)
h
2
12
u
xxxx
(x
i
+
i
h, t
j
) (6.23)
De la ecuaci on aproximada (6.22) puede deducirse el algoritmo
u
i,j+1
= u
i,j
(1
2k
h
2
) +
k
h
2
(u
i+1,j
u
i1,j
)
(i = 1, . . . , n 1; j = 0, 1, . . . , m)
(6.24)
122 Captulo 6. Metodos en diferencias nitas
Puesto que u(x, 0) = f(x) en 0 < x < 1, se puede iniciar el calculo en
(6.24) computando u
i1
, u
i2
, . . . , u
i,m1
. Concretamente, de la condici on inicial
u(x, 0) = f(x) en 0 < x < 1, resultan los valores
u
i,o
= f(x
i
), i = 1, 2, . . . , n 1
Por otro lado, de las condiciones de frontera u(0, t) = u(1, t) = 0, t R
+
resultan
u
0j
= u
nj
= 0, j = 1, 2, . . . , m
Utilizando (6.24) se calculan los u
i,j
, procediendose as m veces hasta el
instante de tiempo t = t
m
deseado.
El algoritmo (6.24) se puede escribir en forma matricial como sigue
U
j
= AU
j1
, j = 1, 2, . . . , m (6.25)
donde
A =
_

_
1 2r r . . . 0 0
r 1 2r . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 2r r
0 0 . . . r 1 2r
_

_
U
j
=
_

_
u
1,j
.
.
.
.
.
.
.
.
.
u
n1,j
_

_
U
0
=
_

_
f(x
1
)
.
.
.
.
.
.
.
.
.
f(x
n1
)
_

_
El termino r =
k
h
2
se conoce como n umero o constante de Courant. El
esquema en diferencias considerado se dice que es un metodo explcito en
diferencias progresivas. Si la soluci on exacta u(x, t) posee derivadas parciales
continuas de cuarto orden, el metodo es de orden O(k + h
2
). El metodo se
puede recordar por la denominada molecula computacional que indica
que los nuevos valores u
i,j+1
, se calculan explcitamente en terminos de los
previos u
i1,j
, u
i,j
, u
i+1,j
, como se aprecia en la gura siguiente.
Estudio de la estabilidad del metodo. El metodo que nos ocupa, se
puede escribir en la forma matricial dada en (6.25), donde A es una matriz
cuadrada de orden (n 1), entonces, se puede deducir facilmente que
U
j
= A
j
U
0
, j = 1, 2, . . . (6.26)
6.5. Ecuaciones parabolicas: la ecuacion del calor 123
Ahora bien, del conocimiento de la solucion explcita de este problema, que
puede ser obtenida por separaci on de variables, o del hecho fsico de que la
temperatura en la barra tender a a cero conforme t , exigimos a la
soluci on numerica que verique la condici on
lm
j
A
j
U
0
= 0, U
0
lo cual ocurrir a s y s olo si (A) < 1 . Y puesto que la matriz de iteracion
A = I rB, siendo I la matriz identidad de orden n 1 y B la matriz
B =
_

_
2 1 . . . 0 0
1 2 . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 2 1
0 0 . . . 1 2
_

_
todo valor propio de A es de la forma
i
= 12r
i
, siendo
i
un valor propio
de B. Partiendo de esto, puede probarse que una condici on necesaria para
la estabilidad de este algoritmo es que se verique
r =
k
h
2

1
2
k
1
2
h
2
(6.27)
Esta restriccion hace que el metodo progrese lentamente. Por ejemplo, si
h = 0, 01 el maximo valor permitido de k es 510
5
. Si deseamos calcular una
soluci on para 0 t 10, entonces el n umero de pasos en el tiempo sera 2
10
5
y el n umero de puntos de la malla debe ser superior a 20 millones, de
modo que la elegancia y sencillez del metodo van acompa nados de una cierta
inecacia, que se remedia en parte en los metodos implcitos que veremos
m as adelante. Ejemplos ilustrativos se pueden ver en Tveito and Whinter.
Tambien se verica el siguiente teorema de convergencia (Iserles, 1998)
Teorema 47 Si 0 < r
1
2
el metodo es convergente.
Metodo implcito para la ecuaci on del calor. Utilizando diferencias
regresivas para aproximar la derivada temporal de u, por Taylor se obtiene
u
t
(x
i
, t
j
) =
u(x
i
, t
j
) u(x
i
, t
j1
)
k
+
k
2
u
tt
(x
i
, t
j
+
j
k) con 1 <
j
< 0 (6.28)
y para la derivada segunda espacial la f ormula (6.20), con lo cual resultan
las ecuaciones en diferencias
u
i,j
u
i,j1
k

u
i+1,j
2u
i,j
+u
i1,j
h
2
= 0
con i = 1, 2, . . . , n 1 y j = 1, 2, . . . , m1
(6.29)
124 Captulo 6. Metodos en diferencias nitas
estando ahora el error de truncamiento local dado por la expresi on

ij
=
k
2
u
tt
(x
i
, t
j
+
j
k)
h
2
12
u
xxxx
(x
i
+
i
h, t
j
) (6.30)
Deniendo nuevamente la constante de Courant r =
k
h
2
, las ecuaciones (6.29)
se expresan como sigue
(1 + 2r)u
i,j
ru
i+1,j
ru
i1,j
= u
i,j1
(i = 1, 2, . . . , n 1; j = 1, 2, . . . , m1)
(6.31)
y puesto que u
i,0
= f(x
i
) para i = 1, 2, . . . , n 1, y u
n,j
= u
0,j
= 0 para
j = 1, 2, . . . , m1, en forma matricial se tiene
AU
j
= U
j1
U
j
= A
1
U
j1
con j = 1, 2, . . . , m1 (6.32)
siendo
A =
_

_
1 + 2r r . . . 0 0
r 1 + 2r . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 + 2r r
0 0 . . . r 1 + 2r
_

_
, U
0
=
_

_
f(x
1
)
.
.
.
.
.
.
.
.
.
f(x
n1
)
_

_
La matriz A es estrictamente diagonal dominante, tridiagonal simetrica y
denida positiva, por lo cual puede utilizarse alg un metodo especco para
resolver sistemas lineales de este tipo (por ejemplo el metodo directo de
Cholesky o los iterativos de Jacobi o Gauss-Seidel). Adem as, los autovalores
de A son todos positivos y mayores que 1, por tanto existe A
1
y sus valores
propios son todos positivos pero menores que 1, pues son los inversos de los
de A, ahora un error e
0
en los datos iniciales se propaga al paso m en la forma
(A
1
)
m
e
0
y el metodo resulta estable independientemente de la elecci on de
r; por ello, a este tipo de metodos se le denomina incondicionalmente
estables. Su orden es del tipo O(k + h
2
) suponiendo u de clase C
(4)
en un
cierto dominio.
Para obtener un error de truncatura del tipo O(k
2
+ h
2
) se utiliza el
metodo de Crank-Nicolson que pasamos a describir y consiste en promediar
las diferencias progresiva y regresiva.
Metodo de Crank-Nicolson para la ecuacion del calor. Es un meto-
do de orden O(h
2
+ k
2
) incondicionalmente estable; que se obtiene prome-
diando la diferencia progresiva en el j-esimo paso en t
u(x
i
, t
j+1
) u(x
i
, t
j
)
k

u(x
i+1
, t
j
) 2u(x
i
, t
j
) + u(x
i1
, t
j
)
h
2
= 0
6.5. Ecuaciones parabolicas: la ecuacion del calor 125
cuyo error local de truncamiento es

p
=
1
2
ku
tt
(x
i
, t
j
+
j
k) + O(h
2
) (0 <
j
< 1)
y la diferencia regresiva en el (j+1)-esimo paso en t
u(x
i
, t
j+1
) u(x
i
, t
j
)
k

u(x
i+1
, t
j+1
) 2u(x
i
, t
j+1
) + u(x
i1
, t
j+1
h
2
= 0
cuyo error local de truncamiento es

p
=
1
2
ku
tt
(x
i
, t
j+1
+
j
k) + O(h
2
) (1 <
j
< 0)
Como 0 <
j
< 1 y 1 <
j
< 0, el esquema se construye suponiendo que
t
j
+
j
k

= t
j+1
+
j
k resultando
u(x
i
,t
j+1
)u(x
i
,t
j
)
k

1
2
[
u(x
i+1
,t
j
)2u(x
i
,t
j
)+u(x
i1
,t
j
)
h
2
+
u(x
i+1
,t
j+1
)2u(x
i
,t
j+1
)+u(x
i1
,t
j+1
h
2
] = 0
que en forma matricial, se expresa como
AU
j+1
= BU
j
, j = 0, 1, 2, . . . , m1
siendo
A =
_

_
1 + r
r
2
. . . 0 0

r
2
1 + r . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 + r
r
2
0 0 . . .
r
2
1 + r
_

_
y
B =
_

_
1 r
r
2
. . . 0 0
r
2
1 r . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 r
r
2
0 0 . . .
r
2
1 r
_

_
A es tridiagonal, simetrica y denida positiva, A
1
, y pueden emplearse
los metodos especiales para este tipo de matrices. La denominada molecula
computacional del metodo se ilustra en la gura siguiente.
Observaciones: Los esquemas anteriores pueden aplicarse sin dicultad
a las ecuaciones parab olicas generales. As, dada la ecuacion
u
t
= a(x, t)u
xx
+ b(x, t)u
x
+ c(x, t)u + d(x, t)
126 Captulo 6. Metodos en diferencias nitas
con la condici on inicial
u(x, 0) = f(x), (0 < x < 1)
y las condiciones en la frontera
u(0, t) = g
1
(t), u(1, t) = g
2
(t) (t R
+
)
Adem as, suponemos que verican las condiciones de compatibilidad
f(0) = g
1
(0), f(1) = g
2
(0)
Utilizando las siguientes aproximaciones en diferencias
u
t
(x
i
, t
j
)

=
u
i,j+1
u
i,j
h
u
x
(x
i
, t
j
)

=
u
i+1,j
u
i1,j
h
u
xx
(x
i
, t
j
)

=
u
i+1,j
2u
i,j
+ u
i1,j
h
2
con la notaci on
a
ij
= a(x
i
, t
j
), b
ij
= b(x
i
, t
j
), c
ij
= c(x
i
, t
j
), d
ij
= d(x
i
, t
j
), r =
k
h
2
, s =
k
2h
El esquema explcito resulta ser
u
i,j+1
= (ra
ij
sb
ij
)u
i1,j
+(1+kc
ij
2ra
ij
)u
ij
+(ra
ij
+sb
ij
)u
i+1,j
+kd
ij
(6.33)
y se tiene el siguiente resultado de estabilidad.
Proposicion 8 Si d = 0 y a, b, c son continuas con 0 < A a(x, t) B,
[ b(x, t) [ C, D c(x, t) 0, Ch 2A y k
h
2
Dh
2
+2B
entonces el metodo
(6.33) es estable.
6.6. Ecuaciones hiperb olicas: la ecuacion de
ondas
Estudiemos la integracion numerica de la ecuaci on hiperb olica unidimen-
sional, dada por
u
tt
= u
xx
(0 < x < 1, t R
+
) (6.34)
6.6. Ecuaciones hiperbolicas: la ecuaci on de ondas 127
con las condiciones de frontera
u(0, t) = u(1, t) = 0 (t R
+
) (6.35)
y las condiciones iniciales
u(x, 0) = f(x), u
t
(x, 0) = g(x) (0 < x < 1) (6.36)
Tomemos dos tama nos de paso constantes h, k, de modo que 1/h = n sea
un n umero entero y k sea un n umero real positivo arbitrario. As, tendremos
denidos los nodos espaciales
x
i
= ih, i = 0, 1, . . . , n
y los tiempos discretos
t
j
= jk, j = 1, 2, . . .
Y la soluci on numerica vendr a dada por un conjunto de valores u
ij
, que
ser an las aproximaciones de la soluci on exacta en los puntos: (x
i
, t
j
), ahora
La formula de Taylor nos permite escribir (si la funci on u(x, t) es de clase
C
(4)
en su dominio)
u
tt
(x
i
, t
j
) =
u
i,j+1
2u
i,j
+u
i,j1
k
2
u
tttt
(x
i
, t
j
+
j
k)
k
2
12
(1 <
j
< 1)
u
xx
(x
i
, t
j
) =
u
i+1,j
2u
i,j
+u
i1,j
h
2
u
xxxx
(x
i
+
i
h, t
j
)
h
2
12
(1 <
i
< 1)
(6.37)
y sustituyendo en (6.34) las derivadas temporal y espacial por los primeros
terminos de estas aproximaciones, queda
u
i+1,j
2u
i,j
+ u
i1,j
h
2
=
u
i,j+1
2u
i,j
+ u
i,j1
k
2
(6.38)
En tanto que el error de truncamiento est a dado por la expresion

ij
=
1
12
[k
2
u
tttt
(x
i
, t
j
+
j
k) h
2
u
xxxx
(x
i
+
i
h, t
j
)] (6.39)
Llamando r = k/h, el esquema (6.38) queda como sigue
u
i,j+1
= 2(1r
2
)u
i,j
+r
2
(u
i+1,j
+u
i1,j
)u
i,j1
, (i = 1, 2, . . . , n1, j = 1, 2, . . . )
(6.40)
Y teniendo en cuenta las condiciones de frontera dadas en (6.35) y las con-
diciones iniciales dadas en (6.36), el metodo se puede expresar en la forma
matricial
U
j+1
= AU
j
U
j1
(6.41)
128 Captulo 6. Metodos en diferencias nitas
siendo
A =
_

_
2(1 r
2
) r
2
. . . 0 0
r
2
2(1 r
2
) . . . 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 2(1 r
2
) r
2
0 0 . . . r
2
2(1 r
2
)
_

_
, U
j
=
_

_
u
1j
.
.
.
.
.
.
.
.
.
u
n1,j
_

_
Para calcular U
j+1
se requiere U
j
y U
j1
, por tanto para iniciar el proceso
(6.41) para calcular U
2
, es necesario, ademas del valor de U
0
dado por las
condiciones iniciales, calcular U
1
; aproximando u
t
(x, 0) con el error de orden
O(k
2
), similar al error de truncatura (6.39), lo que puede hacerse de la forma
u(x
i
, t
1
) u(x
i
, 0)
k
= u
t
(x
i
, 0) +
k
2
u
tt
(x
i
, 0) +
k
2
6
u
ttt
(x
i
, k) (0 < < 1)
Suponiendo que la ecuaci on de onda es valida en t = 0, y que esta denida
f

(x), se tiene
u
tt
(x
i
, 0) = u
xx
(x
i
, 0) = f

(x
i
), (i = 0, 1, 2, . . . , n)
Adem as, si f C
(4)
([0, 1]), se verica
f

(x
i
) =
f(x
i+1
) 2f(x
i
) + f(x
i1
)
h
2

h
2
12
f
(iv)
(x
i
+
i
h), (1 <
i
< 1)
y se tiene la aproximaci on
u(x
i
, t
1
) u(x
i
, 0)
k
= g(x
i
) +
k
2h
2
(f(x
i+1
) 2f(x
i
) +f(x
i1
)) +O(k
2
+kh
2
)
es decir
u(x
i
, t
1
) = u(x
i
, 0) + kg(x
i
) +
r
2
2
[f(x
i+1
) 2f(x
i
) + f(x
i1
)] + O(k
3
+ k
2
h
2
)
Luego, para representar los valores aproximados u
i1
(i = 1, 2, . . . , n 1), se
puede utilizar la ecuaci on en diferencias siguiente
u
i1
= (1 r
2
)f(x
i
) +
r
2
2
[f(x
i+1
) + f(x
i1
)] + kg(x
i
) (6.42)
Estabilidad del metodo. Por separacion de variables discretas, se puede
deducir que el metodo es estable si r 1 (o equivalentemente si k h).
6.6. Ecuaciones hiperbolicas: la ecuaci on de ondas 129
Puede construirse un metodo incondicionalmente estable como vemos a con-
tinuaci on.
Metodo implcito. Para obtener este metodo, basta con considerar las
aproximaciones por diferencias nitas siguientes
u
tt

=
u
i,j+1
2u
i,j
+u
i,j1
k
2
u
xx

=
1
2
[
u
i+1,j+1
2u
i,j+1
+u
i1,j+1
h
2
+
u
i+1,j1
2u
i,j1
+u
i1,j1
h
2
]
(6.43)
que conducen al esquema incondicionalmente estable
u
i1,j+1
2(1+r
2
)u
i,j+1
+u
i+1,j+1
= u
i1,j1
u
i+1,j1
4r
2
u
ij
+2(1+r
2
)u
i,j1
(6.44)
siendo ahora r =
h
k
, y cuya molecula computacional gura a continuaci on.
Captulo 7
Bibliografa
Se exponen seguidamente las referencias bibliogr acas que hemos utiliza-
do para preparar la asignatura, el alumno las puede consultar para ampliar y
completar algunas secciones, o como referencia para la realizaci on de algunos
de los trabajos que se puedan proponer.
1. A. Aubanell, A. Benseny y A. Delshams:

Utiles basicos de C alculo
Numerico. Labor.
2. M. Calvo, J. I. Montijano y L. R andez: Curso de An alisis Numerico
(Metodos de Runge- Kutta para la resoluci on numerica de ecuaciones
diferenciales ordinarias) y Curso de An alisis Numerico (Metodos linea-
les multipaso para la resoluci on numerica de ecuaciones diferenciales
ordinarias). Servicio de Publicaciones de la Universidad de Zaragoza.
3. C. Conde Lazaro y G. Winter: Metodos y algoritmos b asicos del

Algebra
Numerica. Reverte. Barcelona, 1990.
4. J. R. Dormand: Numerical Methods for Dierential Equations. CRC
Press.
5. J. D. Faires y R. L. Burden: Metodos Numericos (tercera edicion).
Thompson. Madrid, 2004.
6. F. Garca Merayo y A. Nevot Luna: An alisis Numerico (m as de 300
ejercicios resueltos y comentados). Paraninfo. Madrid.
7. M. Gasca: Calculo Numerico I. UNED. Madrid, 1986.
8. W. Gautschi: Numerical Analysis (An Introduction). Birkhauser. Bos-
ton, 1997.
131
132 Captulo 7. Bibliografa
9. D. Greenspan y V. Casulli: Numerical Analysis for Mathematics, Scien-
ce and Engineering. Addison-Wesley, 1988.
10. D. Kincaid y W. Cheney: An alisis Numerico. Adisson-Wesley Iberoa-
mericana. Delaware (E.E.U.U.), 1994.
11. J. D. Lambert: Computational Methods in Ordinary Dierential Equa-
tions. John Wiley and Sons, 1998.
12. R. Theodor: Initiation a l Analyse Numerique. Masson, Paris 1982.
13. A. Tveito y R.Winther: Introduction to Partial Dierential Equations
(A computational Approach). Springer, 1998.

Você também pode gostar