Você está na página 1de 51

UNIVERSIDAD CENTRAL DEL ECUADOR

FACULTAD DE INGENIERIA QUIMICA


INGENIERIA QUIMICA
ANÁLISIS NUMÉRICO

TEMA: ECUACIONES NO LINEALES


GRUPO 1

Integrantes:

•Erick Flores
•Mariela Flores
•Erick Granja
•Jazmín Guadamud
•Dayana Morales
•Karina Pulamarín
•Karla Quishpi
•Diana Yugcha
Semestre: cuarto
Paralelo: 1
Quito – Ecuador
2019-2019
1. Métodos iterativos para resolver 𝒙 = 𝒈(𝒙)
• técnica fundamental de la
Iteración computación científica

Trata de • repetir un proceso hasta


que se obtiene un resultado

Se usa • para hallar raíces de ecuaciones, soluciones de


los sistemas lineales no y ecuaciones dif

Consiste • sustituir repetidamente en una misma formula


el valor previamente obtenido.
Lo que se produce es una sucesión de valores 𝑝𝑘 obtenida mediante el
proceso iterativo 𝑝𝑘+1 = 𝑔(𝑝𝑘 ). La sucesión se ajusta al siguiente patrón

Lo que nos dice esta sucesión es que si los números tienden a un


límite, entonces podemos afirmar que tenemos algo entre manos.
Ejemplo 1.1. El proceso iterativo 𝑝0 = 1 y 𝑝𝑘+1 = 1.001 𝑝𝑘 para 𝑘 =
0, 1, … produce una sucesión divergente; sus primeros y centésimos
términos son

Este proceso puede continuarse indefinidamente y es fácil probar que se verifica que el
lim 𝑝𝑛 = +∞ . La sucesión 𝑝𝑘 es una solución numérica de la ecuación diferencial 𝑦 ′ =
𝑛→∞
0.001𝑦 . Se sabe que la solución de esta ecuación es 𝑦 𝑥 = 𝑒 0.001𝑥 . De hecho, si
comparamos el termino centésimo de la sucesión con 𝑦 100 , vemos que 𝑝100 =
1.105116 ≈ 1.105171 = 𝑒 0.1 = 𝑦(100).
2. Método de bisección

El método de bisección es uno de los más


versátiles para determinar una raíz real en
un intervalo de una ecuación dada, es fácil
de comprender, aunque si se desea una
mayor exactitud el número de cálculos que
hay que realizar aumenta
considerablemente.
Si f(m)=0, entonces m es la raíz buscada

Si f(a) y f(m) tienen signos diferentes, entonces la raíz buscada se


encuentra en el intervalo ]a,m[
Si f(m) y f(b) tienen signos diferentes, entonces la raíz buscada se
encuentra en el intervalo]m,b[

Ahora, divida por la mitad el nuevo intervalo que contiene la raíz


y repita el procedimiento.

Al continuar con el proceso, determinamos que la raíz se


encuentra en un intervalo tan pequeño como se desee y,
entonces, se obtiene una aproximación de la raíz buscada.
Observe que se va obteniendo una secuencia de intervalos
cada vez más pequeños ]a1,b1[,]a2,b2[,]a3,b3[,...,]an,bn[,
tal que f(an)∙f(bn)→0, entonces bn−an=12n(b−a).

Los puntos extremos a1,a2,a3,...,an forman una sucesión


creciente y acotada, mientras que los puntos extremos
b1,b2,b3,...,bn una sucesión decreciente y acotada, con un
límite común igual 𝜀 que es la raíz buscada.

El proceso puede ser continuado hasta lograr que ∣∣bn−an∣∣<


∈, para un valor ∈ establecido. Este procedimiento brinda la
precisión requerida para la raíz buscada.
3. Convergencia del método de la
regula falsi
 Este algoritmo tiene como ventaja que su velocidad de convergencia es mayor
a la del método de bisección de Bolzano.
 Para ello supongamos que f(a) y f(b) tienen distintos signos, en el método de
bisección se usa el punto medio dentro del intervalo [a,b] para llevar a cabo
el siguiente paso, suele conseguirse una aproximación mejor usando el punto
(c,0) en el que la recta secante L que pasa por los puntos (a,f(a)) y (b,f(b))
cruza por el eje de las abscisas, de esta forma se obtiene un acercamiento
más rápido a la raíz de la función f analizada.
 Consideremos que la recta L pasa por los puntos (a,f(a)), (b,f(b)) y (c,0), con
lo cual podemos definir dos ecuaciones iguales para el cálculo de la pendiente
de L, por tanto:

𝑓 𝑏 −𝑓 𝑎 0−𝑓 𝑏 𝑓 𝑏 ∗ 𝑏−𝑎
𝑚1 = 𝑚2 → = → 𝑐=𝑏−
𝑏−𝑎 𝑐−𝑏 𝑓 𝑏 −𝑓(𝑎)
Si extendemos este análisis hasta que el intervalo
analizado sea tan pequeño en tanto que la raíz de la
función f se encuentre dentro, en cada aproximación al
cero se tiene que:
𝑓 𝑏𝑛 ∗ 𝑏𝑛 − 𝑎𝑛
𝑐𝑛 = 𝑏𝑛 −
𝑓 𝑏𝑛 − 𝑓(𝑎𝑛 )
De modo que la sucesión {cn} converge al cero de la
función f. Sin embargo, hay que tener en cuenta que si la
curva de la función f es convexa cerca de su raíz o cero,
entonces uno de los extremos de cada intervalo [an,bn]
permanece estacionario mientras que el otro converge
hacia la raíz r.
EJEMPLO:

Resolución de xsen(x) -1 =0 por el método de la


régula falsi
EJEMPLO DE PROGRAMACION CON
MATLAB
4. Aproximación inicial y
criterios de convergencia
 Los métodos de localización dependen de la determinación de un intervalo inicial [a, b] en
el que 𝑓(𝑎) y 𝑓(𝑏) tengan signo distinto. Una vez encontrado este intervalo, no importa lo
grande que sea, podremos empezar a integrar hasta que encontremos una raíz con la
precisión deseada. Por esta razón se dice que estos métodos son globalmente
convergentes.
 Supongamos que usamos un computador para dibujar la curva 𝑦 = 𝑓(𝑥) con 𝑥 en [𝑎, 𝑏].
Típicamente, el intervalo se divide en 𝑁 partes iguales, cuyos extremos son 𝑁 + 1 puntos
equiespaciados 𝑎 = 𝑥0 < 𝑥1 < ⋯ < 𝑥𝑁 = 𝑏 , y luego se calculan los valores 𝑦𝑘 = 𝑓(𝑥𝑘 ).
Entonces cada pareja de puntos adyacentes (𝑥𝑘−1 , 𝑦𝑘−1 ) y (𝑥𝑘 , 𝑦𝑘 ), para 𝑘 = 1, 2, … , 𝑁, se
unen en el dibujo mediante una línea recta o una curva adecuada. Si 𝑓(𝑥) es continua y
dos puntos adyacentes (𝑥𝑘−1 , 𝑦𝑘−1 ) y (𝑥𝑘 , 𝑦𝑘 ) están situados en lados distintos del eje de
abscisas, entonces el teorema del valor intermedio garantiza que hay al menos una raíz en
el intervalo [𝑥𝑘−1 , 𝑥𝑘 ].
 Ejemplo 2.9. Vamos a localizar aproximadamente las
raíces de 𝑥 3 − 𝑥 2 − 𝑥 + 1 = 0 en el intervalo [-1.2, 1.2].
Para ello, por ejemplo, tomamos 𝑁 = 8 y miramos loas
cálculos en la Tabla 2.3.
Las tres abscisas que debemos tener en cuenta son
− 1.05, −0.3, y 0.9 . como 𝑓(𝑥) cambia de signo en
[−1.2, −0.9], el punto medio −1.05 es una raíz aproximada;
de hecho, 𝑓 −1.05 = −0.210.
Aunque la pendiente cambia de signo cerda de −0.3, vemos
que 𝑓 −0.3 = 1.183; luego −0.3 no está cerca de ninguna
raíz. Finalmente, la pendiente cambia de signo cerda ce 0.9
y 𝑓 0.9 = 0.019, de manera que 0.9 es una raíz aproximada
(véase la figura 2.10).
Tabla 2.3 Localización aproximada de las raíces

Valores de la función Diferencias en las y


Cambios significativos
𝑥𝑘 𝑦𝑘−1 𝑦𝑘 𝑦𝑘 − 𝑦𝑘−1 𝑦𝑘+1 − 𝑦𝑘 en 𝑓(𝑥) o 𝑓′(𝑥)
-1.2 -3.125 -0.968 2.157 1.329
-0.9 -0.968 0.361 1.329 0.663 𝑓 cambia de signo en [𝑥𝑘−1 , 𝑥𝑘 ]
-0.6 0.361 1.024 0.663 0.159
-0.3 1.024 1.183 0.159 -0.183 𝑓′ cambia de signo cerca de 𝑥𝑘
0.0 1.183 1.000 -0.183 -0.363
0.3 1.000 0.637 -0.363 -0.381
0.6 0.637 0.256 -0.381 -0.237
0.9 0.256 0.019 -0.237 0.069 𝑓′ cambia de signo cerca de 𝑥𝑘
1.2 0.019 0.088 0.069 0.537
Figura 2.10 Grafica del polinomio cubico 𝑦 =
𝑥 3 − 𝑥 2 − 𝑥 + 1.
Comprobación de la convergencia

Podemos usar una grafica para ver la


localización aproximada de una raíz, pero
debemos usar un computador para
calcular un valor 𝑝𝑛 que sea una solución
aceptable.
Podemos proporcionar un valor de la
tolerancia 𝜀 para el tamaño de |𝑓 𝑝𝑛 | y
el proceso iterativo producirá puntos
𝑃𝑘 = (𝑝𝑘 , 𝑓(𝑝𝑘 )) hasta que el último
punto 𝑃𝑛 este en la banda horizontal
Figura 2.11 (a) Banda de convergencia comprensiva entre las rectas de
horizontal para localizar una solución de ecuaciones 𝑦 = +𝜀 𝑒 y 𝑦 = −𝜀, como se
𝑓 𝑥 = 0. muestra en la Figura 2.11 (a).
Otro criterio de parada
involucra las abscisas. Tratamos
Figura 2.11 (b) Banda de convergencia vertical para localizar de determinar si la sucesión
una solución de 𝑓 𝑥 = 0. {𝑝𝑘 } converge y, para ello,
dibujamos dos rectas verticales
de ecuaciones 𝑥 = 𝑝 + 𝛿 y 𝑥 =
𝑝 − 𝛿 a cada lado de 𝑥 = 𝑝, y
detenemos el proceso cuando 𝑃𝑛
esta entre ambas rectas, como
se muestra en la Figura 2.11 (b)
5. Método de Newton-Raphson

Es uno de los métodos más usados en la ingeniería por llegar


al resultado del problema planteado de forma muy rápida. Se
basa en trazar rectas tangentes que “toman la forma” de la
función por medio de su primera derivada.
EJEMPLO
6. METODO DE LA SECANTE

 Es una variación del método de Newton-Raphson donde en vez de calcular la


derivada de la función en el punto de estudio, teniendo en mente la
definición de derivada, se aproxima la pendiente a la recta que une la función
evaluada en el punto de estudio y en el punto de la iteración anterior. Este
método es de especial interés cuando el coste computacional de derivar la
función de estudio y evaluarla es demasiado elevado, por lo que el método de
Newton no resulta atractivo.
Utilice el método de la secante para encontrar una raíz real de la ecuación
polinomial: F(x)=x3+2x2+10x-20=0.

EJEMPLO Utilizando la ecuación:


𝑥𝑛+1 = 𝑥𝑛 −
𝑥 𝑛 − 𝑥 𝑛 −1
𝑓(𝑥 𝑛 )−𝑓(𝑥 𝑛 −1 )
𝑓(𝑥𝑛 )

Obtenemos:

𝑥𝑛 +1
(𝑥𝑛 − 𝑥𝑛−1 )(𝑥 3 𝑛 + 2 𝑥 2 𝑛 + 10𝑥𝑛 − 20)
= 𝑥𝑛 −
(𝑥 3 𝑛 + 2 𝑥 2 𝑛 + 10𝑥𝑛 − 20) − (𝑥 3 𝑛−1 + 2 𝑥 2 𝑛−1 + 10𝑥𝑛−1 − 20

Y mediante x0=0 y x1=1 se calcula x2

(1 − 0)(13 + 2 (1)2 + 10(1) − 20)


𝑥2 = 1 − 3
(1 + 2 (1)2 + 10(1) − 20) − (03 + 2(0)3 + 10(0) − 20

𝑥2 = 1.53846
Los Valores Posteriores son:
n Xn | Xn+1 – Xn |
0 0.00000
1 1.00000 1.00000
2 1.53846 0.53846
3 1.35031 0.18815
4 1.36792 0.01761
5 1.36881 0.00090
EN MATLAB
7. Los métodos de Aitken,
Steffensen y Muller
Este método depende del conocimiento previo del orden de la raíz.
Una técnica conocida como método ∆2 𝑑𝑒 𝐴𝑖𝑡𝑘𝑒𝑛 permite acelerar la
convergencia de cualquier sucesión que sea linealmente
convergente. Para presentar esta técnica necesitamos una
definición previa.
7.1 El método de Aitken


 Definición: Dada la sucesión 𝑝𝑛 𝑛=0 ,se define la diferencia progresiva
∆𝑝𝑛 mediante
(1) ∆𝑝𝑛 = 𝑝𝑛+1 − 𝑝𝑛 para 𝑛 ≥ 0
 Las potencias superiores ∆𝑘 𝑝𝑛 se definen de manera recursiva mediante
(2)∆𝑘 𝑝𝑛 = ∆𝑘−1 ∆𝑝𝑛 para 𝑘 ≥ 2
 Teorema (Aceleración de Aitket). Sea 𝑝𝑛 ∞ 𝑛=0 una sucesión que converge
linealmente a su límite p y tal que 𝑝 − 𝑝𝑛≠0 para todo 𝑛 ≥ 0.Si existe un
numero real 𝐴 con 𝐴 > 1 y tal que
𝑝−𝑝𝑛+1
(3) lim =𝐴
𝑛→∞ 𝑝−𝑝𝑛

 Entonces la sucesión 𝑞𝑛 𝑛=0 definida por
∆𝑝𝑛 2 𝑝𝑛+1 −𝑝𝑛 2
(4) 𝑞𝑛 = 𝑝𝑛 − = 𝑝𝑛 −
∆2 𝑝𝑛 𝑝𝑛+2 −2𝑝𝑛+1 +𝑝𝑛

 Converge a p más rápidamente que 𝑝𝑛 𝑛=0 , en el sentido de que
𝑝−𝑞𝑛
(5) lim =0
𝑛→∞ 𝑝−𝑝𝑛
 Demostración; Mostraremos como se deduce la formula (4)
𝑝−𝑝𝑛+1 𝑝−𝑝𝑛+2
(6) ≈𝐴 y ≈ 𝐴 cuando n es grande
𝑝−𝑝𝑛 𝑝−𝑝𝑛+1

 Tabla 2.10. Sucesión linealmente convergente


 Tabla 2.11. Sucesión 𝑞𝑛 obtenida con el método de Aitken
 Las aproximaciones dadas en (6) implican que
(7) 𝑝 − 𝑝𝑛+1 2 ≈ 𝑝 − 𝑝𝑛+2 𝑝 − 𝑝𝑛
 Haciendo las operaciones en ambos miembros de (7) y simplificando los
términos 𝑝2 , obtenemos
𝑝 𝑝 − 𝑝𝑛+1 2
(8) 𝑝 ≈ 𝑝𝑛+2 −2𝑝
𝑛
= 𝑞𝑛 para 𝑛 = 0,1, …
𝑛+2 𝑛+1 +𝑝𝑛

 La fórmula (8) , que define el termino 𝑞𝑛 ,Puede ser manipulada


algebraicamente para convertirla en la formula (4) , que tiene mejor
comportamiento frente a la propagación de los errores cuando se usan con
un computador.
 Ejemplo: Veamos que la sucesión presenta convergencia
lineal y que la sucesión obtenida con el método de Aitket
converge más rápidamente.
La sucesión se obtuvo aplicando iteración de punto fijo a la
función dada por a partir del valor inicial Una vez definidas las
iteraciones, el limite calculado fue Los valores y se muestran
en las Tablas 2.10 y 2-11. Para ilustrar lo que decimos,
observemos que el valor se obtiene con el cálculo

Aunque la sucesión de la Tabal 2.11 converge linealmente, su


velocidad de convergencia es mayor que la de en el sentido
dado en el Teorema anterior, de hecho, el método de Aitken
produce, usualmente, mejoras más sustanciales que la de este
caso. Cuando el método de Aitken se combina con una iteración
de punto fijo, el resultado se conoce como método de
aceleración de Steffensen.
7.2 Método de Muller

 El método de Muller es una generalización del método de la secante, en el


sentido de que no necesita el cálculo de la derivada de la función. Es un
método iterativo que necesita tres puntos iniciales. Entonces se construye la
parábola con el eje OX; la abscisa de este punto se usa para construir la
siguiente aproximación. Sin pérdida de generalidad, supongamos que p2 es la
mejor aproximación a la raíz y consideremos la parabola, que se muestra en
la Figura 2.17 que pasa por los tres puntos de partida.
 Hagamos el cambio de variable
(9) 𝑡 = 𝑥 − 𝑝2
 Y usemos las diferencias
(10) ℎ0 = 𝑝0 − 𝑝2 y ℎ1 = 𝑝1 − 𝑝2
 Consideremos el polinomio cuadrado en la variable t=
11 𝑦 = 𝑎𝑡 2 + 𝑏𝑡 + 𝑐
 Cada punto inicial nos proporciona una ecuación para a, b y c.
En 𝑡 = ℎ0 ; 𝑎ℎ0 2 + 𝑏ℎ0 + 𝑐 = 𝑓 𝑝0 ,
(12) En 𝑡 = ℎ1 ; 𝑎ℎ1 2 + 𝑏ℎ1 + 𝑐 = 𝑓 𝑝1 ,
En 𝑡 = 0; 𝑎02 + 𝑏0 + 𝑐 = 𝑓 𝑝2 ,
 La tercera ecuación (12) nos dice que
(13) 𝑐 = 𝑓 𝑝2
 Sustituyendo (13) en las primeras dos ecuaciones de (12) y poniendo 𝑒0 =
𝑓 𝑝0 − 𝑐 y 𝑒1 = 𝑓 𝑝1 − 𝑐
(14) 𝑎ℎ0 2 + 𝑏ℎ0 = 𝑓 𝑝0 − 𝐶 = 𝑒0
𝑎ℎ1 2 + 𝑏ℎ1 = 𝑓 𝑝1 − 𝐶 = 𝑒1
 Ahora resolvemos este sistema y obtenemos a y b;
𝑒0 ℎ1 −𝑒1 ℎ0
(15) 𝑎 = ℎ 2 2,
1 ℎ0 −ℎ0 ℎ1
𝑒1 ℎ0 −𝑒0 ℎ1
 𝑏=ℎ 2 2
1 ℎ0 −ℎ0 ℎ1

Las raíces 𝑡 = 𝑧1 , 𝑧2 de (11) se obtienen usando la formula


−2𝑐
(16) 𝑧 = ,
𝑏± 𝑏2 −4𝑎𝑐

Esta fórmula (16) es equivalente a la formula habitual para hallar las raíces
de una ecuación de segundo grado; pero. En este caso, (16) es mejor porque
ya sabemos que 𝑐 = 𝑓 𝑝2 .
Para asegurar la estabilidad del método hay que elegir la raíz (16) que tenga
menor valor absoluto; así .si 𝑏 > 0, entonces usamos el signo positivo de la
raíz cuadrada, mientras que si 𝑏 < 0 , entonces usamos el signo positivo. El
nuevo punto 𝑝3 , que se muestra en la Figura 2.17, viene dado por
(17) 𝑝3 = 𝑝2 + 𝑧
8. COMPARACIÓN DE MÉTODOS
 El método más sencillo es el de bisección, que siempre es convergente. Tiene la
desventaja de que su velocidad de convergencia es baja. Es totalmente conveniente
como un método preliminar para hacer aproximaciones rústicas de las soluciones, las
cuales después se pueden mejorar con métodos más perfeccionados. Cuando se
satisfacen las condiciones para la convergencia, se deben usar métodos como el de la
secante o el método de Newton-Raphson.
 El método de Steffensen puede usarse junto con la función de iteración del método de
𝑓(𝑥)
Newton-Raphson 𝑔 𝑥 = 𝑥 − ′ . En los dos ejemplos siguientes nos vamos a
𝑓 (𝑥)
plantear el cálculo de las raíces del polinomio 𝑓 𝑥 = 𝑥 3 − 3𝑥 + 2, para el cual la
2𝑥 3 −2
función de iteración del método de Newton-Raphson es 𝑔 𝑥 = .
3𝑥 2 −3
 Ejemplo 8-1: Convergencia cerca de una raíz simple
𝑓 𝑥 = 𝑥 3 − 3𝑥 + 2 con raíz simple 𝑝 = −2

Tabla 8-1. Comparación de las convergencias cerca de una raíz simple.


 Ejemplo 8-2: Convergencia cerca de una raíz doble
𝑓 𝑥 = 𝑥 3 − 3𝑥 + 2 con raíz doble 𝑝 = 1

Tabla 8-2. Comparación de las convergencias cerca de una raíz doble


8-1. COMPARACIÓN ENTRE DOS MÉTODOS:

El método de Steffensen puede usarse junto con la función de


iteración del método de Newton-Raphson que dice:
𝑓 𝑥
𝑔 𝑥 =𝑥− , ,ó
𝑓 𝑥
𝑓 𝑝𝑘−1
𝑝𝑘 = 𝑝𝑘−1 − , , 𝑝𝑎𝑟𝑎 𝑘 = 1,2,3 …
𝑓 𝑝𝑘 − 1
Donde 𝑥 = 𝑝𝑘
EJEMPLO:

Encuentre una raíz real de la ecuación:

𝑓 𝑥 = 𝑥 3 + 2𝑥 2 + 10𝑥 − 20 = 0
Si 𝑥0 = 1

Con el método de Steffensen, usando ϵ = 10−3 aplicado a |f 𝑥 |.


SOLUCIÓN:
Se pasa primero la ecuación 𝑓 𝑥 = 0 a la forma g 𝑥 = 𝑥.
Se factoriza x en la ecuación y luego se despeja:
Si la ecuación es de orden (𝑥 3 )

𝑘𝑡𝑒
𝑥 = 𝑖−1
𝑎𝑥 + 𝑏𝑥 𝑖−2 + 𝑐𝑥 𝑖−3

20
𝑥= 2
𝑥 + 2𝑥 + 10
• Primera iteración:
Se elige un valor inicial 𝑥0 = 1 y se calcula 𝑥1 𝑦 𝑥2
𝑥1 = 1.53846

𝑥2 = 1.29502
Se aplica ahora una ecuación para acelerar la convergencia:
(𝑥 − 𝑥 )2
, 𝑖+1 𝑖
𝑥 𝑖 = 𝑥𝑖 −
𝑥𝑖+2 − 2𝑥𝑖+1 + 𝑥𝑖
Donde 𝑖 ≥ 0
Primera iteración:

2
(1.53846 − 1)
𝑥 ,0 = 1 −
1.29502 − 2 1.53846 + 1

Como f 𝑥 = 1.37081 3 + 2 1.37081 2 − 20 = 0.04234 > 10−3 , se


pasa a la…
• Segunda iteración:
Con el valor de 𝑥 , 0 que ahora se denota como
𝑥3 y con la g(x) que se tiene resulta:

𝑥4 = 1.36792
𝑥5 = 1.36920
Aplicamos nuevamente la ecuación para acelerar la
convergencia a 𝑥3 . 𝑥4 𝑦 𝑥5 se llega a:

(1.36792 − 1.37081)2
𝑥 ,1 = 𝑥6 = 1.37081 − = 1.36881
1.36920 − 2 1.36792 + 1.37081
Luego con el criterio de exactitud se tiene:
|f 𝑥 |=0.0000399<10−3
Y así el problema queda resuelto, y así podemos ponerlo en Matlab:
format long
x0=1;eps=0.001;
for i=1:10
x1=20/(x0^2+2*x0+10);
x2=20/(x1^2+2*x1+10);
x=x0-(x1-x0)^2/(x2-2*x1+x0);
dist=abs(x-x0);
disp ([x1,x2,x])
if dist < eps
break
end
x0=x;
end
¡GRACIASPOR SU
ATENCIÓN!

Você também pode gostar