Você está na página 1de 23

Ecuaciones no lineales

Mtodo de biseccin:
Si f es una funcin continua sobre el intervalo [a1;b1] y si f(a).f(b)<0, entonces f
debe tener un cero en (a;b).

Se busca un intervalo que cumpla las dos condiciones iniciales.


Se toma el punto medio c del intervalo (b-a)/2.
Se analiza si f(a)*f(c)<0, el cero esta en este nuevo intervalo [a;c]= [a2;b2].
Caso contrario est en el intervalo [c;b]=[a2;b2] o si f(c)=0 ah est la raz.
Se puede repetir todas las veces necesarias.

Siempre converge con la precisin deseada (globalmente convergente).


Es el ms lento para converger.
La funcin debe ser continua y encontrar el intervalo donde est la raz.

Demostracin:
a1a2...anb1, la sucesin {an} converge porque es creciente y est
acotada superiormente.
b1b2...bna1, la sucesin {bn} converge porque es decreciente y est
acotada inferiormente.
bn+1-an+1 = (bn-an)/2, n1 entonces (bn-an)= (b1-a1)/2(n-1) n1.
Entonces

Error:

(1) Dado que r (la raz buscada) est en una de las dos mitades del
intervalo [an, bn], la distancia del punto medio del intervalo a r debe ser
menor o igual que la mitad de la longitud del intervalo.
(2) Demostrado en el punto anterior.
Mtodo de Newton-Raphson:
El mtodo de Newton-Raphson se utiliza para calcular numricamente las
races, dada una aproximacin inicial x0 y conocer la derivada primera.
Aplicamos la funcin recursiva tantas veces como sea necesario.

Grficamente vemos

Mayor velocidad de convergencia respecto de otros mtodos.


Se puede garantizar la convergencia bajo ciertas condiciones.
Su convergencia depende de la naturaleza de la funcin y de la exactitud
del valor inicial.
No converge si est muy lejos la raz y la sucesin diverge debido a una
pendiente casi horizontal.
Puede haber problemas si hay mximos, mnimos o puntos de inflexin
prximos a la raz.
Debe conocerse la derivada primera necesariamente.

Demostracin:
Se plantea a partir del polinomio de Taylor para aproximar un valor.

Se lo evala en la aproximacin inicial, siendo la tangente en el punto.

Como (r-r0)2 es muy pequeo, se lo desprecia. Despejamos r y


obtenemos

Ahora la expresamos como una recursiva

A partir de este mtodo cada pendiente genera una aproximacin ms


cercana al cero de la funcin.
Una forma de facilitar su uso y garantizar con seguridad su efectividad es
recurrir a la Regla de Fourier
Buscando:
a) Un intervalo [a;b] donde la funcin f(x) sea continua y dos veces
derivable.
b) f(a)*f(b)<0
c) Para todo valor x perteneciente a [a;b] f(x) y f(x) distintas de cero.
d) Tomar como x0 un punto del intervalo donde el signo de f(x) sea igual al
de f(x)

Se puede modificar el mtodo de Newton-Raphson para lograr una sucesin que


converja ms rpido a la raz con orden de convergencia cuadrtico.
Suponiendo que el algoritmo de Newton-Raphson produce una sucesin que
converge linealmente a una raz p de orden de multiplicidad M > 1, entonces la
frmula de iteracin de Newton-Raphson acelerada

Error:

Suponiendo que f(x) es continua y que r es un cero simple de f, tal que


f(r) 0, se tiene:

Por el teorema de Taylor, se sabe que:

Con n entre rn y r. Despejando de esta ecuacin, resulta:

Reemplazando lo obtenido en la ecuacin (1), se obtiene:

Esto significa que la convergencia del mtodo, cuando el cero es simple,


es cuadrtica.
Mtodo de Regula-Falsi:
Mismas condiciones que biseccin. Si f es una funcin continua sobre el intervalo
[a;b] y si f(a).f(b)<0, entonces f debe tener un cero en (a;b).

Se busca un intervalo que cumpla las dos condiciones iniciales.


Se toma el punto c del intervalo tal que

Se analiza si f(a)*f(c)<0, el cero esta en este nuevo intervalo [a;c]= [a1;b1].


Caso contrario est en el intervalo [c;b]=[a1;b1] o si f(c)=0 ah est la raz.
Se puede repetir todas las veces necesarias.

Siempre converge con la precisin deseada (globalmente convergente).


Es ms rpido que biseccin.
Sigue siendo un mtodo lento.
La funcin debe ser continua y encontrar el intervalo donde est la raz.

Demostracin:
Dadas las pendientes entre los puntos (a;f(a)), (b;f(b)) y (c;0), (b;f(b))

Se igualan y se despeja c

Como se ve en la grfica se produce una aproximacin y un nuevo


intervalo, entonces el cero esta en

Orden de convergencia:
Se puede demostrar que bajo ciertas condiciones el mtodo de Regula -
Falsi tiene orden de convergencia lineal. Esto sucede cuando la funcin
f(x) es cncava entre a y b y el punto a es siempre uno de los dos puntos
usados para la siguiente iteracin. Lo mismo ocurrira si fuese convexa en
las inmediaciones de la raz.
Mtodo de la secante:
Un problema potencial en la implementacin del mtodo de Newton es la
evaluacin de la derivada. Existen algunas funciones cuyas derivadas en
ocasiones resultan muy difciles de calcular.
Si bien este mtodo requiere de dos valores iniciales, no es necesario que f(x)
cambie de signo entre los valores dados.

Se aplica la siguiente recursiva para lograr las aproximaciones, idntico


a regula falsi.

Obteniendo

Cuando converge lo hace ms rpido que el mtodo de Regula - Falsi. La


inferioridad de este ltimo se debe a que un extremo permanece fijo,
para mantener a la raz dentro del intervalo.
Puede divergir en algunos casos.

Demostracin:
Reemplazando la aproximacin al valor de la derivada

En el mtodo de newton nos da

Error:
Se puede demostrar que el error est dado por

El error es ligeramente mayor que con newton por tanto converge ms


lento.
Convergencia:
Cuando la raz es simple, el orden de convergencia del mtodo de la

secante es:

Los mtodos cuyo orden de convergencia es mayor que uno pero menor
que dos reciben el nombre de superlineales
Sistemas de ecuaciones lineales
El objetivo de este estudio es la resolucin de n ecuaciones lineales
simultneas, con n incgnitas:
Tienen solucin siempre que la matriz y la ampliada tengan mismo rango.

Tal que

Sistemas con solucin inmediata


Matriz diagonal:

La solucin de este sistema se obtiene directamente, para i = 1, . , n:

Existe solucin si todos los trminos de la diagonal son no nulos.


La cantidad de operaciones necesarias es Op(n) = n.

Matrices triangulares:

Las soluciones vienen dadas por sustitucin hacia atrs

para i desde n-1 hasta 1


Existe solucin si todos los trminos de la diagonal de U son no nulos.
La cantidad de operaciones necesarias es Op(n) = n2.
De ser matriz triangular inferior:
Se resuelve por sustitucin hacia adelante

para i desde 2 hasta n


Mtodos de eliminacin:
Mtodo de Gauss:
El mtodo de eliminacin de Gauss transforma el problema original, A x = b, en
un sistema equivalente U x = c, donde U es una matriz triangular superior, de
resolucin inmediata.
Dada una matriz inicial (el superndice indica el paso)

Se cancelan por combinacin lineal todos los elementos debajo a a11

Si el nuevo a22 es distinta de cero se puede restar de las filas de debajo

As hasta formar una triangular superior, el algoritmo final es el siguiente

El total de operaciones es
Mtodo de Gauss-Jordan:
El mtodo de eliminacin de Gauss-Jordan es una variante que transforma el
problema original, A x = b, en un sistema equivalente I x = c
En este mtodo, adems de sustraer la fila k multiplicada por mik a las
filas posteriores, tambin se sustrae a las anteriores.
Trabaja con el algoritmo

Mtodo de Thomas:
El algoritmo de Thomas se aplica a matrices tridiagonal

Trabaja similar a Gauss, dividiendo primero una fila por b.


Luego cancelando el trmino a por debajo.
Y repitiendo.
Quedando una matriz diagonal unitaria, y trminos a nulos.
El algoritmo de Thomas es particularmente econmico: requiere una
cantidad de operaciones Op(n) = 8 n 6.
Para prevenir problemas de mal condicionamiento, es necesario que se
cumpla la condicin: |bi|>|ai| + |ci| (Diagonalmente dominante).
El algoritmo de Thomas puede generalizarse sin dificultades para
sistemas cuya matriz de coeficientes es pentadiagonal o tridiagonal en
bloques.
Observaciones sobre mtodos de eliminacin:
Aplicaciones de Gauss:
Resolver sistemas de ecuaciones lineales con solucin nica (det no nulo).
Resolver sistemas sin conocer si el determinante es nulo.
Discusin general de sistemas de ecuaciones lineales.
Resolucin simultanea de un sistema de ecuaciones lineales.
Calculo eficiente de un determinante.
Calculo eficiente de una inversa.
No adecuado para sistemas grandes (dispersos), ya que lleva muchos
pasos innecesarios.
Inestable.

Pivotamiento:
A fin de resolver la inestabilidad aplicamos tcnicas de pivotamiento.
Es obvio que valores pequeos del pivote pueden producir grandes errores, ya
que siempre se divide por el valor del pivote.
Pivote parcial: Se toma como pivote el coeficiente mayor en valor absoluto de la
columna k situado por debajo de la fila k (incluyendo la fila k). Para ello es
necesario permutar la fila k y la correspondiente al pivote elegido y sus
respectivos trminos independientes.
Pivote total: Mismo que el parcial salvo que tambin se cambian entre
columnas, deben acomodarse las componentes del vector solucin.

Sistemas Mal Condicionados


Algunos sistemas de ecuaciones lineales son extremadamente sensibles a los
errores de redondeo que puedan producirse en el proceso de resolucin.
Ya hemos visto en las secciones anteriores algunos ejemplos, en particular los
que podan "arreglarse" mediante el uso de tcnicas de pivotacion parcial o
total. Sin embargo, en determinados casos ni siquiera el uso de esas tcnicas
consigue llevar a una resolucin precisa, se trata de los sistemas mal
condicionados.
Mtodos de descomposicin:
Los mtodos de descomposicin son especialmente indicados para resolver
sucesivamente varios sistemas de ecuaciones lineales con la misma matriz y
distintos trminos independientes.
Factorizacin LU.
Los mtodos de descomposicin (o factorizacin) se fundamentan en que toda
matriz regular A puede, con las permutaciones adecuadas, descomponerse en
el producto de una matriz triangular inferior L y una matriz triangular superior
U. Para evitar confusiones se supondr que las permutaciones no son
necesarias, es decir que se puede escribir A = L U.

Mtodos de Doolittle y de Crout:


Condiciones necesarias: Menores principales no singulares, det no nulo.
Condiciones suficientes: Que la diagonal principal sea estrictamente dominante.

En el mtodo de Doolitle se realiza la descomposicin de la matriz A en


el producto LU, donde L tiene diagonal unitaria. En el mtodo de Crout se
realiza la descomposicin de la matriz A en el producto LU, U con
diagonal unitaria.
En el mtodo de Doolitle, la matriz U es la que se obtiene con la
eliminacin gaussiana.
En el mtodo de Doolitle la matriz L tiene diagonal unitaria. Y tiene las
componentes del nmero por el que operamos para cancelar en U.

B son los trminos independientes de A.


Mtodo de Cholesky:
Se trata de un caso especial de factorizacin LU donde la matriz es de
coeficientes reales, simtricos y es definida positiva (autovalores positivos o
determinante de los menores todos positivos).
Basta con tomar U=Lt y se demuestra que A=L*Lt.
Resulta un sistema

Este mtodo tiene un planteo recursivo, en el que se descomponen


sucesivamente los menores principales de la matriz A.

La incgnita es una nica matriz triangular inferior L, y su transpuesta


hace de matriz triangular superior.
La cantidad de operaciones es de:

Sirve para saber si una matriz simtrica es definida positiva.


Es estable.

Mtodos iterativos:
Los mtodos iterativos consisten en convertir el sistema A x = b en otro
equivalente de la forma x = T x + c para alguna matriz fija T y un vector c.
Estos mtodos rara vez se usan para resolver sistemas lineales pequeos, ya
que el tiempo necesario para conseguir una aproximacin satisfactoria rebasa
el que requieren los mtodos directos. Pero, en el caso de sistemas con matrices
vacas, los mtodos iterativos son eficientes tanto en almacenamiento como en
tiempo de cmputo.
Los mtodos iterativos inician con una solucin aproximada (Semilla), que vara
con una funcin de recurrencia, que se repite con la nueva semilla.
Se aplican solo a sistemas cuadrados.
Se usan cuando no se conoce un mtodo para obtener la solucin en
forma exacta.
Se utilizan cuando el mtodo para determinar la solucin exacta requiere
mucho tiempo de clculo, cuando una respuesta aproximada es adecuada,
y cuando el nmero de iteraciones es relativamente reducido.
Las matrices dispersas facilitan su aplicacin.
Calculan aproximaciones a la solucin.
Llevan mucho tiempo.

Mtodo de Jacobi:
Converge siempre que el radio espectral de la matriz sea igual o menor que
uno, este puede verse como el mximo del mdulo de los autovalores.
A falta de conocer estos valores hay una condicin suficiente, la dominancia
estrictamente diagonal de la matriz.

Primero armamos la expresin de recurrencia despejando las incgnitas

Tomamos una aproximacin inicial de las soluciones, llmense x0


Aplicamos la recurrencia como sea necesario hasta aproximar

Se frena por tolerancia


En algunos casos ser posible reordenar las incgnitas en otra manera de
forma que la nueva matriz de coeficientes sea diagonalmente dominante.
El mtodo se escribe en la forma x (k) = T x (k-1) + c, dividiendo A en una matriz
diagonal y dos matrices triangulares de la siguiente forma:

Entonces, A x = b puede escribirse (D + L + U) x = b, o D x = (L + U) x + b, o


x (k) = D-1 (L + U) x (k-1) + D-1 b
Mtodo de Gauss-Seidel:
Este mtodo de mismas condiciones que el anterior, es una optimizacin que
utiliza las aproximaciones calculadas en una misma iteracin.
El algoritmo modificado es

Se puede expresar como


x(k) = (D + L)-1U x(k-1) + (D + L)-1b
Hay sistemas lineales donde el mtodo de Jacobi converge, y el de Gauss
Seidel no, y viceversa, y otros en los que ninguno de los dos converge.

Cuadro resumen prctico

Mtodo Cond. Necesaria Cond. Suficiente Cuando usar.


Matriz diagonal Diagonal - Directo
Matriz triangular Triangular inf o sup - Directo
Gauss o Gauss Sin elementos nulos - Sistemas no tan
Jordan en la diagonal grandes, de un solo
transformada resultado
Thomas Tridiagonal aplicada - Tridiagonales
con Gauss, sin
elementos nulos en
la diagonal
Doolittle y Crout Menores principales Diagonal principal Resolver
no singulares, estrictamente sucesivamente varios
determinante no dominante sistemas de
nulo. ecuaciones lineales
con la misma matriz
Cholesky Matriz a coeficientes - Caso ms simple que
reales, simtrica y Doolitle pero con
definida positiva ms condiciones
Jacobi Radio espectral Diagonal principal No se conoce un
menor o igual a 1 estrictamente mtodo para obtener
dominante la solucin en forma
exacta o cuando una
aproximacin
requiera muchos
menos pasos
Gauss-Seidel Radio espectral Diagonal principal Converge ms rpido
menor o igual a 1 estrictamente que Jacobi
dominante
Interpolacin:
Dado el conjunto de n+1 puntos {(x0, y0), (x1, y1),..., (xn, yn)}, el polinomio p de menor
grado posible para el cual se verifica p (xi) = yi para i = 0, 1,..., n
Se denomina polinomio de interpolacin de los puntos dados.

Por ende solo tenemos que resolver un sistema tal

Se han desarrollado frmulas ms directas para obtener la frmula del


polinomio de interpolacin
De solucin nica, por el teorema de existencia y unicidad del polinomio de
interpolacin.

Teorema
Si x0, x1,..., xn son nmeros reales distintos, entonces para valores arbitrarios
y0, y1,..., yn el polinomio de interpolacin de dichos datos existe, y es nico.

Demostracin
Demostramos primero la unicidad.

Supongamos que existen dos polinomios distintos, p(x) y q(x), de grado a lo


sumo n, que verifican p(xi) = yi y q(xi) = yi para i = 0, 1,..., n.
Entonces, el polinomio r(x) = p(x) - q(x) verifica para i = 0,..., n que
r(xi) = p(xi) - q(xi) = 0. Por lo tanto, este polinomio r(x) tiene n+1 races distintas,
ya que los xi eran todos distintos, por hiptesis.
Como el polinomio r(x) es de grado a lo sumo n, por ser la diferencia de dos
polinomios con esta propiedad y tiene por lo dicho n+1 races distintas, debe
ser el polinomio nulo, por eso p y q no pueden ser distintos.

Demostracin de la existencia
(Pendiente o no desarrollado en clase).
Frmula de Interpolacin de LaGrange:
Formamos n polinomios de grado n que cumplan con los requisitos:
Para que P0 se anule en los puntos x1, x2,, xn y que para x = x0 tome el
valor y0, planteamos la frmula P0(x) = 0 (x-x1) (x-xn) y despejamos.

Repetimos para los dems puntos


Al sumar todos los polinomios se obtiene

Si llamamos

Resultara

Cota de error de la aproximacin mediante polinomios de interpolacin

(Pendiente o no desarrollado en clase)


Interpolacin spline:
A fin de reducir las fluctuaciones generadas por un polinomio de interpolacin
nico, se plantea construir un polinomio para cada subintervalo, todos del
mismo grado. Llamemos esta tcnica interpolacin seccional o spline.

Dado el ejemplo de una interpolacin spline cubica natural

A fin de que la funcin no posea puntos angulosos se debe seguir una serie de
condiciones:

Cantidad
Condicin Matemticamente
de ecuaciones
Los valores de los polinomios
Pi(xi) = yi
deben ser iguales en los puntos
y
interiores y los polinomios en el 2n
Pi (xi+1) = yi+1
primer y ltimo intervalo deben
para i de 1 a n.
pasar por los puntos extremos.
Las d-1 primeras derivadas deben Pi(k)(xi+1) = Pi+1(k)(x i+1),
ser iguales en los puntos para 0 < k < d y para (d - 1) (n - 1)
interiores i desde 1 hasta n -1.
En los puntos extremos x0 y xn se
P1(k)(x1) = 0
pide que se anulen las derivadas
Pn(k)(xn+1) = 0, se eligen d - 1
sucesivas desde la primera hasta
0 < k < d.
la k-sima.
TOTAL de ecuaciones n(d+1)

Una spline comnmente utilizada es la spline cbica natural, que impone como
condicin extra sobre los extremos x0 y xn la anulacin de la derivada segunda
en dichos puntos.

.
Ajuste de mnimos cuadrados:
Se aplica para encontrar una funcin que pasa cerca del conjunto de datos
dado, de la mejor manera posible, sin que necesariamente la funcin pase
exactamente por los puntos.

Para realizar este ajuste utilizaremos una de las varias posibilidades.


Vamos a utilizar aqu el concepto de error cuadrtico medio.
Sean 4 puntos y f(x) una funcin de ajuste

El error cuadrtico est definido por la expresin

El mtodo de mnimos cuadrados minimiza el error cuadrtico medio.


En general, se utilizan funciones polinomiales, aunque segn el
comportamiento de los datos, pueden llegar a usarse otro tipo de
funciones, como por ejemplo, exponenciales.

Tratemos un ejemplo lineal, donde la frmula de error cuadrtico

Se buscan los puntos crticos de las derivadas parciales


Acomodando se llega a un sistema de solucin fcil de conseguir

Los valores a0 y a1 obtenidos dan un mnimo en E(a0,a1) si el Hessiano


en dicho punto es positivo, y la derivada segunda con respecto a una de
las dos variables es positiva en S.
Se demuestra que el Hessiano es no negativo y por tanto hay un mnimo.
Integracin numrica:
Frmulas de Newton-Cotes: (formulas cerradas)
Son las que emplean valores dados de la funcin f(x) en abscisas equidistantes.
Reemplazan una funcin complicada o datos tabulados por un polinomio de
aproximacin que es fcil de integrar.

Estos polinomios pueden ser rectas, parbolas, o dems, incluso aplicarse por
secciones.

Grado de precisin:
El grado de precisin de una frmula de integracin numrica es el nmero
natural n que verifica que el error de truncamiento E[Pi]=0 para todos los
polinomios Pi(x) de grado i n, y existe un polinomio Pn+1(x) de grado n+1 tal
que E[Pn+1]0.

Regla del trapecio (grado 1):


El polinomio de aproximacin es de primer grado.

Como la recta que pasa por los puntos (a;f(a)) y (b;f(b)) es

El rea por debajo viene dada por

El resultado de la integral es

Solo calcula el rea del trapecio bajo la recta(altura por promedio bases).
Error de la regla del trapecio:
Este error puede ser bastante importante, una estimacin del mismo es

La expresin indica que si es de grado uno, el error es nulo. Por tanto


posee grado de precisin uno.
Grficamente

Una forma de mejorar la precisin es aplicar la regla compuesta del trapecio

Si hay n segmentos equidistantes

La integral resultara

Con resultado

Acomodando

Con error
Regla de Simpson:
Utilizando un polinomio de aproximacin de segundo grado

Cuando a=x0, b=x2 y x1 es el punto medio, se aplica LaGrange para


obtener este polinomio.

Despus de integrar y trabajar algebraicamente obtenemos

El error es de

Es de grado de precisin 3 porque el termino de tercer grado de hace 0.

Se puede optimizar con la regla compuesta de Simpson.

Dividiendo el segmento en varios del mismo tamao damos con la


integral

De resultado

Simplificando

Con error

Regla 3/8 Simpson:


Utilizando ahora 4 puntos buscamos un polinomio de tercer grado

Para obtener

donde h= (b-a)/3.
Con error

Siendo ms precisa que 1/3 Simpson, de mismo grado de precisin pero


usando un punto ms que la primera.
Integracin por cuadratura de Gauss-Legendre
Sin usar puntos equidistantes al integrar, al ubicar esos puntos en forma
conveniente, es posible definir una lnea recta que equilibre los errores
negativos y positivos. De esta manera, como se muestra en la Figura 2, se
obtiene una mejor estimacin de la integral.

El objetivo de la cuadratura de Gauss - Legendre es determinar las abscisas x1 y


x2 y dos coeficientes w1 y w2 de manera que la frmula sea exacta

Por ejemplo para buscar los valores w1,w2,x1 y x2 usamos 4 ecuaciones

Resultando

Entonces si una funciones es continua en [-1;1]

Con dos nodos la precisin es de grado 3 (2n-1).


Para usar ms nodos se recurre a la siguiente tabla ya calculada

En general, una cuadratura de Gauss - Legendre de n puntos ser exacta para


funciones polinomiales de grado menor o igual que 2n - 1.

Traslacin de la Cuadratura de Gauss - Legendre


Para aplicar la cuadratura de Gauss - Legendre en un intervalo [a;b], se debe
efectuar el cambio de variable

As

Por tanto la formula quedara

Recordar que los mtodos de integracin dados solos dan valores exactos en
funciones polinmicas que estn dentro del rango de precisin.

Você também pode gostar