Você está na página 1de 122

Métodos Numéricos 1

CAP-INPE

Haroldo Fraga de Campos Velho


E-mail: haroldo@lac.inpe.br
Web-page: www.lac.inpe.br/~haroldo

Curso de Métodos Numéricos 1 / CAP-INPE, 2013


MATRIZES E SISTEMAS DE EQUAÇÕES LINEARES

 MOTIVAÇÃO:
 Dada a equação diferencial:

 Realizando a discretização sobre a grade (malha)


Zi=0 0,2 0,4 0,6 0,8 1,0

i=0 1 2 3 4 5
Matrizes e sistemas de equações

 Com discretização descrita e o operador de diferença


finita:

 Atenção:
MATRIZES E SISTEMAS DE EQUAÇÕES LINEARES

 Da discretização da equação diferencial, obtém-se o


sistema de equações:
0

0
MATRIZES E SISTEMAS DE EQUAÇÕES LINEARES

 Escrevendo o sistema na forma matricial:


4.1 – Propriedade das matrizes

 Seja a matriz A:
4.1 – Propriedade das matrizes
4.1 – Propriedade das matrizes
4.1 – Propriedade das matrizes
4.1 – Propriedade das matrizes

 Menor: Se a i-ésima linha e a j-ésima coluna de uma


matriz (n×n) são eliminadas, a matriz resultante é de
ordem (n-1)×(n-1). O determiante da sub-matriz (n-
1) ×(n-1) é denominado o menor Mij da matriz.
4.1 – Propriedade das matrizes

 Cofator:

 Mij é o menor (complementar) do elemento aij.


4.2 – ELIMINAÇÃO GAUSSIAN

 No sistema: Ax = b
 Se a matriz A for do tipo triangular superior (inferior)
a solução é obtida por substituição regressiva
(progressiva):
 ALG-4.1
4.2 – ELIMINAÇÃO GAUSSIAN

 Teorema 4.7: Dado o sistema linear Ax = b e


suponha que o sistema esteja sujeito as seguintes
tipos de operações:

(1) Multiplicação de uma equação do sistema por


uma constante não nula,
(2) Adição de um múltiplo de uma equação por
outra equação,
(3) Intercambiar duas equações.
4.2 – ELIMINAÇÃO GAUSSIAN

 A seqüência de operações produz um novo sistema:

 Os dois sistemas são equivalentes, isto é, possuem a


mesma solução.
4.2 – ELIMINAÇÃO GAUSSIAN

 A estratégia da eliminação gaussiana consiste em


transformar o sistema Ax = b num sistema
equivalente:

 No qual a matriz é matriz triangular (superior ou


inferior), via transf0rmações elementeares.
4.2 – ELIMINAÇÃO GAUSSIANA

 Seqüência de passos.
 Passo-1: Dividir a 1a. Equação (L1) por a11.
 Passo-2: Eliminar a variável x1 de todas as equações

 Passo-3: Dividir a linha L2 por a22 ((a11) (1)=0).


 Passo-4: Repetir passo 2 e 3 até k = n.
 Passo-5: Utilizar o algorítmo de substituição
regressiva para resolver o sistema resultante.
SISTEMAS TRI-DIAGONAIS
SISTEMAS TRI-DIAGONAIS

 Onde na eliminação acima tem-se:

 Conduz a solução:
4.3 – ESTRATÉGIA DO PIVOTAMENTO

 Pivotamento total:

 Pivotamento parcial:
4.3 – ESTRATÉGIA DO PIVOTAMENTO

 PIVOTAMENTO TOTAL. Calculam-se os fatores:

 Onde apq (=α) é o elemento pivô e a linha-p é


chamada de linha pivotal.
 A seguinte estratégia é adotada:
4.3 – ESTRATÉGIA DO PIVOTAMENTO

 Para a matriz A(1), citada no item-2, a q-ésima


coluna é composta de zeros. Elimana-se a coluna-q
e a linha-p e obtem-se a matriz .

 (3) Toda a operação é repetida para M(1), isto é,


determina-se o elemento pivô de M(1) e redazemos
os passos (1) e (2) para M(1).
 Assim, gera-se a seqüência de matrizes: M(2), …, M(n--
1)
.
4.3 – ESTRATÉGIA DO PIVOTAMENTO

 PIVOTAMENTO PARCIAL:
 1o. Pivô: Escolhe-se o elemento de maior valor
absoluto na 1a. coluna

 2o. Pivô: Escolhe-se o elemento de maior valor


absoluto na 2a. coluna resultante
4.3 – ESTRATÉGIA DO PIVOTAMENTO

 PIVOTAMENTO PARCIAL:
4.3 – ESTRATÉGIA DO PIVOTAMENTO

 PIVOTAMENTO PARCIAL:
 Didadicamente, dir-se-ia que faríamos uma mudança
entra a 1a. linha e a linha pivotal do 1o. pivô, e assim
sucessivamente.
 Na prática, isto não fazemos a troca de linhas.
 Cria-se um vetor que irá mapear onde as trocas
foram efeutadas.
 Assim, se SUB(i) indica tal vetor, no início tem-se
4.3 – ESTRATÉGIA DO PIVOTAMENTO

 PIVOTAMENTO PARCIAL:
 Se detectarmos que as equações 3 e 7 devem ser
trocadas, então:
4.4 – DECOMPOSIÇÃO “LU”

 Toda a matriz quadrada admite uma fatorização


triangular do tipo

 Onde L é matriz triangular inferior (Lower) e U é


matriz triangular superior (Upper).
 Problema: há um número infinito de matrizes L e U.
4.4 – DECOMPOSIÇÃO “LU”

 Uma maneira de se obter sistematicamente esta


fatorização é fixar a diagonal da matriz U (ou L)
como sendo composta de 1’s.

 Assim, obtém-se:
4.4 – DECOMPOSIÇÃO “LU”

 Demais linhas e colunas de L e U:


4.4 – DECOMPOSIÇÃO “LU”

 Como se demonstram as fórmulas anteriores?


 Pode-se verificar que são válidas para matrizes 3×3
ou 4×4 (etc) e após usa-se indução finita.
 O importante é obter-se alternadamente as colunas
de L e as linhas de U.
 Obtemdo-se as matrizes L e U, chega-se a solução
do sistema.
4.4 – DECOMPOSIÇÃO “LU”

 SOLUÇÃO DO SISTEMA LINEAR


 Dado o sistema e a decomposição:

 Em seguida:
4.4 – DECOMPOSIÇÃO “LU”

 INVERSÃO DE MATRIZES
 Lembrando que operações com hipermatrizes são
“identicas” ao caso escalar, isto é:
4.4 – DECOMPOSIÇÃO “LU”

 INVERSÃO DE MATRIZES

 Então:

 Por definição de inversa:


4.4 – PIVOTAMENTO COM DECOMPOSIÇÃO “LU”

 O pivotamento é um pouco mais difícil do que na


eliminação gaussiana.
 Não manipulação conjunta do vetor das constantes.
 Assim, um registro deve ser feito das alterações
efetuadas na formação de L e U.
 Exemplo:
Conservando um registro da
linha num vetor O(1) = [1 2 3]
4.4 – PIVOTAMENTO COM DECOMPOSIÇÃO “LU”

 O vetor O(1) representa o rodenamento original.


 A primeira coluna da matriz L é: [0 1 3]T
 É preciso trocar as linhar 3 e 1.
 Para guardar o rastro da operação muda-se o
primeiro e o terceiro elemento de O(2): [3 2 1]
 Trocando as linhas de
L e computando a 1a.
linha de U (notação
compacta)
4.4 – PIVOTAMENTO COM DECOMPOSIÇÃO “LU”

 Cáculo da 2a. coluna de L: [0 0 2]T


 É preciso trocar as linhas 2 e 3.
 Deste modo: O(3): [3 1 2].
 Fazendo a troca linhas de linhas e computando a 2a.
Inha de U:
4.4 – PIVOTAMENTO COM DECOMPOSIÇÃO “LU”

 Completando a redução:
4.4 – PIVOTAMENTO COM DECOMPOSIÇÃO “LU”

 Assim, para resolver o sistema Ax = b, com:


b = [5 -1 -2]T .
 Os elementos do vetor b devem ser rearranjados de
acordo com o registro.
 Ou seja a solução é:
4.5 – ERRO E RESÍDUO – NORMAS

 Se é uma solução aproximada do sistema Ax = b,


então o erro é a diferença:

 O erro, é claro, não é conhecido. Porém sempre é


possível cacular o resíduo:

 Se r=0, é evidente que é solução exata e o erro


deve, nest ecaso, é zero.
4.5 – ERRO E RESÍDUO – NORMAS

 É necessário ter uma medida da magnitude do erro.


 Valor basoluto é um modo conveniente de se medir
magnitude para escalares (reais ou complexos).
 Assim, pode-se intuir que a função valor absoluto
poderia, de algum modo, nos ajudar a estimar a
magnitude de vetores (o vetor erro, por exemplo).
 De fato, uma medida muito usada para estimar a
magnitude de um vetor é o número:
4.5 – ERRO E RESÍDUO – NORMAS

 Assumindo que a solução calculada (aproximada)


 para Ax = b é sabido ter uma precisão de 6
dígitos. Isto significa que:

 Para a maioria dos casos, a avaliação da magnitude de


vetores é feita por uma norma. Uma norma é definida
de forma a manter algumas propriedades do valor
absoluto.
4.5 – ERRO E RESÍDUO – NORMAS

 DEFINIÇÃO:
 Uma norma associa um vetor n-dimensional a, a um
número real , chamado norma do vetor a, que
satifaz as seguintes propriedades:
4.5 – ERRO E RESÍDUO – NORMAS

 A primeira propriedade assegura que todos os


vetores tem magnitude (comprimento) positivo.

 A 3a. propriedade é conhecida como desigualdade


do triangulo (a soma de dois lados de um triângulo
nunca é menor do que o terceiro lado).
4.5 – ERRO E RESÍDUO – NORMAS

 EXEMPLOS DE NORMA
 Norma Euclidiana

 Norma do valor máximo (ou norma do máximo):

 Norma-1:
4.5 – ERRO E RESÍDUO – NORMAS

 EXEMPLOS DE NORMA
 Norma-p com pesos:

 Onde p é algum número entre 1 e ∞ e os números


w1, …, wn são quantidades positivas fixas.
4.5 – ERRO E RESÍDUO – NORMAS

 EXEMPLOS DE NORMA
4.5 – ERRO E RESÍDUO – NORMAS

 NORMA MATRICIAL
 Uma vez escolhida uma norma para vetores, estimar a
magnitude de uma matriz A (n×n) é feita
comparando-se a magnitude de (Ax) com x. Mais
precisamente, define-se a norma de A como:

 Onde o máximo é tomado sobre todos os vetores x


não nulos.
4.5 – ERRO E RESÍDUO – NORMAS

 Se a solução calculada difere da solução exata:

 Deste modo:

 Tomando a norma na última expressão acima:


4.5 – ERRO E RESÍDUO – NORMAS

 Tomando a norma:

 Assim,

 Mas: Ax = b , então
4.5 – ERRO E RESÍDUO – NORMAS

 Portanto:

 Lembrando:
4.5 – ERRO E RESÍDUO – NORMAS

 Do slide anterior: o erro relativo da solução calculada


é majorado pelo desvio relativo do vetor de
coeficientes multiplicado por um fator.

 Número de condicionamento:
4.5 – ERRO E RESÍDUO – NORMAS

 Ainda falta uma questão.


 Como (ou quando) o resíduo pode ser usado como
uma estimativa do erro?

 Voltando a relação entre o erro e o resíduo:

 Tem-se que:
4.5 – ERRO E RESÍDUO – NORMAS

 Então:
4.5 – ERRO E RESÍDUO – NORMAS

 Ou ainda:
4.5 – ERRO E RESÍDUO – NORMAS

 Porém, Ax = b:
4.5 – ERRO E RESÍDUO – NORMAS

 Portanto:

 A relação acima tem muitos significados.


 O erro relativo na solução aproximada é:
4.5 – ERRO E RESÍDUO – NORMAS

 Se cond(A) ≈ 1, o erro e o resíduo são sempre da


mesma ordem de magnitude.
 Se cond(A) for um número grande o sistema é dito
mal condicionado.
 O conceito de cond(A) ser um “número grande ” é
(ou está) ligado a precisão usada.
 Exemplo:
4.5 – ERRO E RESÍDUO – NORMAS

 Considerando a matriz do sistema:

 Tomando a norma:
4.5 – ANÁLISE REGRESSIVA E MELHORAMENTO

 Da equação do erro no sistema:

 A última expressão é um sistema linear.


 Se é uma solução aproximada de Ae = r, tem-se
4.6 – ANÁLISE REGRESSIVA E MELHORAMENTO

 Agora teremos um novo sistema:

 Se o sistema é bem condicionado, a seqüência

 Deverá convergir para zero.


 Mas, se cond(A) é grande, a seqúência acima podem
não diminuir, indicando mal-condicionamento.
4.6 – ANÁLISE REGRESSIVA E MELHORAMENTO

 ALG. 4-5: melhoramento iterativo


1. Uma vez calculada uma solução aproximada
2. Calcule:
3. Calcule a solução de:

4. Se: pare!

5. Tome como solução:


6. Caso contrário, fixe:
7. Repita o procedimento.
4.7 – DETERMINANTES

 Determinante é um número associado a toda matriz


quadrada A e denotado por det(A).
 Definição:

 onde a soma é tomada em todas as n! permutações


p de grau n, σp é 1 ou -1 dependendo se p é par ou
ímpar.
4.7 – DETERMINANTES

 Para n = 1:

 Para n = 2:

 Para n = 3: soma de 6 produtos.


 Para n = 10: soma de mais de 3 milhões de produtos.
4.7 – DETERMINANTES

 PROPRIEDADES:
 Teorema 4.10: Se A é uma matriz n×n, então A é
inverssível sse det(A) ≠ 0.
 Propriedade-1: Se A é uma matriz triangular superior
(inferior), então:

 Isto é: o determinante é o produto da diagonal


principal.
4.7 – DETERMINANTES

 Propriedade-2: Se P é uma matriz de permutação


n×n:

 com alguma permutação p, então:


4.7 – DETERMINANTES

 Propriedade-3: Se A e B são matrizes n×n:

 Propriedade-4: Se A é matriz n×n e x, b são vetores,


tais que Ax = b então:

 Regra de Cramer!
4.7 – DETERMINANTES

 Propriedade-5: Se A = PLU:

 onde k é número de troca de linhas durante o


processo de eliminação.
4.7 – DETERMINANTES

 Propriedade-6: expansão de um determinante pelos


menores:
4.7 – DETERMINANTES

 Propriedade-6: Exemplo
4.8 – O PROBLEMA DO AUTO-VALOR

 Dizemos que um número λ (λ ε C) é um auto-valor


da matriz A se satisfizer a equação matricial

 para algum vetor não-nulo x.


 O vetor x é chamado de auto-vetor da matriz A
associado ao auto-valor λ.
 A equação (4.60) pode ser escrita como:
4.8 – O PROBLEMA DO AUTO-VALOR

 A equação (4.61) tem sempre solução. Se:

 só existe a solução trivial (x = 0). Se:

 O sistema terá infinitas soluções.


4.8 – O PROBLEMA DO AUTO-VALOR

 Observações:

 A observação-2 mostra que os auto-vetores são um


conjunto infinito de vetores.
4.8 – O PROBLEMA DO AUTO-VALOR

 PROPRIEDADES:

1. Matriz identidade tem somente um auto-valor = 1.

2. Matriz nula tem somente o zero como auto-valor.

3. Se A for uma matriz triangular superior (inferior) os


auto-valores de A são os elementos da diagonal
principal.
4.8 – O PROBLEMA DO AUTO-VALOR

 Uma ilustração do porque os autovalores podem ser


de interesse. Seja a seqüência:

 z pode ser escrito como a soma de auto-vetores:


4.8 – O PROBLEMA DO AUTO-VALOR

 Desta forma:

 Ordenando os λi:
4.8 – O PROBLEMA DO AUTO-VALOR

 Portanto:

 Pois:
4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA
 As considerações anteriores são a base para o
método da potênica.
 Tomando a razão:
4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA
 A razão anterior pode ser escrita como:

 Se u = Amz e se a matriz A for simétrica, a razão


acima torna-se (quociente de Rayleigh):
4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA (exemplo)


4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA (exemplo)


m 0 1 2 3 4 5

Amz 1 5 13 41 121 365


2 4 14 40 122 364
3 3 3 3 3 3

z(m) 1 1,0 1,00 1,000 1,000 1,000


2 0.8 1,08 0,976 1,008 0,997
3 0.6 0,23 0,073 0,025 0,008
4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA (exemplo)


 Tomando: u = i1

 Tomando: u = i2
4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA INVERSA


 O método da potência pode apresentar uma
convergência muito lenta.
 Um maneira de acelerar é com o uso do método da
potência inversa.
 Se p é uma aproximação para λ1 (p ~ λ1):
4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA INVERSA


 É claro que se p ≈ λ1, (λ1 - p)-1 será um número
grande (em valor absoluto) e irá dominar os demais
auto-valores.
 Agora, tomando a seqüência:

 Vai convergir mais rápido para o auto-vetor x1.


4.8 – O PROBLEMA DO AUTO-VALOR

 MÉTODO DA POTÊNCIA INVERSA


 Na verdade, não é realizado o cálculo da matriz inversa.
 Lembrando (p ≈ λ1):

 Uma vez obtida a fatorização PLU da matriz (A - pI),


obtém-se z(m) a partir de z(m-1).
4.8 – AUTO-VALOR E No. DE CONDICIONAMENTO

 Número de condionamento:

 Estimativa para cond(A):


4.8 – AUTO-VALOR

 MÉTODO DA POTÊNCIA INVERSA


 Na verdade, não é realizado o cálculo da matriz inversa.
 Lembrando (p ≈ λ1):

 Uma vez obtida a fatorização PLU da matriz (A - pI),


obtém-se z(m) a partir de z(m-1).
REVISANDO O MÉTODO DA POTÊNCIA

 Como antes:

 Deste modo:
REVISANDO O MÉTODO DA POTÊNCIA

 Ou ainda:

 Tomando o limite:
REVISANDO O MÉTODO DA POTÊNCIA

 Agora o quociente: (Am+1z)/(Amz)


REVISANDO O MÉTODO DA POTÊNCIA

 Realizando o produto interno e tomando o limite:

 Definindo: z(m) = Amz, tem-se:


REVISANDO O MÉTODO DA POTÊNCIA

 Exemplo:

1. Escolhe-se: z = [ 1 1 1]T
2. Calcula-se a seqüência: A0z, A1z, A2z, …
3. Fazer: z(m) = Amz
4. Calcule as razões:
REVISANDO O MÉTODO DA POTÊNCIA

 Determinando o segundo auto-valor:

 Definindo:
REVISANDO O MÉTODO DA POTÊNCIA

 Com a definição de diferença-λ de Bmz, tem-se:

 Portanto:
DETERMINANDO 2o. AUTO-VALOR

 OUTRO MÉTODO
 Observe o produto:

 Da equação acima:
AUTO-VALOR: SIMILARIDADE

 O fato de que nem toda a matriz tem um conjunto


completo de auto-vetores é uma indicação das
complicações da teoria de auto-valores.
 Ou seja, nem toda a matriz quadrada admite a
seguinte decomposição:

 Para alguma matriz diagonal Λ: AY = YΛ.


 A decomposição acima é chamada “decomposição
espectral” (Λ contem o espectro da matriz A).
AUTO-VALOR: SIMILARIDADE

 A decomposição espectral existe sse as colunas da


matriz Y consistirem dos auto-vetores de A.
 Uma matrzi Y é inverssível ssse suas colunas formam
uma base para os vetores n-dimensionais.
 Duas matrizes são similares se:

 Para alguma matriz (inverssível) C.


 Matrizes similares tem os mesmos auto-valores e auto-
vetores.
AUTO-VALOR: SIMILARIDADE

 Matrizes similares: mesmos auto-valores e auto-


vetores.
 De fato, se (B - λI)x = 0, para algum vetor x ≠ 0 e A
= CBC-1, então Cx é também não-nulo: AC = CB.
 Desta forma:

 Ou seja, para cada auto-valor/auto-vetor (λ, x) da


matriz B corresponde ao par auto-valor/auto-vetor (λ,
Cx) da matriz A.
AUTO-VALOR: SIMILARIDADE

 OBS: Se a matriz A tiver n auto-valores distintos,


então os auto-vetores associados são linearmente
independentes.
 Transformação de similaridade:
AUTO-VALOR: SIMILARIDADE

 Se a matriz A está na forma de matriz companheira


 Transformação de similaridade:
AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 Sistema de equações diferenciais:


AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 Sistema de equações diferenciais:

 Como resolver?

 Se:
AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 Sistema de equações diferenciais:

 Como resolver?

 Se:

 E se An×n com n > 2?


AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 Sistema de equações diferenciais:

 Como resolver?

 Se An×n com n > 2: tem a solução da exponencial de


matriz.
 Ou pode-se fazer uso da solução de autovalores.
AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 Sistema de equações diferenciais:

 Relação de similaridade:

 Substituindo na equação acima:


AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 Sistema de equações diferenciais:

 Onde a nova variável é:


AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 O sistema de equações diferenciais anterior é


desacoplado:

 Visto que:
AUTO-VALORES E EQUAÇÕES DIFERENCAIS

 Solução do sistema desacoplado:

 Deste modo:
INTERPOLAÇÃO: SPLINE CÚBICO

 Interpolação com polinômio de Lagrange:


INTERPOLAÇÃO: SPLINE
INTERPOLAÇÃO: SPLINE CÚBICO

 Definição: Dada uma função f(x) definida em [a, b] e um


conjunto de pontos a = x0 < x1 < … < xn = b, um
interpolante de spline-cúbico S para f(x) é uma função que
satisfaz:
n S(x) é um polinômio cúbico, denotado por Sj(x) no
intervalo [xj, xj+1] para j = 0, 1, …, n-1.
n S(xj) = f(xj) em j = 0, 1, …, n.
n Sj+1(xj) = Sj(xj+1) em j = 0, 1, …, n-2.
n S’j+1(xj+1) = S’j(xj+1) em j = 0, 1, …, n-2.
n S'’j+1(xj+1) = S'’j(xj+1) em j = 0, 1, …, n-2.
INTERPOLAÇÃO: SPLINE CÚBICO

6. Uma das seguintes condições de contorno deve ser


satisfeita:
a) S’’(x0) = S’’(xn) = 0 (condição natural ou livre).
b) S’(x0) = f’(x0) e S’(xn) = f’(xn) (condição artificial ou de
“engaste”).
INTERPOLAÇÃO: SPLINE CÚBICO

 Assim, a função Sj(x) é dada por:

 Claramente (condição-2):
INTERPOLAÇÃO: SPLINE CÚBICO

 Se a condição (3) é aplicada:

 Definindo:

 Tem-se:
INTERPOLAÇÃO: SPLINE CÚBICO

 De forma análoga:

 Outra relação é obtida aplicando a condição-4:


INTERPOLAÇÃO: SPLINE CÚBICO

 Definindo: cn = S’’(xn)/2 e aplicando condição-5:

 Resolvendo a equação acima para dj e substitutindo


na equação para aj+1 e bj+1:
INTERPOLAÇÃO: SPLINE CÚBICO

 Resolvendo para bj (no último para de equações):

 E então com a redução de índice para bj:


INTERPOLAÇÃO: SPLINE CÚBICO

 Substituindo as 2 últimas expressões para bj+1:

 Que é um sistema de equações algébricas para cj,


cuja a matriz do sistema é tri-diagonal.
 Para completar o sistema é preciso aplicar as
condições de contorno.
INTERPOLAÇÃO: SPLINE CÚBICO

 SPLINE CÚBICA NATURAL:

 E o sistema tri-diagonal Ax = b está completo!

 Onde:
INTERPOLAÇÃO: SPLINE CÚBICO

 SPLINE CÚBICA NATURAL:


INTERPOLAÇÃO: SPLINE CÚBICO

 SPLINE CÚBICA NATURAL:


INTERPOLAÇÃO: SPLINE CÚBICO

 SPLINE CÚBICA ENGASTADA:


INTERPOLAÇÃO: SPLINE CÚBICO

 SPLINE CÚBICA ENGASTADA:


INTERPOLAÇÃO: SPLINE CÚBICO

 SPLINE CÚBICA ENGASTADA:

Você também pode gostar