Explorar E-books
Categorias
Explorar Audiolivros
Categorias
Explorar Revistas
Categorias
Explorar Documentos
Categorias
Sabemos da álgebra linear que o sistema (2.1) admite solução se det A 6= 0, ou seja, se A é
invertı́vel, e assim sua solução é x = A−1 b. Mas do ponto de vista computacional, calcular a inversa
de uma matriz é muito custoso e, para evitar esse problema, utilizaremos o método de eliminação
de Gauss.
Eliminação Gaussiana
A idéia do método de Gauss é transformar o sistema dado num sistema triangular inferior (ou
superior), utilizando escalonamento de matrizes. Após esse processo, teremos o seguinte sistema:
9
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 10
u11 x1 + u12 x2 + ··· + u1n xn = g1
u22 x2 + ··· + u2n xn = g2
.. .. .. . (2.2)
. . .
unn xn = gn
Uma vez triangularizado o sistema, através do algoritmo da retrosubstituição, encontramos a
solução procurada:
n
X
gi − uij xj
j=i+1
xi = , i = n, n − 1, · · · , 2, 1,
uii
n
X
onde uij xj = 0 sempre que j > n.
j=i+1
Exemplo 2.1 Vamos utilizar o método de eliminação de Gauss para resolver o seguinte sistema
linear
2x1 + x2 + x3 = 7
4x1 + 4x2 + 3x3 = 21 . (2.3)
6x1 + 7x2 + 4x3 = 32
Considerando a matriz ampliada do sistema, temos
2 1 1 | 7
[A | b] = 4 4 3 | 21 .
6 7 4 | 32
Passo 1: zerar a21 e a31
′
Passo 2: zerar a32
′
• defino 2 o pivô: a22 = 2
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 11
a21 4
• defino os multiplicadores de linha =⇒ m21 = a11 = 2 =2
′′ ′ ′
• defino as novas linhas da matriz =⇒ L3 = L3 − m32 L2
e assim,
2 1 1 | 7
′′
[A | b] = 0 2 1 | 7 = [U | g]
0 0 −1 | −3
g2 − u23 x3
7 − 1(3)
x2 = = = 2
u22 2
g1 − u12 x2 − u13 x3
7 − 1(2) − 1(3)
x1 = = = 1
u11 2
ALGORITMO DE GAUSS
• i = k + 1, · · · , n, com n = dim A
(k)
• assumo akk 6= 0 → k o pivô
(k)
aik
• definição dos multiplicadores de linha =⇒ mik = (k)
, i = k + 1, · · · , n
akk
(k+1) (k) (k)
aij
:= aij − mik akj
• definição das novas linhas da matriz =⇒ .
(k+1) (k) (k)
bi := bi − mik bk
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 12
2.2 Decomposição LU
“Toda matriz não singular admite uma decomposição em duas matrizes triangulares, uma superior
e outra inferior”. Quem garante esse resultado é o próximo teorema.
Exercı́cio 2.1 Resolver o sistema linear abaixo através do método de eliminação de Gauss uti-
lizando quatro casas decimais de precisão na solução.
x + y + z = 1
2x − y + 3z = 0 .
−x + y − 5z = 2
Vamos agora introduzir dois novos métodos que pertencem a classe dos métodos iterativos. Estes
métodos não mais resolvem o sistema exatamente, mas sim, a partir de uma estimativa inicial,
constróem uma sequência de aproximações que converge para a solução exata do sistema. Devido as
limitações de memória computacinal, esses métodos se mostram mais interessantes que os diretos, os
quais gastam grande quantidade de memória computacional (problemas de interesse da engenharia
possuem aproximadamente 105 incógnitas).
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 13
Método de Gauss–Jacobi
O método de G.J. usa a maneira de escrever um sistema linear para gerar uma sequência de
aproximações:
n
(k+1) 1 X (k)
xi = bi − aij xj , i = 1, 2, ... , n k = 0, 1, 2, ...
aii j=1
j6=i
| {z }
F ormula de Gauss−Jacobi
solução:
Método de Gauss–Seidel
Podemos construir uma variante do método de G.J. permitindo que as versões atualizadas das
componentes de x entre na computação na mesma iteração K na qual são calculadas. Isto dá
origem ao método de Gauss-Seidel.
Fórmula Gauss-Seidel :
T ermo novo
z }| { z antigo
}| {
i−1 n
(k+1) X (k+1)
X (k)
1
xi = aii bi − aij xj − aij xj , i = 1, 2, ... , n k = 0, 1, 2, ...
j=1 j=i+1
Estudo de Convergência
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 15
Se a diferença, em módulo, entre duas aproximações consecutivas for menor que um parâmetro
pré-estabelecido ε > 0, finalize a computação .
(k+1) (k)
maxi xi − xi ≤ ε → stop
• Caso a matriz for esparsa, também devemos optar por soluções iterativas, pois nestas situações
elas apresentam boa velocidade.
Desvantagens :
Comentário Importante :
Caso a solução não seja convergente, podemos tentar uma reorganização das equações antes de
aplicarmos o método iterativo. Por exemplo, considere o sistema abaixo:
x1 + x2 + 3x4 = 5
5x1 + x2 − x 3 − x4 = 4
x − x2 + 5x3 − x4 = 4
1
x1 − 7x2 + x3 + x4 = −4
Tomando chute x(0) = (0, 0, 0, 0)T , a solução utilizando “GS” diverge, lim x(k) 6= x .Entretanto,
k→∞
ao reordenamento do sistema, [L1 ↔ L2 , e depois, L4 ↔ L2 ]
(antes) (depois)
1 5
1 −7
−→
5 5
1 3
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 16
Critério de convergência:
n
X
|aii | > |aij | , ∀i = 1, 2, ... , n. (2.4)
j=1
j6=i
CAPÍTULO 2. RESOLUÇÃO NUMÉRICA DE SISTEMAS LINEARES 17
2.4 Exercı́cios
10x1 + 2x2 + x3 = 15
a) 20x1 − 5x2 + 2x3 = 32
5x1 + 15x2 − 2x3 = 33
3x1 + 10x2 + x3 = −16
b) x1 − 5x2 + 10x3 = 1
x1 + 2x2 + 5x3 = 2
5x1 − 2x2 = 10
c) 10x2 − 3x3 = −50
−2x1 + 5x2 − 2x3 = 60
50x1 − 5x2 + 2x3 = 300
d) − 2x2 + 5x3 = 10
10x1 − 20x3 = −950
2. Encontre a decomposição LU das matrizes dos coeficientes associados aos sistemas do exercı́cio
anterior.
b) Escolha o menor valor inteiro positivo de a e determine uma solução aproximada do sistema,
usando os métodos acima, com critério de parada estabelecido pelo erro abaixo
maxi=1,··· ,3 |xk+1
i − xki | ≤ ε = 1 × 10−3 .
Zero de Funções
O estudo das equações algébricas é, juntamente com a trigonometria uma das áreas mais antigas
da matemática. Ainda na idade média, os matemáticos árabes solucionaram a equação do 2o grau,
e na renascença foram solucionadas as equações do 3o e 4o graus.
Após muito esforço e dedicação por parte dos que pesquisam matemática, ficou provado que
para equações de grau maior que 4, não é possı́vel obter uma solução do tipo combinação dos
coeficientes da equação. É justamente aı́ que surgem os métodos que capturam as raı́zrs dessas
equações.
Estes métodos, também conhecidos como iterativos, constroem uma sequência de aproximações
que poderá convergir para a solução do problema. A seguir, serão apresentados 4 destes métodos:
Bisseção, Falsa-Posição, Iteração Linear e Newton-Raphson.
Um escalar ξ é dito um zero de uma função f (x) (ou simplesmente raiz da equação f (x) = 0), se
e somente se, f (ξ) = 0. Estes zeros são representados geometricamente pela interseção da função
f (x) com o eixo x.
f(x)
x1 x2 x3
raiz múltipla
raízes simples
Conforme ilustrado na figura acima, temos dois tipos de raı́zes: simples (f ′ (ξ) 6= 0) e múltipla
(f ′ (ξ)
= 0). Os dois primeiros métodos supracitados (Bisseção e Falsa-Posição) só capturam raı́zes
simples, enquanto que o último (Newton-Raphson) captura ambas.
19
CAPÍTULO 3. ZERO DE FUNÇÕES 20
Seja f (x) uma função contı́nua no intervalo [a, b] contendo apenas 1 raiz de f (x) (se f (a) · f (b) < 0
então existe 1 raiz simples no intervalo). A idéia do método é:
4. reinicie o algoritmo.
a=0 b = 0.5 c = 0.25
1o passo f (a) = 1 f (b) = −0.3513 f (c) = 0.2840
f (b) · f (c) < 0 ⇒ a := c
a = 0.25 b = 0.5 c = 0.3750
2o passo f (a) = 0, 2840 f (b) = −0.3513 f (c) = −0.0450
f (b) · f (c) > 0 ⇒ b := c
a = 0.25 b = 0.3750 c = 0.3125
3o passo f (a) = 0.2840 f (b) = −0.0450 f (c) = 0.1168
f (b) · f (c) < 0 ⇒ a := c
..
.
critérios de parada
Se ξ¯ é a aproximação da raiz ξ da equação f (x) = 0 pertencente ao intervalo [a, b], então temos
dois critérios de parada:
I) |f ξ¯ | ≤ ε
II) |b − a| ≤ ε,
f(b)
f(x)
raiz
a
c b
f(a)
É uma variante do método da bisseção, na medida em que utiliza o mesmo algoritmo que o método
da bisseção, diferindo
apenas
na escolha do ponto “c”, que passa a ser a raiz da secante que liga os
pontos a, f (a) e b, f (b) . Veja a figura 3.2.
O novo valor de “c” será dado por
f (b)a − f (a)b
c= .
f (b) − f (a)
Exercı́cio 3.1 Verifique que com o método da falsa-posição, após 3 iterações, o exemplo anterior
nos leva ao seguinte resultado: c = 0.3575 e f (c) = −0.0002.
ALGORITMO BISSECAO
entrada: (f(x),a,b,aux)
ALGORITMO FALSA-POSICAO
entrada: (f(x),a,b,aux)
Vamos estudar agora os chamados métodos do ponto fixo. O mais simples deles é o método da
iteração linear, o qual, mesmo não tendo boa eficiência computacional, é importante para a in-
trodução do método de Newton-Raphson.
Inicialmente, vamos reescrever o problema “Encontrar ξ ∈ R tal que f (ξ) = 0” como “Encontrar
ξ ∈ R tal que ξ = ϕ(ξ)”, onde ϕ(x) é uma função de iteração da equação f (x) = 0.
Pra tornar estes problemas equivalente, façamos f (x) = x − ϕ(x), assim, como f (ξ) = 0, temos
que ξ − ϕ(ξ) = 0 e, portanto, ξ = ϕ(ξ) .
Uma vez determinada ϕ(x), o M.I.L. consiste em construir uma sequência de aproximações
{xi }i∈N a partir de um chute inicial x0 e gerada através da relação recursiva xi+1 := ϕ(xi ) ,
i = 0, 1, 2, · · · .
No exemplo acima, partindo de x0 = 1, 5 terı́amos
√
1. x1 = ϕ(x0 ) = 6 − 1.5 = 2.1213;
√
2. x2 = ϕ(x1 ) = 6 − 2.1213 = 1.9694;
√
3. x3 = ϕ(x2 ) = 6 − 1.9694 = 2.0076;
√
4. x4 = ϕ(x3 ) = 6 − 2.0076 = 1.9981;
√
5. x5 = ϕ(x4 ) = 6 − 1.9981 = 2.0005;
e, portanto podemos perceber que o processo converge para ξ = 2.
Entretanto, o M.I.L. não é incondicionalmente convergente como os métodos da bisseção e falsa-
posição. Ao tomarmos como função de iteração ϕ(x) = 6 − x2 (note que ϕ(x) não é única), geramos
um processo iterativo divergente, verifique!
CAPÍTULO 3. ZERO DE FUNÇÕES 23
estudo da convergência
Como vimos, ϕ(x) não é única. Na verdade, sua forma geral é dada pela relação
com A(ξ) 6= 0. Podemos mostrar a equivalência entre os problemas f (ξ) = 0 e ξ = ϕ(ξ) da seguinte
maneira
A interpretação gráfica do problema de ponto fixo é a interseção da curva y = ϕ(x) com a reta
y = x, conforme ilustra a figura 3.3:
y=x
y y
y= ϕ(x) y=x
y= ϕ(x)
ξ x2 x1 x0 x ξ x2 x1 x0 x
Estas figuras sugerem que, para gerarmos um processo convergente, devemos ter baixas derivadas
de ϕ(x) na vizinhança de ξ. Esta sugestão é confirmada pelo teorema de convergênica do M.I.L.
Teorema 3.1 Teorema de Convergência do M.I.L. - Seja ξ uma raiz de f (x) = 0 isolada no
intervalo [a, b] centrado em ξ. Seja ϕ(x) uma função de iteração de f (x) = 0. Se:
então a sequência {xi } gerada pelo processo xi+1 := ϕ(xi ) converge para ξ.
CAPÍTULO 3. ZERO DE FUNÇÕES 24
critérios de parada
I) |xi+1 − xi | ≤ ε;
II) |f (ξ)| ≤ ε,
Observação 3.1 Devemos ser cuidadosos com o 1o critério, pois em algumas situações ele não
corresponde à |xi − ξ| ≤ ε, conforme ilustra a figura abaixo.
ϕ(ξ)
ε
ξ x i+1 xi x
ALGORITMO MIL
entrada(f(x),Phi(x),raiz,x0,aux)
Vimos que o M.I.L. tem convergência lenta e não garantida. A idéia do método de Newton é
construir um método de ponto fixo que garanta e acelere a convergência do processo iterativo
linear. Isto será feito impondo que a derivada da função de iteração seja nula em x = ξ, ou seja,
ϕ′ (ξ) = 0.
∴ A(ξ)f ′ (ξ) = −1
−1
∴ A(ξ) = .
f ′ (ξ)
xi+1 = ϕN (xi ), i = 0, 1, 2, · · · ,
f (xi )
xi+1 = xi − . (3.1)
f ′ (xi )
Exercı́cio 3.3 Utilize expansão em série de Taylor para deduzir a fórmula de Newton-Raphson.
interpretação geométrica
As aproximações futuras geradas pela fórmula de Newton serão as raı́zes das tangentes à curva
y = f (x) avaliadas nas aproximações atuais xi , conforme mostra a figura a seguir,
f (xi )
xi+1 − xi = −
f ′ (xi )
f (xi )
xi+1 = xi − .
f ′ (xi )
CAPÍTULO 3. ZERO DE FUNÇÕES 26
y=f(x)
f(xi )
ξ x i+1 xi
Exemplo 3.3 Considere ainda o exemplo 3.2, no qual a partir de uma estimativa inicial x0 = 1.5,
desejamos obter numericamente a raiz ξ = 2 da equação x2 + x − 6 = 0. Aplicando o método de
Newton-Raphson, temos
f (xi )
xi+1 = xi −
f ′ (xi )
x2i + xi − 6 x2 + 6
⇒ xi+1 = xi − = i ,
2xi + 1 2xi + 1
e assim, teremos a seguinte sequência
x1 = ϕ(x0 ) = 2.06250;
x2 = ϕ(x1 ) = 2.00076;
x3 = ϕ(x2 ) = 2.00000.
Observe que, com apenas 3 iterações, obtemos ξ = 2 com precisão de 5 casas decimais!
Para uma pequena análise de convergência, apresentamos o teorema abaixo, que descreve as
condições para que o método de Newton-Raphson seja convergente.
Teorema 3.2 Sejam f (x), f ′ (x), f ′′ (x) ∈ C 0 [a, b] e seja ξ ∈ [a, b] raiz da equação f (x) = 0.
Suponha que f ′ (x) 6= 0. Então existe um intervalo I ⊂ [a, b] tal que ξ ∈ I e se x0 ∈ I, a sequência
{xi } gerada pela fórmula recursiva xi+1 := ϕ(xi ), ∀i, irá a convergir para a raiz ξ.
3.5 Exercı́cios
1. Dê um exemplo de uma função f (x) que tenha pelo menos uma raiz, mas que não pode ser
determinada usando o método da bisseção.