Você está na página 1de 25

2.3.

9 Métodos Iterativos para a Solução de Sistemas Lineares

Seja os Sistema Linear A x =b onde:

A matriz de coeficientes n × n
x vetor de variáveis n ×1
b vetor independente (constantes) n ×1

Idéia Geral dos Métodos Iterativos

Converter o sistema de equações A x =b em um processo iterativo


x =C x +g =ϕ( x ) , onde:

C matriz com dimensões n × n


g vetor com dimensões n ×1
ϕ( x) função de iteração matricial

Esquema Iterativo Proposto

Partindo de uma vetor aproximação inicial x (o ) , constrói-se uma seqüência


iterativa de vetores:
+ g =ϕ( x
(1) (o) (o)
x =C x )
+ g =ϕ( x
(2) (1) (1)
x =C x )

+ g =ϕ( x
(k ) ( k −1) ( k −1)
x =C x )

Forma Geral
=ϕ( x
( k +1) (k )
x )

Observação
Se a sequência de aproximação x (o ) , x (1) , x ( 2 ) , ......, x ( k ) é tal que
(k )
lim x = α ⇒ α = Cα + g , então α é a solução do sistema A x =b .
k→∞

Teste de Parada
Como em todos os processos iterativos, necessita-se de um critério para a
parada do processo.

a) Máximo desvio absoluto:

1
∆( k ) = max xi( k ) − xi( k −1)
i =1, n

b) Máximo desvio relativo:


∆( k )
∆(Rk ) =
max xi( k )
i =1, n

Desta forma, dada uma precisão ε , o vetor x ( k ) será escolhido como solução aproximada
da solução exata, se ∆(k ) < ε , ou dependendo da escolha, ∆(kR ) < ε .

3.5.1 Método Iterativo de Gauss-Jacobi

Considere o sistema linear:

a11 x1 + a12 x 2 + a13 x 3 + .......... ..a1n x n = b1


a x + a x + a x + .......... ..a x = b


21 1 22 2 23 3 2n n 2

.......... .......... .......... .......... .......... .......... ......


.......... .......... .......... .......... .......... .......... ......

a n1 x1 + a n 2 x 2 + a n 3 x 3 + .......... ..a nn x n = bn

Supondo a ii ≠ 0, i = 1,2,..., n , isola-se o vetor x mediante a separação pela


diagonal da matriz de coeficientes.
1
x1( k +1) = (b1 − a12 x 2( k ) − a13 x 3( k ) −.......... − a1n x n( k ) )
a11
1
x 2( k +1) = (b2 − a 21 x1( k ) − a 23 x3( k ) −.......... − a 2 n x n( k ) )
a 22

1
x n( k +1) = (bn − a n1 x1( k ) − a n 2 x 2( k ) −.......... − a nn −1 x n( k−1) )
a nn

Assim, tem-se o sistema iterativo x =C x +g , onde:

 0 − a12 / a11 − a13 / a11  − a1n / a11 


− a / a 0 − a 23 / a 22  − a 2 n / a 22 
C =  21 22
      
 
− a n1 / a nn − a n 2 / a nn − a n 3 / a nn  0 

2
 b1 / a11 
b / a 
g =  2 22 
  
 
bn / a nn 

Dado uma aproximação inicial x (o ) , o Método de Gauss-Jacobi consiste em


obter uma seqüência x (o ) , x (1) , x ( 2 ) , ......, x ( k ) , por meio da relação recursiva:
( k +1) (k )
x =C x +g
Observe que o processo iterativo utiliza somente estimativas da iteração
anterior.

Exemplo: Resolver o sistema de equações lineares, pelo Método de Gauss-Jacobi com


solução inicial x ( o ) = [ 0,7 − 1,6 0,6] T e tolerância ε ≤ 0,05 .

10 x1 + 2 x 2 + x3 = 7
x1 + 5 x 2 + x3 = −8
2 x1 + 3 x 2 + 10 x3 = 6
Separando-se os elementos diagonais, tem-se:
1
x1( k +1) = (7 − 2 x 2( k ) − x3( k ) )
10
1
x 2( k +1) = ( −8 − x1( k ) − x3( k ) )
5
1
x3( k +1) = (6 − 2 x1( k ) − 3 x 2( k ) )
10
 0 − 2 −1  7 
 1 0 1 0  1 0
C=  −1 0 −1  g = − 8 
 5 −3 5  5
 − 21 0 1 0 0   6 1 0
(1) (0)
Solução para k=0 x =C x + g ⇒x (1)

3
 0 −2 −1  0,7   7 10 
 10 10   
x =  −1
1
0 − 1   − 1,6 +  − 8 
 5 −3 5    5

 102 0   0,6   6 10
10   
 0,96 
x =  − 1,86
1

 0,94 

Cálculo de ∆(R1) :
x1(1) − x1( 0 ) = 0,7 − 0,96 = 0,26
x 2(1) − x 2( 0 ) = −1,86 −1,6 = 0,26
x3(1) − x3( 0 ) = 0,6 − 0,94 = 0,34
0,34 0,34
∆(R1) = = = 0,1828
max x (1)
i
1,86
i =1, 3

Para k=1:
0,978 
0,12
= −1,98  = 0,0606 > ε
(2)
x ⇒ ∆(R2 ) =
1,98
0,966 
Para k=2:
 0,9994 
0,0324
=  = 0,0163 < ε
( 2)
x −1,9888  ⇒ ∆(R3) =
1,9888

0,99984 

 0,9994 
x =
−1,9888

 é solução com erro menor que 0,05.

 0,9984 

Condições Suficientes para a Convergência do Método de Gauss-Jacobi

Teorema

Seja o sistema linear A x =b e seja:


n 
 
∑ a kj 
jj =
1 
α = ≠k 
k
a kk

Se α = max α k < 1 , então o método G-J gera uma seqüência {x (k ) } convergente para a
k =1, n

solução do sistema dado, independentemente da escolha da aproximação inicial x ( 0 ) .

4
Observe que esta é uma condição suficiente, se for satisfeita o método converge, entretanto
se não for satisfeita nada se pode afirmar.

Exemplo 1:
Seja a matriz do exemplo dado anteriormente:
(2 + 1)
α1 = = 0,3 < 1
10 2 1  10
(1 + 1)
A =  1 5 1  α2 = = 0,4 < 1
5
 2 3 10 (2 + 3)
α3 = = 0,2 < 1
10
Tem-se a convergência garantida para qualquer vetor inicial.

Exemplo 2:
Seja o sistema de equações lineares:
x1 + x 2 = 3
x1 − 3 x 2 = −3
1
α1 = = 1
1
1
α2 =
3
As condições de convergência do teorema não são satisfeitas, entretanto o
Método de Gauss-Jacobi gera uma seqüência convergente para a solução exata

x= 3[ 2
3
2
] T
. Se as condições de suficiência não são satisfeitas, não significa que o
método não possa convergir.

Exemplo 3:
Considere o sistema linear:
x1 + 3 x 2 + x3 = −2
5 x1 + 2 x 2 + 2 x3 = 3
0 x1 + 6 x 2 + 8 x3 = −6
(3 + 1)
α1 == 4>1
 1 3 1 1
(5 + 2)
A =  5 2 2 α2 = = 3,5 > 1
2
 0 6 8 (0 + 6)
α3 = = 0,75 < 1
8
As condições do teorema não são satisfeitas. Uma solução possível é permutar
as equações. Seja no exemplo permutar a primeira equação com a segunda equação:

5
( 2 + 2)
α1 =
= 0,8 < 1
 5 2 2 1
(1 + 1)
A = 1 3 1 α2 = = 0,66 < 1
3
 0 6 8 ( 0 + 6)
α3 = = 0,75 < 1
8
As condições passam a ser satisfeitas e a convergência é garantida para
qualquer vetor inicial. Este tipo de procedimento nem sempre é possível.

Fórmula Matricial do Método Gauss-Jacobi

Decompõe-se a matriz de coeficientes A em:


A = L + D +U
Onde:
L – Matriz Triangular Inferior
D – Matriz Diagonal
U – Matriz Triangular Superior

0 0 0  0 d11 0 0  0  0 a12 a13 a1n 


a 0 0  0 0 d 22 0  0   0 0 a 2 n 
a 23 
 21  
L = a31 a32 0  0 D= 0 0 d 33  0  U = 0 0 0   
     
                a n −1n 
a n1 an2  a nn −1 0  0 0  0 d nn  0 0  0 0 
( L + D +U ) x =b
L x + D x +U x =b
D x =b −( L +U ) x
( k +1) (k )
Dx =b −( L +U ) x

( k +1) (k )
x = D −1 b −D −1 ( L +U ) x

3.5.2 Método Iterativo de Gauss-Seidel

Assim como no Método de Gauss-Jacobi o sistema linear A x =b é escrito na


forma equivalente:
x =C x +g
Como no Método Gauss-Jacobi, é realizada uma separação diagonal, e o
processo iterativo de atualização é seqüencial, componente por componente. A diferença é
que, no momento de realizar-se a atualização das componentes do vetor numa determinada
iteração, a formulação utiliza as componentes da iteração já atualizadas na iteração atual,
com as restantes não atualizadas da iteração anterior. Por exemplo, ao se calcular a
( k +1)
componente x j da iteração (k+1), utiliza-se no cálculo as componentes já atualizadas

6
x1( k +1) , x 2( k +1) , ... , x (jk−1+1) com as componentes ainda não atualizadas da iteração anterior
x (jk+1) , x (jk+)2 , ... , x n( k ) .
1
x1( k +1) = (b1 − a12 x 2( k ) − a13 x3( k ) − a14 x 4( k ) −.......... − a1n x n( k ) )
a11
1
x 2( k +1) = (b2 − a 21 x1( k +1) − a 23 x3( k ) − a 24 x 4( k ) .......... − a 2 n x n( k ) )
a 22
1
x3( k +1) = (b3 − a 31 x1( k +1) − a 32 x 2( k +1) − a 34 x 4( k ) −.......... − a 2 n x n( k ) )
a 22

1
x n( k +1) = (bn − a n1 x1( k +1) − a n 2 x 2( k +1) − a n 3 x3( k +1) .......... − a nn −1 x n( k−1+1) )
a nn

Exemplo: Resolver o sistema linear utilizando o Método Iterativo de Gauss-Seidel, com


x = [0,0,0]T e tolerância ε ≤ 5 ×10 −2 .
o

5 x1 + x 2 + x3 = 5
3 x1 + 4 x 2 + x3 = 6
3 x1 + 3 x 2 + 6 x3 = 0
O processo iterativo é dado por:
1
x1( k +1) = (5 − x 2( k ) − x 3( k ) )
5
1
x 2( k +1) = (6 − 3 x1( k +1) − x 3( k ) )
4
1
x3( k +1) = (0 − 3 x1( k +1) − 3 x 2( k +1) )
6

Para k=0 e x o = [0,0,0]T


 1 
x = 
1
 0,75 

− 0,875 

Cálculo de ∆(R1) :
x1(1) − x1( 0 ) = 1,0 − 0 = 1,0
x 2(1) − x 2( 0 ) = 0,75 − 0,0 = 0,75
x3(1) − x3( 0 ) = − 0,875 − 0 = 0,875
max ∆(i1) 1,0
i =1, 3
∆ (1)
R = = = 1,0 > ε
max x (1)
i
1,0
i =1, 3

Para k=1 e x 1 =[1,0, 0,75 , −0,875 ]T :

7
 1,025 
= 
( 2)
x  0,95 

− 0,9875 

x1( 2 ) − x1(1) = 1,025 −1,0 = 0,025
x 2( 2 ) − x 2(1) = 0,95 − 0,75 = 0,20
x3( 2 ) − x3(1) = − 0,9875 − ( −0,875 ) = 0,1125
max ∆(i2 ) 0,20
i =1, 3
∆ ( 2)
R = = = 0,1957 > ε
max x ( 2)
i
1,025
i =1, 3

Para k=2 e x 2 =[1,0025 , 0,95 , −0,9875 ]T :

 1,0075 
= 
( 3)
x  0,9912 

− 0,9993 

x1( 3) − x1( 2 ) = 1,075 −1,025 = 0,0175
x 2( 3) − x 2( 2 ) = 0,9912 − 0,95 = 0,0412
x3( 3) − x3( 2 ) = − 0,9993 − ( −0,9875 ) = 0,0118
max ∆(i3) 0,0412
i =1, 3
∆ ( 3)
R = = = 0,0408 < ε
max x ( 3)
i
1,0075
i =1, 3

 1,0075 
x = 
 0,9912  é solução com erro menor que 0,05.

− 0,9993 

Fórmula Matricial do Método Gauss-Seidel

Decompõe-se a matriz de coeficientes A em:


A = L + D +U
Onde:
L – Matriz Triangular Inferior
D – Matriz Diagonal
U – Matriz Triangular Superior

0 0 0  0 d11 0 0  0  0 a12 a13  a1n 


a 0 0  0 0 d 22 0  0   0 0 a 23  a 2 n 
 21  
L = a31 a32 0  0 D= 0 0 d 33  0  U = 0 0 0   
     
                a n −1n 
a n1 an2  a nn −1 0  0 0  0 d nn  0 0  0 0 

8
( L +D +U ) x =b
L x +D x +U x =b
D x =b −( L +U ) x
x = D −1 b −D −1 L x −D −1U x

( k +1) ( k +1) (k )
x = D −1 b −D −1 L x −D −1U x

Interpretação Geométrica do Caso 2 × 2

Considere o Sistema Linear:


x1 + x 2 = 3
x1 − 3 x 2 = −3
O esquema iterativo utilizando o Método de Gauss-Seidel é dado por:
1
x1( k +1) = (3 − x 2( k ) )
1
1
x 2( k +1) = (3 + 3 x1( k +1) )
3
Para k=0 e x ( 0 ) = [0 0]T :
x1(1) = 3
x 2(1) = 2
Para k=1 e x (1) = [3 2]T :
x1( 2 ) = 1
x 2( 2 ) = 4
3
= [1 4 ]T :
( 2)
Para k=2 e x
3
x1(3) = 5
3
x 2(3) = 14
9
8
A solução exata é dada por: x = [ 3 3 ]T . x2
7 2
x1+x2=3 2
Esse processo iterativo até à convergência pode ser interpretado geométricamente num
6
grafico com a componente x1 na abscissa e a componente x 2 na ordenada.
5

3
(1,2) (3,2)
2
(4/3,5/3)
1 (1,4/3)
x1-3x2=-3

0
(0,0) (0,3) x1
-1
9
-2
-5 -4 -3 -2 -1 0 1 2 3 4 5
Observação 1: Verifica-se pelo gráfico acima que a seqüência x (o ) , x (1) , x ( 2 ) , ......,
x
(k )
está convergindo para a solução exata x = [ 3 3 ]T .
2 2
Observação 2: A sequência gerado pelo Método de Gauss-Seidel depende fortemente da
posição das equações. Esta observação pode ser melhor entendida modificando a ordem
das equações do exemplo anterior.

Considere o mesmo Sistema Linear anterior, porém modificando a ordem das


equações:
x1 − 3 x 2 = −3
x1 + x 2 = 3
O esquema iterativo utilizando o Método de Gauss-Seidel é dado por:
x1( k +1) = (−3 + 3 x 2( k ) )
x 2( k +1) = (3 − x1( k +1) )
Para k=0 e x ( 0 ) = [0 0]T :
x1(1) = −3
x 2(1) = −6
Para k=1 e x (1) = [−3 − 6]T :
x1(1) = 15
x 2(1) = −12 8
x2
7
(-3,6) ......(6,15)
6

5 x1+x2=3

3
x1-3x2= -3
2

0 x
(0,0) x1
(0,-3)
-1
10
-2
-5 -4 -3 -2 -1 0 1 2 3 4 5
Estudo da Convergência do Método de Gauss-Seidel

Existem dois critérios de suficiência para a convergência do Método de Gauss-


Seidel. O critério de linhas e o critério de Sassenfeld. O critério de linhas é o mesmo da
Método de Gauss-Jacobi.

Critério de Linhas

Seja o sistema linear A x =b , com A dimensão n × n e seja:


n 
 
∑ a kj 
jj =
1 
α = 
≠k
k
a kk

Se α = max α k < 1 , então o método Gauss-Seidel gera uma seqüência {x ( k ) } convergente


k =1, n

para a solução do sistema dado, independentemente da escolha da aproximação inicial x ( 0 )


.

A matriz que satisfizer o critério de linhas é chamada de diagonal dominante


estrita.

Critério de Sassenfeld

Seja o sistema linear A x =b , com A dimensão n × n e seja:


a12 + a13 + a14 + ....... + a1n
β1 =
a11
e para j =2,3,......... .... n :

a j1 β1 + a j 2 β2 +.......... .... + a jj −1 βj −1 + a jj +1 +...... +. a j1


βj =
a jj

Define-se β = max
j =1, n
βj .

11
Se β <1 , então o Método de Gauss-Seidel gera uma sequência convergente para a solução
do sistema, qualquer que seja o vetor inicial. Além disso, quanto menor for o valor de β
mais rápida é a convergência.

Exemplo: Verificar as condições de convergência do Método de Gauss-Seidel no sistema


abaixo:

2 x1 + x 2 + 3 x3 = 3
− x 2 + x3 = 1
x1 + 3 x3 = 3

a) Critério de Linhas
1+3
α1 = = 2 > 1 não satisfaz.
2
b) Critério de Sassenfeld
1+3
β1 = = 2 > 1 não satisfaz.
2

Como a convergência do Método de Gauss-Seidel é fortemente dependente da posição das


equações, pode-se trocar a posição das equações.
Tentativa 1: Troca-se a primeira equação pela terceira equação.
x1 + 3 x3 = 3
− x 2 + x3 = 1
2 x1 + x 2 + 3 x3 = 3
a) Critério de Linhas
0+3
α1 = = 3 > 1 não satisfaz.
1
b) Critério de Sassenfeld
0+3
β1 = = 3 > 1 não satisfaz.
1
Tentativa 2: Troca-se a primeira coluna pela terceira coluna na equação anterior.
3 x3 + 0 x 2 + x1 = 3
x3 − x 2 + 0 x1 = 1
3 x3 + x 2 + 2 x1 = 3
a) Critério de Linhas
1
α1 = = 0.33 < 1 satisfaz.
3
1
α 2 = = 1 não satisfaz.
1

b) Critério de Sassenfeld
1
β1 = = 0.33 < 1 satisfaz.
3

12
1
1⋅
satisfaz.
β 2 = 3 = 0.33 < 1
1

1 1
3 ⋅ +1⋅
β3 = 3 3 = 4 < 1 satisfaz.
2 6

Com a última modificação o sistema passa a ser convergente para qualquer


vetor inicial. Modificações desse tipo são puramente acadêmicas e são difíceis de serem
realizadas em sistemas reais. Principalmente pelas dimensões dos problemas, resultando
num grande esforço computacional, e das incertezas quanto a sua eficiência.

Exemplo : Verifique a convergência do sistema abaixo pelo critério de linhas e Sassenfeld.

2 x1 + x 2 = 3
x1 + x 2 = 4

Critério de Linhas
1
α1 =
2 Não satisfaz
α2 = 1

Critério de Sassenfeld

1
β1 =
2
1 Satisfaz

β2 = 2 =1
1 2

Exemplo : Verifique a convergência do sistema abaixo pelo critério de linhas e Sassenfeld.

x1 + 0,5 x 2 − 0,1x3 + 0,1x 4 = 0,2


0,2 x1 + x 2 − 0,2 x3 − 0,1x 4 = −2,6
− 0,1x1 − 0,2 x 2 + x3 + 0,2 x 4 = 1,0
0,1x1 + 0,3 x 2 + 0,2 x3 + x 4 = −2,5

3.5.3 Método da Sobrerelaxação Sucessiva

13
xi( k +1) = xi( k ) + w( xˆ i( k +1) − xi( k ) )
1
xˆ i( k +1) = (bi − ∑a ij x (jk +1) − ∑a ij x (jk ) )
a ii j <i j >i

1 < w < 2 - Utilizado para aumentar a velocidade de convergência.


0 < w < 1 - Utilizado em sistemas com dificuldades de convergência pelo Método de gauss
Seidel.

Condições Necessária e Suficiente para Convergência do Método de Gauss-Jacobi e


Gauss-Seidel

Teorema

Seja b ∈ ℜn e A = ( M − N ) ∈ℜn é não singular. Se M é não-singular e o raio


espectral de M −1 N satisfaça ρ( M −1 N ) <1 , então o processo iterativo definido por
( k +1)
+b converge para x = A −1 b para qualquer vetor x
(k ) ( 0)
Mx =N x .
ρ( M −1 N ) = max { λ : λ ∈λ( M −1 N )}

Para o Método de Gauss-Jacobi:


( L + D +U ) x = b
L x + D x +U x = b
D x = b −( L +U ) x
( k +1) (k )
Dx = b −( L +U ) x

M =D
N = −( L +U )

Para o Método de Gauss-Seildel:


( L + D +U ) x = b
L x + D x +U x = b
L x + D x = b −U x
( k +1) (k )
( L + D) x = b −U x
M = ( L + D)
N = −U

Comparação dos Métodos de Solução de Sistemas Lineares A x =b

Métodos Diretos:

1. Processos finitos (convergência para qualquer sistema não-singular);


2. Apresentam problemas com erros de arredondamento;
3. Utiliza-se técnicas de pivoteamento para amenizar os problemas de arredondamento;
4. O processo de triangularização destrói a esparsidade da matriz de coeficientes. Técnicas
de Esparsidade são utilizadas para amenizar o enchimento da matriz.

14
5. Redução de esforço computacional é conseguido em soluções para vetores
independentes adicionais com a matriz de coeficientes mantida constante, com a
utilização da fatoração LU;
6. Para matrizes cheias a solução requer n 3 operações sem considerar o pivoteamento.

Métodos Iterativos:

1. Provavelmente mais eficientes para sistemas de grande porte, principalmente com a


utilização de computação de alto desempenho (vetorial e paralela);
2. Tem convergência assegurada apenas sob certas condições;
3. Conserva a esparsidade da matriz de coeficientes;
4. Os métodos de G-J e G-S requerem 2n 2 operações por iterações;
5. Poucas vantagens adicionais são conseguidas em soluções para vetores independentes
adicionais com a matriz de coeficientes mantida constante, como no caso da fatoração
LU;
6. Carregam menos erros de arredondamento no processo, tendo em vista que a
convergência uma vez assegurada independe da aproximação inicial. Somente os erros
da última iteração afetam a solução.

2.4 Número de condicionamento de uma matriz


Os elementos da matriz de coeficientes e do vetor independente de um sistema de
equações lineares são na grande maioria das aplicações inexatos. Esta falta de exatidão
pode ser originada porque os dados são resultantes de experimentos ou computados através
de operações que carregam erros de arredondamento, ou mesmo do próprio armazenamento
dos elementos em uma aritmética finita. A questão é quando a perturbação introduzida em
elementos do sistema podem alterar a resposta.
O algoritmo de eliminação de Gauss com pivoteamento pode ser considerado
numericamente estável, o que pode-se assegurar que, para um sistema bem comportado,
produzirá pequenos resíduos, mesmo para pequenas perturbações nos elementos do sistema.
Portanto, alterações na resposta do sistema está associada ao comportamento do sistema.
Este comportamento é medido pelo número de condição (condicionamento) da matriz.

Para entender o número de condicionamento de uma matriz é preciso relembrar o conceito


de norma de vetores e matrizes.

Norma de vetores
A norma de vetores em R n é uma função || . || := R n →R que satisfaz
1. x ≠0 → x >0
2. αx =α x
3. x +y ≤x +y

Embora existem uma infinidade de normas, as mais utilizadas na prática são:

15
Norma 1: x 1 = ∑
i
xi

Norma 2: x 2 = ∑x i
2
i

Norma ∞: x ∞ = max i x i

Normas de matrizes
A norma de uma matriz é definida de forma análogo a norma de vetores. A norma de
uma matriz em R m×n é uma função || . || : R mxn →R que satisfaz:
1. Α≠0 ⇒ Α >0
2. αΑ =α Α
3. Α+B ≤ Α+ B

Propriedade Adicional
ΑB ≤Α B
Sempre que o produto A .B é definido.

OBS: Uma norma de vetor || . ||v é consistente com uma norma de matriz || . ||M se :
Αx ≤Α x

As principais normas utilizadas são:


n
Α 1 = Max ∑ a ij (máxima Soma absoluta de colunas de A)
j
i =i

Α 2
[
= máx auto valor deΑT Α ] 1
2
= max valor singular de Α
n
Α ∞
= Max ∑ a ij (máxima soma absoluto de linhas de Α)
i
j =1

Condição de uma matriz não-singular

Seja o sistema linear:


Αx =b
Suponha que o vetor independente para b +δb e a matriz A
b sja alterado
permanece inalterada. A solução exata do problema alterado é dado por:
Α( x + δ x b ) = b + δ b
Como Αx =b , pode-se obter um limite para δ x b ;
δ x b ≤ Α−1 δb
A relação Αx =b implica em :
b ≤Α x
Multiplicando as duas relações anteriores chega-se a relação:
δx b δb
≤ Α−1 Α
x b

Se perturbarmos a matriz A enquanto b é mantido fixo tem-se a solução:

16
( Α + δΑ ) ( x + δx Α ) = b
por um processo similar, chega-se a expressão para o erro relativo:
δx Α δΑ
≤ Α−1 Α
x +δx Α Α

A quantidade Α Α reflete a máxima mudança relativa possível na
1

solução exata para um sistema linear com dados perturbados, portanto:

cond (Α) =Α−


1
Α

Das relações anteriores pode-se chegar a:


δx b δx Α
|| x || x + δx Α
cond ( Α) ≥ e cond ( Α) ≥
δb δΑ
|| b || Α

Estas relações mostram que, se a mudança relativa é muito grande para uma pequena
perturbação em A ou b , nós sabemos que A é mal condicionada.

Propriedades:

1. A norma da matriz identidade, para qualquer norma, vale 1.


2. Como I = A −1 A e A −1 A ≤ A −1 A conclui-se que cond ( A) ≥1 .
3. Se a matriz A for multiplicada por um escalar α , então cond (αA) = cond ( A) .
max d ii
4. Se D for uma matriz diagonal, então cond ( D ) = .
min d ii
λmax
5. Se A for não-singular e simétrica cond ( A) = . Se A for não-simétrica
λmin
λmax
cond ( A) ≥ .
λmin
σ1
6. Se A for não-singular , Cond ( A) = , onde σ1 é o mínimo valor singular e σn é o
σn
máximo valor singular.
A = UΣV T onde Σ = diag {σi } i =1,..., n .

Observação 1: O cond ( A) pode ser uma medida mais eficaz para a verificação da
singularidade de uma matriz, que o determinante. Como exemplo, seja uma matriz diagonal
de ordem 100 ×100 , com todos elementos igual a 0,1. O determinante da matriz é 10 −100 ,
que é um número pequeno e pode ser arredondado para zero em computadores digitais. Já a
número de condição da matriz é igual a 1.

17
Observação 2: O pré-condicionamento de uma matriz está associado na redução do raio
espectral da mesma.. ς = {autovalor de maior valor absoluto }

Αx =b
ΡΑx =Ρb

A matriz A é pré-multiplicada por uma matriz P de pré-condicionamento, com o objetivo


de que a nova matriz PA tenha uma redução do raio espectral o quê implica na redução do
condicionamento.

O mal condicionamento de uma matriz está associado à proximidade da


singularidade da matriz.
Exemplo 2x2.
 ax1 + bx 2 = c

dx1 + cx 2 = f

Matriz não-singular

Matriz singular

Matriz próxima da singularidade

Exemplo
Αx =b
A matriz A é armazenada em uma máquina com unidade de arrendondamento u.

18
~ = a 1+ε
a ij ij ij ( )
ε ij ≤ u [ ]
~
Α = Α+Ε onde eij = a ij ε ij
Para qualquer norma:
Ε≤ ΑU
Se o algoritmo de solução for numericamente estável:
~
x −x
~ ≤cond ( Α)u
x

Condicionamento de Matrizes de Redes Elétricas

Análise Nodal
A equação matricial de desempenho de uma rede linear na formulação nodal é dada por:
I = YE
onde I – é o vetor das injeções nodais de corrente
E – vetor das tensões nodais em relação ao nó de referência.
Y – matriz de admitância nodal
Em sistemas de potência geralmente o nó de referência é o nó terra, sendo os demais nós as
barras do sistema:
IBarra = YBarra ZBarra
Na sua forma inversa tem-se:
EBarra = YBarra-1 IBarra
YBarra → esparsa

ZBarra → Cheia

YBarra-1 → ZBarra
Na ausência de acoplamento mútuo, a matriz YBarra é montada com grande facilidade.
Elementos diagonais Υii = ∑ y ik
K

K barra vizinha a i e y ik admitância da linha i-k


 − y ik ∀ K vizinho a i
ΥiK = 
0 ∀ K não vizinho a i

Exemplo

1 2
E
I1 1 - j2 EQUIVALENTE NORTON
~
V
I= I = YV
19 R
-j4

1 2 – j4

4 3
-J4 E
I4

I3 -J4
1
-J 10
1/
J 2

 Ι1   2 − j 2 −1 + j 2 0 −1   Ε1 
− J E  − 1 + j 2 3 − j10 − 2 + j 4 0  Ε 
 4 =  2
 − I3   0 − 2 + j 4 3 − j 7,1 − 1 + j3  Ε 3 
     
 − I 4   −1 0 − 1 + j 3 2 − j 2,5 Ε 4 

Condicionamento da matriz YBarra


Sistema sem ligação à terra
Yb

111
3

Ya Yc

Ya +Yb −Ya −Yb 


 −Yc 
YBarra =  −Ya Ya +Yc 

 −Ya −Yc Yb +Yc 

Matriz é singular (colunas combinação linear)
Mau condicionamento: admitância fraca entre a rede e o nó de referência
Bom condicionamento: forte conexão com o nó de referência.

Possibilidades de Mau Condicionamento


1. Conexão fraca com o nó de referência
2. Junção entre partes com admitâncias muito grandes e pequenas (perda dominância
diagonal, aumento do raio espectral)

20
3. Capacitância em série ou em derivação do sistema, enfrequecendo o elemento diagonal.

Melhoria do Condicionamento adotando como referência uma barra do sistema.


Se a tensão de uma barra for considerada conhecida, pode-se reduzir o n° de equações e
variáveis de uma unidade.
I = Y E referência ao nó terra
Ι1 = Υ11 Ε1 + Υ12 Ε2 +......... Υ1n Εn
Ι 2 = Υ21 Ε1 + Υ22 Ε2 +......... Υ2 n Εn

Ι n = Υn1Ε1 + Υn 2 Ε2 +.......... .Υnn Εn

Com Ε1 de referência
Ι1 − Υ11 Ε1 = Υ12 Ε2 +........ + Υ1n Εn
Ι 2 − Υ21 Ε1 = Υ22 Ε2 +.......... + Υnn Εn
Ι n − Υn1Ε1 = Υn 2 Ε2 +.......... . + Υnn Εn

Pode-se eliminar uma das equações, já que há apenas n-1 incognitas.


ˆ −C =Υ
Ι ˆ Ε
ˆ

Υ̂ obtida de Y eliminando-se a linha e coluna correspondentes à nova barra de referência.


Para obter-se bom condicionamento de Υ̂ escolhe-se como referência uma barra com forte
conexão à rede restante.

2.5 Correção Iterativa


Para sistemas de equações lineares que não se conhece a priori se é bem
condicionado é importante verificar se a solução é suficientemente exata; e se sua exatidão
não for suficiente, pode-se melhorá-la.
Seja o sistema Linear:
Αx =b
A exatidão da solução desse sistema pode ser verificada pelo resíduo:
( 1) ( 1)
r = b − Αx
(1)
x solução computada.
Se os elementos de r são pequenos, se comparados aos elementos de b ,
normalmente assume-se que a solução é suficientemente exata.
Se a solução não for suficientemente exata, pode-se repetir a solução em dupla
precisão ( o que normalmente não acrescente grandes beneficios, principalmente se a matriz
de coeficientes for mal condicionada).
Um procedimento que pode ser adotado para melhorar a exatidão é a correção
iterativa, conforme a sequência:

21
r (1) = b − Αx (1)
b = Αx
( )
Α⋅ x − x (1) = r (1)
y (1)
= x − x (1)
Chega-se a um novo sistema linear:
Αy (1) =r (1)
Resolvendo-se esse sistema, uma correção da variável é obtida:

x ( 2) = x (1) + y (1)
Esse processo pode ser repetido até que se chegue a convergência.

Observações:

a) A decomposição da matriz é realizada uma única vez


b) Em razão do mal condicionamento do sistema, os arredondamentos de elementos
da matriz de coeficientes A podem causar grandes erros na solução, é muito
importante que a matriz de coeficientes seja construída em dupla precisão e
armazenada em dupla precisão. É também necessário computar o resíduo em dupla
precisão, de forma que erros significativos não sejam introduzidos na computação.
c) É possível que o método não convirja, se a amplificação do erro for muito grande.
r (k )
e (k ) =
b
Observe que:
Uma saída deve ser prevista a implementação do processo no caso em que e ( k +1) > e ( k )

Início

Entre com A e b
em dupla precisão

Copie A em precisão simples


Decomponha a Matriz A em fatores LU
Faça k = 0 , x (0) = 0 (precisão dupla),
r (0) = b (precisão simples) e e ( 0) =1

22
Solucione o Sistema A y ( k ) =r ( k ) (precisão simples)
Corrija a Solução:
x ( k +1) = x ( k ) + y ( k ) (precisão dupla)

r ( k +1) =b − A x ( k +1) (precisão dupla)


e (k +1)
= r (k +1)
b

k = k +1

e ( k +1) < e ( k ) Teste e ( k +1) ≤ tolerância

e ( k +1) ≥ e ( k ) Saída com


Solução
Satisfatória

Saída com
Solução
Insatisfatóri
a

2.6 Eliminação por Blocos


Aproveitar estrutura esparsa de matrizes por blocos.
 Fluxo de Potência ótimo (Mesma estrutura da matriz admitância, se for feito por blocos)
 Fluxo de Potência via Newton Raphson.

 Α 11 Α 12 .... Α 1m 
 
 
Α =  Α 21 Α 22 .... Α 2 m 
 
 
 Α m1 Α m 2 .... Α mm 

23
Αii são blocos diagonais quadrados de ordem n i
n = n1 + n 2 +......... n m
A maneira mais simples é realizar através de computação recursiva:

Α11 Α1* 
Α= 
Α 
 *1 Α** 

−1
multiplicadores: Α*1 . Α11

 I 0  Α 1 1 Α 1* 
Α =  − 1   − 1  = L U
Α *1Α 1 1I   0 Α * − Α *1Α 1 Α 1* 
Explicitando.
1. A primeira linha de blocos de U é a primeira linha de blocos de A.
−1
2. A primeira coluna de blocos de L excluindo o bloco identidade diagonal é Α*1 Α11 .
−1
3. Os blocos restantes da decomposição são obtidos por Α −Α Α Α
** *1 1 1 1*

A decomposição escalar e a decomposição por blocos normalmente não são iguais.

O número de operações é o mesmo da eliminação escalar: ( 3)


Οn
3

Algoritmo

24
 I  U 11 U 12 U 1m 
  
Α =  L 21 I  0 U 22 U 2 m 
L Lm 2 I   U mm 
 m1  0 
nn = n(1) +....... n(m) → n( i ) dim ensão de cada bloco .
ux = 0
Para K = 1 a m −1
lx = ux +1
ux = lx + n( K ) −1
if ( A[lx : ux , lx : ux ] é singular ) erro
A[ux +1 : nn , lx : ux ] = A[ux +1 : nn , lx : ux ] * A[lx : ux , lx : ux ] −1
A[ux +1 : nn , ux +1 : nn ] = A[ux +1 : nn , ux +1 : nn ] −
− A[ux +1 : nn , lx : ux ] * A[lx : ux , ux +1 : nn ]
Fim K

25