Você está na página 1de 21

Captulo 3

Metodos de resolu cao do problema de uxo de carga


3.1 Metodos iterativos baseados na matriz Y
Baseados na resolu cao do sistema de equa c oes lineares I = Y E de maneira
iterativa
Exemplos: Gauss/Gauss-Seidel, Glimn-Stagg, Ward-Hale, etc.
3.1.1 Metodos de Gauss/Gauss-Seidel
Considerar um sistema de n equa c oes algebricas lineares A x = b
Tomando a linha i da equa cao matricial acima:
PSfrag replacements
.
=
A
ii i
i
A x
x
i
b
b
i
n

j=1
A
ij
x
j
= b
i
i = 1, . . . , n
A
ii
x
i
+
n

j=1,j=i
A
ij
x
j
= b
i
i = 1, . . . , n
1
Resolvendo para x
i
tem-se:
x
i
=
1
A
ii

_
_
b
i

j=1,j=i
A
ij
x
j
_
_
i = 1, . . . , n
Para uma itera cao (m + 1), o processo iterativo pode ser denido como:
x
(m+1)
i
=
1
A
ii

_
_
b
i

j=1,j=i
A
ij
x
(m)
j
_
_
i = 1, . . . , n
Metodo de Gauss
Para a obten cao de x
(m+1)
i
sao utilizados os valores de x
(m)
i
(todos os valores
da itera cao anterior)
Uma forma alternativa para o processo iterativo e:
x
(m+1)
i
=
1
A
ii

_
b
i

i1

j=1
A
ij
x
(m+1)
j

n

j=i+1
A
ij
x
(m)
j
_
i = 1, . . . , n
Metodo de Gauss-Seidel
Para a obten cao de x
(m+1)
i
sao utilizados os valores mais recentes disponveis
dos elementos do vetor x
2
Exemplo
Processo iterativo utilizando os metodos de Gauss e Gauss-Seidel para n = 3:
Gauss
x
(m+1)
1
=
1
A
11

_
b
1

_
A
12
x
(m)
2
+ A
13
x
(m)
3
__
x
(m+1)
2
=
1
A
22

_
b
2

_
A
21
x
(m)
1
+ A
23
x
(m)
3
__
x
(m+1)
3
=
1
A
33

_
b
3

_
A
31
x
(m)
1
+ A
32
x
(m)
2
__
Gauss-Seidel
x
(m+1)
1
=
1
A
11

_
b
1

_
A
12
x
(m)
2
+ A
13
x
(m)
3
__
x
(m+1)
2
=
1
A
22

_
b
2

_
A
21
x
(m+1)
1
+ A
23
x
(m)
3
__
x
(m+1)
3
=
1
A
33

_
b
3

_
A
31
x
(m+1)
1
+ A
32
x
(m+1)
2
__

3
3.1.2 Resolu cao do problema de uxo de carga pelo metodo de Gauss-Seidel
Os sistemas de potencia podem ser modelados como um sistema de equa c oes
algebricas lineares:
I = Y E
O equacionamento para a utiliza cao do metodo de Gauss-Seidel e:
S

k
= E

k
I
k
= E

nK
Y
kn
E
n
= E

n
k
Y
kn
E
n
+ E

k
Y
kk
E
k
em que
k
e o conjunto de barras vizinhas da barra k e K e o conjunto das
barras em
k
mais a pr opria barra k.
A tensao E
k
e obtida por:
E
k
=
1
Y
kk

_
S

k
E

n
k
Y
kn
E
n
_
Utilizando o metodo de Gauss-Seidel tem-se, para uma itera cao (m + 1):
E
(m+1)
k
=
1
Y
kk

_
S

k
E
(m)
k

k1

n=1
Y
kn
E
(m+1)
n

NB

n=k+1
Y
kn
E
(m)
n
_
em que NB e o n umero total de barras.
O valor de S
k
utilizado na expressao de E
(m+1)
k
depende do tipo de barra:
Se a barra for PQ, S
k
e especicado;
Se a barra for PV, somente P
k
e especicado (Q
k
e calculado). Entao,
estima-se Q
k
com base nos valores atuais das tens oes.
Se a barra for slack, a tensao nao e atualizada. Se a barra for PV, somente a
magnitude da tensao e atualizada.
4
Exemplo
Considere a rede de 2 barras e 1 linha de transmissao mostrada a seguir.
PSfrag replacements
Dados
1 2
referencia carga
E
1
E
2
S
1
S
2
S
2
= 1,00

pu
z E
1
= 1,01120

pu
z = 0,01 + j 0,05 pu
A matriz admitancia da rede e:
Y =
_
3,8462 j 19,2308 3,8462 + j 19,2308
3,8462 + j 19,2308 3,8462 j 19,2308
_
A atualiza cao da tensao E
2
e realizada por:
E
(m+1)
2
=
1
Y
22
__
S
2
E
(m)
2
_

Y
21
E
1
_
O resultado do processo iterativo e:
Itera cao E
2
[pu]
0 1 + j 0
1 1,0012 j 0,0500
2 0,9987 j 0,0493
3 0,9987 j 0,0494
4 0,9987 j 0,0494 Solu cao: E
2
= 12,8

pu
5
A potencia na barra de referencia e:
S
1
= E
1
I

12
= E
1
_
1
z
(E
1
E
2
)
_

= 1,01 + j 0,05 pu

3.1.3 Acelera cao da convergencia


A convergencia pode ser acelerada atraves da utiliza cao de parametros de
acelera cao.
O metodo mais popular e o chamado metodo SOR (successive overrelaxation).
Para o metodo Gauss-Seidel:
z
(m+1)
i
=
1
A
ii

_
b
i

i1

j=1
A
ij
x
(m+1)
j

n

j=i+1
A
ij
x
(m)
j
_
i = 1, . . . , n
x
(m+1)
i
= z
(m+1)
i
+ (1 )x
(m)
i
i = 1, . . . , n
= 1 Gauss-Seidel sem acelera cao.
6
A acelera cao corresponde a uma extrapola cao:
x
(m+1)
= x
(m)
+
_
z
(m+1)
x
(m)
_
= x
(m)
+ x
PSfrag replacements
x
(m)
z
(m+1)
x
(m+1)
x
x
Para cada problema existe um otimo, mas para a maioria dos problemas
praticos, valores aproximados (empricos) sao escolhidos.
Varias tentativas foram feitas para se obter um valor otimo de . Em geral, o
esfor co de obten cao nao compensa.
Acelera cao tambem pode ser usada para a solu cao de redes eletricas, onde
normalmente se escolhe um fator de acelera cao 1 < < 2. Uma boa escolha
de pode resultar em uma taxa de convergencia de ate duas vezes a original.
7
3.1.4 Avalia cao dos metodos baseados na matriz Y
Metodo simples.
N umero de elementos da somat oria e pequeno (valor tpico e 3).
Pequeno espa co de armazenamento e necessario. No caso do metodo de
Gauss-Seidel os valores da itera cao anterior nao precisam ser armazenados.
Pequeno n umero de calculos por itera cao.
Convergencia lenta.
O metodo converge se Y e diagonal dominante:
n

j=1,j=i
| Y
ij
|<| Y
ii
| i = 1, . . . , n
Em sistemas eletricos esta caracterstica e normalmente encontrada.
Entre os fatores que podem afetar a dominancia diagonal e tambem a
convergencia do metodo estao:
jun cao de impedancias serie muito grandes e pequenas;
capacitancias grandes (como em cabos);
linhas EHV longas;
compensa cao serie e shunt.
A escolha da barra de referencia afeta as caractersticas de convergencia. A
melhor escolha e a barra para a qual sua linha e a menos dominante
diagonalmente.
Quanto maior a rede, os metodos baseados na matriz Y se tornam menos
competitivos em rela cao a outros metodos.
8
3.2 Metodos iterativos baseados na matriz Z
A maior diferen ca entre os metodos baseados na matriz Y e os baseados na
matriz Z e que a equa cao da rede e tratada em termos da matriz impedancia:
E = Z I
As correntes nodais sao avaliadas por:
I
k
=
_
S
k
E
k
_

k = 1, . . . , n
e sao substitudas em:
E
k
=
n

m=1
Z
km
I
m
k = 1, . . . , n
Existem outras propostas com pequenas varia c oes.
3.2.1 Avalia cao dos metodos baseados na matriz Z
A matriz Z e cheia (nao esparsa).
Normalmente a matriz Z e construda diretamente, e nao atraves da inversao
de Y.
Existem metodos de constru cao de Z (que envolvem grande esfor co de
calculo).


E necessario um grande espa co de mem oria para o armazenamento da matriz.
Maior n umero de calculos e necessario no processo iterativo.
Para redes muito grandes, mem oria e volume de calculos se tornam
impraticos.
Como cada tensao e avaliada em fun cao de todas as correntes, a convergencia
e mais conavel e rapida, comparada com os metodos baseados na matriz Y.
9
A escolha da barra de referencia nao e tao importante neste caso. Pode-se
escolher a barra para a qual a soma dos elementos da linha da matriz Z e a
maior.
Em geral metodos baseados na matriz Z nao sao atrativos se comparados com
os baseados na matriz Y.
3.3 Metodo iterativo de Newton
3.3.1 Resolu cao de sistemas algebricos pelo metodo de Newton
Considerar a equa cao algebrica nao-linear:
g (x) = 0
Pretende-se determinar o valor de x para o qual a fun cao g (x) se anula.
Em termos geometricos a solu cao da equa cao acima corresponde ao ponto x
s
em que a curva g (x) corta o eixo horizontal x:
PSfrag replacements
g (x)
x
x
s
x
0
10
Considerar que um ponto x
0
sucientemente pr oximo de x
s
seja conhecido.
Neste caso, pode-se estimar a distancia entre x
0
e x
s
atraves da expansao da
fun cao g (x) em torno de x
0
.
A expansao de g (x) em serie de Taylor desprezando os termos de ordem igual
e superior a 2 resulta em:
g (x
0
+ x) = g (x
0
) +
d
dx
g (x
0
) x
= g (x
0
) + g

(x
0
) x
Se x for considerado como sendo aproximadamente a distancia entre x
0
e x
s
:
x x
s
x
0
g (x
0
+ x) g (x
s
) = 0
Logo:
g (x
0
) + g

(x
0
) x 0
x
g (x
0
)
g

(x
0
)
11
Interpreta cao graca:
PSfrag replacements
g (x)
x
x
s
x
0
x
x
1
Como o resultado e aproximado, entao:
x
0
+ x = x
1
= x
s
Porem, se x
0
esta sucientemente pr oximo de x
s
, entao:
x
1
x
s
=
em que e muito pequeno.
A resolu cao do problema pelo metodo de Newton resulta em um processo
iterativo baseado nas ideias apresentadas anteriormente.
12
Processo iterativo:
(1) Inicializar o contador de itera c oes = 0.
Escolher um ponto inicial x = x
()
= x
(0)
.
(2) Calcular o valor da fun cao g (x) no ponto x = x
()
g
_
x
()
_
.
(3) Comparar o valor calculado g
_
x
()
_
com uma tolerancia especicada .
Se | g
_
x
()
_
| , entao x = x
()
correspondera `a solu cao procurada dentro
da faixa de tolerancia .
Caso contrario, prosseguir.
PSfrag replacements
g(x)
x
g
_
x
(0)
_
x
s
x
(0)
+

(4) Linearizar a fun cao g (x) em torno do ponto


_
x
()
, g
_
x
()
__
por intermedio
da serie de Taylor desprezando os termos de ordem igual e superior a 2:
g
_
x
()
+ x
()
_
g
_
x
()
_
+
d
dx
g
_
x
()
_
x
()
g
_
x
()
_
+ g

_
x
()
_
x
()
Este passo se resume de fato ao calculo da derivada g

_
x
()
_
.
13
(5) Resolver o problema linearizado, ou seja, encontrar x
()
tal que:
g
_
x
()
_
+ g

_
x
()
_
x
()
= 0
x
()
=
g
_
x
()
_
g

_
x
()
_
e o novo ponto:
x
(+1)
x
()
= x
()
x
(+1)
= x
()
+ x
()
x
(+1)
= x
()

g
_
x
()
_
g

_
x
()
_
PSfrag replacements
g(x)
x
g
_
x
(0)
_
x
s
x
(0)
+

x
(1)
De acordo com a gura:
x
(1)
= x
(0)

g
_
x
(0)
_
g

_
x
(0)
_
14
Outra maneira simples de obter essa expressao e a seguinte (em ultima
analise esta maneira tem o mesmo signicado da lineariza cao anterior):
Dado o ponto x
(0)
, a derivada da curva de g (x) calculada neste ponto e:
d
dx
g
_
x
(0)
_
= g

_
x
(0)
_
=
que representa a declividade da reta tangente `a fun cao g (x) no ponto
x
(0)
.
A equa cao da reta tangente `a curva g (x) e que passa por x
(0)
e:
y = x +
O valor de e conhecido (derivada da curva). Deseja-se obter o
ponto x
(1)
para o qual a reta corta o eixo x (e, portanto, g
_
x
(1)
_
= 0).
O ponto x
(1)
e obtido a partir da ideia de que uma reta pode
ser determinada a partir de dois pontos. Esses dois pontos serao
_
x
(1)
, g
_
x
(1)
__
e
_
x
(0)
, g
_
x
(0)
__
:
_
0 = x
(1)
+
g
_
x
(0)
_
= x
(0)
+
Subtrando a segunda equa cao da primeira:
g
_
x
(0)
_
=
_
x
(1)
x
(0)
_
e, nalmente:
x
(1)
= x
(0)

g
_
x
(0)
_
g

_
x
(0)
_
15
(6) Fazer + 1 e voltar para o passo (2).
Desenvolvimento do processo iterativo:
PSfrag replacements
g (x)
x
g
_
x
(0)
_
x
s
x
(0)
+

x
(1)
g
_
x
(1)
_
x
(2)
g
_
x
(2)
_
x
(3)
solu cao
De acordo com o criterio predenido (escolha de ), x
(3)
esta suciente-
mente pr oximo de x
s
(g
_
x
(3)
_
dentro da faixa ) a ponto de poder ser
considerado como a solu cao da equa cao g (x) = 0.
16
Uma versao modicada do metodo acima e obtida considerando-se a derivada
constante, ou seja, ela e calculada somente uma vez no ponto x
(0)
e utilizada
em todas as itera c oes (Von Mises):
PSfrag replacements
g (x)
g

x
(0)

x
s
x
(0)
+

x
x
(1)
g

x
(1)

x
(2)
g

x
(2)

x
(3)
g

x
(3)

O n umero de itera c oes e maior que no metodo original.


Cada itera cao e mais rapida (envolve menos calculos) pois a derivada nao
precisa ser calculada a cada passo (esse fato cara mais claro quando for
tratado o caso multidimensional).
17
Considerar agora o caso de um sistema n-dimensional de equa c oes algebricas
nao-lineares:
g (x) = 0
em que g e x sao vetores de dimensao (n 1) correspondentes
respectivamente `as fun c oes e inc ognitas:
g (x) =
_
g
1
(x) g
2
(x) . . . g
n
(x)

T
x =
_
x
1
x
2
. . . x
n

T
Os passos do algoritmo de solu cao para o caso n-dimensional sao basicamente
os mesmos do caso unidimensional.
A diferen ca esta no passo (4) em que se realiza a lineariza cao de g (x).
A lineariza cao de g (x) em torno de x = x
()
e dada por:
g
_
x
()
+ x
()
_
g
_
x
()
_
+ J
_
x
()
_
x
()
sendo que J e chamada de matriz Jacobiana e e dada por:
J =

x
g =
_

x
1
g
1

x
2
g
1
. . .

x
n
g
1

x
1
g
2

x
2
g
2
. . .

x
n
g
2
. . . . . . . . . . . .

x
1
g
n

x
2
g
n
. . .

x
n
g
n
_

_
O vetor de corre cao x e calculado impondo-se:
g
_
x
()
_
+ J
_
x
()
_
x
()
= 0
x
()
=
_
J
_
x
()
__
1
g
_
x
()
_
18
Caso particular para n = 2:
g
1
[(x
1
+ x
1
) , (x
2
+ x
2
)] g
1
_
x
()
1
, x
()
2
_
+

x
1
g
1

()
x
()
1
+

x
2
g
1

()
x
()
2
g
2
[(x
1
+ x
1
) , (x
2
+ x
2
)] g
2
_
x
()
1
, x
()
2
_
+

x
1
g
2

()
x
()
1
+

x
2
g
2

()
x
()
2
Algoritmo para resolu cao do sistema de equa c oes g (x) = 0 pelo metodo de
Newton:
(1) Inicializar o contador de itera c oes = 0.
Escolher um ponto inicial x = x
()
= x
(0)
.
(2) Calcular o valor da fun cao g (x) no ponto x = x
()
g
_
x
()
_
.
(3) Teste de convergencia:
Se | g
i
_
x
()
_
| para i = 1 . . . n, entao x = x
()
sera a solu cao procurada
dentro da faixa de tolerancia e o processo convergiu.
Caso contrario, prosseguir.
(4) Calcular a matriz Jacobiana J
_
x
()
_
.
(5) Determinar o novo ponto x
(+1)
:
x
()
=
_
J
_
x
()
__
1
g
_
x
()
_
x
(+1)
= x
()
+ x
()
(6) Fazer + 1 e voltar para o passo (2).
19
3.3.2 Avalia cao do metodo de Newton
Converge para varios casos em que outros metodos (p.ex. Gauss-Seidel)
divergem e mais conavel.
O n umero de itera c oes necessarias para a convergencia independe da
dimensao do problema (ao contrario de Gauss-Seidel, que aumenta de um
fator n em que n e a dimensao do problema).
Requer mais espa co de mem oria para armazenamento, devido `a matriz
Jacobiana.
O tempo computacional por itera cao e maior, pois deve-se inverter a matriz
Jacobiana e multiplica-la por um vetor.
As tecnicas de armazenamento compacto e de fatora cao reduziram de maneira
signicativa o espa co de mem oria necessario e o esfor co computacional.
Apresenta convergencia quadratica, ou seja, se:
_
_
_
x
s
solu cao exata do problema
x
i
solu cao para a itera cao i
E
i
= x
i
x
s
erro na itera cao i
dene-se:
e
i
= E
i

2
=
_
(E
i
)
T
E
i
e pode-se mostrar que:
lim
i
e
i+1
(e
i
)
2
= K
em que K e a constante assint otica de proporcionalidade. Para i
sucientemente grande, pode-se dizer que:
e
i+1
K
_
e
i
_
2
o que garante uma convergencia rapida, principalmente se o ponto inicial
escolhido ja esta pr oximo da solu cao exata.
20
Nao e sensvel `a escolha da barra de referencia.


E sensvel `a escolha do ponto inicial.
Situa c oes:
PSfrag replacements
g(x)
x
(0)
x
(0)
x
(2)
x
(2)
derivada nula!
x
(0)
x
(1)
x
(1)
x
(1)
x
regiao de
atra cao
regiao de atra cao.
solu c oes m ultiplas.
pontos de mnimo.
mal condicionamento.
O metodo de Newton e suas vers oes (metodos desacoplados) sao os mais
usados na pratica e serao apresentados com detalhe adiante
21

Você também pode gostar