Escolar Documentos
Profissional Documentos
Cultura Documentos
Programa de Pós-Graduação em
Engenharia Elétrica
Florianópolis - SC
2014.
Sumário
2 Análise de Sensibilidade 21
2.1 Equações do Balanço de Potência . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Relações de Sensibilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Magnitude da tensão nas barras de geração selecionadas como variáveis de
controle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Taps dos transformadores selecionados como variáveis de controle . . . . . 28
4 Método de Newton 59
4.1 Fundamentos Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1.1 Mı́nimo de uma Função Multivariável . . . . . . . . . . . . . . . . . 60
4.1.2 Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1.3 Modelos Conceituais dos Métodos de Newton . . . . . . . . . . . . 61
ii SUMÁRIO
onde g(·) e h(·) são vetores de ordens m × 1 e l × 1, cujas componentes são as funções
que representam as restrições de igualdade e desigualdade, respectivamente.
Visando ilustrar como as restrições afetam a solução de um problema de otimização,
consideremos os casos mostrados a seguir.
Ex. 1.1
Min f (x) = (x1 − 1, 5)2 + (x2 − 1, 5)2
s.a h1 (x) =x1 + x2 − 2, 0 " 0
h2 (x) = −x1 " 0
h3 (x) = −x2 " 0
A análise das equações envolvidas neste problema de otimização revela que:
• a restrição h1 (x) =x1 +x2 −2, 0 " 0 corresponde à parte inferior da região delimitada
pela reta que passa pelos pontos (0, 0; 2, 0) e (2, 0; 0, 0), incluindo esta reta;
• as restrições h2 (x) = −x1 " 0 e h3 (x) = −x2 " 0 são restrições de não-negatividade
nas variáveis de otimização;
Ex. 1.2
Min f (x) = (x1 − 0, 5)2 + (x2 − 0, 5)2
s.a h1 (x) =x1 + x2 − 2, 0 " 0
h2 (x) = −x1 " 0
h3 (x) = −x2 " 0
O conjunto de restrições deste problema é o mesmo que o do problema anterior. As
curvas de contorno da função objetivo também possuem a mesma forma, estando porém
centradas no ponto (0, 5; 0, 5).
Se as restrições fossem ignoradas, o valor mı́nimo da função objetivo seria no ponto
(0, 5; 0, 5), para o qual a função objetivo vale 0, 0. Se as restrições são consideradas,
a solução ótima permanece a mesma. Neste caso a localização da solução ótima é no
interior da região das soluções viáveis, não sendo portanto afetada pelas restrições.
Ex. 1.3
Min f (x) = (x1 − 2, 0)2 + (x2 − 2, 0)2
s.a h1 (x) =x1 + x2 − 2, 0 " 0
h2 (x) = − x1 + x2 + 3, 0 " 0
h3 (x) = −x1 " 0
h4 (x) = −x2 " 0
UFSC / EEL - Labspot - R. S. Salgado 3
Neste caso, o conjunto de restrições deste problema é o mesmo que o do problema anterior,
acrescido da restrição h2 (x) = − x1 + x2 + 3, 0 " 0. Esta restrição delimita a região abaixo
da reta −x1 + x2 + 3, 0 = 0. As curvas de contorno da função objetivo também possuem
a mesma forma mostrada anteriormente, estando porém centradas no ponto (2, 0; 2, 0).
A análise da região das soluções viáveis mostra que esta não é convexa. A solução deste
problema de otimização é inviável, conforme mostra a Figura 1.2.
gi (x) = 0, i = 1, 2 . . . m
Minimizar f (x)
(1.4)
sujeito a g(x) = 0
Se x∗ é viável e f (x∗ ) < f (x), a solução é classificada como mı́nimo local forte, e se
f (x∗ ) " f (x) a solução é dita ser um mı́nimo local fraco.
Com o objetivo de verificar se a condição de mı́nimo local se aplica à uma solução
viável, é necessário caracterizar a vizinhança V (x∗ ). Em geral, a viabilidade de uma
solução em relação a um conjunto de equações não-lineares é mantida apenas por mo-
vimento ao longo de um caminho não-linear, denominado arco viável. Por exemplo, a
restrição não-linear x21 + x22 = 1 representa um arco viável definido por um cı́rculo de raio
unitário no ℜ2 , centrado na origem.
Se existe um arco viável com relação à uma solução viável x, então a vizinhança desta
solução ao longo deste arco contém pontos viáveis. A verificação da otimalidade de uma
determinada solução requer o estabelecimento de uma condição indicando a existência do
arco viável. Para isto, consideremos a expansão da equação g(x) = 0 em série de Taylor,
no ponto x∗ e ao longo da direção d, isto é,
'
∗ ∗ ∂g(x) ''
g(x + d) = g(x ) + d + termos de ordem superior (1.5)
∂x 'x∗
'
∂g(x) ''
onde é a matriz de ordem m × n, cujas linhas são os vetores gradiente das
∂x 'x∗
restrições de igualdade calculados no ponto onde é feita a expansão. Esta matriz é expressa
analiticamente por
⎡ ⎤ ⎡ ⎤
∇g1 (x∗ ) a1 (x∗ )
' ⎢ ∇g2 (x∗ ) ⎥ ⎢ a2 (x∗ ) ⎥
∂g(x) '' ⎢ ⎥ ⎢ ⎥
∗ ⎢ ∇g3 (x∗ ) ⎥ ⎢ a3 (x∗ ) ⎥
= A(x ) = ⎢ ⎥ = ⎢ ⎥
∂x 'x∗ ⎢ .. ⎥ ⎢ .. ⎥
⎣ . ⎦ ⎣ . ⎦
∗ ∗
∇gm (x ) am (x )
for satisfeita.
Cada componente da Eq. (1.6) (ai (x∗ )d = 0) representa um hiperplano tangente
à superfı́cie definida pelo conjunto de restrições de igualdade no ponto x∗ . Portanto,
a condição estabelecida pela Eq. (1.6) pode ser interpretada geometricamente como o
requisito de que o vetor gradiente das restrições seja normal ao hiperplano tangente ao
arco viável, ou em outras palavras à superfı́cie definida pelas restrições de igualdade no
ponto x∗ .
Se a condição estabelecida pela Eq. (1.6) não é satisfeita, um movimento ao longo de
qualquer caminho tangente a d pode resultar na violação de uma restrição. Assim, deve
ser observado que se g(x) é acentuadamente não-linear, a condição imposta pela Eq. (1.6)
é insuficiente para assegurar que d é tangente ao arco viável. O requisito que g(x) deve
satisfazer de forma a assegurar a existência dos arcos viáveis é denominado qualificação
das restrições.
Para uma solução viável qualquer x, os requisitos de qualificação das restrições g(x)
são satisfeitos se cada vetor não nulo satisfazendo a Eq. (1.6) é tangente a um arco duas
vezes diferenciável originado em x.
Quando a restrição é linear, a qualificação da mesma é imediata. Caso contrário, a Eq.
(1.6) não representa rigorosamente a não linearidade da restrição, e portanto a análise da
mesma pode conduzir a conclusões errôneas sobre a viabilidade da solução.
Um ponto regular é aquele para o qual as restrições g(x) = 0 são simultaneamente
satisfeitas e os vetores gradiente das restrições (linhas da matriz A(x)) são linearmente
independentes. Nesses pontos, a Eq. (1.6) caracteriza completamente os hiperplanos
tangentes aos arcos viáveis, pois amesma requer que o vetor d pertença ao espaço nulo
formado pelas linhas da matriz A(x) (vetores gradiente das restrições no ponto conside-
rado).
Se Z é uma matriz de ordem n × (n − m) cujas colunas são uma base do espaço nulo
das linhas da matriz A(x), então A(x)Z = 0 e
g(x∗ ) = 0
e para qualquer outra solução viável, obtida à partir de x∗ na direção d; isto é, satis-
fazendo a condição A(x)d = 0, o valor da função objetivo não é menor do que aquele
correspondente a x∗ . Isto é expresso analiticamente pela inequação
o que implica em
∇f (x∗ )t d ≥ 0,para todo d
'
∂f (x) ''
onde ∇f (x∗ ) = é o vetor gradiente da função objetivo no ponto x∗ .
∂x 'x∗
8 Capı́tulo 1: Otimização com Restrições
Desde que A(x)d = 0 e pela condição de mı́nimo local, o produto escalar ∇f (x∗ )t d
é nulo na melhor das hipóteses. Então, o vetor gradiente da função objetivo pode ser
expresso como uma combinação linear das linhas da matriz A(x); isto é,
∇f (x∗ ) = A(x∗ )t λ
Zt ∇f (x∗ ) = 0
Minimizar f (x)
sujeito a g(x) = 0
é dada por
£(x, λ) = f (x) − λt g(x)
onde λ é o vetor (m × 1), dos multiplicadores de Lagrange.
Observe que, na solução ótima (x∗ , λ∗ ) o valor crı́tico de £(x∗ , λ∗ ) é apenas f (x∗ ) pois
gi (x∗ ) = 0 para i = 1, . . . , m.
Os pontos estacionários desta função irrestrita são determinados aplicando-se as condições
de otimalidade de 1a ordem; isto é, derivando-se a função Lagrangeana £(x, λ) e igualando-
se o resultado a zero. Isto fornece
∂£(x, λ)
= ∇x £(x, λ) = 0 = ∇x f (x) − ∇x g(x)t λ
∂x
UFSC / EEL - Labspot - R. S. Salgado 9
e
∂£(x, λ)
= ∇λ £(x, λ) = 0 = −g(x)
∂λ
onde ∇x g(x) = A(x) e gi (x) foram definidos anteriormente.
A primeira equação pode ser escrita como
∇x f (x) − A(x)t λ = 0
o que resulta em
∇x f (x) = A(x)t λ
isto é, em um ponto estacionário o vetor gradiente é expresso como uma combinação linear
das colunas de ∇x g(x) = A(x).
Ex. 1.4 Determinar os pontos estacionários da função f (x) = 3x21 + 4x22 sujeito a res-
trição g(x) = 3, 5x1 + 4x2 − 14 = 0.
Os vetores gradiente da função objetivo e das restrições são, respectivamente
* +
6x1
∇f (x) =
8x2
* +
3, 5
∇g(x) =
4, 0
De acordo com a condição de otimalidade
* + * +
6x1 3, 5
= λ
8x2 4, 0
Ex. 1.5 Determinar os pontos estacionários da função f (x) = 2x1 + 3x2 sujeito a res-
trição g(x) = x21 + 1, 5x22 − 6 = 0.
onde o vetor * +
x1
x=
x2
é particionado de forma semelhante a da matriz A.
Desde que A1 é não singular,
x1 = A−1
1 (b − A2 x2 )
tal que
λ = A−t
1 g1
e
g2 = At2 N−t
1 g1
∂f (x)
= A−t
1 g1 = λ
∂b
ou seja, os multiplicadores de Lagrange fornecem na solução ótima informações sobre a
sensibilidade instantânea da função objetivo com relação a pertubações nas restrições.
Ex. 1.6 Considere dois geradores suprindo potência a uma carga de 3 MW. Os geradores
possuem curvas de custo de geração de potência ativa dadas por C1 (P1 ) = 1, 10P12 e
C1 (P2 ) = 0, 88P22. Determinar a potência de saı́da de cada gerador na solução de mı́nimo
custo de geração. As perdas de potência ativa nas linhas de transmissão são desprezı́veis.
12 Capı́tulo 1: Otimização com Restrições
1. o gradiente da função objetivo deve ser expresso como uma combinação linear dos
vetores gradiente das restrições no ponto x∗ , isto é
∇f (x∗ ) = A(x∗ )t λ∗
Zt ∇2 £(x∗ , λ∗ )Z
•
Min f (x) =4x21 + 3x22 − 5x1 x2 − 8x1
s.a x1 + x2 = 4, 0
•
Min f (x) = (x1 − 1, 0)2 + (x2 − 1, 0)2
s.a x1 + x2 − 4, 0 = 0, 0
x1 − x2 − 2, 0 = 0, 0
•
Min f (x) =2x1 + 3x2
s.a x21 + 1, 5x22 − 6, 0 = 0
Min f (x)
s.a h(x) ≥ 0
1. x∗ pertence à região das soluções viáveis definida pelo conjunto de restrições h(x) !
0;
O significado destas condições é que qualquer movimento a partir de x∗ não tem com-
ponente negativa ∇f (x)t d, e portanto o valor da função objetivo não pode ser reduzido.
Quanto à localização da solução ótima, as duas seguintes possibilidades são conside-
radas:
1. o ponto x∗ está localizado no interior da região das soluções viáveis. Isto implica
em que não há nenhuma restrição de desigualdade ativa, ou seja
h(x∗ ) > 0
∇f (x∗ ) = 0
2. x∗ é tal que existe uma ou mais restrições ativas (por exemplo, hi (x∗ ) = 0 para
algum i ∈ I). O conjunto I, chamado conjunto de restrições ativas, é em geral
desconhecido, exceto no caso onde existem apenas restrições de igualdade.
1. ∇f (x∗ ) = A(x∗ )t λ∗ , onde as linhas da matriz A são os vetores gradiente das res-
trições ativas;
• restrições satisfeitas, mas não no limite, isto é, ati x > bi , chamadas restrições inati-
vas;
Em termos gerais duas situações podem ser previstas com relação a solução inicial no
problema de otimização exposto na Eq. (1.8):
• solução inicial viável, isto é, x0 tal que Ax0 ≥ b, ou seja, x0 para o qual todas as
restrições são satisfeitas;
• solução inicial inviável, isto é, x0 para o qual existem restrições i tal que ati x0 < bi
Naturalmente, é mais simples resolver o problema representado pela Eq. (1.8) a partir
de uma solução inicial viável. Entretanto, nem sempre é possı́vel se dispor de tal solução.
Com o objetivo de analisar os movimentos à partir de uma solução inicial viável a fim
de se estabelecer subseqüentemente as condições de otimalidade do problema expresso
pela Eq. (1.8), seja xk uma solução viável. Se a j-ésima restrição é inativa porém
satisfeita neste ponto, ou seja atj xk > bj , então os movimentos a partir de xk são possı́veis
em qualquer direção sem violar a restrição considerada. Isto é, para qualquer vetor d,
xk + ξd será viável para uma escolha adequada de ∥ ξ ∥.
Por outro lado, uma restrição ativa limita os movimentos a partir de um ponto viável.
Se a i-ésima restrição é tal que ati xk = bi , existem dois tipos de movimento que manterão
a restrição viável. Se d satisfaz
ati d = 0 (1.9)
16 Capı́tulo 1: Otimização com Restrições
isto é, a i-ésima restrição se torna inativa no ponto xk + αd. O vetor d representa,
portanto, um movimento com a direção apontando para o interior da região viável.
Para determinar se o ponto x∗ é a solução ótima do problema de otimização com
restrições de desigualdade lineares, deve-se inicialmente identificar as restrições ativas em
x∗ . Para isto, seja  uma matriz de ordem (t × n) cujas linhas são os coeficientes das
restrições ativas em x∗ . A condição necessária para que x∗ seja a solução ótima é
onde, âti d ≥ 0, i = 1, 2, · · · , t
Esta condição é satisfeita somente se λi ≥ 0, i = 1, 2, · · · , t, isto é, x∗ não será a solução
ótima se existirem multiplicadores de Lagrange negativos, pois isto indica que ainda existe
alguma direção ao longo da qual é possı́vel reduzir o valor da função objetivo.
Para se estabelecer o conjunto total de condições de otimalidade para o problema
definido pela Eq. (1.8), deve-se fazer a imposição adicional de que as t linhas da matriz
 são linearmente independentes e que Z é uma matriz cujas colunas formam uma base
para o conjunto de vetores ortogonais as linhas de Â. Neste caso, cada vetor d tal que
Âd = 0 pode portanto ser escrito como uma combinação linear das colunas de Z, isto
é, d = Zdz onde, dz é um vetor arbitrário. A expansão da função f (x) no ponto x∗ ao
longo da direção d (para a qual Âd = 0 e d = Zdz ) é dada por
1
f (x∗ + ξZdz ) = f (x∗ ) + ξdtz Zt ∇f (x∗ ) + ξ 2dtz Zt G(x∗ )Zdz (1.14)
2
onde, G(x∗ ) é a matriz de segunda derivada de f (·) calculada em x∗ . A análise desta
equação mostra que uma condição adicional para que x∗ seja a solução ótima é que
a matriz Zt G(x∗ )Z seja positiva definida, pois neste caso 21 ξ 2 dTz Zt G(x∗ )Zdz ≥ 0 para
qualquer d, isto é, não há direção ao longo da qual o valor da função objetivo possa ser
reduzido. Portanto, as condições de otimalidade para o problema de otimização expresso
pela Eq. (1.8) podem ser sumarizadas como:
UFSC / EEL - Labspot - R. S. Salgado 17
1.6 Exercı́cios
1.2 : Determinar os pontos estacionários e analisar as condições de otimalidade dos
seguintes problemas:
1.
Min f (x) =2x1 + 3x2 − x31 − 2x22
s.a x1 + 3x2 − 6, 0 " 0
5x1 + 2x2 − 10, 0 " 0
x1, x2 ! 0
2.
Min f (x) =4x21 + 3x22 − 5x1 x2 − 8x1
s.a x1 + x2 − 4, 0 " 0
3.
Min f (x) =x21 + x22 − 4x1 − 2x2 + 6, 0
s.a x1 + x2 − 4, 0 ! 0
4.
Min f (x) =2x21 + 9x22 − 6x1 x2 − 18x1 + 9x2
s.a x1 + 2x2 − 10, 0 " 0
4x1 − 3x2 − 20, 0 " 0
x1 , x2 ! 0
5.
Min f (x) =9x21 + 13x22 − 18x1 x2 − 4, 00
s.a x21 + x22 + 2x1 − 16, 0 ! 0
6.
Min f (x) =x31 − 16x1 + 2x2 − 3x22
s.a x1 + x2 − 3, 0 " 0
18 Capı́tulo 1: Otimização com Restrições
7.
Min f (x) =3x21 − 2x1 x2 + 5x22 + 8x2
s.a x21 − x22 + 8x2 − 16, 0 " 0
sujeito a
c1 (x) = x1 + x2 + 3x3 − 2 = 0
c2 (x) = 5x1 + 2x2 + x3 − 5 = 0
e determine a sua natureza. Verifique se o vetor gradiente de f (x) pode ser escrito como
uma combinação linear dos vetores gradientes das restrições c1 (x) e c2 (x).
sujeito as restrições
c1 (x) = x1 + x22 + 3x2 x3 − 5 = 0
c2 (x) = x21 + 5x1 x2 + 3x23 − 9 = 0
e determine a sua natureza.
sujeito a
c1 (x) = 2x1 + x22 + x3 − 5 = 0
c2 (x) = 5x21 − x22 − x3 ≥ 2
c3 (x) = x1 ≥ 0
c4 (x) = x2 ≥ 0
c5 (x) = x3 ≥ 0
e verifique se elas são satisfeitas no ponto x = (1, 0; 0, 0; 3, 0).
UFSC / EEL - Labspot - R. S. Salgado 19
Análise de Sensibilidade
,
Qgk − Qdk − Vk (Gkm sin δkm − Bkm cos δkm )Vm = 0 (2.2)
mϵ{K}
(u0 , x0 , p)
e, portanto,
* +−1 * +
∂g(u0 , x0 , p) ∂g(u0 , x0 , p)
∆x = − ∆u (2.5)
∂x ∂u
ou, na forma compacta,
∆x = Sxu ∆u (2.6)
onde * +−1 * +
∂g(u0 , x0 , p) ∂g(u0 , x0 , p)
Sxu =
∂x ∂u
UFSC / EEL - Labspot - R. S. Salgado 23
onde
∂P ∂P
H⇒ N⇒
∂δ ∂V
∂Q ∂Q
M⇒ L⇒
∂δ ∂V
são as conhecidas componentes da matriz Jacobiana.
Se as potências ativas geradas são escolhidas como as variáveis de controle cujo efeito
das mudanças é desejado determinar; ou seja, ∆u = ∆P g , então
∂g(u, x, p)
= AP V
∂u
onde A é uma matriz cujos termos são expressos como
-
1, if i = j e i corresponde a uma barra P V
AP V (i, j) =
0 em caso contrário
Com base nas especificações anteriores, a variação da magnitude da tensão das barras
P Q resultante da variação na geração de potência ativa é dada por,
⎡ ⎤ ⎡ ⎤
∆δ P V ∆PP V
⎣ ∆δ P Q ⎦ = −J−1 ⎣ 0 ⎦ (2.7)
∆VP Q 0
24 Capı́tulo 2: Análise de Sensibilidade
onde, S11 é a matriz de sensibilidade do ângulo da tensão das barras P Q em relação às
variações da potência ativa das barras P V ; S21 a matriz de sensibilidade da magnitude
da tensão nas barras P Q com relação às variações de potência ativa das barras P V ; a
equação (2.7) se transforma em,
⎡ ⎤
∆δ P V * +
⎣ ∆δ P Q ⎦ = − S11
∆PP V (2.9)
S21
∆V P Q
e, portanto,
∆VP Q = −S21 ∆PP V
Na prática, nem a inversão explı́cita e nem o particionamento são requeridos, desde que
ao final de um processo convergente de fluxo de potência via método de Newton-Raphson
a matriz Jacobiana é disponı́vel na forma fatorada. Os coeficientes de sensibilidade são
obtidos simplesmente executando-se processos de substituição direta e inversa, numa série
de sistemas lineares cujos lados direitos são as colunas de uma matriz identidade.
Um procedimento semelhante pode ser adotado quando a tensão gerada é tomada como
variável de controle. Neste caso, os incrementos nas variáveis dependentes são expressos
como, ⎡ ⎤
∆δ P V * +
⎣ ∆δ P Q ⎦ − J−1 NA ∆Vf (2.10)
∆VP V
∆VP Q
onde todos os termos foram previamente definidos.
O particionamento conveniente da matriz resultante do produto J−1 NA , fornece
⎡ ⎤
∆δ P V * +* +
⎣ ∆δ P Q ⎦ = − S11 ∆V f
(2.11)
S21 ∆VP V
∆VP Q
onde, S11 é uma matriz de sensibilidade do ângulo das barras P V e P Q com relação às
variações da magnitude da tensão das barras de geração; S21 é uma matriz de sensibili-
dade da magnitude da tensão das barras P Q com relação às variações da magnitude da
tensão das barras de geração; e finalmente,
Da mesma forma que no caso anterior, as linhas de S21 são obtidas executando-se
processos de substituição direta e inversa. Todavia, neste caso os vetores do lado direito
são as colunas da matriz NA .
UFSC / EEL - Labspot - R. S. Salgado 25
Ex. 2.1 Considere o sistema da figura (2.1), o qual é constituı́do de 6 barras (2 geradores,
3 barras de carga e uma barra de transferência). A rede de transmissão é composta de
7 linhas, com transformadores com comutação sob carga entre as barras 3-4 e 5-6. Os
dados das das linhas de transmissão e a solução do fluxo de potência via Newton-Raphson
1
são mostrados nas tabelas 2.1 e 2.2.
1 4 3
5 2
6
Bs h
Linha Barras R X tap
2
(%) (%) (%) (pu)
1 1 - 4 8,00 37,0 1,5 -
2 1 - 6 12,3 51,8 2,1 -
3 2 - 3 72,3 105,0 0,00 -
4 2 - 5 28,2 64,0 0,00 -
5 3 - 4 0,00 13,3 0,00 0,909
6 4 - 6 9,70 40,7 1,5 -
7 5 - 6 0,00 30,0 0,00 0,975
Seja o conjunto completo de equações da rede elétrica selecionado para o cálculo das
1
Os dados e os resultados apresentados neste exemplo foram transcritos da referência [1].
26 Capı́tulo 2: Análise de Sensibilidade
Barra Tipo V δ Pg Qg Pd Qd
(V) graus MW Mvar MW Mvar
1 folga 1,050 0,0000 95,2 43,2 - -
2 PV 1,100 -3,342 50,0 18,4 - -
3 PQ 1,000 -12,78 - - 55,0 13,0
4 PQ 0,929 -9,836 - - 0,00 0,00
5 PQ 0,919 -12,33 - - 30,0 18,0
6 PQ 0,919 -12,23 - - 50,0 5,00
⎡ . ⎤
Pg1 − Pd1 − V1 Vm (G1m cos δ1m + B1m sin δ1m )
⎢ mϵ{K}
. ⎥
⎢ Qg1 − Qd1 − V1 Vm (G1m sin δ1m − B1m cos δ1m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ ⎥
⎢ Pg2 − Pd2 − V2 Vm (G2m cos δ2m + B2m sin δ2m ) ⎥
⎢ mϵ{K} ⎥
⎢ . ⎥
⎢ Qg2 − Qd2 − V2 Vm (G2m sin δ2m − B2m cos δ2m )− ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ Pg3 − Pd3 − V3 Vm (G3m cos δ3m + B3m sin δ3m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ ⎥
⎢ Qg3 − Qd3 − V3 Vm (G3m sin δ3m − B3m cos δ3m )− ⎥
⎢ ⎥
g(u, x, p) = ⎢ ⎥
mϵ{K}
. (2.13)
⎢ Pg4 − Pd4 − V4 Vm (G4m cos δ4m + B4m sin δ4m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ Qg4 − Qd4 − V4 Vm (G4m sin δ4m − B4m cos δ4m )− ⎥
⎢ ⎥
⎢ mϵ{K} ⎥
⎢ . ⎥
⎢ Pg5 − Pd5 − V5 Vm (G5m cos δ5m + B5m sin δ5m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ Qg5 − Qd5 − V5 Vm (G5m sin δ5m − B5m cos δ5m )− ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ ⎥
⎢ Pg6 − Pd6 − V6 Vm (G6m cos δ6m + B6m sin δ6m ) ⎥
⎢ mϵ{K} ⎥
⎣ . ⎦
Qg6 − Qd6 − V6 Vm (G6m sin δ6m − B6m cos δ6m )−
mϵ{K}
( )t
xt = P1 Q1 δ2 Q2 δ3 V3 δ4 V4 δ5 V5 δ6 V6
A matriz de primeiras derivadas das equações da rede elétrica com relação às variáveis
UFSC / EEL - Labspot - R. S. Salgado 27
a qual, para a condição de operação apresentada na tabela 2.2, é dada numericamente por
⎡ ⎤
−1 −2, 57 −0, 11 −1, 81 −0, 03
⎢ −1 0, 10 −2, 77 0, 03 −1, 97 ⎥
⎢ ⎥
⎢ 2, 17 −0, 78 −0, 36 −1, 39 −0, 40 ⎥
⎢ ⎥
⎢ −0, 73 −1, 00 0, 36 −0, 78 0, 36 −1, 52 ⎥
⎢ ⎥
⎢ −0, 62 8, 29 −1, 10 −7, 67 −0, 42 ⎥
⎢ ⎥
⎢ 0, 59 −0, 99 8, 03 0, 39 −8, 26 ⎥
⎢ ⎥
⎢ −7, 67 0, 39 12, 07 1, 03 −2, 00 −0, 42 ⎥
⎢ ⎥
⎢ −0, 39 −7, 67 −0, 96 12, 98 0, 38 −2, 18 ⎥
⎢ ⎥
⎢ −1, 21 4, 10 0, 20 −2, 88 0, 00 ⎥
⎢ ⎥
⎢ 0, 78 −0, 78 4, 07 0, 00 −3, 14 ⎥
⎢ ⎥
⎣ −1, 96 −0, 59 −2, 88 0, 00 6, 48 0, 36 ⎦
0, 55 −2, 11 −0, 00 −3, 13 −1, 33 6, 94
A matriz de primeiras derivadas das equações da rede elétrica com relação às variáveis
de controle é dada por:
⎡ ⎤
1, 95
⎢ 5, 01 ⎥
⎢ ⎥
⎢ 1, 57 ⎥
⎢ ⎥
⎢ 2, 31 ⎥
⎢ ⎥
⎢ −0, 54 ⎥
/ 0 ⎢ ⎥
∂g(u, x, p) ⎢ −0, 56 ⎥
=⎢
⎢
⎥
⎥
∂u ⎢ −0, 92 ⎥
⎢ −2, 27 ⎥
⎢ ⎥
⎢ −0, 71 ⎥
⎢ ⎥
⎢ −1, 01 ⎥
⎢ ⎥
⎣ −0, 74 ⎦
−1, 55
e a matriz de sensibilidade das variáveis dependentes com relação às variáveis de controle
é dada por:
∆V1 ∆V2
(2.14)
⇓ ⇓
⎡ ⎤
∆P1 ⇒ −0, 15 −0, 11
∆Q1 ⇒ ⎢ 1, 14 −1, 83 ⎥
⎢ ⎥
∆δ2 ⇒ ⎢ 0, 79 −0, 48 ⎥
⎢ ⎥
∆Q2 ⇒ ⎢ −1, 74 1, 27 ⎥
⎢ ⎥
∆δ3 ⇒ ⎢ 0, 48 0, 06 ⎥
⎢ ⎥
∆V3 ⇒ ⎢ 0, 84 0, 48 ⎥
⎢ ⎥ (2.15)
∆δ4 ⇒ ⎢ 0, 39 0, 01 ⎥
⎢ ⎥
∆V4 ⇒ ⎢ 0, 83 0, 35 ⎥
⎢ ⎥
∆δ5 ⇒ ⎢ 0, 57 0, 00 ⎥
⎢ ⎥
∆V5 ⇒ ⎢ 0, 58 0, 69 ⎥
⎢ ⎥
∆δ6 ⇒ ⎣ 0, 52 0, 01 ⎦
∆V6 ⇒ 0, 81 0, 42
A matriz de primeiras derivadas das equações da rede elétrica com relação às variáveis
UFSC / EEL - Labspot - R. S. Salgado 29
e a matriz de sensibilidade das variáveis dependentes com relação às variáveis de controle
é dada por:
∆a34 ∆a56
(2.16)
⇓ ⇓
⎡ ⎤
∆P1 ⇒ −1, 30 −0, 03
∆Q1 ⇒ ⎢ −7, 71 0, 74 ⎥
⎢ ⎥
∆δ2 ⇒ ⎢ 1, 14 0, 08 ⎥
⎢ ⎥
∆Q2 ⇒ ⎢ −3, 82 −0, 72 ⎥
⎢ ⎥
∆δ3 ⇒ ⎢ 0, 36 0, 01 ⎥
⎢ ⎥
∆V3 ⇒ ⎢ 2, 95 −0, 01 ⎥
⎢ ⎥ (2.17)
∆δ4 ⇒ ⎢ 0, 09 0, 01 ⎥
⎢ ⎥
∆V4 ⇒ ⎢ 2, 07 −0, 10 ⎥
⎢ ⎥
∆δ5 ⇒ ⎢ 0, 61 0, 00 ⎥
⎢ ⎥
∆V5 ⇒ ⎢ 0, 68 0, 49 ⎥
⎢ ⎥
∆δ6 ⇒ ⎣ 0, 43 0, 00 ⎦
∆V6 ⇒ 1, 01 −0, 23
• os taps têm considerável efeito sobre o carregamento de potência reativa dos gera-
dores.
Deve ser observado, que as matrizes de sensibilidade são determinadas com base numa
aproximação de primeira ordem (linear) e por esta razão sua validade é limitada à vizi-
nhança do ponto de operação onde a expansão em série de Taylor é feita. Portanto, a
precisão dos resultados obtidos através dessas matrizes tende a ser maior quanto menor
for o incremento nas variáveis de controle.
Capı́tulo 3
3.1 Introdução
O Fluxo de Potência Ótimo é uma ferramenta numérica que auxilia a tarefa de otimizar o
estado da operação do sistema de potência em regime permanente. Esta função é melhor
compreendida observando-se o processo de Fluxo de Potência convencional. Neste, o
objetivo é determinar a magnitude e o ângulo da tensão nas barras do sistema, a partir dos
quais outras quantidades podem ser calculadas. As equações envolvidas neste processo
são não lineares e admitem diversas soluções. Destas, a solução do Fluxo de Potência
Ótimo é aquela na qual uma função objetivo (ou ı́ndice de desempenho) é otimizada,
sem violação das restrições de carga (balanço de potência representado pelas equações da
rede), de operação (limites fı́sicos dos equipamentos de geração de potência ativa e reativa
e de magnitude das tensões) e outros tipos de restrições (de segurança, por exemplo)
porventura desejados.
A seleção do ı́ndice a ser otimizado depende do objetivo a ser alcançado na operação
do sistema elétrico. No Despacho Econômico, por exemplo, o qual pode ser visto como
um caso particular de aplicação de técnicas de otimização a sistemas de potência, fatores
econômicos são levados em consideração. Neste tipo de problema, busca-se determinar a
quantidade de potência ativa que cada gerador do sistema deve produzir, tal que o custo
total de geração de potência ativa seja minimizado, e a demanda e as restrições operaci-
onais sejam satisfeitas. O objetivo pode opcionalmente estar relacionado a segurança do
sistema elétrico, consistindo por exemplo, na determinação das modificações nas variáveis
de controle de tal forma que a demanda fosse satisfeita e o sistema tenha a habilidade
adicional de suportar perturbações tais como saı́das forçadas (linhas de transmissão ou
outros equipamentos) ou outros tipos de contingências. Estas modificações podem ser
32 Capı́tulo 3: Fluxo de Potência Ótimo
Minimizar f (u, x)
sujeito a g(u, x) = 0 (3.1)
h(u, x) ≥ 0
onde, u é o vetor das quantidades controláveis; x é o vetor das variáveis dependentes; f (., .)
é a função objetivo; g(., .) é o vetor das funções não-lineares que representam as restrições
UFSC / EEL - Labspot - R. S. Salgado 35
Por outro lado, a técnica numérica diz respeito ao método de solução assim como
aos detalhes numéricos dos passos do algoritmo utilizado. Este aspecto está relacionado
à seleção dentre as variações disponı́veis das técnicas de Programação Linear (P L) e
Programação Não-Linear (P NL), daquela que é mais conveniente a ambas, formulação
analı́tica e precisão desejada.
O problema de Fluxo de Potência Ótimo mostrado aqui é considerado invariante no
tempo (estático). Devido a sua dimensão e também à natureza das não-linearidades
envolvidas, muitos fatores dificultam a obtenção de uma metodologia de solução eficiente.
As caracterı́sticas requeridas de qualquer método de solução envolvem:
• confiabilidade de convergência;
• simplicidade na formulação.
3.2.1 Variáveis
As variáveis envolvidas em um problema de Fluxo de Potência Ótimo podem ser partici-
onadas em dois grupos:
36 Capı́tulo 3: Fluxo de Potência Ótimo
• Variáveis de Controle: são aquelas que podem ser monitoradas diretamente para se
obter a otimalidade desejada; tipicamente,
• Variáveis Dependentes: são aquelas cujo valor é dependente das variáveis de con-
trole. A sua seleção entre as variáveis do sistema de potência está interrelacionada
com a escolha das variáveis independentes. Em geral as variáveis dependentes com-
preendem
Além das variáveis mencionadas, há ainda um conjunto de parâmetros fixos que deve
ser pré-especificado nos estudos em regime permanente. Este grupo é constituı́do pelos
seguintes elementos:
Deve também ser observado que, efetuar a otimização com relação ao conjunto com-
pleto de variáveis de controle simultaneamente apenas adiciona mais complexidade ao
problema. Uma prática freqüentemente adotada, é definir objetivos peculiares a cada
tipo de despacho de potência, tal que dois subproblemas, um envolvendo as variáveis rela-
cionadas a potência ativa e outro relativo às variáveis correspondentes a potência reativa
são resolvidos. Em cada caso, um conjunto limitado e diferente de variáveis de controle é
assumido, o que facilita razoavelmente a solução do problema. A solução do despacho de
potência completo é obtida resolvendo-se alternadamente os subproblemas mencionados.
O Fluxo de Potência Ótimo convencionalmente não leva em consideração modificações
bruscas e de grande magnitude em variáveis discretas que tenham maior impacto no des-
pacho de potência ativa-reativa, tais como chaveamentos de linhas de transmissão, comis-
sionamento das unidades geradoras, etc, apesar de que tais problemas também podem
ser formulados utilizando-se a teoria de otimização estática. Por outro lado, a despeito
de que rigorosamente o corte de carga faria parte da categoria das variações de grande
magnitude, tal procedimento pode com relativa facilidade ser incorporado ao processo
como variável de controle.
Dispositivos de controle com saı́da discreta (bancos de capacitores, reatores, e mesmo
taps de transformadores com comutação sob carga) são difı́ceis de serem modelados. No
que diz respeito aos taps, um procedimento geralmente adotado é considerar os mesmos
como variáveis contı́nuas durante o processo e, caso na solução ótima o valor do tap se
situe entre dois valores fisicamente viáveis, ajustá-lo para o valor mais próximo.
Quanto a inclusão das unidades hidrelétricas no problema de despacho de potência, três
formas simples podem ser utilizadas caso não se deseje maiores modificações na técnica
numérica de solução:
• considerar valores fixos para o nı́vel de geração de potência ativa fornecido pelo
planejamento da operação deste tipo de unidade geradora;
• usar curvas de custo fictı́cias semelhantes as das funções de custo de geração das
usinas termelétricas.
3.2.2 Restrições
Dois tipos de restrições podem ser observados no problema de otimização representado
pela equação (3.1):
• as Restrições de Igualdade;
• as Restrições de Desigualdade.
38 Capı́tulo 3: Fluxo de Potência Ótimo
• em termos dos valores totais de potência gerada, consumida e de perdas, o que pode
ser sumarizado como
,n ,n
Pg i − Pdi − Pl = 0 (3.2)
i=1 i=1
onde, Pgi é a potência ativa gerada na barra i, Pdi é a potência ativa demandada na
barra i e Pl é a perda de potência ativa nas linhas de transmissão, cada somatória
envolvendo as n barras do sistema elétrico.
onde, Pgi e Qgi são as potências ativa e reativa geradas na barra i, Pdi e Qdi são as
potências ativa e reativa demandadas na barra i e Pi (V, δ) e Qi (V, δ) são as injeções de
potência ativa e reativa na barra i.
A alternativa de usar uma dessas duas formas numa metodologia de solução do pro-
blema de Fluxo de Potência Ótimo diz respeito apenas a formulação matemática do
algoritmo. O balanço de potência ativa total é geralmente utilizado nos problemas de
despacho econômico clássico, requerendo a solução das equações da rede como uma etapa
complementar.
As Restrições de Desigualdade são incluı́das no problema para representar os limites
fı́sicos dos componentes e a prática de operação do sistema elétrico (elas também são
chamadas Restrições Operacionais), e/ou aspectos de segurança relacionados a operação
do sistema (Restrições de Segurança). As restrições deste tipo podem ser divididas em
três grupos:
• Restrições nas Variáveis de Controle, as quais tem como objetivo refletir as li-
mitações fı́sicas dos equipamentos utilizados no despacho de potência. Limites nas
gerações de potência ativa / reativa, na magnitude das tensões geradas, nos taps
dos transformadores com comutação sob carga, são as restrições mais comuns deste
tipo;
de potência reativa e/ou nos fluxos de potência ativa e/ou reativa pertencem, a este
tipo de restrição. Note que essas grandezas podem ser expressas como uma função
da magnitude e do ângulo da tensão nas barras do sistema de potência.
Diversas considerações podem ser feitas com relação a cada um desses fatores. A
seleção do objetivo conveniente é em geral efetuada com base numa cuidadosa análise
dos aspectos relacionados a economia e segurança do sistema. É praticamente impossı́vel
definir uma função escalar cujo valor ótimo corresponda ao melhor estado de operação
do sistema. Isto faz com que a definição da função objetivo esteja entre os aspectos
menos desenvolvidos do problema de Fluxo de Potência Ótimo. Apesar do grande número
de metodologias propostas para a solução deste problema, durante algum tempo houve
dúvidas sobre se a modelagem de uma função objetivo deve ser feita de forma a torná-
la apropriada ao algoritmo de otimização, ou vice-versa. Todavia, a despeito dessas
dificuldades, muitas funções objetivo tem sido propostas, as quais podem ser classificadas
com base nos seguintes pontos:
– Modo Preventivo
No estágio de planejamento da operação a curto prazo, com as curvas de custo
convencionais e a curva de carga do sistema, determina-se a distribuição ótima
de potência ativa para cada ponto relevante da curva de carga.
– Modo Corretivo
Suponha que no modo preventivo para um dado nı́vel da carga uma determi-
nada distribuição de potência ativa Pesp
g foi obtida e que durante a operação
do sistema alguma contingência impede que esta distribuição seja obedecida.
O programa de Fluxo de Potência Ótimo pode ser executado para minimizar
o desvio do custo mı́nimo. Se curvas quadráticas representam a função custo
de geração, a nova função a ser minimizada seria
resolvido. Para esta finalidade, o método de solução descrito na seção anterior for-
nece soluções com um esforço computacional reduzido. Na sua concepção original,
a aplicação deste método supõe a disponibilidade das curvas de custo de geração, o
que em alguns casos constitui uma limitação à sua aplicação. Entretanto, é possı́vel
explorar a metodologia de solução deste problema mesmo no caso da indisponibi-
lidade das curvas de custo. Nesta situação, utiliza-se um ı́ndice alternativo para a
otimização denominado Mı́nimo Desvio Quadrático Ponderado de uma Distribuição
de Potência Ativa Pré-especificada.
• Fatores de ponderação unitários (αi = 1, 0): o efeito deste tipo de ponderação é que
os desvios são penalizados de forma semelhante, independentemente da localização,
da capacidade das unidades geradoras, ou do custo da potência ativa gerada;
• Fatores de ponderação selecionados como
1
αi = (3.7)
|PgMi − Pgmi |
Neste caso, os desvios resultantes do processo de otimização são proporcionais à
capacidade nominal das unidades em termos de potência ativa. Assim, os maiores
desvios tenderão a ser atribuı́dos às unidades geradoras com maior capacidade, o
que é razoável em termos de operação do sistema de potência.
Outros tipos de ponderações podem ser utilizados. Por exemplo, se os fatores de
ponderação fossem escolhidos como αi = ci , onde ci é o coeficiente da curva de custo de
geração de potência ativa da unidade k, os desvios seriam penalizados de acordo com o
coeficiente do termo quadrático da curva de custo de geração da unidade, o qual é suposto
ter a maior influência na forma desta função objetivo.
bi → − 2αi Pgiesp
c i → αi
44 Capı́tulo 3: Fluxo de Potência Ótimo
O uso desses coeficientes fictı́cios permite que o algoritmo desenvolvido para a solução
do problema de Despacho Econômico clássico seja aplicado na otimização de um ı́ndice
de desempenho de mı́nimos desvios, sem que seja necessário modificar a forma de busca
da solução ótima. Observe-se que, desde que o coeficiente α é sempre positivo, a função
de mı́nimos desvios sempre terá um ponto de mı́nimo.
• Mı́nima Ação de Controle:
Em caso de condições de emergência, verdadeiras ou simuladas, é algumas vezes
inevitável a presença de violações nas restrições de desigualdades. Num sistema de
controle em tempo real, o operador pode desejar saber como remover as violações
redistribuindo o mı́nimo número de unidades. Isto não é um problema tı́pico de
programação não-linear, porém pode levar a sub-otimização através da lógica sim-
ples, heurı́stica, utilizando-se as sensibilidades dos controles em relação as restrições
violadas.
• Mı́nimo Corte de Carga
Considerado como o último recurso do controle, quando o problema de Fluxo de
Potência Ótimo é constatado não ter solução viável. Desde que o corte de carga é
uma ação de chaveamento discreta, torna-se difı́cil modelá-lo com precisão. Além
disso, esta medida corretiva afeta simultaneamente os problemas P − δ e Q − V .
Aproximações, entretanto, podem ser usadas. Na operação estática do sistema de
potência, a necessidade de corte de carga em geral aparece como consequência de
fluxos de potência não convenientes circulando nas linhas de transmissão (sobre-
cargas, etc). Desde que estas sobrecargas tem predominantemente um efeito na
potência ativa, a prioridade é reduzir a potência ativa da carga. Por outro lado,
a carga numa barra pode ser divisı́vel num número inteiro de partes. Fatores de
ponderação podem ser utilizados para penalizar mais (ou menos) intensamente o
corte de determinadas cargas. Até mesmo curvas de custo podem ser utilizadas
levando-se em conta a natureza das cargas (sinal contrário ao da potência gerada).
• Mı́nima Violação
Se a solução das equações da rede elétrica na qual todos os limites são satisfeitos for
detectada inviável, uma estratégia possı́vel consiste em verificar se o sistema pode
ser operado com uma pequena tolerância a certas violações (das restrições mais
amenas). Neste caso, funções de penalidade podem ser utilizadas ou, se conveniente
ao algoritmo de otimização, a relaxação de limites pode ser vista como uma uma
medida alternativa.
Apesar de que teoricamente o processo de minimização poderia ser executado em
relação a qualquer conjunto de variáveis, as funções objetivo citadas são todas expressas
em termos da potência ativa gerada. A principal vantagem de se tomar essas variáveis
como controles é que as restrições que dizem respeito a operação dos equipamentos (es-
pecificamente modelos de geração) refletem mais efetivamente as limitações fı́sicas desses
equipamentos. Além disso, na solução do problema de Fluxo de Potência convencional
que faz parte de um grande número de metodologias, os valores de potência ativa gerada
especificados nas barras P V devem ser exatamente os mesmos obtidos no processo de
otimização.
UFSC / EEL - Labspot - R. S. Salgado 45
e desde que
(Pgi − Pdi ) − Pi (V, δ) = 0
então n
,
Pl = Pi (V, δ) (3.9)
i=1
onde Pij (V, δ) é o fluxo de potência ativa na linha de transmissão que conecta as
barras i e j, expresso em função da magnitude e do ângulo das tensões nodais.
Alternativamente, fórmulas de perdas como função das injeções de potência podem
ser derivadas da expressão
Pl + jQl = It∗
barra Zbarra Ibarra (3.10)
apenas para a condição especı́fica na qual a fórmula aproximada havia sido calcu-
lada. Para variações contı́nuas no sistema de potência, a determinação da expressão
da perda poderia requisitar um considerável esforço computacional. Além disso, a
forma simplificada desta expressão necessariamente envolvia suposições que intro-
duziam erros significantes. Conseqüentemente, apesar do uso por muitos anos da
fórmula de perda, novas modelagens foram propostas para representar com mais
precisão e eficiência as perdas do sistema.
Muitas abordagens que utilizam a equação de balanço de potência como ponto de
partida, são baseadas na possibilidade de expressar as equaçãoes (3.9) e (3.10) como
funções do ângulo e magnitude das tensões nodais e dos taps dos transformadores.
No caso de sistemas de grande porte, onde o cálculo das perdas de potência no
sistema de transmissão e das suas derivadas demanda muito esforço computacional,
uma formulação alternativa consiste em considerar a potência ativa gerada na barra
de folga como a única das barras de geração que é função daquelas variáveis. Desde
que a esta barra é designada a tarefa especı́fica de compensar matematicamente as
perdas no balanço de potência, o gradiente da injeção de potência ativa nesta barra
será idêntico ao das perdas totais de potência ativa no sistema. A vantagem de se
utilizar este procedimento é que a injeção de potência ativa na barra de folga é uma
função explı́cita apenas das tensões complexas das barras diretamente conectadas a
ela por um elemento de transmissão. Esta função e suas derivadas são relativamente
fáceis de serem calculadas e requerem menor esforço computacional.
É ainda possı́vel derivar das equações (3.9) e (3.10) fórmulas quadráticas da perda
de potência no sistema de transmissão. De maneira análoga aos casos anteriores, a
escolha da modelagem a ser utilizada está associada a seleção da técnica numérica
e ao nı́vel de precisão desejado.
• Mı́nima Somatória dos Desvios Quadráticos Ponderados de uma Distribuição de
Potência Reativa Pré-especificada
Este ı́ndice é semelhante aquele mencionado como uma opção na otimização do
despacho de potência ativa. Ele pode ser utilizado de várias formas, dependendo
da escolha do valor especificado da distribuição de potência reativa e da escolha dos
fatores de ponderação. A sua forma analı́tica generalizada é
,
f (∆Qgi ) = αi ∆Q2gi
iϵ{GQ }
Da mesma forma que no caso da equação (3.6), este objetivo é muito adequado
para fins de despacho corretivo. Ele estabelece que decréscimos ou acréscimos de
potência a partir de uma distribuição especificada devem ser penalizados.
UFSC / EEL - Labspot - R. S. Salgado 47
onde Qgi e ANi são a potência reativa gerada e o valor nominal da i-ésima unidade
geradora.
A uniformização da distribuição das margens de potência reativa é um critério
razoável quando a reserva de potência reativa é maximizada. Desde que a priori, a
probabilidade de falha das fontes de potência reativa é a mesma ao longo do sistema
elétrico, a distribuição uniforme pode ser considerada como a mais adequada. Na
verdade, este critério tende a evitar variações abruptas e de grande magnitude nos
valores das variáveis de controle para restaurar a viabilidade do sistema em termos
das restrições de desigualdade após contingências, ou mesmo face as variações da
carga.
Desde que a minimização das perdas de potência ativa nas linhas de transmissão tem
um efeito de segunda ordem sobre o custo de geração, a maximização das margens
de potência reativa proporcionalmente aos valores nominais das unidades pode ser
visto como um critério de segurança a ser combinado com um objetivo relacionado
ao fator econômico, tal que o despacho completo de potência possa refletir ambos
os aspectos. Esta possibilidade constitui um dos principais atrativos ao uso deste
ı́ndice no despacho de potência reativa.
e pode ser considerado como um caso particular do ı́ndice dado pela equação (3.11).
No caso em questão, o resultado esperado é um nı́vel baixo de potência reativa com
tensões num nı́vel mı́nimo aceitável da magnitude das tensões.
matemática é n
,
f (Vi ) = (Vi − VNi )2 (3.13)
i=1
e
Qdi = (Q0di + ρ∆Qdi )
onde, Pd0i e Q0di são as demandas de potências ativa e reativa da barra i, respectiva-
mente, especificadas para um caso base; ∆Pdi e ∆Qdi são os incrementos de carga
de potências ativa e reativa e ρ é denominado parâmetro da carga.
A determinação do carregamento máximo consiste em maximizar o parâmetro da
carga, de forma que o balanço de potência em cada barra e as restrições operacionais
sejam satisfeitos. Note que o fator de potência da carga de cada barra é mantido
constante.
Outros objetivos tem sido propostos na literatura, a maioria dos quais relacionados ao
aspecto de segurança do sistema de potência. Os seguintes podem ser citados:
• Minimização das Perdas de Potência Reativa nas Linhas de Transmissão, cujo ob-
jetivo é reduzir o efeito de linhas de transmissão altamente carregadas;
Vjm ≤ Vj ≤ VjM
am M
kj ≤ akj ≤ akj
onde, Ci (Pgi ) é a curva de custo de geração da i-ésima unidade geradora, Pgj e Qgj são
as potências ativa e reativa geradas na j-ésima barra, Pdj e Qdj são as potências ativa e
reativa demandadas na j-ésima barra, Pj (V, δ) e Qj (V, δ) são as injeções de potência ativa
e reativa, expressas em função da magnitude (V ), do ângulo (δ) das tensões nodais e do
tap dos transformadores (a). Os ı́ndices m e M denotam os limites inferior e superior,
respectivamente.
Neste tipo de problema, as variáveis de otimização naturalmente selecionadas são: as
potências ativas geradas (Pgi ), a magnitude da tensão em todas barras (V i), o ângulo da
tensão em todas as barras com exceção da barra de referência angular (δi ) e o tap dos
transformadores com comutação sob carga (akl ).
50 Capı́tulo 3: Fluxo de Potência Ótimo
onde Ci (Qgi ) representa a curva de custo da injeção de potência reativa na barra i, sujeito
às mesmas restrições operativas expressas na equação 3.14.
A injeção de potência reativa é basicamente proveniente dos geradores, dos elementos
de compensação shunt (capacitores e indutores) e dos compensadores estáticos, envolvendo
também a comutação de taps de transformadores. Estes fatores dificultam a quantificação
UFSC / EEL - Labspot - R. S. Salgado 51
Maximizar ρ
sujeito a Pgj − (Pd0j + ρ∆Pdj ) − Pj (V, δ, a) = 0
Qgj − (Q0dj + ρ∆Qdj ) − Qj (V, δ, a) = 0
Pgmj ≤ Pgj = (Pd0j + ρ∆Pdj ) + Pj (V, δ, a) ≤ PgMj (3.16)
0
Qmgj ≤ Qgj = (Qdj + ρ∆Qdj ) + Qj (V, δ, a) ≤ QM
gj
Vjm ≤ Vj ≤ VjM
am M
kj ≤ akj ≤ akj
Diversos objetivos podem ser representados por funções lineares tanto no despacho de
potência ativa como no despacho de potência reativa, no modo preventivo ou no modo
corretivo. No caso da distribuição ótima de potência ativa, os seguintes ı́ndices podem
ser citados [3, 4]:
• Minimização da soma ponderada dos valores absolutos dos desvios de uma distri-
buição de potência reativa pré-especificada;
• confiabilidade;
• facilidade de implementação;
O Método de Newton
Esta forma de solução ótima, proposta em [5], é apontada na literatura como uma das
mais importantes aplicações de algoritmos de Programação Não-Linear ao problema de
Fluxo de Potência Ótimo. Esta aplicação resultou do desenvolvimento de um trabalho
de pesquisa desenvolvido pelo Electric Power Research Institute (EPRI), tendo sido pro-
duzido pelo referido instituto um programa computacional, utilizado durante um certo
tempo por parte da indústria de energia elétrica.
O procedimento para a aplicação do método de Newton a um problema de otimização
com restrições da forma
Minimizar f (x)
sujeito a g(x) = 0
é baseado nos seguintes passos principais:
• formação da função Larangeana;
• aplicação das condições de otimalidade de primeira ordem, o que resulta num con-
junto de equações não lineares expresso por
∇x £(x, λ) = ∇x f (x) − ∇x g(x)t λ = 0
∇λ £(x, λ) = − g(x) = 0
em que a função objetivo é minimizada; isto é, não são necessárias soluções intermediárias
do fluxo de potência convencional. Sua principal desvantagem é a forma de tratamento das
restrições de desigualdade. Diversas estratégias foram testadas para esta finalidade, desde
o uso de funções de penalidade quadráticas até a realização de iterações experimentais
[5], nenhuma possuindo um desempenho completamente satisfatório.
Minimizar f (x)
sujeito a g(x) = 0
h(x) ≥ 0
A solução deste problema via algoritmos de Pontos Interiores requer a realização dos
seguintes passos:
h(x) − s = 0, s≥0
Método de Newton
∂f (x)
= ∇f (x) = Gx + b
∂x
e
∂ 2 f (x)
2
= ∇2 f (x) = G
∂x
A matriz de segundas derivadas de f (x) tem as seguintes propriedades:
• a matriz G é constante;
Gx∗ = −b
e
xk+1 = xk + ∆xk+1
No caso da função quadrática existe um único (ou nenhum) ponto estacionário. Porém
quando f (x) é de ordem mais elevada que quadrática, podem haver diversos pontos esta-
cionários ou mı́nimos. Neste caso, a seleção de x0 torna-se crı́tica. O ponto x0 deve estar
situado na região de convergência do método de Newton para x∗ , ou de outra forma o
método convergirá para um ponto indesejável ou mesmo para um ponto de sela. Supõe–se
que uma boa seleção para x0 é possı́vel à partir do conhecimento do problema prático a
ser resolvido.
O procedimento adotado no caso da minimização de uma função quadrática pode ser
estendido para a determinação de pontos estacionários de funções de ordem mais elevada.
A principal diferença é que neste último caso a primeira derivada da função não será linear
e um método iterativo deve ser empregado na determinação dos pontos estacionários (o
método de Newton-Raphson para a determinação de raı́zes de uma equação, por exemplo).
UFSC / EEL - Labspot - R. S. Salgado 61
4.1.2 Algoritmo
O procedimento para a determinação do ponto de mı́nimo de uma função qualquer via
método de Newton pode ser sumarizado na execução dos seguintes dois passos:
k=0
1. Selecionar xk ;
f (x)
Aproximação
quadrática de f (x) em x0
Aproximação
quadrática de f (x) em x1
Aproximação
quadrática de f (x) em x2
∆x2 ∆x1 ∆x0
x∗ x2 x1 x0 x
Solução ótima
f (x)
Aproximação linear
de f (x) em x0
x2 x1 ∆x0 x0 x
raiz de f (x)
Minimizar f (x)
sujeito a g(x) = 0
onde, f (x) é uma função objetivo não-linear das variáveis x; x é um vetor n-dimensional;
e g(x) é um vetor m-dimensional das equações não lineares que representam as restrições
de igualdade.
A solução deste problema pode ser obtida através do método de Newton, adotando-se
o seguinte procedimento:
/ 0t '' / 0t ''
∂£(x, λ) ' ∂£(x, λ) '
' ∆x + ' ∆λ+
∂x ' k k ∂λ ' k k
(x ,λ ) (x ,λ )
/ 2 0' / 2 0'
1 t ∂ £(x, λ) '' 1 t ∂ £(x, λ) ''
∆x ' k k ∆x + 2 ∆x ' k k ∆λ+
2 ∂x2 (x ,λ ) ∂x∂λ (x ,λ )
/ 2 0' / 2 0'
1 ∂ £(x, λ) '' 1 ∂ £(x, λ) ''
∆λt ' k k ∆x + ∆λ t
' k k ∆λ
2 ∂λ∂x (x ,λ ) 2 ∂λ2 (x ,λ )
5. Caso o ponto (xk , λk ) não seja um ponto estacionário, minimize a função ∆£(∆x, ∆λ).
Neste caso, a aplicação das condições de otimalidade à função Lagrangeana resulta
em
∂∆£(∆x, ∆λ)
= 0 = ∇x £(xk , λk ) + ∇2xx £(xk , λk )∆x + ∇2x,λ£(xk , λk )∆λ
∂∆x
∂∆£(∆x, ∆λ)
= 0 = ∇2T k k k k
x,λ £(x , λ )∆x + ∇λ £(x , λ )
∂∆λ
ou, em forma matricial,
* 2 +* + * +
∇xx £(xk , λk ) ∇2x,λ £(xk , λk ) ∆x ∇x £(xk , λk )
=−
∇2T k k
x,λ £(x , λ ) 0 ∆λ ∇λ £(xk , λk )
e, denotando * +
∆x
∆z =
∆λ
* + * +
∇2xx £(xk , λk ) ∇2x,λ £(xk , λk ) H(xk , λk ) −J(xk )
W= =
∇2T k k
x,λ £(x , λ ) 0 −Jt (xk ) 0
e * +
∇x £(xk , λk )
∆b = −
∇λ £(xk , λk )
o sistema linear pode ser expresso como
W∆z = ∆b
• Conforme indicado na notação, J(x) é uma função de x, enquanto que H(x, λ) é uma
função de x e λ. A matriz Hessiana (n × n), G(x), de f (x), é uma das componentes
de H(x, λ);
• A matriz W não é positiva definida e pode ser singular. Precauções especiais podem
ser tomadas para prevenir a singularidade de W durante o processo iterativo;
66 Capı́tulo 4: Método de Newton
• Quando W(x, λ) não é uma matriz constante, não é possı́vel a solução direta para
(x∗ , λ∗ ). Entretanto, a aplicação das aproximações quadráticas sucessivas permite
que o método de Newton seja utilizado para minimizar uma função multivariável e
determinar a solução ótima (x∗ , λ∗ ). Observe-se que em cada ponto da aproximação
quadrática o método de Newton pode ser usado para calcular as raı́zes do gradiente
da função que está sendo minimizada;
• A equação matricial para a determinação da correção (∆x, ∆λ), aplicada a cada
iteração no método de Newton para a minimização da função Lagrangeana genera-
lizada é * +* + * +
H(xk , λk ) −J(xk ) ∆x ∇x £(xk , λk )
=−
−Jt (xk ) 0 ∆λ ∇tλ £(xk , λk )
A análise dos componentes do vetor do lado direito deste sistema linear permite notar
que:
• ∇x £(xk , λk ) = ∇f (x) − ∇g(x)t λ está relacionado à condição de otimalidade de
primeira ordem. Na solução ótima ∇f (x) − ∇g(x)t λ = 0 indicando que uma das
condições de otimalidade de Karush-Kuhn-Tucker é satisfeita;
• ∇tλ £(xk , λk ) = −g(x) são as equações que representam as restrições de igualdade,
as quais devem ser satisfeitas na solução, ou seja g(x) = 0.
Ex. 4.1 Determinar através do método de Newton, a solução do seguinte problema de
otimização:
Minimizar
f (x) = x21 + 2x22 + 4x23 + 5x1 x2
sujeito a * + * +
g1 (x) x1 + x22 + 3x2 x3 − 5 = 0
g(x) = =
g2 (x) x21 + 5x1 x2 + 3x23 − 9 = 0
Solução:
• Função Lagrangeana:
* +
t
( ) g1 (x)
£(x, λ) = f (x) − λ g(x) = f (x) − λ1 λ2
g2 (x)
* +
( ) x1 + x22 + 3x2 x3 − 5 = 0
£(x, λ) = x21 + 2x22 + 4x23 + 5x1 x2 − λ1 λ2
x21 + 5x1 x2 + 3x23 − 9 = 0
⎡ ⎤
(2x1 + 5x2 ) − λ1 − λ2 (2x1 + 5x2 )
* + 1 2 ⎢ (5x1 + 4x2 ) − λ1 (2x2 + 3x3 ) − λ2 (5x1 ) ⎥
∇x £(x, λ) ∂£(x,λ) ⎢ ⎥
= ∂x
∂£(x,λ) =⎢
⎢ 8x3 − λ1 (3x2 ) − λ2 (6x3 ) ⎥
⎥
∇λ £(x, λ) ⎣ ⎦
∂λ −(x1 + x22 + 3x2 x3 − 5)
−(x21 + 5x1 x2 + 3x23 − 9)
UFSC / EEL - Labspot - R. S. Salgado 67
* + * +
∇2xx £(xk , λk ) ∇2x,λ £(xk , λk ) H(xk , λk ) −J(xk )
=
∇2T k k
x,λ £(x , λ ) 0 −Jt (xk ) 0
⎡ ⎤
2 − 2λ2 5 − 5λ2 −1 −(2x1 + 5x2 )
⎢ 5 − 5λ2 4 − 2λ1 −3λ1 −(2x2 + 3x3 ) −5x1 ⎥
⎢ ⎥
=⎢
⎢ −3λ1 8 − 6λ2 −3x2 −6x3 ⎥
⎥
⎣ −1 −(2x2 + 3x3 ) −3x2 0 0 ⎦
−(2x1 + 5x2 ) −5x1 −6x3 0 0
( ) ( )
x0t λ0t = 0 0, 5 0, 5 1, 0 1, 0
⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −1 −2, 5
5 ∆x1 −1, 0
⎢ 5 −2, 5
4 ⎥ ⎢ ⎥ ⎢ −0, 5 ⎥
⎢ ⎥ ⎢ ∆x2 ⎥ ⎢ ⎥
⎢ 2 −1, 5 −3, 0 ⎥ ⎢ ⎥=⎢ −0, 5 ⎥
⎢ ⎥ ⎢ ∆x3 ⎥ ⎢ ⎥
⎣ −1 −2, 5 −1, 5 0 0 ⎦ ⎣ ∆λ1 ⎦ ⎣ 4, 0 ⎦
−2, 5 −3, 0 0 0 ∆λ2 8, 25
( ) ( )
∆xt ∆λt = 3, 2798 0, 2780 0, 0168 0, 0022 −0, 4009
( ) ( )
x∗t λ∗t = 1, 000 1, 000 1, 000 0, 9334 0, 8667
68 Capı́tulo 4: Método de Newton
• A análise do sinal das variáveis duais (uma associada a cada restrição de desigual-
dade incluı́da no conjunto) indicará se este conjunto é o correto.
A principal vantagem deste tipo de procedimento é a sua simplicidade. Por outro lado,
dois aspectos desse tipo de estratégia podem ser citados como desvantagens:
0 xlim x∗ x
Minimizar f (x) = (x1 − 1)2 + (x2 − 2)2 + (x3 − 3)2 + (x4 − 4)2
⎡ ⎤ ⎡ ⎤
g1 (x) ≥ 0 −x1 − x2 − x3 − x4 + 5 ≥ 0
⎢ g2 (x) ≥ 0 ⎥ ⎢ −3x1 − 3x2 − 2x3 − x4 + 10 ≥ 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ g3 (x) ≥ 0 ⎥ ⎢ x1 ≥ 0 ⎥
sujeito a g(x) ≥ 0 ⇒ ⎢ ⎢ ⎥=⎢ ⎥
⎥ ⎢ ⎥
⎢ g4 (x) ≥ 0 ⎥ ⎢ x2 ≥ 0 ⎥
⎣ g5 (x) ≥ 0 ⎦ ⎣ x3 ≥ 0 ⎦
g6 (x) ≥ 0 x4 ≥ 0
g1 (x) = − x1 − x2 − x3 − x4 + 5 = 0
é ativa.
UFSC / EEL - Labspot - R. S. Salgado 71
• Função Lagrangeana:
£(x, λ) = (x1 − 1)2 + (x2 − 2)2 + (x3 − 3)2 + (x4 − 4)2 − λ1 [−x1 − x2 − x3 − x4 + 5]
⎡ ⎤
2(x1 − 1) + λ1
* + 1 2 ⎢ 2(x2 − 2) + λ1 ⎥
∇x £(x, λ) ∂£(x,λ) ⎢ ⎥
= ∂x
∂£(x,λ) =⎢
⎢ 2(x3 − 3) + λ1 ⎥
⎥
∇λ £(x, λ) ⎣ ⎦
∂λ 2(x4 − 4) + λ1
−(−x1 − x2 − x3 − x4 + 5)
* + * +
∇2xx £(xk , λk ) ∇2x,λ £(xk , λk ) H(xk , λk ) −J(xk )
=
∇2T k k
x,λ £(x , λ ) 0 −Jt (xk ) 0
⎡ ⎤
2 0 0 0 1
⎢ 0 2 0 0 1 ⎥
⎢ ⎥
=⎢
⎢ 0 0 2 0 1 ⎥
⎥
⎣ 0 0 0 2 1 ⎦
1 1 1 1 0
( ) ( 1 3 1
)
x0t λ0t = 2
1 2
2 2
⎡ ⎤⎡ ⎤ ⎡ ⎤
2 1 ∆x1 −1/2
⎢ 2 1 ⎥⎢ ∆x2 ⎥ ⎢ −3/2 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ 2 1 ⎥⎢ ∆x3 ⎥ = −⎢ −5/2 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ 2 1 ⎦⎣ ∆x4 ⎦ ⎣ −7/2 ⎦
1 1 1 1 0 ∆λ1 0
( ) ( )
∆xt ∆λ = − 34 − 14 + 14 + 43 2
72 Capı́tulo 4: Método de Newton
( )
• Cálculo da magnitude do passo na direção ∆xt ∆λ (desde que a solução está
situada na região das soluções viáveis, o fator de passo 0 ≤ α ≤ 1, deve ser tal que
nenhuma restrição é violada). Tomando xk = xk−1+α∆xk (onde k é o número da
iteração), o menor valor de α para o qual nenhuma restrição é violada é 32 (devido
a restrição g3 (x)). Isto é, com este valor do fator de passo a restrição x1 ≥ 0 se
torna ativa.
• Atualização das variáveis:
⎡ ⎤ ⎡ ⎤
x01 + α∆x1 0
* + ⎢ x02 + α∆x2 ⎥ ⎢ 5/6 ⎥
x1 ⎢ ⎥ ⎢ ⎥
=⎢
⎢ x03 + α∆x3 ⎥=⎢
⎥ ⎢ 5/3 ⎥
⎥
λ ⎣ ⎦ ⎣ ⎦
x04 + α∆x4 5/2
λ01 + α∆λ1 11/6
1. Jt λ∗ = ∇x f (x∗ ), isto é, o gradiente da função objetivo deve ser expresso como uma
combinação linear dos vetores gradientes das restrições ativas;
2. Rt HR deve ser positiva definida (R é a matriz cujas colunas são a base do espaço
nulo da matriz J).
∂ 2 £(Pg ,λ) ∂ 2 PL
= 2c i +
∂P2gi ∂Pg2i
/ 0
∂ 2 £(Pg ,λ) ∂ 2 £(Pg ,λ) ∂PL
= =− 1−
∂Pgi ∂λ ∂λ∂Pgi ∂Pgi
∂ 2 £(Pg ,λ)
=0
∂λ2
• O sistema linear a ser resolvido a cada iteração do método de Newton é da forma
⎡ ; < ⎤⎡ ⎤
∂ 2 PL ∂PL
2c1 + 2 0 ... − 1 − ∆Pg1
⎢ ∂Pg1
; ∂Pg1
< ⎥ ⎢ ∆Pg2 ⎥
⎢ ⎥
⎥⎢ ⎥
2
⎢ 0 2c2 + ∂∂PP2L ... − 1 − ∂PL
⎢ ∂Pg2 ⎥⎢ ⎥
⎥=
⎥⎢
g2
⎢ .. ..
⎢ ⎥⎢ .. ⎥
⎣ ; . < ; ... < ... . ⎦⎣ . ⎦
∂PL ∂PL
− 1− ∂Pg1
− 1 − ∂Pg2 ... 0 ∆λ
⎡ ∂PL ⎤
(b1 + 2c1 Pg1 ) − λ(1 − ∂P g1
)
⎢ (b + 2c P ) − λ(1 − ∂PL ) ⎥
⎢ 2 2 g2 ∂Pg2 ⎥
⎢ ⎥
⎢ ⎥
−⎢
⎢ .. ⎥
⎥
⎢ 9 . : ⎥
⎢ N ⎥
⎣ . .
N ⎦
Pgi − Pdj − PL = 0
i=1 j=1
Ex. 4.3 Considere dois geradores suprindo potência a uma carga de 3 MW, conforme
mostra a figura 4.4. Os geradores possuem curvas de custo de geração de potência ativa
Gerador 1 Gerador 2
Linha de Transmissão
Carga 1 Carga 2
dadas por
∂£(P1 , P2 , λ)
= 2, 20P1 − λ = 0
∂P1
∂£(P1 , P2 , λ)
= 1, 76P2 − λ = 0
∂P2
∂£(P1 , P2 , λ)
= −(P1 + P2 − 3) = 0
∂λ
e o sistema linear a ser resolvido a cada iteração do método de Newton é expresso como
⎡ ⎤⎡ ⎤
2, 20 0, 00 −1 ∆P1
⎣ 0, 00 1, 76 −1 ⎦ ⎣ ∆P2 ⎦ =
−1 −1 0, 00 ∆λ
⎡ ⎤
2, 20P1 − λ
− ⎣ 1, 76P2 − λ ⎦
−(P1 + P2 − 3)
Para as condições iniciais especificadas,
⎡ ⎤⎡ ⎤
2, 20 0, 00 −1, 00 ∆P1
⎣ 0, 00 1, 76 −1, 00 ⎦ ⎣ ∆P2 ⎦ =
−1, 00 −1, 00 0, 00 ∆λ
⎡ ⎤
1, 20
− ⎣ 0, 76 ⎦
+1
cuja solução e correspondentes variáveis atualizadas são
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 0, 3333 P1 1, 3333
⎣ ∆P2 ⎦ = ⎣ 0, 6667 ⎦ ⇒ ⎣ P2 ⎦ = ⎣ 1, 6667 ⎦
∆λ 1, 9333 λ 2, 9333
Custo
1,33 Pg 1
Pg 2
Ex. 4.4 No sistema do exemplo anterior, determinar a potência de saı́da de cada gerador
na solução de mı́nimo custo de geração supondo que as perdas de potência ativa nas linhas
de transmissão são dadas por
Pl = 0, 025P12 + 0, 020P22 MW
∂£(P1 , P2 , λ)
= 2, 20P1 − λ (1 − 0, 050P1) = 0
∂P1
∂£(P1 , P2 , λ)
= 1, 76P2 − λ (1 − 0, 040P2) = 0
∂P2
∂£(P1 , P2 , λ)
= −(P1 + P2 − 3 − 0, 025P12 − 0, 020P22) = 0
∂λ
UFSC / EEL - Labspot - R. S. Salgado 79
Custo $
Incremental ( )
MW h
2,93
e o sistema linear a ser resolvido a cada iteração do método de Newton é expresso como
⎡ ⎤⎡ ⎤
2, 20 + 0, 050λ 0, 00 −(1 − 0, 050P1) ∆P1
⎣ 0, 00 1, 76 + 0, 04λ −(1 − 0, 040P2) ⎦ ⎣ ∆P2 ⎦ =
−(1 − 0, 050P1) −(1 − 0, 040P1) 0, 00 ∆λ
⎡ ⎤
2, 20P1 − λ(1 − 0, 050P1)
−⎣ 1, 76P2 − λ(1 − 0, 040P2) ⎦
2 2
−(P1 + P2 − 3 − 0, 025P1 − 0, 020P2 )
Para as condições iniciais especificadas,
⎡ ⎤⎡ ⎤
2, 25 0, 00 −0, 95 ∆P1
⎣ 0, 00 1, 80 −0, 96 ⎦ ⎣ ∆P2 ⎦ =
−0, 95 −0, 96 0, 00 ∆λ
⎡ ⎤
1, 25
− ⎣ 0, 82 ⎦
1, 045
cuja solução e correspondentes variáveis atualizadas são
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 0, 3739 P1 1, 3739
⎣ ∆P2 ⎦ = ⎣ 0, 7185 ⎦ ⇒ ⎣ P2 ⎦ = ⎣ 1, 7185 ⎦
∆λ 2, 2014 λ 3, 2014
80 Capı́tulo 4: Método de Newton
⎡ ⎤
0, 0411
− ⎣ 0, 0432 ⎦
0, 0139
• α = 0: isto indica que uma das variáveis Pgi está no limite e o seu incremento resulta
na violação da restrição correspondente. Neste caso, deve-se incluir esta restrição
na função Lagrangeana. Supondo que a restrição relativa a variável Pgk é aquela
que deve ser incluı́da no conjunto de restrições ativas a esta função toma a forma
9 N N
:
, 7 8 , , 7 8
2 lim
£(Pg ,λ, µ) = ai + bi Pgi + ci Pgi −λ Pg i − Pdj − PL −µ Pgk − Pgk
iϵ{GP } i=1 j=1
⎡ ; < ⎤
2
2c1 + ∂∂PP2L ... 0 0 0 − 1− ∂PL
0
⎢ g1 ∂Pg1 ⎥ ⎡ ∆P ⎤
⎢ .. .. .. .. ⎥ g1
⎢ . . ... 0 0 ⎥⎢ .
⎢ ; . < . ⎥⎢ .
.
⎥
⎥
⎢ 0 0 2ck + ∂2PL
0 0 − 1− ∂PL
−1 ⎥⎢ ⎥
⎢ 2
∂Pgk ∂Pgk ⎥ ⎢ ∆Pgk ⎥
⎢ ⎥⎢ ⎥
⎢ .. .. ⎥⎢ .. ⎥=
⎢ . ... ... ... . −1 0 ⎥⎢ . ⎥
⎢ ; < .. ⎥⎢ ⎥
⎢ 0 0 0 02cng + ∂ 2 PL
− 1− ∂PL
. ⎥ ⎢ ∆Pgng ⎥
⎢ 2
∂Pgng ∂Pgng ⎥⎣ ⎦
⎢ ; < ; < ; < ⎥ ∆λ
⎢ − 1− ∂PL ∂PL
. . . − 1 − ∂P . . . − 1 − ∂P ∂PL
0 0 ⎥
⎣ ∂Pg1 gk gng
⎦ ∆µ
0 0 −1 0 0 0 0
⎡ ⎤
∂PL
(b1 + 2c1 Pg1 ) − λ(1 − ∂P )
⎢ ..
gi
⎥
⎢ . ⎥
⎢ ⎥
⎢ (b + 2c P ) − λ(1 − ∂PL ) − µ ⎥
⎢ k k gk ∂Pgk ⎥
⎢ . ⎥
⎢ . ⎥
−⎢ . ⎥
⎢ ∂PL ⎥
⎢ (bng + 2cng Pgng ) − λ(1 − ∂P ) ⎥
⎢ 9 : ⎥
gng
⎢ ⎥
⎢ − .P − . P − P = 0 ⎥
N N
⎢ gi dj L ⎥
⎣ i=1
7 j=1
8 ⎦
lim
− Pgk − Pgk
• 0 < α < 1: isto indica que um dos limites (o de Pgk , por exemplo) impede que o
incremento completo seja adicionado à variável. Neste caso, as variáveis Pgi devem
ser atualizadas como Pgi + α∆Pgi , e a restrição cujo limite foi atingido deve ser
incluı́da no conjunto de restrições ativas. A estratégia do item anterior é portanto
adotada.
• α ≥ 1: este resultado indica que os incrementos calculados podem ser completa-
mente adicionados às correspondentes variáveis. A geração de potência ativa Pgi , o
multiplicador de Lagrange λ, e as eventuais variáveis duais são então atualizadas.
4.5.2 Algoritmo
A metodologia para a determinação da solução do Despacho Econômico alternada com
a solução das equações da rede elétrica pode ser sumarizado nos passos do algoritmo
descrito ,a seguir.
isto é, se as magnitudes dos incrementos de potência ativa gerada são menores do
que uma tolerância pré-especificada, o processo é encerrado; caso contrário, retornar
ao primeiro passo.
1
f1 (P1 ) = c1 P12 + b1 P1 + a1
2
1
f2 (PG2 ) = c2 P22 + b2 P2 + a2
2
com o custo total de geração de potência ativa expresso por
Em geral, a função objetivo f (.) pode ser expressa em função de uma ou de todas as
variáveis do sistema. Neste exemplo, f é função apenas de P1 e P2 . Alternativamente,
fi = ci Pi2 + bi Pi + ai , i = 1, 2.....n
onde Pi é uma função de Pg . A desvantagem neste último caso é que se Pi é uma função, Pi2
cria uma grande quantidade de não zeros na matriz Hessiana. É mais eficiente introduzir
as variáveis adicionais e evitar o quadrado das funções.
Variáveis da Otimização
Para o problema proposto, o vetor de variáveis Pg envolvidas no problema de otimização
é dado por
( )
PTg = P1 P2 a35 a46 δ1 V1 δ2 V2 δ3 V3 δ4 V4 δ5 V5 δ6 V6
Observe que neste tipo de otimização não há distinção entre tipos de variáveis.
Pim ≤ Pi ≤ PiM , i = 1, 2.
tm M
ij ≤ tij ≤ tij , ij = 3, 5 e 4, 6.
Vim ≤ Vi ≤ ViM , i = 1, 2, 3, 4, 5, 6.
84 Capı́tulo 4: Método de Newton
Restrições Funcionais
Dois conjuntos de restrições são considerados:
CPi = Pi (Pg ) − pi , i = 3, 4, 5, 6
CQi = Qi (Pg ) − qi , i = 3, 4, 5, 6
onde CPi e CQi são os resı́duos de potência ativa e reativa na barra (P Q)i ; Pi (Pg ) e
Qi (Pg ) são as injeções de potência ativa e reativa, respectivamente, expressas como
funções de Pg ; pi e qi são as injeções de potência ativa e reativa especificadas; além
destas restrições,
CPi = Pi (Pg ) − pi , i = 1, 2
devem ser incluı́das por causa do uso de variáveis para as quantidades controláveis
(injeções). Em razão disto, é necessário restingir as injeções nas barras 1 e 2 tal que
a somatória dos fluxos de potência ativa em cada barra seja zero. As variáveis P1 e
P2 são restritas conforme indicado anteriormente.
• o vetor gradiente g;
• a matriz Jacobiana J.
onde, para o sistema em estudo, as submatrizes H e J são de ordens (16 × 16) e (16 × 12),
respectivamente; os vetores ∆Pg e ∆λ são de ordens (16 × 1) e (12 × 1), respectivamente;
e os vetores gx e gλ são de ordens (16 × 1) e (12 × 1), respectivamente;
O Vetor Gradiente
Cada elemento da forma ∂£/∂xi representa uma derivada parcial da forma ∂£/∂Pi ,
∂£/∂aij , ∂£/∂δi , e ∂£/∂Vi . Por exemplo,
∂
∂£/∂P2 = (F2 − λp2 CP2 ) = G2 P2 + b2 + λp2
∂P2
∂
∂£/∂δ2 = (−λp1 CP1 − λq1 CQ1 − λp2 CP2 − λq2 CQ2 − λp4 CP4 − λq4 CQ4 )
∂δ2
onde, CPi = Pi (Pg ) − pi , CQi = Qi (Pg ) − qi , e λpi CPi e λqi CQi são termos do tipo
∂£ ∂
= [λp3(P3 (Pg ) − p3 )] = −(P3 (Pg ) − p3 ) = −CP3
∂λp3 ∂λp3
Em termos matriciais, o vetor do lado direito do sistema linear resolvido a cada iteração
do método de Newton é ⎡ ⎤
∂£/∂P
⎢ ∂£/∂a ⎥
⎢ ⎥
⎢ ∂£/∂δ ⎥
⎢ ⎥
⎢ ∂£/∂V ⎥
⎢ ⎥
⎣ ∂£/∂λp ⎦
∂£/∂λq
A Matriz Jacobiana
A matriz Jacobiana envolvida na solução do problema de otimização pelo método de
Newton é constituı́da de elementos da forma
∂2£ ∂2£
=
∂xi ∂λj ∂λj ∂xi
86 Capı́tulo 4: Método de Newton
∂ ∂[−P3 (Pg )
= (−CP3 ) = ]
∂δ4 ∂δ4
o qual é um termo tı́pico da matriz Jacobiana da solução do problema de Fluxo de Potência
convencional via método de Newton- Raphson.
A Matriz Hessiana
Cada elemento da matriz H é uma segunda derivada parcial da forma
∂2£ ∂2£
=
∂xi ∂xj ∂xj ∂xi
isto é, a soma das 2as derivadas parciais de todos os termos da função Lagrangeana onde
xi e xj ocorrem. Por exemplo
A Matriz W
Para o exemplo considerado, a matriz W é dada por
⎡ ⎤
∂ 2 £/∂P2 ∂ 2 £/∂P∂a ∂ 2 £/∂P∂δ ∂ 2 £/∂P∂V ∂ 2 £/∂P∂λp ∂ 2 £/∂P∂λq
⎢ ∂ 2 £/∂a∂P ∂ 2 £/∂a2 ∂ 2 £/∂a∂δ ∂ 2 £/∂a∂V ∂ 2 £/∂a∂λp ∂ 2 £/∂a∂λq ⎥
⎢ ⎥
⎢ ∂ 2 £/∂δ∂P ∂ 2 £/∂δ∂a ∂ 2 £/∂δ 2 ∂ 2 £/∂δ∂V ∂ 2 £/∂δ∂λp ∂ 2 £/∂δ∂λq ⎥
⎢ ⎥
⎢ ∂ 2 £/∂V∂P ∂ 2 £/∂V∂a ∂ 2 £/∂V∂δ ∂ 2 £/∂V2 ∂ 2 £/∂V∂λp ∂ 2 £/∂V∂λq ⎥
⎢ ⎥
⎣ ∂ 2 £/∂λp ∂P ∂ 2 £/∂λp ∂a ∂ 2 £/∂λp ∂δ ∂ 2 £/∂λp ∂V 0 0 ⎦
∂ 2 £/∂λq ∂P ∂ 2 £/∂λq ∂a 2 2
∂ £/∂λq ∂δ ∂ £/∂λq ∂V 0 0
4.7 Exercı́cios
4.1 Determine a solução dos seguintes problemas de otimização através do método de
Newton.
•
Minimizar x21 + x22 − x1 x2 − 3x1
sujeito a x1 + x2 ≤ 3
x1 , x2 ≥ 0
•
Minimizar x21 + x22 − 2x1 − 2x2
sujeito a x1 + x2 − 4 ≤ 0
2 − x1 ≤ 0
x1 , x2 ≥ 0
•
Minimizar 2x21 + 2x22 + x23 + 2x1 x2 − x1 x3 − 0, 8x2 x3
sujeito a 1, 3x1 + 1, 2x2 + 1, 1x3 ≥ 1, 15
x1 + x2 + x3 = 1
x1 ≤ 0, 7
x2 ≤ 0, 7
x3 ≤ 0, 7
x1 , x2 , x3 ≥ 0
4.2 Determine utilizando o método de Newton, qual a forma mais econômica de operar
um sistema elétrico com perdas desprezı́veis nas linhas de transmissão. Considere que
este sistema possui três unidades geradoras com as seguintes caracterı́sticas:
• 6, 5 Mw;
88 Capı́tulo 4: Método de Newton
• 9, 0 Mw;
• 12, 5 Mw
4.3 Um sistema possui duas unidades térmicas operando em despacho econômico para
suprir uma carga de 680MW. Os custos de geração de potência ativa e os limites de
capacidade dessas unidades são respectivamente
• a demanda total;
4.4 Determine a potência de saı́da de três geradores, que resulta no mı́nimo custo de
geração de potência ativa, quando uma carga de 800 MW é suprida. Considere as perdas
de transmissão são dadas por Pl = 0, 00003P12 + 0, 00005P22 + 0, 00007P32 MW. As curvas
de custo de geração são quadráticas, dadas por
1
Os métodos de Pontos Interiores têm sido largamente utilizados na solução de proble-
mas de programação linear e não linear de grande porte. O impulso significativo na sua
aplicação a problemas práticos, foi conseqüência do trabalho de Karmarkar em 1984 [11].
Desde então, outras pesquisas surgiram, resultando no desenvolvimento de versões alter-
nativas do algoritmo original. As principais modificações deste algoritmo foram desenvol-
vidas no sentido de melhorar a rapidez da convergência, a robustez e a confiabilidade do
processo iterativo. Duas versões são mais freqüentemente utilizadas: o algoritmo primal-
dual convencional [12] e o algoritmo preditor-corretor [13]. Essas metodologias aplicam
estratégias semelhantes para resolver o problema de otimização. Suas principais dife-
renças estão relacionadas a forma de tratar as condições de complementaridade, aspectos
que podem afetar consideravelmente a convergência do processo iterativo.
Na última década, a solução do problema de Fluxo de Potência Ótimo através desses
algoritmos tem sido proposta. As abordagens apresentadas em [6, 7, 14, 15, 16] mos-
tram o potencial destes métodos no tratamento das restrições de desigualdade na solução
de problemas de otimização de grande porte. O texto a seguir descreve a base teórica
dos algoritmos não lineares de pontos interiores primal-dual puro e preditor-corretor, e
apresenta versões alternativas dos mesmos.
Minimizar f (x)
sujeito a g(x) = 0 (5.1)
h(x) ≥ 0
onde, f (x) é a função objetivo expressa em termos do vetor n-dimensional x, das variáveis
de otimização; g(x) é um vetor m-dimensional, cujas componentes são as equações gi (x)
que representam as restrições de igualdade, e h(x) é um vetor l-dimensional, das equações
hi (x) que representam as restrições de desigualdade.
1
O texto deste capı́tulo foi baseado nas dissertações de mestrado e teses de doutorado de Luciano
Vitoria Barboza e Edgardo Daniel Castronuovo
90 Capı́tulo 5: Método de Pontos Interiores
• se no ponto (x, λ), as desigualdades expressas pela terceira das equações (5.4) não
estiverem todas no limite, as correspondentes variáveis de folga µi não são todas
nulas, e a condição de complementaridade não é satisfeita. Neste caso, o ponto
(x, λ) não é a solução ótima.
Para cada restrição de desigualdade não ativa, a equação (5.5), é re-escrita como
µi
πi =
hi (x)
A função
l
,
P (x, λ) = £(x, λ) − µi ln(hi (x))
i=1
indica que, se a desigualdade tende ao limite (hi (x) → 0); então ln (hi (x)) → −∞, o que
garante a trajetória da solução viável (x, λ) até a solução ótima (x∗ , λ∗ ) no interior da
região das soluções viáveis. Este termo é denominado barreira logarı́tmica.
A equação (5.6) pode ser interpretada como as condições de otimalidade do problema
l
,
Minimizar P (x, λ) = £(x, λ) − µi ln(hi (x))
i=1
sujeito a hi (x) ≥ 0, i = 1, ..., l (5.7)
µi ≥ 0, i = 1, ..., l
πi ≥ 0, i = 1, ..., l
π t h(x)
µ=
l
com a sua não negatividade garantida pela condição
• a solução das equações não lineares, resultantes da aplicação das condições de oti-
malidade, via método de Newton;
5.3.1 Primal-Dual
Considere o seguinte problema de otimização:
Minimizar f (x)
sujeito a g(x) = 0 (5.11)
m M
h ≤ h(x) ≤ h
onde x, f (x), g(x) e h(x) são os mesmos termos da equação (5.1); e hm e hM são os
limites mı́nimo e máximo, respectivamente, das restrições de desigualdade.
Com base nos fundamentos apresentados na seção anterior, a metodologia de solução
do problema expresso pela equação (5.11) via método de Pontos Interiores pode ser su-
marizada nos passos descritos a seguir.
h(x) − sl − hm = 0
h(x) + su − hM = 0 (5.12)
sl , su > 0
onde, sl e su são vetores cujos componentes (sli e sui ) são as variáveis de folga
correspondentes às restrições de desigualdade;
98 Capı́tulo 5: Método de Pontos Interiores
onde,
H(x, λ, π l , π u ) = ∇2x f (x) − Σi λi ∇2x gi (x) − Σj (π l + π u )∇2x hi (x)
é a matriz de segundas derivadas da função Lagrangeana em relação às variáveis de oti-
mização; ∇2x f (x), ∇2x gi (x), e ∇2x hi (x) são as matrizes de segundas derivadas de f (x),
gi (x) e hj (x), respectivamente;
onde I é a matriz identidade. Note que esta matriz, originalmente não simétrica, pode se
tornar simétrica multiplicando-se a segunda linha por −S−1 l e a segunda linha por −S−1
u .
A solução da equação (5.18) fornece os incrementos nas variáveis primais e duais do
problema de otimização. A não violação das restrições de não-negatividade das variáveis
de folga e de sinais dos multiplicadores duais é assegurada, calculando-se o comprimento
do passo nos espaços primal e dual como,
* +
sli su i
γp = min min min 1, 0
∆sli <0 |∆sli | ∆sui <0 |∆sui |
1 2 (5.20)
πlj −πuj
γd = min min min 1, 0
∆πlj <0 |∆πlj | ∆πuj >0 |∆πuj |
onde, σ é uma constante cuja finalidade é garantir que as variáveis s e π não se anulem,
recomendando-se para a mesma o valor de 0, 9995 [6].
Portanto, a finalidade dos fatores de passo σγp e σγd é garantir a não negatividade das
variáveis de folga e assegurar uma redução suficiente na função de mérito representada
pela função Lagrangeana.
O valor do parâmetro barreira é computado ao final de cada iteração utilizando-se a
equação
st π l − stu π u
µ= l (5.22)
2lβ
onde l é o número restrições de desigualdade.
O algoritmo para a resolução de um problema de otimização via método de Pontos
Interiores versão Primal-Dual é sumarizado nos passos descritos a seguir.
5. Determinação dos comprimentos dos passos nos espaços primal e dual (equações
(5.20));
Ex. 5.1 Faça a primeira iteração do processo de solução do problema mostrado a seguir,
quando o mesmo é resolvido via método de Pontos Interiores.
• função Lagrangeana:
• na condição inicial ⎡ ⎤ ⎡ ⎤
x1 1, 0
⎢ x2 ⎥ ⎢ 1, 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ λ ⎥=⎢ 0, 5 ⎥
⎢ ⎥ ⎢ ⎥
⎣ π ⎦ ⎣ 1, 0 ⎦
s 1, 0
e especificando o parâmetro barreira µ = 1, 0, o sistema linear a ser resolvido é
expresso numericamente por
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −2 −6 ∆x1 −5
⎢ 2 1 −1 ⎥⎢ ∆x2 ⎥ ⎢ 1, 5 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ −2 1 ⎥⎢ ∆λ ⎥ = −⎢ −1, 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ −6 −1 −1 ⎦⎣ ∆π ⎦ ⎣ −10, 0 ⎦
−1 −1 ∆s −2, 0
102 Capı́tulo 5: Método de Pontos Interiores
cuja solução é ⎡ ⎤ ⎡ ⎤
∆x1 −1, 2727
⎢ ∆x2 ⎥ ⎢ −1, 5455 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ∆λ ⎥ = −⎢ 0, 4091 ⎥
⎢ ⎥ ⎢ ⎥
⎣ ∆π ⎦ ⎣ −1.1818 ⎦
∆s −0, 8182
0, 1818 × 0, 1818
e, com l = 1 e especificando β = 10 o parâmetro barreira µ = =
2 × 1 × 10
0, 0017
Ex. 5.2 Considere dois geradores suprindo potência a uma carga de 3 MW. Os geradores
possuem curvas de custo de geração de potência ativa dadas por C1 (P1 ) = 1, 10P12 $/MWh
e C1 (P2 ) = 0, 88P22 $/MWh . Determinar a potência de saı́da de cada gerador na solução
de mı́nimo custo de geração. As perdas de potência ativa nas linhas de transmissão são
desprezı́veis e os limites inferiores de geração são P1min = 1, 0MW e P2min = 1, 0MW .
Neste caso, o problema de otimização a ser resolvido é
P1 ≥ 1, 0 ⇒ P1 − 1, 0 − s1 = 0, s>0
P2 ≥ 1, 0 ⇒ P2 − 1, 0 − s2 = 0, s>0
• função Lagrangeana:
s1 π1 + s2 π2
µ=
1
0, 6270 + 0, 8484
=
1
= 1, 4755
⎡ ⎤
0, 0
⎢ 0, 0 ⎥
⎢ ⎥
⎢ 0, 0 ⎥
⎢ ⎥
−⎢
⎢ 0, 0 ⎥
⎥
⎢ 0, 0 ⎥
⎢ ⎥
⎣ −0, 6270 ⎦
−0, 8484
cuja solução e correspondentes variáveis atualizadas são
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 −0, 0213 P1 1, 3680
⎢ ∆P2 ⎥ ⎢ 0, 0213 ⎥ ⎢ P2 ⎥ ⎢ 1, 6320 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆λ ⎥ ⎢ 1, 4753 ⎥ ⎢ λ ⎥ ⎢ 2, 9209 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆π1 ⎥ = ⎢ −1, 5223 ⎥ ⇒ ⎢ π1 ⎥ = ⎢ 0, 0884 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆π2 ⎥ ⎢ −1, 4378 ⎥ ⎢ π2 ⎥ ⎢ −0, 0485 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ ∆s1 ⎦ ⎣ −0, 0213 ⎦ ⎣ s1 ⎦ ⎣ 0, 3680 ⎦
∆s2 −0, 0213 s2 0, 6320
5.3.2 Preditor-Corretor
Na versão Primal-Dual, a atualização das variáveis de otimização a cada iteração é gene-
ricamente expressa como
x + ∆x λ + ∆λ
sl + ∆sl π l + ∆π l (5.23)
su + ∆su π u + ∆π u
106 Capı́tulo 5: Método de Pontos Interiores
A substituição das equações (5.27) na equação (5.26) permite que a primeira das
equações (5.24) seja re-escrita como
= . . >
∇2x f (x) − i λi ∇2x gi (x) − j (πlj + πuj )∇2x hj (x) ∆x − [J(x)]t ∆λ
t t
? − [∇x h(x)] ∆πt l − [∇x h(x)] t∆π u = @ (5.28)
=−
.
∇x f (x) − [J(x)] λ − [∇x h(x)] (π l + π u )>
.
2 2
+ i ∆λi ∇x gi (x) + j (∆πlj + ∆πuj )∇x hj (x) ∆x
UFSC / EEL - Labspot - R. S. Salgado 107
Após isto, o parâmetro barreira e os termos não-lineares são estimados e o lado direito
da equação (5.30) é recalculado. A referência [7] sugere que parâmetro barreira seja
dinamicamente computado como
/ 02 / 0
gB
ap gBap
µ= (5.32)
gap 2n
108 Capı́tulo 5: Método de Pontos Interiores
1. Inicialização da variáveis;
7. Determinação dos fatores de passo nos espaços primal e dual (equações (5.20));
−Πl ∆sl − Sl ∆π l = − νl
Πu ∆su + Su ∆π u = − νu
(5.34)
−∇x h(x)∆x + ∆sl = yl
−∇x h(x)∆x − ∆su = yu
A substituição das equações (5.35) nas duas primeiras equações (5.34) resulta em
∆π l = S−1 −1
l (ν l − Πl yl ) − Sl Πl ∇x h(x)∆x
(5.36)
∆π u = − S−1 −1
u (ν u − Πu yu ) + Su Πu ∇x h(x)∆x
Definindo-se
C sl , su , λ, π l , π u ) = H(x, λ, π l , π u ) + [∇x h(x)]t (S−1 −1
H(x, l Πl − Su Πu )∇x h(x)
( )
Ct = − t + [∇x h(x)]t S−1 l (ν l − Π l yl ) − S−1
u (ν u − Π u yu )
a qual, juntamente com a quarta das equações (5.17), forma o sistema linear reduzido
* +* + * +
C
H(x, sl , su , λ, π l , π u ) −J(x)t ∆x Ct
= (5.39)
−J(x) 0 ∆λ g(x)
• na etapa de predição:
ν l = − Sl π l
ν u = Su π u
• na etapa de correção:
ν l = − (µe − Sl π l ) + ∆Sl ∆π l
ν u = − (µe + Su π u ) + ∆Su ∆π u
5.5 Exercı́cios
5.1 Determine a solução dos seguintes problemas de otimização através do método de
Pontos Interiores.
•
Minimizar x21 + x22 − x1 x2 − 3x1
sujeito a x1 + x2 ≤ 3
x1 , x2 ≥ 0
•
Minimizar x21 + x22 − 2x1 − 2x2
sujeito a x1 + x2 − 4 ≤ 0
2 − x1 ≤ 0
x1 , x2 ≥ 0
•
Minimizar 2x21 + 2x22 + x23 + 2x1 x2 − x1 x3 − 0, 8x2 x3
sujeito a 1, 3x1 + 1, 2x2 + 1, 1x3 ≥ 1, 15
x1 + x2 + x3 = 1
x1 ≤ 0, 7
x2 ≤ 0, 7
x3 ≤ 0, 7
x1 , x2 , x3 ≥ 0
5.2 Utilizando o método de Pontos Interiores, determine qual a forma mais econômica de
operar um sistema elétrico com perdas desprezı́veis nas linhas de transmissão. Considere
que este sistema possui três unidades geradoras com as seguintes caracterı́sticas:
• gerador 1: C1 (P1 ) = 1, 0 + 0, 1P1 + 0, 01P12, 2, 0 ≤ P1 ≤ 6, 5;
• 9, 0 Mw;
UFSC / EEL - Labspot - R. S. Salgado 111
• 12, 5 Mw
5.3 Um sistema possui duas unidades térmicas operando em despacho econômico para
suprir uma carga de 680MW. Os custos de geração de potência ativa e os limites de
capacidade dessas unidades são respectivamente
• a demanda total;
Ex. 6.1 : Variáveis de decisão: ângulos e magnitudes de tensão nas barras, potência
gerada. Parâmetros: carga do sistema, parâmetros de linha.
x31 − 3x21 + 8 x1 + 3 x2 − 36 = 0
x21 + x2 + 4 = 0 (6.1)
x31 + 8 x1 + 3 x2 = 0
x2 = 0 (6.2)
x31 + 8 x1 + 3 x2 − ϵ [ 3 x21 + 36 ] = 0
x2 + ϵ [ x21 + 4 ] = 0 (6.3)
x1 ( ϵ ) = 6 ϵ
x2 ( ϵ ) = −36 ϵ3 − 4 ϵ (6.4)
O ponto (x1 (ϵ), x2 (ϵ)) descreve um caminho (uma trajetória) a medida que ϵ varia de
0 a 1. Seguindo esse caminho chega-se à solução (x1 (1), x2 (1))= (6, -40).
HO ( x , 0 ) = E ( x )
(6.7)
HO ( x , 1 ) = F ( x )
1. Homotopia de Newton
Escolhe-se um ponto inicial, x0 , calcula-se F(x0 ) e então faz-se
E ( x ) = F ( x ) − F ( x0 ) (6.8)
o que leva a
H ( x , ϵ ) = F ( x ) − ( 1 − ϵ ) F ( x0 ) (6.9)
E(x), por construção, tem x0 como solução, portanto o inı́cio do processo é obvio e
imediato.
HO ( x , ϵ ) = ( 1 − ϵ ) ( x − x0 ) + ϵ F ( x ) (6.10)
Neste caso,
E ( x ) = x − x0 (6.11)
3. Homotopia Linear
Formada por uma combinação linear de E(x) e F(x):
Esta é uma forma útil quando E(x) precisa ter algumas propriedades especiais.
116 Capı́tulo 6: Tópicos em Otimização Paramétrica
1
a
e
d f
g
c
b
0 x
HO ′ = ( x , ϵ ) | HO ( x , ϵ ) = 0 (6.13)
Definindo ⎡ ⎤
∂ HO1 ∂ HO1
∂ x1
, ... , ∂ xn
⎢ .. .. ⎥
∇x HO ( x , ϵ ) = ⎣ . . ⎦ (6.15)
∂ HOn ∂ HOn
∂ x1
, ... , ∂ xn
⎡ ∂ HO1
⎤
∂ϵ
∂ HO ⎢ .. ⎥
(x, ϵ) = ⎣ . ⎦ (6.16)
∂ϵ ∂ HOn
∂ϵ
UFSC / EEL - Labspot - R. S. Salgado 117
tem-se ( )
∂ HO
∇ HO ( x , ϵ ) = ∇x HO ( x , ϵ ) | ∂ϵ
(6.17)
Tomando-se um ponto (x0 , ϵ0 ) ∈ HO’ (isto é, HO(x0 , ϵ0 )= 0), se HO é diferenciável,
pode -se fazer uma aproximação linear desta função na vizinhança de (x0 , ϵ0 ):
* +
0 0
( ∂ HO
) x − x0
HO ( x , ϵ ) ≈ HO ( x , ϵ ) + ∇x HO ( x , ϵ ) | ∂ ϵ (6.18)
ϵ − ϵ0
Quer-se estudar pontos (x,ϵ) em HO’ próximos a (x0 ,ϵ0 ). Por definição, HO(x,ϵ)= 0,
então (6.18) pode ser escrita
∂ HO 0 0
∇x HO( x , ϵ ) [ x − x0 ] + ( x , ϵ ) [ ϵ − ϵ0 ] = 0 (6.19)
∂ϵ
Supondo ∇x HO(x0 , ϵ0 ) inversı́vel, um ponto (x, ϵ) em HO’ deve satisfazer à equação
∂ HO 0 0
[ x − x0 ] = [ ∇x HO( x , ϵ ) ]−1 ( x , ϵ ) [ ϵ − ϵ0 ] (6.20)
∂ϵ
O sistema (6.20) possui n+1 variáveis (x1 , x2 , ..., xn , ϵ) e n equações. Portanto,
sua solução é uma reta. Desta forma, se ∇x HO(x0 , ϵ0 ) é inversı́vel, as soluções (x,ϵ) ϵ
HO’, próximas a (x0 ,ϵ0 ), pertencem a uma reta que passa por (x0 , ϵ0 ). Assim, mesmo
que HO não seja linear, na vizinhança de (x0 ,ϵ0 ) pode ser aproximada por uma reta.
Generalizando, para os intervalos de variação de x e ϵ onde ∇x HO(x0 , ϵ0 ) é inversı́vel, os
pontos pertencentes a HO’ pertencem a um caminho contı́nuo e diferenciável que passa
por (x0 , ϵ0 ). Se tal propriedade é válida para todo 0≤ε≤1, tem-se uma trajetória do tipo
c (Figura 1). Este resultado é descrito no Terorema a seguir.
Observação 1 : O Teorema da Função Implı́cita é pode ser aplicado qualquer que seja a
redução feita em HO(x,ϵ) para o cáculo do jacobiano (pode-se definir o jacobiano sobre
quaisquer n das (n+1) variáveis (x1 , x2 , ..., xn , ϵ)). Não importa se um ou mais jacobia-
nos reduzidos são inversı́veis; a solução de (6.20) continuará sendo uma reta. Ou ainda,
considerando todo o intervalo, tem-se sempre um caminho contı́nuo e diferenciável.
Com base na observação anterior, tem-se o Teorema do Caminho, descrito abaixo:
0 0
Teorema 2 : Se o jacobiano ∇HO(x , ϵ0 ) possui rank completo em todo (x ,ϵ0 ∈ HO ′),
então HO’ é contituı́do apenas por caminhos contı́nuos e diferenciáveis.
Em geral, nem sempre é possı́vel assegurar que a função homotopia seja contı́nua em
todo o intervalo 0 ≤ ϵ ≤ 1. Em sistemas de potência, um caso bem conhecido é o ponto
118 Capı́tulo 6: Tópicos em Otimização Paramétrica
Max ϵ
s.a
pgi − pi ( δ, V ) = pdi (ϵ) , i = 1, ..., n − 1
qgi − qi ( δ, V ) = qdi (ϵ), i = 1, ..., nc (6.21)
Em geral, sistemas fı́sicos que possuam parâmetros variáveis com o tempo, não de-
vem ser operados na vizinhança de pontos (x,ϵ) onde o jacobiano da função homotopia,
∇x HO(x,ϵ), é singular sob pena de ocorrerem variações bruscas no ponto de operação
para um incremento em ϵ ocorrido na vizinhança do ponto de singularidade (isto é, para
um incremento infinitesimal em ϵ, ocorre uma variação não linear em x).
A solução de problemas paramétricos de otimização pode ser especialmente complicada
se existem restrições de desigualdade no modelo. Para esses problemas, o comportamento
do conjunto de soluções factı́veis é particularmente importante, uma vez que podem ocor-
rer situações onde uma pequena variação em ϵ produz um colapso (uma descontinuidade)
deste conjunto, interrompendo assim o acompanhamento da solução.
sujeito a
gk ( x , ϵ ) = 0 , k ∈ K (6.27)
hl ( x , ϵ ) ≤ 0 , l ∈ L (6.28)
onde x ∈ Rn , 0 ≤ ϵ ≤ 1, K = {1, ..., m}, m < n, L = {1, ..., p}.
Supõe-se que as funções f, gk e hl sejam uma ou mais vezes continuamente dife-
renciáveis.
Em P(ϵ), para cada ϵ (Figura 6.2):
∗
x ϵ) é a solução ótima do problema;
S(ϵ)= {x ∈ Rn |gk(x, ϵ) = 0, k ∈ K, hl (x, ϵ) ≤ 0, l ∈ L} é o conjunto factı́vel de P(ϵ);
S∗ (ϵ)= {x∗ (ϵ)} é o conjunto de soluções ótimas;
f∗ (ϵ)= f (x∗ (ϵ),ϵ) é a curva de custo ótimo.
* * *
! x (!), S(!), S (!), f (!)
P(!)
Note que S(ϵ) e S∗ (ϵ) são mapeamentos de um ponto, ϵ, a conjuntos, enquanto x∗ (ϵ)
∗
e f (ϵ) são funções.
O método de resolução de P(ϵ) empregado aqui será o método da continuação. Sendo
assim, deve-se assegurar que pequenas variações em ϵ não causem mudanças bruscas em
UFSC / EEL - Labspot - R. S. Salgado 121
S(ϵ) e S∗ (ϵ). Além disso deve-se garantir um bom comportamento das trajetórias formadas
pela função homotopia associada a P(ϵ).
i
! "#! )
i
i
x
* *
! "#! )
*
x
* *
x $%"(! )?
SIM: mapeamento fechado
Observação 2 : Nos exemplos usados aquı́ as funções de restrição são sempre contı́nuas,
portanto M(ϵ) é sempre fechado. Desta forma M(ϵ) será contı́nuo se e somente se é aberto
ou semicontı́nuo inferior.
122 Capı́tulo 6: Tópicos em Otimização Paramétrica
i
! "#! )
i
i
x
* *
! "#! )
*
x
i i i *
Existe x $%"(! ) | x ! x ?
SIM: mapeamento aberto.
) (
!
M(!) = { R, se ! = 0
0, se !%& 0
Estabilidade Estrutural
Minx f x
s.t.
ϵx = 0
−10 ≤ x ≤ 10 (6.29)
Em (30), para ϵ=0, x∗ =-10 e para ϵ̸= 0, x∗ =0. Quando ϵ→ϵ∗ =0, existe uma variação
brusca (uma descontinuidade) em x∗ .
Embora o exemplo acima represente uma situação incomum, a perda de estabilidade
estrutural também pode acontecer em problemas práticos de otimização. Analisando as
situações de perda de estabilidade em termos do que ocorre no conjunto factı́vel S(ϵ),
pode-se fazer uma interpretação geométrica do problema (Figura 6.6):
0 1 0
!=! ! = ! =! +'!
x2 * 0 x2 * 1
x (! ) x (! )
x1 x1
Conjunto Factível
L0 ( x , ϵ ) = l ∈ L | hl ( x , ϵ ) = 0 (6.30)
o conjunto de restrições de desigualdade ativas.
A caracterização da otimalidade de x∗ é feita através das condições de Karush-Kuhn-
Tucker (condições necessárias de 1a ordem) e pelas condições suficientes de 2a ordem. Tais
condições são válidas somente se x∗ (ϵ) é um ponto regular do conjunto ativo.
∇x gk ( x∗ , ϵ∗ ) , k ∈ K
∇x hl ( x∗ , ϵ∗ ) , l ∈ L0
são linearmente independentes. Isso significa que o Jacobiano das restrições ativas,
* +
∇x g ( x , ϵ )
J (x, ϵ) = (6.31)
∇x hL0 ( x , ϵ )
, ,
L(x, λ, π, ϵ) = f (x, ϵ) + λk g k ( x , ϵ ) + πl hl ( x , ϵ ) (6.32)
k∈K l ∈ L0
gk ( x , ϵ ) = 0 , k ∈ K (6.34)
UFSC / EEL - Labspot - R. S. Salgado 125
hl ( x , ϵ ) = 0 , l ∈ L0 (6.35)
hl ( x , ϵ ) < 0 , l ∈
/ L0 (6.36)
∀ λk , k ∈ K , e πl ≥ 0 , l ∈ L0 (6.37)
(ii) se, em (x∗ ,ϵ), a Hessiana do Lagrangeano,
, ,
H ( z , ϵ ) = ∇2x f ( x , ϵ ) + ∇2x gk ( x , ϵ ) + πl ∇2x hl ( x , ϵ ) (6.38)
k∈K l ∈ L0
onde
L+ ( x , ϵ ) = l ∈ L0 ( x , ϵ ) | πl > 0 (6.40)
A solução ótima de P(ϵ) deve sempre satisfazer as condições (34)-(38) acima. O oposto
nem sempre é válido: as soluções de (34)-(38) devem também satisfazer as condições su-
ficientes de segunda ordem para serem ótimas. De qualquer forma, para se estudar o
comportamento das soluções ótimas de P(ϵ) sob variações em ϵ, pode-se acompanhar as
soluções do sistema (34)-(38), testando essas soluções para otimalidade. Essa é a idéia
básica dos métodos de continuação para problemas de otimização.
Em geral, a resolução das condições de Karush-Kuhn-Tucker não pode ser feita ana-
liticamente, necessitando métodos numéricos para sua resolução. Portanto, a solução de
problemas de otimização pelo método da continuação depende da continuidade das tra-
jetórias descritas pelas soluções das condições de Karush-Kuhn-Tucker no intervalo de
variação de ϵ de interesse.
ρ( z∗ , ϵ∗ ) = 0 (6.41)
ρ( z∗ + ∆ z , ϵ∗ + ∆ ϵ ) = 0 (6.42)
Fazendo-se uma aproximação de (42) vem
* +
∗ ∗ ∗ ∗
( ∂ρ ∂ρ
) ∆z
ρ(z + ∆z, ϵ + ∆ϵ ) = ρ(z , ϵ ) + ( z∗ ∗
,ϵ )| ( z∗ ∗
,ϵ ) (6.43)
∂z ∂ϵ ∆ϵ
Portanto,
* +−1
∂ρ ∗ ∗ ∂ρ ∗ ∗
∆z = − (z , ϵ ) ( z , ϵ ) ∆ϵ (6.44)
∂z ∂ϵ
UFSC / EEL - Labspot - R. S. Salgado 127
Mas,
⎡ ∂2 L ∂2 L ∂2 L
⎤
∂ x2 ∂ x∂ λ ∂ x ∂ πL0
∂ρ ⎢ ∂2 L ∂2 L ∂2 L ⎥
(z, ϵ) = ⎢
⎣ ∂ λ∂ x ∂ λ2 ∂ λ ∂ πL0
⎥
⎦ (6.45)
∂z ∂2 L ∂2 L ∂2 L
∂ πL0 ∂ x ∂ πL0 ∂ λ ∂ πL2
0
onde
∂2 L , ,
2 2
2
= H (z, ϵ) = ∇ x f (x, ϵ) + ∇ x g k (x, ϵ) + πl ∇2x hl (x, ϵ) (6.46)
∂x
k∈K l ∈ L0
∂2L
= ∇Tx g ( x , ϵ ) (6.47)
∂ x∂λ
∂2L
= ∇x g ( x , ϵ ) (6.48)
∂ λ∂x
∂2L
= ∇Tx hL0 ( x , ϵ ) (6.49)
∂ x ∂ πL0
∂2L
= ∇x hL0 ( x , ϵ ) (6.50)
∂ x ∂ πL0
e onde todos os outros elementos são iguais a zero.
Fazendo
∂ρ
= W ( x , λ , πL0 , ϵ ) (6.51)
∂z
e lembrando que
⎡ 1 2 ⎤
⎡ ⎤ , ,
∂L ∂
∂x ⎢ ∇x f (x, ϵ) + λk ∇x gk (x, ϵ) + πl ∇x hl (x, ϵ) ⎥
∂ρ ∂ ⎣ ∂L ⎦=⎢
∂ϵ
⎥
(zϵ) = ∂λ ⎢ k∈K l∈L0 ⎥ ∆ϵ
∂ϵ ∂ϵ ∂L ⎣ ∂
[ g( x, ϵ) ] ⎦
∂ πL0 ∂ϵ
∂
∂ϵ
[ hL0 (x, ϵ) ]
(6.52)
a equação 6.44 pode ser re-escrita como
⎡ ⎤ ⎡ ∂
⎤
∆x ∂ϵ
[∇x L (x∗ , λ∗ , πL0 ∗ , ϵ∗ ) ]
⎣ ∆λ ⎦ = − [ W ( x∗ , λ∗ , πL0 ∗ , ϵ∗ ) ]−1 ⎣ ∂
[ ∇λ L (x∗ , λ∗ , πL0 ∗ , ϵ∗ ) ]) ⎦ ∆ϵ (6.53)
∂ ϵ(
∂
∆πL0 ∂ϵ
∇πL0 L (x∗ , λ∗ , πL∗ 0 , ϵ∗ )
A correção em z∗ calculada por (53) leva a um erro no sistema (42). Portanto, para
um incremento ∆ϵ, partindo de k=0, com x0 = x∗ , λ0 = λ∗ e π Lo 0 = π Lo ∗ , calcula-se
⎡ ⎤ ⎡ ∂
⎤
∆xi ( ) ∂ϵ
[ ∇x L (xi , λi , πL0 i , ϵ∗ )]
⎣ ∆λi ⎦ = − W (xi , λi , πL0 i , ϵ∗ ) −1 ⎣ ∂
[ ∇λ L (xi , λi , πL0 i , ϵ∗ )] ⎦ ∆ϵ (6.54)
∂ϵ
∂
∆πLi 0 ∂ϵ
[ ∇πL0 L (xi , λi , πLi 0 , ϵ∗ )]
128 Capı́tulo 6: Tópicos em Otimização Paramétrica
Busca Binária
No caso da busca binária, estipula-se um incremento especı́fico em ϵ, ∆ϵesp , e caso este
incremento leve a multiplas violações, obtém-se um novo ϵ, menor do que aquele obtido
pelo incremento ∆ϵesp , através de subdivisões do intervalo ∆ϵesp , até que somente uma
violação ocorra. Incrementa-se ϵ até o valor que leva a somente uma violação e resolve-se
novamente o sistema (54). Tomando o exemplo da Figura 6.7:
ϵ − ϵ∗
ϵ2 = ϵ∗ + → nenhuma violação
2
3 2 ϵ1 − ϵ2
ϵ = ϵ + → 1 violação
2
∴ ϵ∗ = ϵ3 . (6.55)
Predição Linear
A predição linear usa aproximações lineares das trajetórias ótimas y(ϵ) para descobrir
opróximo valor do parâmetro onde ocorrerá violações nos limites não ativos ou nos mul-
tiplicadores de Lagrange. A equação (45) pode ser rescrita como
⎡ ⎤ ⎡ ⎤
∆x r
⎣ ∆ λ ⎦ = − ⎣ s ⎦ ∆ϵ
∆ πL0 t
UFSC / EEL - Labspot - R. S. Salgado 129
x
max
x
1
x
2
x
(
! !
) *
!
+ !
!
onde
⎡ ⎤
r * +−1
⎣ s ⎦ = ∂ ρ ∗ ∗ ∂ρ ∗ ∗
(z , ϵ ) (z , ϵ ) (6.56)
∂z ∂ϵ
t
Portanto, para um incremento ∆ϵ, os novos multiplicadores de Lagrange podem ser
aproximados por
( ) dx
hl ( x∗ + ∆x , ϵ∗ + ∆ϵ ) = hl ( x∗ , ϵ∗ ) + ∇x T hl ( x∗ , ϵ∗ ) ∆ϵ , l ∈
/ L0 (6.59)
dϵ
Uma vez que estas desigualdades devem ser menores do que zero, os incrementos em
ϵ serão dados por
- D
hl (x∗ , ϵ∗ )
∆ϵh = min − , vl > 0 , l ∈
/ L0 (6.60)
vl
onde
( ) dx
vl = ∇x T hl ( x∗ , ϵ∗ ) (6.61)
dϵ
com dx/dϵ igual ao vetor r calculado na equação (57).
Desta forma, o incremento em ϵ∗ , ∆ϵ∗ , que levará a apenas uma violação nas desigual-
dades (37) e (38) das condições de Karush-Kuhn-Tucker será
No caso de ocorrerem multiplas violações em ϵ∗ + ∆ϵ∗ , uma nova predição linear é feita
neste ponto para que se decremente ϵ.
Os dois mecanismos de busca unidimensional podem ser também usados em conjunto.
Por exemplo, pode-se adotar uma predição linear para se incrementar ϵ e uma busca
binária para se fazer o decremento, caso ocorram múltiplas violações.
Observação 3 : Uma solução ótima para ϵ=0 pode ser obtida através de uma relaxação
conveniente de P(ϵ) [20] ou por um método de otimização apropriado para resolver pro-
blemas com restrições de igualdade.
Observação 4 : Num mesmo ϵk , após uma violação ter sido corrigida, podem ocorrer
novas violações. Neste caso, deve-se recuperar a última solução convergida sem violações
(juntamente com o conjunto ativo a ela associado), decrementar ϵ e retornar ao Passo 2.
p
,
Min f ( x , ϵ ) − µ ln(sl )
l =1
x (6.63)
sujeito a
gk ( x , ϵ ) = 0 , k ∈ K (6.64)
hl ( x , ϵ ) + sl = 0 , l ∈ L (6.65)
Pode-se observar que o problema modificado possui dois parâmetros (ϵ e µ). A in-
trodução do parâmetro µ modifica o problema original de forma que quando µ→0 ( a
medida que o algoritmo de pontos interiores progride) retorna-se ao problema original
P(ϵ). Esta modificação realizada no problema P(ϵ) é, na realidade, um tipo especial de
parametrização e o algoritmo de pontos interiores, por sua vez, pode ser entendido como
um método paramétrico.
, , ,
L(x, s, λ, π, ϵ) = f (x, ϵ) − µ ln(sl ) + λk g k ( x , ϵ ) + πl hl ( x , ϵ )
l∈L k∈K l∈L
(6.66)
∗ ∗ ∗
O ponto (x ,s ) é uma solução ótima local de P(ϵ ):
(i) Somente se as condições de Karush-Kuhn-Tucker são satisfeitas em (x∗ ,s∗ ,ϵ∗ ) para
∀ λ, π≥0 e s ≥0:
, ,
∇x f ( x , ϵ ) + λ k ∇x g k ( x , ϵ ) + πl ∇x hl ( x , ϵ ) = 0 (6.67)
k∈K l ∈ L0
132 Capı́tulo 6: Tópicos em Otimização Paramétrica
µ
− + πl = 0 → −µ + sl πl = 0, l ∈ L (6.68)
sl
gk ( x , ϵ ) = 0 , k ∈ K (6.69)
hl ( x , ϵ ) + sl = 0 , l ∈ L (6.70)
(ii) se a hessiana do Lagrangeano for positiva definida no espaço nulo do jacobiano
das restrições.
Mais uma vez, as condições necessárias de otimalidade podem ser usadas como uma
função homotopia que conecta os problemas de otimização definidos para diferentes valores
de ϵ. Um algoritmo do tipo preditor-corretor pode então ser formulado.
Seja w=[xT ,sT ,λT ,π T ]T um ponto que satisfaz às condições de otimalidade. O sistema
de equações (68)-(71) pode ser denotado τ (w,ϵ). A metodologia consiste no acompa-
nhamento de τ (w,ϵ) para s > 0 e π ≥0, nos intervalos de variação de ϵ para os quais
os candidatos à solução são pontos regulares. Seja wk um ótimo em ϵk . Se um incre-
mento, ∆ϵk é dado a ϵk uma predição da solução de τ (w, ϵk +∆ϵk ), (wp , ϵp ), pode ser
obtida tomando-se um passo de tamanho apropriado na direção do vetor tangente de τ (.).
Tomando-se uma proximação linear de τ (.) em (wk , ϵk ) temos:
* +
p p k k
( ∂τ ∂τ
) ∆ wk
τ (w , ϵ ) = τ (w , ϵ ) + ( wk k
,ϵ )| ( wk k
,ϵ ) = 0 (6.71)
∂w ∂ϵ ∆ ϵk
Em (72), (wk , ϵk ) satisfaz às condições necessárias para ótimo, portanto a equação
acima implica que
* +−1
k ∂τ ∂τ
∆w = − ( wk , ϵk ) ( wk , ϵk ) ∆ϵk (6.72)
∂w ∂ϵ
Uma vez que τ (w,ϵ) deve ser resolvido para s> 0 e π≥ 0, passos de tamanhos apro-
priados, αp e αd , devem ser adotados na correção das variáveis primais e duais, respecti-
vamente:
- D
sj
αp = min min , 1 (6.73)
∆ s j < 0 | ∆ sj |
- D
πj
αd = min min , 1 (6.74)
∆ πj < 0 | ∆ πj |
* +
i+1 p i p
( ∂τ ∂τ
) ∆ wi
τ (w , ϵ ) = τ (w , ϵ ) + ( wi p
,ϵ )| ( wi ,ϵ )p
= 0 (6.77)
∂w ∂ϵ 0
( π i )T si
µi+1 = (6.83)
2 β nI
onde β é um fator de velocidade de decréscimo da barreira (arbitrário) e nI é o número
de restrições de desigualdade.
Os valores de w são atualizados até que ∥τ (w i ,ϵp )∥∞ seja menor do que uma tolerância.
No sistema (79):
134 Capı́tulo 6: Tópicos em Otimização Paramétrica
⎡ ⎤ ⎡ ⎤
∂2 L ∂2 L ∂2 L ∂2 L ∂2 L ∂T g ∂T h
∂ x2 ∂ x2 ∂ s ∂ x2 ∂ λ ∂ x2 ∂ π ∂ x2
0 ∂x ∂x
∂τ ⎢ ∂2 L ∂ L ∂ L ∂ L ⎥ ⎢ ⎥
⎢ ⎥ 0 Π 0 S
(w, ϵ) = ⎢ ∂ s2∂ x
∂ L
∂ s2
∂2 L
∂ s2∂ λ
∂ L
∂ s2∂ π
∂ L ⎥ = ⎢
⎣ ∂g
⎥
⎦ (6.84)
∂w ⎣ ∂ λ∂ x ∂ λ∂s ∂ λ2 ∂ λ∂ π
⎦ ∂x
0 0 0
∂2 L ∂2 L ∂2 L ∂2 L ∂h
I 0 0
∂π∂x ∂π∂s ∂π∂λ ∂ π2 ∂x
Passo 2 :
Preditor. Faça ϵk+1 = ϵk + ∆ϵk , com ∆ϵk pré-especificado. Obtenha o ponto predito
(xp , λp , π p ) de acordo com (76) e (77) e vá para o Passo 3 .
Passo 3 :
Para i=0, faça (xi , λi , π i ) = (xp , λp , π p ), enquanto ∥τ (wi , ϵ)∥∞ > tolerância, resolva
o sistema (79), faça xi+1 = xi + σαp ∆xi , λi+1= λi + σαd ∆λi , π i+1 = π i + σαd ∆π i , com
αp e αp calculados em (82) e (83), atualize µ de acordo com (84) e faça i=i+1. Quando
∥τ (wi , ϵ)∥∞ ≤ tolerância, faça xk+1 = xi , λk+1 = λi , π k+1 = π i e vá para o Passo 4.
Passo 4 :
Faça k=k+1. Se ϵ<1 retorne ao Passo 2 . Se ϵ=1, FIM: (xk , λk , π k ) é a solução de
P(ϵ=1).
Observação 5 : O cálculo do ponto ótimo inicial pode ser feito por um algoritmo de
pontos interiores.
µl ( ϵ ) > 0 , l ∈ L0 (6.85)
(C) As restrições inativas não são violadas:
hl ( x ( ϵ ) , ϵ ) < 0 , l ∈
/ L0 (6.86)
(D) As condições suficientes de otimalidade são satisfeitas em todo ϵ na vizinhança de
∗
ϵ.
Se (A)- (D) são satisfeitas, em toda a vizinhança de ϵ∗ as condições de Karush-Kuhn-
Tucker (6.33)-(6.37) são satisfeitas para um determinado conjunto ativo L0 e o Jacobiano
das equações presentes em (6.33)-(6.37),
* +
H ( z , ϵ ) JT ( x , ϵ )
W (z, ϵ) = (6.87)
J (x, ϵ) 0
é não singular. Portanto, pelo Teorema da Função Implı́cita existe uma trajetória
(uma função), z(ϵ), contı́nua e diferenciável na vizinhança de ϵ∗ . Isso implica que uma
pequena variação em ϵ leva a uma pequena alteração em x∗ , λ∗ e µ∗ L0 .
Uma vez que z(ϵ) é contı́nua e diferenciável, a solução ótima de P(ϵ) varia continua-
mente com o parâmetro. Isso é uma condição suficiente para se assegurar a estabilidade
estrutural do problema na vizinhança de ϵ∗ . Em termos práticos, as condições (A)-(D) são
uma indicação da robustêz do ótimo e garantem que, caso aconteçam pequenas variações
nos parâmetros do sistema, um novo ponto ótimo de operação poderá ser encontrado
próximo ao ótimo atual.
Embora (A)-(D) possam ser asseguradas para um determinado ϵ∗ , estas condições não
podem ser garantidas em todo o intervalo 0≤ϵ≤1. Pontos crı́ticos (ou pontos de singulari-
dade) podem ocorrer em z(ϵ) quando uma destas condições é violada. A ocorrência destes
pontos crı́ticos está vinculada à perda de otimalidade de z(ϵ) ou à perda de estabilidade
estrutural do problema. Tais pontos crı́ticos ocorrem também para o problema do Fluxo
de Carga Ótimo e o estudo destes pontos crı́ticos esclarece muitos casos sem solução do
problema.
Os pontos crı́ticos podem ser causados pela violação de uma das condições (A)-(D) que
garantem a continuidade e diferenciabilidade das trajetórias ótimas. São singularidades
que podem aparecer para determinada variação dos parâmetros existentes num modelo
matemático e que têm, para o problema do Fluxo de Carga Ótimo, uma importância
especial porque indicam pontos de operação ótima que são crı́ticos para um sistema de
geração/transmissão. Um resumo destes pontos crı́ticos é feito na Tabela 1.
* +
∂τ H′ (w, ϵ) JT1 (x, s, ϵ)
(w, ϵ) = W′ ( w, ϵ ) = (6.88)
∂w J(x, ϵ) 0
onde
* ∂2 f ∂ 2 ( λT g (x,ϵ)) ∂ 2 ( π T h (x,ϵ))
+
′ (x) + + , 0
H ( x, s, λ, π, ϵ ) = ∂ x2 ∂ x2 ∂ x2 (6.89)
0, Π
* ∂T g ∂T h
+ * ∂g
+
(x, ϵ) (x, ϵ) (x, ϵ) 0
JT1 (x, s, ϵ) = ∂x ∂x e J(x, ϵ) = ∂x
∂h (6.90)
0 S ∂x
(x, ϵ) 1
Deve-se notar que o problema FPO, modificado pela introdução das variáveis de folga
e função barreira, não apresenta duas condições crı́ticas existentes na formulação com
restrições de igualdade e desigualdade. Tais condições são definidas pelas alterações ob-
servadas no conjunto ativo de restrições de desigualdade, quando há incremento em ϵ0 , e
acarretam uma perda súbita de otimalidade ou factibilidade. Uma vez que, nos métodos
de pontos interiores, as restrições de desigualdade vão sendo impostas (ou liberadas) de
maneira “suave”, a violação das condições (a) ou (b) não ocorre de forma abrupta. Ou
138 Capı́tulo 6: Tópicos em Otimização Paramétrica
[1] R. N. Dhar, Computer Aided Power System Operation and Analysis, Tata McGraw-
Hill Publishing Company Limited, 1982.
[3] B. Stott, E. Hobson, Power system security control calculations using linear pro-
gramming, parts 1 and 2, IEEE Transactions on Power Apparatus and Systems
97 (5) (1978) 1713–1731.
[5] D. Sun, B. Ashley, B. Brewer, A. Hughes, W. Tinney, Optimal power flow solutions
by Newton approach, IEEE Transactions on Power Apparatus and Systems 103 (10)
(1984) 2864–2880.
[6] S. Granville, Optimal reactive dispatch through interior point methods, IEEE Tran-
sactions on Power Systems 9 (1) (1994) 136–146.
[9] W. Tinney, D. Sun, Optimal power flow: Research and code development, Tech. rep.,
Electric Power Research Institute (EPRI) (1984).
[12] A. El-Bakry, R. Tapia, T. Tsuchida, Z. Y., On the formulation and theory of the
newton interior-point method for nonlinear programming, Journal of Opt. Theory
and Applications 89 (3) (1996) 507–541.
140 REFERÊNCIAS BIBLIOGRÁFICAS
[16] E. D. Castronuovo, Solução do fluxo de potência Ótimo via método de pontos inte-
riores com aplicação de computação de alto desempenho, dissertação de Mestrado -
Engenharia Elétrica / UFSC (Maio 1997).
[17] C. Garcia, W. Zangwill, Pathways to Solutions, Fixed Points and Equilibria, Prentice
Hall, 1981.
[18] F. Galiana, Z. Zeng, Analysis of the load flow behaviour near a jacobian singularity,
IEEE Transactions on Power Systems 7 (3) (1992) 1362–1369.
[20] K. Almeida, F. Galiana, S. Soares, A general parametric optimal power flow, IEEE
Transactions on Power Systems 9 (1) (1994) 540–547.
[21] K. Almeida, F. Galiana, Critical cases in the optimal power flow, IEEE Transactions
on Power Systems 11 (3) (1996) 1509–1518.