Você está na página 1de 144

Universidade Federal de Santa Catarina

Departamento de Engenharia Elétrica

Programa de Pós-Graduação em
Engenharia Elétrica

EEL 6301 - Otimização Estática Aplicada a


Sistemas de Potência

Profs. R. S. Salgado e K. C. Almeida

Florianópolis - SC
2014.
Sumário

1 Otimização com Restrições 1


1.1 Conceitos Básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Restrições de Igualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Função Lagrangeana . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Multiplicadores de Lagrange . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Condições de Suficiência . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Restrições de Desigualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Condições de Karush-Kuhn-Tucker . . . . . . . . . . . . . . . . . . 13
1.5 Otimização com Restrições Lineares . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Análise de Sensibilidade 21
2.1 Equações do Balanço de Potência . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Relações de Sensibilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3 Magnitude da tensão nas barras de geração selecionadas como variáveis de
controle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Taps dos transformadores selecionados como variáveis de controle . . . . . 28

3 Fluxo de Potência Ótimo 31


3.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1 Aplicações do Fluxo de Potência Ótimo . . . . . . . . . . . . . . . . 32
3.1.2 Vantagens do Despacho Ótimo de Potência . . . . . . . . . . . . . . 34
3.2 Conceitos Fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Variáveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2.2 Restrições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.3 Funções Objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.3 Modelos de Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3.1 Despacho de Potência Ativa . . . . . . . . . . . . . . . . . . . . . . 49
3.3.2 Despacho de Potência Reativa . . . . . . . . . . . . . . . . . . . . . 50
3.3.3 Máximo Carregamento . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Métodos de Solução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4.1 Baseados em Programação Linear . . . . . . . . . . . . . . . . . . . 53
3.4.2 Baseados em Programação Não Linear . . . . . . . . . . . . . . . . 54

4 Método de Newton 59
4.1 Fundamentos Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.1.1 Mı́nimo de uma Função Multivariável . . . . . . . . . . . . . . . . . 60
4.1.2 Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.1.3 Modelos Conceituais dos Métodos de Newton . . . . . . . . . . . . 61
ii SUMÁRIO

4.2 Restrições de Igualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63


4.3 Restrições de Desigualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3.1 Inclusão de Restrições de Desigualdade Violadas . . . . . . . . . . . 68
4.3.2 Uso de Funções de Penalidade . . . . . . . . . . . . . . . . . . . . . 69
4.3.3 Iterações Experimentais . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4 Convergência do Processo Iterativo . . . . . . . . . . . . . . . . . . . . . . 73
4.5 Solução do Despacho Econômico . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5.1 Tratamento das Restrições de Desigualdade . . . . . . . . . . . . . 80
4.5.2 Algoritmo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.6 Minimização do Custo de Geração de Potência Ativa . . . . . . . . . . . . 82
4.6.1 Elementos do Problema . . . . . . . . . . . . . . . . . . . . . . . . 82
4.6.2 A Função Lagrangeana . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.6.3 O Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

5 Método de Pontos Interiores 89


5.1 Fundamentos Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2 Interpretação Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3 Versões Básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3.1 Primal-Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
5.3.2 Preditor-Corretor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.4 Redução do Sistema Linear . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6 Tópicos em Otimização Paramétrica 113


6.1 Introdução - Parâmetros de Sistemas Fı́sicos . . . . . . . . . . . . . . . . . 113
6.2 Parametrização de Sistemas Não-Lineares . . . . . . . . . . . . . . . . . . . 113
6.3 Função Homotopia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.3.1 Variedades de Homotopias . . . . . . . . . . . . . . . . . . . . . . . 115
6.3.2 Continuidade da Função Homotopia . . . . . . . . . . . . . . . . . . 116
6.3.3 Análise do Máximo Carregamento de Sistemas de Potência através
das Equações do Fluxo de Carga . . . . . . . . . . . . . . . . . . . 118
6.4 Problemas Paramétricos de Otimização . . . . . . . . . . . . . . . . . . . . 120
6.4.1 Estabilidade Estrutural . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.4.2 Condições de Otimalidade de Problemas Paramétricos . . . . . . . . 124
6.5 O Método da Continuação Aplicado a Problemas Paramétricos . . . . . . . 125
6.5.1 Metodologia Baseada em Conjunto Ativo . . . . . . . . . . . . . . . 126
6.5.2 Metodologia Baseada em Pontos Interiores . . . . . . . . . . . . . . 130
6.6 Pontos Crı́ticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.6.1 Metodologia do Conjunto Ativo . . . . . . . . . . . . . . . . . . . . 134
6.6.2 Metodologia Baseada em Pontos Interiores . . . . . . . . . . . . . . 135
Capı́tulo 1

Otimização com Restrições

Este capı́tulo visa o estudo de problemas de otimização com restrições de igualdade e de


desigualdade. Primeiramente, a caracterização de problemas restritos e de suas corres-
pondentes soluções é analisada. Pretende-se com isto, mostrar como as restrições podem
influenciar a localização da solução ótima, a ponto de em certos casos inviabilizar a solução
do problema de otimização. A seguir, as condições de otimalidade de primeira e segunda
ordem para problemas com restrições de igualdade e/ou de desigualdade são estabeleci-
das. Estas condições permitem verificar se uma especificada solução constitui um ponto
estacionário, e em caso afirmativo qual a natureza (máximo, mı́nimo, ponto de sela etc)
desta solução.

1.1 Conceitos Básicos


A forma geral de um problema de otimização com restrições é
Minimizar f (x)
sujeito a gi (x) = 0, i = 1 . . . m (1.1)
hk (x) ! 0, k = 1 . . . l
onde, x é um vetor n × 1, das variáveis de otimização; gi (x) = 0 representa a i-ésima
equação do conjunto de m restrições de igualdade; e hk (x) ! 0 representa a k-ésima
inequação do conjunto de l restrições de desigualdade.
As equações gi (x) = 0 (i = 1, . . . , m) e hk (x) ! 0 (k = 1, . . . , l) definem a chamada
região das soluções viáveis, ou seja, das soluções que satisfazem a ambas restrições de
igualdade e de desigualdade simultaneamente.
A solução ótima do problema de otimização com restrições, denotada x∗ , é uma solução
viável (isto é, gi (x∗ ) = 0 para i = 1, . . . , m e hk (x∗ ) ! 0 para k = 1, . . . , l), correspondente
ao valor mı́nimo da função objetivo, denotado f (x∗ ).
O problema representado pela Eq. (1.1) pode também ser expresso na forma matricial
mostrada a seguir.
Minimizar f (x)
sujeito a g(x) = 0 (1.2)
h(x) ≥ 0
2 Capı́tulo 1: Otimização com Restrições

onde g(·) e h(·) são vetores de ordens m × 1 e l × 1, cujas componentes são as funções
que representam as restrições de igualdade e desigualdade, respectivamente.
Visando ilustrar como as restrições afetam a solução de um problema de otimização,
consideremos os casos mostrados a seguir.

Ex. 1.1
Min f (x) = (x1 − 1, 5)2 + (x2 − 1, 5)2
s.a h1 (x) =x1 + x2 − 2, 0 " 0
h2 (x) = −x1 " 0
h3 (x) = −x2 " 0
A análise das equações envolvidas neste problema de otimização revela que:

• as curvas de nı́vel (ou de contorno) da função objetivo são cı́rculos concêntricos no


ponto (1, 5 ; 1, 5);

• a restrição h1 (x) =x1 +x2 −2, 0 " 0 corresponde à parte inferior da região delimitada
pela reta que passa pelos pontos (0, 0; 2, 0) e (2, 0; 0, 0), incluindo esta reta;

• as restrições h2 (x) = −x1 " 0 e h3 (x) = −x2 " 0 são restrições de não-negatividade
nas variáveis de otimização;

Se as restrições são ignoradas, o valor mı́nimo da função objetivo é 0, 0, no ponto


(1, 5; 1, 5), porém a restrição h1 (x) é violada. Considerando-se as restrições, a solução
ótima é (1, 0; 1, 0), com o valor 0, 5 para a função objetivo neste ponto. Portanto, a
solução ótima está situada na fronteira da região das soluções viáveis, sendo diretamente
influenciada pelas restrições. As curvas de nı́vel da função objetivo e a região viável
definida pelas restrições são representadas na Figura 1.1

Ex. 1.2
Min f (x) = (x1 − 0, 5)2 + (x2 − 0, 5)2
s.a h1 (x) =x1 + x2 − 2, 0 " 0
h2 (x) = −x1 " 0
h3 (x) = −x2 " 0
O conjunto de restrições deste problema é o mesmo que o do problema anterior. As
curvas de contorno da função objetivo também possuem a mesma forma, estando porém
centradas no ponto (0, 5; 0, 5).
Se as restrições fossem ignoradas, o valor mı́nimo da função objetivo seria no ponto
(0, 5; 0, 5), para o qual a função objetivo vale 0, 0. Se as restrições são consideradas,
a solução ótima permanece a mesma. Neste caso a localização da solução ótima é no
interior da região das soluções viáveis, não sendo portanto afetada pelas restrições.

Ex. 1.3
Min f (x) = (x1 − 2, 0)2 + (x2 − 2, 0)2
s.a h1 (x) =x1 + x2 − 2, 0 " 0
h2 (x) = − x1 + x2 + 3, 0 " 0
h3 (x) = −x1 " 0
h4 (x) = −x2 " 0
UFSC / EEL - Labspot - R. S. Salgado 3

Figura 1.1: Representação do problema do exemplo 1.1


4 Capı́tulo 1: Otimização com Restrições

Neste caso, o conjunto de restrições deste problema é o mesmo que o do problema anterior,
acrescido da restrição h2 (x) = − x1 + x2 + 3, 0 " 0. Esta restrição delimita a região abaixo
da reta −x1 + x2 + 3, 0 = 0. As curvas de contorno da função objetivo também possuem
a mesma forma mostrada anteriormente, estando porém centradas no ponto (2, 0; 2, 0).
A análise da região das soluções viáveis mostra que esta não é convexa. A solução deste
problema de otimização é inviável, conforme mostra a Figura 1.2.

1.2 Restrições de Igualdade


Visando simplificar o estabelecimento das condições de otimalidade para o problema de
otimização restrita, considere inicialmente a minimização de uma função f (x), tal que
x ∈ Rn satisfaça m restrições (m < n) de igualdade representadas pelas funções

gi (x) = 0, i = 1, 2 . . . m

O conjunto de equações gi (x) = 0, i = 1, 2 . . . m define a região das soluções viáveis,


a qual pertence a um subespaço de dimensão (n − m).
Denotando g(x) a matriz cujos componentes são as m restrições gi (x) = 0, isto é,
⎡ ⎤
g1 (x)
⎢ g2 (x) ⎥
⎢ ⎥
g(x) = ⎢ .. ⎥ (1.3)
⎣ . ⎦
gm (x)

o problema de otimização com restrições de igualdade é expresso como

Minimizar f (x)
(1.4)
sujeito a g(x) = 0

A maioria dos algoritmos de solução do problema de otimização com restrições de


igualdade são baseados na busca de uma solução que satisfaça as condições de otimalidade
de primeira ordem. Nos problemas de otimização irrestritos, isto requer que o vetor
gradiente da função objetivo seja nulo e que a matriz Hessiana seja positiva semi-definida
na solução ótima.
UFSC / EEL - Labspot - R. S. Salgado 5

Figura 1.2: Representação do problema do exemplo 1.3


6 Capı́tulo 1: Otimização com Restrições

Conforme mencionado anteriormente, uma solução x ∈ ℜn é dita viável com relação


ao conjunto de restrições de igualdade do problema de otimização, se cada equação do
conjunto g(x) = 0 é satisfeita no ponto considerado. Caso contrário, a solução x é deno-
minada inviável com relação ao conjunto de restrições de igualdade.
Uma solução x∗ é denominada mı́nimo local do problema de otimização com restrições
de igualdade se:

• x∗ é viável com relação a todas as restrições de igualdade;

• existe uma vizinhança V (x∗ ), tal que

f (x∗ ) " f (x) para todo x ∈ V (x∗ )

Se x∗ é viável e f (x∗ ) < f (x), a solução é classificada como mı́nimo local forte, e se
f (x∗ ) " f (x) a solução é dita ser um mı́nimo local fraco.
Com o objetivo de verificar se a condição de mı́nimo local se aplica à uma solução
viável, é necessário caracterizar a vizinhança V (x∗ ). Em geral, a viabilidade de uma
solução em relação a um conjunto de equações não-lineares é mantida apenas por mo-
vimento ao longo de um caminho não-linear, denominado arco viável. Por exemplo, a
restrição não-linear x21 + x22 = 1 representa um arco viável definido por um cı́rculo de raio
unitário no ℜ2 , centrado na origem.
Se existe um arco viável com relação à uma solução viável x, então a vizinhança desta
solução ao longo deste arco contém pontos viáveis. A verificação da otimalidade de uma
determinada solução requer o estabelecimento de uma condição indicando a existência do
arco viável. Para isto, consideremos a expansão da equação g(x) = 0 em série de Taylor,
no ponto x∗ e ao longo da direção d, isto é,
'
∗ ∗ ∂g(x) ''
g(x + d) = g(x ) + d + termos de ordem superior (1.5)
∂x 'x∗
'
∂g(x) ''
onde é a matriz de ordem m × n, cujas linhas são os vetores gradiente das
∂x 'x∗
restrições de igualdade calculados no ponto onde é feita a expansão. Esta matriz é expressa
analiticamente por
⎡ ⎤ ⎡ ⎤
∇g1 (x∗ ) a1 (x∗ )
' ⎢ ∇g2 (x∗ ) ⎥ ⎢ a2 (x∗ ) ⎥
∂g(x) '' ⎢ ⎥ ⎢ ⎥
∗ ⎢ ∇g3 (x∗ ) ⎥ ⎢ a3 (x∗ ) ⎥
= A(x ) = ⎢ ⎥ = ⎢ ⎥
∂x 'x∗ ⎢ .. ⎥ ⎢ .. ⎥
⎣ . ⎦ ⎣ . ⎦
∗ ∗
∇gm (x ) am (x )

onde ai (x∗ ) = ∇gi (x∗ ) é um vetor linha de ordem n.


Desprezando os termos de ordem superior da expansão em série de Taylor, os pontos
na vizinhança de x∗ ao longo de qualquer direção de movimento ξd serão viáveis apenas
se a condição
A(x∗ )d = 0 (1.6)
UFSC / EEL - Labspot - R. S. Salgado 7

for satisfeita.
Cada componente da Eq. (1.6) (ai (x∗ )d = 0) representa um hiperplano tangente
à superfı́cie definida pelo conjunto de restrições de igualdade no ponto x∗ . Portanto,
a condição estabelecida pela Eq. (1.6) pode ser interpretada geometricamente como o
requisito de que o vetor gradiente das restrições seja normal ao hiperplano tangente ao
arco viável, ou em outras palavras à superfı́cie definida pelas restrições de igualdade no
ponto x∗ .
Se a condição estabelecida pela Eq. (1.6) não é satisfeita, um movimento ao longo de
qualquer caminho tangente a d pode resultar na violação de uma restrição. Assim, deve
ser observado que se g(x) é acentuadamente não-linear, a condição imposta pela Eq. (1.6)
é insuficiente para assegurar que d é tangente ao arco viável. O requisito que g(x) deve
satisfazer de forma a assegurar a existência dos arcos viáveis é denominado qualificação
das restrições.
Para uma solução viável qualquer x, os requisitos de qualificação das restrições g(x)
são satisfeitos se cada vetor não nulo satisfazendo a Eq. (1.6) é tangente a um arco duas
vezes diferenciável originado em x.
Quando a restrição é linear, a qualificação da mesma é imediata. Caso contrário, a Eq.
(1.6) não representa rigorosamente a não linearidade da restrição, e portanto a análise da
mesma pode conduzir a conclusões errôneas sobre a viabilidade da solução.
Um ponto regular é aquele para o qual as restrições g(x) = 0 são simultaneamente
satisfeitas e os vetores gradiente das restrições (linhas da matriz A(x)) são linearmente
independentes. Nesses pontos, a Eq. (1.6) caracteriza completamente os hiperplanos
tangentes aos arcos viáveis, pois amesma requer que o vetor d pertença ao espaço nulo
formado pelas linhas da matriz A(x) (vetores gradiente das restrições no ponto conside-
rado).
Se Z é uma matriz de ordem n × (n − m) cujas colunas são uma base do espaço nulo
das linhas da matriz A(x), então A(x)Z = 0 e

A(x)d = 0 se e somente se d = Zdz

onde dz é um vetor arbitrário.


Resumindo, se x∗ é um ponto de mı́nimo local de f (x) no problema expresso pela Eq.
(1.4), então x∗ é uma solução viável; isto é,

g(x∗ ) = 0

e para qualquer outra solução viável, obtida à partir de x∗ na direção d; isto é, satis-
fazendo a condição A(x)d = 0, o valor da função objetivo não é menor do que aquele
correspondente a x∗ . Isto é expresso analiticamente pela inequação

f (x∗ + d) = f (x∗ ) + ∇f (x∗ )t d ≥ f (x∗ )

o que implica em
∇f (x∗ )t d ≥ 0,para todo d
'
∂f (x) ''
onde ∇f (x∗ ) = é o vetor gradiente da função objetivo no ponto x∗ .
∂x 'x∗
8 Capı́tulo 1: Otimização com Restrições

Desde que A(x)d = 0 e pela condição de mı́nimo local, o produto escalar ∇f (x∗ )t d
é nulo na melhor das hipóteses. Então, o vetor gradiente da função objetivo pode ser
expresso como uma combinação linear das linhas da matriz A(x); isto é,

∇f (x∗ ) = A(x∗ )t λ

onde λ é um vetor arbitrário de ordem m × 1. Desta forma, a condição ∇f (x∗ )t d ≥ 0 é


satisfeita, pois ( )t
∇f (x∗ )t d = A(x∗ )t λ d = λt A(x∗ )d = 0
Portanto, a condição necessária para que uma solução viável x∗ seja um ponto de
mı́nimo local do problema de otimização com restrições de igualdade representado pela
Eq. (1.4), é que
∇f (x∗ ) = A(x∗ )t λ
onde, λ é um vetor formado pelos escalares λi , denominados multiplicadores de Lagrange.
Esta condição também pode ser escrita como

Zt ∇f (x∗ ) = 0

pois A(x∗ )Z = 0, conforme definido anteriormente.

1.1 : Analise as soluções viáveis da região definida pelas funções


c1 (x) = x1 + x2 + 3x3 − 2 = 0
c2 (x) = 5x1 + 2x2 + x3 − 5 = 0

1.2.1 Função Lagrangeana


Quando apenas restrições de igualdade são consideradas no problema de otimização, é
conveniente analisar o mesmo sob o ponto de vista de um problema irrestrito, o que é
possı́vel através da função Lagrangeana.
A função Lagrangeana correspondente ao problema expresso pela Eq. (1.4),

Minimizar f (x)
sujeito a g(x) = 0
é dada por
£(x, λ) = f (x) − λt g(x)
onde λ é o vetor (m × 1), dos multiplicadores de Lagrange.
Observe que, na solução ótima (x∗ , λ∗ ) o valor crı́tico de £(x∗ , λ∗ ) é apenas f (x∗ ) pois
gi (x∗ ) = 0 para i = 1, . . . , m.
Os pontos estacionários desta função irrestrita são determinados aplicando-se as condições
de otimalidade de 1a ordem; isto é, derivando-se a função Lagrangeana £(x, λ) e igualando-
se o resultado a zero. Isto fornece

∂£(x, λ)
= ∇x £(x, λ) = 0 = ∇x f (x) − ∇x g(x)t λ
∂x
UFSC / EEL - Labspot - R. S. Salgado 9

e
∂£(x, λ)
= ∇λ £(x, λ) = 0 = −g(x)
∂λ
onde ∇x g(x) = A(x) e gi (x) foram definidos anteriormente.
A primeira equação pode ser escrita como

∇x f (x) − A(x)t λ = 0

o que resulta em
∇x f (x) = A(x)t λ
isto é, em um ponto estacionário o vetor gradiente é expresso como uma combinação linear
das colunas de ∇x g(x) = A(x).

Ex. 1.4 Determinar os pontos estacionários da função f (x) = 3x21 + 4x22 sujeito a res-
trição g(x) = 3, 5x1 + 4x2 − 14 = 0.
Os vetores gradiente da função objetivo e das restrições são, respectivamente
* +
6x1
∇f (x) =
8x2
* +
3, 5
∇g(x) =
4, 0
De acordo com a condição de otimalidade
* + * +
6x1 3, 5
= λ
8x2 4, 0

tal que, 3, 5x1 + 4x2 − 14 = 0.


A solução deste sistema linear fornece λ = −3, 46, x1 = 2, 02 e x2 = 1, 73.
A ilustração geométrica deste problema é mostrada na Figura 1.3

Ex. 1.5 Determinar os pontos estacionários da função f (x) = 2x1 + 3x2 sujeito a res-
trição g(x) = x21 + 1, 5x22 − 6 = 0.

1.2.2 Multiplicadores de Lagrange


Visando facilitar a interpretação geométrica dos multiplicadores de Lagrange, suponha
que o conjunto de m restrições de igualdade seja expresso por um sistema de equações
lineares representadas pela equação (Ax∗ = b, onde A possui m linhas linearmente
independentes), e que na solução ótima x∗ com x ∈ ℜn , o valor da função objetivo seja
f (x∗ ).
A condição de otimalidade de primeira ordem estabelece que o gradiente da função
objetivo deve ser expresso como uma combinação linear dos gradientes das restrições; ou
seja,
∇x f (x∗ ) = At λ
onde λ é o vetor dos multiplicadores de Lagrange.
10 Capı́tulo 1: Otimização com Restrições

Figura 1.3: Representação do problema do exemplo 1.4


UFSC / EEL - Labspot - R. S. Salgado 11

Desde que posto (A) = m, é possı́vel particionar a matriz A em duas submatrizes A1 ,


de ordem (m × m) e A2 , de ordem m × (n − m), sendo A1 não singular, tal que
* +
x1
[A1 |A2 ] =b (1.7)
x2

onde o vetor * +
x1
x=
x2
é particionado de forma semelhante a da matriz A.
Desde que A1 é não singular,

x1 = A−1
1 (b − A2 x2 )

tal que a função objetivo é expressa como

f (x) = f (x1 , x2 ) = f [A−1


1 (b − A2 x2 ), x2 ]

e o vetor gradiente de f (x) particionado nesta mesma base fornece


* +
g1
∇x f (x) =
g2

onde g1 = ∇x1 f (x) e g2 = ∇x2 f (x).


A equação At λ = ∇x f (x) pode ser re-escrita como,
* + * +
At1 g1
λ=
At2 g2

tal que
λ = A−t
1 g1

e
g2 = At2 N−t
1 g1

A derivada da função objetivo f [A−1


1 (b − A2 x2 ), x2 ] com relação a b é

∂f (x)
= A−t
1 g1 = λ
∂b
ou seja, os multiplicadores de Lagrange fornecem na solução ótima informações sobre a
sensibilidade instantânea da função objetivo com relação a pertubações nas restrições.

Ex. 1.6 Considere dois geradores suprindo potência a uma carga de 3 MW. Os geradores
possuem curvas de custo de geração de potência ativa dadas por C1 (P1 ) = 1, 10P12 e
C1 (P2 ) = 0, 88P22. Determinar a potência de saı́da de cada gerador na solução de mı́nimo
custo de geração. As perdas de potência ativa nas linhas de transmissão são desprezı́veis.
12 Capı́tulo 1: Otimização com Restrições

1.3 Condições de Suficiência


As condições de otimalidade necessárias para que uma solução viável x∗ seja um ponto
de mı́nimo do problema de otimização com restrições de igualdade são as seguintes:

1. o gradiente da função objetivo deve ser expresso como uma combinação linear dos
vetores gradiente das restrições no ponto x∗ , isto é

∇f (x∗ ) = A(x∗ )t λ∗

2. para quaisquer vetores d e λ∗ satisfazendo respectivamente as condições A(x∗ )t d =


0 e ∇f (x∗ ) = A(x∗ )t λ∗ , então dt ∇2 £(x∗ , λ∗ )d ! 0.

A segunda condição implica no requisito de que a função Lagrangeana £(x, λ∗ ) seja


convexa em x e λ. Em outras palavras, se as funções f (·) e gi (·) são duas vezes dife-
renciáveis, a matriz Hessiana ∇2 £(x∗ , λ∗ ) deve ser positiva semi-definida.
Se ∇2 £(x∗ , λ∗ ) é positiva definida, estas condições são suficientes para assegurar que
(x∗ , λ∗ ) é um ponto de mı́nimo de £(x, λ) e de f (x), pois dt ∇2 £(x∗ , λ∗ )d > 0 para
qualquer d e dt ai (x∗ ) = 0. Desde que d = Zdz (Z é a matriz de espaço nulo das linhas
de A(x∗ )), então a segunda condição requer que a matriz

Zt ∇2 £(x∗ , λ∗ )Z

denominada Hessiana reduzida da função Lagrangeana, seja positiva definida.

Ex. 1.7 : Verificar as condições de otimalidade dos seguintes problemas:


Min f (x) =4x21 + 3x22 − 5x1 x2 − 8x1
s.a x1 + x2 = 4, 0

Min f (x) = (x1 − 1, 0)2 + (x2 − 1, 0)2
s.a x1 + x2 − 4, 0 = 0, 0
x1 − x2 − 2, 0 = 0, 0

Min f (x) =2x1 + 3x2
s.a x21 + 1, 5x22 − 6, 0 = 0

1.4 Restrições de Desigualdade


Suponha que o problema de otimização a ser resolvido é representado por

Min f (x)
s.a h(x) ≥ 0

onde as inequações h(x) ! 0 representam as restrições de desigualdade.


UFSC / EEL - Labspot - R. S. Salgado 13

Uma solução é considerada viável se o conjunto de restrições h(x) ! 0 é satisfeito.


Caso alguma restrição não seja satisfeita, a solução é dita inviável. Portanto as equações
do conjunto h(x) ! 0 definem a região das soluções viáveis. A restrição de desigualdade
hi (x) ≥ 0 é denominada restrição ativa se ela estiver no limite no ponto x∗ , isto é hi (x∗ ) =
0. Caso contrário, se hi (x) > 0, a inequação é chamada restrição inativa.
Se x∗ é um ponto viável e mı́nimo local de f (x), então,

1. x∗ pertence à região das soluções viáveis definida pelo conjunto de restrições h(x) !
0;

2. não existe nenhum vetor d, tal que

• o ponto x = x∗ + d pertença a região das soluções viáveis;


• resulta em decréscimo no valor da função objetivo, isto é, ∇f (x∗ )t d < 0.

O significado destas condições é que qualquer movimento a partir de x∗ não tem com-
ponente negativa ∇f (x)t d, e portanto o valor da função objetivo não pode ser reduzido.
Quanto à localização da solução ótima, as duas seguintes possibilidades são conside-
radas:

1. o ponto x∗ está localizado no interior da região das soluções viáveis. Isto implica
em que não há nenhuma restrição de desigualdade ativa, ou seja

h(x∗ ) > 0

e portanto existe uma vizinhança de x∗ pertencente a região das soluções viáveis,


tal que se x∗ é um ponto estacionário então

∇f (x∗ ) = 0

2. x∗ é tal que existe uma ou mais restrições ativas (por exemplo, hi (x∗ ) = 0 para
algum i ∈ I). O conjunto I, chamado conjunto de restrições ativas, é em geral
desconhecido, exceto no caso onde existem apenas restrições de igualdade.

1.4.1 Condições de Karush-Kuhn-Tucker


Seja o ponto x∗ para o qual,
hi (x∗ ) = 0, i ∈ I
hi (x∗ ) > 0, i ∈
/I
Se os vetores ai (x∗ ) = ∇hi (x∗ ), i ∈ I são linearmente independentes e se x∗ é um
ponto de mı́nimo local forte de f (x∗ ) sujeito as restrições hi (x) ! 0, então:

1. ∇f (x∗ ) = A(x∗ )t λ∗ , onde as linhas da matriz A são os vetores gradiente das res-
trições ativas;

2. λ∗i = 0 para as restrições inativas (hi (x∗ ) > 0, i ∈


/ I);
14 Capı́tulo 1: Otimização com Restrições

3. λ∗i hi (x∗ ) = 0 (condição de complementaridade), com hi (x∗ ) ≥ 0;


4. λ∗ > 0 para as restrições ativas (hi (x∗ ) = 0, i ∈ I).

Essas condições, as quais estabelecem a suficiência para que a solução de um problema


de otimização com restrições de desigualdade seja ótima, são chamadas Condições de
Karush-Kuhn-Tucker para o ponto de mı́nimo.
Para interpretar a condição λ > 0, consideremos d uma direção de movimento a partir
da solução x∗ , tal que todas as restrições do conjunto I permanecem ativas, com exceção
da k − ésima restrição, a qual permanece viável mas se torna inativa. Então no ponto
x∗ + d,
dt ai (x∗ ) = 0, i ∈ I, i ̸= k
hk (x∗ + d) ≥ hk (x∗ ) = 0
tal que
dt ak (x∗ ) ≥ 0
A expansão em série de Taylor de f (x) na direção d e em torno de x∗ até o termo de
a
1 ordem fornece
f (x∗ + d) = f (x∗ ) + dt ∇f (x∗ )
= f (x∗ ) + dt A(x∗ )t λ∗
= f (x∗ ) + dt λ∗k ak (x∗ )
pois dt ai (x∗ ) = 0 para i ∈ I, de forma que a expressão resultante é
f (x∗ + d) = f (x∗ ) + dt λ∗k ak (x∗ )
sendo que dt ak (x∗ ) ≥ 0 e então, se λ∗k > 0 o 2o termo sempre resultará em acréscimo no
valor da função objetivo.
As condições de Kuhm-Tucker são suficientes em primeira ordem para assegurar que
x∗ é ponto de mı́nimo, pois é possı́vel provar que não existe vetor d satisfazendo simulta-
neamente as inequações dt ∇f (x∗ ) < 0 e dt ai (x∗ ) ≥ 0.
A condição λ∗k > 0 mostrada acima, pode também ser explicada a partir do fato de
que
∂f
= λk (quando hk (x) = bk )
∂bk
Um aumento em bk moverá o correspondente limite para o interior da região viável.
Se λ∗k > 0, desde que
∂f
= λk
∂bk
a única forma de reduzir o valor da função objetivo com relação a restrição hk (x) ≥ 0 seria
diminuindo bk , tal que ∂bk < 0. Entretanto, isto poderia resultar numa solução inviável.
Então λ∗k ≤ 0 indica que, se a restrição hk (x) ≥ bk é ativa, não é possı́vel reduzir o valor
da função objetivo via manipulação da restrição hk . Daı́, a condição
∂f (x∗ )
= λ∗k
∂bk
com
UFSC / EEL - Labspot - R. S. Salgado 15

• λ∗k > 0, para as restrições ativas;

• λ∗k = 0, para as restrições não ativas.


A particularização do estabelecimento das condições de Karush-Kuhn-Tucker para o
caso do problema de otimização com restrições de desigualdade lineares é mostrada a
seguir.

1.5 Otimização com Restrições Lineares


Seja o seguinte problema de otimização, no qual as restrições são representadas por um
conjunto de desigualdades.
Minimizar f (x)
(1.8)
sujeito a Ax ≥ b
onde, f (x) é a função objetivo a ser otimizada, A é a matriz de coeficiente das restrições
formada por vetores linha ati , b é o vetor do lado direito com componentes bi e x é o vetor
das variáveis de otimização. A determinação de uma solução viável para este problema
requer uma distinção preliminar entre as inequações que representam as restrições. Para
um dado ponto x é possı́vel distinguir três situações na qual podem estar as mesmas:

• restrições satisfeitas, mas não no limite, isto é, ati x > bi , chamadas restrições inati-
vas;

• restrições satisfeitas e no limite, isto é, ati x = bi , chamadas restrições ativas;

• não satisfeitas, isto é, ati x < bi , chamadas restrições violadas.

Em termos gerais duas situações podem ser previstas com relação a solução inicial no
problema de otimização exposto na Eq. (1.8):

• solução inicial viável, isto é, x0 tal que Ax0 ≥ b, ou seja, x0 para o qual todas as
restrições são satisfeitas;

• solução inicial inviável, isto é, x0 para o qual existem restrições i tal que ati x0 < bi

Naturalmente, é mais simples resolver o problema representado pela Eq. (1.8) a partir
de uma solução inicial viável. Entretanto, nem sempre é possı́vel se dispor de tal solução.
Com o objetivo de analisar os movimentos à partir de uma solução inicial viável a fim
de se estabelecer subseqüentemente as condições de otimalidade do problema expresso
pela Eq. (1.8), seja xk uma solução viável. Se a j-ésima restrição é inativa porém
satisfeita neste ponto, ou seja atj xk > bj , então os movimentos a partir de xk são possı́veis
em qualquer direção sem violar a restrição considerada. Isto é, para qualquer vetor d,
xk + ξd será viável para uma escolha adequada de ∥ ξ ∥.
Por outro lado, uma restrição ativa limita os movimentos a partir de um ponto viável.
Se a i-ésima restrição é tal que ati xk = bi , existem dois tipos de movimento que manterão
a restrição viável. Se d satisfaz
ati d = 0 (1.9)
16 Capı́tulo 1: Otimização com Restrições

a direção d corresponde a um movimento ao longo da restrição i, e esta permanece ativa


para todos os pontos xk + αd para qualquer α. Se d é tal que ati d > 0, então

ati (xk + αd) = bi + αati d > bi se α>0 (1.10)

isto é, a i-ésima restrição se torna inativa no ponto xk + αd. O vetor d representa,
portanto, um movimento com a direção apontando para o interior da região viável.
Para determinar se o ponto x∗ é a solução ótima do problema de otimização com
restrições de desigualdade lineares, deve-se inicialmente identificar as restrições ativas em
x∗ . Para isto, seja  uma matriz de ordem (t × n) cujas linhas são os coeficientes das
restrições ativas em x∗ . A condição necessária para que x∗ seja a solução ótima é

∇f (x∗ ) = Ât λ (1.11)

onde ∇f (x∗ ) e λ são os mesmos definidos previamente.


Esta condição assegura que f (·) é estacionária para todos os movimentos de x∗ ao longo
das restrições ativas. Entretanto, desde que os movimentos à partir de x∗ direcionados
para o interior da região viável correspondem também a soluções viáveis, o ponto x∗ não
será ótimo se houver alguma direção d de movimento descendente, isto é, ao longo da
qual a função objetivo decresça. Para evitar esta possibilidade, é necessário assegurar
que, para qualquer vetor d satisfazendo Âd ≥ 0 então ∇t f (x∗ )d ≥ 0. Desde que, pela
Eq. (1.11)
∇t f (x∗ )d = λ1 ât1 d + λ2 âT2 d + · · · + λt âtt d (1.12)
onde, t é o número de restrições ativas; a condição desejada é representada por

∇t f (x∗ )d = λ1 ât1 d + λ2 âT2 d + · · · + λt âTt d ≥ 0 (1.13)

onde, âti d ≥ 0, i = 1, 2, · · · , t
Esta condição é satisfeita somente se λi ≥ 0, i = 1, 2, · · · , t, isto é, x∗ não será a solução
ótima se existirem multiplicadores de Lagrange negativos, pois isto indica que ainda existe
alguma direção ao longo da qual é possı́vel reduzir o valor da função objetivo.
Para se estabelecer o conjunto total de condições de otimalidade para o problema
definido pela Eq. (1.8), deve-se fazer a imposição adicional de que as t linhas da matriz
 são linearmente independentes e que Z é uma matriz cujas colunas formam uma base
para o conjunto de vetores ortogonais as linhas de Â. Neste caso, cada vetor d tal que
Âd = 0 pode portanto ser escrito como uma combinação linear das colunas de Z, isto
é, d = Zdz onde, dz é um vetor arbitrário. A expansão da função f (x) no ponto x∗ ao
longo da direção d (para a qual Âd = 0 e d = Zdz ) é dada por
1
f (x∗ + ξZdz ) = f (x∗ ) + ξdtz Zt ∇f (x∗ ) + ξ 2dtz Zt G(x∗ )Zdz (1.14)
2
onde, G(x∗ ) é a matriz de segunda derivada de f (·) calculada em x∗ . A análise desta
equação mostra que uma condição adicional para que x∗ seja a solução ótima é que
a matriz Zt G(x∗ )Z seja positiva definida, pois neste caso 21 ξ 2 dTz Zt G(x∗ )Zdz ≥ 0 para
qualquer d, isto é, não há direção ao longo da qual o valor da função objetivo possa ser
reduzido. Portanto, as condições de otimalidade para o problema de otimização expresso
pela Eq. (1.8) podem ser sumarizadas como:
UFSC / EEL - Labspot - R. S. Salgado 17

1. ati x∗ > bi , para as restrições inativas e ati x∗ = bi , para as restrições ativas;

2. ∇f (x∗ ) = Ât λ, onde, Â corresponde as restrições ativas;

3. λ > 0 para as restrições ativas;

4. Zt G(x∗ )Z positiva definida.

Essas condições são chamadas Condições de Karush-Kuhn-Tucker para o problema


de otimização com restrições lineares expresso pela Eq. (1.8). é comum ainda, atribuir
multiplicadores de Lagrange nulos as restrições inativas, tal que a condição 3 poderia ser
expressa de forma generalizada por:

• λi > 0 para restrições ativas

• λi = 0 para restrições inativas

1.6 Exercı́cios
1.2 : Determinar os pontos estacionários e analisar as condições de otimalidade dos
seguintes problemas:

1.
Min f (x) =2x1 + 3x2 − x31 − 2x22
s.a x1 + 3x2 − 6, 0 " 0
5x1 + 2x2 − 10, 0 " 0
x1, x2 ! 0

2.
Min f (x) =4x21 + 3x22 − 5x1 x2 − 8x1
s.a x1 + x2 − 4, 0 " 0

3.
Min f (x) =x21 + x22 − 4x1 − 2x2 + 6, 0
s.a x1 + x2 − 4, 0 ! 0

4.
Min f (x) =2x21 + 9x22 − 6x1 x2 − 18x1 + 9x2
s.a x1 + 2x2 − 10, 0 " 0
4x1 − 3x2 − 20, 0 " 0
x1 , x2 ! 0

5.
Min f (x) =9x21 + 13x22 − 18x1 x2 − 4, 00
s.a x21 + x22 + 2x1 − 16, 0 ! 0

6.
Min f (x) =x31 − 16x1 + 2x2 − 3x22
s.a x1 + x2 − 3, 0 " 0
18 Capı́tulo 1: Otimização com Restrições

7.
Min f (x) =3x21 − 2x1 x2 + 5x22 + 8x2
s.a x21 − x22 + 8x2 − 16, 0 " 0

1.3 : Encontre o ponto estacionário x∗ da função

f (x) = x21 + x22 + x23

sujeito a
c1 (x) = x1 + x2 + 3x3 − 2 = 0
c2 (x) = 5x1 + 2x2 + x3 − 5 = 0
e determine a sua natureza. Verifique se o vetor gradiente de f (x) pode ser escrito como
uma combinação linear dos vetores gradientes das restrições c1 (x) e c2 (x).

1.4 : Mostre que x = (1, 0; 1, 0; 1, 0) é um ponto estacionário da função

f (x) = x21 + 2x22 + 4x23 + 5x1 x2

sujeito as restrições
c1 (x) = x1 + x22 + 3x2 x3 − 5 = 0
c2 (x) = x21 + 5x1 x2 + 3x23 − 9 = 0
e determine a sua natureza.

1.5 : Verifique que a função


f (x) = x21 + x22 + x23
sujeito a
c1 (x) = x21 − 4x2 = 0
c2 (x) = x1 − x2 − 1 = 0
tem um mı́nimo em x∗ = (2, 0; 1, 0; 0, 0), porém o gradiente da função objetivo não pode
ser expresso como uma combinação linear dos vetores gradientes das restrições.

1.6 : Estabeleça as condições de Kuhn-Tucker para o problema

Minimizar f (x) = −x31 + x22 − 2x1 x23

sujeito a
c1 (x) = 2x1 + x22 + x3 − 5 = 0
c2 (x) = 5x21 − x22 − x3 ≥ 2
c3 (x) = x1 ≥ 0
c4 (x) = x2 ≥ 0
c5 (x) = x3 ≥ 0
e verifique se elas são satisfeitas no ponto x = (1, 0; 0, 0; 3, 0).
UFSC / EEL - Labspot - R. S. Salgado 19

1.7 : Estabeleça as condições de Kuhn-Tucker para o problema


Minimizar f (x) = x21 + x22 + x23
sujeito a
c1 (x) = −x1 + x2 − x3 ≥ −10, 0
c2 (x) = x1 + x2 + 4x3 ≥ 20, 0
e obtenha a solução deste problema através de qualquer método.
1.8 : Para o problema
Minimizar f (x) = (x1 − 1)2 + (x2 − 1)2
sujeito a
c1 (x) = x1 + x2 ≤ 0, 50
x1 ≥ 0, 0
1. plotar os contornos de f (x) = 0, 0, f (x) = 1, 0 e f (x) = 4, 0 e as restrições do
problema de otimização;
2. identificar o mı́nimo irrestrito na Figura;
3. identificar o mı́nimo restrito na Figura;
4. calcular os multiplicadores de Lagrange.
1.9 : Seja o problema
Minimizar f (x) = x1 + x2
sujeito a
2 − x21 − x2 ≤ 0, 0
4 − x1 − 3x2 ≤ 0, 0
−30 + x1 + x22 ≤ 0, 0
1. verificar se as condições de otimalidade de primeira ordem são satisfeitas no ponto
(1, 0; 1, 0);
2. calcular os multiplicadores de Lagrange neste ponto.
1.10 Determine a potência de saı́da de três geradores, que resulta no mı́nimo custo de
geração de potência ativa, quando uma carga de 800 MW é suprida. Considere as perdas
de transmissão desprezı́veis. As curvas de custo de geração são quadráticas, dadas por
C1 (P1 ) = 300 + 7, 3P1 + 0, 001P12

C2 (P2 ) = 150 + 7, 8P2 + 0, 002P22

C3 (P3 ) = 75 + 7, 5P3 + 0, 005P32


não havendo restrição na geração de potência.
1.11 Verifique as condições de otimalidade do problema da aplicação 1.10, conside-
rando que as perdas de potência ativa na transmissão são dadas por Pl = 0, 00003P12 +
0, 00005P22 + 0, 00007P32.
20 Capı́tulo 1: Otimização com Restrições
Capı́tulo 2

Análise de Sensibilidade

É freqüente a situação na qual a solução do fluxo de potência obtido não satisfaz as


condições impostas pelos limites operativos (magnitude da tensão, geração de potência,
fluxos nas linhas, etc). Isto requer o ajuste conveniente das variáveis do sistema, de forma
a se obter uma solução viável com relação aos limites de operação. A interdependência
entre as variáveis do sistema de potência é quantitativamente estimada pela chamada
Análise de Sensibilidade. A sensibilidade é definida como a razão entre a mudança numa
variável dependente e o incremento numa variável independente selecionada. A análise
de sensibilidade é de grande importância nos estudos de planejamento da operação dos
sistemas de potência, pois ela auxilia na observação da relação causa-efeito, servindo de
base para o estudo do controle do sistema em regime permanente. Neste capı́tulo, são
derivadas relações de sensibilidade entre as variáveis do sistema de potência. A base
dessas relações é a expansão de primeira ordem, das equações da rede elétrica em regime
permanente em série de Taylor. Inicialmente, a forma polar dessa equações é mostrada,
servindo posteriormente como ponto de partida para o desenvolvimento da análise de
sensibilidade.

2.1 Equações do Balanço de Potência


Assuma que as equações de balanço de potência sejam representadas por
,
Pgk − Pdk − Vk (Gkm cos δkm + Bkm sin δkm )Vm = 0 (2.1)
mϵ{K}

,
Qgk − Qdk − Vk (Gkm sin δkm − Bkm cos δkm )Vm = 0 (2.2)
mϵ{K}

onde, V e δ são a magnitude e o ângulo da tensão nas barras, respectivamente; {K} é o


conjunto de barras adjacentes à barra k; Gkm e Bkm são a condutância e a susceptância,
respectivamente, da linha de transmissão entre as barras k e m; δkm = δk − δm é a
diferença angular entre os nós k e m; δk e δm são os ângulos da tensão das barras k e
m, respectivamente; Pgk , Pdk e Qgk , Qdk são as potências gerada e de demanda, ativa e
reativa, respectivamente, da k ésima barra.
22 Capı́tulo 2: Análise de Sensibilidade

Na solução do problema de fluxo de potência, algumas variáveis envolvidas nas ex-


pressões (2.1) e (2.2) (magnitude e ângulo da tensão nas barras de carga e ângulo da
tensão nas barras de geração, geração de potência reativa) são dependentes das condições
de operação determinadas pela geração de potencia ativa e magnitude da tensão especi-
ficadas (barras de geração) e pela demanda de potência do sistema. Por esta razão, as
variáveis do primeiro conjunto (VP Q , δ, Qg ) são classificadas como controladas ou depen-
dentes. As variáveis remanescentes podem ser divididas em dois grupos. O primeiro é
formado pela geração de potência ativa, magnitude da tensão nas barras de geração, taps
de transformadores com comutação sob carga etc, que podem ser ajustadas para suprir
a demanda, de acordo com as suas limitações fı́sicas. Essas grandezas são denominadas
variáveis de controle ou variáveis independentes. A demanda do sistema e os parâmetros
da rede de transmissão não são quantidades controláveis e portanto são classificados como
parâmetros fixos. Assim, os conjuntos de equações (2.1) e (2.2) podem ser representados
na forma vetorial por
g(u, x, p) = 0 (2.3)
onde, u é o vetor das variáveis de controle, x é o vetor das variáveis dependentes e p é o
vetor dos parâmetros fixos.

2.2 Relações de Sensibilidade


Considere que o sistema de potência opera numa condição inicial definida por

(u0 , x0 , p)

A relação entre as variáveis de controle e dependentes pode ser determinada expandindo-se


as equações não lineares da rede elétrica g(u, x, p) = 0 em série de Taylor, na vizinhança
da solução inicial (u0 , x0 ) e na direção (∆u, ∆x), até o termo de primeira ordem. Isto
fornece
' '
∂g(u, x, p) ' ∂g(u, x, p) '
g(u + ∆u, x + ∆x, p) ∼
0 0 0 0
= g(u , x , p) + '
' 0 0 ∆x+ '
' 0 0 ∆u
∂x (u ,x ,p) ∂u (u ,x ,p)
(2.4)
0 0 0 0
Desde que ambos os pontos (u , x , p) e (u + ∆u, x + ∆x, p) devem satisfazer as
equações da rede elétrica,
' '
∂g(u, x, p) '' ∂g(u, x, p) '' ∼
∂x ' 0 0 ∆x + ∂u ' 0 0 ∆u = 0
(u ,x ,p) (u ,x ,p)

e, portanto,
* +−1 * +
∂g(u0 , x0 , p) ∂g(u0 , x0 , p)
∆x = − ∆u (2.5)
∂x ∂u
ou, na forma compacta,
∆x = Sxu ∆u (2.6)
onde * +−1 * +
∂g(u0 , x0 , p) ∂g(u0 , x0 , p)
Sxu =
∂x ∂u
UFSC / EEL - Labspot - R. S. Salgado 23

é a matriz de sensibilidade que relaciona os incrementos nas variáveis de controle e de-


pendentes.
Conjuntos distintos de variáveis e de equações podem ser selecionados. Por exemplo,
se o conjunto de equações não lineares e as variáveis envolvidas no processo iterativo da
solução do fluxo de potência via Newton-Raphson (ângulos da tensão das barras PV e
PQ e magnitude da tensão nas barras PQ) forem escolhidas, então
⎡ ⎤
∆δ P V
∆x = ⎣ ∆δ P Q ⎦
∆V P Q

é o vetor dos incrementos nas variáveis controladas, e


⎡ ⎤
* + HP V,P V HP V,P Q NP V,P Q
∂g(u, x, p)
= J = ⎣ HP Q,P V HP Q,P Q NP Q,P Q ⎦
∂x
MP Q,P V MP Q,P Q LP Q,P Q

onde
∂P ∂P
H⇒ N⇒
∂δ ∂V

∂Q ∂Q
M⇒ L⇒
∂δ ∂V
são as conhecidas componentes da matriz Jacobiana.
Se as potências ativas geradas são escolhidas como as variáveis de controle cujo efeito
das mudanças é desejado determinar; ou seja, ∆u = ∆P g , então

∂g(u, x, p)
= AP V
∂u
onde A é uma matriz cujos termos são expressos como
-
1, if i = j e i corresponde a uma barra P V
AP V (i, j) =
0 em caso contrário

Se a magnitude da tensão nas barras de geração é escolhida como a variável de controle


cujo efeito das mudanças é desejado determinar; ou seja, ∆u = ∆Vg , então
⎡ ⎤
NP V,f NP V,P V
∂g(u, x, p)
= NA = ⎣ NP Q,f NP Q,P V ⎦
∂u
LP Q,f LP Q,P V

Com base nas especificações anteriores, a variação da magnitude da tensão das barras
P Q resultante da variação na geração de potência ativa é dada por,
⎡ ⎤ ⎡ ⎤
∆δ P V ∆PP V
⎣ ∆δ P Q ⎦ = −J−1 ⎣ 0 ⎦ (2.7)
∆VP Q 0
24 Capı́tulo 2: Análise de Sensibilidade

que é o sistema linear resolvido em cada iteração do método Newton-Raphson, com


∆PP Q = 0 e ∆QP Q = 0.
Se a matriz J−1 é particionada como,
* +
−1 S11 S12
J = (2.8)
S21 S22

onde, S11 é a matriz de sensibilidade do ângulo da tensão das barras P Q em relação às
variações da potência ativa das barras P V ; S21 a matriz de sensibilidade da magnitude
da tensão nas barras P Q com relação às variações de potência ativa das barras P V ; a
equação (2.7) se transforma em,
⎡ ⎤
∆δ P V * +
⎣ ∆δ P Q ⎦ = − S11
∆PP V (2.9)
S21
∆V P Q

e, portanto,
∆VP Q = −S21 ∆PP V
Na prática, nem a inversão explı́cita e nem o particionamento são requeridos, desde que
ao final de um processo convergente de fluxo de potência via método de Newton-Raphson
a matriz Jacobiana é disponı́vel na forma fatorada. Os coeficientes de sensibilidade são
obtidos simplesmente executando-se processos de substituição direta e inversa, numa série
de sistemas lineares cujos lados direitos são as colunas de uma matriz identidade.
Um procedimento semelhante pode ser adotado quando a tensão gerada é tomada como
variável de controle. Neste caso, os incrementos nas variáveis dependentes são expressos
como, ⎡ ⎤
∆δ P V * +
⎣ ∆δ P Q ⎦ − J−1 NA ∆Vf (2.10)
∆VP V
∆VP Q
onde todos os termos foram previamente definidos.
O particionamento conveniente da matriz resultante do produto J−1 NA , fornece
⎡ ⎤
∆δ P V * +* +
⎣ ∆δ P Q ⎦ = − S11 ∆V f
(2.11)
S21 ∆VP V
∆VP Q

onde, S11 é uma matriz de sensibilidade do ângulo das barras P V e P Q com relação às
variações da magnitude da tensão das barras de geração; S21 é uma matriz de sensibili-
dade da magnitude da tensão das barras P Q com relação às variações da magnitude da
tensão das barras de geração; e finalmente,

∆VP Q = −S21 ∆Vf,P V (2.12)

Da mesma forma que no caso anterior, as linhas de S21 são obtidas executando-se
processos de substituição direta e inversa. Todavia, neste caso os vetores do lado direito
são as colunas da matriz NA .
UFSC / EEL - Labspot - R. S. Salgado 25

Ex. 2.1 Considere o sistema da figura (2.1), o qual é constituı́do de 6 barras (2 geradores,
3 barras de carga e uma barra de transferência). A rede de transmissão é composta de
7 linhas, com transformadores com comutação sob carga entre as barras 3-4 e 5-6. Os
dados das das linhas de transmissão e a solução do fluxo de potência via Newton-Raphson
1
são mostrados nas tabelas 2.1 e 2.2.

1 4 3

5 2
6

Figura 2.1: Sistema de 6 barras

Bs h
Linha Barras R X tap
2
(%) (%) (%) (pu)
1 1 - 4 8,00 37,0 1,5 -
2 1 - 6 12,3 51,8 2,1 -
3 2 - 3 72,3 105,0 0,00 -
4 2 - 5 28,2 64,0 0,00 -
5 3 - 4 0,00 13,3 0,00 0,909
6 4 - 6 9,70 40,7 1,5 -
7 5 - 6 0,00 30,0 0,00 0,975

Tabela 2.1: Dados do sistema de transmissão - sistema de 6 barras

Seja o conjunto completo de equações da rede elétrica selecionado para o cálculo das

1
Os dados e os resultados apresentados neste exemplo foram transcritos da referência [1].
26 Capı́tulo 2: Análise de Sensibilidade

Barra Tipo V δ Pg Qg Pd Qd
(V) graus MW Mvar MW Mvar
1 folga 1,050 0,0000 95,2 43,2 - -
2 PV 1,100 -3,342 50,0 18,4 - -
3 PQ 1,000 -12,78 - - 55,0 13,0
4 PQ 0,929 -9,836 - - 0,00 0,00
5 PQ 0,919 -12,33 - - 30,0 18,0
6 PQ 0,919 -12,23 - - 50,0 5,00

Tabela 2.2: Resultado do fluxo de potência - sistema de 6 barras

relações de sensibilidade; isto é,

⎡ . ⎤
Pg1 − Pd1 − V1 Vm (G1m cos δ1m + B1m sin δ1m )
⎢ mϵ{K}
. ⎥
⎢ Qg1 − Qd1 − V1 Vm (G1m sin δ1m − B1m cos δ1m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ ⎥
⎢ Pg2 − Pd2 − V2 Vm (G2m cos δ2m + B2m sin δ2m ) ⎥
⎢ mϵ{K} ⎥
⎢ . ⎥
⎢ Qg2 − Qd2 − V2 Vm (G2m sin δ2m − B2m cos δ2m )− ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ Pg3 − Pd3 − V3 Vm (G3m cos δ3m + B3m sin δ3m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ ⎥
⎢ Qg3 − Qd3 − V3 Vm (G3m sin δ3m − B3m cos δ3m )− ⎥
⎢ ⎥
g(u, x, p) = ⎢ ⎥
mϵ{K}
. (2.13)
⎢ Pg4 − Pd4 − V4 Vm (G4m cos δ4m + B4m sin δ4m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ Qg4 − Qd4 − V4 Vm (G4m sin δ4m − B4m cos δ4m )− ⎥
⎢ ⎥
⎢ mϵ{K} ⎥
⎢ . ⎥
⎢ Pg5 − Pd5 − V5 Vm (G5m cos δ5m + B5m sin δ5m ) ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ Qg5 − Qd5 − V5 Vm (G5m sin δ5m − B5m cos δ5m )− ⎥
⎢ ⎥
⎢ mϵ{K}
. ⎥
⎢ ⎥
⎢ Pg6 − Pd6 − V6 Vm (G6m cos δ6m + B6m sin δ6m ) ⎥
⎢ mϵ{K} ⎥
⎣ . ⎦
Qg6 − Qd6 − V6 Vm (G6m sin δ6m − B6m cos δ6m )−
mϵ{K}

As variáveis dependentes podem ser selecionadas de forma a constituir o vetor

( )t
xt = P1 Q1 δ2 Q2 δ3 V3 δ4 V4 δ5 V5 δ6 V6

A matriz de primeiras derivadas das equações da rede elétrica com relação às variáveis
UFSC / EEL - Labspot - R. S. Salgado 27

dependentes é expressa como


⎡ ⎤
1 H14 N14 H16 N16
⎢ 1 M14 L14 M16 L16 ⎥
⎢ ⎥
⎢ H22 H23 N23 H25 N25 ⎥
⎢ ⎥
⎢ M22 1 L23 M25 L25 ⎥
⎢ ⎥
⎢ H32 H33 N33 H34 N34 ⎥
* + ⎢ ⎥
∂g(u, x, p) ⎢ M32 M33 L33 M34 L34 ⎥
=⎢


∂x ⎢ H43 N43 H44 N44 H46 N46 ⎥

⎢ M43 L43 M44 L44 M46 L46 ⎥
⎢ ⎥
⎢ H52 H55 N55 H56 N56 ⎥
⎢ ⎥
⎢ M52 M55 L55 M56 L56 ⎥
⎢ ⎥
⎣ H64 N64 H65 N65 H66 N66 ⎦
M64 L64 M65 L65 M66 L66

a qual, para a condição de operação apresentada na tabela 2.2, é dada numericamente por

⎡ ⎤
−1 −2, 57 −0, 11 −1, 81 −0, 03
⎢ −1 0, 10 −2, 77 0, 03 −1, 97 ⎥
⎢ ⎥
⎢ 2, 17 −0, 78 −0, 36 −1, 39 −0, 40 ⎥
⎢ ⎥
⎢ −0, 73 −1, 00 0, 36 −0, 78 0, 36 −1, 52 ⎥
⎢ ⎥
⎢ −0, 62 8, 29 −1, 10 −7, 67 −0, 42 ⎥
⎢ ⎥
⎢ 0, 59 −0, 99 8, 03 0, 39 −8, 26 ⎥
⎢ ⎥
⎢ −7, 67 0, 39 12, 07 1, 03 −2, 00 −0, 42 ⎥
⎢ ⎥
⎢ −0, 39 −7, 67 −0, 96 12, 98 0, 38 −2, 18 ⎥
⎢ ⎥
⎢ −1, 21 4, 10 0, 20 −2, 88 0, 00 ⎥
⎢ ⎥
⎢ 0, 78 −0, 78 4, 07 0, 00 −3, 14 ⎥
⎢ ⎥
⎣ −1, 96 −0, 59 −2, 88 0, 00 6, 48 0, 36 ⎦
0, 55 −2, 11 −0, 00 −3, 13 −1, 33 6, 94

2.3 Magnitude da tensão nas barras de geração sele-


cionadas como variáveis de controle
Neste caso, o vetor das variáveis independentes é dado por
* +
V1
u=
V2

tal que o seu ajuste afeta as seguintes variáveis:

• potências ativa e reativa geradas na barra 1;

• o ângulo de fase da tensão e a potência reativa gerada na barra 2;

• o ângulo de fase e a magnitude da tensão nas barras 3, 4, 5 e 6.


28 Capı́tulo 2: Análise de Sensibilidade

A matriz de primeiras derivadas das equações da rede elétrica com relação às variáveis
de controle é dada por:
⎡ ⎤
1, 95
⎢ 5, 01 ⎥
⎢ ⎥
⎢ 1, 57 ⎥
⎢ ⎥
⎢ 2, 31 ⎥
⎢ ⎥
⎢ −0, 54 ⎥
/ 0 ⎢ ⎥
∂g(u, x, p) ⎢ −0, 56 ⎥
=⎢



∂u ⎢ −0, 92 ⎥
⎢ −2, 27 ⎥
⎢ ⎥
⎢ −0, 71 ⎥
⎢ ⎥
⎢ −1, 01 ⎥
⎢ ⎥
⎣ −0, 74 ⎦
−1, 55

e a matriz de sensibilidade das variáveis dependentes com relação às variáveis de controle
é dada por:

∆V1 ∆V2
(2.14)
⇓ ⇓
⎡ ⎤
∆P1 ⇒ −0, 15 −0, 11
∆Q1 ⇒ ⎢ 1, 14 −1, 83 ⎥
⎢ ⎥
∆δ2 ⇒ ⎢ 0, 79 −0, 48 ⎥
⎢ ⎥
∆Q2 ⇒ ⎢ −1, 74 1, 27 ⎥
⎢ ⎥
∆δ3 ⇒ ⎢ 0, 48 0, 06 ⎥
⎢ ⎥
∆V3 ⇒ ⎢ 0, 84 0, 48 ⎥
⎢ ⎥ (2.15)
∆δ4 ⇒ ⎢ 0, 39 0, 01 ⎥
⎢ ⎥
∆V4 ⇒ ⎢ 0, 83 0, 35 ⎥
⎢ ⎥
∆δ5 ⇒ ⎢ 0, 57 0, 00 ⎥
⎢ ⎥
∆V5 ⇒ ⎢ 0, 58 0, 69 ⎥
⎢ ⎥
∆δ6 ⇒ ⎣ 0, 52 0, 01 ⎦
∆V6 ⇒ 0, 81 0, 42

2.4 Taps dos transformadores selecionados como variáveis


de controle
Se os taps são selecionados como variáveis de controle, o vetor das variáveis independentes
é dado por
* +
a34
u=
a56

A matriz de primeiras derivadas das equações da rede elétrica com relação às variáveis
UFSC / EEL - Labspot - R. S. Salgado 29

de controle é dada por:


⎡ ⎤
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ −0, 36 ⎥
* + ⎢ ⎥
∂g(u, x, p) ⎢ −6, 98 ⎥
=⎢



∂u ⎢ −0, 38 ⎥
⎢ −1, 95 ⎥
⎢ ⎥
⎢ −0, 00 ⎥
⎢ ⎥
⎢ −2, 81 ⎥
⎢ ⎥
⎣ 0, 00 ⎦
2, 95

e a matriz de sensibilidade das variáveis dependentes com relação às variáveis de controle
é dada por:

∆a34 ∆a56
(2.16)
⇓ ⇓
⎡ ⎤
∆P1 ⇒ −1, 30 −0, 03
∆Q1 ⇒ ⎢ −7, 71 0, 74 ⎥
⎢ ⎥
∆δ2 ⇒ ⎢ 1, 14 0, 08 ⎥
⎢ ⎥
∆Q2 ⇒ ⎢ −3, 82 −0, 72 ⎥
⎢ ⎥
∆δ3 ⇒ ⎢ 0, 36 0, 01 ⎥
⎢ ⎥
∆V3 ⇒ ⎢ 2, 95 −0, 01 ⎥
⎢ ⎥ (2.17)
∆δ4 ⇒ ⎢ 0, 09 0, 01 ⎥
⎢ ⎥
∆V4 ⇒ ⎢ 2, 07 −0, 10 ⎥
⎢ ⎥
∆δ5 ⇒ ⎢ 0, 61 0, 00 ⎥
⎢ ⎥
∆V5 ⇒ ⎢ 0, 68 0, 49 ⎥
⎢ ⎥
∆δ6 ⇒ ⎣ 0, 43 0, 00 ⎦
∆V6 ⇒ 1, 01 −0, 23

A análise das matrizes de sensibilidade revela que:

• a potência ativa gerada na barra 1 e a potência reativa gerada na barra 2 decrescerão


com o aumento da tensão na barra 1. Por outro lado, a potência reativa da barra 1
aumentará com a elevação do nı́vel de tensão da barra 1;

• o aumento do nı́vel de tensão resulta em perdas de potência ativa na transmissão


menores e portanto em decréscimo da potência requerida na barra de folga. Isto
explica a observação do item anterior;

• o carregamento de potência reativa dos geradores ocorre em direções opostas; isto


é, se a magnitude da tensão do gerador 1 aumenta, a sua potência reativa gerada
também aumenta enquanto a geração de potência reativa na barra 2 diminui. Uma
situação semelhante ocorre quando a magnitude de tensão do gerador 2 é aumentada;
30 Capı́tulo 2: Análise de Sensibilidade

• a magnitude da tensão de todas as barras de carga variará (decrescerá ou aumen-


tará) de acordo com os incrementos (negativos ou positivos) de tensão nas barras
de geração;

• os ajustes na magnitude da tensão gerada têm mais efeito sobre a magnitude da


tensão das barras de carga do que sobre o ângulo de fase;

• os taps têm considerável efeito sobre o carregamento de potência reativa dos gera-
dores.

Deve ser observado, que as matrizes de sensibilidade são determinadas com base numa
aproximação de primeira ordem (linear) e por esta razão sua validade é limitada à vizi-
nhança do ponto de operação onde a expansão em série de Taylor é feita. Portanto, a
precisão dos resultados obtidos através dessas matrizes tende a ser maior quanto menor
for o incremento nas variáveis de controle.
Capı́tulo 3

Fluxo de Potência Ótimo

Este texto descreve os principais elementos da modelagem do problema de Fluxo de


Potência Ótimo. São apresentados: a formulação matemática do despacho de potência
como um problema de otimização, os ı́ndices de desempenho opcionais para o proble-
ma de minimização, as caracterı́sticas básicas da modelagem em termos de variáveis do
sistema elétrico e os principais algoritmos de solução. Visa-se aqui, fornecer os fundamen-
tos necessários para a compreensão do problema de distribuição ótima de potência e os
principais aspectos de sua modelagem e metodologias utilizadas.

3.1 Introdução
O Fluxo de Potência Ótimo é uma ferramenta numérica que auxilia a tarefa de otimizar o
estado da operação do sistema de potência em regime permanente. Esta função é melhor
compreendida observando-se o processo de Fluxo de Potência convencional. Neste, o
objetivo é determinar a magnitude e o ângulo da tensão nas barras do sistema, a partir dos
quais outras quantidades podem ser calculadas. As equações envolvidas neste processo
são não lineares e admitem diversas soluções. Destas, a solução do Fluxo de Potência
Ótimo é aquela na qual uma função objetivo (ou ı́ndice de desempenho) é otimizada,
sem violação das restrições de carga (balanço de potência representado pelas equações da
rede), de operação (limites fı́sicos dos equipamentos de geração de potência ativa e reativa
e de magnitude das tensões) e outros tipos de restrições (de segurança, por exemplo)
porventura desejados.
A seleção do ı́ndice a ser otimizado depende do objetivo a ser alcançado na operação
do sistema elétrico. No Despacho Econômico, por exemplo, o qual pode ser visto como
um caso particular de aplicação de técnicas de otimização a sistemas de potência, fatores
econômicos são levados em consideração. Neste tipo de problema, busca-se determinar a
quantidade de potência ativa que cada gerador do sistema deve produzir, tal que o custo
total de geração de potência ativa seja minimizado, e a demanda e as restrições operaci-
onais sejam satisfeitas. O objetivo pode opcionalmente estar relacionado a segurança do
sistema elétrico, consistindo por exemplo, na determinação das modificações nas variáveis
de controle de tal forma que a demanda fosse satisfeita e o sistema tenha a habilidade
adicional de suportar perturbações tais como saı́das forçadas (linhas de transmissão ou
outros equipamentos) ou outros tipos de contingências. Estas modificações podem ser
32 Capı́tulo 3: Fluxo de Potência Ótimo

previstas como alguma precisão durante o planejamento da operação, ou determinadas


durante a operação em tempo-real. Em ambos os casos, o programa de Fluxo de Potência
Ótimo é a ferramenta computacional básica para a determinação de tais mudanças.

3.1.1 Aplicações do Fluxo de Potência Ótimo


Tanto em estudos de planejamento como de operação, diversos são os modos de aplicação
do programa computacional de Fluxo de Potência Ótimo. Alguns exemplos são citados a
seguir.

1. Planejamento da Operação, onde eventualmente busca-se os seguintes objetivos:

• Redução do custo de geração através de um despacho simultâneo de potências


ativa e reativa;
• Controle do intercâmbio de potência, nas situações em que se pode tirar pro-
veito do baixo custo de energia de intercâmbio. Ocasionalmente, este in-
tercâmbio tem que ser reduzido de forma forçada para um valor abaixo do
limite térmico da linha de transmissão, devido a existência de tensões baixas
sob condições normais ou contingências. Nestas situações, problemas de insta-
bilidade de tensão podem ocorrer, e portanto o intercâmbio deve ser limitado
de forma a permitir que a magnitude das tensões permaneça sempre dentro dos
limites. Isto pode ser conseguido através do programa de Fluxo de Potência
Ótimo, aplicado para controlar (minimizar, por exemplo) os fluxos nas linhas
de intercâmbio;
• Construção de modelos de operação, principalmente nos casos onde é requerida
a análise da inclusão de elementos de compensação reativa (shunt) no sistema
(adição de Var). Neste caso, o programa computacional de FPO é capaz de
determinar a mı́nima quantidade de potência reativa a ser instalada em espe-
cificadas barras do sistema, de tal forma que sob condições normais e/ou de
contingência os fluxos nas linhas de transmissão e a magnitude das tensões nas
barras permanecem dentro dos limites operacionais;
• Redução dos fluxos de potência reativa e perdas de potência ativa nas linhas
de transmissão, através de ajustes determinados diversas vezes duante o dia
para satisfazer as condições de carga previstas ou existentes;

2. Operação em Tempo-Real, onde o operador pode usar o programa de Fluxo de


Potência Ótimo como um instrumento de decisão, nas seguintes situações:

• Determinação de soluções corretivas - Na ocorrência de variações na carga ou


de contingências previstas ou imprevistas, o programa de FPO pode ser usado
para se determinar o novo ponto ótimo ou aquele com o menor desvio da solução
anterior;
• Saı́da forçada de uma linha de transmissão, com subseqüente violação nos
limites da magnitude das tensões e/ou dos fluxos de potência nas linhas de
transmissão - o programa de FPO pode ser utilizado para a determinação de
UFSC / EEL - Labspot - R. S. Salgado 33

uma nova distribuição de potência gerada ou para o estabelecimento de um


novo perfil de tensão nodal, tal que as violações sejam eliminadas.

3. Estudos de Instabilidade de Tensão - Em geral duas situações são analisadas:


• a determinação da máxima demanda que pode ser atendida pelo sistema de
potência, com a correspondente solução das equações da rede elétrica e consi-
derando os limites de operação;
• a determinação do mı́nimo corte de carga, de forma a obter uma solução para
as equações da rede elétrica para especificações de carga inviáveis.
4. Determinação de custos dos mais variados tipos (marginais de potência ativa e
reativa, perdas, congestionamanto, spot, etc) em sistemas de energia desregulamen-
tados.
5. Determinação do despacho de segurança, usando o estado corrente da rede ou uma
previsão de carga a curto prazo, com a consideração das restrições de segurança;
6. A intervalos periódicos, a obtenção dos ajustes ótimos de taps de transformadores,
capacitores chaveáveis e Compensadores Estáticos de Reativo para melhorar o perfil
de tensão;
Diversas são as vantagens de se utilizar um programa de Fluxo de Potência Ótimo
nos estudos do sistema de potência. Duas das principais dizem respeito à flexibilidade da
formulação e à qualidade das soluções, e podem ser sumarizadas nos seguintes pontos:
• as soluções são determinadas sob o ponto de vista global do sistema de potência;
• as equações do sistema de potência são expressas no nı́vel de barra (lei de Kirchhoff),
e portanto a rede elétrica é representada da mesma forma que nos estudos de fluxo
de potência convencional;
• há multiplas possibilidades de ı́ndices de desempenho, devendo cada uma delas
refletir a prática de operação da concessionária;
• é possı́vel formular a grande maioria das restrições operativas de interesse. Ao
contrário dos métodos convencionais de solução das equações da rede, limites na
magnitude da tensão de qualquer barra, limites de potência ativa e reativa geradas,
limites de fluxo de potência nas linhas de transmissão etc, podem ser modelados
analiticamente e incluı́dos na formulação do problema de otimização;
• Se as equações do fluxo de potência são resolvidas simultaneamente com minimiza-
ção dos custos de geração, o FPO fornece uma medida exata das perdas incrementais;
• As restrições de segurança podem ser consideradas:
V k ≤ Vk com linha i − jfora de serviço ≤ V k
tik ≤ tik com linha i − jfora de serviço ≤ tik

Outras vantagens podem ser enumeradas tomando-se separadamente os subproblemas


correspondentes aos despachos de potência ativa e reativa, como é mostrado a seguir.
34 Capı́tulo 3: Fluxo de Potência Ótimo

3.1.2 Vantagens do Despacho Ótimo de Potência


Os principais benefı́cios provenientes de uma distribuição ótima de potência ativa estão
relacionados aos fatores econômicos. Outras vantagens adicionais são:

• é possı́vel estabelecer limites de acordo com as considerações de estabilidade (fluxos


de potência ativa nas linhas de transmissão e ângulo da tensão entre pares de barras)
e com a capacidade nominal (térmica) das linhas de transmissão;

• no problema de FPO, as perdas de potência ativa e reativa são modeladas com


precisão;

• é possı́vel determinar uma melhor distribuição da reserva girante.

A distribuição de potência reativa gerada está diretamente associada a qualidade de


serviço e segurança do sistema elétrico. Os potenciais benefı́cios de uma distribuição
ótima de potência reativa são os seguintes:

• a possibilidade de melhoria no perfil de tensão;

• a oportunidade de controlar mais diretamente a magnitude das tensões, de forma a


permitir um melhor desempenho dos elementos do sistema e componentes auxiliares;

• a oportunidade de melhorar a estabilidade do sistema, evitando-se nı́veis de tensão


demasiadamente baixos;

• a possibilidade de reduzir o custo de geração de potência através da minimização


das perdas de potência ativa e reativa nas linhas de transmissão;

• a possibilidade de se operar melhor os equipamentos, controlando-se os fluxos de


potência reativa e a distribuição das margens de potência reativa.

3.2 Conceitos Fundamentais


Qualquer problema de sistema de potência em regime permanente no qual busca-se a mi-
nimização ou maximização de um especificado ı́ndice, através do ajuste das quantidades
controláveis apropriadas, com a solução simultânea das equações de balanço de potência,
pode ser visto como um problema de Fluxo de Potência Ótimo. Em termos matemáticos
este problema não-linear, estático, multivariável, com restrições de igualdade e desigual-
dade pode ser expresso como [2],

Minimizar f (u, x)
sujeito a g(u, x) = 0 (3.1)
h(u, x) ≥ 0

onde, u é o vetor das quantidades controláveis; x é o vetor das variáveis dependentes; f (., .)
é a função objetivo; g(., .) é o vetor das funções não-lineares que representam as restrições
UFSC / EEL - Labspot - R. S. Salgado 35

de igualdade; h(., .) é o vetor das funções não-lineares que representam as restrições de


desigualdade.
Esta representação dá margem a um grande número de metodologias de solução, as
quais diferem basicamente em dois aspectos interrelacionados e algumas vezes conflitantes:
o grau de precisão e os detalhes da modelagem do sistema de potência e a técnica numérica
utilizada para executar a minimização.
A modelagem diz respeito a descrição matemática do comportamento fı́sico do sistema
elétrico. Ela envolve os seguintes pontos:

• a identificação das variáveis que devem ser consideradas no problema de otimização;

• a formulação analı́tica das restrições em termos das variáveis consideradas;

• a escolha da função objetivo, isto é, a seleção do ı́ndice a ser otimizado.

Por outro lado, a técnica numérica diz respeito ao método de solução assim como
aos detalhes numéricos dos passos do algoritmo utilizado. Este aspecto está relacionado
à seleção dentre as variações disponı́veis das técnicas de Programação Linear (P L) e
Programação Não-Linear (P NL), daquela que é mais conveniente a ambas, formulação
analı́tica e precisão desejada.
O problema de Fluxo de Potência Ótimo mostrado aqui é considerado invariante no
tempo (estático). Devido a sua dimensão e também à natureza das não-linearidades
envolvidas, muitos fatores dificultam a obtenção de uma metodologia de solução eficiente.
As caracterı́sticas requeridas de qualquer método de solução envolvem:

• confiabilidade de convergência;

• baixos tempos de processamento para a obtenção de solução;

• requisitos de memória moderados;

• versatilidade para lidar com diferentes tipos de função objetivo;

• simplicidade na formulação.

De forma semelhante aos estudos de Fluxo de Potência convencionais, algumas sim-


plificações podem ser introduzidas a fim de se reduzir a complexidade do problema, e
conseqüentemente melhorar a eficiência da técnica de solução.
As seções seguintes descrevem os principais aspectos relacionados à formulação do
problema de otimização, incluindo a definição das variáveis, a formulação das restrições e
da função objetivo e as técnicas numéricas básicas para a solução do problema de Fluxo
de Potência Ótimo.

3.2.1 Variáveis
As variáveis envolvidas em um problema de Fluxo de Potência Ótimo podem ser partici-
onadas em dois grupos:
36 Capı́tulo 3: Fluxo de Potência Ótimo

• Variáveis de Controle: são aquelas que podem ser monitoradas diretamente para se
obter a otimalidade desejada; tipicamente,

– geração de potência ativa;


– taps de transformadores defasadores;
– geração de potência reativa;
– magnitude das tensões nas barras de geração;
– magnitude das tensões nos compensadores sı́ncronos;
– taps de transformadores com comutação sob carga;
– potência gerada por capacitores e reatores;
– fluxos de potência em elos de corrente contı́nua;
– corte de carga (load shedding)

• Variáveis Dependentes: são aquelas cujo valor é dependente das variáveis de con-
trole. A sua seleção entre as variáveis do sistema de potência está interrelacionada
com a escolha das variáveis independentes. Em geral as variáveis dependentes com-
preendem

– o ângulo da tensão em todas as barras com exceção do ângulo da barra de


folga;
– a geração de potência reativa;
– fluxos de potência ativa e reativa nas linhas de transmissão.

Além das variáveis mencionadas, há ainda um conjunto de parâmetros fixos que deve
ser pré-especificado nos estudos em regime permanente. Este grupo é constituı́do pelos
seguintes elementos:

• demanda de potência ativa;

• demanda de potência reativa;

• topologia e parâmetros do sistema de transmissão;

• coeficientes das funções de custo de geração das unidades térmicas.

Esta classificação não é única e outros particionamentos alternativos são possı́veis. O


processo de otimização pode ser executado tomando-se como variáveis de otimização qual-
quer conjunto de variáveis dentre as previamente citadas, como por exemplo os ângulos
de fase, componentes real e imaginária da tensão complexa, etc. Todavia, ao final do
processo iterativo as modificações que devem ser efetuadas devem ser expressas em ter-
mos das variáveis correspondentes aos dispositivos de controle fı́sicos do sistema elétrico,
tais como geração de potência ativa, geração de potência reativa, magnitude das tensões
geradas etc.
UFSC / EEL - Labspot - R. S. Salgado 37

Deve também ser observado que, efetuar a otimização com relação ao conjunto com-
pleto de variáveis de controle simultaneamente apenas adiciona mais complexidade ao
problema. Uma prática freqüentemente adotada, é definir objetivos peculiares a cada
tipo de despacho de potência, tal que dois subproblemas, um envolvendo as variáveis rela-
cionadas a potência ativa e outro relativo às variáveis correspondentes a potência reativa
são resolvidos. Em cada caso, um conjunto limitado e diferente de variáveis de controle é
assumido, o que facilita razoavelmente a solução do problema. A solução do despacho de
potência completo é obtida resolvendo-se alternadamente os subproblemas mencionados.
O Fluxo de Potência Ótimo convencionalmente não leva em consideração modificações
bruscas e de grande magnitude em variáveis discretas que tenham maior impacto no des-
pacho de potência ativa-reativa, tais como chaveamentos de linhas de transmissão, comis-
sionamento das unidades geradoras, etc, apesar de que tais problemas também podem
ser formulados utilizando-se a teoria de otimização estática. Por outro lado, a despeito
de que rigorosamente o corte de carga faria parte da categoria das variações de grande
magnitude, tal procedimento pode com relativa facilidade ser incorporado ao processo
como variável de controle.
Dispositivos de controle com saı́da discreta (bancos de capacitores, reatores, e mesmo
taps de transformadores com comutação sob carga) são difı́ceis de serem modelados. No
que diz respeito aos taps, um procedimento geralmente adotado é considerar os mesmos
como variáveis contı́nuas durante o processo e, caso na solução ótima o valor do tap se
situe entre dois valores fisicamente viáveis, ajustá-lo para o valor mais próximo.
Quanto a inclusão das unidades hidrelétricas no problema de despacho de potência, três
formas simples podem ser utilizadas caso não se deseje maiores modificações na técnica
numérica de solução:

• considerar valores fixos para o nı́vel de geração de potência ativa fornecido pelo
planejamento da operação deste tipo de unidade geradora;

• minimizar o desvio de uma distribuição previamente estabelecida e considerada


satisfatória;

• usar curvas de custo fictı́cias semelhantes as das funções de custo de geração das
usinas termelétricas.

Isto torna possı́vel utilizar metodologias simples como a do Despacho Econômico


Clássico para a determinação da distribuição ótima de potência ativa mesmo sem dis-
por das curvas de custo de geração de potência ativa.

3.2.2 Restrições
Dois tipos de restrições podem ser observados no problema de otimização representado
pela equação (3.1):

• as Restrições de Igualdade;

• as Restrições de Desigualdade.
38 Capı́tulo 3: Fluxo de Potência Ótimo

Fundamentalmente, em termos do problema de Fluxo de Potência Ótimo, o primeiro tipo


corresponde as equações não-lineares da rede elétrica, enquanto que o segundo representa
os limites fı́sicos nos componentes e a prática de operação do sistema de potência.
As Restrições de Igualdade, também chamadas Restrições de Carga, representam a
relação entre as variáveis dependentes e as variáveis independentes. Esta relação reflete
o fato de que as demandas de potência ativa e reativa devem ser satisfeitas na solução
ótima. Analiticamente, ela é representada pelos balanços de potência ativa e reativa, os
quais podem ser expressos de duas maneiras:

• em termos dos valores totais de potência gerada, consumida e de perdas, o que pode
ser sumarizado como
,n ,n
Pg i − Pdi − Pl = 0 (3.2)
i=1 i=1

onde, Pgi é a potência ativa gerada na barra i, Pdi é a potência ativa demandada na
barra i e Pl é a perda de potência ativa nas linhas de transmissão, cada somatória
envolvendo as n barras do sistema elétrico.

• em termos do balanço de potência relativo a cada barra individualmente, ou seja

(Pgi − Pdi ) − Pi (V, δ) = 0

(Qgi − Qdi ) − Qi (V, δ) = 0

onde, Pgi e Qgi são as potências ativa e reativa geradas na barra i, Pdi e Qdi são as
potências ativa e reativa demandadas na barra i e Pi (V, δ) e Qi (V, δ) são as injeções de
potência ativa e reativa na barra i.
A alternativa de usar uma dessas duas formas numa metodologia de solução do pro-
blema de Fluxo de Potência Ótimo diz respeito apenas a formulação matemática do
algoritmo. O balanço de potência ativa total é geralmente utilizado nos problemas de
despacho econômico clássico, requerendo a solução das equações da rede como uma etapa
complementar.
As Restrições de Desigualdade são incluı́das no problema para representar os limites
fı́sicos dos componentes e a prática de operação do sistema elétrico (elas também são
chamadas Restrições Operacionais), e/ou aspectos de segurança relacionados a operação
do sistema (Restrições de Segurança). As restrições deste tipo podem ser divididas em
três grupos:

• Restrições nas Variáveis de Controle, as quais tem como objetivo refletir as li-
mitações fı́sicas dos equipamentos utilizados no despacho de potência. Limites nas
gerações de potência ativa / reativa, na magnitude das tensões geradas, nos taps
dos transformadores com comutação sob carga, são as restrições mais comuns deste
tipo;

• Restrições Funcionais, as quais refletem os limites impostos às variáveis dependen-


tes. Limites na magnitude da tensão das barras de carga (se as equações da rede
elétrica são resolvidas como complemento do problema de otimização), na geração
UFSC / EEL - Labspot - R. S. Salgado 39

de potência reativa e/ou nos fluxos de potência ativa e/ou reativa pertencem, a este
tipo de restrição. Note que essas grandezas podem ser expressas como uma função
da magnitude e do ângulo da tensão nas barras do sistema de potência.

• Restrições de Segurança, as quais representam as restrições operacionais e de carga


relacionadas a um conjunto de contingências determinadas pela função Análise de
Segurança em Tempo Real. Limites nos fluxos de potência das linhas de transmissão
para saı́das eventuais de determinados componentes do sistema elétrico podem ser
incluı́dos neste tipo de restrição.

As principais dificuldades relacionadas a manipulação das restrições de desigualdade


são:

• o grande número de restrições envolvidas, principalmente se o aspecto de segurança


é considerado;

• a impossibilidade de se identificar no inı́cio do processo de otimização que restrições


serão ativas (isto é, estarão no limite, como igualdades) na solução final;

• as imprecisões na atualização das variáveis dependentes, principalmente se modelos


linearizados são utilizados no processo de otimização.

Em sua forma original, todas as restrições pertinentes ao problema de Fluxo de


Potência Ótimo são não-lineares. Entretanto, da mesma forma que na solução do pro-
blema de Fluxo de Potência convencional, a linearização sucessiva das equações envolvidas
pode ser aplicada, assim como o desacoplamento entre as malhas potência ativa-ângulo da
tensão e potência reativa- módulo da tensão pode ser vantajosamente explorado. Mesmo
modelos lineares, baseados no Fluxo de Potência C.C., podem ser utilizados para represen-
tar as restrições de igualdade. A solução do problema de Fluxo de Potência Ótimo é tanto
mais degradada quanto mais aproximações forem feitas. Entretanto, dependendo das ca-
racterı́sticas particulares do sistema de potência, é possı́vel manter um nı́vel razoável de
precisão a despeito dessas simplificações. Desde que a metodologia de Fluxo de Potência
Ótimo é normalmente utilizada para a parte de alta tensão do sistema, as aproximações
envolvendo o desacoplamento, se convenientemente feitas, não degradarão a precisão dos
resultados.

3.2.3 Funções Objetivo


O uso de uma função objetivo apropriada é o mais importante, e talvez o mais difı́cil,
aspecto de qualquer aplicação dos processos de otimização. Dois pontos fundamentais são
envolvidos:

• a escolha de um ı́ndice que represente realisticamente as práticas e objetivos opera-


cionais do sistema de energia elétrica;

• a definição da representação analı́tica do ı́ndice selecionado, de forma a facilitar a


aplicação da técnica de otimização.
40 Capı́tulo 3: Fluxo de Potência Ótimo

Diversas considerações podem ser feitas com relação a cada um desses fatores. A
seleção do objetivo conveniente é em geral efetuada com base numa cuidadosa análise
dos aspectos relacionados a economia e segurança do sistema. É praticamente impossı́vel
definir uma função escalar cujo valor ótimo corresponda ao melhor estado de operação
do sistema. Isto faz com que a definição da função objetivo esteja entre os aspectos
menos desenvolvidos do problema de Fluxo de Potência Ótimo. Apesar do grande número
de metodologias propostas para a solução deste problema, durante algum tempo houve
dúvidas sobre se a modelagem de uma função objetivo deve ser feita de forma a torná-
la apropriada ao algoritmo de otimização, ou vice-versa. Todavia, a despeito dessas
dificuldades, muitas funções objetivo tem sido propostas, as quais podem ser classificadas
com base nos seguintes pontos:

• natureza das variáveis de controle;

• resultados a serem obtidos.

Portanto, dependendo dos diferentes objetivos a serem alcançados, os ı́ndices utili-


zados nos problemas de Fluxo de Potência Ótimo para estudos de operação podem ser
enquadrados em três principais classes de problemas:

• Despacho ótimo de potência ativa;

• Despacho ótimo de potência reativa;

• Despacho simultâneo de potência ativa e reativa.

A representação analı́tica desses objetivos é apresentada a seguir.

Despacho de Potência Ativa


Dentre os objetivos propostos para a determinação da distribuição ótima de potência
ativa, aqueles descritos a seguir são os mais tı́picos.

• Mı́nimo Custo de Geração de Potência Ativa


Este é um objetivo padrão, o qual é suposto refletir o aspecto econômico do sistema
elétrico. Ele é particularmente conveniente para sistemas com geração predomi-
nantemente térmica, onde cada unidade geradora é representada por uma curva de
custo de geração explı́cita. Esta, na verdade é uma aproximação a verdadeira curva
de custo da unidade geradora. Ela pode alternativamente ser ponderada para levar
em consideração os fatores de penalidade relacionados com a perda de potência no
sistema. Analiticamente, esta curva pode ser expressa como
,
f (Pgi ) = Ci (Pgi ) (3.3)
iϵ{GP }

onde, {GP } é o conjunto de unidades geradoras de potência ativa; Ci (.) e Pgi


são, respectivamente, a curva de custo e a geração de potência da i-ésima unidade
geradora.
UFSC / EEL - Labspot - R. S. Salgado 41

Em geral, as curvas de custo Ci (·) são representadas por polinômios de segunda


(quadrático) ordem, da forma
1
Ci (Pgi ) = ai + bi Pgi + ci Pg2i (3.4)
2
onde, ai , bi e ci são os coeficientes da função quadrática correspondente a i-ésima
$ $
unidade geradora, com unidades $, e , respectivamente.
MW MW 2
Alternativamente, uma função linear (ou linear-segmentada) pode ser utilizada para
representar a curva de custo de geração; isto é,

Ci (Pgi ) = bi Pgi (3.5)

onde bi é a inclinação da reta que representa a curva de custo. No caso da função


segmentada, uma equação semelhante a (3.5) é definida para cada intervalo.
A seleção da forma da função está fortemente relacionada a escolha da técnica
numérica a ser utilizada e ao nı́vel de precisão requerido. Este tipo de ı́ndice pode
ser utilizado tanto no despacho de potência preventivo como no despacho de potência
corretivo, da seguinte forma:

– Modo Preventivo
No estágio de planejamento da operação a curto prazo, com as curvas de custo
convencionais e a curva de carga do sistema, determina-se a distribuição ótima
de potência ativa para cada ponto relevante da curva de carga.
– Modo Corretivo
Suponha que no modo preventivo para um dado nı́vel da carga uma determi-
nada distribuição de potência ativa Pesp
g foi obtida e que durante a operação
do sistema alguma contingência impede que esta distribuição seja obedecida.
O programa de Fluxo de Potência Ótimo pode ser executado para minimizar
o desvio do custo mı́nimo. Se curvas quadráticas representam a função custo
de geração, a nova função a ser minimizada seria

Ci (Pgi ) = ai + bi (Pgi − Pgesp


i
) + ck (Pgi − Pgesp
i
)2

onde os desvios (Pgi − Pgesp


i
) teriam coeficientes de custo semelhantes aos da
potência ativa gerada. Este ı́ndice é descrito em detalhes no texto a seguir.

• Mı́nimo Desvio de uma Distribuição de Potência Ativa Pré-especificada


Este objetivo é geralmente utilizado para fins de despacho corretivo. Neste caso,
variações de grande magnitude a partir de uma solução inicial (algumas vezes con-
siderada a mais econômica e/ou segura) são penalizadas. Isto tende a evitar o apa-
recimento de sobrecargas resultantes de grandes variações em um pequeno número
de unidades.
Outra aplicação deste ı́ndice de desempenho é no problema de Despacho Econômi-
co, onde apenas o subproblema de otimização da distribuição de potência ativa é
42 Capı́tulo 3: Fluxo de Potência Ótimo

resolvido. Para esta finalidade, o método de solução descrito na seção anterior for-
nece soluções com um esforço computacional reduzido. Na sua concepção original,
a aplicação deste método supõe a disponibilidade das curvas de custo de geração, o
que em alguns casos constitui uma limitação à sua aplicação. Entretanto, é possı́vel
explorar a metodologia de solução deste problema mesmo no caso da indisponibi-
lidade das curvas de custo. Nesta situação, utiliza-se um ı́ndice alternativo para a
otimização denominado Mı́nimo Desvio Quadrático Ponderado de uma Distribuição
de Potência Ativa Pré-especificada.

A utilização deste ı́ndice implica em que variações de grande magnitude à partir de


uma solução pré-estabelecida (considerada a mais econômica e/ou segura) são penalizadas.
A forma analı́tica desta função objetivo é dada por
,
f (∆Pgi ) = αi ∆Pg2i (3.6)
iϵ{GP }

onde ∆Pgi = Pgi − Pgespi


é o desvio do valor especificado de potência ativa Pgesp
i
e αi é a
penalidade aplicada ao desvio de potência, ambos correspondentes à i − ésima unidade
geradora.
A análise da equação 3.6 revela que a utilização deste ı́ndice de desempenho requer
essencialmente a definição adequada de dois tipos de parâmetros:

• os fatores de ponderação (αi );


• a distribuição de potência ativa pré-especificada (Pgesp
i
).

Seleção dos Fatores de Ponderação


Durante um processo iterativo de otimização é observado que os maiores incrementos
de potência tendem a ser atribuı́dos às unidades geradoras correspondentes aos menores
fatores de ponderação. Mais essencial do que a escolha desses fatores entretanto, é a
especificação de uma distribuição de potência ativa viável em termos dos limites fı́sicos
das unidades geradoras, e que reflita os objetivos do sistema de potência em termos de
custo e/ou segurança do mesmo. Por exemplo, se a solução do Despacho Econômico
clássico (obtida com base nas curvas de custo de geração) for especificada como aquela
da qual se deseja o mı́nimo desvio, sob as mesmas restrições do problema de mı́nimo
custo de geração, o valor da função objetivo da equação 3.6 na solução ótima será zero,
independente dos fatores de ponderação utilizados. Isto significa que o valor mı́nimo
absoluto do ı́ndice representado pela quadrática pode ser alcançado de uma forma tão
rápida quanto a do Despacho Econômico clássico. Dependendo da distribuição de potência
ativa inicial, as restrições não terão influência sobre a direção de busca da solução ótima.
A especificação adequada de uma distribuição de potência ativa pode fazer com que o
problema de otimização seja visto pelo algoritmo de solução como um problema sem
restrições, o que facilita a busca do despacho ótimo de potência ativa.
Os fatores de ponderação αi podem ser estipulados para penalizar aumentos na geração
de potência ativa das unidades Pgi com mais rigor do que decréscimos ou vice-versa. Para
esta penalização dos desvios, duas alternativas básicas são propostas.
UFSC / EEL - Labspot - R. S. Salgado 43

• Fatores de ponderação unitários (αi = 1, 0): o efeito deste tipo de ponderação é que
os desvios são penalizados de forma semelhante, independentemente da localização,
da capacidade das unidades geradoras, ou do custo da potência ativa gerada;
• Fatores de ponderação selecionados como
1
αi = (3.7)
|PgMi − Pgmi |
Neste caso, os desvios resultantes do processo de otimização são proporcionais à
capacidade nominal das unidades em termos de potência ativa. Assim, os maiores
desvios tenderão a ser atribuı́dos às unidades geradoras com maior capacidade, o
que é razoável em termos de operação do sistema de potência.
Outros tipos de ponderações podem ser utilizados. Por exemplo, se os fatores de
ponderação fossem escolhidos como αi = ci , onde ci é o coeficiente da curva de custo de
geração de potência ativa da unidade k, os desvios seriam penalizados de acordo com o
coeficiente do termo quadrático da curva de custo de geração da unidade, o qual é suposto
ter a maior influência na forma desta função objetivo.

Especificação da Distribuição de Potência Ativa


No que diz respeito à distribuição de potência ativa pré-especificada, pelo menos duas
alternativas são possı́veis:
• selecionar Pgesp
i
igual a uma distribuição de potência ativa de custo reduzido;
• especificar Pgesp
i
= 0 para todas as unidades geradoras, tal que as margens de
potência ativa sejam maximizadas;
No primeiro caso, o aspecto econômico é predominantemente refletido. A maneira
como é obtida a solução suposta de custo reduzido não é um aspecto considerado relevante,
desde que isto não tem influência sobre o resultado da minimização da função dos desvios.
A segunda alternativa, pode ser vista como a aplicação de um critério relacionado es-
tritamente à segurança do sistema elétrico. Neste caso, é possı́vel observar uma tendência
a que as perdas de potência ativa sejam reduzidas, como conseqüência de uma menor
circulação dos fluxos de potência ativa. Em outras palavras, a alocação de potência ativa
obtida através do uso deste critério é efetuada de forma a atender localmente a carga.
A combinação do critério de desempenho descrito anteriormente com a metodologia
aplicada na solução do Despacho Econômico clássico, pode ser realizada considerando a
expansão da equação 3.6, a qual fornece
,
f (∆Pgi ) = αi [Pg2i − 2 × Pgesp
i
× Pgi + (Pgesp
i
)2 ] (3.8)
iϵ{GP }

A comparação da equação 3.8 com a expressão da forma quadrática convencional


permite que as seguintes analogias sejam efetuadas:
2
ai → αi Pgesp
i

bi → − 2αi Pgiesp
c i → αi
44 Capı́tulo 3: Fluxo de Potência Ótimo

O uso desses coeficientes fictı́cios permite que o algoritmo desenvolvido para a solução
do problema de Despacho Econômico clássico seja aplicado na otimização de um ı́ndice
de desempenho de mı́nimos desvios, sem que seja necessário modificar a forma de busca
da solução ótima. Observe-se que, desde que o coeficiente α é sempre positivo, a função
de mı́nimos desvios sempre terá um ponto de mı́nimo.
• Mı́nima Ação de Controle:
Em caso de condições de emergência, verdadeiras ou simuladas, é algumas vezes
inevitável a presença de violações nas restrições de desigualdades. Num sistema de
controle em tempo real, o operador pode desejar saber como remover as violações
redistribuindo o mı́nimo número de unidades. Isto não é um problema tı́pico de
programação não-linear, porém pode levar a sub-otimização através da lógica sim-
ples, heurı́stica, utilizando-se as sensibilidades dos controles em relação as restrições
violadas.
• Mı́nimo Corte de Carga
Considerado como o último recurso do controle, quando o problema de Fluxo de
Potência Ótimo é constatado não ter solução viável. Desde que o corte de carga é
uma ação de chaveamento discreta, torna-se difı́cil modelá-lo com precisão. Além
disso, esta medida corretiva afeta simultaneamente os problemas P − δ e Q − V .
Aproximações, entretanto, podem ser usadas. Na operação estática do sistema de
potência, a necessidade de corte de carga em geral aparece como consequência de
fluxos de potência não convenientes circulando nas linhas de transmissão (sobre-
cargas, etc). Desde que estas sobrecargas tem predominantemente um efeito na
potência ativa, a prioridade é reduzir a potência ativa da carga. Por outro lado,
a carga numa barra pode ser divisı́vel num número inteiro de partes. Fatores de
ponderação podem ser utilizados para penalizar mais (ou menos) intensamente o
corte de determinadas cargas. Até mesmo curvas de custo podem ser utilizadas
levando-se em conta a natureza das cargas (sinal contrário ao da potência gerada).
• Mı́nima Violação
Se a solução das equações da rede elétrica na qual todos os limites são satisfeitos for
detectada inviável, uma estratégia possı́vel consiste em verificar se o sistema pode
ser operado com uma pequena tolerância a certas violações (das restrições mais
amenas). Neste caso, funções de penalidade podem ser utilizadas ou, se conveniente
ao algoritmo de otimização, a relaxação de limites pode ser vista como uma uma
medida alternativa.
Apesar de que teoricamente o processo de minimização poderia ser executado em
relação a qualquer conjunto de variáveis, as funções objetivo citadas são todas expressas
em termos da potência ativa gerada. A principal vantagem de se tomar essas variáveis
como controles é que as restrições que dizem respeito a operação dos equipamentos (es-
pecificamente modelos de geração) refletem mais efetivamente as limitações fı́sicas desses
equipamentos. Além disso, na solução do problema de Fluxo de Potência convencional
que faz parte de um grande número de metodologias, os valores de potência ativa gerada
especificados nas barras P V devem ser exatamente os mesmos obtidos no processo de
otimização.
UFSC / EEL - Labspot - R. S. Salgado 45

Despacho de Potência Reativa


Uma variedade de ı́ndices podem ser utilizados no problema de otimização do despacho
de potência reativa. Os mais comuns são apresentados a seguir.

• Mı́nima Perda de Potência Ativa nas Linhas de Transmissão


Este objetivo, bastante usado no despacho de potência reativa, visa determinar a
geração de potência reativa (ou nı́vel da tensão gerada) e os taps dos transformadores
com comutação sob carga de forma a resultar numa operação mais econômica. É
necessário enfatizar, que o efeito da minimização deste ı́ndice no custo de geração de
potência ativa é considerado de segunda ordem. Em geral este objetivo é expresso
analiticamente utilizando-se a equação de balanço de potência ativa, ou seja
n
,
(Pgi − Pdi ) − Pl = 0
i=1

e desde que
(Pgi − Pdi ) − Pi (V, δ) = 0
então n
,
Pl = Pi (V, δ) (3.9)
i=1

onde todos os termos foram anteriormente definidos.


A perda de potência ativa nas linhas de transmissão pode ainda ser expressa como
n
,
Pl = Pij (V, δ)
i=1

onde Pij (V, δ) é o fluxo de potência ativa na linha de transmissão que conecta as
barras i e j, expresso em função da magnitude e do ângulo das tensões nodais.
Alternativamente, fórmulas de perdas como função das injeções de potência podem
ser derivadas da expressão

Pl + jQl = It∗
barra Zbarra Ibarra (3.10)

onde, Pl é a perda total de potência ativa na transmissão; Ql é a perda total de


potência reativa na trasmissão; Ibarra é o vetor das injeções de corrente nas barras;
e Zbarra é a matriz impedância de barra.
Algumas abordagens preliminares incorporavam as perdas ao problema de Despa-
cho Econômico através de uma fórmula aproximada a qual expressava as perdas
em função da geração de potência ativa. Esta fórmula fornecia um meio extre-
mamente rápido de se calcular as perdas incrementais, sem a necessidade de se
determinar a solução completa das equações da rede elétrica. Este procedimento
tinha a vantagem de economizar ambos, tempo de processamento e memória uti-
lizada nos cálculos. Entretanto, os resultados obtidos desta forma eram precisos
46 Capı́tulo 3: Fluxo de Potência Ótimo

apenas para a condição especı́fica na qual a fórmula aproximada havia sido calcu-
lada. Para variações contı́nuas no sistema de potência, a determinação da expressão
da perda poderia requisitar um considerável esforço computacional. Além disso, a
forma simplificada desta expressão necessariamente envolvia suposições que intro-
duziam erros significantes. Conseqüentemente, apesar do uso por muitos anos da
fórmula de perda, novas modelagens foram propostas para representar com mais
precisão e eficiência as perdas do sistema.
Muitas abordagens que utilizam a equação de balanço de potência como ponto de
partida, são baseadas na possibilidade de expressar as equaçãoes (3.9) e (3.10) como
funções do ângulo e magnitude das tensões nodais e dos taps dos transformadores.
No caso de sistemas de grande porte, onde o cálculo das perdas de potência no
sistema de transmissão e das suas derivadas demanda muito esforço computacional,
uma formulação alternativa consiste em considerar a potência ativa gerada na barra
de folga como a única das barras de geração que é função daquelas variáveis. Desde
que a esta barra é designada a tarefa especı́fica de compensar matematicamente as
perdas no balanço de potência, o gradiente da injeção de potência ativa nesta barra
será idêntico ao das perdas totais de potência ativa no sistema. A vantagem de se
utilizar este procedimento é que a injeção de potência ativa na barra de folga é uma
função explı́cita apenas das tensões complexas das barras diretamente conectadas a
ela por um elemento de transmissão. Esta função e suas derivadas são relativamente
fáceis de serem calculadas e requerem menor esforço computacional.
É ainda possı́vel derivar das equações (3.9) e (3.10) fórmulas quadráticas da perda
de potência no sistema de transmissão. De maneira análoga aos casos anteriores, a
escolha da modelagem a ser utilizada está associada a seleção da técnica numérica
e ao nı́vel de precisão desejado.
• Mı́nima Somatória dos Desvios Quadráticos Ponderados de uma Distribuição de
Potência Reativa Pré-especificada
Este ı́ndice é semelhante aquele mencionado como uma opção na otimização do
despacho de potência ativa. Ele pode ser utilizado de várias formas, dependendo
da escolha do valor especificado da distribuição de potência reativa e da escolha dos
fatores de ponderação. A sua forma analı́tica generalizada é
,
f (∆Qgi ) = αi ∆Q2gi
iϵ{GQ }

onde ∆Qgi = Qgi − Qesp


gi e αi são o desvio do valor especificado de potência Qesp
gi e a
penalidade atribuı́da ao desvio, respectivamente, correspondentes a i-ésima unidade
geradora de potência reativa.
A forma linearizada alternativa à função anterior é dada por
,
f (∆Qgi ) = αi |∆Qgi |
iϵ{GQ }

Da mesma forma que no caso da equação (3.6), este objetivo é muito adequado
para fins de despacho corretivo. Ele estabelece que decréscimos ou acréscimos de
potência a partir de uma distribuição especificada devem ser penalizados.
UFSC / EEL - Labspot - R. S. Salgado 47

Uma outra alternativa consiste em utilizá-lo para maximizar as margens de potência


reativa dos geradores, distribuindo as mesmas proporcionalmente entre as unidades.
Neste caso, o ı́ndice fornecido pela equação anterior é considerado um critério de
segurança e sua forma analı́tica é,
, Q2g
i
f (Qgi ) = (3.11)
ANi
iϵ{GQ }

onde Qgi e ANi são a potência reativa gerada e o valor nominal da i-ésima unidade
geradora.
A uniformização da distribuição das margens de potência reativa é um critério
razoável quando a reserva de potência reativa é maximizada. Desde que a priori, a
probabilidade de falha das fontes de potência reativa é a mesma ao longo do sistema
elétrico, a distribuição uniforme pode ser considerada como a mais adequada. Na
verdade, este critério tende a evitar variações abruptas e de grande magnitude nos
valores das variáveis de controle para restaurar a viabilidade do sistema em termos
das restrições de desigualdade após contingências, ou mesmo face as variações da
carga.
Desde que a minimização das perdas de potência ativa nas linhas de transmissão tem
um efeito de segunda ordem sobre o custo de geração, a maximização das margens
de potência reativa proporcionalmente aos valores nominais das unidades pode ser
visto como um critério de segurança a ser combinado com um objetivo relacionado
ao fator econômico, tal que o despacho completo de potência possa refletir ambos
os aspectos. Esta possibilidade constitui um dos principais atrativos ao uso deste
ı́ndice no despacho de potência reativa.

• Mı́nima Somatória dos Valores Absolutos das Injeções de Potência Reativa


Este objetivo tende a maximizar a reserva total de potência reativa sem levar em
conta a sua distribuição nas diferentes áreas. Analiticamente ele pode ser expresso
como ,
f (Qgi ) = Q2gi
iϵ{GQ }

onde Qgi é o mesmo definido previamente. Alternativamente, a representação linear


correspondente a esta função é dada por
,
f (Qgi ) = |Qgi | (3.12)
iϵ{GQ }

e pode ser considerado como um caso particular do ı́ndice dado pela equação (3.11).
No caso em questão, o resultado esperado é um nı́vel baixo de potência reativa com
tensões num nı́vel mı́nimo aceitável da magnitude das tensões.

• Minimo Desvio da Magnitude das Tensões de um Nı́vel Pré-selecionado


Este critério é semelhante aos outros já mencionados correspondentes a mı́nimos des-
vios. Ele também é geralmente utilizado como um critério corretivo, cuja expressão
48 Capı́tulo 3: Fluxo de Potência Ótimo

matemática é n
,
f (Vi ) = (Vi − VNi )2 (3.13)
i=1

onde, Vi é a magnitude da tensão na i − ésima barra; VNi é o valor pré-selecionado


da magnitude da tensão na i − ésima barra; e n é o número total de barras do
sistema.
Em geral, as tensões nominais são selecionadas como os valores pré-especificados.
Isto pode ser justificado pelos seguintes fatos:

– os componentes do sistema trabalham melhor na sua tensão nominal;


– se as tensões são uniformizadas dentro de uma especificada faixa de magnitude,
os fluxos de potência reativa são limitados;
– as cargas tendem a ser alimentadas a tensão nominal.

• Máximo Carregamento de Potência Ativa e Reativa


Esta figura de mérito, freqüentemente utilizada em estudos de estabilidade de tensão,
fornece uma medida da demanda crı́tica que pode ser suprida satisfazendo os limites
operacionais. Para esta finalidade, a carga de cada barra é parametrizada por um
fator ρ, de forma semelhante aquela mostrada no Método da Continuação; ito é,

Pdi = (Pd0i + ρ∆Pdi )

e
Qdi = (Q0di + ρ∆Qdi )
onde, Pd0i e Q0di são as demandas de potências ativa e reativa da barra i, respectiva-
mente, especificadas para um caso base; ∆Pdi e ∆Qdi são os incrementos de carga
de potências ativa e reativa e ρ é denominado parâmetro da carga.
A determinação do carregamento máximo consiste em maximizar o parâmetro da
carga, de forma que o balanço de potência em cada barra e as restrições operacionais
sejam satisfeitos. Note que o fator de potência da carga de cada barra é mantido
constante.

Outros objetivos tem sido propostos na literatura, a maioria dos quais relacionados ao
aspecto de segurança do sistema de potência. Os seguintes podem ser citados:

• Mı́nimo Número de Unidades Redespachadas, a qual tem caracterı́sticas semelhantes


aquelas mencionadas anteriormente no caso das funções objetivo para o despacho
de potência ativa;

• Minimização das Perdas de Potência Reativa nas Linhas de Transmissão, cujo ob-
jetivo é reduzir o efeito de linhas de transmissão altamente carregadas;

• Adição Mı́nima de Var Para a Convergência da Solução do Fluxo de Potência,


a qual deve ser utilizada quando a convergência não é alcançada pelos métodos
convencionais de fluxo de potência.
UFSC / EEL - Labspot - R. S. Salgado 49

A formulação analı́tica do problema de despacho de potência reativa é semelhante ao


do problema da distribuição ótima de potência ativa. A possibilidade de intercambiar a
geração de potência reativa com a magnitude da tensão gerada como variável de controle
constitui uma das principais diferenças entre esses dois tipos de problema. Nas abordagens
que utilizam a solução do fluxo de potência convencional como um estágio intermediário
do processo de otimização, é mais conveniente selecionar a magnitude da tensão gerada
como variável de controle, tendo em vista o aumento do número de equações envolvidas
se a potência reativa gerada é escolhida como variável independente. Por outro lado, se a
instalação de potência reativa adicional está sendo analisada, os limites de magnitude da
tensão são considerados mais severos e portanto, mais importantes, desde que os recursos
fı́sicos a serem expandidos por meios técnicos são as fontes de geração e absorção de
potência reativa.
Sob o ponto de vista de algoritmo de solução, a otimização do despacho de potência
reativa é mais difı́cil do que a da distribuição de potência ativa. Uma das principais razões
disto é a não linearidade das equações envolvidas no subproblema de potência reativa. Em
geral, qualquer método adequado a solução do problema de potência reativa é conveniente
para a solução conjunta do problema de despacho de potência.

3.3 Modelos de Problemas


3.3.1 Despacho de Potência Ativa
A determinação da distribuição ótima de potência ativa pode ser formulada como um
problema de minimização do custo de potência ativa gerada expresso como:
ng
,
Minimizar Ci (Pgi )
i=1
sujeito a (Pgj − Pdj ) − Pj (V, δ, a) = 0
(Qgj − Qdj ) − Qj (V, δ, a) = 0
(3.14)
Pgmj ≤ Pgj ≤ PgMj
Qm M
gj ≤ Qgj ≤ Qgj

Vjm ≤ Vj ≤ VjM
am M
kj ≤ akj ≤ akj

onde, Ci (Pgi ) é a curva de custo de geração da i-ésima unidade geradora, Pgj e Qgj são
as potências ativa e reativa geradas na j-ésima barra, Pdj e Qdj são as potências ativa e
reativa demandadas na j-ésima barra, Pj (V, δ) e Qj (V, δ) são as injeções de potência ativa
e reativa, expressas em função da magnitude (V ), do ângulo (δ) das tensões nodais e do
tap dos transformadores (a). Os ı́ndices m e M denotam os limites inferior e superior,
respectivamente.
Neste tipo de problema, as variáveis de otimização naturalmente selecionadas são: as
potências ativas geradas (Pgi ), a magnitude da tensão em todas barras (V i), o ângulo da
tensão em todas as barras com exceção da barra de referência angular (δi ) e o tap dos
transformadores com comutação sob carga (akl ).
50 Capı́tulo 3: Fluxo de Potência Ótimo

As equações correspondentes às restrições de igualdade representam os balanços de


potências ativa em todas as barras e os balanços de potência reativa nas barras de carga.
As equações relativas às desigualdades representam as restrições operacionais na geração
de potência, na magnitude da tensão e no tap dos transformadores com comutação sob
carga. Por simplificação, não foram incluı́das restrições de fluxo de potência nas linhas
de transmissão.
Note que o ângulo da tensão nas barras é uma variável de otimização, não sujeita a
restrições de desigualdade. As outras variáveis de otimização (Pgi , Vi , akl ) estão sujeitas às
restrições de capacidade e operação, monitoradas diretamente no processo de otimização.
Por outro lado, a não seleção de potência reativa gerada como variável de otimização
implica em que esta grandeza é calculada em função das variáveis de otimização (Vi , δi
e akl ). Portanto, a geração de potência reativa está sujeita a uma restrição funcional da
forma
Qm M
gj ≤ Qgj = Qdj + Qj (V, δ, a) ≤ Qgj

A solução do problema 3.14 fornece:


• a potência ativa suprida pelas unidades geradoras que resulta no mı́nimo custo de
geração;

• a solução das equações da rede elétrica correspondente à solução de mı́nimo custo


de geração (ângulo e magnitude da tensão em todas as barras e o tap dos transfor-
madores). Essas variáveis permitem o cálculo de qualquer outra grandeza ao longo
do sistema de potência (injeções de potência, fluxos de potência, perdas etc). Note
ainda, que os balanços de potência ativa e reativa são satisfeitos na solução ótima.

• os multiplicadores de Lagrange correspondentes ao balanço de potência ativa em


cada barra e correspondentes ao balanço de potência reativa nas barras de carga.
Essas grandezas podem ser vistas como custos marginais das injeções de potência
ativa e reativa;

• os multiplicadores duais correspondentes às restrições de desigualdade ativas (no


limite). Neste caso, os multiplicadores representam a sensibilidade instantânea do
custo de geração de potência ativa com relação ao limite atingido.

3.3.2 Despacho de Potência Reativa


Supondo disponı́veis as curvas de custo de injeção de potência reativa, o ponto de operação
correspondente ao mı́nimo custo de geração de potência reativa pode ser obtido minimizando-
se a função,
ng
,
f (Qg ) = Ci (Qgi ) (3.15)
i=1

onde Ci (Qgi ) representa a curva de custo da injeção de potência reativa na barra i, sujeito
às mesmas restrições operativas expressas na equação 3.14.
A injeção de potência reativa é basicamente proveniente dos geradores, dos elementos
de compensação shunt (capacitores e indutores) e dos compensadores estáticos, envolvendo
também a comutação de taps de transformadores. Estes fatores dificultam a quantificação
UFSC / EEL - Labspot - R. S. Salgado 51

do custo da injeção de potência reativa, tornando o problema de minimização da função


representada pela equação 3.15 bem mais complexo do que a obtenção da solução de
mı́nimo custo de geração de potência ativa.
No caso da minimização da função objetivo expressa pela equação 3.15, as variáveis de
otimização são praticamente as mesmas do problema representado na equação 3.14, exceto
pelo intercâmbio da potência ativa gerada pela potência reativa gerada. Desta forma, a
restrição de capacidade de geração de potência ativa torna-se uma restrição funcional.

3.3.3 Máximo Carregamento


Uma possı́vel formulação da determinação da demanda máxima que pode ser suprida,
mantendo o fator de potência constante e satisfazendo as restrições operacionais é anali-
ticamente expressa como [?]:

Maximizar ρ
sujeito a Pgj − (Pd0j + ρ∆Pdj ) − Pj (V, δ, a) = 0
Qgj − (Q0dj + ρ∆Qdj ) − Qj (V, δ, a) = 0
Pgmj ≤ Pgj = (Pd0j + ρ∆Pdj ) + Pj (V, δ, a) ≤ PgMj (3.16)
0
Qmgj ≤ Qgj = (Qdj + ρ∆Qdj ) + Qj (V, δ, a) ≤ QM
gj

Vjm ≤ Vj ≤ VjM
am M
kj ≤ akj ≤ akj

onde todas as variáveis foram definidas previamente.


Neste caso, as variáveis de otimização são: a magnitude da tensão em todas barras
(V i), o ângulo da tensão em todas as barras com exceção da barra de referência angular
(δi ), o tap dos transformadores com comutação sob carga (akl ) e o parâmetro da carga ρ.
As equações correspondentes às restrições de igualdade representam os balanços de
potências ativa e reativa apenas nas barras de carga.
As restrições de desigualdade representam as restrições operacionais na geração de
potência, na magnitude da tensão e no tap dos transformadores com comutação sob
carga. Com exceção do ângulo da tensão nas barras, as variáveis de otimização (Vi e akl )
estão sujeitas às restrições de operação e são monitoradas diretamente no processo de
otimização. Por outro lado, as potências ativa e reativa geradas são calculadas em função
das variáveis de otimização (Vi , δi , akl e ρ). Portanto, a geração de potência está sujeita
às restrições funcionais indicadas na equação 3.16.
A solução do problema 3.16 fornece:
• a solução das equações da rede elétrica correspondente ao suprimento da máxima de-
manda (ângulo e magnitude da tensão em todas as barras, tap dos transformadores
e parâmetro da carga).

• os multiplicadores de Lagrange correspondentes aos balanços de potências ativa e


reativa nas barras de carga. Essas grandezas são interpretadas como sensibilidades
instantâneas do parâmetro da carga com relação às injeções de potência ativa e
reativa nas barras de carga;
52 Capı́tulo 3: Fluxo de Potência Ótimo

• os multiplicadores duais correspondentes às restrições de desigualdade ativas (no


limite). Neste caso, os multiplicadores representam a sensibilidade instantânea do
parâmetro da carga com relação ao limite atingido.
Observe que a inclusão das restrições de desigualdade faz com que a solução do pro-
blema 3.16 seja diferente daquela obtida através do Método da Continuação.

3.4 Métodos de Solução


Tanto em relação ao método numérico de otimização utilizado como a forma de expressar
as equações da rede elétrica, um grande número de abordagem tem sido apresentadas
na literatura. Entretanto, a despeito do progresso alcançado nesse campo, nota-se que a
maioria dos métodos propostos na literatura possui deficiências relacionadas aos requisitos
de confiabilidade e rapidez, ou mesmo a falta de robustez.
A dificuldade de se tratar com funções objetivo de diferentes naturezas (linear ou não-
linear, por exemplo) e de incluir restrições de segurança também tem sido vistos como
incovenientes para a aplicação de certos métodos. As principais causas dessas dificuldades
são enumeradas a seguir:
• dimensão do problema (número de variáveis, restrições, etc);
• não-linearidades e não-separabilidade das funções que representam o ı́ndice a ser
otimizado e as restrições;
• complexidade do problema;
• os requisitos de aplicação em tempo real.
Desde o inı́cio da década de 60, muitos trabalhos de pesquisa têm sido desenvolvidos
na área de otimização aplicada a problemas de planejamento e operação de sistemas de
potência. Devido ao grande esforço dispendido neste campo de pesquisa, o qual resultou
num número relativamente grande de programas computacionais disponı́veis, ao final dos
anos 80 um número de concessionárias de energia elétrica começou a utilizar mais efe-
tivamente as metodologias desenvolvidas para os estudos de análise do sistema elétrico.
Algumas das principais razões para a demora na utilização das ferramentas computacio-
nais desenvolvidas são as seguintes:
• a dimensão da maior parte dos problemas de otimização formulados;
• a falta de recursos computacionais condizentes com o porte do problema;
• a falta de confiança nas ferramentas computacionais disponı́veis.
Até um passado recente, não havia um método não linear de Fluxo de Potência Ótimo
em torno do qual houvesse unanimidade na literatura para se afirmar ser ele o mais
adequado para a aplicação em estudos de planejamento, de operação, ou para aplicaçãoes
em tempo-real. A sofisticação de cada metodologia, assim como a modelagem matemática
utilizadas têm sido propostas nas mais variadas alternativas, dependendo na prática, de
condições tais como recursos computacionais disponı́veis, grau de precisão requerido, etc.
UFSC / EEL - Labspot - R. S. Salgado 53

3.4.1 Baseados em Programação Linear


Apesar da reconhecida não linearidade do problema de Fluxo de Potência Ótimo, técnicas
de Programação Linear podem ser aplicadas para a obtenção da solução deste problema. O
requisito para esta aplicação é que tanto a função objetivo quanto as restrições devem ser
representadas por funções lineares. O esquema de solução utilizado nestas metodologias
consiste basicamente dos três passos principais descritos a seguir:

• linearização da função objetivo e das restrições;

• solução do problema de Programação Linear;

• solução das equações da rede elétrica em regime permanente.

Diversos objetivos podem ser representados por funções lineares tanto no despacho de
potência ativa como no despacho de potência reativa, no modo preventivo ou no modo
corretivo. No caso da distribuição ótima de potência ativa, os seguintes ı́ndices podem
ser citados [3, 4]:

• Mı́nimo custo de geração de potência ativa;

• Mı́nimo desvio de uma distribuição pré-especificada;

• Mı́nimo número de unidades redistribuı́das;

De forma semelhante, diversos ı́ndices de desempenho podem ser utilizados para se


determinar a distribuição ótima de potência reativa, a maioria dos quais relacionada a
melhoria da qualidade de serviço do sistema elétrico. Alguns dos mais importantes são os
seguintes:

• Minimização das perdas de potência ativa nas linhas de transmissão;

• Minimização da soma ponderada dos valores absolutos dos desvios de uma distri-
buição de potência reativa pré-especificada;

• Mı́nimo número de unidades redistribuı́das;

As abordagens baseadas em técnicas de Programação Linear usam em geral as equações


do Fluxo de Potência CC ou as equações da rede elétrica linearizadas (relações de sensi-
bilidade) para representar o sistema de potência. Este tipo de formulação das restrições
tende em geral a fornecer bons resultados, principalmente no caso do despacho ótimo de
potência ativa. Em alguns sistemas a não linearidade da relação potência reativa-módulo
da tensão é por demais acentuada e dificulta a aplicação dessas técnicas. É ainda possı́vel
expressar as inequações relacionadas às restrições de segurança e aos limites dos disposi-
tivos do sistema elétrico como funções lineares ou linearizadas representando as relações
de sensibilidade entre as variáveis do sistema de potência.
Apesar de que teoricamente qualquer método de Programação Linear poderia ser em-
pregado para resolver o problema de programação linear, a técnica mais freqüentemente
utilizada em metodologias propostas em Fluxo de Potência Ótimo é o algoritmo Dual
54 Capı́tulo 3: Fluxo de Potência Ótimo

Simplex Revisado. A habilidade de manipular um número elevado de restrições sem au-


mento demasiado no dimensionamento da matriz base, e a sua eficiência no tratamento
de restrições com limites bilaterais, tornou este algoritmo bastante conveniente para a
aplicação em questão.
Um grande número de metodologias baseadas em Programação Linear tem sido pro-
postas na literatura. Algumas das abordagens mais conhecidas possuem caracterı́sticas
comuns tais como: inclusão de restrições de segurança, uso do algoritmo Dual-Simplex e
a modelagem da rede elétrica via Fluxo de Potência CC.
As principais vantagens da utilização das técnicas de Programação Linear na solução
do problema de Fluxo de Potência Ótimo são:

• confiabilidade;

• rapidez na detecção de inviabilidade da solução;

• rapidez na determinação de soluções viáveis;

• facilidade de implementação;

• facilidade de inclusão de restrições de segurança.

A principal desvantagem associada às metodologias baseadas em Programação Linear


é a imprecisão resultante da linearização das funções objetivo relacionadas ao problema de
despacho de potência reativa. Em particular, tanto as perdas de potência ativa nas linhas
de transmissão como as injeções de potência reativa são funções com grau acentuado de
não-linearidade, o que dificulta bastante a aplicação dos referidos algoritmos.

3.4.2 Baseados em Programação Não Linear


O Método do Gradiente Reduzido
Um dos mais simples esquemas iterativos para resolver o problema de otimização repre-
sentado pela equação 3.1 é o Método da Descida mais Íngreme [2], também referido como
Método do Gradiente Reduzido, proposto na década de 60 por Dommel & Tinney [2].
O princı́pio básico desta técnica consiste em tomar o negativo do vetor gradiente como
direção de busca do valor mı́nimo da função objetivo. A menos que o vetor gradiente
se anule, esta direção é claramente uma direção de redução no valor da função obje-
tivo. Dommel-Tinney [2] utilizaram este algoritmo de minimização para determinar as
distribuições ótimas de potência ativa e reativa. Neste tipo de abordagem, o processo de
otimização é incluı́do como uma extensão do método de Newton-Raphson para a solução
das equações não lineares da rede elétrica, o que constitui uma das caracterı́sticas mais
atrativas da metodologia. Matematicamente, a técnica é baseada na construção de uma
função Lagrangeana aumentada e na aplicação das condições de Karush-Kuhn-Tucker à
mesma. As restrições de igualdade são manipuladas através dos multiplicadores de La-
grange, enquanto que as restrições de desigualdade podem ser tratadas com o auxı́lio de
funções de penalidade e/ou relações de sensibilidade.
A metodologia proposta em [2] para a solução do problema de Fluxo de Potência
Ótimo pode ser resumida nos seguintes passos:
UFSC / EEL - Labspot - R. S. Salgado 55

• solução do fluxo de potência convencional via método de Newton-Raphson;

• cálculo do vetor gradiente reduzido, à partir dos resultados do fluxo de potência


(incluindo a matriz Jacobiana na forma fatorada);

• verificação das restrições de desigualdade.


A principal vantagem deste tipo de metodologia é ser uma extensão relativamente
simples do método de Newton-Raphson. No passado, esta foi a primeira abordagem que
gerou programas comerciais de Fluxo de Potência Ótimo. Suas desvantagens estão relaci-
onadas às oscilações do vetor gradiente em torno da solução ótima e à forma tratamento
das restrições de desigualdade.

O Método de Newton
Esta forma de solução ótima, proposta em [5], é apontada na literatura como uma das
mais importantes aplicações de algoritmos de Programação Não-Linear ao problema de
Fluxo de Potência Ótimo. Esta aplicação resultou do desenvolvimento de um trabalho
de pesquisa desenvolvido pelo Electric Power Research Institute (EPRI), tendo sido pro-
duzido pelo referido instituto um programa computacional, utilizado durante um certo
tempo por parte da indústria de energia elétrica.
O procedimento para a aplicação do método de Newton a um problema de otimização
com restrições da forma
Minimizar f (x)
sujeito a g(x) = 0
é baseado nos seguintes passos principais:
• formação da função Larangeana;

£(x, λ) = f (x) − λt g(x)

• aplicação das condições de otimalidade de primeira ordem, o que resulta num con-
junto de equações não lineares expresso por
∇x £(x, λ) = ∇x f (x) − ∇x g(x)t λ = 0
∇λ £(x, λ) = − g(x) = 0

• solução do conjunto de equações não lineares através do método de Newton, o que


implica em resolver a cada iteração um sistema linear da forma
* 2 +* + * +
∇xx f (x) − ∇2xx g(x)λ −g(x)t ∆x ∇x f (x) − ∇x g(x)t λ
=
−g(x) 0 ∆λ g(x)

O segundo e o terceiro passos equivalem a fazer uma aproximação quadrática da função


Lagrangeana (via expansão em série de Taylor até o termo de segunda ordem ) e minimizar
a referida aproximação.
Uma das principais vantagens desta metodologia é que as equações da rede em regime
permanente, representadas pelas restrições de igualdade, são resolvidas ao mesmo tempo
56 Capı́tulo 3: Fluxo de Potência Ótimo

em que a função objetivo é minimizada; isto é, não são necessárias soluções intermediárias
do fluxo de potência convencional. Sua principal desvantagem é a forma de tratamento das
restrições de desigualdade. Diversas estratégias foram testadas para esta finalidade, desde
o uso de funções de penalidade quadráticas até a realização de iterações experimentais
[5], nenhuma possuindo um desempenho completamente satisfatório.

O Método de Pontos Interiores


No inı́cio dos anos 90 as abordagens baseadas nos algoritmos não lineares de Pontos
Interiores [6, 7] foram propostas. Desde então, essas metodologias têm sido apontadas
como as de maior potencial para a solução do problema de otimização não linear.
Para ilustrar a aplicação do método de Pontos Interiores, considere que é desejado
obter a solução ótima de um problema de otimização da forma

Minimizar f (x)
sujeito a g(x) = 0
h(x) ≥ 0

A solução deste problema via algoritmos de Pontos Interiores requer a realização dos
seguintes passos:

• transformação das restrições de desigualdade em restrições de igualdade através de


variáveis de folga não negativas; isto é,

h(x) − s = 0, s≥0

onde s é o vetor das variáveis de folga;

• adição de uma função barreira logarı́tmica a função objetivo; ou seja


,
f (x) − µ ln si

onde si é o i-ésimo componente do vetor das variáveis de folga e µ é um parâmetro,


denominado barreira logarı́tmica, que tende a zero na solução ótima;

• solução do problema de otimização


.
Minimizar f (x) − µ ln si
sujeito a g(x) = 0
h(x) − s = 0, s≥0

através do método de Newton.

O artifı́cio da inclusão das variáveis de folga facilita o tratamento das restrições de


desigualdade, uma das principais dificuldades na solução do problema de otimização não
linear. Entretanto, esta inclusão aumenta o número de variáveis e portanto a dimensão
do problema de otimização, sendo imprescindı́vel o uso de técnicas de compactação e
esparsidade na solução do sistema linear.
UFSC / EEL - Labspot - R. S. Salgado 57

A proposta de aplicação dos algoritmos não lineares de Pontos Interiores significou


um grande avanço no desenvolvimento de metodologias de solução do Fluxo de Potência
Ótimo. Diversas variações do algoritmo resumido nesta monografia têm sido utilizadas,
incluindo aquelas adequadas aos problemas de Programação Linear e Quadrática.
No Brasil, o Centro de Pesquisas de Energia Elétrica desenvolveu o programa FLUPOT
[8], para a solução do problema de Fluxo de Potência Ótimo, baseado na versão não linear
Primal-Dual de Pontos Interiores.
58 Capı́tulo 3: Fluxo de Potência Ótimo
Capı́tulo 4

Método de Newton

Neste texto, a solução de um problema genérico de otimização estática através do método


de Newton é analisada 1 . Esta forma de solução ótima é apontada na literatura como uma
das mais importantes aplicações de algoritmos de Programação Não-Linear ao problema
de Fluxo de Potência Ótimo. A base teórica do método é inicialmente mostrada, e a
seguir a modelagem do problema de otimização e sua solução em termos de variáveis do
sistema elétrico são apresentados.

4.1 Fundamentos Teóricos


Uma função quadrática multivariável pode ser expressa em termos matriciais como
1
f (x) = a + bt x + xt Gx
2
onde, a é um escalar; b é um vetor n-dimensional; G é uma matriz n × n, simétrica; x é
um vetor n- dimensional; e f (x) é uma função escalar.
O vetor gradiente e a matriz Hessiana de f (x) são dados respectivamente por

∂f (x)
= ∇f (x) = Gx + b
∂x
e
∂ 2 f (x)
2
= ∇2 f (x) = G
∂x
A matriz de segundas derivadas de f (x) tem as seguintes propriedades:

• a matriz G é constante;

• a matriz G é sempre simétrica, pois o resultado da diferenciação parcial é indepen-


dente da ordem na qual as derivadas são computadas;

• uma função quadrática é sempre definida com a matriz G simétrica. Se a matriz G


é positiva definida, ela representa uma superfı́cie n-dimensional, e xt Gx > 0 ∀x;
1
Este texto foi baseado nas referências [5, 9, 10]
60 Capı́tulo 4: Método de Newton

• se a matriz G não é positiva definida e n = 2, a forma da superfı́cie é uma ”sela”


ou uma parabolóide elı́ptica invertida;
• se a matriz G é positiva definida, x∗ pode ser determinado diretamente, resolvendo-
se um sistema (com matriz de coeficientes não singular) de equações lineares obtidas
igualando-se o gradiente de f (x) a zero; neste caso,

Gx∗ = −b

• se G não é positiva definida, a solução de Gx∗ = −b é um ponto estacionário mas


não um mı́nimo. A solução de Gx∗ = −b requer a triangularização da matriz G.
Se durante a triangularização todos os pivôs forem positivos, G é positiva definida.
Este é o teste mais simples para determinar se G possui esta propriedade, pois os
pivôs são um subproduto da triangularização;
• uma função quadrática de duas variáveis com uma matriz G não positiva definida
constitui uma superfı́cie em forma de sela. Um corte transversal num sentido fornece
uma parábola com mı́nimo. Um corte transversal no outro sentido fornece uma
parábola com máximo. Existe um ponto estacionário onde os vértices das duas
parábolas coincidem. Pontos estacionários deste tipo são referidos como pontos de
sela, os quais podem ser interpretados como pontos multidimensionais análogos ao
ponto de inflexão unidimensional.

4.1.1 Mı́nimo de uma Função Multivariável


De forma análoga ao caso de funções de uma única variável, o método de Newton pode
ser usado na determinação dos pontos estacionários de funções de ordem mais elevada e
multivariáveis. A principal diferença é que neste caso ∇f (x) eventualmente não será um
vetor de funções lineares e ∇2 f (x) = G(x) não será uma matriz constante. As equações
para a solução na iteração k são

G(xk )∆xk+1 = −∇f (xk )

e
xk+1 = xk + ∆xk+1
No caso da função quadrática existe um único (ou nenhum) ponto estacionário. Porém
quando f (x) é de ordem mais elevada que quadrática, podem haver diversos pontos esta-
cionários ou mı́nimos. Neste caso, a seleção de x0 torna-se crı́tica. O ponto x0 deve estar
situado na região de convergência do método de Newton para x∗ , ou de outra forma o
método convergirá para um ponto indesejável ou mesmo para um ponto de sela. Supõe–se
que uma boa seleção para x0 é possı́vel à partir do conhecimento do problema prático a
ser resolvido.
O procedimento adotado no caso da minimização de uma função quadrática pode ser
estendido para a determinação de pontos estacionários de funções de ordem mais elevada.
A principal diferença é que neste último caso a primeira derivada da função não será linear
e um método iterativo deve ser empregado na determinação dos pontos estacionários (o
método de Newton-Raphson para a determinação de raı́zes de uma equação, por exemplo).
UFSC / EEL - Labspot - R. S. Salgado 61

4.1.2 Algoritmo
O procedimento para a determinação do ponto de mı́nimo de uma função qualquer via
método de Newton pode ser sumarizado na execução dos seguintes dois passos:

1. Expansão de f (x) em série de Taylor em torno de x, até o termo de segunda ordem


ordem, isto é
1
f (x + ∆x) = f (x) + ∇t f (x)∆x + ∆xt ∇2 f (x)∆x
2

2. Determinação dos pontos extremos de


1
∇f (x)t ∆x + ∆xt ∇2 f (x)∆x = g(∆x)
2

Isto pode ser expresso em termos do seguinte algoritmo:

k=0

1. Selecionar xk ;

2. Calcular ∇f (xk ) e G(xk );

3. Verificar se a convergência a um ponto estacionário foi alcançada:

• se ∇f (xk ) ̸= 0 siga para o passo 4;


• se ∇f (xk ) = 0,
– se G(xk ) é positiva definida, xk = x∗ é a solução ótima; (Final do processo
é normal);
– se ∇f (xk ) = 0 e G(xk ) não é positiva definida, xk é um ponto estacionário,
porém não é a solução ótima; (Final do processo com erro);

4. Resolva o sistema linear

G(xk )∆xk+1 = −bk = −∇f (xk )

e calcule xk+1 = xk + ∆xk+1 ; faça k = k + 1 e retorne ao passo 2.

4.1.3 Modelos Conceituais dos Métodos de Newton


Seja uma função não-linear de uma variável e sua aproximação quadrática no ponto x0 ,
obtida calculando-se a primeira derivada e a segunda derivada de f (x) no ponto x0 . A
aproximação quadrática da função constitui uma parábola convexa e tangente a f (x0 ) em
x0 , conforme mostra a figura 4.2. Neste ponto, a inclinação da parábola coincide com a
inclinação de f (x). O deslocamento ∆x1 , de x0 ao eixo da parábola, representa a primeira
iteração do método de Newton para a determinação do mı́nimo de f (x) através de uma
seqüência de aproximações quadráticas. Em cada iteração sucessiva uma nova parábola
62 Capı́tulo 4: Método de Newton

f (x)

Aproximação
quadrática de f (x) em x0

Aproximação
quadrática de f (x) em x1
Aproximação
quadrática de f (x) em x2
∆x2 ∆x1 ∆x0
x∗ x2 x1 x0 x
Solução ótima

Figura 4.1: Aproximação quadrática de uma função f (x)

é formada e a localização de seu eixo se torna a próxima aproximação para x∗ . O eixo da


parábola eventualmente converge para x∗ .
Para uma função convexa qualquer, uma sucessão de aproximações quadráticas a cada
ponto conduz ao ponto de mı́nimo global.
O método de Newton pode ser utilizado alternativamente para determinar o mı́nimo
de uma função não-linear da seguinte maneira:

1. Determina-se a primeira derivada de f (x), iguala-se o resultado a zero e determi-


nam-se as raı́zes da equação resultante;

2. As raı́zes são um ponto de mı́nimo, máximo ou um ponto de inflexão dependendo


da segunda derivada; observe-se que a determinação das raı́zes de uma função não-
linear requer linearizações sucessivas da função à partir de uma solução inicial;

3. Cada linearização é a derivada da derivada, isto é a derivada segunda da função que


esta sendo minimizada;

4. A cada iteração, o mı́nimo de uma aproximação quadrática da função original é


determinado. Entretanto, o procedimento adotado neste passo pode ser interpretado
como a determinação de uma raiz da função representada pela primeira derivada,
conforme ilustrado na figura 4.1. Neste caso, a aproximação linear é utilizada, o que
significa adotar uma seqüência de direções baseadas na tangente à função f (x) no
ponto considerado.
UFSC / EEL - Labspot - R. S. Salgado 63

f (x)

Aproximação linear
de f (x) em x0

x2 x1 ∆x0 x0 x

raiz de f (x)

Figura 4.2: Determinação da raiz de uma função f (x)

4.2 Restrições de Igualdade


Seja o seguinte problema de otimização não-linear com apenas restrições de igualdade

Minimizar f (x)
sujeito a g(x) = 0

onde, f (x) é uma função objetivo não-linear das variáveis x; x é um vetor n-dimensional;
e g(x) é um vetor m-dimensional das equações não lineares que representam as restrições
de igualdade.
A solução deste problema pode ser obtida através do método de Newton, adotando-se
o seguinte procedimento:

1. Determinar a função Lagrangeana

£(x, λ) = f (x) − λt g(x)

e considerando a solução inicial (xk , λk );

2. Determinar a aproximação da função Lagrangeana em série de Taylor, em torno do


ponto (xk , λk ), ao longo da direção (∆x, ∆λ), e até o termo de segunda ordem, isto
é,
£(xk + ∆x, λk + ∆λ) = £(xk , λk )+
64 Capı́tulo 4: Método de Newton

/ 0t '' / 0t ''
∂£(x, λ) ' ∂£(x, λ) '
' ∆x + ' ∆λ+
∂x ' k k ∂λ ' k k
(x ,λ ) (x ,λ )
/ 2 0' / 2 0'
1 t ∂ £(x, λ) '' 1 t ∂ £(x, λ) ''
∆x ' k k ∆x + 2 ∆x ' k k ∆λ+
2 ∂x2 (x ,λ ) ∂x∂λ (x ,λ )
/ 2 0' / 2 0'
1 ∂ £(x, λ) '' 1 ∂ £(x, λ) ''
∆λt ' k k ∆x + ∆λ t
' k k ∆λ
2 ∂λ∂x (x ,λ ) 2 ∂λ2 (x ,λ )

3. Calcular o vetor de primeiras derivadas e a matriz de segundas derivadas da função

∆£(∆x, ∆λ) = ∇tx £(xk , λk )∆x + ∇tλ £(xk , λk )∆λ+


1 1
∆xt ∇2xx £(xk , λk )∆x + ∆xt ∇x,λ £(xk , λk )∆λ+
2 2
1 1
∆λt ∇λ,x £(xk , λk )∆x + ∆λt ∇λλ £(xk , λk )∆λ
2 2
onde,
/ 0t ''
∂£(x, λ) '
∇tx £(xk , λk ) = '
∂x '
(xk ,λk )

é o vetor (n × 1) de primeiras derivadas da função Lagrangeana em relação a x,


calculado no ponto (xk , λk );
/ 0t ''
∂£(x, λ) '
∇tλ £(xk , λk ) = '
∂λ ' k k
(x ,λ )

é o vetor (m × 1) de primeiras derivadas da função Lagrangeana em relação a λ,


calculado no ponto (xk , λk );
/ 2 0'
2 k k ∂ £(x, λ) ''
∇xx £(x , λ ) = ' k k
∂x2 (x ,λ )

é a matriz (n × n) de segundas derivadas da função Lagrangeana em relação a x,


calculada no ponto (xk , λk );
/ 2 0'
2 k k t ∂ £(x, λ) ''
∇x,λ £(x , λ ) = ∇λ,x £(x, λ) = ' k k
∂x∂λ (x ,λ )

é a matriz (n × m) de segundas derivadas da função Lagrangeana em relação a x e


λ, calculada no ponto (xk , λk );
/ 2 0'
2 k k ∂ £(x, λ) ''
∇λλ £(x , λ ) = ' k k =0
∂λ2 (x ,λ )

é a matriz (m × m) de segundas derivadas da função Lagrangeana em relação a λ,


calculada no ponto (xk , λk ).
UFSC / EEL - Labspot - R. S. Salgado 65

4. Caso o ponto (xk , λk ) seja um ponto estacionário, efetue o teste de convergência na


matriz de segundas derivadas da função Lagrangeana;

5. Caso o ponto (xk , λk ) não seja um ponto estacionário, minimize a função ∆£(∆x, ∆λ).
Neste caso, a aplicação das condições de otimalidade à função Lagrangeana resulta
em
∂∆£(∆x, ∆λ)
= 0 = ∇x £(xk , λk ) + ∇2xx £(xk , λk )∆x + ∇2x,λ£(xk , λk )∆λ
∂∆x

∂∆£(∆x, ∆λ)
= 0 = ∇2T k k k k
x,λ £(x , λ )∆x + ∇λ £(x , λ )
∂∆λ
ou, em forma matricial,
* 2 +* + * +
∇xx £(xk , λk ) ∇2x,λ £(xk , λk ) ∆x ∇x £(xk , λk )
=−
∇2T k k
x,λ £(x , λ ) 0 ∆λ ∇λ £(xk , λk )

e, denotando * +
∆x
∆z =
∆λ
* + * +
∇2xx £(xk , λk ) ∇2x,λ £(xk , λk ) H(xk , λk ) −J(xk )
W= =
∇2T k k
x,λ £(x , λ ) 0 −Jt (xk ) 0
e * +
∇x £(xk , λk )
∆b = −
∇λ £(xk , λk )
o sistema linear pode ser expresso como

W∆z = ∆b

6. Atualize as variáveis (x, λ), e retorne ao passo (2).

Com relação a este procedimento, as seguintes observações são feitas:

• Conforme indicado na notação, J(x) é uma função de x, enquanto que H(x, λ) é uma
função de x e λ. A matriz Hessiana (n × n), G(x), de f (x), é uma das componentes
de H(x, λ);

• A matriz W é simétrica porque H(x, λ) é simétrica.

• Há sempre uma matriz (m × m) nula no canto inferior direito de W, porque o


subvetor ∇λ £(x, λ) é função apenas de x: ∂ 2 £/∂λi ∂λj = 0 porque λj não é uma
variável em ∂£/∂λi ;

• A matriz W não é positiva definida e pode ser singular. Precauções especiais podem
ser tomadas para prevenir a singularidade de W durante o processo iterativo;
66 Capı́tulo 4: Método de Newton

• Quando W(x, λ) não é uma matriz constante, não é possı́vel a solução direta para
(x∗ , λ∗ ). Entretanto, a aplicação das aproximações quadráticas sucessivas permite
que o método de Newton seja utilizado para minimizar uma função multivariável e
determinar a solução ótima (x∗ , λ∗ ). Observe-se que em cada ponto da aproximação
quadrática o método de Newton pode ser usado para calcular as raı́zes do gradiente
da função que está sendo minimizada;
• A equação matricial para a determinação da correção (∆x, ∆λ), aplicada a cada
iteração no método de Newton para a minimização da função Lagrangeana genera-
lizada é * +* + * +
H(xk , λk ) −J(xk ) ∆x ∇x £(xk , λk )
=−
−Jt (xk ) 0 ∆λ ∇tλ £(xk , λk )
A análise dos componentes do vetor do lado direito deste sistema linear permite notar
que:
• ∇x £(xk , λk ) = ∇f (x) − ∇g(x)t λ está relacionado à condição de otimalidade de
primeira ordem. Na solução ótima ∇f (x) − ∇g(x)t λ = 0 indicando que uma das
condições de otimalidade de Karush-Kuhn-Tucker é satisfeita;
• ∇tλ £(xk , λk ) = −g(x) são as equações que representam as restrições de igualdade,
as quais devem ser satisfeitas na solução, ou seja g(x) = 0.
Ex. 4.1 Determinar através do método de Newton, a solução do seguinte problema de
otimização:
Minimizar
f (x) = x21 + 2x22 + 4x23 + 5x1 x2
sujeito a * + * +
g1 (x) x1 + x22 + 3x2 x3 − 5 = 0
g(x) = =
g2 (x) x21 + 5x1 x2 + 3x23 − 9 = 0
Solução:
• Função Lagrangeana:
* +
t
( ) g1 (x)
£(x, λ) = f (x) − λ g(x) = f (x) − λ1 λ2
g2 (x)

* +
( ) x1 + x22 + 3x2 x3 − 5 = 0
£(x, λ) = x21 + 2x22 + 4x23 + 5x1 x2 − λ1 λ2
x21 + 5x1 x2 + 3x23 − 9 = 0

• Vetor gradiente e matriz Hessiana da função Lagrangeana:

⎡ ⎤
(2x1 + 5x2 ) − λ1 − λ2 (2x1 + 5x2 )
* + 1 2 ⎢ (5x1 + 4x2 ) − λ1 (2x2 + 3x3 ) − λ2 (5x1 ) ⎥
∇x £(x, λ) ∂£(x,λ) ⎢ ⎥
= ∂x
∂£(x,λ) =⎢
⎢ 8x3 − λ1 (3x2 ) − λ2 (6x3 ) ⎥

∇λ £(x, λ) ⎣ ⎦
∂λ −(x1 + x22 + 3x2 x3 − 5)
−(x21 + 5x1 x2 + 3x23 − 9)
UFSC / EEL - Labspot - R. S. Salgado 67

* + * +
∇2xx £(xk , λk ) ∇2x,λ £(xk , λk ) H(xk , λk ) −J(xk )
=
∇2T k k
x,λ £(x , λ ) 0 −Jt (xk ) 0

⎡ ⎤
2 − 2λ2 5 − 5λ2 −1 −(2x1 + 5x2 )
⎢ 5 − 5λ2 4 − 2λ1 −3λ1 −(2x2 + 3x3 ) −5x1 ⎥
⎢ ⎥
=⎢
⎢ −3λ1 8 − 6λ2 −3x2 −6x3 ⎥

⎣ −1 −(2x2 + 3x3 ) −3x2 0 0 ⎦
−(2x1 + 5x2 ) −5x1 −6x3 0 0

• Solução inicial especificada para a primeira iteração

( ) ( )
x0t λ0t = 0 0, 5 0, 5 1, 0 1, 0

• 1a iteração - Sistema linear a ser resolvido:

⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −1 −2, 5
5 ∆x1 −1, 0
⎢ 5 −2, 5
4 ⎥ ⎢ ⎥ ⎢ −0, 5 ⎥
⎢ ⎥ ⎢ ∆x2 ⎥ ⎢ ⎥
⎢ 2 −1, 5 −3, 0 ⎥ ⎢ ⎥=⎢ −0, 5 ⎥
⎢ ⎥ ⎢ ∆x3 ⎥ ⎢ ⎥
⎣ −1 −2, 5 −1, 5 0 0 ⎦ ⎣ ∆λ1 ⎦ ⎣ 4, 0 ⎦
−2, 5 −3, 0 0 0 ∆λ2 8, 25

Solução do sistema linear:

( ) ( )
∆xt ∆λt = 3, 2798 0, 2780 0, 0168 0, 0022 −0, 4009

• Atualização das variáveis:


⎡ ⎤ ⎡ ⎤
x01 + ∆x1 3, 2798
* + ⎢ x02 + ∆x2 ⎥ ⎢ 0, 7780 ⎥
x1 ⎢ ⎥ ⎢ ⎥
=⎢
⎢ x03 + ∆x3 ⎥=⎢
⎥ ⎢ 0, 5168 ⎥

λ1 ⎣ ⎦ ⎣ ⎦
λ01 + ∆λ1 1, 0022
λ02 + ∆λ2 0, 5991

• Para uma tolerância de 10−6 a solução ótima determinada em 11 iterações é dada


por

( ) ( )
x∗t λ∗t = 1, 000 1, 000 1, 000 0, 9334 0, 8667
68 Capı́tulo 4: Método de Newton

4.3 Restrições de Desigualdade


O algoritmo da seção anterior não considera as restrições de desigualdade. A inclusão
destas requer uma estratégia de manipulação das mesmas durante o processo iterativo.
A situação ideal seria a determinação a priori das restrições de desigualdade no limite
(binding constraints). Porém, nenhuma estratégia direta para esta identificação é conhe-
cida para qualquer método de otimização. Os esquemas de identificação do conjunto de
restrições ativas exploram as caracterı́sticas particulares de cada tipo de problema.
Três maneiras de incluir das restrições de desigualdade na solução do problema de
otimização pelo método de Newton são descritas a seguir.

4.3.1 Inclusão de Restrições de Desigualdade Violadas


Este procedimento é baseado nos seguintes aspectos:

• Um conjunto inicial de restrições ativas é selecionado e uma iteração da solução é


executada;

• A análise do sinal das variáveis duais (uma associada a cada restrição de desigual-
dade incluı́da no conjunto) indicará se este conjunto é o correto.

– Em caso afirmativo, o processo iterativo prossegue enquanto a condição de


otimalidade relativa aos sinais das variáveis duais for satisfeita.
– Caso esta condição não seja satisfeita, o conjunto de restrições ativas deve ser
atualizado, incluindo-se restrições adicionais não consideradas inicialmente, e
excluindo-se as restrições que não tem influência na busca da solução ótima. As
restrições a serem incluı́das são identificadas com base na violação dos limites
correspondentes. As restrições a serem excluı́das são identificadas pelo sinal
dos multiplicadores de Lagrange associados às restrições.

A principal vantagem deste tipo de procedimento é a sua simplicidade. Por outro lado,
dois aspectos desse tipo de estratégia podem ser citados como desvantagens:

• a inclusão e a exclusão das restrições de desigualdade no conjunto de restrições ativas


requer modificações correspondentes na matriz de coeficientes do sistema linear a
ser resolvido a cada iteração, o que pode se constituir um impedimento ao uso deste
esquema no caso de sistemas de ordem elevada;

• a convergência do processo iterativo pode ser comprometida quando o conjunto de


restrições ativas é modificado porque a solução corrente pode não ser adequada
à inclusão de uma especificada restrição; isto é, o processo iterativo pode evoluir
para um ponto onde o nı́vel de violação de determinadas restrições dificulte a sua
convergência;
UFSC / EEL - Labspot - R. S. Salgado 69

4.3.2 Uso de Funções de Penalidade


Consiste na utilização de funções de penalidade para restrições não demasiadamente
rı́gidas (tais como limites de magnitude da tensão em barras de carga etc, no caso do
Fluxo de Potência Ótimo). Esta estratégia é semelhante àquela proposta para o Método
do Gradiente Reduzido na referência [2], na qual as violações nas restrições são manipula-
das utilizando-se funções de penalidade adicionadas a função Lagrangeana. A justificativa
para este procedimento é que o número de restrições de desigualdade ativas em qualquer
estágio do processo de otimização é geralmente bastante reduzido se comparado ao número
total dessas restrições .
As funções de penalidade a serem adicionadas a função objetivo do problema de oti-
mização original são expressas por
⎧ 2

⎪ −σ(xi − xm i ) , se xi < xm i



2
wi = σ(xi − xMi ) , se xi > xMi (4.1)





0, se xm i ≤ xi ≤ xi
M

onde, σ é um coeficiente previamente especificado e xm M


i e xi são os limites mı́nimo e
máximo, respectivamente, da variável i.
A primeira derivada da Equação (4.1) em relação à variável x é portanto

−2σ(xi − xmi ), se xi < xi
m
∂wi ⎨
= (4.2)
∂xi ⎩ M M
2σ(xi − xi ), se xi > xi
O procedimento para eliminar a violação de uma restrição de desigualdade consiste
em adicionar a função de penalidade apenas quando ocorrer a violação. Esta inclusão
modifica as curvas de nı́vel da função objetivo original. No inı́cio do processo, um valor
pequeno é atribuı́do ao coeficiente σ. Este valor é aumentado conforme a violação persiste.
Isto significa acentuar o efeito da função de penalidade até que a violação seja removida.
Este procedimento é ilustrado na figura 4.3.
Algumas dificuldades são esperadas na aplicação deste procedimento:
• o uso das funções de penalidade invariavelmente retarda a convergência dos algorit-
mos cuja direção de busca é baseada no vetor gradiente;
• não há certeza sobre a forma mais eficiente de se aumentar os coeficientes das funções
de penalidade; além disso, no caso de violações mais severas a convergência pode
não ser alcançada;
• nem todas as sensibilidades das funções de penalidade com relação às variáveis,
requeridas de acordo com a equação 4.2, são disponı́veis.

4.3.3 Iterações Experimentais


Execução de iterações experimentais, as quais consistem na solução repetida de sistemas
lineares utilizando diferentes conjuntos de restrições ativas, antes de efetuar uma nova
70 Capı́tulo 4: Método de Newton

f (x) + w2 (x) w2 (x) w1 (x)f (x)


f (x) + w1 (x)

0 xlim x∗ x

Figura 4.3: Uso de funções de penalidade quadráticas

iteração do método de Newton. Este procedimento é ilustrado no exemplo mostrado a


seguir.

Ex. 4.2 Determinar através do método de Newton, a solução do seguinte problema de


otimização:

Minimizar f (x) = (x1 − 1)2 + (x2 − 2)2 + (x3 − 3)2 + (x4 − 4)2
⎡ ⎤ ⎡ ⎤
g1 (x) ≥ 0 −x1 − x2 − x3 − x4 + 5 ≥ 0
⎢ g2 (x) ≥ 0 ⎥ ⎢ −3x1 − 3x2 − 2x3 − x4 + 10 ≥ 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ g3 (x) ≥ 0 ⎥ ⎢ x1 ≥ 0 ⎥
sujeito a g(x) ≥ 0 ⇒ ⎢ ⎢ ⎥=⎢ ⎥
⎥ ⎢ ⎥
⎢ g4 (x) ≥ 0 ⎥ ⎢ x2 ≥ 0 ⎥
⎣ g5 (x) ≥ 0 ⎦ ⎣ x3 ≥ 0 ⎦
g6 (x) ≥ 0 x4 ≥ 0

partindo da solução inicial ( )


1 3
xt = 2
1 2
2
Na condição inicial, a restrição

g1 (x) = − x1 − x2 − x3 − x4 + 5 = 0

é ativa.
UFSC / EEL - Labspot - R. S. Salgado 71

• Função Lagrangeana:

£(x, λ) = f (x) − λt g(x) = f (x) − λ1 g1 (x)

£(x, λ) = (x1 − 1)2 + (x2 − 2)2 + (x3 − 3)2 + (x4 − 4)2 − λ1 [−x1 − x2 − x3 − x4 + 5]

• Vetor gradiente da função Lagrangeana:

⎡ ⎤
2(x1 − 1) + λ1
* + 1 2 ⎢ 2(x2 − 2) + λ1 ⎥
∇x £(x, λ) ∂£(x,λ) ⎢ ⎥
= ∂x
∂£(x,λ) =⎢
⎢ 2(x3 − 3) + λ1 ⎥

∇λ £(x, λ) ⎣ ⎦
∂λ 2(x4 − 4) + λ1
−(−x1 − x2 − x3 − x4 + 5)

• Matriz Hessiana da função Lagrangeana:

* + * +
∇2xx £(xk , λk ) ∇2x,λ £(xk , λk ) H(xk , λk ) −J(xk )
=
∇2T k k
x,λ £(x , λ ) 0 −Jt (xk ) 0

⎡ ⎤
2 0 0 0 1
⎢ 0 2 0 0 1 ⎥
⎢ ⎥
=⎢
⎢ 0 0 2 0 1 ⎥

⎣ 0 0 0 2 1 ⎦
1 1 1 1 0

• Solução inicial especificada para a primeira iteração

( ) ( 1 3 1
)
x0t λ0t = 2
1 2
2 2

• 1a iteração - Sistema linear a ser resolvido:

⎡ ⎤⎡ ⎤ ⎡ ⎤
2 1 ∆x1 −1/2
⎢ 2 1 ⎥⎢ ∆x2 ⎥ ⎢ −3/2 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ 2 1 ⎥⎢ ∆x3 ⎥ = −⎢ −5/2 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ 2 1 ⎦⎣ ∆x4 ⎦ ⎣ −7/2 ⎦
1 1 1 1 0 ∆λ1 0

Solução do sistema linear:

( ) ( )
∆xt ∆λ = − 34 − 14 + 14 + 43 2
72 Capı́tulo 4: Método de Newton

( )
• Cálculo da magnitude do passo na direção ∆xt ∆λ (desde que a solução está
situada na região das soluções viáveis, o fator de passo 0 ≤ α ≤ 1, deve ser tal que
nenhuma restrição é violada). Tomando xk = xk−1+α∆xk (onde k é o número da
iteração), o menor valor de α para o qual nenhuma restrição é violada é 32 (devido
a restrição g3 (x)). Isto é, com este valor do fator de passo a restrição x1 ≥ 0 se
torna ativa.
• Atualização das variáveis:
⎡ ⎤ ⎡ ⎤
x01 + α∆x1 0
* + ⎢ x02 + α∆x2 ⎥ ⎢ 5/6 ⎥
x1 ⎢ ⎥ ⎢ ⎥
=⎢
⎢ x03 + α∆x3 ⎥=⎢
⎥ ⎢ 5/3 ⎥

λ ⎣ ⎦ ⎣ ⎦
x04 + α∆x4 5/2
λ01 + α∆λ1 11/6

• 2a iteração: a restrição g3 (x) = 0 é incluı́da no conjunto de restrições ativas. O


valor inicial especificado para a correspondente variável dual é λ2 = − 12 .
Sistema linear a ser resolvido:
⎡ ⎤⎡ ⎤ ⎡ ⎤
2 0 0 0 1 −1 ∆x1 −1/3
⎢ 0 2 0 0 1 0 ⎥ ⎢ ⎥ ⎢ 1/2 ⎥
⎢ ⎥ ⎢ ∆x2 ⎥ ⎢ ⎥
⎢ 0 0 2 0 1 ⎥ ⎢ ⎥
0 ⎥ ⎢ ∆x3 ⎥ ⎢ 5/6 ⎥
⎢ ⎢ ⎥
⎢ 0 0 0 2 1 0 ⎥ ⎢ ∆x4 ⎥ = − ⎢ 7/6 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ 1 1 1 1 0 0 ⎦ ⎣ ∆λ1 ⎦ ⎣ 0 ⎦
−1 0 0 0 0 0 ∆λ2 0
Solução do sistema linear:
( ) ()
∆xt ∆λt 0 − 16 0 16 65 67=
( )
• Cálculo da magnitude do passo na direção ∆xt ∆λ : Fazendo x2 = x1 +α∆x, o
menor valor de α para o qual nenhuma restrição é violada é 52 (devido a restrição
g2 (x)). Isto é, com este valor do fator de passo a restrição g2 (x) se tornaria ativa.
Desde que este valor é maior do que a unidade, o valor unitário é assumido.
• Atualização das variáveis:
⎡ ⎤ ⎡ ⎤
x01 + α∆x1 0
⎢ x02 + α∆x2 ⎥ ⎢ 2/3 ⎥
* + ⎢ ⎥ ⎢ ⎥
x2 ⎢ x03 + α∆x3 ⎥ ⎢ 5/3 ⎥
=⎢

⎥=⎢
⎥ ⎢


λ2 ⎢ x04 + α∆x4 ⎥ ⎢ 8/3 ⎥
⎣ λ01 + α∆λ1 ⎦ ⎣ 8/3 ⎦
λ01 + α∆λ1 2/3
• Neste ponto, a magnitude dos componentes do vetor gradiente é menor do que a
tolerância de 10−4. A solução determinada na segunda iteração é portanto a solução
ótima.
UFSC / EEL - Labspot - R. S. Salgado 73

4.4 Convergência do Processo Iterativo


O procedimento descrito nas seções anteriores obtém os pontos estacionários da função
Lagrangeana. As condições necessárias e suficientes para que a solução (x∗ , λ∗ ) seja um
mı́nimo local dependem das propriedades de das submatrizes J e H do sistema linear,
calculadas na solução final. Em outras palavras, as condições de segunda ordem (rela-
tivas à matriz Hessiana) deveriam ser verificadas em cada ponto estacionário,o que para
problemas de grande porte é praticamente inviável. Entretanto, a análise das variáveis
duais (associadas a cada restrição de desigualdade no limite) fornece indicativos para a
verificação das condições de suficiência de primeira ordem da solução encontrada.
As condições de primeira ordem, suficientes para que (x∗ , λ∗ ) seja um ponto de mı́nimo
são:

1. Jt λ∗ = ∇x f (x∗ ), isto é, o gradiente da função objetivo deve ser expresso como uma
combinação linear dos vetores gradientes das restrições ativas;

2. Rt HR deve ser positiva definida (R é a matriz cujas colunas são a base do espaço
nulo da matriz J).

A primeira condição é assegurada automaticamente pelo método de solução.


A segunda condição estabelece que a projeção da matriz Hessiana da função Lagrange-
ana no espaço nulo da matriz J deve ser positiva definida. Sendo R a matriz n × (n − m),
base do espaço nulo de J, qualquer deslocamento ∆x que produza uma solução viável
pode ser expresso como uma combinação linear das colunas de R. Esta matriz define um
espaço cujas componentes são ortogonais às linhas da matriz J. Este é o único espaço
onde pode haver qualquer liberdade para adicional minimização. Existem métodos de
cálculo direto para cômputo de R à partir de J e eles são usados por alguns algoritmos
de otimização. Geralmente R não é uma matriz esparsa. Portanto, em problemas da
dimensão elevada, calcular R e Rt HR e testar se esta última é positiva definida requer
muitas vezes o esforço computacional tão grande quanto aquele dispendido para o cálculo
dos pontos estacionários. Se Rt HR não é positiva definida no ponto estacionário (xk , λk )
é um ponto de sela, e adicional redução da função objetivo é ainda possı́vel através de
algum incremento ∆x no espaço nulo de J.
Em problemas de grande dimensão, o teste de otimalidade xk = z∗ é realizado no
vetor gradiente g(zk ) = 0 e no sinal dos multiplicadores de Lagrange. O procedimento
adotado nesta situação envolve os seguintes casos:

• Caso 1: as restrições do conjunto de restrições ativas são igualdades incondicionais


- não há necessidade de se testar os multiplicadores de Lagrange;

• Caso 2: algumas equações do conjunto de restrições ativas correspondem a ine-


quações no limite - o teste de sinal nos multiplicadores de Lagrange é necessário para
as equações representando as desigualdades no limite. Se βi na restrição (ai (xk )−βi )
é:

– um limite superior, λ∗i deve ser negativo;


– um limite inferior, λ∗i deve ser positivo;
74 Capı́tulo 4: Método de Newton

• Se o sinal de λ∗i satisfaz à condição imposta no teste, a restrição correspondente


(desigualdade no limite) é de fato necessária para definir a localização da solução
ótima. Por exemplo, se λ∗i < 0 para um limite superior, isto significa que a função
f (x) poderia ser reduzida aumentando-se o valor do limite superior, mas isto tornaria
a solução inviável. Portanto, a equação que representa esta restrição é necessária
para impor um limite à solução ótima. Razões semelhantes mostram que λ∗i deve
ser positivo para uma restrição correspondendo a um limite inferior ser ativa na
solução ótima;
• O teste do sinal de λi pode também ser empregado a cada iteração para determinar
se uma restrição no limite é necessária ou pode ser excluı́da do conjunto de restrições
ativas.

4.5 Solução do Despacho Econômico


Seja o problema de Despacho Econômico, representado por
. 7 8
Minimizar f (Pg ) = ai + bi Pgi + ci Pg2i
iϵ{GP }
.
N .
N
(4.3)
sujeito a g(Pg ) = Pg i − Pdj − PL = 0
i=1 j=1
Pgmi ≤ Pgi ≤ PgMi
onde, ai , bi e ci são os coeficientes da curva de custo de geração,{GP } é o conjunto das
barras de geração, N é o número total de barras do sistema; Pgi é a potência gerada na
barra i; Pdj é a demanda de potência ativa na j − ésima barra; PL é e perda total de
potência ativa nas linhas de transmissão; e Pgmi e PgMi representam os limites mı́nimo e
máximo, respectivamente, de geração de potência ativa na i − ésima barra.
A solução deste problema de otimização através do método de Newton é obtida
observando-se os aspectos descritos a seguir.
• A função Lagrangeana é dada por
£(Pg ,λ) = f (x) − λt g(x)
1 N N
2
, 7 8 , ,
= ai + bi Pgi + ci Pg2i − λ Pg i − Pdj − PL
iϵ{GP } i=1 j=1

• A aproximação da função Lagrangeana em série de Taylor, em torno do ponto


(Pkgi , λk ), ao longo da direção (∆Pg , ∆λ) até o termo de segunda ordem, e a mini-
mização da função Lagrangeana no ponto considerado implica na minimização da
função incremental
∆£(∆Pg , ∆λ) = ∇tx £(Pkg , λk )∆Pg + ∇tλ £(Pkg , λk )∆λ+
1 1
∆Ptg ∇2xx £(Pkg , λk )∆Pg + ∆Ptg ∇x,λ£(Pkg , λk )∆λ+
2 2
1 1
∆λ∇λ,x £(Pkg , λk )∆Pg + ∆λ∇λλ £(Pkg , λk )∆λ
2 2
UFSC / EEL - Labspot - R. S. Salgado 75

• A minimização da função incremental ∆£(∆Pg , ∆λ) é realizada aplicando-se as


condições de otimalidade de primeira ordem. Isto resulta em
∂∆£(∆Pg , ∆λ)
= 0 = ∇x £(Pkg , λk ) + ∇2xx £(Pkg , λk )∆Pg + ∇2x,λ £(Pkg , λk )∆λ
∂∆Pg
∂∆£(∆Pg , ∆λ)
= 0 = ∇2T k k k
x,λ £(Pg , λ )∆Pg + ∇λ £(Pg , λ )
k
∂∆λ
ou, em forma matricial,
⎡ 2 ⎤
∂ £(Pkg , λk ) ∂ 2 £(Pkg , λk )
* + * +
⎢ ∂P2g ∂Pg ∂λ ⎥ ∆Pg ∇x £(Pkg , λk )
⎢ ⎥ =−
⎣ ∂ 2 £(Pkg , λk ) ⎦ ∆λ ∇tλ £(Pkg , λk )
0
∂λ∂Pg
onde
∂£(Pg ,λ) ∂PL
= (bi + 2ci Pgi ) − λ(1 − )
∂Pgi ∂Pgi
9 N N
:
∂£(Pg ,λ) , ,
=− Pg i − Pdj − PL
∂λ i=1 j=1

∂ 2 £(Pg ,λ) ∂ 2 PL
= 2c i +
∂P2gi ∂Pg2i
/ 0
∂ 2 £(Pg ,λ) ∂ 2 £(Pg ,λ) ∂PL
= =− 1−
∂Pgi ∂λ ∂λ∂Pgi ∂Pgi
∂ 2 £(Pg ,λ)
=0
∂λ2
• O sistema linear a ser resolvido a cada iteração do método de Newton é da forma
⎡ ; < ⎤⎡ ⎤
∂ 2 PL ∂PL
2c1 + 2 0 ... − 1 − ∆Pg1
⎢ ∂Pg1
; ∂Pg1
< ⎥ ⎢ ∆Pg2 ⎥
⎢ ⎥
⎥⎢ ⎥
2
⎢ 0 2c2 + ∂∂PP2L ... − 1 − ∂PL
⎢ ∂Pg2 ⎥⎢ ⎥
⎥=
⎥⎢
g2
⎢ .. ..
⎢ ⎥⎢ .. ⎥
⎣ ; . < ; ... < ... . ⎦⎣ . ⎦
∂PL ∂PL
− 1− ∂Pg1
− 1 − ∂Pg2 ... 0 ∆λ
⎡ ∂PL ⎤
(b1 + 2c1 Pg1 ) − λ(1 − ∂P g1
)
⎢ (b + 2c P ) − λ(1 − ∂PL ) ⎥
⎢ 2 2 g2 ∂Pg2 ⎥
⎢ ⎥
⎢ ⎥
−⎢
⎢ .. ⎥

⎢ 9 . : ⎥
⎢ N ⎥
⎣ . .
N ⎦
Pgi − Pdj − PL = 0
i=1 j=1

Com relação a este sistema linear, deve ser observado que:


76 Capı́tulo 4: Método de Newton

– Se as perdas são desprezadas, a matriz de coeficientes é constante, pois depende


apenas do coeficiente do termo quadrático das funções de custo de geração;
– No vetor do lado direito, a maior dificuldade é o cálculo dos coeficientes de
∂PL
perda incremental ∂P gi
. Essas quantidades podem ser calculadas com um re-
duzido esforço computacional, se uma solução do fluxo de potência através do
método de Newton é disponı́vel.
;. .N <
N
– A quantidade i=1 P g i
− j=1 P dj
− P L , relativa ao balanço de potência,
depende dos valores iniciais especificados para a geração e do valor correspon-
dente da perda. Ela não é necessariamente satisfeita para estes valores. Os
incrementos na geração de potência ativa deverão fazer com que o balanço de
potência seja satisfeito. Note-se entretanto que se uma solução do fluxo de
potência é disponı́vel este valor é zero para geração especificada nas barras P V
e correspondentes valores de geração na barra de folga e perdas.

Ex. 4.3 Considere dois geradores suprindo potência a uma carga de 3 MW, conforme
mostra a figura 4.4. Os geradores possuem curvas de custo de geração de potência ativa

Gerador 1 Gerador 2

Linha de Transmissão
Carga 1 Carga 2

Figura 4.4: Despacho econômico - 2 unidades geradoras

dadas por

C1 (P1 ) = 1, 10P12 $/MW h


C1 (P2 ) = 0, 88P22 $/MW h

Determinar a potência de saı́da de cada gerador na solução de mı́nimo custo de geração


sem considerar as perdas de potência ativa no sistema de transmissão. Considerar P1 =
1, 00 MW, P2 = 1, 00 MW, λ = 1, 00 $/MW como a solução inicial.

Minimizar = C(P1 , P2 ) = 1, 10P12 + 0, 88P22


sujeito a = P1 + P2 − 3 = 0

A função Lagrangeana do problema de otimização é dada por

£(P1 , P2 , λ) = 1, 10P12 + 0, 88P22 − λ(P1 + P2 − 3)


UFSC / EEL - Labspot - R. S. Salgado 77

e as condições de otimalidade de primeira ordem são

∂£(P1 , P2 , λ)
= 2, 20P1 − λ = 0
∂P1
∂£(P1 , P2 , λ)
= 1, 76P2 − λ = 0
∂P2
∂£(P1 , P2 , λ)
= −(P1 + P2 − 3) = 0
∂λ
e o sistema linear a ser resolvido a cada iteração do método de Newton é expresso como
⎡ ⎤⎡ ⎤
2, 20 0, 00 −1 ∆P1
⎣ 0, 00 1, 76 −1 ⎦ ⎣ ∆P2 ⎦ =
−1 −1 0, 00 ∆λ
⎡ ⎤
2, 20P1 − λ
− ⎣ 1, 76P2 − λ ⎦
−(P1 + P2 − 3)
Para as condições iniciais especificadas,
⎡ ⎤⎡ ⎤
2, 20 0, 00 −1, 00 ∆P1
⎣ 0, 00 1, 76 −1, 00 ⎦ ⎣ ∆P2 ⎦ =
−1, 00 −1, 00 0, 00 ∆λ
⎡ ⎤
1, 20
− ⎣ 0, 76 ⎦
+1
cuja solução e correspondentes variáveis atualizadas são
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 0, 3333 P1 1, 3333
⎣ ∆P2 ⎦ = ⎣ 0, 6667 ⎦ ⇒ ⎣ P2 ⎦ = ⎣ 1, 6667 ⎦
∆λ 1, 9333 λ 2, 9333

Com estes valores, as condições de otimalidade de primeira ordem são satisfeitas, o


que indica que o ponto estacionário foi determinado. Desde que a função Lagrangeana é
quadrática, apenas uma iteração é necessária para determinar este ponto.
A interpretação da solução do problema de despacho econômico sem considerar as
perdas de potência ativa na transmissão pode ser feita com o auxı́lio das figuras 4.5 e 4.6.
A primeira, mostra a função custo de geração, a qual é representada geometricamente
por um parabolóide, e a equação de balanço de potência, representada no espaço tri-
dimensional por um hiperplano. A intercessão dessas duas figuras geométricas é uma
parábola cujo ponto de mı́nimo corresponde a solução do problema de despacho econômico.
A figura 4.6 mostra o custo incremental de cada unidade geradora, representado por
uma reta no espaço bi-dimensional. Apesar de existirem vários nı́veis de potência gerada
com custos incrementais iguais, na solução ótima do despacho econômico há o requisito
adicional de que balanço de potência deve ser satisfeito.
78 Capı́tulo 4: Método de Newton

Custo

Função custo de geração


1, 10Pg21 + 0, 88Pg22

1,33 Pg 1

1,67 Pg1 + Pg2 = 3, 0


Solução de
Mı́nimo Custo

Pg 2

Figura 4.5: Despacho econômico - ilustração geométrica do problema

Ex. 4.4 No sistema do exemplo anterior, determinar a potência de saı́da de cada gerador
na solução de mı́nimo custo de geração supondo que as perdas de potência ativa nas linhas
de transmissão são dadas por

Pl = 0, 025P12 + 0, 020P22 MW

A função Lagrangeana do problema de otimização é dada por

£(P1 , P2 , λ) = 1, 10P12 + 0, 88P22 − λ(P1 + P2 − 3 − 0, 025P12 − 0, 020P22)

e as condições de otimalidade de primeira ordem são

∂£(P1 , P2 , λ)
= 2, 20P1 − λ (1 − 0, 050P1) = 0
∂P1
∂£(P1 , P2 , λ)
= 1, 76P2 − λ (1 − 0, 040P2) = 0
∂P2
∂£(P1 , P2 , λ)
= −(P1 + P2 − 3 − 0, 025P12 − 0, 020P22) = 0
∂λ
UFSC / EEL - Labspot - R. S. Salgado 79

Custo $
Incremental ( )
MW h
2,93

0 1 1,33 1,67 2 Pg (MW )

Figura 4.6: Despacho econômico - custos incrementais iguais

e o sistema linear a ser resolvido a cada iteração do método de Newton é expresso como
⎡ ⎤⎡ ⎤
2, 20 + 0, 050λ 0, 00 −(1 − 0, 050P1) ∆P1
⎣ 0, 00 1, 76 + 0, 04λ −(1 − 0, 040P2) ⎦ ⎣ ∆P2 ⎦ =
−(1 − 0, 050P1) −(1 − 0, 040P1) 0, 00 ∆λ
⎡ ⎤
2, 20P1 − λ(1 − 0, 050P1)
−⎣ 1, 76P2 − λ(1 − 0, 040P2) ⎦
2 2
−(P1 + P2 − 3 − 0, 025P1 − 0, 020P2 )
Para as condições iniciais especificadas,
⎡ ⎤⎡ ⎤
2, 25 0, 00 −0, 95 ∆P1
⎣ 0, 00 1, 80 −0, 96 ⎦ ⎣ ∆P2 ⎦ =
−0, 95 −0, 96 0, 00 ∆λ
⎡ ⎤
1, 25
− ⎣ 0, 82 ⎦
1, 045
cuja solução e correspondentes variáveis atualizadas são
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 0, 3739 P1 1, 3739
⎣ ∆P2 ⎦ = ⎣ 0, 7185 ⎦ ⇒ ⎣ P2 ⎦ = ⎣ 1, 7185 ⎦
∆λ 2, 2014 λ 3, 2014
80 Capı́tulo 4: Método de Newton

Na segunda iteração, o sistema linear a ser resolvido é expresso por


⎡ ⎤⎡ ⎤
2, 2687 0, 00 −0, 9313 ∆P1
⎣ 0, 00 1, 8287 −0, 9313 ⎦ ⎣ ∆P2 ⎦ =
−0, 9313 −0, 9313 0, 00 ∆λ

⎡ ⎤
0, 0411
− ⎣ 0, 0432 ⎦
0, 0139

cuja solução e correspondentes variáveis atualizadas são


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 0, 0072 P1 1, 3811
⎣ ∆P2 ⎦ = ⎣ 0, 0078 ⎦ ⇒ ⎣ P2 ⎦ = ⎣ 1, 7263 ⎦
∆λ 0, 0616 λ 3, 2630

que satisfaz as condições de otimalidade de primeira ordem e é portanto um ponto esta-


cionário.

4.5.1 Tratamento das Restrições de Desigualdade


As restrições de desigualdade podem ser manipuladas conforme descrito nas seções an-
teriores. No caso de Despacho Econômico, desde que o problema de otimização é de
dimensão reduzida, a estratégia mais simples para esta finalidade consiste em adotar o
procedimento resumido a seguir.
Após a solução do sistema linear, onde são obtidos os incrementos ∆Pg e ∆λ,calcular
a magnitude do passo 0 ≤ α ≤ 1 na direção ∆Pg , tal que considerando que todas as
potências ativas geradas estão dentro dos limites, o incremento não resulte em nenhuma
violação das restrições; isto é Pgmi ≤ Pgi + α∆Pgi ≤ PgMi . Duas situações podem ocorrer:

• α = 0: isto indica que uma das variáveis Pgi está no limite e o seu incremento resulta
na violação da restrição correspondente. Neste caso, deve-se incluir esta restrição
na função Lagrangeana. Supondo que a restrição relativa a variável Pgk é aquela
que deve ser incluı́da no conjunto de restrições ativas a esta função toma a forma

9 N N
:
, 7 8 , , 7 8
2 lim
£(Pg ,λ, µ) = ai + bi Pgi + ci Pgi −λ Pg i − Pdj − PL −µ Pgk − Pgk
iϵ{GP } i=1 j=1

onde µ é a variável dual correspondente à restrição de desigualdade em questão.


Com esta inclusão, é necessário resolver novamente o sistema linear, o qual toma a
forma
UFSC / EEL - Labspot - R. S. Salgado 81

⎡ ; < ⎤
2
2c1 + ∂∂PP2L ... 0 0 0 − 1− ∂PL
0
⎢ g1 ∂Pg1 ⎥ ⎡ ∆P ⎤
⎢ .. .. .. .. ⎥ g1
⎢ . . ... 0 0 ⎥⎢ .
⎢ ; . < . ⎥⎢ .
.


⎢ 0 0 2ck + ∂2PL
0 0 − 1− ∂PL
−1 ⎥⎢ ⎥
⎢ 2
∂Pgk ∂Pgk ⎥ ⎢ ∆Pgk ⎥
⎢ ⎥⎢ ⎥
⎢ .. .. ⎥⎢ .. ⎥=
⎢ . ... ... ... . −1 0 ⎥⎢ . ⎥
⎢ ; < .. ⎥⎢ ⎥
⎢ 0 0 0 02cng + ∂ 2 PL
− 1− ∂PL
. ⎥ ⎢ ∆Pgng ⎥
⎢ 2
∂Pgng ∂Pgng ⎥⎣ ⎦
⎢ ; < ; < ; < ⎥ ∆λ
⎢ − 1− ∂PL ∂PL
. . . − 1 − ∂P . . . − 1 − ∂P ∂PL
0 0 ⎥
⎣ ∂Pg1 gk gng
⎦ ∆µ
0 0 −1 0 0 0 0
⎡ ⎤
∂PL
(b1 + 2c1 Pg1 ) − λ(1 − ∂P )
⎢ ..
gi

⎢ . ⎥
⎢ ⎥
⎢ (b + 2c P ) − λ(1 − ∂PL ) − µ ⎥
⎢ k k gk ∂Pgk ⎥
⎢ . ⎥
⎢ . ⎥
−⎢ . ⎥
⎢ ∂PL ⎥
⎢ (bng + 2cng Pgng ) − λ(1 − ∂P ) ⎥
⎢ 9 : ⎥
gng
⎢ ⎥
⎢ − .P − . P − P = 0 ⎥
N N
⎢ gi dj L ⎥
⎣ i=1
7 j=1
8 ⎦
lim
− Pgk − Pgk

• 0 < α < 1: isto indica que um dos limites (o de Pgk , por exemplo) impede que o
incremento completo seja adicionado à variável. Neste caso, as variáveis Pgi devem
ser atualizadas como Pgi + α∆Pgi , e a restrição cujo limite foi atingido deve ser
incluı́da no conjunto de restrições ativas. A estratégia do item anterior é portanto
adotada.
• α ≥ 1: este resultado indica que os incrementos calculados podem ser completa-
mente adicionados às correspondentes variáveis. A geração de potência ativa Pgi , o
multiplicador de Lagrange λ, e as eventuais variáveis duais são então atualizadas.

Deve ser observado que, no caso da inclusão de restrições de desigualdades, o sinal


das variáveis duais deve ser verificado durante as iterações e na solução ótima para se
constatar se as condições de suficiência de otimalidade de primeira ordem são satisfeitas.

4.5.2 Algoritmo
A metodologia para a determinação da solução do Despacho Econômico alternada com
a solução das equações da rede elétrica pode ser sumarizado nos passos do algoritmo
descrito ,a seguir.

1. Solução das equações da rede elétrica através do método de Newton-Raphson. Este


processo fornece como resultados:

• o balanço de potência satisfeito;


82 Capı́tulo 4: Método de Newton

• a geração de potência incluindo a da barra de folga;


• a matriz Jacobiana (JF P ) na forma fatorada;
• as perdas de potência ativa nas linhas de transmissão.

2. Cálculo das derivadas da potência ativa da barra de folga em relação ao ângulo de


fase (barras P V e P Q) e à magnitude (barras P Q) da tensão, e solução do sistema
linear = t >t
∂Pf ∂Pft
= JF P StP V
∂δ ∂V

Desde que JF P é disponı́vel em forma fatorada, este cálculo consiste apenas em


efetuar um processo de substituição direta-inversa. Com os fatores de sensibilidade
componentes do vetor SP V , calcular os fatores incrementais de perda, dados por
∂PL
∂Pgi
= (1 + spvi ).

3. Solução do sistema linear


⎡ 2 k k ⎤
∂ £(Pg ,λ ) ∂ 2 £(Pkg ,λk ) * + * +
⎣ ∂P2g ∂Pg ∂λ ⎦ ∆Pg ∇x £(Pkg , λk )
=−
∂ £(Pkg ,λk )
2
0 ∆λ ∇λ £(Pkg , λk )
∂λ∂Pg

para o cômputo dos incrementos na potência ativa gerada e no multiplicador de


Lagrange λ.
( )
4. Determinação da magnitude do passo na direção ∆Pg ∆λ . Se α é tal que
os Pgi ’s atualizados estão dentro dos limites, prosseguir ao próximo passo; caso
contrário fixar a potência ativa no limite violado, incluir a restrição correspondente
na função Lagrangeana (isto significa aumentar a dimensão do sistema linear) e
retornar ao passo anterior;

5. Verificação da convergência nos incrementos de potência ativa gerada; se

|Pgik − Pgik+1| < ϵ

isto é, se as magnitudes dos incrementos de potência ativa gerada são menores do
que uma tolerância pré-especificada, o processo é encerrado; caso contrário, retornar
ao primeiro passo.

4.6 Minimização do Custo de Geração de Potência


Ativa
4.6.1 Elementos do Problema
Função Objetivo
Considere um sistema de 6 barras, cujos dados são mostrados na tabela abaixo.
UFSC / EEL - Labspot - R. S. Salgado 83

Deseja-se minimizar o custo de geração de potência ativa, e supõe-se que as curvas de


custo de geração são dadas por

1
f1 (P1 ) = c1 P12 + b1 P1 + a1
2

1
f2 (PG2 ) = c2 P22 + b2 P2 + a2
2
com o custo total de geração de potência ativa expresso por

f (Pg ) = f1 (P1 ) + f2 (P2 )

Em geral, a função objetivo f (.) pode ser expressa em função de uma ou de todas as
variáveis do sistema. Neste exemplo, f é função apenas de P1 e P2 . Alternativamente,

fi = ci Pi2 + bi Pi + ai , i = 1, 2.....n

onde Pi é uma função de Pg . A desvantagem neste último caso é que se Pi é uma função, Pi2
cria uma grande quantidade de não zeros na matriz Hessiana. É mais eficiente introduzir
as variáveis adicionais e evitar o quadrado das funções.

Variáveis da Otimização
Para o problema proposto, o vetor de variáveis Pg envolvidas no problema de otimização
é dado por
( )
PTg = P1 P2 a35 a46 δ1 V1 δ2 V2 δ3 V3 δ4 V4 δ5 V5 δ6 V6

com o correspondente vetor de incrementos expresso como


( )
PTg = ∆P1 ∆P2 ∆a35 ∆a46 ∆δ1 ∆V1 ∆δ2 ∆V2
)
∆δ3 ∆V3 ∆δ4 ∆V4 ∆δ5 ∆V5 ∆δ6 ∆V6

Observe que neste tipo de otimização não há distinção entre tipos de variáveis.

Restrições de Desigualdade nas Variáveis


O vetor das variáveis da otimização está sujeito às seguintes restrições

Pim ≤ Pi ≤ PiM , i = 1, 2.

tm M
ij ≤ tij ≤ tij , ij = 3, 5 e 4, 6.

Vim ≤ Vi ≤ ViM , i = 1, 2, 3, 4, 5, 6.
84 Capı́tulo 4: Método de Newton

Restrições Funcionais
Dois conjuntos de restrições são considerados:

• as igualdades permanentemente ativas: injeções de potência ativa e reativa nas


barras de carga; isto é

CPi = Pi (Pg ) − pi , i = 3, 4, 5, 6

CQi = Qi (Pg ) − qi , i = 3, 4, 5, 6
onde CPi e CQi são os resı́duos de potência ativa e reativa na barra (P Q)i ; Pi (Pg ) e
Qi (Pg ) são as injeções de potência ativa e reativa, respectivamente, expressas como
funções de Pg ; pi e qi são as injeções de potência ativa e reativa especificadas; além
destas restrições,
CPi = Pi (Pg ) − pi , i = 1, 2
devem ser incluı́das por causa do uso de variáveis para as quantidades controláveis
(injeções). Em razão disto, é necessário restingir as injeções nas barras 1 e 2 tal que
a somatória dos fluxos de potência ativa em cada barra seja zero. As variáveis P1 e
P2 são restritas conforme indicado anteriormente.

• as desigualdades que se tornam ativas (igualdades) apenas quando necessário: limi-


tes superiores e inferiores de potência ativa e reativa nas unidades geradoras.

qim ≤ Qi (Pg ) ≤ qiM , i = 1, 2

Quando a função Qi (Pg ) é viável, CQi = Qi (Pg ) − qi é feito inativo. Se um limite


é atingido, CQi é feito ativo.

4.6.2 A Função Lagrangeana


A função Lagrangeana para o problema em questão é
NB
, NB
,
£(Pg , λ) = F (Pg ) − λpi CPi − λqi CQi
i=1 i=1

onde, F (Pg ) é a função objetivo; λpi é o multiplicador de Lagrange correspondente à


restrição CPi ; e λqi é o multiplicador de Lagrange correspondente à restrição CQi . Em
todas as barras i onde CPi ou CQi forem inativos, λpi ou λqi são feitos zero pelo algoritmo.

4.6.3 O Sistema Linear


O sistema linear resolvido a cada iteração da solução do problema de otimização pelo
método de Newton, pode ser interprestado como consistindo de três partes principais:

• o vetor gradiente g;

• a matriz Hessiana do Lagrangeano H;


UFSC / EEL - Labspot - R. S. Salgado 85

• a matriz Jacobiana J.

Este sistema pode ser expresso como


* +* + * +
H(Pkg , λk ) −J(Pkg ) ∆Pg gx (Pkg )
=−
−JT (Pkg ) 0 ∆λ gλ (λk )

onde, para o sistema em estudo, as submatrizes H e J são de ordens (16 × 16) e (16 × 12),
respectivamente; os vetores ∆Pg e ∆λ são de ordens (16 × 1) e (12 × 1), respectivamente;
e os vetores gx e gλ são de ordens (16 × 1) e (12 × 1), respectivamente;

O Vetor Gradiente
Cada elemento da forma ∂£/∂xi representa uma derivada parcial da forma ∂£/∂Pi ,
∂£/∂aij , ∂£/∂δi , e ∂£/∂Vi . Por exemplo,


∂£/∂P2 = (F2 − λp2 CP2 ) = G2 P2 + b2 + λp2
∂P2


∂£/∂δ2 = (−λp1 CP1 − λq1 CQ1 − λp2 CP2 − λq2 CQ2 − λp4 CP4 − λq4 CQ4 )
∂δ2
onde, CPi = Pi (Pg ) − pi , CQi = Qi (Pg ) − qi , e λpi CPi e λqi CQi são termos do tipo

λp4 CP4 → −λp4 V4 V2 |x42 |sen(δ4 − δ2 − γ42 )

o qual representa o termode £ a ser derivado em relação a δ2 .


Cada elemento de −g(λ) é o negativa de um resı́duo CPi ou CQi . Por exemplo,

∂£ ∂
= [λp3(P3 (Pg ) − p3 )] = −(P3 (Pg ) − p3 ) = −CP3
∂λp3 ∂λp3

Em termos matriciais, o vetor do lado direito do sistema linear resolvido a cada iteração
do método de Newton é ⎡ ⎤
∂£/∂P
⎢ ∂£/∂a ⎥
⎢ ⎥
⎢ ∂£/∂δ ⎥
⎢ ⎥
⎢ ∂£/∂V ⎥
⎢ ⎥
⎣ ∂£/∂λp ⎦
∂£/∂λq

A Matriz Jacobiana
A matriz Jacobiana envolvida na solução do problema de otimização pelo método de
Newton é constituı́da de elementos da forma
∂2£ ∂2£
=
∂xi ∂λj ∂λj ∂xi
86 Capı́tulo 4: Método de Newton

Estas segundas derivadas parciais são do tipo

∂Pi ∂Qi ∂Qi


, , , etc
∂δi ∂Vi ∂aij

as quais são elementos da matriz J(Pkg ). Por exemplo,


/ 0
∂2£ ∂2£ ∂ ∂£
= =
∂δ4 ∂λp3 ∂λp3 ∂δ4 ∂δ4 ∂λp3

∂ ∂[−P3 (Pg )
= (−CP3 ) = ]
∂δ4 ∂δ4
o qual é um termo tı́pico da matriz Jacobiana da solução do problema de Fluxo de Potência
convencional via método de Newton- Raphson.

A Matriz Hessiana
Cada elemento da matriz H é uma segunda derivada parcial da forma

∂2£ ∂2£
=
∂xi ∂xj ∂xj ∂xi

isto é, a soma das 2as derivadas parciais de todos os termos da função Lagrangeana onde
xi e xj ocorrem. Por exemplo

∂2£ ∂2£ ∂2£ ∂2£


= G1 , = 1, = G2 , =1
∂P12 ∂P1 ∂λp1 ∂P22 ∂P2 ∂λp2

Conceitualmente, a matriz Hessiana da função objetivo tem a mesma dimensão (n×n)


que a matriz Hessiana da função Lagrangeana, da qual ela é um componente. No exemplo,
entretanto, exceto para os elementos indicados, os seus termos são nulos.
Outro tipo de elemento da matriz H é o seguinte:

∂2£ ∂ 2 CP2 ∂ 2 CQ2 ∂ 2 CP4 ∂ 2 CQ4


= (−λp2 ) + (−λq2 ) + (−λp4 ) + (−λq4 )
∂δ2 ∂V4 ∂δ2 ∂V4 ∂δ2 ∂V4 ∂δ2 ∂V4 ∂δ2 ∂V4

A matriz Hessiana da função Lagrangeana possui as seguintes caracterı́sticas:

• Para quase todas as funções objetivo consideradas no problema de Fluxo de Potência


Ótimo há um pronunciado desacoplamento em H das malhas Pδ e QV;

• Há uma tendência de H se tornar aproximedamente constante, exceto por modi-


ficações no conjunto de restrições ativas, durante o processo iterativo.

• Essas caracterı́sticas são mais pronunciadas em H do que em J.


UFSC / EEL - Labspot - R. S. Salgado 87

A Matriz W
Para o exemplo considerado, a matriz W é dada por

⎡ ⎤
∂ 2 £/∂P2 ∂ 2 £/∂P∂a ∂ 2 £/∂P∂δ ∂ 2 £/∂P∂V ∂ 2 £/∂P∂λp ∂ 2 £/∂P∂λq
⎢ ∂ 2 £/∂a∂P ∂ 2 £/∂a2 ∂ 2 £/∂a∂δ ∂ 2 £/∂a∂V ∂ 2 £/∂a∂λp ∂ 2 £/∂a∂λq ⎥
⎢ ⎥
⎢ ∂ 2 £/∂δ∂P ∂ 2 £/∂δ∂a ∂ 2 £/∂δ 2 ∂ 2 £/∂δ∂V ∂ 2 £/∂δ∂λp ∂ 2 £/∂δ∂λq ⎥
⎢ ⎥
⎢ ∂ 2 £/∂V∂P ∂ 2 £/∂V∂a ∂ 2 £/∂V∂δ ∂ 2 £/∂V2 ∂ 2 £/∂V∂λp ∂ 2 £/∂V∂λq ⎥
⎢ ⎥
⎣ ∂ 2 £/∂λp ∂P ∂ 2 £/∂λp ∂a ∂ 2 £/∂λp ∂δ ∂ 2 £/∂λp ∂V 0 0 ⎦
∂ 2 £/∂λq ∂P ∂ 2 £/∂λq ∂a 2 2
∂ £/∂λq ∂δ ∂ £/∂λq ∂V 0 0

4.7 Exercı́cios
4.1 Determine a solução dos seguintes problemas de otimização através do método de
Newton.


Minimizar x21 + x22 − x1 x2 − 3x1
sujeito a x1 + x2 ≤ 3
x1 , x2 ≥ 0

Minimizar x21 + x22 − 2x1 − 2x2
sujeito a x1 + x2 − 4 ≤ 0
2 − x1 ≤ 0
x1 , x2 ≥ 0

Minimizar 2x21 + 2x22 + x23 + 2x1 x2 − x1 x3 − 0, 8x2 x3
sujeito a 1, 3x1 + 1, 2x2 + 1, 1x3 ≥ 1, 15
x1 + x2 + x3 = 1
x1 ≤ 0, 7
x2 ≤ 0, 7
x3 ≤ 0, 7
x1 , x2 , x3 ≥ 0

4.2 Determine utilizando o método de Newton, qual a forma mais econômica de operar
um sistema elétrico com perdas desprezı́veis nas linhas de transmissão. Considere que
este sistema possui três unidades geradoras com as seguintes caracterı́sticas:

• gerador 1: C1 (P1 ) = 1, 0 + 0, 1P1 + 0, 01P12, 2, 0 ≤ P1 ≤ 6, 5;

• gerador 2: C2 (P2 ) = 1, 5 + 0, 15P2 + 0, 005P22, 0, 5 ≤ P2 ≤ 4, 2;

• gerador 3: C3 (P3 ) = 1, 8 + 0, 18P3 , 1, 0 ≤ P3 ≤ 3, 5;

com os valores de potência em MW. As demandas a serem atendidas são:

• 6, 5 Mw;
88 Capı́tulo 4: Método de Newton

• 9, 0 Mw;

• 12, 5 Mw

4.3 Um sistema possui duas unidades térmicas operando em despacho econômico para
suprir uma carga de 680MW. Os custos de geração de potência ativa e os limites de
capacidade dessas unidades são respectivamente

C1 (P1 ) = 10P1 + 8 × 10−3 P12 $/h 100 ≤ P1 ≤ 600 Mw

C2 (P2 ) = 8P2 + 9 × 10−3 P22 $/h 400 ≤ P2 ≤ 1000 Mw


e a perda total de potência ativa nas linhas de transmissão é dada por

PL = 1, 5 × 10−4 P12 + 2 × 10−5P1 P2 + 3, 0 × 10−5 P22

com P1 e P2 expressos em Mw.


Utilize o método de Newton para determinar:

• a potência de saı́da de cada unidade geradora;

• a perda total na transmissão;

• a demanda total;

• o custo total de operação total.

4.4 Determine a potência de saı́da de três geradores, que resulta no mı́nimo custo de
geração de potência ativa, quando uma carga de 800 MW é suprida. Considere as perdas
de transmissão são dadas por Pl = 0, 00003P12 + 0, 00005P22 + 0, 00007P32 MW. As curvas
de custo de geração são quadráticas, dadas por

C1 (P1 ) = 300 + 7, 3P1 + 0, 001P12

C2 (P2 ) = 150 + 7, 8P2 + 0, 002P22

C3 (P3 ) = 75 + 7, 5P3 + 0, 005P32

não havendo restrição na geração de potência.


Capı́tulo 5

Método de Pontos Interiores

1
Os métodos de Pontos Interiores têm sido largamente utilizados na solução de proble-
mas de programação linear e não linear de grande porte. O impulso significativo na sua
aplicação a problemas práticos, foi conseqüência do trabalho de Karmarkar em 1984 [11].
Desde então, outras pesquisas surgiram, resultando no desenvolvimento de versões alter-
nativas do algoritmo original. As principais modificações deste algoritmo foram desenvol-
vidas no sentido de melhorar a rapidez da convergência, a robustez e a confiabilidade do
processo iterativo. Duas versões são mais freqüentemente utilizadas: o algoritmo primal-
dual convencional [12] e o algoritmo preditor-corretor [13]. Essas metodologias aplicam
estratégias semelhantes para resolver o problema de otimização. Suas principais dife-
renças estão relacionadas a forma de tratar as condições de complementaridade, aspectos
que podem afetar consideravelmente a convergência do processo iterativo.
Na última década, a solução do problema de Fluxo de Potência Ótimo através desses
algoritmos tem sido proposta. As abordagens apresentadas em [6, 7, 14, 15, 16] mos-
tram o potencial destes métodos no tratamento das restrições de desigualdade na solução
de problemas de otimização de grande porte. O texto a seguir descreve a base teórica
dos algoritmos não lineares de pontos interiores primal-dual puro e preditor-corretor, e
apresenta versões alternativas dos mesmos.

5.1 Fundamentos Teóricos


Seja o seguinte problema de otimização com restrições de igualdade e de desigualdade

Minimizar f (x)
sujeito a g(x) = 0 (5.1)
h(x) ≥ 0

onde, f (x) é a função objetivo expressa em termos do vetor n-dimensional x, das variáveis
de otimização; g(x) é um vetor m-dimensional, cujas componentes são as equações gi (x)
que representam as restrições de igualdade, e h(x) é um vetor l-dimensional, das equações
hi (x) que representam as restrições de desigualdade.
1
O texto deste capı́tulo foi baseado nas dissertações de mestrado e teses de doutorado de Luciano
Vitoria Barboza e Edgardo Daniel Castronuovo
90 Capı́tulo 5: Método de Pontos Interiores

Considerando apenas as restrições de igualdade, a função Lagrangeana é expressa como


£(x, λ) = f (x) − λt g(x)
onde λ é o vetor (m × 1) dos multiplicadores duais associados às restrições de igualdade.
O problema de otimização é expresso pela equação (5.1) pode ser re-escrito como
Minimizar £(x, λ) = f (x) − λt g(x)
(5.2)
sujeito a h(x) ≥ 0
As condições de otimalidade de primeira ordem (Karush-Kuhn-Tucker) para este pro-
blema são:
l
,
∇x £(x∗ , λ∗ ) − πi∗ ∇x hi (x∗ ) = 0
i=1

hi (x ) ≥ 0, i = 1, l (5.3)
πi hi (x∗ ) = 0,

i = 1, l
πi∗ ≥ 0, i = 1, l
onde πi é o multiplicador dual correspondente à i-ésima restrição de desigualdade, e o
superescrito ∗ denota a solução ótima.
As equações (5.3) indicam que na solução ótima:
• o vetor gradiente da função objetivo é expresso como uma combinação linear dos
vetores gradiente das restrições;
• as restrições de desigualdade são todas satisfeitas;
• se uma restrição de desigualdade está no limite (isto é, hi (x) = 0) então o multi-
plicador dual correspondente (πi ) é não nulo, e vice versa (denominada condição de
complementaridade);
• não é possı́vel excluir nenhuma desigualdade do conjunto de restrições ativas para
uma eventual redução no valor da função objetivo.
Seja (x, λ) um ponto qualquer pertencente à região das soluções viáveis definida pelo
conjunto de inequações h(x) ≥ 0, para o qual seja possı́vel determinar multiplicadores
duais πi não negativos, de maneira a satisfazer a primeira, a segunda e a quarta das
equações (5.3). Este ponto pode ser interpretado como a aplicação de uma perturbação
na condição de complementaridade. Na solução ótima esta perturbação é suprimida e a
condição de complementaridade é satisfeita.
Portanto, as condições de otimalidade no ponto considerado são
l
,
∇x £(x, λ) − πi ∇x hi (x) = 0
i=1
hi (x) ≥ 0, i = 1, l (5.4)
πi hi (x) ≥ 0, i = 1, l
πi ≥ 0, i = 1, l
UFSC / EEL - Labspot - R. S. Salgado 91

A equação que representa a condição de complementaridade pode ser transformada


em igualdade através do uso de variáveis de folga e restrições de não negatividade; isto é,
cada inequação
πi hi (x) ≥ 0
é convertida na igualdade

πi hi (x) − µi = 0 com µi ≥ 0 (5.5)

A análise da equação (5.5) revela que:

• se no ponto (x, λ), todas as desigualdades correspondentes a terceira das da equações


(5.4) estão no limite, as variáveis de folga correspondente são nulas (µi = 0 i = 1, l).
Isto corresponde a exclusão da perturbação da condição de complementaridade.
Este ponto satisfaz as equações (5.3) e é portanto a solução ótima do problema
representado pela equação (5.2);

• se no ponto (x, λ), as desigualdades expressas pela terceira das equações (5.4) não
estiverem todas no limite, as correspondentes variáveis de folga µi não são todas
nulas, e a condição de complementaridade não é satisfeita. Neste caso, o ponto
(x, λ) não é a solução ótima.
Para cada restrição de desigualdade não ativa, a equação (5.5), é re-escrita como
µi
πi =
hi (x)

na equação (5.4) cuja substituição na equação (5.5) resulta em


l
, / 0
∇x hi (x)
∇x £(x, λ) − µi =0
i=1
hi (x)

tal que as condições de otimalidade no ponto (x, λ) são expressas como


l
, / 0
∇x hi (x)
∇x £(x, λ) − µi =0
i=1
hi (x)
hi (x) ≥ 0, i = 1, ..., l (5.6)
µi ≥ 0, i = 1, ..., l
πi ≥ 0, i = 1, ..., l

A função
l
,
P (x, λ) = £(x, λ) − µi ln(hi (x))
i=1

é aquela cuja derivada primeira igualada a zero; isto é,


* +
∂P (x, λ)
=0
∂x (x,λ)
92 Capı́tulo 5: Método de Pontos Interiores

corresponde à primeira das condições de otimalidade dadas pela equação (5.6).


O termo
,l
µi ln(hi (x))
i=1

indica que, se a desigualdade tende ao limite (hi (x) → 0); então ln (hi (x)) → −∞, o que
garante a trajetória da solução viável (x, λ) até a solução ótima (x∗ , λ∗ ) no interior da
região das soluções viáveis. Este termo é denominado barreira logarı́tmica.
A equação (5.6) pode ser interpretada como as condições de otimalidade do problema
l
,
Minimizar P (x, λ) = £(x, λ) − µi ln(hi (x))
i=1
sujeito a hi (x) ≥ 0, i = 1, ..., l (5.7)
µi ≥ 0, i = 1, ..., l
πi ≥ 0, i = 1, ..., l

Utilizando-se variáveis de folga si para transformar as inequações hi (x) ≥ 0 em res-


trições de igualdade; isto é,

hi (x) − si = 0, com si ≥ 0, para i = 1, ..., l

e substituindo-se a expressão de £(x, λ) na equação (5.7), obtém-se


l
,
Minimizar f (x) − λt g(x) − π t [h(x) − s] − µi ln(si )
i=1
sujeito a µi ≥ 0, i = 1, ..., l (5.8)
πi ≥ 0, i = 1, ..., l
si ≥ 0, i = 1, ..., l

onde, π é o vetor das variáveis duais πi ; s é o vetor das variáveis de folga si ; e µi é a


variável de folga correspondente à i-ésima função barreira logarı́tmica.
Ao invés dos valores individuais das variáveis de folga µi , um parâmetro µ, denominado
parâmetro barreira ou parâmetro de perturbação, é geralmente utilizado. Este parâmetro
é expresso como a média aritimética das distâncias primais-duais da solução atual para
o ponto ótimo, medidas de acordo com as equações de complementaridade. Para a i-
ésima restrição de desigualdade, a distância primal-dual (também denominada gap de
complementaridade) é definida como o produto de hi (x) pelo correspondente multiplicador
dual πi . O parâmetro barreira é então expresso como,

π t h(x)
µ=
l
com a sua não negatividade garantida pela condição

hi (x) = si com si ≥ 0, i = 1, ..., l


UFSC / EEL - Labspot - R. S. Salgado 93

para cada solução viável. Desta forma,


πt s
µ= (5.9)
l
Desde que as condições de otimalidade do problema original devem ser satisfeitas na
solução ótima, o parâmetro barreira deve convergir a zero durante o processo iterativo.
Isto significa reduzir o efeito da perturbação aplicada a condição de complementaridade,
até a sua completa eliminação. Entretanto, o número de restrições de desigualdade é
constante, e portanto se a equação (5.9) é usada para calcular o parâmetro barreira a
redução do seu valor não é acentuada. Para se obter um decréscimo significativo, o fator
2lβ (onde β > 1, 0 é um parâmetro cujo valor é previamente especificado pelo usuário) é
utilizado no denominador da equação (5.9); ou seja,
πt s
µ= (5.10)
2lβ
Observe-se que:
• se a i-ésima restrição de desigualdade é ativa na solução ótima:
hi (x) = 0 , com si = 0 e πi > 0

• se a i-ésima restrição de desigualdade não é ativa na solução ótima:


hi (x) > 0, com si > 0 e πi = 0

tal que em ambos os casos as equações que representam a condição de complementaridade


πi [hi (x) − si ] = 0
são satisfeitas.

5.2 Interpretação Geométrica


A adição da função barreira logaritmica a função objetivo e a estimativa do parâmetro
barreira inicial (µ0 ) são ilustradas geometricamente nas figuras 5.1 a 5.6.
A figura 5.1 mostra a superfı́cie definida pela função
;x < 1
2 −x2 −(y+1)2 2 2 2 2
f (x, y) = 3(1 − x) exp −10 − x − y exp−x −y − exp−(x+1) −y
3 5
5 3
plotada no espaço tridimensional.
Observa-se que esta superfı́cie apresenta vários pontos crı́ticos (máximos, mı́nimos e
pontos de sela), conforme ilustrado pelas curvas de nı́vel desta função mostradas na figura
5.2.
Nas figuras 5.3, 5.4, 5.5 e 5.6, pode ser observado que a inclusão da barreira logarit-
mica distorce a forma da função objetivo, acentuando a convexidade (ou concavidade) da
mesma. Esta distorção é mais acentuada quanto maior for o valor numérico do parâmetro
barreira. Portanto, um valor inicial do parâmetro barreira adequado pode melhorar a
convergência do método, não significando porém que este valor deva ser elevado, pois
problemas numéricos podem resultar desta escolha.
94 Capı́tulo 5: Método de Pontos Interiores

Figura 5.1: Superfı́cie com vários pontos crı́ticos

Figura 5.2: Curvas de nı́vel


UFSC / EEL - Labspot - R. S. Salgado 95

Figura 5.3: Adição da função barreira logaritmica - problema de minimização - a

Figura 5.4: Adição da função barreira logaritmica - problema de minimização - b


96 Capı́tulo 5: Método de Pontos Interiores

Figura 5.5: Adição da função barreira logaritmica - problema de maximização - a

Figura 5.6: Adição da função barreira logaritmica - problema de maximização - b


UFSC / EEL - Labspot - R. S. Salgado 97

5.3 Versões Básicas


As principais modificações do algoritmo não linear de pontos interiores exploram as carac-
terı́sticas da trajetória à solução ótima, no sentido de melhorar a rapidez da convergência,
a robustez e a confiabilidade do processo iterativo. Duas versões são mais freqüentemente
utilizadas: o algoritmo primal-dual convencional [12] e o preditor-corretor [13]. Essas me-
todologias aplicam estratégias semelhantes para resolver o problema de otimização; isto
é:

• o uso de variáveis de folga para transformar as restrições de desigualdade em res-


trições de igualdade;

• a perturbação das condições de complementaridade;

• a solução das equações não lineares, resultantes da aplicação das condições de oti-
malidade, via método de Newton;

As principais diferenças entre estes algoritmos são o tipo de perturbação aplicada e o


uso de equações de segunda ordem para tratar as condições de complementaridade. Estes
aspectos podem afetar consideravelmente a trajetória para a convergência. Em geral, o
algoritmo preditor-corretor requer menos iterações para a convergência do que o algoritmo
primal-dual puro, sendo necessária porém uma substituição direta-inversa adicional a cada
iteração. Esta operação entretanto, não reduz a sua eficiência computacional.

5.3.1 Primal-Dual
Considere o seguinte problema de otimização:

Minimizar f (x)
sujeito a g(x) = 0 (5.11)
m M
h ≤ h(x) ≤ h

onde x, f (x), g(x) e h(x) são os mesmos termos da equação (5.1); e hm e hM são os
limites mı́nimo e máximo, respectivamente, das restrições de desigualdade.
Com base nos fundamentos apresentados na seção anterior, a metodologia de solução
do problema expresso pela equação (5.11) via método de Pontos Interiores pode ser su-
marizada nos passos descritos a seguir.

• transformação das restrições de desigualdade em restrições de igualdade através do


uso de variáveis de folga; isto fornece

h(x) − sl − hm = 0
h(x) + su − hM = 0 (5.12)
sl , su > 0

onde, sl e su são vetores cujos componentes (sli e sui ) são as variáveis de folga
correspondentes às restrições de desigualdade;
98 Capı́tulo 5: Método de Pontos Interiores

• adição da função barreira logaritmica à função objetivo; isto é,


f (x) − µ[Σi ln sli + Σi ln sui ]

• aplicação das condições de otimalidade no problema resultante, o qual é expresso


como,
Minimizar f (x) − µ[Σi ln sli + Σi ln sui ]
sujeito a g(x) = 0
h(x) − sl − hm = 0 (5.13)
M
h(x) + su − h =0
sl , su > 0

A função Lagrangeana do problema expresso na equação (5.13) é


£(x, sl , su , λ, π l , π u ) = f (x) − µ[Σi ln sli + Σi ln sui ] − λt g(x)
(5.14)
− π tl [h(x) − sl − hm ] − π tu [h(x) + su − hM ]
onde todos os termos foram definidos anteriormente
A aplicação das condições de Karush-Kuhn-Tucker à equação (5.14) fornece
∇x £(x, sl , su , λ, π l , π u ) = 0 = ∇x f (x) − ∇x g(x)t λ − ∇x h(x)t (π l + π u )
∇sl £(x, sl , su , λ, π l , π u ) = 0 =µel − Sl π l
∇su £(x, sl , su , λ, π l , π u ) = 0 =µeu + Su π u
(5.15)
∇λ £(x, sl , su , λ, π l , π u ) = 0 = − g(x)
∇πl £(x, sl , su , λ, π l , π u ) = 0 =− [h(x) − sl − hm ]
( )
∇πu £(x, sl , su , λ, π l , π u ) = 0 = − h(x) + su − hM
onde, ∇x f (x) e ∇x h(x) são os vetores gradientes de f (x) e h(x), respectivamente;
∇x g(x) = J(x) é a matriz Jacobiana de g(x); el e eu são vetores unitários de dimensão
adequada; e Sl e Su são matrizes diagonais formadas pelos elementos dos vetores sl e su ,
respectivamente.
As condições expressas pela equação (5.15) são acrescidas das restrições de não ne-
gatividade, correspondentes às variáveis de folga, e de sinal, relativas aos multiplicadores
duais; isto é,
sl ≥ 0, su ≥ 0, π l ≥ 0, π u ≤ 0 (5.16)
O ponto estacionário do problema representado pela equação (5.13) é obtido resolven-
do-se a equação (5.15). Utilizando-se o método de Newton-Raphson, o seguinte sistema
de equações lineares deve ser resolvido a cada iteração:
H(x, λ, π l , π u )∆x − J(x)t ∆λ − ∇x h(x)t (∆π l + ∆π u ) = −t
−Πl ∆sl − Sl ∆π l = − (µel − Sl π l )
Πu ∆su + Su ∆π u = − (µeu + Su π u )
(5.17)
−J(x)∆x = g(x)
−∇x h(x)∆x + ∆sl = h(x) − sl − hm
−∇x h(x)∆x − ∆su = h(x) + su − hM
UFSC / EEL - Labspot - R. S. Salgado 99

onde,
H(x, λ, π l , π u ) = ∇2x f (x) − Σi λi ∇2x gi (x) − Σj (π l + π u )∇2x hi (x)
é a matriz de segundas derivadas da função Lagrangeana em relação às variáveis de oti-
mização; ∇2x f (x), ∇2x gi (x), e ∇2x hi (x) são as matrizes de segundas derivadas de f (x),
gi (x) e hj (x), respectivamente;

t = ∇x £(x, sl , su , λ, π l , π u ) = ∇x f (x) − J(x)t λ − ∇x h(x)t (π l + π u )

e Πl e Πu são matrizes diagonais formadas pelos elementos dos vetores π l e π u , respec-


tivamente.
A equação (5.17) pode ser re-escrita na forma matricial, resultando em
⎡ ⎤ ⎡ ⎤
∆x −t
⎢ ∆sl ⎥ ⎢ −(µel − Sl π l ) ⎥
⎢ ⎥ ⎢ ⎥
⎢ ∆su ⎥ ⎢ −(µeu + Su π u ) ⎥
W(x, sl , su , λ, π l , π u ) ⎢ ⎥ ⎢
⎢ ∆λ ⎥ = ⎢

⎥ (5.18)
⎢ ⎥ ⎢ g(x) ⎥
⎣ ∆π l ⎦ ⎣ h(x) − sl − hm ⎦
∆π u h(x) + su − hM

com a matriz W(x, sl , su , λ, π l , π u ) dada por


⎡ ⎤
H(x, λ, π l , π u ) 0 0 −J(x)t −∇x h(x)t −∇x h(x)t
⎢ 0 −Πl 0 0 −Sl 0 ⎥
⎢ ⎥
⎢ 0 0 Π 0 0 Su ⎥
⎢ u ⎥ (5.19)
⎢ −J(x) 0 0 0 0 0 ⎥
⎢ ⎥
⎣ −∇x h(x) I 0 0 0 0 ⎦
−∇x h(x) 0 −I 0 0 0

onde I é a matriz identidade. Note que esta matriz, originalmente não simétrica, pode se
tornar simétrica multiplicando-se a segunda linha por −S−1 l e a segunda linha por −S−1
u .
A solução da equação (5.18) fornece os incrementos nas variáveis primais e duais do
problema de otimização. A não violação das restrições de não-negatividade das variáveis
de folga e de sinais dos multiplicadores duais é assegurada, calculando-se o comprimento
do passo nos espaços primal e dual como,
* +
sli su i
γp = min min min 1, 0
∆sli <0 |∆sli | ∆sui <0 |∆sui |
1 2 (5.20)
πlj −πuj
γd = min min min 1, 0
∆πlj <0 |∆πlj | ∆πuj >0 |∆πuj |

A atualização das variáveis primais e duais é dada por,

xk+1 = xk + σγp ∆xk λk+1 = λk + σγd ∆λk


sk+1
l = skl + σγp ∆skl π k+1
l = π kl + σγd ∆π kl (5.21)
sk+1
u = sku + σγp ∆sku π k+1
u = π ku + σγd ∆π ku
100 Capı́tulo 5: Método de Pontos Interiores

onde, σ é uma constante cuja finalidade é garantir que as variáveis s e π não se anulem,
recomendando-se para a mesma o valor de 0, 9995 [6].
Portanto, a finalidade dos fatores de passo σγp e σγd é garantir a não negatividade das
variáveis de folga e assegurar uma redução suficiente na função de mérito representada
pela função Lagrangeana.
O valor do parâmetro barreira é computado ao final de cada iteração utilizando-se a
equação
st π l − stu π u
µ= l (5.22)
2lβ
onde l é o número restrições de desigualdade.
O algoritmo para a resolução de um problema de otimização via método de Pontos
Interiores versão Primal-Dual é sumarizado nos passos descritos a seguir.

1. Inicialização das variáveis primais e duais;

2. Cálculo do vetor gradiente da função Lagrangeana aumentada (equação (5.15));

3. Teste de convergência: comparação da norma euclidiana do vetor gradiente e do


valor do parâmetro barreira µ com as respectivas tolerâncias. Se o critério de con-
vergência for satisfeito, o processo iterativo é encerrado;

4. Cálculo da matriz W e solução do sistema linear (equação (5.18));

5. Determinação dos comprimentos dos passos nos espaços primal e dual (equações
(5.20));

6. Atualização das variáveis de otimização (equação (5.21));

7. Cálculo do novo valor do parâmetro barreira µ (equação (5.22)). Retorno ao passo


(2).

Ex. 5.1 Faça a primeira iteração do processo de solução do problema mostrado a seguir,
quando o mesmo é resolvido via método de Pontos Interiores.

Minimizar f (x) ⇒ x21 + x22


sujeito a g(x) = 0 ⇒ x21 − x2 + 1 = 0
h(x) ≤ 0 ⇒ 6x1 + x2 + 2 ≤ 0

• transformação da restrição de desigualdade em restrição de igualdade:

6x1 + x2 + 2 ≤ 0 ⇒ 6x1 + x2 + 2 + s = 0, s>0

• adição da função barreira logarı́tmica na função objetivo:

f (x) − µ ln s ⇒ x21 + x22 − µ ln s


UFSC / EEL - Labspot - R. S. Salgado 101

• problema de otimização modificado:

Minimizar x21 + x22 − µ ln s


sujeito a x21 − x2 + 1 = 0
6x1 + x2 + 2 + s = 0
s>0

• função Lagrangeana:

£(x, λ, π, s) = x21 + x22 − µ ln s − λ(x21 − x2 + 1) − π(6x1 + x2 + 2 + s)

• condições de otimalidade de primeira ordem:



⎪ ∂£(x, λ, π, s)
∂£(x, λ, π, s) ⎨ = 2x1 − 2λx1 − 6π = 0
=0 ⇒ ∂x1
∂x ⎩ ∂£(x, λ, π, s)

= 2x2 + λ − π = 0
∂x2
∂£(x, λ, π, s) 7 8
= 0 ⇒ − x21 − x2 + 1 = 0
∂λ
∂£(x, λ, π, s)
= 0 ⇒ − (6x1 + x2 + 2 + s) = 0
∂π
∂£(x, λ, π, s)
= 0 ⇒ − (µ + πs) = 0
∂s

• sistema linear a ser resolvido para a solução via método de Newton:


⎡ ⎤⎡ ⎤ ⎡ ⎤
(2 − 2λ) −2x1 −6 ∆x1 2x1 − 2λx1 − 6π
⎢ 2 1 −1 ⎥ ⎢ ⎥ ⎢ 2x2 + λ − π ⎥
⎢ ⎥ ⎢ ∆x2 ⎥ ⎢ ⎥
⎢ −2x 1 ⎥ ⎢ ∆λ ⎥ = − ⎢ − (x2
1 − x2 + 1)

⎢ 1 ⎥⎢ ⎥ ⎢ ⎥
⎣ −6 −1 −1 ⎦ ⎣ ∆π ⎦ ⎣ − (6x1 + x2 + 2 + s) ⎦
−s −π ∆s − (µ + πs)

• na condição inicial ⎡ ⎤ ⎡ ⎤
x1 1, 0
⎢ x2 ⎥ ⎢ 1, 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ λ ⎥=⎢ 0, 5 ⎥
⎢ ⎥ ⎢ ⎥
⎣ π ⎦ ⎣ 1, 0 ⎦
s 1, 0
e especificando o parâmetro barreira µ = 1, 0, o sistema linear a ser resolvido é
expresso numericamente por
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −2 −6 ∆x1 −5
⎢ 2 1 −1 ⎥⎢ ∆x2 ⎥ ⎢ 1, 5 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ −2 1 ⎥⎢ ∆λ ⎥ = −⎢ −1, 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ −6 −1 −1 ⎦⎣ ∆π ⎦ ⎣ −10, 0 ⎦
−1 −1 ∆s −2, 0
102 Capı́tulo 5: Método de Pontos Interiores

cuja solução é ⎡ ⎤ ⎡ ⎤
∆x1 −1, 2727
⎢ ∆x2 ⎥ ⎢ −1, 5455 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ∆λ ⎥ = −⎢ 0, 4091 ⎥
⎢ ⎥ ⎢ ⎥
⎣ ∆π ⎦ ⎣ −1.1818 ⎦
∆s −0, 8182

• as variáveis primais e duais atualizadas para a segunda iteração são:


⎡ ⎤ ⎡ ⎤
x1 0, 2727
⎢ x2 ⎥ ⎢ 0, 5455 ⎥
⎢ ⎥ ⎢ ⎥
⎢ λ ⎥ = ⎢ 0, 9091 ⎥
⎢ ⎥ ⎢ ⎥
⎣ π ⎦ ⎣ 0, 1818 ⎦
s 0, 1818

0, 1818 × 0, 1818
e, com l = 1 e especificando β = 10 o parâmetro barreira µ = =
2 × 1 × 10
0, 0017

Ex. 5.2 Considere dois geradores suprindo potência a uma carga de 3 MW. Os geradores
possuem curvas de custo de geração de potência ativa dadas por C1 (P1 ) = 1, 10P12 $/MWh
e C1 (P2 ) = 0, 88P22 $/MWh . Determinar a potência de saı́da de cada gerador na solução
de mı́nimo custo de geração. As perdas de potência ativa nas linhas de transmissão são
desprezı́veis e os limites inferiores de geração são P1min = 1, 0MW e P2min = 1, 0MW .
Neste caso, o problema de otimização a ser resolvido é

Minimizar C(P1 , P2 ) = 1, 10P12 + 0, 88P22


sujeito a P1 + P2 − 3 = 0
P1 ≥ 1, 0
P2 ≥ 1, 0

• transformação das restrições de desigualdade em restrições de igualdade:

P1 ≥ 1, 0 ⇒ P1 − 1, 0 − s1 = 0, s>0
P2 ≥ 1, 0 ⇒ P2 − 1, 0 − s2 = 0, s>0

• adição da função barreira logarı́tmica na função objetivo:

C(P1 , P2 ) − µ (ln s1 + ln s1 ) ⇒ 1, 10P12 + 0, 88P22 − −µ (ln s1 + ln s1 )

• problema de otimização modificado:

Minimizar 1, 10P12 + 0, 88P22 − −µ (ln s1 + ln s1 )


sujeito a P1 + P2 − 3 = 0
P1 − 1, 0 − s1 = 0, s > 0
P2 − 1, 0 − s2 = 0, s > 0
UFSC / EEL - Labspot - R. S. Salgado 103

• função Lagrangeana:

£(P1 , P2 , λ, π1 , s1 , π2 , s2 ) = 1, 10P12 + 0, 88P22 − µ (ln s1 + ln s1 ) − λ(P1 + P2 − 3)


− π1 (P1 − 1, 0 − s1 ) − π2 (P2 − 1, 0 − s2 )

• condições de otimalidade de primeira ordem:


-
∂£(P1 , P2 , λ, π1 , s1 , π2 , s2 ) 2, 20P1 − λ − π1 = 0
=0 ⇒
∂P 1, 76P2 − λ − π2 = 0
∂£(P1 , P2 , λ, π1 , s1 , π2 , s2 )
= 0 ⇒ −(P1 + P2 − 3) = 0
∂λ
∂£(P1 , P2 , λ, π1 , s1 , π2 , s2 )
= 0 ⇒ − (P1 − 1, 0 − s1 ) = 0
∂π1
∂£(P1 , P2 , λ, π1 , s1 , π2 , s2 )
= 0 ⇒ − (P2 − 1, 0 − s2 ) = 0
∂π2
∂£(P1 , P2 , λ, π1 , s1 , π2 , s2 )
= 0 ⇒ − (µ − π1 s1 ) = 0
∂s1
∂£(P1 , P2 , λ, π1 , s1 , π2 , s2 )
= 0 ⇒ − (µ − π1 s1 ) = 0
∂s1
e o sistema linear a ser resolvido a cada iteração do método de Newton é expresso
como ⎡ ⎤⎡ ⎤
2, 20 −1, 0 −1, 0 ∆P1
⎢ 1, 76 −1 −1, 0 ⎥ ⎢ ∆P2 ⎥
⎢ ⎥⎢ ⎥
⎢ −1, 0 −1, 0 ⎥ ⎢ ∆λ ⎥
⎢ ⎥⎢ ⎥
⎢ −1, 0 1, 0 ⎥ ⎢ ∆π1 ⎥ =
⎢ ⎥⎢ ⎥
⎢ −1, 0 1, 0 ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ∆π2 ⎥
⎣ s1 π1 ⎦ ⎣ ∆s1 ⎦
s2 π2 ∆s2
⎡ ⎤
(2, 20P1 − λ − π1 )
⎢ (1, 76P2 − λ − π2 ) ⎥
⎢ ⎥
⎢ − (P1 + P2 − 3) ⎥
⎢ ⎥
−⎢ ⎢ − (P1 − 1, 0 − s1 ) ⎥

⎢ − (P2 − 1, 0 − s2 ) ⎥
⎢ ⎥
⎣ − (µ − π1 s1 ) ⎦
− (µ − π2 s2 )

Para as condições iniciais ⎡ ⎤ ⎡ ⎤


P1 1, 0
⎢ P2 ⎥ ⎢ 1, 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ λ ⎥ ⎢ 2, 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ π1 ⎥=⎢ 1, 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ π2 ⎥ ⎢ 1, 0 ⎥
⎢ ⎥ ⎢ ⎥
⎣ s1 ⎦ ⎣ 1, 0 ⎦
s2 1, 0
104 Capı́tulo 5: Método de Pontos Interiores

e especificando o parâmetro barreira µ = 1, 0, o sistema linear a ser resolvido é


expresso numericamente por
⎡ ⎤⎡ ⎤
2, 20 −1, 0 −1, 0 ∆P1
⎢ 1, 76 −1 −1, 0 ⎥⎢ ∆P2 ⎥
⎢ ⎥⎢ ⎥
⎢ −1, 0 −1, 0 ⎥⎢ ∆λ ⎥
⎢ ⎥⎢ ⎥
⎢ −1, 0 1, 0 ⎥⎢ ∆π1 ⎥=
⎢ ⎥⎢ ⎥
⎢ −1, 0 1, 0 ⎥⎢ ∆π2 ⎥
⎢ ⎥⎢ ⎥
⎣ 1, 0 1, 0 ⎦⎣ ∆s1 ⎦
1, 0 1, 0 ∆s2
⎡ ⎤
−0, 8
⎢ −1, 24 ⎥
⎢ ⎥
⎢ 1, 0 ⎥
⎢ ⎥
−⎢
⎢ 1, 0 ⎥

⎢ 1, 0 ⎥
⎢ ⎥
⎣ 0, 0 ⎦
0, 0
cuja solução e correspondentes variáveis atualizadas são
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 0, 3893 P1 1, 3893
⎢ ∆P2 ⎥ ⎢ 0, 6107 ⎥ ⎢ P2 ⎥ ⎢ 1, 6107 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆λ ⎥ ⎢ −0, 5544 ⎥ ⎢ λ ⎥ ⎢ 1, 4456 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆π1 ⎥=⎢ 0, 6107 ⎥ ⇒ ⎢ π1 ⎥=⎢ 1, 6107 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆π2 ⎥ ⎢ 0, 3893 ⎥ ⎢ π2 ⎥ ⎢ 1, 3893 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ ∆s1 ⎦ ⎣ −0, 6107 ⎦ ⎣ s1 ⎦ ⎣ 0, 3893 ⎦
∆s2 −0, 3893 s2 0, 6107

e, com l = 2 e especificando β = 0, 25, o parâmetro barreira é calculado como

s1 π1 + s2 π2
µ=
1
0, 6270 + 0, 8484
=
1
= 1, 4755

O sistema linear a ser resolvido na segunda iteração é expresso numericamente por


⎡ ⎤⎡ ⎤
2, 20 −1, 0 −1, 0 ∆P1
⎢ 1, 76 −1 −1, 0 ⎥⎢ ∆P2 ⎥
⎢ ⎥⎢ ⎥
⎢ −1, 0 −1, 0 ⎥⎢ ∆λ ⎥
⎢ ⎥⎢ ⎥
⎢ −1, 0 1, 0 ⎥⎢ ∆π1 ⎥=
⎢ ⎥⎢ ⎥
⎢ −1, 0 1, 0 ⎥ ⎢ ∆π2 ⎥
⎢ ⎥⎢ ⎥
⎣ 0, 3893 1, 6107 ⎦⎣ ∆s1 ⎦
0, 6107 1, 3893 ∆s2
UFSC / EEL - Labspot - R. S. Salgado 105

⎡ ⎤
0, 0
⎢ 0, 0 ⎥
⎢ ⎥
⎢ 0, 0 ⎥
⎢ ⎥
−⎢
⎢ 0, 0 ⎥

⎢ 0, 0 ⎥
⎢ ⎥
⎣ −0, 6270 ⎦
−0, 8484
cuja solução e correspondentes variáveis atualizadas são
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
∆P1 −0, 0213 P1 1, 3680
⎢ ∆P2 ⎥ ⎢ 0, 0213 ⎥ ⎢ P2 ⎥ ⎢ 1, 6320 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆λ ⎥ ⎢ 1, 4753 ⎥ ⎢ λ ⎥ ⎢ 2, 9209 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆π1 ⎥ = ⎢ −1, 5223 ⎥ ⇒ ⎢ π1 ⎥ = ⎢ 0, 0884 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ∆π2 ⎥ ⎢ −1, 4378 ⎥ ⎢ π2 ⎥ ⎢ −0, 0485 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ ∆s1 ⎦ ⎣ −0, 0213 ⎦ ⎣ s1 ⎦ ⎣ 0, 3680 ⎦
∆s2 −0, 0213 s2 0, 6320

e o parâmetro barreira é calculado como


s1 π1 + s2 π2
µ=
1
0, 0325 − 0, 0307
=
1
= 0, 0018

O processo converge para os valores


⎡ ⎤ ⎡ ⎤
P1 1, 3334
⎢ P2 ⎥ ⎢ 1, 6666 ⎥
⎢ ⎥ ⎢ ⎥
⎢ λ ⎥ ⎢ 2, 9332 ⎥
⎢ ⎥ ⎢ ⎥
⎢ π1 ⎥ = ⎢ 0, 0001 ⎥
⎢ ⎥ ⎢ ⎥
⎢ π2 ⎥ ⎢ 0, 0000 ⎥
⎢ ⎥ ⎢ ⎥
⎣ s1 ⎦ ⎣ 0, 3334 ⎦
s2 0, 6666

Com estes valores, as condições de otimalidade de primeira ordem são satisfeitas,


o que indica que o ponto estacionário foi determinado.

5.3.2 Preditor-Corretor
Na versão Primal-Dual, a atualização das variáveis de otimização a cada iteração é gene-
ricamente expressa como

x + ∆x λ + ∆λ
sl + ∆sl π l + ∆π l (5.23)
su + ∆su π u + ∆π u
106 Capı́tulo 5: Método de Pontos Interiores

onde as variáveis têm o mesmo significado mencionado previamente.


Substituindo estas estimativas na equação (5.15), obtém-se

∇x f (x + ∆x) − J(x+∆x)t (λ + ∆λ) − ∇x h(x + ∆x)t [(π l + ∆π l ) + (π u + ∆π u )] = 0


µe − (Sl + ∆Sl )(π l + ∆π l ) = 0
µe + (Su + ∆Su )(π u + ∆π u ) = 0
− g(x + ∆x) = 0
− [h(x + ∆x) − (sl + ∆sl ) − hm ] = 0
( )
− h(x + ∆x) + (su + ∆su ) − hM = 0
(5.24)

A expansão dos termos não-lineares da equação (5.24) em série de Taylor, em torno


do ponto (x, λ, sl , su , π l , π u ), na direção (∆x, ∆λ, ∆sl , ∆su , ∆π l , ∆π u ), até o termo de
primeira ordem, fornece

∇x f (x + ∆x) = ∇x f (x) + ∇2x f (x)∆x


J(x + ∆x) = J(x) + ∇2x g(x)∆x
∇x h(x + ∆x) = ∇x h(x) + ∇2x h(x)∆x (5.25)
g(x + ∆x) = g(x) + J(x)∆x
h(x + ∆x) = h(x) + ∇x h(x)∆x

A substituição das equações (5.25) na primeira das equações (5.24) resulta em

∇x f (x) + ∇2x f (x)∆x − [J(x) + ∇2x g(x)∆x]t (λ + ∆λ)


−[∇x h(x) + ∇2x h(x)∆x]t [(π l + ∆π l ) + (π u + ∆π u )] = 0

∇x f (x) + ∇2x f (x)∆x − [J(x)]t λ − [J(x)]t ∆λ − [∇2x g(x)∆x]t λ − [∇2x g(x)∆x]t ∆λ


−[∇x h(x)]t (π l + π u ) − [∇x h(x)]t ∆π l − [∇x h(x)]t ∆π u
−[∇2x h(x)∆x](π l + π u ) − [∇2x h(x)∆x](∆π l + ∆π u ) = 0
(5.26)
cujos termos que envolvem segundas derivadas podem ser reescritos na forma
t .
[∇2x g(x)∆x] λ = i [λi ∇2x gi (x)] ∆x
t .
[∇2x g(x)∆x] ∆λ = i [∆λi ∇2x gi (x)] ∆x
t . (5.27)
[∇2x h(x)∆x] (π l + π u ) = j [(π lj + π uj )∇2x hj (x)] ∆x
t .
[∇2x h(x)∆x] (∆π l + ∆π u ) = j [(∆π lj + ∆π uj )∇2x hj (x)] ∆x

A substituição das equações (5.27) na equação (5.26) permite que a primeira das
equações (5.24) seja re-escrita como
= . . >
∇2x f (x) − i λi ∇2x gi (x) − j (πlj + πuj )∇2x hj (x) ∆x − [J(x)]t ∆λ
t t
? − [∇x h(x)] ∆πt l − [∇x h(x)] t∆π u = @ (5.28)
=−
.
∇x f (x) − [J(x)] λ − [∇x h(x)] (π l + π u )>
.
2 2
+ i ∆λi ∇x gi (x) + j (∆πlj + ∆πuj )∇x hj (x) ∆x
UFSC / EEL - Labspot - R. S. Salgado 107

As outras equações (5.24) são expressas como


A
−Al ∆sl − Sl ∆π l = −(µe − Sl π l ) + ∆Sl ∆π l
− u ∆su + Su ∆π u = −(µe + Su π u ) − ∆Su ∆π u
J(x)∆x = −g(x) (5.29)
−∇x h(x)∆x + ∆sl = h(x) − sl − hm
−∇x h(x)∆x − ∆su = h(x) + su − hM

Combinando as equações (5.28) e (5.29) e usando a forma matricial, obtém-se


⎡ ⎤ ⎡ ⎤
∆x −t + z
⎢ ∆sl ⎥ ⎢ −(µe − Sl π l ) + ∆Sl ∆π l ⎥
⎢ ⎥ ⎢ ⎥
⎢ ∆su ⎥ ⎢ −(µe + Su π u ) − ∆Su ∆π u ⎥
W(x, sl , su , λ, π l , π u ) ⎢ ⎥ ⎢
⎢ ∆λ ⎥ = ⎢

⎥ (5.30)
⎢ ⎥ ⎢ g(x) ⎥
⎣ ∆π l ⎦ ⎣ h(x) − sl − hm ⎦
M
∆π u h(x) + su − h

onde, a matriz W(x, sl , su , λ, π l , π u ) e o vetor t são os mesmos termos da equação (5.18),


e 1 2
, ,
z= ∆λi ∇2x gi (x) + (∆πlj + ∆πuj )∇2x hj (x) ∆x
i j

A diferença entre as equações (5.18) (Primal-Dual) e (5.30) (Preditor-Corretor) é o


vetor do lado direito do sistema linear. Na versão Preditor-Corretor, este vetor apresenta
termos não-lineares nos vetores z e ∆S∆π, tal que o vetor do lado direito da equação
(5.30) não pode ser determinado diretamente. Portanto, esta equação pode ser resolvida
apenas de forma aproximada, desprezando-se o termo z na avaliação do vetor do lado
direito do sistema linear, sem a perda apreciável das caracterı́sticas de convergência do
processo iterativo [7, 14, 15],.
Para estimar os termos não-lineares ∆Sl ∆π l e ∆Su ∆π u , a referência [13] sugere que
seja realizada primeiramente uma etapa de predição, na qual resolve-se o problema origi-
nal. Isto significa desprezar a influência da função barreira logarı́tmica, e obter a solução
do sistema linear
⎡ ⎤ ⎡ ⎤
∆x −t
⎢ ∆sl ⎥ ⎢ Sl π l ⎥
⎢ ⎥ ⎢ ⎥
⎢ ∆su ⎥ ⎢ −S π ⎥
W(x, sl , su , λ, π l , π u ) ⎢ ⎥=⎢
⎢ ∆λ ⎥ ⎢
u u ⎥
⎥ (5.31)
⎢ ⎥ ⎢ g(x) ⎥
⎣ ∆π l ⎦ ⎣ h(x) − sl − hm ⎦
∆π u h(x) + su − hM

Após isto, o parâmetro barreira e os termos não-lineares são estimados e o lado direito
da equação (5.30) é recalculado. A referência [7] sugere que parâmetro barreira seja
dinamicamente computado como
/ 02 / 0
gB
ap gBap
µ= (5.32)
gap 2n
108 Capı́tulo 5: Método de Pontos Interiores

onde, gap = stl π l − stu π u é o gap de complementaridade calculado sem a atualização


das variáveis; gB
ap = (sl + C γ ∆sl )t (π l + Cγ ∆π l ) − (su + γC∆su )t (π u + C
γ ∆π u ) é o gap de
complementaridade computado com a atualização das variáveis; e
* 2
sli su i πl −πuj
γ = min min
C min min ' j ' min ' '
∆sli <0 |∆sli | ∆sui <0 |∆sui | ∆πlj <0 '∆πl ' ∆πuj >0 '∆πu '
j j

A definição da direção de busca efetiva da iteração corrente é realizada na etapa de


correção, na qual o sistema linear apresentado na equação (5.30) é resolvido com o vetor
do lado direito re-estimado.
Uma vez, obtidos os incrementos nas variáveis de otimização, os fatores de passo nos
espaços primal e dual são calculados (equações (5.20)), as variáveis de otimização são
atualizadas (equações (5.21)) e o novo valor do parâmetro barreira é computado (equação
(5.32)).
A referência [13] sugere utilizar na etapa de correção, a mesma matriz fatorada na
etapa de predição. Portanto, a fatoração da matriz de coeficientes do sistema linear é
realizada apenas na etapa de predição. Na etapa de correção, a solução do sistema linear
requer apenas o processo de substituição direta e inversa.
A seguir apresenta-se o algoritmo para a resolução de um problema de otimização
utilizando o método do Preditor-Corretor do Primal-Dual de Pontos Interiores.

1. Inicialização da variáveis;

2. Cálculo do vetor gradiente da função Lagrangeana aumentada, equação (5.15);

3. Teste de convergência: comparação da norma Euclideana do vetor gradiente e do


valor do parâmetro barreira µ com as respectivas tolerâncias. Se o critério de con-
vergência for satisfeito, o processo iterativo é encerrado;

4. Cálculo e fatoração da matriz W, equação (5.19);

5. Etapa de predição: resolução da equação (5.31); Cálculo dos termos não-lineares e


estimação dinâmica de µ(equação (5.32)).

6. Etapa de correção: resolução da equação (5.30);

7. Determinação dos fatores de passo nos espaços primal e dual (equações (5.20));

8. Atualização das variáveis de otimização (equações (5.21));

9. Cálculo do novo valor do parâmetro barreira µ (equação (5.22)). Retorno ao passo


(2).

5.4 Redução do Sistema Linear


O sistema linear da equação (5.18) pode ser significativamente reduzido, de maneira a
tornar sua dimensão independente do número de restrições de desigualdade [6]. Para isto,
UFSC / EEL - Labspot - R. S. Salgado 109

defina-se os seguintes vetores


ν l = µe − Sl π l
ν u = µe + Su π u
(5.33)
yl = h(x) − sl − hm
yu = h(x) + su − hM

tal que, as equações (5.17) podem ser re-escritas na forma

−Πl ∆sl − Sl ∆π l = − νl
Πu ∆su + Su ∆π u = − νu
(5.34)
−∇x h(x)∆x + ∆sl = yl
−∇x h(x)∆x − ∆su = yu

As duas últimas equações podem ser expressas alternativamente como


∆sl = ∇x h(x)∆x + yl
(5.35)
∆su = − ∇x h(x)∆x − yu

A substituição das equações (5.35) nas duas primeiras equações (5.34) resulta em

∆π l = S−1 −1
l (ν l − Πl yl ) − Sl Πl ∇x h(x)∆x
(5.36)
∆π u = − S−1 −1
u (ν u − Πu yu ) + Su Πu ∇x h(x)∆x

Substituindo as equações (5.36) na primeira das equações (5.17) obtém-se


? @
H(x, λ, π l , π u ) + [∇x h(x)]t (S−1 −1
l Πl − Su Πu )∇x h(x) ∆x − [J(x)] ∆λ =
t
( ) (5.37)
−t + [∇x h(x)]t S−1 −1
l (ν l − Πl yl ) − Su (ν u − Πu yu )

Definindo-se
C sl , su , λ, π l , π u ) = H(x, λ, π l , π u ) + [∇x h(x)]t (S−1 −1
H(x, l Πl − Su Πu )∇x h(x)
( )
Ct = − t + [∇x h(x)]t S−1 l (ν l − Π l yl ) − S−1
u (ν u − Π u yu )

a equação (5.37) transforma-se em


C
H(x, sl , su , λ, π l , π u )∆x − J(x)t ∆λ = Ct (5.38)

a qual, juntamente com a quarta das equações (5.17), forma o sistema linear reduzido
* +* + * +
C
H(x, sl , su , λ, π l , π u ) −J(x)t ∆x Ct
= (5.39)
−J(x) 0 ∆λ g(x)

A análise da equação (5.39) revela que a dimensão do sistema linear reduzido é é


independente do número de restrições de desigualdade, sendo igual a soma dos números
de variáveis de otimização e de de restrições de igualdade.
Equações semelhantes à (5.39) podem ser estabelecidas para a versão Preditor-Corretor.
Neste caso, deve-se observar que:
110 Capı́tulo 5: Método de Pontos Interiores

• na etapa de predição:

ν l = − Sl π l
ν u = Su π u

• na etapa de correção:

ν l = − (µe − Sl π l ) + ∆Sl ∆π l
ν u = − (µe + Su π u ) + ∆Su ∆π u

5.5 Exercı́cios
5.1 Determine a solução dos seguintes problemas de otimização através do método de
Pontos Interiores.

Minimizar x21 + x22 − x1 x2 − 3x1
sujeito a x1 + x2 ≤ 3
x1 , x2 ≥ 0

Minimizar x21 + x22 − 2x1 − 2x2
sujeito a x1 + x2 − 4 ≤ 0
2 − x1 ≤ 0
x1 , x2 ≥ 0

Minimizar 2x21 + 2x22 + x23 + 2x1 x2 − x1 x3 − 0, 8x2 x3
sujeito a 1, 3x1 + 1, 2x2 + 1, 1x3 ≥ 1, 15
x1 + x2 + x3 = 1
x1 ≤ 0, 7
x2 ≤ 0, 7
x3 ≤ 0, 7
x1 , x2 , x3 ≥ 0

5.2 Utilizando o método de Pontos Interiores, determine qual a forma mais econômica de
operar um sistema elétrico com perdas desprezı́veis nas linhas de transmissão. Considere
que este sistema possui três unidades geradoras com as seguintes caracterı́sticas:
• gerador 1: C1 (P1 ) = 1, 0 + 0, 1P1 + 0, 01P12, 2, 0 ≤ P1 ≤ 6, 5;

• gerador 2: C2 (P2 ) = 1, 5 + 0, 15P2 + 0, 005P22, 0, 5 ≤ P2 ≤ 4, 2;

• gerador 3: C3 (P3 ) = 1, 8 + 0, 18P3 , 1, 0 ≤ P3 ≤ 3, 5;


com os valores de potência em MW. As demandas a serem atendidas são:
• 6, 5 Mw;

• 9, 0 Mw;
UFSC / EEL - Labspot - R. S. Salgado 111

• 12, 5 Mw

5.3 Um sistema possui duas unidades térmicas operando em despacho econômico para
suprir uma carga de 680MW. Os custos de geração de potência ativa e os limites de
capacidade dessas unidades são respectivamente

C1 (P1 ) = 10P1 + 8 × 10−3 P12 $/h 100 ≤ P1 ≤ 600 Mw

C2 (P2 ) = 8P2 + 9 × 10−3 P22 $/h 400 ≤ P2 ≤ 1000 Mw


e a perda total de potência ativa nas linhas de transmissão é dada por

PL = 1, 5 × 10−4 P12 + 2 × 10−5P1 P2 + 3, 0 × 10−5 P22

com P1 e P2 expressos em Mw.


Utilize o método de Pontos Interiores para determinar:

• a potência de saı́da de cada unidade geradora;

• a perda total na transmissão;

• a demanda total;

• o custo total de operação total.


112 Capı́tulo 5: Método de Pontos Interiores
Capı́tulo 6

Tópicos em Otimização Paramétrica

6.1 Introdução - Parâmetros de Sistemas Fı́sicos


Sistemas fı́sicos são operados sob restrições que muitas vezes podem ser formuladas como
equações de igualdade e/ou desigualdade. Uma caracterı́stica comum destes sistemas é
que eles contêm dois conjuntos distintos de variáveis: as variáveis de decisão (aquelas sob
as quais se tem controle) e os parâmetros ( quantidades que normalmente não se pode
controlar).

Ex. 6.1 : Variáveis de decisão: ângulos e magnitudes de tensão nas barras, potência
gerada. Parâmetros: carga do sistema, parâmetros de linha.

Quando os parâmetros de um modelo são fixos eles determinam parcialmente ou mesmo


completamente o comportamento das variáveis de decisão. O estudo do comportamento
dasolução de um problema em relação à variações nos parâmetros existentes no modelo
pode ser muito importante (por exemplo, o estudo do comportamento das magnitudes
das tensões nas barras de um sistema de transmissão para uma variação na carga). É
possı́vel também que, através da manipulação dos parâmetros, se possa transformar o
problema original num problema mais simples, resolvê-lo e, retornando progressivamente
os parâmetros aos seus valores originais, “acompanhar” a solução inicial até a solução
do problema original. Em termos práticos, o estudo do comportamento da solução de
um problema de otimização em relação à variações nos parâmetros é interessante porque,
em sistemas reais, os parâmetros podem variar e desviar o sistema do ponto ótimo de
operação original.

6.2 Parametrização de Sistemas Não-Lineares


Uma aplicação direta do conceito de parametrização é encontrada na resolução de siste-
mas não lineares de equações. O parâmetro ϵ é introduzido nesses sistemas de forma que,
quando ϵ=0, uma solução seja facilmente encontrada e, quando ϵ=1, o sistema parame-
trizado se torne o sistema original.
114 Capı́tulo 6: Tópicos em Otimização Paramétrica

Ex. 6.2 [17]: Deseja-se resolver o seguinte sistema:

x31 − 3x21 + 8 x1 + 3 x2 − 36 = 0
x21 + x2 + 4 = 0 (6.1)

Se tomamos como sistema inicial

x31 + 8 x1 + 3 x2 = 0
x2 = 0 (6.2)

a solução inicial (trivial) é: (x1 0 ,x2 0 ) = (0,0).


Usando o parâmetro ϵ pode-se construir um sistema que seja igual ao sistema (6.2)
quando ϵ=0 e se torne o sistema (6.1) quando ϵ=1:

x31 + 8 x1 + 3 x2 − ϵ [ 3 x21 + 36 ] = 0
x2 + ϵ [ x21 + 4 ] = 0 (6.3)

A soluçã0 de (6.3) é função de ϵ:

x1 ( ϵ ) = 6 ϵ
x2 ( ϵ ) = −36 ϵ3 − 4 ϵ (6.4)

O ponto (x1 (ϵ), x2 (ϵ)) descreve um caminho (uma trajetória) a medida que ϵ varia de
0 a 1. Seguindo esse caminho chega-se à solução (x1 (1), x2 (1))= (6, -40).

6.3 Função Homotopia


A equação (6.3) é chamada de função homotopia, HO(x,ϵ), e os métodos empregados
para acompanhar esta função são chamados de métodos de homotopia (ou homeotópicos)
ou ainda métodos de continuação.
Generalizando, suponha que F(x): Rn → Rn seja não linear. Usando o método da
homotopia queremos resolver
F (x) = 0 (6.5)
Em primeiro lugar é necessário construir um sistema simples, para o qual se conheça
uma solucão x0 :
E (x) = 0 (6.6)
Define-se então uma função homotopia HO(x,ϵ): Rn+1 → Rn , com as n variáveis
originais mais o parâmetro ϵ. HO deve ser construı́da de forma que:

HO ( x , 0 ) = E ( x )
(6.7)
HO ( x , 1 ) = F ( x )

Através do acompanhamento das soluções x(ϵ) de HO(x,ϵ) de ϵ=0 a ϵ=1, encontra-se


a solução do problema original.
UFSC / EEL - Labspot - R. S. Salgado 115

Da mesma forma que é possı́vel acompanhar a solução de um sistema de equações,


é também possı́vel rastrear a solução de um problema de otimização. As ferramentas
de resolução dos problemas parametrizados discutidas aqui são métodos de continuação.
Esta metodologia é útil também na análise do problema que está sendo resolvido porque
o “desmembra” em um conjunto de subproblemas simplificados, através da relaxação dos
parâmetros, que vão aos poucos se tornando o problema original (de maior complexidade).

6.3.1 Variedades de Homotopias


O caminho exato que conecta os problemas E(x) e F(x) depende diretamente do tipo
de função homotopia HO(x,ϵ) selecionado. Até agora especificou-se que E: Rn →Rn, F:
Rn →Rn e HO(x,ϵ): Rn+1 →Rn , onde HO(x,0)= E(x) e HO(x,1)= F(x), mas não foi
discutida a forma de HO(x,ϵ). Várias formas existem e a seleção de alguma especı́fica
depende do problema a ser resolvido, entretanto três formas são as mais comuns:

1. Homotopia de Newton
Escolhe-se um ponto inicial, x0 , calcula-se F(x0 ) e então faz-se

E ( x ) = F ( x ) − F ( x0 ) (6.8)

o que leva a
H ( x , ϵ ) = F ( x ) − ( 1 − ϵ ) F ( x0 ) (6.9)

E(x), por construção, tem x0 como solução, portanto o inı́cio do processo é obvio e
imediato.

2. Homotopia de Ponto Fixo

HO ( x , ϵ ) = ( 1 − ϵ ) ( x − x0 ) + ϵ F ( x ) (6.10)

Neste caso,
E ( x ) = x − x0 (6.11)

Portanto, x(0)=x0 pode ser escolhido arbitrariamente


A Homotopia de Newton como a Homotopia de ponto fixo podem ser iniciadas em
um x0 escolhido arbitrariamente, razão pela qual são largamente empregadas.

3. Homotopia Linear
Formada por uma combinação linear de E(x) e F(x):

HO ( x , ϵ ) = ϵF (x) + (1 − ϵ)E (x)


(6.12)
alignr = E (x) + ϵ[F (x) − E (x)]

Esta é uma forma útil quando E(x) precisa ter algumas propriedades especiais.
116 Capı́tulo 6: Tópicos em Otimização Paramétrica

1
a

e
d f
g
c
b

0 x

Figura 6.1: Trajetórias formadas pela variação de ε

6.3.2 Continuidade da Função Homotopia


Apesar da idéia de acompanhamento da solução de um problema ser bastante simples,
a existência de um caminho, definido aqui como uma função contı́nua e diferenciável
conectando E(x) a F(x), não é sempre assegurada. Esta seção apresenta as condições que
garantem a existência de um caminho conectando E(x) a F(x).
Dada uma função homotopia HO(x,ϵ): Rn+1 →Rn, define-se

HO ′ = ( x , ϵ ) | HO ( x , ϵ ) = 0 (6.13)

como o conjunto de soluções (x,ϵ) ∈ Rn+1 para o sistema HO(x,ϵ)= 0.


De maneira geral, pode-se supor que trajetórias dos mais variados tipos podem ser
definidas por HO(x,ϵ) à medida que ϵ varia (Figura 6.1). Quer-se assegurar que HO’ seja
constituı́do apenas por trajetórias (caminhos) do tipo (c) da Figura 6.1 (o tipo (b) será
discutido posteriormente), ou seja, trajetórias contı́nuas e diferenciáveis que conectam a
solução do problema em ε=0 à solução em ε=1.

Teorema da Função Implı́cita


Assegura que uma trajetória pertencente ao conjunto HO’ conecta as soluções definidas
para ε=0 e ε=1.
Supondo que HO(x,ϵ): Rn+1 → Rn :seja diferenciável, seu Jacobiano pode ser expresso
como: ⎡ ∂ HO ⎤
∂ HO1 ∂ HO1
∂ x1
1
, ... , ∂ xn
, ∂ϵ
⎢ .. .. .. ⎥
∇ HO ( x , ϵ ) = ⎣ . . . ⎦ (6.14)
∂ HOn ∂ HOn ∂ HOn
∂ x1
, ... , ∂ xn
, ∂ϵ

Definindo ⎡ ⎤
∂ HO1 ∂ HO1
∂ x1
, ... , ∂ xn
⎢ .. .. ⎥
∇x HO ( x , ϵ ) = ⎣ . . ⎦ (6.15)
∂ HOn ∂ HOn
∂ x1
, ... , ∂ xn
⎡ ∂ HO1

∂ϵ
∂ HO ⎢ .. ⎥
(x, ϵ) = ⎣ . ⎦ (6.16)
∂ϵ ∂ HOn
∂ϵ
UFSC / EEL - Labspot - R. S. Salgado 117

tem-se ( )
∂ HO
∇ HO ( x , ϵ ) = ∇x HO ( x , ϵ ) | ∂ϵ
(6.17)
Tomando-se um ponto (x0 , ϵ0 ) ∈ HO’ (isto é, HO(x0 , ϵ0 )= 0), se HO é diferenciável,
pode -se fazer uma aproximação linear desta função na vizinhança de (x0 , ϵ0 ):
* +
0 0
( ∂ HO
) x − x0
HO ( x , ϵ ) ≈ HO ( x , ϵ ) + ∇x HO ( x , ϵ ) | ∂ ϵ (6.18)
ϵ − ϵ0

Quer-se estudar pontos (x,ϵ) em HO’ próximos a (x0 ,ϵ0 ). Por definição, HO(x,ϵ)= 0,
então (6.18) pode ser escrita
∂ HO 0 0
∇x HO( x , ϵ ) [ x − x0 ] + ( x , ϵ ) [ ϵ − ϵ0 ] = 0 (6.19)
∂ϵ
Supondo ∇x HO(x0 , ϵ0 ) inversı́vel, um ponto (x, ϵ) em HO’ deve satisfazer à equação
∂ HO 0 0
[ x − x0 ] = [ ∇x HO( x , ϵ ) ]−1 ( x , ϵ ) [ ϵ − ϵ0 ] (6.20)
∂ϵ
O sistema (6.20) possui n+1 variáveis (x1 , x2 , ..., xn , ϵ) e n equações. Portanto,
sua solução é uma reta. Desta forma, se ∇x HO(x0 , ϵ0 ) é inversı́vel, as soluções (x,ϵ) ϵ
HO’, próximas a (x0 ,ϵ0 ), pertencem a uma reta que passa por (x0 , ϵ0 ). Assim, mesmo
que HO não seja linear, na vizinhança de (x0 ,ϵ0 ) pode ser aproximada por uma reta.
Generalizando, para os intervalos de variação de x e ϵ onde ∇x HO(x0 , ϵ0 ) é inversı́vel, os
pontos pertencentes a HO’ pertencem a um caminho contı́nuo e diferenciável que passa
por (x0 , ϵ0 ). Se tal propriedade é válida para todo 0≤ε≤1, tem-se uma trajetória do tipo
c (Figura 1). Este resultado é descrito no Terorema a seguir.

Teorema 1 : Seja HO(x,ϵ): Rn+1 → Rn continuamente diferenciável, (x0 , ϵ0 ) ϵ HO’


e suponha a matriz ∇x HO(x0 ,ϵ0 ) inversı́vel. Então, na vizinhança de (x0 , ϵ0 ), todos
os pontos (x,ϵ) que satisfazem HO(x,ϵ)= 0 estão num caminho único continuamente
diferenciável que passa por (x0 ,ϵ0 ).
O Teorema da Função Implı́cita é útil todas as vezes que se busca acompanhar uma
função homotopia criada entre dois problemas (ou seja, entre dois conjuntos de soluções
diferentes; um definido para o problema relaxado e outro definido para o problema origi-
nal). Isso é válido tanto para sistemas de equações como para problemas de otimização.

Observação 1 : O Teorema da Função Implı́cita é pode ser aplicado qualquer que seja a
redução feita em HO(x,ϵ) para o cáculo do jacobiano (pode-se definir o jacobiano sobre
quaisquer n das (n+1) variáveis (x1 , x2 , ..., xn , ϵ)). Não importa se um ou mais jacobia-
nos reduzidos são inversı́veis; a solução de (6.20) continuará sendo uma reta. Ou ainda,
considerando todo o intervalo, tem-se sempre um caminho contı́nuo e diferenciável.
Com base na observação anterior, tem-se o Teorema do Caminho, descrito abaixo:
0 0
Teorema 2 : Se o jacobiano ∇HO(x , ϵ0 ) possui rank completo em todo (x ,ϵ0 ∈ HO ′),
então HO’ é contituı́do apenas por caminhos contı́nuos e diferenciáveis.
Em geral, nem sempre é possı́vel assegurar que a função homotopia seja contı́nua em
todo o intervalo 0 ≤ ϵ ≤ 1. Em sistemas de potência, um caso bem conhecido é o ponto
118 Capı́tulo 6: Tópicos em Otimização Paramétrica

de bifurcação das magnitudes de tensão de um problema de fluxo de carga. Para uma


condição de aumento do parâmetro carga, podem ocorrer situações onde o jacobiano do
sistema de fluxo de carga é singular, definindo assim um limite máximo de variação para ϵ,
o que equivale a um limite máximo para o carregamento do sistema. Este caso é estudado
a seguir.

6.3.3 Análise do Máximo Carregamento de Sistemas de Potência


através das Equações do Fluxo de Carga
O problema de máximo carregamento foi formulado com o intuito de se determinar a
máxima carga que um sistema pode suprir de forma que as equações de balanço de
potência sejam satisfeitas [3,4]. Dessa forma, sendo ϵ > 0 um parâmetro do qual de-
penda as potências ativas e reativas demandadas em cada barra, dadas as magnitudes
das tensões nas barras de geração e as potências ativas em todos os geradores menos no
gerador da barra de folga, e escolhendo-se um ângulo como referência, o problema de
máximo carregamento se escreve:

Max ϵ
s.a
pgi − pi ( δ, V ) = pdi (ϵ) , i = 1, ..., n − 1
qgi − qi ( δ, V ) = qdi (ϵ), i = 1, ..., nc (6.21)

onde n é o número de barras e nc o número de barras de carga do sistema.


Define-se como λp e λq os vetores dos multiplicadores de Lagrange associados às
equações de balanço de potência ativa e reativa, respectivamente. O Lagrangeano do
problema acima se escreve:
n−1
, nc
,
L( V, δ, ϵ, λp, λq ) = λpi [ pgi − pdi (ϵ) − pi ( δ, V ) ] + λqi [ qgi − qdi (ϵ) − qi ( δ, V ) ]
i=1 i=1
(6.22)
Um ponto z = (δ,V,ϵ,λp ,λq ) que satisfaça as restrições de (6.21) é um ótimo local [?]:
1. somente se, para quaisquer λp e λq ,
* +T * +T
∂L ∂ p( δ, V ) ∂ q( δ, V )
= − λp − λq = 0 (6.23)
∂δ ∂δ ∂δ
* +T * +T
∂L ∂ p( δ, V ) ∂ q( δ, V )
= − λp − λq = 0 (6.24)
∂V ∂V ∂V
* +T * +T
∂L ∂ pd ∂ qd
= 1 − λp − λq = 0 (6.25)
∂ϵ ∂ϵ ∂ϵ
2. se a projeção da matriz Hessiana do Lagrangeano
* 2 +
∂ L
∂z2
UFSC / EEL - Labspot - R. S. Salgado 119

no espaço nulo do gradiente das restrições for definida negativa.


Supondo que * +
∂pd(ϵ)
∂ϵ
e * +
∂qd(ϵ)
∂ϵ
sejam diferentes de zero (note que os seus componentes relativos às barras de carga
serão diferentes de zero), de (6.25) tem-se que λp ̸= 0 e λq ̸=0. Por outro lado, de
(6.23) e (6.24)
1 2T * +
− ∂ p(∂δδ,V ) − ∂ q( δ,V )
λp
)
∂δ
∂ q( δ,V ) = 0 (6.26)
− ∂ p(∂ δ,V
V
− ∂V
λq

A matriz presente em (6.26) é o jacobiano do fluxo de carga. Portanto, jacobiano do


fluxo de carga é necessariamente singular no ponto de ótimo local. Observe, entretanto,
que esta condição não é suficiente, ou seja, um ponto onde (6.26) seja satisfeita pode não
ser um máximo local.
Algumas conclusões podem ser tiradas do desenvolvimento acima. Em primeiro lugar,
nota-se que, nos pontos que satisfaçam a condição (1) (inclusive aqueles de máximo car-
regamento), não se pode usar o método de Newton-Raphson para resolver as equações do
fluxo de carga. Em segundo lugar, para nı́veis de carregamento próximos a tais pontos
(e também ao limite máximo),o jacobiano se torna mal condicionado o que acarreta uma
má convergência do método de Newton. Em terceiro lugar, na vizinhança destes pontos,
as equações do fluxo de carga (1) não podem ser aproximadas localmente por funções li-
neares (já que o termo linear se anula devido à singularidade do jacobiano). Sendo assim,
nesta vizinhança, variações incrementais de δ e V não são lineares com a carga. De fato,
demonstra-se que na vizinhaça do ponto de singularidade do jacobiano, δ e V podem ser
aproximadas por funções quadráticas [18]. Por fim, deve-se ressaltar que, sendo as res-
trições do problema (6.21) não convexas, as condições de otimalidade são válidas apenas
localmente. Isso significa que um ponto que respeite as condições (1) e (2) é um ponto
de máximo carregamento local e que é possı́vel que existam soluções viáveis para o pro-
blema (6.21) para nı́veis de carregamento acima daquele obtido através das condições de
otimalidade. Diferentes pesquisadores discutiram o fato que a singularidade do jacobiano
do fluxo de carga acontece tanto no limite da região de factibilidade definida por quanto
em pontos no interior dessa região de factibilidade [3,4].
Como conseqüência do mal condicionamento do Jacobiano na vizinhança do ponto de
máximo carregamento local, nesta região observa-se um grande decréscimo das magnitudes
das tensões nas barras de carga do sistema para um pequeno incremento no parâmetro
ϵ, caracterizando o que se conhece por fenômeno de instabilidade de tensão. Em tal
situação, se medidadas não são tomadas para restabelecer um bom ponto de operação
(por exemplo: alteração das tensões dos geradores ou de taps de transformadores ou
ainda, em casos extremos, adoção de corte de carga) ocorre o que se conhece como uma
situação de colapso de tensão, na qual as magnitudes das tensões das barras de carga se
estabilizam num nı́vel excepcionalmente baixo [19].
120 Capı́tulo 6: Tópicos em Otimização Paramétrica

Em geral, sistemas fı́sicos que possuam parâmetros variáveis com o tempo, não de-
vem ser operados na vizinhança de pontos (x,ϵ) onde o jacobiano da função homotopia,
∇x HO(x,ϵ), é singular sob pena de ocorrerem variações bruscas no ponto de operação
para um incremento em ϵ ocorrido na vizinhança do ponto de singularidade (isto é, para
um incremento infinitesimal em ϵ, ocorre uma variação não linear em x).
A solução de problemas paramétricos de otimização pode ser especialmente complicada
se existem restrições de desigualdade no modelo. Para esses problemas, o comportamento
do conjunto de soluções factı́veis é particularmente importante, uma vez que podem ocor-
rer situações onde uma pequena variação em ϵ produz um colapso (uma descontinuidade)
deste conjunto, interrompendo assim o acompanhamento da solução.

6.4 Problemas Paramétricos de Otimização


De forma geral, otimização paramétrica procura caracterizar as variáveis de decisão ótimas
para um intervalo de variação dos parâmetros existentes no problema. Serão estudados
aqui problemas de otimização com um único parâmetro ϵ que pode pertencer à função
objetivo ou às restrições do problema. Isso significa que variações simultâneas e indepen-
dentes nos parâmetros não serão consideradas.
Seja o problema P(ϵ)
min f ( x , ϵ )
x

sujeito a
gk ( x , ϵ ) = 0 , k ∈ K (6.27)
hl ( x , ϵ ) ≤ 0 , l ∈ L (6.28)
onde x ∈ Rn , 0 ≤ ϵ ≤ 1, K = {1, ..., m}, m < n, L = {1, ..., p}.
Supõe-se que as funções f, gk e hl sejam uma ou mais vezes continuamente dife-
renciáveis.
Em P(ϵ), para cada ϵ (Figura 6.2):

x ϵ) é a solução ótima do problema;
S(ϵ)= {x ∈ Rn |gk(x, ϵ) = 0, k ∈ K, hl (x, ϵ) ≤ 0, l ∈ L} é o conjunto factı́vel de P(ϵ);
S∗ (ϵ)= {x∗ (ϵ)} é o conjunto de soluções ótimas;
f∗ (ϵ)= f (x∗ (ϵ),ϵ) é a curva de custo ótimo.

* * *
! x (!), S(!), S (!), f (!)
P(!)

Figura 6.2: Modelo Parametrizado

Note que S(ϵ) e S∗ (ϵ) são mapeamentos de um ponto, ϵ, a conjuntos, enquanto x∗ (ϵ)

e f (ϵ) são funções.
O método de resolução de P(ϵ) empregado aqui será o método da continuação. Sendo
assim, deve-se assegurar que pequenas variações em ϵ não causem mudanças bruscas em
UFSC / EEL - Labspot - R. S. Salgado 121

S(ϵ) e S∗ (ϵ). Além disso deve-se garantir um bom comportamento das trajetórias formadas
pela função homotopia associada a P(ϵ).

6.4.1 Estabilidade Estrutural


Estudo sobre a estrutura dos mapeamentos ponto-conjunto S(ϵ) e S∗ (ϵ).

Propriedades dos Mapeamentos Ponto-Conjunto


Definição 1 : Um mapeamento ponto-conjunto Γ : Rq →Rn é chamado fechado em ϵ∗
∈ Rq se, dada qualquer sequência ϵi → ϵ∗ e xi ∈ Γ(ϵi ), xi → x∗ , tem-se que x∗ ∈ Γ(ϵ∗ )

i
! "#! )
i

i
x

* *
! "#! )
*
x
* *
x $%"(! )?
SIM: mapeamento fechado

Figura 6.3: Mapeamento fechado.

Teorema 3 : Se todas as restrições de P(ϵ) forem contı́nuas, então o mapeamento M é


fechado em todo ϵ∗ ∈ Rq .
Definição 2 : Um mapeamento ponto-conjunto Γ: Rq → Rn é aberto em ϵ∗ ∈ Rq se,
dada qualquer seqüência ϵi → ϵ∗ e algum x∗ ∈ Γ(ϵ∗ ), existe uma seqüência xi ∈ Γ(ϵi ) tal
que xi → x∗ .

Definição 3 : Um mapeamento ponto-conjunto Γ: Rq → Rn é contı́nuo em ϵ∗ se é


fechado e aberto em ϵ∗ .
Contra-exemplo: M(ϵ) = { x ∈ R| ϵ.x = 0}

Definição 4 : Um mapeamento ponto-conjunto Γ:Rq → Rn é chamado semicontı́nuo


inferior em ϵ∗ se, dado qualquer conjunto aberto, A, tal que A ∩ Γ(ϵ∗ ) ̸= ∅, existe uma
vizinhança N(ϵ∗ ) em torno de ϵ∗ tal que A ∩ Γ(ϵ) ̸= ∅, ∀ ϵ ∈ N(ϵ∗ ).

Teorema 4 : Um mapeamento ponto-conjunto Γ:Rq → Rn é aberto em ϵ∗ se e somente


se Γ é semicontı́nuo inferior em ϵ∗ .

Observação 2 : Nos exemplos usados aquı́ as funções de restrição são sempre contı́nuas,
portanto M(ϵ) é sempre fechado. Desta forma M(ϵ) será contı́nuo se e somente se é aberto
ou semicontı́nuo inferior.
122 Capı́tulo 6: Tópicos em Otimização Paramétrica

i
! "#! )
i

i
x

* *
! "#! )
*
x
i i i *
Existe x $%"(! ) | x ! x ?
SIM: mapeamento aberto.

Figura 6.4: Mapeamento aberto.


x

) (
!

M(!) = { R, se ! = 0
0, se !%& 0

Figura 6.5: Contra-exemplo

Estabilidade Estrutural

Definição 5 : Um problema P(ϵ) é dito estável em ϵ∗ se f(x, ϵ) é uma função realista


em ϵ∗ (isto é, f(x,ϵ∗ ) existe e é limitado) e se o mapeamento S(ϵ) é semicontı́nuo inferior
em ϵ∗ (o que equivale a S(ϵ) aberto).
Quando P(ϵ) é estável em ϵ∗ , pode-se afirmar que um novo problema, definido para
uma pequena variação em ϵ, está próximo a P(ϵ∗ ) (isto é, P(ϵ∗ ) é equivalente à todos os
problemas definidos por pequenas variações em ϵ). Desta forma, um método numérico é
capaz de encontrar facilmente a solução ótima do novo problema. Como conseqüência,
mesmo que o problema inicial (para o qual se tem uma solução) esteja distante do pro-
blema que se quer resolver, é possı́vel se chegar ao ótimo do problema original, definido
para ϵ=1. Essa é a suposição básica do método de continuação. Infelizmente, para pro-
blemas não convexos, como o Fluxo de Carga Ótimo (FCO), nem sempre a estabilidade
é garantida para todo 0≤ϵ≤1. Quando há perda de estabilidade, o processo de resolução
falha. Mais importante, a perda de estabilidade indica que o novo ótimo está distante
da solução encontrada antes que a estabilidade fosse perdida. Isso, em termos práticos
significa que deverá haver uma mudança considerável no ponto de operação do sistema
UFSC / EEL - Labspot - R. S. Salgado 123

para se manter otimalidade ou mesmo factibilidade.

Ex. 6.3 : Modelo não estável em ϵ=0:

Minx f x
s.t.
ϵx = 0
−10 ≤ x ≤ 10 (6.29)

Em (30), para ϵ=0, x∗ =-10 e para ϵ̸= 0, x∗ =0. Quando ϵ→ϵ∗ =0, existe uma variação
brusca (uma descontinuidade) em x∗ .
Embora o exemplo acima represente uma situação incomum, a perda de estabilidade
estrutural também pode acontecer em problemas práticos de otimização. Analisando as
situações de perda de estabilidade em termos do que ocorre no conjunto factı́vel S(ϵ),
pode-se fazer uma interpretação geométrica do problema (Figura 6.6):
0 1 0
!=! ! = ! =! +'!

x2 * 0 x2 * 1
x (! ) x (! )

x1 x1

Conjunto Factível

Figura 6.6: Perda de estabilidade estrutural

Na Figura 6.6, à medida que ϵ se aproxima de ϵ1 , a parte superior do conjunto factı́vel


se reduz e eventualmente deixa de existir. Numa situação como esta, se a solução ótima
do problema se encontrava nessa porção do conjunto ativo, para se encontrar um novo
ótimo quando ϵ>ϵ1 , é preciso uma mudança para a parte inferior do conjunto factı́vel, o
que não pode ser feito facilmente através de métodos numéricos de otimização. Note que
essa mudança abrupta do ótimo se deve a uma descontinuidade no conjunto ativo.
Para o problema de Fluxo de Potência Ótimo, a perda de factibilidade está normal-
mente relacionada à insuficiência de reativos em porções da rede ou a limites nas linhas
de transmissão. Embora não existam ainda maneiras de se resolver o problema (isto é,
maneiras de se encontrar outras possı́veis soluções para o FCO quando, para uma variação
nos parâmetros do modelo, não se encontra soluções factı́veis na vizinhança), a própria
caracterização do problema é importante pois mostra com clareza os tipos de “gargalos”
existentes no sistema de geração/transmissão de energia.
124 Capı́tulo 6: Tópicos em Otimização Paramétrica

6.4.2 Condições de Otimalidade de Problemas Paramétricos


As condições de otimalidade para o problema P(ϵ) são as mesmas que existem para pro-
blemas gerais de otimização, com a diferença que agora elas são definidas para um ϵ
especificado. A complicação que passa a existir em problemas parametrizados é que a
estrutura de S(ϵ) muda com o parâmetro e pode ser que esse conjunto perca algumas
propriedades gerais necessárias para a validade das condições de otimalidade adotadas
em problemas de otimização. Portanto, condições de regularidade de S(ϵ) precisam ser
impostas.
Para se caracterizar a otimalidade de um ponto x∗ (ϵ), seja

L0 ( x , ϵ ) = l ∈ L | hl ( x , ϵ ) = 0 (6.30)
o conjunto de restrições de desigualdade ativas.
A caracterização da otimalidade de x∗ é feita através das condições de Karush-Kuhn-
Tucker (condições necessárias de 1a ordem) e pelas condições suficientes de 2a ordem. Tais
condições são válidas somente se x∗ (ϵ) é um ponto regular do conjunto ativo.

Definição 6 Um ponto x∗ ∈ S(ϵ) é um ponto regular do conjunto ativo em ϵ∗ se em


(x∗ ,ϵ∗ ) os gradientes das restrições de igualdade,

∇x gk ( x∗ , ϵ∗ ) , k ∈ K

e das restrições ativas de desigualdade,

∇x hl ( x∗ , ϵ∗ ) , l ∈ L0

são linearmente independentes. Isso significa que o Jacobiano das restrições ativas,
* +
∇x g ( x , ϵ )
J (x, ϵ) = (6.31)
∇x hL0 ( x , ϵ )

possui rank completo em (x∗ ,ϵ∗ ).

Condições de Otimalidade de Primeira Ordem (Karush-Kuhn-Tucker) e de


Segunda Ordem
Seja x∗ um ponto regular do conjunto ativo em ϵ∗ . O Lagrangeano de P(ϵ) é definido:

, ,
L(x, λ, π, ϵ) = f (x, ϵ) + λk g k ( x , ϵ ) + πl hl ( x , ϵ ) (6.32)
k∈K l ∈ L0

O ponto x∗ é uma solução ótima local de P(ϵ∗ ):


(i) Somente se as condições de Karush-Kuhn-Tucker são satisfeitas em (x∗ ,ϵ∗ ):
, ,
∇x f ( x , ϵ ) + λ k ∇x g k ( x , ϵ ) + πl ∇x hl ( x , ϵ ) = 0 (6.33)
k∈K l ∈ L0

gk ( x , ϵ ) = 0 , k ∈ K (6.34)
UFSC / EEL - Labspot - R. S. Salgado 125

hl ( x , ϵ ) = 0 , l ∈ L0 (6.35)

hl ( x , ϵ ) < 0 , l ∈
/ L0 (6.36)

∀ λk , k ∈ K , e πl ≥ 0 , l ∈ L0 (6.37)
(ii) se, em (x∗ ,ϵ), a Hessiana do Lagrangeano,

, ,
H ( z , ϵ ) = ∇2x f ( x , ϵ ) + ∇2x gk ( x , ϵ ) + πl ∇2x hl ( x , ϵ ) (6.38)
k∈K l ∈ L0

onde z = [xT , λT , π L0 T ]T , é positiva definida em

T+ = ξ | ∇Tx gk ( x , ϵ ) ξ = 0 k ∈ K, ∇Tx hl ( x , ϵ ) ξ = 0 , l ∈ L+ ( x , ϵ ) (6.39)

onde

L+ ( x , ϵ ) = l ∈ L0 ( x , ϵ ) | πl > 0 (6.40)
A solução ótima de P(ϵ) deve sempre satisfazer as condições (34)-(38) acima. O oposto
nem sempre é válido: as soluções de (34)-(38) devem também satisfazer as condições su-
ficientes de segunda ordem para serem ótimas. De qualquer forma, para se estudar o
comportamento das soluções ótimas de P(ϵ) sob variações em ϵ, pode-se acompanhar as
soluções do sistema (34)-(38), testando essas soluções para otimalidade. Essa é a idéia
básica dos métodos de continuação para problemas de otimização.

Em geral, a resolução das condições de Karush-Kuhn-Tucker não pode ser feita ana-
liticamente, necessitando métodos numéricos para sua resolução. Portanto, a solução de
problemas de otimização pelo método da continuação depende da continuidade das tra-
jetórias descritas pelas soluções das condições de Karush-Kuhn-Tucker no intervalo de
variação de ϵ de interesse.

6.5 O Método da Continuação Aplicado a Problemas


Paramétricos
As condições (34)-(38) asseguram que o ponto (x∗ ,ϵ∗ ) é um ótimo local de P(ϵ). Entre-
tanto, a medida que ϵ varia, não há garantia que essas condições sejam satisfeitas. A
resolução de P(ϵ) através do método de continuação exige que o caminho x∗ (ϵ) seja ótimo
para todo 0≤ϵ≤1 ou, ao menos, na vizinhança de ϵ=1. Além disso, para que essa tra-
jetória possa ser acompanhada por um método numérico, é preciso que ela seja também
contı́nua e diferenciável para todo intervalo 0≤ϵ≤1 ou pelo menos em sub-intervalos 0≤
126 Capı́tulo 6: Tópicos em Otimização Paramétrica

ϵ1 ≤ ϵ2 ≤ ...≤1. As condições que garantem a existência de um caminho “bom” quando


há uma variação em ϵ são discutidas na Seção 6.

O método da continuação utiliza as condições de Karush-Kuhn-Tucker como função


homotopia que conecta o problema relaxado ao problema de otimização original. Este
método é constituı́do por um algoritmo preditor seguido de um algoritmo corretor. A
partir do problema relaxado, no preditor é feito um incremento no parâmetro ϵ, o que
leva a erros nas condições de Karush-Kuhn-Tucker. Em seguida, o corretor é usado para
se obter um novo ponto solução das condições de otimalidade para o novo valor de ϵ. As
possı́veis variações do método da continuação são conseqüência dos diferentes mecanismos
para se implementar o preditor e o corretor.
A idéia básica do algoritmo da continuação aplicado a problemas de otimização pode
ser resumida em 3 passos principais:
A-Para ϵ=0, relaxar P(ϵ) de forma a encontrar uma solução ótima inicial (x0 ,λ0 ,π 0 ).
B-Para 0<ϵ≤1 montar as condições de Karush-Kuhn-Tucker (34)-(38) em função de ϵ
e resolvê-las para incrementos em ϵ, ∆ϵ, até que ϵ=1.
C-Para cada ϵ, testar se as soluções de Karush-Kuhn-Tucker satisfazem as condições
suficientes de otimalidade.

6.5.1 Metodologia Baseada em Conjunto Ativo


As condições de Karush-Kuhn-Tucker para um problema de otimização com restrições de
igualdade e desigualdade dependem da definição de um conjunto ativo, L0 , e para uma va-
riação em ϵ, L0 pode também pode se alterar. Sendo assim, o passo B depende da adoção
de uma metodologia para a definição de L0 . Esta metodologia será discutida posterior-
mente. Por hora nos concentraremos na resolução do sistema formado pelas equações
(34)-(38), supondo L0 conhecido e as condições suficientes de otimalidade satisfeitas.
Fazendo z= [ xT , λT , π L0 T ] T , em um ponto (z∗ , ϵ ∗ ) candidato a ótimo, as equações
(34)-(36) podem ser rescritas como o sistema:

ρ( z∗ , ϵ∗ ) = 0 (6.41)

Quer-se calcular o incremento em z∗ , ∆z, causado por um incremento em ϵ∗ , ∆ϵ, para


que

ρ( z∗ + ∆ z , ϵ∗ + ∆ ϵ ) = 0 (6.42)
Fazendo-se uma aproximação de (42) vem

* +
∗ ∗ ∗ ∗
( ∂ρ ∂ρ
) ∆z
ρ(z + ∆z, ϵ + ∆ϵ ) = ρ(z , ϵ ) + ( z∗ ∗
,ϵ )| ( z∗ ∗
,ϵ ) (6.43)
∂z ∂ϵ ∆ϵ

Portanto,
* +−1
∂ρ ∗ ∗ ∂ρ ∗ ∗
∆z = − (z , ϵ ) ( z , ϵ ) ∆ϵ (6.44)
∂z ∂ϵ
UFSC / EEL - Labspot - R. S. Salgado 127

Mas,
⎡ ∂2 L ∂2 L ∂2 L

∂ x2 ∂ x∂ λ ∂ x ∂ πL0
∂ρ ⎢ ∂2 L ∂2 L ∂2 L ⎥
(z, ϵ) = ⎢
⎣ ∂ λ∂ x ∂ λ2 ∂ λ ∂ πL0

⎦ (6.45)
∂z ∂2 L ∂2 L ∂2 L
∂ πL0 ∂ x ∂ πL0 ∂ λ ∂ πL2
0

onde

∂2 L , ,
2 2
2
= H (z, ϵ) = ∇ x f (x, ϵ) + ∇ x g k (x, ϵ) + πl ∇2x hl (x, ϵ) (6.46)
∂x
k∈K l ∈ L0

∂2L
= ∇Tx g ( x , ϵ ) (6.47)
∂ x∂λ
∂2L
= ∇x g ( x , ϵ ) (6.48)
∂ λ∂x
∂2L
= ∇Tx hL0 ( x , ϵ ) (6.49)
∂ x ∂ πL0
∂2L
= ∇x hL0 ( x , ϵ ) (6.50)
∂ x ∂ πL0
e onde todos os outros elementos são iguais a zero.
Fazendo
∂ρ
= W ( x , λ , πL0 , ϵ ) (6.51)
∂z
e lembrando que

⎡ 1 2 ⎤
⎡ ⎤ , ,
∂L ∂
∂x ⎢ ∇x f (x, ϵ) + λk ∇x gk (x, ϵ) + πl ∇x hl (x, ϵ) ⎥
∂ρ ∂ ⎣ ∂L ⎦=⎢
∂ϵ

(zϵ) = ∂λ ⎢ k∈K l∈L0 ⎥ ∆ϵ
∂ϵ ∂ϵ ∂L ⎣ ∂
[ g( x, ϵ) ] ⎦
∂ πL0 ∂ϵ

∂ϵ
[ hL0 (x, ϵ) ]
(6.52)
a equação 6.44 pode ser re-escrita como

⎡ ⎤ ⎡ ∂

∆x ∂ϵ
[∇x L (x∗ , λ∗ , πL0 ∗ , ϵ∗ ) ]
⎣ ∆λ ⎦ = − [ W ( x∗ , λ∗ , πL0 ∗ , ϵ∗ ) ]−1 ⎣ ∂
[ ∇λ L (x∗ , λ∗ , πL0 ∗ , ϵ∗ ) ]) ⎦ ∆ϵ (6.53)
∂ ϵ(

∆πL0 ∂ϵ
∇πL0 L (x∗ , λ∗ , πL∗ 0 , ϵ∗ )
A correção em z∗ calculada por (53) leva a um erro no sistema (42). Portanto, para
um incremento ∆ϵ, partindo de k=0, com x0 = x∗ , λ0 = λ∗ e π Lo 0 = π Lo ∗ , calcula-se

⎡ ⎤ ⎡ ∂

∆xi ( ) ∂ϵ
[ ∇x L (xi , λi , πL0 i , ϵ∗ )]
⎣ ∆λi ⎦ = − W (xi , λi , πL0 i , ϵ∗ ) −1 ⎣ ∂
[ ∇λ L (xi , λi , πL0 i , ϵ∗ )] ⎦ ∆ϵ (6.54)
∂ϵ

∆πLi 0 ∂ϵ
[ ∇πL0 L (xi , λi , πLi 0 , ϵ∗ )]
128 Capı́tulo 6: Tópicos em Otimização Paramétrica

e faz-se xi+1 = xi + ∆xi , λi+1 = λi + ∆λi , π Lo i+1 = π Lo i + ∆π Lo i até que o erro em


ρ(z∗ + ∆z, ϵ∗ + ∆ϵ) seja menor do que uma tolerância pré-especificada.
Tem-se portanto, para cada incremento em ϵ, um mecanismo de correção pelo método
de Newton.
Como durante o processo iterativo, as condições (37) e (38) não são verificadas, após o
algoritmo de Newton ter convergido, é necessária a verificação das restrições de desigual-
dade que não fazem parte de L0 e do sinal dos multiplicadores de Lagrange, π L0 . Caso
ocorra violação em um ou mais limites, deve-se atualizar o conjunto ativo L0 e retornar ao
processo de Newton sem que se faça novo incremento em ϵ. Dependendo do problema que
está sendo resolvido, pode-se optar por fazer alterações múltiplas em L0 num mesmo ϵ, ou
decrementar ϵ até que apenasuma violação nos limites seja observada; procedendo então
a uma alteração simples em L0 . Embora a última metodologia leve a um maior tempo
computacional, em alguns casos, ela é mais robusta pois pode acontecer que algumas das
violações observadas para um determinado incremento no parâmetro, não ocorram caso
apenas uma das violações seja corrigida. Para se fazer o incremento em ϵ pode-se usar
mecanismos de busca unidimensional tais como busca binária ou predição linear. Cada
uma destas metodologias é discutida a seguir.

Busca Binária
No caso da busca binária, estipula-se um incremento especı́fico em ϵ, ∆ϵesp , e caso este
incremento leve a multiplas violações, obtém-se um novo ϵ, menor do que aquele obtido
pelo incremento ∆ϵesp , através de subdivisões do intervalo ∆ϵesp , até que somente uma
violação ocorra. Incrementa-se ϵ até o valor que leva a somente uma violação e resolve-se
novamente o sistema (54). Tomando o exemplo da Figura 6.7:

ϵ1 = ϵ∗ + ∆ ϵesp → múltiplas violação

ϵ − ϵ∗
ϵ2 = ϵ∗ + → nenhuma violação
2

3 2 ϵ1 − ϵ2
ϵ = ϵ + → 1 violação
2

∴ ϵ∗ = ϵ3 . (6.55)

Predição Linear
A predição linear usa aproximações lineares das trajetórias ótimas y(ϵ) para descobrir
opróximo valor do parâmetro onde ocorrerá violações nos limites não ativos ou nos mul-
tiplicadores de Lagrange. A equação (45) pode ser rescrita como
⎡ ⎤ ⎡ ⎤
∆x r
⎣ ∆ λ ⎦ = − ⎣ s ⎦ ∆ϵ
∆ πL0 t
UFSC / EEL - Labspot - R. S. Salgado 129

x
max
x
1
x
2
x
(
! !
) *
!
+ !
!

Figura 6.7: Busca binária.

onde
⎡ ⎤
r * +−1
⎣ s ⎦ = ∂ ρ ∗ ∗ ∂ρ ∗ ∗
(z , ϵ ) (z , ϵ ) (6.56)
∂z ∂ϵ
t
Portanto, para um incremento ∆ϵ, os novos multiplicadores de Lagrange podem ser
aproximados por

πL0 = πL0 ∗ + t ∆ϵ (6.57)


Como seus valores corrigidos devem ser maiores ou iguais a zero, o incremento em ϵ que
garante que no máximo ocorra uma violação nos sinais de π l , l ∈ L0 , é dado por
πl
∆ϵπ = min − , tl < 0 , l ∈ L0 (6.58)
tl
Por outro lado, para um incremento ∆ϵ, as restrições de desigualdade não ativas, hl ,
l̸∈ L0 , podem ser aproximadas por

( ) dx
hl ( x∗ + ∆x , ϵ∗ + ∆ϵ ) = hl ( x∗ , ϵ∗ ) + ∇x T hl ( x∗ , ϵ∗ ) ∆ϵ , l ∈
/ L0 (6.59)

Uma vez que estas desigualdades devem ser menores do que zero, os incrementos em
ϵ serão dados por
- D
hl (x∗ , ϵ∗ )
∆ϵh = min − , vl > 0 , l ∈
/ L0 (6.60)
vl
onde
( ) dx
vl = ∇x T hl ( x∗ , ϵ∗ ) (6.61)

com dx/dϵ igual ao vetor r calculado na equação (57).
Desta forma, o incremento em ϵ∗ , ∆ϵ∗ , que levará a apenas uma violação nas desigual-
dades (37) e (38) das condições de Karush-Kuhn-Tucker será

∆ϵ∗ = min { ∆ϵπ , ∆ϵh } (6.62)


130 Capı́tulo 6: Tópicos em Otimização Paramétrica

No caso de ocorrerem multiplas violações em ϵ∗ + ∆ϵ∗ , uma nova predição linear é feita
neste ponto para que se decremente ϵ.
Os dois mecanismos de busca unidimensional podem ser também usados em conjunto.
Por exemplo, pode-se adotar uma predição linear para se incrementar ϵ e uma busca
binária para se fazer o decremento, caso ocorram múltiplas violações.

Algoritmo - Metodologia Baseada em Conjunto Ativo


Passo 1:
Para k= 0, ϵk = 0 e i= 0, obtenha a solução ótima (xk , λk , π Lo k = 0) para o problema
relaxado. Faça ϵk+1 = ϵk + ∆ϵk (por busca binária ou predição linear) e vá ao Passo 2 .
Passo 2:
Para i= 0, faça (xi , λi , π i ) = (xk , λk , π Lo k ), enquanto ∥ρ(zi , ϵ)∥∞ > tolerância, monte
e resolva o sistema (54), faça xi+1 = xi + ∆xi , λi+1= λi + ∆λi , π Lo i+1 = π L0 i + ∆π L0 i
e i=i+1. Quando ∥ρ(zi , ϵ)∥∞ ≤ tolerância, faça xk+1 = xi , λk+1 = λi , π Lo k+1 = π L0 i e vá
para o Passo 3 .

Passo 3 : Cheque se:


Existe hp ( xk+1 ,ϵk+1 ) > 0, p ̸∈ L0 k+1
Existe π k+1
q < 0, q ∈ Lk+1
0
Caso 1: Existe um único hp ( xk+1 ,ϵk+1 ) > 0, p ̸∈ L0 k+1 .
Faça Lk+1
0 = Lk+1
0 ∪ {p}, faça i= 0, xi = xk , λi = λk , π Lo i = π L0 k e retorne ao Passo 2 .

Caso 2: Existe um único π q k+1 < 0, q ∈ L0 k+1 .

Faça L0 k+1 = L0 k+1 \ {q}, faça i= 0, xi = xk , λi = λk , π Lo i = π L0 k e retorne ao Passo


2.
Caso 3: Vários hp ( xk+1 ,ϵk+1 ) > 0, p ̸∈ Lk+1 0 e/ou π k+1
q < 0, q ∈ Lk+1
0 .
Reduza ϵk+1 (pela busca binária ou predição linear), faça i= 0, xi = xk , λi = λk , π Lo i
= π L0 k e retorne ao Passo 2 .
Caso 4: Não ocorrem violações, faça k=k+1.
Se ϵ<1, faça ϵk+1 = ϵk + ∆ϵk , com ∆ϵk calculado pela busca binária, ou por predição
linea, e retorne ao Passo 2 .
Se ϵ=1, FIM: (xk , λk , π L0 k ) é a solução de P(ϵ=1).

Observação 3 : Uma solução ótima para ϵ=0 pode ser obtida através de uma relaxação
conveniente de P(ϵ) [20] ou por um método de otimização apropriado para resolver pro-
blemas com restrições de igualdade.

Observação 4 : Num mesmo ϵk , após uma violação ter sido corrigida, podem ocorrer
novas violações. Neste caso, deve-se recuperar a última solução convergida sem violações
(juntamente com o conjunto ativo a ela associado), decrementar ϵ e retornar ao Passo 2.

6.5.2 Metodologia Baseada em Pontos Interiores


Algoritmos de pontos interiores proporcionam uma forma alternativa de se implementar o
método da continuação. Neste caso, o problema original P(ϵ) é modificado introduzindo-se
UFSC / EEL - Labspot - R. S. Salgado 131

variáveis de folga às restrições de desigualdade, transformando tais restrições em igualda-


des. O problema paramétrico modificado P(µ,ϵ) pode ser escrito como:

p
,
Min f ( x , ϵ ) − µ ln(sl )
l =1
x (6.63)

sujeito a

gk ( x , ϵ ) = 0 , k ∈ K (6.64)
hl ( x , ϵ ) + sl = 0 , l ∈ L (6.65)

onde x ∈ Rn , s ∈ Rp , 0 ≤ ϵ ≤ 1, µ ≥ 0, K = {1, ..., m}, m < n , L = {1, ..., p}.

Pode-se observar que o problema modificado possui dois parâmetros (ϵ e µ). A in-
trodução do parâmetro µ modifica o problema original de forma que quando µ→0 ( a
medida que o algoritmo de pontos interiores progride) retorna-se ao problema original
P(ϵ). Esta modificação realizada no problema P(ϵ) é, na realidade, um tipo especial de
parametrização e o algoritmo de pontos interiores, por sua vez, pode ser entendido como
um método paramétrico.

O esquema de acompanhamento das soluções de P(µ,ϵ) para variações em ϵ pode ser-


realizado também com o auxı́lio das condições necessárias de otimalidade para o problema
modificado. Da mesma forma que foi feito na metodologia baseada no conjunto ativo, o
método da continuação, neste caso, pode ser decomposto também em um passo predi-
tor onde, para um incremento em ϵ, uma aproximação linear é feita para as condições
necessárias de otimalidade, e um passo corretor, onde o ponto predito pela linearização
é corrigido para satisfazer as condições necessárias de otimalidade para o novo valor de
ϵ.. A diferença entre a metodologia baseada em conjunto ativo e a baseada em pontos
interiores está nas condições necessárias de otimalidade usadas em cada caso.

Seja x∗ um ponto regular do conjunto ativo em ϵ∗ . O Lagrangeano de P(µ,ϵ) é definido:

, , ,
L(x, s, λ, π, ϵ) = f (x, ϵ) − µ ln(sl ) + λk g k ( x , ϵ ) + πl hl ( x , ϵ )
l∈L k∈K l∈L
(6.66)
∗ ∗ ∗
O ponto (x ,s ) é uma solução ótima local de P(ϵ ):
(i) Somente se as condições de Karush-Kuhn-Tucker são satisfeitas em (x∗ ,s∗ ,ϵ∗ ) para
∀ λ, π≥0 e s ≥0:
, ,
∇x f ( x , ϵ ) + λ k ∇x g k ( x , ϵ ) + πl ∇x hl ( x , ϵ ) = 0 (6.67)
k∈K l ∈ L0
132 Capı́tulo 6: Tópicos em Otimização Paramétrica

µ
− + πl = 0 → −µ + sl πl = 0, l ∈ L (6.68)
sl

gk ( x , ϵ ) = 0 , k ∈ K (6.69)

hl ( x , ϵ ) + sl = 0 , l ∈ L (6.70)
(ii) se a hessiana do Lagrangeano for positiva definida no espaço nulo do jacobiano
das restrições.
Mais uma vez, as condições necessárias de otimalidade podem ser usadas como uma
função homotopia que conecta os problemas de otimização definidos para diferentes valores
de ϵ. Um algoritmo do tipo preditor-corretor pode então ser formulado.
Seja w=[xT ,sT ,λT ,π T ]T um ponto que satisfaz às condições de otimalidade. O sistema
de equações (68)-(71) pode ser denotado τ (w,ϵ). A metodologia consiste no acompa-
nhamento de τ (w,ϵ) para s > 0 e π ≥0, nos intervalos de variação de ϵ para os quais
os candidatos à solução são pontos regulares. Seja wk um ótimo em ϵk . Se um incre-
mento, ∆ϵk é dado a ϵk uma predição da solução de τ (w, ϵk +∆ϵk ), (wp , ϵp ), pode ser
obtida tomando-se um passo de tamanho apropriado na direção do vetor tangente de τ (.).
Tomando-se uma proximação linear de τ (.) em (wk , ϵk ) temos:

* +
p p k k
( ∂τ ∂τ
) ∆ wk
τ (w , ϵ ) = τ (w , ϵ ) + ( wk k
,ϵ )| ( wk k
,ϵ ) = 0 (6.71)
∂w ∂ϵ ∆ ϵk

Em (72), (wk , ϵk ) satisfaz às condições necessárias para ótimo, portanto a equação
acima implica que
* +−1
k ∂τ ∂τ
∆w = − ( wk , ϵk ) ( wk , ϵk ) ∆ϵk (6.72)
∂w ∂ϵ
Uma vez que τ (w,ϵ) deve ser resolvido para s> 0 e π≥ 0, passos de tamanhos apro-
priados, αp e αd , devem ser adotados na correção das variáveis primais e duais, respecti-
vamente:
- D
sj
αp = min min , 1 (6.73)
∆ s j < 0 | ∆ sj |

- D
πj
αd = min min , 1 (6.74)
∆ πj < 0 | ∆ πj |

Portanto, o ponto predito será dado por


* p + * k + * +
x x ∆xk
= + σ αp (6.75)
sp sk ∆sk
* p + * k + * +
λ λ ∆λk
= + σ αd (6.76)
πp πk ∆π k
UFSC / EEL - Labspot - R. S. Salgado 133

onde σ é usado para assegurar um ponto predito interior ao conjunto de restrições de


desigualdade.
O ponto predito é uma solução aproximada, portanto τ (wp ,ϵp )̸= 0. A solução de τ (.)
para ϵp pode ser obtida resolvendo-se τ (.) iterativamente, tomando (wp ,ϵp ) como solução
inicial. O ponto predito é interior ao conjunto de restrições de desigualdade de P(µ,ϵp ) e
pode ser usado como estimativa inicial de um método de pontos interiores para se obter
o novo ótimo.
O passo corretor é realizado pelo método de pontos interiores. Sendo i o contador de
iterações, dado µi >0, em i=0, seja wi = wp . O novo ponto, wi+1 = wi + ∆wi deve ser
obtido de forma que

* +
i+1 p i p
( ∂τ ∂τ
) ∆ wi
τ (w , ϵ ) = τ (w , ϵ ) + ( wi p
,ϵ )| ( wi ,ϵ )p
= 0 (6.77)
∂w ∂ϵ 0

supondo que não ocorra mudança no valor de ϵ.


De (78) temos então que o incremento em wi será obtido resolvendo-se
* +−1
i ∂τ
∆w = − ( wi , ϵp ) τ ( wi , ϵp ) (6.78)
∂w
As condições π≥0 e s ≥0 devem ser respeitadas e a nova estimativa de solução deve
ser um ponto interior ao conjunto factı́vel, portanto a atualização das variáveis é feita de
acordo com:
* i+1 + * i + * +
x x ∆xi
= + σ αp (6.79)
si+1 si ∆si
* i+1 + * i + * +
λ λ ∆λi
= + σ αd (6.80)
π i+1 πi ∆π i
onde σ ≈0.9995 (arbitrário),
- D
sj
αp = min min , 1 (6.81)
∆ sj < 0 | ∆ sj |
e
- D
πj
αd = min min , 1 (6.82)
∆ πj < 0 | ∆ πj |
A cada iteração, o parâmetro barreira µ deve ser atualizado de acordo com

( π i )T si
µi+1 = (6.83)
2 β nI
onde β é um fator de velocidade de decréscimo da barreira (arbitrário) e nI é o número
de restrições de desigualdade.
Os valores de w são atualizados até que ∥τ (w i ,ϵp )∥∞ seja menor do que uma tolerância.
No sistema (79):
134 Capı́tulo 6: Tópicos em Otimização Paramétrica

⎡ ⎤ ⎡ ⎤
∂2 L ∂2 L ∂2 L ∂2 L ∂2 L ∂T g ∂T h
∂ x2 ∂ x2 ∂ s ∂ x2 ∂ λ ∂ x2 ∂ π ∂ x2
0 ∂x ∂x
∂τ ⎢ ∂2 L ∂ L ∂ L ∂ L ⎥ ⎢ ⎥
⎢ ⎥ 0 Π 0 S
(w, ϵ) = ⎢ ∂ s2∂ x
∂ L
∂ s2
∂2 L
∂ s2∂ λ
∂ L
∂ s2∂ π
∂ L ⎥ = ⎢
⎣ ∂g

⎦ (6.84)
∂w ⎣ ∂ λ∂ x ∂ λ∂s ∂ λ2 ∂ λ∂ π
⎦ ∂x
0 0 0
∂2 L ∂2 L ∂2 L ∂2 L ∂h
I 0 0
∂π∂x ∂π∂s ∂π∂λ ∂ π2 ∂x

onde Π = diag{πi }, S = diag{si }, i = 1, ..., p e I é a matriz identidade.

Algoritmo - Metodologia Baseada em Pontos Interiores


Passo 1 :
Faça k=0, ϵk =0, obtenha a solução ótima (xk , λk , π k ) para o problema relaxado pelo
método de pontos interiores.

Passo 2 :
Preditor. Faça ϵk+1 = ϵk + ∆ϵk , com ∆ϵk pré-especificado. Obtenha o ponto predito
(xp , λp , π p ) de acordo com (76) e (77) e vá para o Passo 3 .

Passo 3 :
Para i=0, faça (xi , λi , π i ) = (xp , λp , π p ), enquanto ∥τ (wi , ϵ)∥∞ > tolerância, resolva
o sistema (79), faça xi+1 = xi + σαp ∆xi , λi+1= λi + σαd ∆λi , π i+1 = π i + σαd ∆π i , com
αp e αp calculados em (82) e (83), atualize µ de acordo com (84) e faça i=i+1. Quando
∥τ (wi , ϵ)∥∞ ≤ tolerância, faça xk+1 = xi , λk+1 = λi , π k+1 = π i e vá para o Passo 4.

Passo 4 :
Faça k=k+1. Se ϵ<1 retorne ao Passo 2 . Se ϵ=1, FIM: (xk , λk , π k ) é a solução de
P(ϵ=1).

Observação 5 : O cálculo do ponto ótimo inicial pode ser feito por um algoritmo de
pontos interiores.

6.6 Pontos Crı́ticos


6.6.1 Metodologia do Conjunto Ativo
[21] A utilização de métodos de continuação, tanto na resolução de sistemas não lineares
quanto de problemas de otimização, depende das caracterı́sticas das trajetórias ligando
P(ϵ=0) a P(ϵ=1), formadas à medida que ϵ varia. Métodos numéricos exigem que tais
trajetórias tenham uma boa estrutura e, mais importante, que elas conectem o ponto
inicial, z(0), à solução final, z(1).
A medida que ϵ varia, as soluções ótimas dos problemas P(ϵ) formam um conjunto de
trajetórias ótimas que devem ser acompanhadas até ϵ=1. Suponha que em um dado valor
de ϵ, ϵ∗ , o ótimo seja x∗ , λ∗ , µL0 ∗ . Então, para todo ϵ na vizinhança de ϵ∗ , existe uma
solução ótima se:
(A) x(ϵ) é um ponto regular do conjunto ativo.
UFSC / EEL - Labspot - R. S. Salgado 135

(B) As restrições de desigualdade ativas permanecem ativas:

µl ( ϵ ) > 0 , l ∈ L0 (6.85)
(C) As restrições inativas não são violadas:

hl ( x ( ϵ ) , ϵ ) < 0 , l ∈
/ L0 (6.86)
(D) As condições suficientes de otimalidade são satisfeitas em todo ϵ na vizinhança de

ϵ.
Se (A)- (D) são satisfeitas, em toda a vizinhança de ϵ∗ as condições de Karush-Kuhn-
Tucker (6.33)-(6.37) são satisfeitas para um determinado conjunto ativo L0 e o Jacobiano
das equações presentes em (6.33)-(6.37),
* +
H ( z , ϵ ) JT ( x , ϵ )
W (z, ϵ) = (6.87)
J (x, ϵ) 0
é não singular. Portanto, pelo Teorema da Função Implı́cita existe uma trajetória
(uma função), z(ϵ), contı́nua e diferenciável na vizinhança de ϵ∗ . Isso implica que uma
pequena variação em ϵ leva a uma pequena alteração em x∗ , λ∗ e µ∗ L0 .
Uma vez que z(ϵ) é contı́nua e diferenciável, a solução ótima de P(ϵ) varia continua-
mente com o parâmetro. Isso é uma condição suficiente para se assegurar a estabilidade
estrutural do problema na vizinhança de ϵ∗ . Em termos práticos, as condições (A)-(D) são
uma indicação da robustêz do ótimo e garantem que, caso aconteçam pequenas variações
nos parâmetros do sistema, um novo ponto ótimo de operação poderá ser encontrado
próximo ao ótimo atual.
Embora (A)-(D) possam ser asseguradas para um determinado ϵ∗ , estas condições não
podem ser garantidas em todo o intervalo 0≤ϵ≤1. Pontos crı́ticos (ou pontos de singulari-
dade) podem ocorrer em z(ϵ) quando uma destas condições é violada. A ocorrência destes
pontos crı́ticos está vinculada à perda de otimalidade de z(ϵ) ou à perda de estabilidade
estrutural do problema. Tais pontos crı́ticos ocorrem também para o problema do Fluxo
de Carga Ótimo e o estudo destes pontos crı́ticos esclarece muitos casos sem solução do
problema.
Os pontos crı́ticos podem ser causados pela violação de uma das condições (A)-(D) que
garantem a continuidade e diferenciabilidade das trajetórias ótimas. São singularidades
que podem aparecer para determinada variação dos parâmetros existentes num modelo
matemático e que têm, para o problema do Fluxo de Carga Ótimo, uma importância
especial porque indicam pontos de operação ótima que são crı́ticos para um sistema de
geração/transmissão. Um resumo destes pontos crı́ticos é feito na Tabela 1.

6.6.2 Metodologia Baseada em Pontos Interiores


Na formulação baseada em algoritmos de Pontos Interiores, o acompanhamento da solução
ótima do problema de otimização para variações em ϵ depende da continuidade de τ (.) no
intervalo de variação de ϵ. A continuidade de τ (.) está condicionada à não singularidade
do jacobiano de τ (.) expresso em (85). A matriz ∂∂ wτ (w, ϵ) pode ser re-escrita como
136 Capı́tulo 6: Tópicos em Otimização Paramétrica

Tabela 6.1: Pontos Crı́ticos - Metodogia Baseada em Conjunto Ativo


Tipo Violação Conseqüência
Violação de (B): Quando ϵ
se aproxima de ϵ∗ , um
multiplicador de Lagrange Perda de Otimalidade: Assim que a restrição é
associado a restrição ativa relaxada, a projeção de H(z,ϵ) no espaço nulo de J(x,ϵ)
1 se torna zero. tem um autovalor negativo.
Violação de (D): Quando ϵ
se aproxima de ϵ∗ , um dos
autovalores da projeção de Perda de Otimalidade: Quando ϵ se aproxima de ϵ∗ ,
H(y,ϵ) no espaço nulo de W se torna mal condicionada. Para ϵ>ϵ∗ , x(ϵ) se torna
2 J(x,ϵ) se torna zero. uma trajetória de pontos de sela.
Perda de Factibilidade: Quando ϵ se aproxima de ϵ∗ ,
W se torna mal condicionada e os multiplicadores de
Lagrange tendem ao infinito. Caso ocorra um aumento
na função objetivo quando ϵ se aproxima de ϵ∗ , o
Violação de (A): Quando ϵ conjunto factı́vel se torna vazio na vizinhança de ϵ∗ ,
se aproxima de ϵ∗ , J(x,ϵ) para ϵ>ϵ∗ . Caso contrário, embora existam soluções
passa a apresentar posto factı́veis próximas a x(ϵ∗ ) a nova solução ótima não se
3 incompleto. localiza na vizinhaça de x(ϵ∗ ).
Perda de Factibilidade: Assim que a nova restrição é
introduzida no conjunto ativo J(x,ϵ) apresenta posto
incompleto. Caso uma restrição previamente fixada
possa ser relaxada, há uma descontinuidade nos
Violação de (C): Quando ϵ multiplicadores de Lagrange e um novo ótimo pode ser
se aproxima de ϵ∗ , uma encontrado para ϵ>ϵ∗ , na vizinhança de ϵ∗ . De outra
nova restrição de forma, o conjunto factı́vel se torna vazio na vizinhança
4 desigualdade se torna ativa. de ϵ∗ para ϵ>ϵ∗ .

* +
∂τ H′ (w, ϵ) JT1 (x, s, ϵ)
(w, ϵ) = W′ ( w, ϵ ) = (6.88)
∂w J(x, ϵ) 0
onde

* ∂2 f ∂ 2 ( λT g (x,ϵ)) ∂ 2 ( π T h (x,ϵ))
+
′ (x) + + , 0
H ( x, s, λ, π, ϵ ) = ∂ x2 ∂ x2 ∂ x2 (6.89)
0, Π

* ∂T g ∂T h
+ * ∂g
+
(x, ϵ) (x, ϵ) (x, ϵ) 0
JT1 (x, s, ϵ) = ∂x ∂x e J(x, ϵ) = ∂x
∂h (6.90)
0 S ∂x
(x, ϵ) 1

A matriz J1 T pode ser escrita como um produto de matrizes:


* + * ∂g
+T
1 0 (x, ϵ) 0
JT1 (x, s, ϵ) = ∂x
∂h = C JT (x, ϵ) (6.91)
0 S ∂x
(x, ϵ) I
onde I é a matriz identidade.
UFSC / EEL - Labspot - R. S. Salgado 137

A matriz W’ é não singular se e somente se [22]: (i) a projeção de H’(z,ϵ) no espaço


nulo de J(x,ϵ) é não singular, (ii) J(x,ϵ) possui posto completo e (iii) C é não singular.
A existência da Função Barreira e também o processo de correção adotado no método
de Pontos Interiores Primal-Dual garantem que, em todas as iterações do algoritmo,

sj > 0 , j = 1 , ..., p, (6.92)

embora estes valores se aproximem de zero no caso do limite de desigualdade se tornar


ativo. Conseqüentemente, a matriz C é não singular em todo o processo iterativo. Desta
forma, W’(x,ϵ) é não singular se e somente se a projeção de H’(z,ϵ) no espaço nulo de
J(x,ϵ) é não singular e o posto de J(x,ϵ) é completo.
Deve-se observar que a condição (i) para a não singularidade de W’ é uma modificação
das condições suficientes de otimalidade. Entretanto não é a própria condição suficiente
de otimalidade, uma vez que o conjunto necessário de soluções foi modificado devido à
alteração feita na equação (69).
Para os intervalos de variação de ϵ onde as condições (i) e (ii) acima são satisfeitas, um
pequeno incremento no parâmetro ϵ leva a uma pequena modificação na solução ótima do
problema. Pontos solução crı́ticos ocorrem quando uma das duas condições (i) e (ii) são
violadas em um certo valor do parâmetro, ϵ0 . Caso isso ocorra, não é possı́vel se encontrar
uma solução ótima para o FPO para todo ϵ > ϵ0 e na sua vizinhança.
Para o problema FPO modificado (64)-(66) são definidos dois tipos principais de pontos
crı́ticos. A Tabela 2 mostra um resumo destes pontos crı́ticos. As conseqüências destes
pontos crı́ticos são demonstradas em [22].

Tabela 6.2: Pontos Crı́ticos - Pontos Interiores


Tipo Violação Conseqüência
A medida que ϵ se aproxima de ϵ0 , W(w,ϵ) se
torna singular. Neste caso, pelo menos um dos
multiplicadores de Lagrange tende a infinito. O
conjunto factı́vel se torna vazio localmente após
o ponto crı́tico, caracterizando a perda de
Violação de (a). Quando ϵ se factibilidade local. Na vizinhança deste ponto, as
aproxima de ϵ0 , J passa a ter trajetórias ótimas z(ϵ) podem ser aproximadas por
1 posto incompleto. parábolas.
Violação de (b). Quando ϵ se
aproxima de ϵ0 , a projeção da A medida que ϵ se aproxima de ϵ0 , W(x,ϵ) se
matriz Hessiana, H’, no espaço torna singular. Na vizinhança deste ponto, as
nulo de J apresenta um autovalor trajetórias ótimas z(ϵ) podem ser aproximadas por
2 tendendo a zero. parábolas.

Deve-se notar que o problema FPO, modificado pela introdução das variáveis de folga
e função barreira, não apresenta duas condições crı́ticas existentes na formulação com
restrições de igualdade e desigualdade. Tais condições são definidas pelas alterações ob-
servadas no conjunto ativo de restrições de desigualdade, quando há incremento em ϵ0 , e
acarretam uma perda súbita de otimalidade ou factibilidade. Uma vez que, nos métodos
de pontos interiores, as restrições de desigualdade vão sendo impostas (ou liberadas) de
maneira “suave”, a violação das condições (a) ou (b) não ocorre de forma abrupta. Ou
138 Capı́tulo 6: Tópicos em Otimização Paramétrica

seja, os quatro tipos de soluções crı́ticas observadas na formulação original do FPO se


traduzem em dois casos crı́ticos quando se adota a formulação modificada.
Nas tabelas 1 e 2, observa-se que as trajetórias das soluçõesdo FPO definidas para ϵ
próximos ao ponto crı́tico, ϵ0 , podem ser aproximadas por parábolas. Um comportamento
semelhante se observa nas trajetórias das soluções do fluxo de carga devido à próximidade
de um ponto de singularidade do jacobiano. Isto demonstra a maior complexidade do
comportamento das soluções ótimas do FPO e explica a maior dificuldade encontrada
para sua resolução. Além disso, pode-se dizer que a falha da condição (a) ou (b) indica
pontos de operação muito sensı́veis a pequenos incrementos no parâmetro do modelo.
Sendo assim deve-se evitar a operação de sistemas via FPO na vizinhança dos pontos
crı́ticos indicados na Tabela 1 e 2.
Deve-se ressaltar a semelhança do comportamento das soluções do FC e do FPO nas
vizinhanças do limite máximo de carregamento de um sistema de potência (isto é, con-
siderando que ϵ represente a carga a ser atendida). Da mesma forma que é importante
encontrar ı́ndices que indiquem o limite de factibilidade definido pelo FC, é também de
grande interesse calcular ı́ndices semelhantes para o limite de factibilidade do problema
FPO. No último caso, entretanto, tais ı́ndices representarão também os limites operacio-
nais impostos ao problema, sendo assim mais valiosos para a operação.
Referências Bibliográficas

[1] R. N. Dhar, Computer Aided Power System Operation and Analysis, Tata McGraw-
Hill Publishing Company Limited, 1982.

[2] H. W. Dommel, W. F. Tinney, Optimal power flow solutions, IEEE Transactions on


Power Apparatus and Systems 87 (10) (1968) 1866–1876.

[3] B. Stott, E. Hobson, Power system security control calculations using linear pro-
gramming, parts 1 and 2, IEEE Transactions on Power Apparatus and Systems
97 (5) (1978) 1713–1731.

[4] B. Stott, A. J. Monticelli, Security analysis and optimisation, Proceedings of the


IEEE 1 (12) (1987) 1623–1644.

[5] D. Sun, B. Ashley, B. Brewer, A. Hughes, W. Tinney, Optimal power flow solutions
by Newton approach, IEEE Transactions on Power Apparatus and Systems 103 (10)
(1984) 2864–2880.

[6] S. Granville, Optimal reactive dispatch through interior point methods, IEEE Tran-
sactions on Power Systems 9 (1) (1994) 136–146.

[7] Y. C. Wu, A. S. Debs, R. E. Marsten, A direct nonlinear predictor corrector primal


dual interior point algorithm for optimal power flows, IEEE Transactions on Power
Systems 9 (2) (1994) 876–883.

[8] C. de Pesquisas de Energia Elétrica CEPEL, Programa de fluxo de potência Ótimo


(flupot), manual do Usuário - V5.1/00 (Maio 1997).

[9] W. Tinney, D. Sun, Optimal power flow: Research and code development, Tech. rep.,
Electric Power Research Institute (EPRI) (1984).

[10] D. M. Greig, Optimisation, Longman, 1980.

[11] N. Karmarkar, A new polynomial alagorithm for linear programming, Combinatorica


4 (4) (1984) 373–395.

[12] A. El-Bakry, R. Tapia, T. Tsuchida, Z. Y., On the formulation and theory of the
newton interior-point method for nonlinear programming, Journal of Opt. Theory
and Applications 89 (3) (1996) 507–541.
140 REFERÊNCIAS BIBLIOGRÁFICAS

[13] S. Mehrotra, On the implementation of a primal-dual interior point method, Journal


of Optimisation Theory and Applications - SIAM 2 (4) (1992) 575–601.

[14] L. V. Barboza, Análise do máximo carregamento em sistemas de potência via método


de pontos interiores, dissertação de Mestrado - Engenharia Elétrica / UFSC (Maio
1997).

[15] G. D. Irisarri, X. Wang, J. Tong, S. Mokhtari, Maximum loadability of power systems


using non linear interior point method, IEEE Transactions on Power Systems 12 (1)
(1997) 162–172.

[16] E. D. Castronuovo, Solução do fluxo de potência Ótimo via método de pontos inte-
riores com aplicação de computação de alto desempenho, dissertação de Mestrado -
Engenharia Elétrica / UFSC (Maio 1997).

[17] C. Garcia, W. Zangwill, Pathways to Solutions, Fixed Points and Equilibria, Prentice
Hall, 1981.

[18] F. Galiana, Z. Zeng, Analysis of the load flow behaviour near a jacobian singularity,
IEEE Transactions on Power Systems 7 (3) (1992) 1362–1369.

[19] C. Taylor, Power System Voltage Stability, McGraW-Hill, 1994.

[20] K. Almeida, F. Galiana, S. Soares, A general parametric optimal power flow, IEEE
Transactions on Power Systems 9 (1) (1994) 540–547.

[21] K. Almeida, F. Galiana, Critical cases in the optimal power flow, IEEE Transactions
on Power Systems 11 (3) (1996) 1509–1518.

[22] J. Guddat, F. G. Vazquez, H. T. Jongen, Parametric Optimization: Singularities,


Pathfollowing and Jumps, John Wiley and Sons, 1990.

Você também pode gostar