Você está na página 1de 14

\d

\frac{\partial u}{\partial a}=2a=\frac{\partial v}{\partial b}=2a,\qquad \frac{%


\partial u}{\partial b}=-2b=-\left( \frac{\partial v}{\partial a}=2b \right).
\end{equation}

Estes resultados mostram que as equações de Cauchy-Riemann são satisfeitas e,


portanto, $f(x)=y=x^2$ é uma função holomórfica.

\subsection{Cálculos de Wirtinger}
\qquad Introduzido por Wilhelm Wirtinger em 1927 \cite{Wirt27}, providencia uma
maneira para diferenciar funções não-analíticas de variáveis complexas.
Especificamente, esse calculo é aplicado para a função $f(x)$ dado em (1) se
$u(a,b)$ e $v(a,b)$ tem derivadas parciais continuais em relação a $a$ e $b$, assim
\begin{equation}
\frac{\partial f}{\partial x}=\frac{\partial f}{\partial a}\frac{\partial a}
{\partial x}+\frac{\partial f}{\partial b}\frac{\partial b}{\partial x}.
\end{equation}

Assim, temos que


\begin{equation}
a=\frac{x+x^{*}}{2}, \qquad \partial{a}=\frac{\partial{x}+\partial{x^{*}}}{2}
\end{equation}
\begin{equation}
\frac{\partial{f}}{\partial{x^{\ast}}}=\frac{1}{2} \left( \frac{\partial{f}}
{\partial{a}}+j\frac{\partial{f}}{\partial{b}}\right).
\end{equation}

Novamente, as condições de Cauchy-Riemann para $f()$ ser analítica em $x^{\ast}$


podem ser expressadas compactamente usando o gradiente como $\frac{\partial f}
{\partial x}=0$, i.e., $f()$ é somente função de $x^{\ast}$.
Em outras palavras, o operador gradiente (respectivamente o gradiente conjugado)
age como uma derivada parcial em relação a $x$ (respectivamente a $x^{\ast}$),
tratando $x^{\ast}$ (respectivamente $x$) como uma constante. Formalmente, temos
\begin{align}
\frac{\partial{f(x_{c})}}{\partial{x}}&=\left. \frac{\partial f(x,{x}^{\ast})}
{\partial x}\right\vert _{x^{\ast
}=Const.} = \frac{1}{2}\left( \frac{\partial f}{\partial a}-j\frac{%
\partial f}{\partial b}\right), \\ \nonumber
\\
\frac{\partial{f(x_{c})}}{\partial{x^{\ast}}}&=\left. \frac{\partial f(x,
{x}^{\ast})}{\partial x^{\ast}}\right\vert _{x=Const.} = \frac{1}{2}\left(
\frac{\partial f}{\partial a}+j\frac{%
\partial f}{\partial b}\right) .%
\end{align}

Como um exemplo, $f(x_{c})=f(x,x^{\ast})=x^{\ast}x=\left\vert\vert x


\right\vert\vert^{2}=a^{2}+b^{2}$, é uma função de variáveis complexas a qual é o
quadrado da distância Euclidiana até a origem, com $x=a+jb$. Então
$f(x_{c})=f(x,x^{\ast})=x^{\ast}x=a^{2}+b^{2}+j(ab-ab)=y$, sendo $u=a^{2}+b^{2}$ e
$v=(ab-ab)=0$. Como $v=0$, claramente as equações de Cauchy-Riemann não são
satisfeitas e, portanto, $f(x_{c})=f(x,x^{\ast})=x^{\ast}x$ não é uma função
analítica ou holomórfica. Para superar essa aparente dificuldade, aplica-se o
Calculo de Wirtinger, então
\begin{equation}
\frac{\partial{f(x_{c})}}{\partial x}=x^{\ast} \qquad \frac{\partial{f(x_{c})}}
{\partial x^{\ast}}=x, \nonumber
\end{equation}
o que sugere a interpretação geométrica mostrada na figura \ref{Fig2}. Sua análise
nos permite inferir que a direção da taxa máxima de mudança da função objetivo é
dada pelo gradiente conjugado definido em (15). Observe que sua direção positiva é
referida como um problema de maximização, enquanto a direção oposta diz respeito à
minimização da função de custo.
\begin{figure}[H]
\centering
\caption{Gráfico de contorno de uma função real de variáveis complexas}
\includegraphics[width=3.5in]{Figs/CVgradient.png}
\label{Fig2}
\end{figure}

\newpage
\section{Equações para Fluxo de Potência}

\subsection{Domínio Real}
\qquad As equações gerais para o fluxo de potência dado no domínio real, que
modelam qualquer tipo de ramificação em uma rede elétrica, são as seguintes:
{\fontsize{9.5}{9.5}\selectfont
\begin{align}
P_{km}~=~& \left(\frac{1}{a}V_{k}\right)^{2}g_{km}~-~\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}cos(\theta_{km}-\phi_{km})~-~\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}sen(\theta_{km}-\phi_{km}) \label{eq_r1} \\
Q_{km}~=&-\left(\frac{1}{a}V_{k}\right)^{2}(b_{km}+b_{km}^{sh})+\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}cos(\theta_{km}-\phi_{km})-\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}sen(\theta_{km}-\phi_{km}) \label{eq_r2} \\
P_{mk}~=~& \left(V_{m}\right)^{2}g_{mk}~-~\left(\frac{1}
{a}V_{k}\right)V_{m}g_{mk}cos(\theta_{mk}+\phi_{km})~-~\left(\frac{1}
{a}V_{k}\right)V_{m}b_{mk}sen(\theta_{mk}+\phi_{km}) \label{eq_r3} \\
Q_{mk}~=~&- \left(V_{m}\right)^{2}(b_{mk}+b_{mk}^{sh})~+~\left(\frac{1}
{a}V_{k}\right)V_{m}b_{mk}cos(\theta_{mk}+\phi_{km})~-~\left(\frac{1}
{a}V_{k}\right)V_{m}g_{mk}sen(\theta_{mk}+\phi_{km})
\label{eq_r4}
\end{align}
}
No caso de linhas de transmissão, $a=1$ e $\phi_{km}=0$. Para transformadores em
fase, $b_{km}^{sh}=0$ e $\phi_{km}=0$. Para os defasadores puros, $b_{km}^{sh}=0$ e
$a=1$. Finalmente, para os defasadores, $b_{km}^{sh}=0$ \cite{Monticellilivro}.

As equações gerais do fluxo de potência no domínio real foram obtidas de


\cite{Monticellilivro} sendo adaptadas para a relação de transformação
$ae^{j\phi}:1$, onde o tape é no primário, sendo que em \cite{Monticellilivro} usa-
se o tape no secundário do transformador.

As potência em um determinado nó são definidas como


\begin{align}
P_{k} &= \overset{N}{\underset{m\,\in \,\Omega _{i}}{\sum }} P_{km}%
\label{pk_1}
\end{align}
e
\begin{align}
Q_{k} &= \overset{N}{\underset{m\,\in \,\Omega _{i}}{\sum }} Q_{km}%
\label{qk_2}
\end{align}

Onde $\Omega _{i}$ em (\ref{pk_1}-\ref{qk_2}) é o conjunto de barramentos vizinhos


conectados ao nó $k-$, e $N$ é o número total de barras ligadas também ao nó $k-$.

\subsection{Derivadas Parciais Aplicadas as Equações do Fluxo de Potência no


Domínio Real}
\qquad Nessa seção, são aplicadas as regras já conhecidas de Cálculo para obtenção
das derivadas parciais das equações do fluxo de potência no domínio real.

Então, aplicando as regras de derivada parcial a (\ref{eq_r1}) temos:


{\fontsize{10}{10}\selectfont
\begin{align}
\frac{\partial P_{km}}{\partial V_{k}}&=2\left(\frac{1}
{a}\right)^{2}V_{k}g_{km}-\left(\frac{1}
{a}\right)V_{m}g_{km}cos(\theta_{km}-\phi_{km})-\left(\frac{1}
{a}\right)V_{m}b_{km}sen(\theta_{km}-\phi_{km}) \\
\frac{\partial P_{km}}{\partial V_m}&= -\left(\frac{1}
{a}V_{k}\right)g_{km}cos(\theta_{km}-\phi_{km})-\left(\frac{1}
{a}V_{k}\right)b_{km}sen(\theta_{km}-\phi_{km}) \\
\frac{\partial P_{km}}{\partial \theta_k}&= \left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}sin(\theta_{km}-\phi_{km})-\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}cos(\theta_{km}-\phi_{km}) \\
\frac{\partial P_{km}}{\partial \theta_m}&= -\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}sin(\theta_{km}-\phi_{km})+\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}cos(\theta_{km}-\phi_{km}) \\
\frac{\partial P_{km}}{\partial a}&= \left(\frac{-2}{a^3}\right)
{V_{k}}^{2}g_{km}-\left(\frac{-1}
{a^2}V_{k}\right)V_{m}g_{km}cos(\theta_{km}-\phi_{km})-\left(\frac{-1}
{a^2}V_{k}\right)V_{m}b_{km}sen(\theta_{km}-\phi_{km}) \\
\frac{\partial P_{km}}{\partial \phi_{km}} &= -\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}sin(\theta_{km}-\phi_{km})+\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}cos(\theta_{km}-\phi_{km})
\end{align}}
\qquad Aplicando as regras de derivada parcial a (\ref{eq_r2}) temos:
{\fontsize{9.5}{9.5}\selectfont
\begin{align}
\frac{\partial Q_{km}}{\partial V_k}&=-2V_{k}\left(\frac{1}{a}\right)^{2}(b_{km}
+b_{km}^{sh})+\left(\frac{1}
{a}\right)V_{m}b_{km}cos(\theta_{km}-\phi_{km})-\left(\frac{1}
{a}\right)V_{m}g_{km}sen(\theta_{km}-\phi_{km}) \\
\frac{\partial Q_{km}}{\partial V_m}&=\left(\frac{1}
{a}V_{k}\right)b_{km}cos(\theta_{km}-\phi_{km})-\left(\frac{1}
{a}V_{k}\right)g_{km}sen(\theta_{km}-\phi_{km}) \\
\frac{\partial Q_{km}}{\partial \theta_k}&=-\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}sin(\theta_{km}-\phi_{km})-\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}cos(\theta_{km}-\phi_{km}) \\
\frac{\partial Q_{km}}{\partial \theta_m}&=\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}sin(\theta_{km}-\phi_{km})+\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}cos(\theta_{km}-\phi_{km}) \\
\frac{\partial Q_{km}}{\partial a_{km}}&=-\left(\frac{-2}{a^3}\right)V_{k}^{2}
(b_{km}+b_{km}^{sh})+\left(\frac{-1}
{a^2}V_{k}\right)V_{m}b_{km}cos(\theta_{km}-\phi_{km})-\left(\frac{-1}
{a^2}V_{k}\right)V_{m}g_{km}sen(\theta_{km}-\phi_{km}) \\
\frac{\partial Q_{km}}{\partial \phi_{km}}&=\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}sin(\theta_{km}-\phi_{km})+\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}cos(\theta_{km}-\phi_{km})
\end{align}}
\qquad As derivadas referentes a (\ref{eq_r3}) e (\ref{eq_r4}) são facilmente
obtidas através das aplicações clássicas de derivadas parciais igualmente aplicadas
às equações anteriores.

\subsection{Domínio Complexo}
\qquad Nesta seção são apresentadas as equações de um fluxo de potência, através
de equações complexas, derivadas diretamente do trabalho de Wirtinger
\cite{Wirt27}, em contraste com a abordagem dada por \cite{NguyenHL96},
\cite{NguyenHL97}. A modelagem de fluxo de potência tem base nas equações nodais
clássicas apresentadas em \cite{Nguyen06}. A abordagem do modelo analítico é
derivada através das equações gerais do fluxo de potência. A principal razão para
esta última opção é o modelo do transformador com posição de tape fora do nominal,
incluindo \textit{PSTs} \cite{Barboza01}, \cite{Pires04}.

As equações de fluxo de potência de variáveis complexas que modelam qualquer tipo


de ramificação em uma rede elétrica, ou seja, linhas de transmissão e \textit{PSTs}
são:

\begin{align}
S_{km} & =V_{k}~\left( \frac{y_{km}^{\ast }}{a_{km}{a_{km}^{\ast}}}-j~b_{{\small
km}}^{{\small sh}}~\right) ~V_{k}^{\ast }-V_{k}~\frac{y_{km}^{\ast }}
{a_{km}}~V_{m}^{\ast }, \label{eq_10}\\
S_{mk} & =V_{m}~\left( y_{km}^{\ast }-j~b_{{\small km}}^{%
{\small sh}}\right) ~V_{m}^{\ast }-V_{m}~\frac{y_{km}^{\ast }}
{{a_{km}}^{\ast}}~V_{k}^{\ast }.\label{eq_11}%
\end{align}
e
\begin{align}
S_{km}^{\ast } & =V_{k}^{\ast }~\left( \frac{y_{km}}{a_{km}^{\ast}{a_{km}}}
+j~b_{{\small km}}^{{\small sh}}~\right) ~V_{k}-V_{k}^{\ast }~\frac{y_{km}}
{{a_{km}^{\ast}}}~V_{m},\label{eq_12} \\
S_{mk}^{\ast } & =V_{m}^{\ast }~\left( y_{km}+j~b_{{\small km}}^{{\small
sh}}\right) ~V_{m}-V_{m}^{\ast}~\frac{y_{km}}{a_{km}}~V_{k}.
\label{eq_13}%
\end{align}

No conjunto de equações (\ref{eq_10} - \ref{eq_13}), o modelo geral do


transformador de derivação com tape fora do nominal é composto por um transformador
ideal com relações $ae^{j\phi}:1$ em série com sua admitância ou impedância
\cite{Barboza01}.

A potência em um determinado nó é definida como


\begin{align}
S_{k} &= \overset{N}{\underset{m\,\in \,\Omega _{i}}{\sum }} S_{km}%
\label{sk_1}
\end{align}
e
\begin{align}
S_{k}^{\ast} &= \overset{N}{\underset{m\,\in \,\Omega _{i}}{\sum }} S_{km}^{\ast}%
\label{sk_2}
\end{align}

Onde $\Omega _{i}$ em (\ref{sk_1}-\ref{sk_2}) é o conjunto de barramentos vizinhos


conectados ao nó $k-$ e $N$ é o número total de barras ligadas ao nó $k-$.

\subsection{Derivada de Wirtinger Aplicada as Equações Complexas de Fluxo de


Potência}

\qquad A seguir, é apresentado o conjunto de derivadas parciais de equações


complexas utilizadas no método de Newton-Raphson.

Então, aplicando o calculo de Wirtinger em relação a (\ref{eq_10}) temos:


\begin{align}
\left. \frac{\partial S_{km}}{\partial V_{k}}%
\right\vert _{V_{k}^{\ast }=Const}= & ~\left( \frac{y_{km}^{\ast }}{a_{km}
{a_{km}^{\ast}}}-j~b_{{\small km}}^{{\small sh}}~\right)
V_{k}^{\ast }-\frac{y_{km}^{\ast }}{a_{km}}V_{m}^{\ast }, \label{pf_14}\\
\left. \frac{\partial S_{km}}{\partial V_{k}^{\ast }}%
\right\vert _{V_{k}=Const}= & ~V_{k}~\left( \frac{y_{km}^{\ast }}{a_{km}
{a_{km}^{\ast}}}-j~b_{{\small km}}^{{\small sh}}~\right), \label{pf_15}\\
\left. \frac{\partial S_{km}}{\partial V_{m}}%
\right\vert _{V_{m}^{\ast }=Const}= & ~0.0, \label{pf_16} \\
\left. \frac{\partial S_{km}}{\partial V_{m}^{\ast }}%
\right\vert _{V_{m}=Const}= & -V_{k}\frac{y_{km}^{\ast }}{a_{km}}, \label{pf_17}\\
\left. \frac{\partial S_{km}}{\partial a_{km}}%
\right\vert _{a_{km}^{\ast }=Const}= & -V_{k}\left( \frac{y_{km}^{\ast }}
{a_{km}^2{a_{km}^{\ast}}}\right) V_{k}^{\ast }~+~V_{k}\frac{y_{km}^{\ast }}
{a_{km}^2}V_{m}^{\ast }, \label{pf_18}\\
\left. \frac{\partial S_{km}}{\partial a_{km}^{\ast }}%
\right\vert _{a_{km}=Const}= & -V_{k}\left( \frac{y_{km}^{\ast }}{a_{km}
(a_{km}^{\ast})^2}\right) V_{k}^{\ast }. \label{pf_19}
\end{align}
Em relação a (\ref{eq_11}) temos:
\begin{align}
\left. \frac{\partial S_{mk}}{\partial V_{m}}%
\right\vert _{V_{m}^{\ast }=Const}= & ~\left( y_{km}^{\ast }-j~b_{{\small
km}}^{{\small sh}}\right) V_{m}^{\ast }~-~\frac{y_{km}^{\ast }}
{a_{km}^{\ast}}V_{k}^{\ast }, \label{pf_20}\\
\left. \frac{\partial S_{mk}}{\partial V_{m}^{\ast }}%
\right\vert _{V_{m}=Const}= & ~V_{m}\left( y_{km}^{\ast }-j~b_{{\small
km}}^{{\small sh}}\right), \label{pf_21}\\
\left. \frac{\partial S_{mk}}{\partial V_{k}}%
\right\vert _{V_{k}^{\ast }=Const}= & ~0.0, \label{pf_22}\\
\left. \frac{\partial S_{mk}}{\partial V_{k}^{\ast }}%
\right\vert _{V_{k}=Const}= & -V_{m}\frac{y_{km}^{\ast }}{a_{km}^{\ast}},
\label{pf_23}\\
\left. \frac{\partial S_{mk}}{\partial a_{km}}%
\right\vert _{a_{km}^{\ast }=Const}= &~0.0, \label{pf24}\\
\left. \frac{\partial S_{mk}}{\partial a_{km}^{\ast }}%
\right\vert _{a_{km}=Const}= &~V_{m}\frac{y_{km}^{\ast }}
{(a_{km}^{\ast})^2}V_{k}^{\ast}. \label{pf25}
\end{align}
Em relação a (\ref{eq_12}) temos:
\begin{align}
\left. \frac{\partial S_{km}^{\ast }}{\partial V_{k}}%
\right\vert _{V_{k}^{\ast }=Const}= & ~V_{k}^{\ast }\left( \frac{y_{km}}
{a_{km}^{\ast}{a_{km}}}+j~b_{{\small km}}^{{\small sh}}~\right), \label{pf_26}\\
\left. \frac{\partial S_{km}^{\ast }}{\partial V_{k}^{\ast }}\right\vert
_{V_{k}=Const}= & ~\left( \frac{y_{km}}{a_{km}^{\ast}{a_{km}}}+j~b_{{\small
km}}^{{\small sh}}\right)V_{k}-\frac{y_{km}}{a_{km}^{\ast}}~V_{m}, \label{pf_27}\\
\left. \frac{\partial S_{km}^{\ast }}{\partial V_{m}}%
\right\vert _{V_{m}^{\ast }=Const}= & -V_{k}^{\ast }~\frac{y_{km}}
{a_{km}^{\ast}}, \label{pf_28}\\
\left. \frac{\partial S_{km}^{\ast }}{\partial V_{m}^{\ast }}\right\vert
_{V_{m}=Const}= & ~0.0, \label{pf_29}
\end{align}
\begin{align}
\left. \frac{\partial S_{km}^{\ast }}{\partial a_{km}}%
\right\vert _{a_{km}^{\ast }=Const}= & -V_{k}^{\ast }\left(\frac{y_{km}}
{a_{km}^{\ast}{a_{km}^2}}\right)V_{k}, \label{pf_30}\\
\left. \frac{\partial S_{km}^{\ast }}{\partial a_{km}^{\ast }}\right\vert
_{a_{km}=Const}= & -V_{k}^{\ast }\left( \frac{y_{km}}
{(a_{km}^{\ast})^2{a_{km}}}\right)V_{k}~+~V_{k}^{\ast }\frac{y_{km}}
{(a_{km}^{\ast})^2}V_{m}. \label{pf_31}
\end{align}
E finalmente, em relação a (\ref{eq_13}) temos:
\begin{align}
\left. \frac{\partial S_{mk}^{\ast }}{\partial V_{k}}%
\right\vert _{V_{k}^{\ast }=Const}= & -V_{m}^{\ast}~\frac{y_{km}}{a_{km}},
\label{pf_32}\\
\left. \frac{\partial S_{mk}^{\ast }}{\partial V_{k}^{\ast }}\right\vert
_{V_{k}=Const}= & ~0.0, \label{pf_33}\\
\left. \frac{\partial S_{mk}^{\ast }}{\partial V_{m}}%
\right\vert _{V_{m}^{\ast }=Const}= & ~V_{m}^{\ast }\left( y_{km}+j~b_{{\small
km}}^{{\small sh}}\right), \label{pf_34}\\
\left. \frac{\partial S_{mk}^{\ast }}{\partial V_{m}^{\ast }}\right\vert
_{V_{m}=Const}= & ~\left( y_{km}+j~b_{{\small km}}^{{\small sh}}\right)V_{m}~-
~\frac{y_{km}}{a_{km}}V_{k}, \label{pf_35}\\
\left. \frac{\partial S_{mk}^{\ast }}{\partial a_{km}}%
\right\vert _{a_{km}^{\ast }=Const}= & ~V_{m}^{\ast}~\frac{y_{km}}{a_{km}^2}~V_{k},
\label{pf_36}\\
\left. \frac{\partial S_{mk}^{\ast }}{\partial a_{km}^{\ast }}\right\vert
_{a_{km}=Const}= &~0.0 . \label{pf_37}
\end{align}

\subsection{Tipos de Barras}
\subsubsection{Barra \textit{Slack} ou Barra de Referência}
\qquad A tensão na barra \textit{slack} já é conhecida, uma vez que o valor da
magnitude e do ângulo são especificados para a barra de referência so sistema.
\subsubsection{Barra PQ}
\qquad Com a potência ativa e reativa especificadas para o nó PQ, as funções de
\textit{mismatches} complexas são expressas por
\begin{equation}
M_{k}=S_{k}-(P_{ks}+j~Q_{ks}), \label{pf_38}
\end{equation}%
\begin{equation}
M_{k}^{\ast }=S_{k}^{\ast }-(P_{ks}-j~Q_{ks}).
\label{pf_39}
\end{equation}%

Da mesma forma, as funções no domínio real são dadas por:


\begin{equation}
\Delta P_{k} ={P_{k}}^{calc}~-~P_{ks}, \label{pq_1}
\end{equation}%
\begin{equation}
\Delta Q_{k}={Q_{k}}^{calc}~-~Q_{ks}. \label{pq_2}
\end{equation}%

Onde $P_{ks}$ e $Q_{ks}$, são as potências ativas e reativas especificadas no nó


\textit{k}, respectivamente, e $P_{k}^{calc}$ e $Q_{k}^{calc}$ são as potências
calculadas em cada processo iterativo.

\subsubsection{Barra PV}

\qquad Como a geração de potência ativa e a magnitude da tensão terminal em uma


barra $PV$ são ambas especificadas, ou seja, $P_{ks}$ e $ V_{ks},$ respectivamente,
a soma de $ M_{k}$ em (\ref{pf_38}) e $ M_{k}^{\ast} $ em (\ref{pf_39}) fornece a
função residual complexa, $ M_{kg} $, que está relacionada com a restrição de
potência ativa da seguinte forma:
\begin{equation}
\begin{array}{ll}
M_{kg}&=M_{k}+M_{k}^{\ast },\\
&=S_{k}+S_{k}^{\ast }-2\times P_{ks}.
\end{array}
\label{pf_53}
\end{equation}
A segunda função residual complexa $E_{kg}$ para um nó gerador $k$ é formada usando
a restrição de magnitude de tensão dada por
\begin{equation}
\left\vert E_{kg}\right\vert =\left\vert V%
_{k}\right\vert ^{2}-\left\vert V_{ks}\right\vert ^{2},
\label{pf_54}
\end{equation}%
onde $\left\vert V_{ks} \right\vert$ é a magnitude de tensão especificada no nó
$k$.\smallskip

Assim $\left\vert V_{k}\right\vert ^{2}=V_{k}~V_{k}^{\ast }$, então (\ref{pf_54})


pode ser expressa no domínio complexo como
\begin{equation}
E_{kg}=V_{k}~V_{k}^{\ast }-\left\vert
V_{ks}\right\vert ^{2}. \label{pf_55}
\end{equation}

Também para o domínio real, com a geração de potência ativa e a magnitude da tensão
terminal em uma barra $ PV $ especificadas, a equação de restrição no domínio real
é dada apenas por (\ref{pq_1}). Assim, $\left\vert V_{k}\right\vert $, onde $k$ é o
nó PV, permanece igual ao valor especificado.

\subsubsection{Barra PQV}

\qquad Este tipo de barramento é referido ao modelo \textit{On-Load-Tap-Changer}


(\textit{OLTC}), que pode ser um transformador para regulagem de tensão de
barramento local ou próximo, ou um transformador de deslocamento de fase para
controlar o fluxo de potência ativa transmitida por uma linha \cite{Belmans2005},
ou ambos. Ele também é adequado para modelar um link DC \cite{ACHA_2016},
\cite{Acha_Aug13}, \cite{Exposito2008}, \cite{Zhang04}. Como a demanda de potência
ativa e reativa é especificada, as funções de \textit{mismatches} complexas,
conforme declarado em (\ref{pf_38}) e (\ref{pf_39}), são empregadas. No entanto,
vale lembrar que a posição do tape do \textit {OLTC} nos permite regular a
magnitude da tensão e também a potência ativa transmitida na linha.

Vamos supor que há um defasador puro que controle apenas a potência ativa na linha,
isto leva às a usar além das equações (\ref{pf_38}) e (\ref{pf_39}), a seguinte
função de \textit{mismatch}:
\begin{align}
Ma_{km} &=a_{km}~a_{km}^{\ast }-\left\vert a_{s}\right\vert ^{2}, \label{pf_63}
\end{align}
onde $a_{s}=1$, caracterizando assim um defasador puro, e $M_{a}$ é a equação de
restrição para o módulo de $a_{km}$, que deve permanecer em $1$.

Para o domínio real, as funções de \textit{mismatches} são dadas pelas funções


(\ref{pq_1}) e (\ref{pq_2}), sendo que $\left\vert a_{km}\right\vert $, onde $k$ é
o nó PQV, permanece igual ao valor especificado, no caso, $a=1$ para configurar o
defasador puro.

Supondo agora que a tensão do barramento $ m- $ é regulada, temos então, além das
funções (\ref{pf_38}) e (\ref{pf_39}), a seguinte função de \textit{mismatch}:
\begin{align}
E_{m} &=V_{m}~V_{m}^{\ast }-\left\vert V_{m_{s}}\right\vert ^{2}. \label{pf_67}
\end{align}
\qquad Em (\ref{pf_67}), $\left\vert V_{m_{s}} \right\vert$ é o módulo da tensão
especificada no nó $ m $, ou seja, a tensão nodal regulada.
\qquad Quando há apenas o controle de tensão pelo tape, ou seja, o transformador é
usado apenas para controle de tensão, e não para controle de potência ativa e
tensão, é necessário adicionar a seguinte equação de \textit{mismatch}:
\begin{equation}
M_{m}=a_{km}-a_{km}^\ast.
\end{equation}
\qquad Essa equação faz com que a parte imaginária do tape seja igual a zero, sendo
o tape apenas real, sem defasamento angular, controlando assim apenas o módulo de
tensão.

E para o domínio real, as equações de \textit{mismatches} são dadas por


(\ref{pq_1}), (\ref{pq_2}). Sendo que, $\left\vert V_{m_{s}} \right\vert$ permanece
no valor especificado, não entrando no processo iterativo, e o valor de $a$ se
ajusta conforme a necessidade da tensão especificada.

\subsection{Equações de \textit{mismatches} para o \textit{PST}}

\qquad Além das equações de \textit{mismatches} das barras, é necessário também a


adoção de equações de \textit{mismatches} para ajustar o fluxo de potência ativa na
linha na qual está instalado o \textit{PST}.

Assim, para o domínio dos números complexos, temos que a equação de


\textit{mismatch} é dada por:
\begin{equation}
MP_{km} = S_{km}+S_{km}^{\ast }-2\times P_{kms}. \label{pf_62}
\end{equation}

Sendo $MP_{km}$ a equação de restrição para a potência ativa transmitida através do


\textit{PST}, onde $P_{km}$ a potência especificada que deve ser transmitida
pelo \textit{PST}.

Para o domínio real, é adicionada a equação de fluxo de potência na linha de


transmissão onde se deseja controlar o fluxo de potência ativa, que é dada por:
{\fontsize{11}{11}\selectfont
\begin{align}
P_{km}~=\left(\frac{1}{a}V_{k}\right)^{2}g_{km}-\left(\frac{1}
{a}V_{k}\right)V_{m}g_{km}cos(\theta_{km}+\phi_{km})+\left(\frac{1}
{a}V_{k}\right)V_{m}b_{km}sen(\theta_{km}+\phi_{km}).
\end{align}}
Então, a equação de \textit{mismatch} no domínio real é dada por
\begin{equation}
\Delta P_{km}=P_{km}^{calc}~-~P_{km_{s}}, \label{eq_pd}
\end{equation}%
onde $P_{ks}$ é a potência especificada para a linha de transmissão.

\subsection{Solução Iterativa - Algoritmo de Newton-Raphson}

\qquad Sendo $\mathbf{\underline{x}}$ o vetor de variáveis de estado, e


$\underline{M}$ o vetor de \textit{mismatches}, o objetivo do algoritmo é calcular
$\mathbf{\underline{x}}$ de forma que satisfaça
\begin{equation}
\underline{M}\left( \mathbf{\underline{x}}\right) =0.
\label{pf_70}
\end{equation}%
Segue-se que a linearização de (\ref{pf_70}) é dada por
\begin{equation}
\underline{M}\left( \mathbf{\underline{x}}^{(\nu -{\small 1})}\right) +\mathbf{%
J}(\mathbf{\underline{x}}^{(\nu -{\small 1})})~\Delta
\underline{\mathbf{x}}^{(\nu)}=0,
\end{equation}%
e
\begin{equation}
\mathbf{\underline{x}}^{(\nu) }=\mathbf{\underline{x}}^{(\nu -{\small
1})}-\left[ \mathbf{%
J}^{(\nu -{\small 1})}\right] ^{-{\small 1}}~\underline{M}\left(
\mathbf{\underline{x}}^{(\nu -{\small 1})}\right) ,
\end{equation}%
ou
\begin{equation}
\Delta \underline{\mathbf{x}}^{(\nu)}=-\left[ \mathbf{J}^{(\nu -{\small 1})}%
\right] ^{-{\small 1}}~\underline{M}\left( \mathbf{\underline{x}}^{(\nu -{\small
1})%
}\right) ,
\end{equation}%

Onde $\mathbf{J}$\ é a matriz Jacobiana. Então, a equação atualizada é dada por


\begin{equation}
\mathbf{\underline{x}}^{(\nu)}=\mathbf{\underline{x}}^{(\nu -{\small 1})}+\Delta
\underline{\mathbf{x}}^{(\nu)
}.
\end{equation}
\qquad Sendo o critério de convergência assumido dado por
\begin{equation}
\left\Vert
\Delta \underline{\mathbf{x}}^{(\nu)}
\right\Vert _{\infty }\leq tol~(\approx
10^{-4}).
\end{equation}%

Onde $\left\Vert \cdot \right\Vert _{\infty }$ é definido como a norma infinita e


$\nu$ é o número de iterações.

Sendo a barra \textit{slack} excluída, temos que:

Tanto o vetor de \textit{mismatch} quanto o vetor de variáveis de estado variam de


acordo com o sistema a ser modelado.
Para o domínio real, umas das formas que o vetor das variáveis de estado pode ser
representado é
\begin{equation}
\mathbf{\underline{x}}=[\theta_{\small 1}, \theta_{\small 2},\ldots ,
\theta_{\small {N-1}}, \left\vert V_{\small 1} \right\vert, \left\vert V_{\small 2}
\right\vert,\ldots , \left\vert V_{\small {N-1}} \right\vert, \left\vert
a_{{km}_{\small 1}} \right\vert, \ldots , \left\vert a_{{km}_{\small {L}}}
\right\vert, \phi_{\small 1} , \ldots , \phi_{\small {J}}]^{\small T},
\label{pf_73}
\end{equation}%
e o vetor \textit{mismatch} é
\begin{equation}
\underline{M}\left( \mathbf{\underline{x}}\right) =[\Delta P_{\small 1},\Delta
P_{\small 2},\ldots ,\Delta P_{\small {N-1}},\Delta Q_{\small 1},\Delta Q_{\small
2},\ldots ,\Delta Q_{\small {N-1}}, \Delta P_{{km}_{\small 1}}, \ldots ,\Delta
P_{{km}_{\small {L}}}]^{\small T}. \label{pf_74}
\end{equation}

Para o domínio complexo, temos que o vetor das variáveis de estado é dado por
\begin{equation}
\mathbf{\underline{x}}=\mathbf{\underline{x}_{c}}=[V_{\small 1}, V_{\small
2},\ldots , V_{\small {N-1}}, a_{{km}_{\small 1}}, \ldots , a_{{km}_{\small {L}}},
V_{\small 1}^{\ast }, V_{\small 2}^{\ast },\ldots , V_{\small {N-1}}^{\ast },
a_{{km}_{\small 1}}^{\ast },\ldots , a_{{km}_{\small L}}^{\ast }]^{\small T},
\label{pf_68}
\end{equation}%
e o vetor \textit{mismatch} é
\begin{equation}
\underline{M}\left( \mathbf{\underline{x}_{c}}\right) =[M_{{\small 1%
}},M_{{\small 2}},\ldots ,M_{{\small N-1}}, E_{{kg}_1}, \dots, E_{{kg}_P},
M_{{km}_1}, \dots, M_{{km}_J}, M_{{\small 1}}^{\ast },M_{{\small 2}}^{\ast },\ldots
,M_{{\small N-1}}^{\ast }]^{{\small T}}.\label{pf_69}
\end{equation}

Onde \textit{N} é o número de barras, \textit{P} o número de barras com tensão


controlada, \textit{L} o número de transformadores e \textit{J} o número de
transformadores defasadores.
\subsection{Métodos de Busca Linear Descendente}
\qquad Nos últimos 40 anos, muitos algoritmos poderosos de busca direta foram
desenvolvidos para a minimização irrestrita de funções gerais. Esses algoritmos
exigem uma estimativa inicial para o ponto ótimo, denotado por $x^{0}$. Com o ponto
inicial estimado esses algoritmos geram uma sequência de estimativas $x^{0}$ ,
$x^{1}$, $x^{2}$, $x^{3}$..., onde a cada ponto se procura uma direção de descida
sob a qual se determina o próximo ponto e assim sucessivamente até que um ou mais
critérios de parada sejam atingidos e o ponto de parada $x^{k} \cong x^{*}$ seja
considerado o ponto ótimo do processo.\\
\qquad Básico para esses métodos é a seleção da direção $u^{i+1}$ em cada iteração
que garanta a descida do ponto $x^{i}$ até o próximo ponto $x^{i+1}$ nessa direção,
portanto, é necessário que em cada ponto a derivada direcional seja negativa,
garantindo que o caminho de busca na função objetivo $f$ ou custo seja descendente:

\begin{equation}
\frac{df\left(x^{i}\right)}
{d\lambda}\vert_{u^{i+1}}=\nabla^{T}f\left(x^{i}\right)u^{i+1}<0
\end{equation}

\qquad A estrutura geral dos métodos de busca linear descendente é dada abaixo:
\begin{enumerate}
\item Dado o ponto de partida $x^{0}$ e as tolerâncias positivas
$\epsilon_{1}$, $\epsilon_{2}$ e $\epsilon_{3}$ faz-se $i = 1$.
\item Seleciona-se a direção de descida inicial $u^{i}$ tomando uma derivada
direcional negativa da função objetivo.
\item Faz-se uma busca linear na direção de $u^{i}$, ou seja:
\begin{equation}
\underset{\lambda}{min}\, F(\lambda)=\underset{\lambda}{min}\, f(x^{i-
1}+\lambda u^{i}).
\end{equation}
\item Faz-se $x^{i}=x^{i-1}+\lambda_{i}u^{i}$.
\item Teste de convergência:
\begin{equation}
Se\,\,\,\rVert x^{i}-x^{i-1}\rVert<\epsilon_{1},\,\,\, ou\,\,\, \rVert\nabla
f\left(x^{i}\right)\rVert<\epsilon_{2},\,\,\, ou\,\,\, |f\left(x^{i}\right)-
f\left(x^{i-1}\right)|<\epsilon_{3}
\end{equation}
então pare e $x^{*}\cong x^{i}$, senão vai para o passo 6.
\item Faz-se $i = i + 1$ e volta ao passo 2.
\end{enumerate}
\qquad A estrutura do método de busca linear descendente descrita pode ser vista na
figura \ref{mdescent}. Os métodos dentro dessa classe diferem de acordo com a
maneira como as direções de descida são escolhidas. Outra consideração importante
na distinção de tais métodos é a forma como resolvem o sub problema unidimensional
da busca linear descrita no passo 3 da estrutura geral do algoritmo. Existem vários
algoritmos usados em otimização que resolvem o problema da busca linear como por
exemplo o \textit{Método da Interpolação Quadrática de Powell}, o \textit{Método da
Secção de Ouro} e outros.
\begin{figure}[H]
\centering
\caption{Sequência de direções e passos de descida}
\includegraphics[width=3.5in]{Figs/mdescent.png}
\label{mdescent}
\end{figure}
\subsubsection{Métodos de Busca Linear Descendente de Primeira Ordem}
\qquad Métodos de busca linear descendente que fazem o uso do vetor gradiente
$\nabla f\left(x\right)$ para determinação da direção de busca a cada iteração, são
chamados de métodos de primeira ordem pois utilizam as derivadas parciais de
primeira ordem da função objetivo $f(x)$. O mais simples e mais famoso dessa classe
de algoritmos é o \textit{Método da Máxima Descida}, primeiramente proposto por
Cauchy em 1847. Seu algoritmo pode ser descrito da seguinte forma:\\
Dado o ponto de partida $x^{0}$ faça para $i=1,\,2,\,3...$ até a convergência:
\begin{enumerate}
\item Faz-se $u^{i}=\frac{-\nabla f\left(x^{i-1}\right)}{\rVert\nabla
f\left(x^{i-1}\right)\rVert}$
\item Faz-se $x^{i}=x^{i-1}+\lambda_{i}u^{i}$ onde $\lambda_{i}$ é tal que:
$$\underset{\lambda}{min}\, F(\lambda)=\underset{\lambda}{min}\, f(x^{i-
1}+\lambda u^{i})\,\,(Busca\,\, Linear)$$
\end{enumerate}
Os critérios de parada podem ser os mesmos já citados anteriormente:
\begin{enumerate}
\item $\rVert x^{i}-x^{i-1}\rVert<\epsilon_{1}$
\item $\rVert\nabla f\left(x^{i}\right)\rVert<\epsilon_{2}$
\item $|f\left(x^{i}\right)-f\left(x^{i-1}\right)|<\epsilon_{3}$.
\end{enumerate}
Onde $\epsilon_{1}$, $\epsilon_{2}$ e $\epsilon_{3}$ são tolerâncias positivas
dadas.
\subsubsection{Condições de Melhoria de Convergência}
\qquad Associadas aos custos computacionais dos métodos de busca linear
descendentes e em geral dos métodos de primeira ordem, condições de melhoria de
performance e economia foram desenvolvidas ao longo do tempo. Essas condições foram
desenvolvidas na tentativa de garantir que os passos utilizados nas direções de
busca não sejam tão grandes que possam provocar a divergência da sequência de busca
nem tão pequenos que tornem o progresso da busca insuficiente. As seguintes quatro
condições foram largamente utilizadas com sucesso na atualização dos passos em
problemas de otimização irrestrita e por isso merecem citação:
\begin{enumerate}
\item Performance:
\begin{equation}
f(x^{i-1}+\lambda_{i} u^{i})\leq f(x^{i-1})
\end{equation}
\item Armijo:
\begin{equation}f(x^{i-1}+\lambda_{i} u^{i})\leq f(x^{i-1})
+c_{1}\lambda_{i}u^{i^{T}}\nabla f(x^{i-1})
\end{equation}
\item Curvatura:
\begin{equation}c_{2}u^{i^{T}}\nabla f(x^{i-1})\leq u^{i^{T}}\nabla f(x^{i-
1}+\lambda_{i} u^{i})
\end{equation}
\item Curvatura Forte:
\begin{equation}
|u^{i^{T}}\nabla f(x^{i-1}+\lambda_{i} u^{i})|\leq c_{3}|u^{i^{T}}\nabla
f(x^{i-1})|
\end{equation}
\end{enumerate}
Onde $c_{1}$, $c_{2}$ e $c_{3}$ são parâmetros necessariamente não negativos que
controlam o grau sob o qual as condições citadas são reforçadas. A segunda e a
terceira condições são conhecidas como \textit{Condições de Wolfe} enquanto que a
segunda e quarta são conhecidas como \textit{Condições Fortes de Wolfe}.
\begin{figure}[H]
\centering
\caption{Comportamento de zig zag ortogonal do método de Máxima Descida}
\includegraphics[width=3.5in]{Figs/zigzag.png}
\label{zigzag}
\end{figure}

\subsubsection{Método de Gradientes Conjugados (CG)}


\quad Apesar de sua descida local ótima o método da Máxima Descida geralmente tem
uma pobre performance, sobretudo quando o problema de otimização considerado é mal
escalado, ou seja, quando as curvas de nível da função objetivo são muito
alongadas. Esse problema no desempenho desse método se dá principalmente porque o
algoritmo foça a busca direções ortogonais à cada iteração como mostrado na
figura \ref{zigzag}. Embora na teoria o método se prove convergente, na pratica ele
pode não convergir de forma eficiente em um número finito de iterações. Dependendo
do ponto inicial este métodos pode divergir até mesmo quando aplicado à funções
quadráticas positiva definidas. Existe, entretanto, uma classe de métodos de
primeira ordem conhecidos como Métodos de Gradientes Conjugados, para os quais pode
ser demonstrado que independente da escala do problema, esse método converge em não
mais que um predeterminado número $n$ finito de iterações quando aplicado à funções
quadráticas da forma:
\begin{equation}f(x)=\frac{1}{2}x^{T}Ax+b^{T}x+c\end{equation}
onde $c\in \mathbb{R}$, $b$ é um vetor real de dimensão $n$ e $A$ é uma matriz
$n\times n$ real e simétrica. Essa poderosa propriedade pode ser estendida à outras
funções mais gerais não quadráticas pois muitas funções podem se aproximar
localmente por \textit{Séries de Taylor} das condições dadas.\\
\newpage
\qquad O método de gradientes conjugados começou a ser estudado na década de 50,
sendo inicialmente proposto como um método direto para resolver sistemas lineares,
não como um método iterativo. Muitos autores citam os trabalhos de HESTENES e
STIEFEL como referência base ao que foi desenvolvido posteriormente. Segundo
(SHEWCHUK, 1994) o Método de Gradientes Conjugados foi abandonado durante a década
de 60, e apenas nos anos 70 foi retomado pela comunidade científica. O método é
utilizado principalmente para a resolução de problemas de grande porte, nos quais
não é razoável sequer fazer as n iterações que podem ser demandadas no caso
quadrático estritamente convexo.

\subsubsection{Direções Mutuamente Conjugadas}


\qquad Dois vetores $u$,$v\neq 0$ são ortogonais se o produto escalar $u^{T}v =
(u,v)=0$. O conceito de \textit{conjugação mutua} pode ser definido de maneira
semelhante. Dois vetores $u$,$v\neq 0$, são definidos mutuamente conjugados com
respeito a matriz simétrica positiva definida $A$ se $u^{T}Av = (u,Av)=0$. As
direções conjugadas podem ser usadas na seleção das direções de busca dos
algoritmos de primeira ordem, evitando o problema das direções ortogonais a cada
iteração como ocorre no método da Máxima Descida porém como encontrar tais direções
mutuamente conjugadas? Uma maneira seria obter os autovetores da matriz $A$ porém
resolver essa situação por si só representaria um problema computacional da mesma
dimensão que o problema original de otimização irrestrita que poderia ser resolvido
por qualquer outro método numérico. Para contornar essa situação e obter as
direções mutuamente conjugadas o método de \textit{Fletcher-Reeves} foi proposto
(\textit{Fletcher and Reeves 1964}).

\subsubsection{Direções de Fletcher-Reeves}
\qquad As \textit{Direções de Fletcher-Reeves} $u^{i},\,\,i = 1,\,2,...,\,n$,
considerando uma matriz $A$ simétrica positiva definida, podem ser encontradas
explicitamente da seguinte forma:
\begin{equation}u^{1}=-\nabla f(x^{0})\end{equation}
e para $i = 1,\,2,...,\,n-1$
\begin{equation}u^{i+1}=-\nabla f(x^{i})+\beta_{i}u^{i}\end{equation}
onde $x^{i}=x^{i-1}+\lambda_{i}u^{i}$, $\lambda_{i}$ corresponde ao passo ótimo na
interação $i$ e:
\begin{equation}\beta_{i}=\frac{\rVert\nabla f(x^{i})\rVert^{2}}{\rVert\nabla
f(x^{i-1})\rVert^{2}}
\end{equation}
\qquad A mudança de $\beta_{i}$ dá origem à outros métodos de busca como por
exemplo as \textit{Direções de Polak-Ribiere} dadas por:
\begin{equation}\beta_{i}=\frac{(\nabla f(x^{i})-\nabla f(x^{i-1}))^{T}\nabla
f(x^{i})}{\rVert\nabla f(x^{i-1})\rVert^{2}}
\end{equation}
\qquad Portanto a estrutura geral do algoritmo de gradiente conjugado de Fletcher-
Reeves para funções gerais pode se sintetizado nos seguintes passos:
\begin{enumerate}
\item Computa-se $\nabla f(x^{0})$ e faz-se $u^{1}=-\nabla f(x{0})$
\item Para $i = 1,\,2,...,\,n$ é feito:
\begin{enumerate}
\item Faz-se $x^{i}=x^{i-1}+\lambda_{i}u^{i}$ onde $\lambda_{i}$ é tal
que: $$\underset{\lambda}{min}\, F(\lambda)=\underset{\lambda}{min}\, f(x^{i-
1}+\lambda u^{i})\,\,(Busca\,\, Linear)$$
\item Computa-se $\nabla f(x^{i})$
\item Se o critério de convergência é satisfeito então pare e
$x^{*}\cong x^{i}$, senão vá para o passo (d).
\item Se $\leq i \leq n-1$, $u^{i+1}=-\nabla f(x^{i})+\beta_{i}u^{i}$
\end{enumerate}
\item Faz-se $x^{0}=x^{n}$ e vai para o passo 2.
\end{enumerate}

\subsubsection{Método do Gradiente Bi-Conjugado (BiCG)}


O método dos gradientes conjugados (CG) descrito anteriormente, não é adequado para
solucionar os sistemas lineares de fluxo de carga, já que são aptos apenas para
solucionar sistemas simétricos. A primeira tentativa para solucionar este impasse é
apresentada em (Lanczos, 1952), com o método conhecido como Gradiente Bi-conjugado
(BiCG) sendo posteriormente melhorado por (Fletcher, 1976). O BiCG utiliza uma das
formas do algoritmo Lanczos não-simétrico, conhecida como biortogonalização de
Lanczos ou simplesmente Bi-Lanczos, para construir as bases ortogonais do Subespaço
de Krylov. Em resumo este algoritmo é uma variação do tradicional CG e tem em
adicional o cálculo da bi-direção e do bi-resíduo \cite{jacobs1986generalization}

\section{Algoritmos Desenvolvidos em MATLAB}


\qquad Nesta seção descrevemos o algoritmo de fluxo de potência desenvolvido em
domínio real utilizando-se do método de Newton-Raphson no \textit{Software MATLAB}
para fins de comparação de desempenho e resultados com outros algoritmos que foram
desenvolvidos ou virão a ser implementados ao longo deste trabalho de conclusão de
curso. Trata-se da formulação básica do problema de fluxo de potência levando em
consideração as equações do transformador defasador (PST) já apresentadas em seções
anteriores. O algoritmo tem como entrada um arquivo de extensão \textit{.txt}
formatado nos moldes do IEEE (Common Data Format), contendo os dados do problema de
fluxo de potência a ser estudado. O programa desenvolvido destina-se a rodar todos
os problemas de fluxo de potência encontrados nos estudos de casos do IEEE e cujo
os arquivos de entrada estiverem corretamente formatados da forma já mencionada.
Neste trabalho serão investigados e comparados os casos de 9, 14, 30, 57 e 118
barras. Como exemplo de validação do código implementado mostramos na figura
\ref{14bus} os resultados do problema de fluxo de potência para caso de 14 barras.
Na coluna de título NR figuram os resultados de ângulos e tensões do algoritmo
implementado e na coluna de título IEEE figuram os dados do fluxo de potência
apresentados pelo IEEE. É possível ver que todos os valores de ângulo e tensão se
mostraram extremamente próximos dos valores fornecidos pelo IEEE e a convergência
se deu em 4 iterações com uma tolerância de $10^{-6}$.
\begin{figure}[H]
\centering
\caption{Comparação dos resultados do algoritmo desenvolvido para o caso de
14 barras}
\includegraphics[width=3.5in]{Figs/14bus.png}
\label{14bus}
\end{figure}
\subsection{Algoritmo de Gradiente Conjugado em Domínio Complexo}
\qquad Foi fornecido pelo professor orientador deste trabalho um algoritmo de
gradiente conjugado em domínio complexo para o estudo de um caso fictício de fluxo
de potência de 3 barras. O código foi desenvolvido a partir do desenvolvimento do
cálculo de Wirtinger e dos métodos de gradientes conjugados já descritos nas seções
anteriores, portanto foi possível fazer as comparações preliminares entre os
códigos em domínio real e complexo para esse pequeno problema proposto. A seguir na
figura \ref{NReCG} mostra-se os resultados de ângulos e tensões onde a coluna com
título NR trata-se do algoritmo de Newton-Raphson no domínio real e a coluna com
título CG trata-se do método de Fletcher-Reeves implementado em domínio complexo.
\begin{figure}[H]
\centering
\caption{Resultados dos algoritmos em MCG e NR no problema de 3 barras}
\includegraphics[width=3.5in]{Figs/NReCG.png}
\label{NReCG}
\end{figure}
Percebe-se de forma clara que os resultados foram idênticos a menos do número de
casas decimais apresentadas. Posteriormente na versão final deste trabalho o código
em gradientes conjugados no domínio complexo será estendido para abranger todos os
estudos de casos do IEEE.
\newpage

\section{Conclusão}
\qquad A estruturação e modelagem do problema de fluxo de potência em ambos os
domínios permite a visualização da complexidade de cada caso. Nesta primeira etapa
do trabalho foi possível fazer um comparativo simples entre as abordagens no
domínio real e complexo. Foi possível perceber que a implementação dos algoritmos
no caso complexo é mais simples e direta em comparação ao domínio real. No plano
complexo os cálculos puderam ser realizados de uma forma muito semelhante à do
domínio real, tornando muitas ferramentas e métodos desenvolvidos para o domínio
real aplicáveis ao método no domínio complexo pautados pelo cálculo de Wirtinger.
Já é possível perceber a naturalidade de implementação e visualização quando os
problemas de fluxo de potência em regime permanente senoidal são tratados em sua
versão complexa original. Como os dois métodos convergem para exatamente os mesmo
valores, conclui-se que ambas as abordagens podem ser confiáveis e utilizáveis para
análise de fluxos de potência. A proposta de investigação deste trabalho ainda se
estenderá até sua versão final de forma que poderão ser feitas análises mais
detalhadas e gerais a respeitos das abordagens e métodos propostos.

\newpage
\begin{center}
\addcontentsline{toc}{section}{Referências Bibliográficas}
\bibliographystyle{IEEEtran}
\bibliography{complexvalue}
\end{center}

\end{document}

Você também pode gostar