Você está na página 1de 2064

XXIII ENMC

ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS

28 A 30 DE OUTUBRO DE 2020
UNIVERSIDADE FEDERAL DO TOCANTINS
PALMAS - TO
XXIII Encontro Nacional de Modelagem Computacional

XI Encontro de Ciência e Tecnologia de Materiais

Anais do XXIII Encontro Nacional de Modelagem Computacional e o XI Encontro de Ciência e Tecnologia de


Materiais [recurso eletrônico], 28 a 30 de outubro de 2020, Palmas, TO, Brasil. ISSN: 2527-2357.

Disponível em: http://enmc.ccam.uesc.br/

Realizado pelo Programa de Modelagem Computacional de Sistemas da Universidade Federal do Tocantins

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
GESTÃO ADMINISTRATIVA REALIZAÇÃO

ESCOLA SUPERIOR DA
MAGISTRATURA TOCANTINENSE

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
COMISSÃO ORGANIZADORA LOCAL
Marcelo Lisboa Rocha – PPGMCS – UFT – Coordenador
David Nadler Prata – PPGMCS – UFT – Vice-Coordenador

COMISSÃO ORGANIZADORA NACIONAL


Antônio José da Silva Neto (IPRJ/UERJ)
Diego Campos Knupp (IPRJ/UERJ)
Dany Sanchez Dominguez (UESC)
Daniela Buske (UFPel)
Fran Sérgio Lobato (UFU)
Hermes Alves Filho (IPRJ/UERJ)
Ivan Napoleão Bastos (IPRJ/UERJ)
Orestes Llanes Santiago (CUJAE/CUBA)
Rafael Santos (INPE)
Simone Vasconcellos Silva (IFFluminense)

COMITÊ EDITORIAL
Ana Cristina Fontes Moreira (IPRJ/UERJ)
Diego Campos Knupp (IPRJ/UERJ)
Fábio Freitas Ferreira (UFF)
Gustavo Mendes Platt (IPRJ/UERJ)
Henrique Rego Monteiro da Hora (IFF)
Hermes Alves Filho (IPRJ/UERJ)
Ivan Napoleão Bastos (IPRJ/UERJ)
Mateus das Neves Gomes (IFPR)
Renato Simões Silva (LNCC)
Rodrigo Martins(IFFluminense)
Jader Lugon (IFFluminense)

COMITÊ CIENTÍFICO
Cristine Nunes (IFFluminense)
Eduardo Atem (UENF)
Joaquim Teixeira de Assis (IPRJ/UERJ)
Liércio André Isoldi (FURG)
Orestes Llanes Santiago (CUJAE/CUBA)
Patrick Letouze Moreira (UFT)
Paulo Cavalin (IBM)

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
APRESENTAÇÃO

Em 2020, o XXIII Encontro Nacional de Modelagem Computacional e o XI Encontro de Ciência e Tecnologia de


Materiais, foram realizados no período de 28 a 30 de outubro de 2020, pela Universidade Federal do Tocantins (UFT),
em Palmas-TO, com o objetivo de proporcionar um espaço para a interação entre pesquisadores e colaboradores
ligados a Instituições de Ensino e Pesquisa de todo o Brasil.

Durante o Evento os participantes realizaram apresentações orais de seus trabalhos e discutiram diversos temas de
interesse no âmbito do Programa de Pós-Graduação em Modelagem Computacional.Nesta edição, realizado no
formato webinar, o evento foi gerido pelo Programa de Pós-graduação em Modelagem Computacional de Sistemas
da Universidade Federal do Tocantins (UFT), com a participação de professores de várias Instituições de Ensino
Superior.

XXIII ENMC
ENCONTRO NACIONAL DE
MODELAGEM COMPUTACIONAL

XI ECTM
ENCONTRO DE CIÊNCIAS E
TECNOLOGIA DE MATERIAIS
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

Análises teórica e experimental de três algoritmos para redução de profile de matrizes

L. M. Silva1 - liberio@posgrad.ufla.br
S. L. Gonzaga de Oliveira1 - sanderson@ufla.br
1 Universidade Federal de Lavras, Departamento de Ciência da Computação - Lavras, MG, Brasil

Resumo. Algoritmos para redução de profile de matrizes são utilizados principalmente na


aceleração de métodos resolutores de sistemas de equações lineares, originados de diversos
problemas cientı́ficos e de engenharia. Neste artigo, são mostradas análises de complexidades
de três desses algoritmos. As simulações computacionais fornecem suporte experimental às
análises teóricas obtidas.

Keywords: Redução de profile, matrizes esparsas, otimização combinatória, métodos heurı́sticos.

1. Introdução

Na solução numérica de problemas cientı́ficos e de engenharia, como problemas em eletro-


magnetismo, simulações de circuitos e dinâmica de fluidos computacional, é comum que haja
manipulação de matrizes de grande porte vinculadas a sistemas de equações lineares. Esses
sistemas de equações lineares são do tipo Ax = b, em que A é uma matriz esparsa de tamanho
n × n, b é o vetor de termos independentes de tamanho n, e x é o vetor de incógnitas. Uma
ordenação adequada dos vértices do grafo associado à matriz A melhora a coerência de locali-
dade de memória cache e, consequentemente, reduz o tempo de processamento de resolução de
sistemas de equações lineares por métodos iterativos [4].
Seja A = [aij ] uma matriz simétrica, n × n, associada a um grafo não-direcionado G =
(V, E), composto de um conjunto P V de vértices e um conjunto E de arestas. O profile da matriz
A é definido como prof ile(A) = ni=1 βi (A), em que βi (A) = i− min [j : aij 6= 0]. De forma
P1≤j≤i
equivalente, profile do grafo G é definido como prof ile(G) = max [|s(v) − s(u)|]. O
v∈V {v,u}∈E
problema de minimização de profile foi provado por Lin e Yuan [5] como pertencente à classe
N P-Difı́cil. Assim, por causa da conexão desse problema com diversos outros problemas
importantes em ciência e engenharia, uma grande variedade de métodos heurı́sticos foi proposta
para reordenação de linhas e colunas de matrizes esparsas, em que algoritmos de baixo custo
mais promissores foram avaliados em [4].
O algoritmo de Sloan [9] é um dos algoritmos mais conhecidos para redução de profile de
matrizes [4]. A implementação otimizada do algoritmo de Sloan [9] disponı́vel na biblioteca
Boost C++ [1] consta com complexidade O(|E|·lg(m)). A descrição dessa complexidade não é

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

1
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mostrada1 . Nossa implementação não é tão otimizada quanto essa implementação da biblioteca
Boost C++ [1]. Dessa forma, mostramos que a complexidade da nossa implementação é O(|E|·
lg(|V |)) neste trabalho.
Além de mostrar a análise de complexidade do algoritmo de Sloan [9], também apresen-
tamos as análises dos algoritmos de Snay [10] e MPG [7], ambos utilizados para redução de
profile de matrizes. Para verificar essas análises teóricas, análises computacionais desses três
algoritmos são também mostradas. O restante deste artigo está estruturado da seguinte forma.
São mostradas uma breve descrição e análise de complexidade do algoritmo de Sloan [9] na
seção 2. Uma breve descrição do algoritmo MPG [7] e sua análise de complexidade são apre-
sentadas na seção 3. São apresentadas uma breve descrição e análise de complexidade do algo-
ritmo de Snay [10] na seção 4. Análises computacionais desses algoritmos são apresentadas na
seção 5. Por fim, a conclusão é apresentada na seção 6.

2. Análise de complexidade do algoritmo de Sloan

O algoritmo para redução de profile proposto por Sloan [9] é composto de duas etapas. Na
primeira etapa, são determinados dois vértices pseudoperiféricos. Um deles é utilizado como
vétice inicial para a renumeração e o outro é utilizado na função de priorização que determina a
ordem dos vértices renumerados na segunda etapa. Nessa primeira etapa, um vértice qualquer
s do grafo a ser renumerado é escolhido. Então, gera-se a estrutura de nı́vel enraizada L (s).
Dado um vértice v ∈ V , a estrutura de nı́vel L (v) enraizada no vértice v, com profundidade
`(v), é o particionamento L (v) = {L0 (v), L1 (v), . . . , L`(v) (v)}, em que L0 (v) = {v} and
Li (v) = Adj(Li−1 (v)) − i−1
S
j=0 Lj (v), para i = 1, 2, 3, . . . , `(v), and Adj(U ) = {w ∈ V :
(u ∈ U ⊆ V ) {u, w} ∈ E}. Em particular, `(v) = max[d(v, u)] denota a excentricidade do
u∈V
vértice v e a distância d(v, u) é o menor número de arestas de v a u.
A partir da estrutura de nı́vel enraizada L (s), define-se, então, o conjunto Q, que contém
um vértice de cada grau do último nı́vel L`(s) (s) da estrutura de nı́vel enraizada L (s). Em
seguida, para cada vértice w ∈ Q, verifica-se l(w) > l(s). Caso a condição seja satisfeita para
algum vértice w, então, esse vértice passa a ser o vértice s corrente e o processo é repetido.
Caso contrário, a etapa termina e retorna o vértice s e o vértice com menor largura de nı́vel e
entre os vértices pertencentes a Q.
No algoritmo 1, é mostrado um pseudocódigo da segunda etapa do algoritmo de Sloan [9].
Nessa etapa, os vértices são numerados em ordem decrescente conforme a função de priorização
definida na linha 4 desse pseudocódigo. Para essa função, o grau de cada vértice e a sua distância
até e são considerados. Ainda, os pesos w1 e w2 são utilizados de modo a ponderar a influência
dessas caracterı́sticas no cálculo da prioridade. Sloan [9] recomendou a utilização de w1 = 1
e w2 = 2. No algoritmo de Sloan [9], uma fila de prioridades é criada a partir dos vértices
de entrada. Para a inserção de elementos na fila de prioridades, o método atribui um status a
cada vértice. Um vértice já numerado recebe o status de pós-ativo (veja a linha 21) e os demais
vértices terão status de ativo, pré-ativo ou inativo. Todo vértice ainda não numerado que seja
adjacente a um vértice pós-ativo é definido como em status de ativo. Os vértices adjacentes a
um vértice ativo são definidos como em status de pré-ativo. Já os vértices que não possuem
status de ativo, pós-ativo ou pré-ativo, são definidos como vértices inativos. Dessa forma, a fila

1
https://www.boost.org/doc/libs/1 58 0/libs/graph/doc/sloan ordering.htm.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

2
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de prioridades contém apenas vértices com status de ativo ou pré-ativo. Esse processo termina
após todos os vértices serem numerados e removidos da fila de prioridades.

Algoritmo 1: Etapa de numeração de vértices do algoritmo de Sloan [9].


Entrada: grafo conexo G = (V, A), vértices pseudoperiféricos s e e, e pesos w1 (=1) e w2 (=2).
Saı́da: renumeração S = {s(1), s(2), ..., s(|V |)}.
1 inı́cio
2 para cada ( v ∈ V (G) ) faça
3 v.status ← inativo;
4 v.prioridade ← w1 .Dist(v, e) − w2 .(Grau(v) + 1);
5 fim-para-cada
6 F ← {s};
7 s.status ← pré-ativo;
8 i ← 1;
9 enquanto ( F 6= ∅ ) faça
10 v ← RemoveV ertice(F );
11 se ( v.status = pré-ativo ) então
12 para cada ( u ∈ Adj(v) ) faça
13 u.prioridade ← u.prioridade + w2 ;
14 se ( u.status = inativo ) então
15 u.status ← pré-ativo;
16 F ← F ∪ {u};
17 fim-se
18 fim-para-cada
19 fim-se
20 s(i) ← v;
21 v.status ← pós-ativo;
22 i ← i + 1;
23 para cada ( t ∈ Adj(v) ) faça
24 se ( status = pré-ativo ) então
25 t.status ← ativo;
26 t.prioridade ← t.prioridade + w2 ;
27 para cada ( u ∈ Adj(t) ) faça
28 se ( u.status 6= pós-ativo ) então
29 u.prioridade ← u.prioridade + w2 ;
30 fim-se
31 se ( u.status = inativo ) então
32 u.status ← pré-ativo;
33 F ← F ∪ {u};
34 fim-se
35 fim-para-cada
36 fim-se
37 fim-para-cada
38 fim-enquanto
39 retornaS;
40 fim

Para a análise do pior caso, pode-se considerar um grafo em que o vértice inicial é adjacente
a todos os demais vértices do grafo. Dessa forma, a atualização na fila de prioridades passa a
ser mais dispendiosa; pois, todos os vértices são inseridos na fila de prioridades F .
No algoritmo 1, tem-se um laço de repetição da linha 2 até a linha 5. Nesse trecho do algo-
ritmo, o status inativo é atribuı́do a cada vértice do grafo, bem como as prioridades dos vértices
são inicializadas. Esse laço é executado |V | vezes. Para a determinação das prioridades inici-
ais de cada vértice do grafo, são executadas outras duas subrotinas: Dist, para a determinação
da distância do vértice v ao vértice pseudoperiférico e; e Grau, para a verificação do grau do
vértice v. Para se determinar a distância entre os vértices v e e, pode ser utilizada uma estrutura
de nı́vel enraizada no vértice e e calcula-se o nı́vel em que o vértice v consta nessa estrutura.
Dessa forma, obtém-se custo O(|E| + |V |) nessa operação. Já para a verificação do grau de
cada vértice, tem-se custo O(|E|); logo, tem-se custo O(|E| + |V |) nas |V | iterações desse laço
de repetição. Dessa forma, a linha 4, referente à inicialização das prioridades dos vértices, é
dominante no trecho de código, com custo O(|V | + |E|).
Nas linhas 6 e 7, o vértice pseudoperiférico s é inserido na fila de prioridades F e é atribuı́do
o status pré-ativo para esse vértice. Para essas linhas, assim como para a linha 8, tem-se custo
O(1). No laço de repetição das linhas 9 a 38, os vértices pertencentes à fila de prioridades F
são renumerados em ordem decrescente de prioridade. Os vértices do grafo serão numerados,
um a cada iteração no pior caso em análise aqui; portanto, o laço é executado |V | vezes.
Na linha 10, o vértice v de maior prioridade é removido da fila por meio da subrotina Re-
moveVertice. O custo para remover um vértice de uma fila de prioridades é O(1); porém, ao

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

3
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

se retirar um vértice da fila de prioridades, é necessário reformatar a heap máxima. Logo, para
|V | iterações, tem-se custo O(|V | · lg(|V |)) nessa operação. Se o mesmo vértice possuir status
pré-ativo (linha 11), então, para cada vértice u adjacente ao vértice v (linha 12), é realizada a
atualização da prioridade do vértice u (linha 13). Se o status do vértice u for inativo (linha 14),
atribui-se o status pré-ativo a esse vértice (linha 15) e o insere na fila de prioridades F (linha
16). Ao se considerar o pior caso analisado aqui, na linha 12, são percorridos os vértices adja-
centes apenas do primeiro vértice, pois os demais vértices não serão pré-ativos: todos os demais
vértices já terão o status ativo ao serem verificados na condição da linha 11. Assim, como no
pior caso o vértice inicial é adjacente a todos os demais vértices do grafo, tem-se custo O(|V |)
para a linha 12. A condição da linha 14 também será verificada em custo O(|V |), o mesmo
custo que a linha 13, visto que os vértices que têm sua prioridade atualizada na linha 13 ainda
não estão na fila de prioridades F . O custo da operação de se atualizar e de se inserir um vértice
na fila de prioridades implementada como uma heap máxima é O(lg(|V |)), pois serão inseri-
dos, no máximo, |V | vértices na fila de prioridades. Desse modo, tem-se custo O(|V | · lg(|V |))
para a linha 16 e a linha 15 apresenta custo O(|V |).
Em seguida, o vértice v é renumerado e recebe o status pós-ativo (linhas 20 e 21). A variável
i é incrementada na linha 22. O custo para essas operações é O(1), mas como são executadas
|V | vezes, tem-se custo O(|V |) para essas linhas.
Para cada vértice t adjacente ao vértice v (linha 23) que possui o status pré-ativo (linha 24),
atualiza-se a prioridade e o status do vértice t para ativo (linhas 25 e 26). A linha 24 é executada
|E| vezes; porém, essa condição é satisfeita |V | vezes, já que cada vértice deixa de ter status
pré-ativo e passa a ter status ativo apenas uma vez. Desse modo, a linha 25 é executada |V |
vezes. O custo para se atualizar a prioridade dos vértices na linha 26 é O(|V | · lg(|V |)).
Por fim, na linha 27, são percorridos os vértices adjacentes de cada vértice que satisfaz a
condição da linha 24. Isso faz com que as linhas 27 e 28 sejam executadas |E| vezes. O custo
para atualizar a prioridade dos vértices adjacentes na linha 29 tem custo O(|E| · lg(|V |)). A
condição da linha 31 também é verificada |E| vezes; porém, no pior caso, essa condição nunca
é satisfeita. Desse modo, as linhas 32 e 33 não são executadas no pior cenário avaliado aqui.
Na Tabela 1, são mostrados os custos referentes a cada linha do algoritmo 1. Assim, no pior
caso, tem-se custo O((|E| + |V |) · lg(|V |)) para essa implementação do algoritmo de Sloan [9].

Tabela 1- Complexidade no pior caso do algoritmo de Sloan [9].


Linha Custo Linha Custo Linha Custo Linha Custo
1 — 11 21 31 O(|E|)
O(|V |)
2 12 22 32
O(|V |) O(|V |)
3 13 23 O(|E|) 33 —
4 O(|V | + |E|) 14 24 34
O(|V |)
5 O(|V |) 15 O(|V |) 25 35 O(|E|)
6 16 O(|V | · lg(|V |)) 26 O(|V | · lg(|V |)) 36 —
7 O(1) 17 — 27 37 O(|E|)
O(|E|)
8 18 O(|E|) 28 38 O(|V |)
9 19 — 29 O(|E| · lg(|V |)) 39 O(1)
O(|V |)
10 20 O(|V |) 30 — 40 O(|E|)

3. Análise de complexidade do algoritmo MPG

O algoritmo de Medeiros et al. [7], de maneira similar ao algoritmo de Sloan, é composto


de duas etapas. A primeira etapa encontra dois vértices pseudoperiféricos do mesmo modo
realizado por Sloan [9]. Na segunda etapa do algoritmo MPG [7], mostrado no algoritmo 2,
todos os vértices têm seus parâmetros de prioridade, grau corrente, que é o número de vértices
adjacentes que ainda não foram renumerados e não estão na fila de prioridades F , e número de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

4
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

adjacências a vértices na fila de prioridades F inicializados na função inicializacao(), na linha


3. A função de priorização é a mesma utilizada no algoritmo de Sloan [9].

Algoritmo 2: Algoritmo MPG [7].


Entrada: grafo conexo G = (V, A), vértices pseudoperiféricos s e e, Le .
Saı́da: renumeração S com |V | entradas s(1), s(2), . . ., s(|V |).
1 inı́cio
2 F ← ∅; C ← ∅; i ← 1;
3 inicializacao();
4 enquanto (i < |V |) faça
5 se (F = ∅) então
6 n ← s;
7 senão
// v.π = 2 · v.prioridade + 2 · pmax (Adj({v}) ∩ C) + 3 · v.adjeleg
8 n ← V erticeM aiorπ(Adj(C) − (F ∪ {s(1), . . . , s(i − 1)}));
9 fim se
10 F ← F ∪ {n};
11 para cada (v ∈ Adj({n}) faça
12 v.graucurr ← v.graucurr − 1 ;
13 v.adjeleg ← v.adjeleg + 1;
14 v.prioridade ← v.prioridade + 2;
15 se (v.graucurr = 1) então C ← C ∪ {u} ;
16 fim para cada
17 para cada (v ∈ C) faça
18 se (v.graucurr = 0) então
19 s(i) ← v; i ← i + 1;
20 F ← F − {v}; C ← C − {v};
21 se (v ∈ F ) então
22 para cada u ∈ Adj({v} faça
23 v.adjeleg ← v.adjeleg − 1;
24 fim para cada
25 senão
26 para cada (u ∈ Adj({v}) faça
27 v.graucurr ← v.graucurr − 1;
28 v.prioridade ← v.prioridade + 2;
29 fim para cada
30 fim se
31 senão
32 se (v.graucurr > 1) então C ← C − {v} ;
33 fim se
34 fim para cada
35 se (C = ∅) então
36 para cada (v ∈ F ) faça
37 se (v.prioridade ≥ pmax (F ) − 1) então C ← C ∪ {v};
38 fim para cada
39 fim se
40 fim enqto
41 retorna S.
42 fim

A cada iteração, um vértice é escolhido para ser colocado na fila de prioridades F . Na pri-
meira iteração, o vértice escolhido para ser colocado na fila de prioridades é o vértice inicial
(linhas 5 e 6); nas demais iterações (linha 8), é o vértice que tenha adjacência a vértice contido
na fila de prioridades C (de candidatos) com maior prioridade, que é dada pela função π, mos-
trada no comentário logo abaixo à linha 7. Na função π, a prioridade do vértice, o número de
adjacências a vértices contidos na fila de prioridades F , e a quantidade de adjacências a vértices
em C são considerados. O grau corrente, prioridade e número de adjacências a vértices contidos
em C dos vértices adjacentes ao vértice n adicionado na fila de prioridades F (na linha 10) são
atualizados no laço de repetição para cada, mostrado nas linha 11 a 16.
Um vértice é adicionado em C quando seu grau corrente é igual a um (na linha 15). Se não
houver nenhum vértice com grau corrente igual a um, é adicionado em C os vértice em F com
maiores prioridades (na linha 37).
Um vértice em C que possui grau corrente igual a zero (linha 18) é numerado (na linha 19)
e removido das filas de prioridade (linha 20). Desse modo, no pior caso, a fila C tem tamanho
igual ao número de grau máximo. Esse caso ocorre quando todos os vértices adjacentes ao
vértice de grau máximo possuem um grau corrente igual a 2: quando o vértice de grau máximo
é adicionado na fila de prioridades F , todos os seus m vértices adjacentes são adicionados em
C. Por outro lado, a fila de prioridades F , no pior caso, pode ter tamanho O(|V |). Esse caso
ocorre quando os últimos vértices a serem adicionados na fila de prioridades F possuem grau

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

5
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

máximo; pois, desse modo, quase todos os vértices serão adicionados na fila de prioridades F ,
mas nenhum vértice será renumerado, pois tem grau corrente maior que um.
No algoritmo 2, a linha 2 é executada apenas uma vez e, na inicialização, tem-se custo
O(|E| + |V |), assim como foi descrito na inicialização do algoritmo de Sloan [9]. Por se tratar
do pior caso, o custo da linha 4 é O(|V |). A estrutura condicional da linha 5 é executada |V |
vezes; logo, seu custo é O(|V |). Todavia, essa condição é satisfeita apenas uma vez visto que
a fila de prioridades F só ficará vazia novamente no término do algoritmo. Desse modo, o
custo da linha 6 é O(1). A linha 7 é executada |V | vezes. Para selecionar o vértice n da linha
8, é necessário percorrer todos os vértices adjacentes a vértices em C; logo, com um custo
O(|V | · m), mas se algum vértice nessas adjacências não estiver na fila de prioridades F , é
necessário calcular seu valor π. O vértice de maior grau do grafo tem mais possibilidade de ser
adjacente a um vértice pertencente a C e, como tem um grau alto (em comparação aos demais
vértices do grafo), dificilmente terá uma prioridade alta e, provavelmente, não pertencerá à fila
de prioridades F . Desse modo, o vértice de grau máximo satisfaz essa condição de ser adjacente
a vértice contido em C, mas não pertencer à fila de prioridades F . Para calcular o valor de π,
é necessário verificar os vértices adjacentes do vértice sendo examinado. O custo dessa linha
deve ser somada com O(|V | · m). Desse modo, o custo da linha 8 é O(|V | · m).
Cada vértice do grafo é adicionado na fila de prioridades F uma vez na linha 10. Desse
modo, o custo dessa linha é O(|V | · lg(|V |)). A estrutura de repetição para cada da linha
11 a 16 percorrerá todos os vértices adjacentes ao vértice recentemente adicionado na fila de
prioridades F (na linha 10). Como cada vértice é adicionado uma só vez na fila de prioridade
F , tem-se custo O(|E|) para as linhas 11 e 16. As atualizações de grau corrente e vértices
adjacentes na fila de prioridades F , nas linhas 12 e 13, são realizadas em tempo O(1); porém,
como estão dentro da estrutura de repetição para cada e uma modificação do grau corrente
pode alterar a posição de um vértice que está em C, então, o custo da linha 12 é O(|E| · lg(m)).
Ao alterar a prioridade, o mesmo ocorre ao alterar o grau corrente; porém, dessa vez, é a fila de
prioridades F que poderá ser modificada na linha 14. Como no pior caso o tamanho da fila de
prioridades F é o número de vértices, tem-se custo O(|E| · lg(|V |)) para a linha 14. Na linha
15, como o grau corrente de um vértice nunca pode aumentar, a condição será satisfeita |V |
vezes e, como adiciona um vértice em C, tem-se custo O(|V | · lg(m)) para essa linha.
Na linha 17, são verificados os vértices em C em ordem crescente de prioridade. Por estar
dentro do laço de repetição da linha 4, tem-se custo O(|V | · m) para as linhas 17, 18, 31 e
34. A condição da linha 18 é satisfeita |V | vezes, pois cada vértice é numerado apenas uma
vez. Desse modo, para as linhas 19, 21 e 25, tem-se custo O(|V |) e a linha 20 apresenta custo
O(|V | · lg(|V |)). Para o pior caso analisado aqui, a condição da linha 21 nunca será satisfeita.
A estrutura de repetição para cada, nas linhas 26 a 29, tem custo O(|E|), pois os vértices
adjacentes de cada vértice são verificados. De maneira similar às linhas 12 e 14, para as linhas
27 e 28, tem-se custo (|E| · lg(m)) e O(|E| · lg(|V |)), respectivamente. As condições das
linhas 32 e 35 não são satisfeitas no pior caso em análise aqui. Na Tabela 2, são mostrados
os custos referentes a cada linha do Algoritmo 2. Logo, no pior caso, tem-se complexidade
O(|V | · m + (|E| + |V |) · lg(|V |)) para essa implementação do algoritmo MPG [7].

4. Análise de complexidade do algoritmo de Snay

O algoritmo de Snay [10], mostrado no algoritmo 3, inicia a numeração pelo vértice pseudo-
periférico s e realiza um laço de repetição até que todos os vértices sejam numerados. No inı́cio

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

6
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2- Complexidade no pior caso do algoritmo MPG [7].


Linha Custo Linha Custo Linha Custo Linha Custo
1 — 12 O(|E| · lg(m)) 23 33 —

2 O(1) 13 O(|E|) 24 34 O(|V | · m)
3 O(|E| + |V |) 14 O(|E| · lg(|V |)) 25 O(|V |) 35 O(|V |)
4 15 O(|V | · lg(m)) 26 O(|E|) 36
O(|V |)
5 16 O(|E|) 27 O(|E| · lg(m)) 37

6 O(1) 17 28 O(|E| · lg(|V |)) 38
O(|V | · m)
7 O(|V |) 18 29 O(|E|) 39
8 O(|V | · m) 19 O(|V |) 30 — 40 O(|V |)
9 — 20 O(|V | · lg(m)) 31 O(|V | · m) 41 O(1)
10 O(|V | · lg(|V |)) 21 O(|V |) 32 — 42 —
11 O(|E|) 22 —

desse laço, é montado um conjunto N (na linha 6). Nesse conjunto, constam vértices adjacen-
tes ao vértice recém renumerado, mas que ainda não tenham sido numerados nem estejam no
conjunto H, que é formado por vértices com adjacência a vértices já numerados. O conjunto N
é adicionado ao conjunto H (na linha 7) e ao conjunto C (na linha 8), que contém os vértices
do conjunto H e também contém os vértices adjacentes aos vértices em H (linhas 9 a 11).

Algoritmo 3: Algoritmo de Snay [10].


Entrada: um grafo conexo G = (V, E) e um vértice inicial s ∈ V ;
Saı́da: renumeração S com |V | entradas s(1), s(2), . . ., s(|V |).
1 inı́cio
2 s(1) ← s;
3 H ← ∅;
4 C ← ∅;
5 para (i ← 2; i ≤ |V |; i ← i + 1) faça
6 N ← Adj(G, s(i − 1)) − ({s(1), s(2), · · · , s(i − 1)} ∪ H);
7 H ← H ∪ N;
8 C ← C ∪ N;
9 para cada (u ∈ N ) faça
10 C ← C ∪ (Adj(G, u) − {s(1), s(2), · · · , s(i − 1)});
11 fim para cada
12 min ← +∞; v ← ∅;
13 para cada (w ∈ C) faça
14 wr ← |Adj(G, w) − ({s(1), s(2), · · · , s(i − 1)} ∪ H) |;
15 se (w ∈ H) então wr ← wr − 1; ;
16 se (wr < min) então
17 min ← wr ; v ← w;
18 fim se
19 fim para cada
20 S(i) ← v; H ← H − {v}; C ← C − {v};
21 fim para
22 retorna S.
23 fim

Os vértices do conjunto C são verificados (na linha 13) e seu grau corrente é calculado
(na linha 14), isto é, adjacências a vértices que ainda não foram numerados nem pertencem ao
conjunto H. Se o vértice estiver no conjunto H, esse seu grau relativo ainda diminui em mais
uma unidade (na linha 15) para que vértices contidos no conjunto H possam ser numerados
antes que os demais vértices pertencentes a C. Isso porque se um vértice não pertencente a H é
numerado, então, é possı́vel que mais vértices sejam adicionados ao conjunto C.
O vértice de menor grau corrente em C é selecionado para ser renumerado (linhas 16 a 18).
Após ser renumerado (na linha 20), esse vértice é retirado dos conjuntos C (também na linha
20) e também de H, caso pertença a esse conjunto (também na linha 20).
O pior caso do algoritmo de Snay [10] ocorre quando o conjunto C é de tamanho próximo a
|V |. Isso ocorre porque, dentro do laço principal, existe um laço que percorre todos os vértices
pertencentes a C (nas linhas 13 a 19).
As linhas 2, 3 e 4 tem custo O(1). O laço de repetição iniciado na linha 5, bem como o seu
fim, na linha 21, tem custo O(|V |); pois, com exceção do primeiro vértice que já é renumerado
na linha 2, cada vértice restante será renumerado nesse laço de repetição, um de cada vez. Na
linha 6, são verificados os vértices adjacentes ao vértice mais recentemente renumerado. Desse
modo, a linha 6 é computada em custo O(|E| + |V |). Se os conjuntos forem implementados
como heaps mı́nimas, as linhas 7 e 8 têm custo O(|V | · lg(|V |)).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

7
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A estrutura de repetição para cada, iniciada na linha 9, está dentro do laço de repetição
iniciado na linha 5 e percorre todos os vértices do conjunto N . O tamanho máximo do conjunto
N é m. Desse modo, as linhas 9 e 11 têm custo O(|V | · m). Para cada vértice pertencente ao
conjunto N , são percorridos os vértices adjacentes para verificar se devem ser adicionados ao
conjunto C. Desse modo, o custo da linha 10 é O(|V | · m2 ). A linha 12, por estar dentro do
laço de repetição da linha 5, é computada em tempo O(|V |).
Na linha 13, consta outra estrutura de repetição para cada; dessa vez, para encontrar os
vértices do conjunto C com grau relativo mı́nimo. No pior caso, esse conjunto de vértices
candidatos pode conter todos os vértices, menos o vértice inicial renumerado na linha 2. Um
exemplo desse caso é uma árvore com 2 ou 3 nı́veis. Desse modo, os custos da linha 13 e 19
são O(|V |2 ). O grau relativo de cada vértice pertencente ao conjunto C é calculado na linha 14.
Assim, a linha 14 é executada (|E| · |V |) vezes. As linhas 15, 16 e 17, por estarem dentro do
laço da linha 13, têm custo O(|V |2 ).
Na linha 20, um vértice é renumerado e retirado dos conjuntos H e C. No pior caso, o
tamanho do conjunto C é relacionado ao número de vértices e, ao utilizar uma heap mı́nima,
sua remoção é dada em tempo O(lg(|V |)). Porém, como está dentro do laço da linha 5, o custo
dessa linha é O(|V | · lg(|V |)). Por fim, a linha 22 tem custo O(1). Na Tabela 3, são mostrados
os custos referentes a cada linha do algoritmo 3. Assim, no pior caso, nossa implementação do
algoritmo de Snay [10] apresenta complexidade O(|E|.|V | + |V |2 ).

Tabela 3- Complexidade no pior caso do algoritmo de Snay [10].


Linha Complexidade Linha Complexidade Linha Complexidade Linha Complexidade
1 — 7 13 O(|V |2 ) 19 O(|V |2 )
O(|V | · lg(|V |))
2 8 14 O(|E|.|V |) 20 O(|V | · lg(|V |))
3 O(1) 9 |V | · m 15 21 O(|V |)
O(|V |2 )
4 10 O(|V | · m2 ) 16 22 O(1)
5 O(|V |) 11 O(|V | · m) 17 O(|V |2 ) 23 —
6 O(|E| + |V |) 12 O(|V |) 18 —

5. Análises computacionais

Para verificar as análises de complexidades apresentadas nas seções anteriores, foram reali-
zados experimentos computacionais com implementações na linguagem de programação C++
dos três algoritmos para reduções de largura de banda e de profile de matrizes abordados aqui.
As execuções foram realizadas em uma máquina com processador Intel R
CoreTM i7-4770 (CPU
3.40GHz, 8MB Cache, 8GB of main memory DDR3 1.333GHz, termed M3 machine) (Intel;
Santa Clara, CA, United States). Nessa máquina, está instalada uma distribuição Ubuntu 16.04
LTS 64-bit com versão 4.2.0-36-generic do kernel do Linux.
Na tabela 4, são mostrados experimentos com os algoritmos Sloan [9] e MPG [7] com sete
instâncias obtidas da base SuiteSparse Matrix Collection [2]. Na figura 1, também é apresentado
o resultado desses experimentos. Por clareza nas apresentações, os gráficos aqui são mostrados
com pontos e linhas, em vez de somente pontos.
Por meio dos experimentos mostrados na tabela 4, percebe-se que, ao aproximadamente
dobrar o número de arestas das instâncias, o tempo de execução dos algoritmos de Sloan [9]
e MPG [7] são também quase dobrados. Especificamente para o algoritmo MPG [7], o maior
grau m encontrado na instância pode ser significativo para o tempo de execução do algoritmo.
Quando o maior grau m encontrado na instância é um número grande, o custo de execução do
algoritmo MPG [7] é muito maior que o custo de execução em instâncias com maior grau m da
instância com valor pequeno. Esse é o caso do tempo de execução do algoritmo MPG [7] ao ser

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

8
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

aplicado na instância bundle1. Como essa instância tem o maior grau m maior que as demais
instâncias avaliadas, o custo de execução do algoritmo MPG [7] foi alto nessa instância. Nos
experimentos, verificou-se que o custo de execução do algoritmo MPG [7] é maior que o custo
de execução do algoritmo de Sloan [9]. Possivelmente, operações de alteração de prioridade
de vértices na fila de prioridade F no algoritmo MPG [7], mostradas nas linhas 14 e 28 no
algoritmo 2, são frequentemente mais realizadas que operações de alteração de prioridade de
vértices na fila de prioridade F no algoritmo de Sloan [9], mostrada na linha 29 no algoritmo 1.

Tabela 4- Tempos de execução, em milissegundos, de experimentos com os algoritmos Sloan [9] e MPG
[7] ao serem aplicados em sete instâncias obtidas da base SuiteSparse Matrix Collection.
Instância m |V | |E| Sloan MPG
nasa4704 43 4.704 104.756 1 6
s3rmt3m3 49 5.357 207.123 2 16
bcsstk17 151 10.974 428.650 5 27
bundle1 1712 10.581 770.811 8 415
nemeth26 194 9.506 1.511.760 16 026
nd3k 516 9.000 3.279.690 35 114
nd6k 515 18.000 6.897.316 81 253

Figura 1- Tempos, em segundos, dos algoritmos Sloan [9] e MPG [7].

Também foram realizados experimentos para se verificar a análise de complexidade do al-


goritmo de Snay [10]. Na tabela 5, são apresentadas as instâncias utilizadas, também obtidas da
SuiteSparse Matrix Collection [2]. Para se verificar o tempo de execução do algoritmo de Snay
[10], é mostrado um gráfico em que o eixo x representa |E| · |V | e o eixo y representa o tempo
de execução, em segundos, na figura 2. Em particular, o tempo de execução do algoritmo de
Snay [10] é bastante superior aos tempos de execução dos algoritmos de Sloan [9] e MPG [7].

Tabela 5- Tempos de execução, em segundos, de experimentos com o algoritmo de Snay [10].


Instância |V | |E| |E| · |V | · (1e + 09) Snay
skirt 12.598 196.520 2 0,2
Ca-AstroPh 18.772 396.160 7 6,6
lhr34c 35.152 764.014 27 30,2
lhr71c 70.304 1.528.092 107 135,8
shipsec8 114.919 3.303.553 380 543,2
rgg n 2 19 s0 524.288 6.539.532 3.429 7545,4

6. Conclusão

Análises de complexidade dos algoritmos de Sloan [9], MPG [7] e Snay [10] são abordados
neste artigo. As complexidades encontradas de nossas implementações dos algoritmos de Sloan
[9], MPG [7] e Snay [10] são, respectivamente, O(|E|·lg(|V |), O(|V |·m+(|E|+|V |)·lg(|V |))

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

9
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Tempos, em segundos, do algoritmo de Snay [10] ao ser aplicado em seis instâncias.

e O(|E|.|V |+|V |2 ). Também foram mostrados experimentos computacionais para confirmar as


análises teóricas. Com os experimentos mostrados, percebe-se que os algoritmos de Sloan [9] e
MPG [7] superam o algoritmo de Snay [10] em tempo de execução. Já em publicação anterior
[4], verificou-se que, em geral, o algoritmo MPG [7] apresenta maior redução de profile que o
algoritmo de Sloan [9].

Referências

[1] Boost. Boost C++ libraries. http://www.boost.org/, 2018. Accesso: 22-4-2018.


[2] T. A. Davis and Y. Hu. The University of Florida sparse matrix collection. ACM Transac-
tions on Mathematical Software, 38(1):1–25, 2011.
[3] A. George. Computer implementation of the finite element method. PhD thesis, Stanford
University, Stanford, 1971.
[4] S. L. Gonzaga de Oliveira, J. A. B. Bernardes, and G. O. Chagas. An evaluation of reor-
dering algorithms to reduce the computational cost of the incomplete Cholesky-conjugate
gradient method. Computational & Applied Mathematics, 37(3):2965–3004, 2018.
[5] Y. X. Lin and J. J. Yuan. Profile minimization problem for matrices and graphs. Acta
Mathematicae Applicatae Sinica, 10(1):107–122, 1994.
[6] J. W-H. Liu. On reducing the profile of sparse symmetric matrices. PhD thesis, University
of Waterloo, Waterloo, 1976.
[7] S. R. P. Medeiros, P. M. Pimenta, and P. Goldenberg. Algorithm for profile and wavefront
reduction of sparse matrices with a symmetric structure. Eng. Computations, 10(3):257–
266, 1993.
[8] C. H. Papadimitriou. The NP-completeness of bandwidth minimization problem. Compu-
ting Journal, 16:177–192, 1976.
[9] S. W. Sloan. A Fortran program for profile and wavefront reduction. International Journal
for Numerical Methods in Engineering, 28(11):2651–2679, 1989.
[10] R. A. Snay. Reducing the profile of sparse symmetric matrices. Bulletin Geodesique,
50(4):341–352, 1976.

Theoretical and experimental analyses of three algorithms for matrix profile reduction
Abstract. Heuristics for matrix profile reduction are used mainly in the acceleration of linear
system solver. This article analyzes the complexities of three of these heuristics. Computer
simulations provide experimental support for the theoretical analyzes obtained.

Keywords: Profile reduction, sparse matrices, combinatorial optimization, heuristic methods.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

10
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELAGEM COMPUTACIONAL DE MATERIAIS COM COMPORTAMENTO


AUXÉTICO

Nayara Mendes Lacerda1 – nayara-mendes@ufmg.br


Marcelo Greco2 – mgreco@dees.ufmg.br
1
Universidade Federal de Minas Gerais – Belo Horizonte, MG, Brasil
2
Universidade Federal de Minas Gerais – Belo Horizonte, MG, Brasil

Resumo. Materiais com comportamento auxético, ao contrário dos convencionais, apresentam


um coeficiente de Poisson negativo, o que resulta em um alongamento transversal ao serem
tracionados. Esse efeito pode ser obtido com diferentes tipos de materiais, dependendo apenas
da geometria da estrutura, em especial da unidade celular que apresentam, como as
reentrantes e quirais, por exemplo. Tal particularidade confere a eles uma melhoria em
diversas propriedades mecânicas importantes, o que os torna interessantes para uma série de
aplicações na engenharia, medicina, esportes ou na área militar. Entretanto, apesar da sua
relevância, esse tema ainda é pouco difundido. Logo, torna-se interessante o estudo do
comportamento dos materiais auxéticos a fim de compreender como se dá esse efeito, e assim
aproveitar suas inúmeras vantagens.

Palavras-chave: Comportamento auxético, Coeficiente de Poisson negativo, Propriedades


mecânicas, Análise de elementos finitos

1. INTRODUÇÃO

Ao contrário dos materiais convencionais, os materiais auxéticos apresentam um


comportamento totalmente anti-intuitivo, pois se expandem transversalmente ao serem
tracionados e sofrem redução transversal sob compressão, como pode ser observado na Fig. 1.
Sendo assim, as deformações em ambas as direções do plano serão de mesma origem
(expansiva ou redutiva). Dessa forma, uma vez que o coeficiente de Poisson (𝜈) é dado pelo
negativo da razão entre a deformação transversal (𝜀𝑡 ) e a longitudinal (𝜀𝑙 ) em relação à direção
de aplicação do carregamento axial, sendo definido como na Eq. (1), torna-se evidente que esses
materiais apresentarão valores negativos para essa propriedade.
𝜀
𝜈 = − 𝜀𝑡 (1)
𝑙

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

11
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 - Comportamento de diferentes materiais sob tração e compressão (1 -


convencionais; 2 - auxéticos)

O comportamento auxético é resultado da interação entre os possíveis mecanismos de


deformação associados com a geometria particular do sistema (em macro, micro ou
nanoestruturas). Em um trabalho recente (Steffens, 2015), foi sugerido que estruturas
reentrantes apresentam tal efeito em razão da flexão das hastes e da rotação e extensão de cada
lado da unidade celular, enquanto nas estruturas quirais esse é devido à flexão e ao enrolamento
ou não dos ligamentos ao redor dos nódulos em rotação (Alderson et al., 2010).
Apesar disso, estudos (Lakes, 1991) mostram que o coeficiente de Poisson negativo não é
resultado exclusivo da flexão ou torção de elementos rígidos, visto que deformações não
homogêneas por si só podem criar tal efeito. Trata-se, portanto, de uma propriedade intrínseca
dos materiais, decorrente da sua geometria.
Dos parâmetros de elasticidade dados na Eq. (2) e Eq. (3), onde G é o módulo de
elasticidade transversal, E é o módulo de elasticidade longitudinal e K é o módulo volumétrico,
observa-se que quanto mais negativo for o coeficiente de Poisson (𝜈), maior será a rigidez ao
cisalhamento e a deformação volumétrica do material.
𝐸
𝐺 = 2(1+𝜈) (2)

𝐸
𝐾 = 3(1−2𝜈) (3)

Além disso, esse comportamento confere maior resistência mecânica e dureza (Chan &
Evans, 1997). Sendo assim, esses materiais tornam-se interessantes para diversas aplicações,
sobretudo em áreas onde a absorção da energia de impacto (tenacidade) e a resistência ao corte,
perfuração e abrasão sejam fatores determinantes, como nos setores de engenharia, medicina e
na área militar.
Entretanto, apesar da relevância desses materiais e do crescente interesse em estudá-los,
ainda é um assunto pouco difundido. Embora tenham sido descobertos há mais de 100 anos,
apenas em 1944 eles foram descritos e somente a partir de 1987 passaram a despertar interesse
prático (Steffens, 2015). Na Fig. 2 é possível observar a evolução do número de publicações
sobre esse tema.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

12
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2 - Evolução do número de artigos publicados sobre materiais auxéticos (Steffens,


2015) – adaptado

Assim, este trabalho busca analisar computacionalmente, via elementos finitos, o


comportamento das geometrias auxéticas descritas na Fig. 3 sob forças trativas e compressivas
e verificar o coeficiente de Poisson apresentado.

Figura 3 - Geometrias modeladas (reentrantes: 1 – favo de mel, 2 – estrelar, 3 – rede de


losangos; quirais: 4 – tetra-quiral, 5 – hexa-quiral)

2. DESCRIÇÃO DO MODELO DE ELEMENTOS FINITOS

Todas as estruturas foram modeladas utilizando o solver Radioss do software


Hyperworks®.

2.1 Malha

Optou-se pela malha sólida (3D) devido à variação de espessura ao longo da geometria.
Como os modelos não são muito complexos, essa escolha não compromete o custo
computacional de forma significativa. O elemento utilizado foi o tetra de 2ª ordem, pois
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

13
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

proporciona uma melhor interpolação e acurácia da análise estrutural. A qualidade da malha foi
verificada segundo Gokhale et al. (2008), com base nos critérios apresentados na Tabela 1.

Tabela 1 - Critérios para malha sólida com elemento tetra

Critério Mínimo Máximo


Warp Angle (º) - 10
Razão de Aspecto - 5
Skew (º) - 45
Jacobiano 0,6 -
Distorção 0,6 -
Stretch 0,2 -
Quad Angles (º) 45 135
Tria Angles (º) 20 120
Taper - 0,5
Element Size (mm) 5 8

2.2 Material

Poucos materiais apresentam esse comportamento auxético naturalmente (e.g. nitretos,


silicatos e zeólitos)(Kocer et al., 2009), mas pode-se fabricar geometrias auxéticas com
diferentes tipos de materiais, como fibras, espumas, polímeros, metais, cerâmicas e compósitos
(Alderson, 2011).
O material escolhido foi o Alumínio 2024 - T3, i.e., liga de alumínio temperada e à base
de cobre, cujas propriedades são dadas na Tabela 2 (MMPDS-09, 2014).

Tabela 2 - Propriedades mecânicas da liga Al 2024 - T3

Material 𝜌 (kg/m³) E (GPa) 𝜈 𝜎𝑦 (MPa) G (MPa) 𝜀𝑚á𝑥


Al 2024 T3 2770 72 0,33 331 27 0,15

Essa liga de alumínio foi modelada como um material elastoplástico com modelo de dano
isotrópico, pela lei de Johnson Cook dada na Eq. (4), que expressa a tensão estática de
p
escoamento do material (σy ) em função da deformação plástica efetiva (ε ), da taxa de
deformação adimensional ( ε̇ * ) e da temperatura adimensional (T* ).

p n m
σy =[A+B(ε ) ][1+C ln(ε*̇ )][1-(T* ) ] (4)

Onde 𝑇 ∗ é dado pela Eq. (5), em que Ta é a temperatura ambiente, Tf é a temperatura de


fusão do material e T é a temperatura do material. E 𝜀 ∗̇ é definido pela Eq. (6), sendo 𝜀̇ 0 , por
convenção, adotado como 1,0 𝑠 −1 (Kay, 2003).
T-T
T* = T -Ta (5)
f a

p
ε̇
ε̇ * = (6)
ε̇ 0

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

14
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Desprezando-se os efeitos da variação de temperatura, a Eq. (4) se reduz à Eq. (7), em que
A, B, C e n são constantes obtidas por meio de ensaios estáticos, cujos valores para o Alumínio
2024 T3 são dados na Tabela 3 (Kay, 2003).
p n
σy =[A+B(ε ) ][1+C ln(ε*̇ )] (7)

Tabela 3 - Parâmetros de Johnson Cook para a liga Al 2024 - T3

Material A (MPa) B (MPa) C n


Al 2024 T3 369 684 0,0083 0,73

2.3 Condições de contorno e carregamento

Uma vez que elementos sólidos não possuem grau de liberdade à rotação, restringiu-se a
base à translação em ambas as direções. Enquanto o carregamento foi aplicado uniformemente
na parte superior da estrutura na direção axial e com magnitude arbitrária, adicionando-se
apenas um fator de escala ao término de cada análise para se obter a estrutura em seu estado
final de deformação. Além disso, verificou-se o comportamento de todos os modelos à tração
e à compressão.

2.4 Pós-processamento

Ao final de cada análise, tomou-se um ponto arbitrário em cada extremidade dos modelos
em seu estado deformado e registrou-se o deslocamento transversal e axial.

3. ANÁLISES E RESULTADOS

A Fig. 4 e a Fig. 5 apresentam as estruturas modeladas em seu estado final de deformação


à tração e à compressão, respectivamente, comparadas ao seu estado inicial.

Figura 4 – Estruturas antes e depois da deformação à tração (reentrantes: a – favo de mel, b –


estrelar, c – rede de losangos; quirais: d – tetra-quiral, e – hexa-quiral)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

15
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5 – Estruturas antes e depois da deformação à compressão (reentrantes: a – favo de


mel, b – estrelar, c – rede de losangos; quirais: d – tetra-quiral, e – hexa-quiral)

Ao término das simulações, tomou-se um ponto de referência em cada extremidade das


estruturas e mediu-se o comprimento inicial e o final nas direções transversal e longitudinal
para tração e compressão como indicado na Tabela 4 e na Tabela 5.

Tabela 4 – Comprimentos inicial e final nas direções transversal e longitudinal para a tração

Geometria Comprimento transversal (mm) Comprimento longitudinal(mm)


Inicial Final Inicial Final
Favo de mel 89,394 89,446 86,498 86,558
Estrelar 30,732 30,747 31,366 31,426
Rede de losangos 52,200 52,240 34,571 34,648
Tetra-quiral 48,000 48,018 48,000 48,038
Hexa-quiral 49,500 49,550 57,158 57,212

Tabela 5 – Comprimentos inicial e final nas direções transversal e longitudinal para a


compressão

Geometria Comprimento transversal (mm) Comprimento longitudinal(mm)


Inicial Final Inicial Final
Favo de mel 89,394 89,341 86,498 86,438
Estrelar 30,732 30,717 31,366 31,306
Rede de losangos 52,200 52,160 34,571 34,493
Tetra-quiral 48,000 47,982 48,000 47,962
Hexa-quiral 49,500 49,450 57,158 57,103

A partir dos dados obtidos com as análises, calculou-se a deformação resultante e pôde-se
obter o coeficiente de Poisson (ν) para cada estrutura. Com isso, verificou-se que todos os
modelos apresentam um comportamento auxético, uma vez que possuem um coeficiente de
Poisson negativo. Além disso, essa propriedade manteve-se constante à tração e à compressão,
apresentando uma diferença inferior a 5%, como mostrado na Tabela 6.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

16
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 6 – Cálculo da deformação e do coeficiente de Poisson

Tração Compressão
Deformação Deformação Deformação Deformação
Geometria transversal longitudinal ν transversal longitudinal ν
(mm) (mm) (mm) (mm)
Favo de mel 0,052 0,060 -0,87 -0,053 -0,060 -0,88
Estrelar 0,015 0,060 -0,25 -0,015 -0,060 -0,25
Rede de losangos 0,040 0,077 -0,52 -0,040 -0,078 -0,51
Tetra-quiral 0,018 0,038 -0,47 -0,018 -0,038 -0,47
Hexa-quiral 0,050 0,054 -0,93 -0,050 -0,055 -0,91

Por meio das simulações também foi possível obter a relação entre força e deformação para
cada geometria analisada, como indicado na Fig. 6.

Figura 6 – Relação entre força e deformação das geometrias modeladas (reentrantes: a – favo
de mel, b – estrelar, c – rede de losangos; quirais: d – tetra-quiral, e – hexa-quiral)

A Tabela 7 contém o coeficiente médio de Poisson (𝜈) para cada geometria analisada, i.e.,
considerando todo o processo analisado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

17
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 7 – Coeficiente médio de Poisson das geometrias modeladas

Geometria Coeficiente médio de Poisson (𝜈)


Favo de mel -0,92
Estrelar -0,38
Rede de losangos -0,40
Tetra-quiral -0,40
Hexa-quiral -1,06

4. DISCUSSÃO

Com base nos resultados obtidos da Tabela 6, observa-se que a estrutura hexa-quiral possui
maior efeito auxético, onde era esperado ν≈-1 da literatura (Liu & Hu, 2010), enquanto na
estrutura estrelar esse efeito foi menor. Para além de tudo, nenhuma geometria contradiz a
Teoria Clássica da Elasticidade, uma vez que os valores para o coeficiente de Poisson estão
entre -1 e 0,5. Vale ainda destacar que todos os modelos apresentaram esse comportamento
auxético em razão dos mecanismos de deformação das unidades celulares supracitados, com a
flexão e extensão das hastes nas estruturas reentrantes e a rotação dos nódulos nas geometrias
quirais. Assim, nota-se que tal efeito auxético é resultado da interação entre os possíveis
mecanismos de deformação associados com a geometria particular do sistema, por mais que o
material utilizado não apresente esse mesmo comportamento
Das relações entre força e deformação, é possível verificar que todas as geometrias
apresentaram efeito puramente auxético ao longo de todo o processo. Além disso, nota-se que
a curva que descreve a deformação na direção transversal não possui um comportamento muito
bem definido, enquanto na direção longitudinal houve uma proporcionalidade entre força e
deslocamento, o que era esperado visto que o carregamento é axial.
Traçando-se uma curva de tendência para ambas as deformações, é possível notar que a
inclinação para a direção transversal foi maior em todos os casos, o que implica em -1 ≤ ν ≤ 0.
Entretanto, esse critério é aplicado às geometrias favo de mel e hexa-quiral apenas a partir de
um determinado ponto, indicando que inicialmente o comportamento está em desacordo com a
Teoria Clássica da Elasticidade, anteriormente citada. Isso pode ser uma consequência de essas
estruturas apresentarem alto efeito auxético sob grandes deformações.
Também, a partir do cálculo do coeficiente médio de Poisson, verifica-se que os valores
distanciam-se ligeiramente dos obtidos ao final das análises. Isso ocorre devido a algumas
interferências, como o fato de o efeito auxético ser mais significante apenas a partir de maiores
deformações para alguns modelos e também ao fato de a curva que descreve a relação entre
força e deformação para a direção transversal não ter um comportamento bem definido.

5. CONCLUSÃO

No decorrer deste trabalho, pôde-se realizar análises de elementos finitos em diversas


geometrias do tipo reentrantes e quirais e verificar o comportamento dessas sob tração e
compressão. Com isso, conseguiu-se validar as simulações por meio de dados obtidos da
literatura, especialmente quanto ao comportamento das unidades celulares quando submetidas
a um carregamento axial e que explica o efeito auxético apresentado.
Também, por meio das simulações realizadas, obteve-se o coeficiente de Poisson para cada
estrutura, assim, é possível saber quais apresentam maior efeito auxético e, consequentemente,
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

18
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

um melhoramento mais significativo de diversas propriedades mecânicas, sendo, então, um


fator determinante na escolha da geometria que melhor atende a cada área de aplicação, seja ela
de engenharia, medicina, militar ou esportiva, por exemplo.

Reconhecimentos

Os autores agradecem ao Conselho Nacional de Desenvolvimento Científico e Tecnológico


(CNPq) e ao Programa Institucional de Bolsas de Iniciação Científica (PIBIC) pelo apoio
financeiro.

REFERÊNCIAS

Alderson, A. et al. (2010), Elastic constants of 3-, 4- and 6-connected chiral and anti-chiral honeycombs subject
to uniaxial in-plane loading. Journal of Composites Science and Technology, 70, 1042–1048.
Alderson, A. (2011), “Smart Solutions from Auxetic Materials”, Med-Tech Innovation, Chester.
Chan, E.; Evans, K. E. (1997), Fabrication methods for auxetic foams. Journal of Materials Science, 32, 5945.
Gokhale, N. S.; Deshpande, S. S.; Bedekar, S. V.; Thite, A. N. (2008), “Practical Finite Element Analysis”, 1ª ed.
Finite to Infinite, Bangalore.
Kay, G. (2003), “Failure Modeling of Titanium 6Al-4V and Aluminum 2024-T3 With the Johnson-Cook Material
Model”. Report DOT/FAA/AR-03/57, Federal Aviation Administration.
Kocer, C.; McKenzie, D. R.; Bilek, M. M. (2009), Elastic properties of a material composed of alternating layers
of negative and positive Poisson’s ratio. Journal of Materials Science and Engineering: A, 505, 111-115.
Lakes, R. (1991), Deformation mechanisms in negative Poisson's ratio materials: structural aspects. Journal of
Materials Science, 26, 2287-2292.
Liu, Y.; Hu, H. (2010), “A Review on Auxetic Structures and Polymeric Materials”. Scientific Research and
Essays, vol 5, 1052-1063.
MMPDS-09 (2014), “Metallic Material Properties Development and Standardization”. Battelle Memorial Institute.
Steffens, F. (2015), “Desenvolvimento de Estruturas Fibrosas com Comportamento Auxético”, Tese de
Doutorado, Universidade do Minho, Braga.

COMPUTATIONAL MODELING OF MATERIALS WITH AUXETIC BEHAVIOR

Abstract. Materials with auxetic behavior, unlike conventional ones, have a negative Poisson's
ratio, which results in a transverse elongation under tensile stress. This effect can be obtained
with different types of materials, depending only on the geometry of the structure, especially
the cellular unit it presents, such as reentrant and chiral, for example. Such particularity gives
them an improvement in several important mechanical properties, which makes them
interesting for a number of applications in the engineering, medicine, sports or military area.
However, despite its relevance, this subject still not widespread. Thus, it is interesting to study
the auxetic materials behavior to understand how this effect occurs so its advantages can be
used.

Keywords: Auxetic behavior, Negative Poisson's ratio, Mechanical properties, Finite element
analysis

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

19
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTIMATIVA DE VENDAS USANDO SÉRIES TEMPORAIS: ESTUDO DE CASO


EM UM SUPERMERCADO

Wilson Castello Branco Neto1 – wilson.castello@ifsc.edu.br


Claidson Correia Haidrick1 – claidson.haidrick@outlook.com
1
Instituto Federal de Santa Catarina, Campus Lages – Lages, SC, Brasil

Resumo. Este artigo apresenta um modelo para estimar quantas unidades de um produto
serão vendidas em um período de tempo. A partir destes dados pode-se verificar se as
unidades em estoque desta mercadoria podem expirar a data de validade e se há risco de
ruptura no estoque em função do cronograma de reposição. Foram implementados os
resultados dos métodos de Média Móvel, Regressão Linear Simples e Suavização
Exponencial de Holt-Winters. A estimativa de vendas é feita a partir da combinação dos
resultados destes métodos. Para testar o modelo foram utilizadas séries temporais extraídas
de uma empresa real. Os resultados apontam uma taxa de acerto média de até 86,87% para o
método de Holt-Winters, 80,29% para análise de regressão, 66,56% para média móvel e de
93,93% para o modelo que combina os três resultados.

Palavras-chave: Estimativa de vendas. Holt-Winters. Regressão linear simples. Média móvel.

1. INTRODUÇÃO

Um dos maiores desafios de qualquer empresa que atua no ramo de comércio é evitar
perdas financeiras, pois elas diminuem a competitividade, drenam os lucros e podem impactar
seriamente o resultado do negócio. De acordo com pesquisa realizada em 2018 pela
Associação Brasileira de Supermercados (ABRAS), o setor supermercadista perdeu, em 2017,
6,4 bilhões, o que representa 1,82% do faturamento bruto do setor no ano citado. O relatório
de prevenção de perdas apresentado pela Associação Paulista de Supermercados (APAS) em
2016, mostra que do total de perdas de mercadoria que ocorrem nos supermercados, a perda
por data de validade representa 50% das ocorrências.
Parte das perdas por vencimento de produtos pode ser minimizada com a previsão da
demanda futura. Esta previsão também auxilia na redução de outro tipo de perda, a ruptura de
estoque, que se dá quando o estabelecimento vende todo o estoque de determinada mercadoria
antes que ela seja reposta pelo fornecedor.
Realizar prognósticos sobre o desempenho futuro de dados estocásticos com base em
dados passados não é uma novidade (Armstrong, 1988). Diferentes métodos, oriundos de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

20
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

diferentes áreas do conhecimento, vêm sendo propostos ao longo das últimas décadas. Uma
das abordagens mais utilizadas é a análise da série temporal das vendas. A análise de séries
temporais exige somente valores passados da demanda, ou seja, da própria variável que se
quer prever. A expectativa é de que o padrão observado nos valores passados forneça
informação adequada para a previsão de valores futuros da demanda, sendo assim
considerados métodos de extrapolação.
As técnicas para análise de séries temporais são baseadas na identificação de padrões
existentes nos dados históricos para posterior utilização no cálculo do valor previsto. Assim,
todas essas técnicas consideram uma ou mais das cinco principais componentes das séries
temporais: nível, tendência, sazonalidade, ciclo e aleatoriedade (Wanke, e Julianelli, 2006).
Dentro desse contexto, a análise da demanda futura é utilizada neste artigo, como forma
de estimar o período necessário para a venda de determinado lote de uma mercadoria. Para
isso são utilizados os métodos de Média Móvel, Análise de Regressão e Suavização
Exponencial de Holt-Winters, individualmente, bem como a combinação dos resultados dos
três modelos.
Este artigo está organizado da seguinte forma: após esta introdução, a seção 2 apresenta
alguns trabalhos similares; a seção 3 aborda as atividades desenvolvidas; a seção 4 mostra os
resultados obtidos pelo trabalho e, por fim, a seção 5 traz as considerações finais.

2. TRABALHOS RELACIONADOS

Prever valores futuros a partir da análise de uma série de dados é possível por diferentes
métodos, porém no setor supermercadista é desejado que a metodologia de previsão trate a
questão da sazonalidade e tendência. No caso específico dos supermercados, sazonalidade
significa que uma análise para previsão de vendas deve levar em consideração os diversos
agentes que podem influenciar no aumento de vendas no comércio em datas especiais, como
dia das mães, dia dos pais, natal e ano novo, por exemplo.
Um estudo de caso realizado por Favero (2015) em uma rede varejista relatou que a
utilização de métodos que incluem o componente de sazonalidade tem resultados superiores.
Nos itens que estudou, métodos de suavização exponencial têm erros muito menores que os
métodos de média móvel e seu uso pode levar a reduções de mais de 20 pontos percentuais no
erro de previsão da demanda, em comparação com média móvel. Outro ponto importante,
refere-se ao método de Holt Winters, que no estudo do mesmo autor apresentou os melhores
resultados.
O método de Holt-Winters também apresentou bom desempenho no estudo de Schrippe
et. al (2015) que analisou dados reais de uma empresa de cosméticos com vistas a previsão de
lucros. Os autores afirmam que o fácil uso e o baixo custo de utilização do método de Holt
Winter favorece sua viabilidade, sendo que em seus resultados os valores previstos se
aproximam aos valores reais com um erro percentual médio de apenas 16,09%.
Em Siqueira (2016), foi comparado o desempenho do método de Holt Winters com os
métodos de Box-Jenkins para previsão de demanda de passageiros em empresas de transporte
rodoviário. O resultado obtido concluiu que a metodologia de Box-Jenkins, historicamente
estimada como sendo mais precisa, na série temporal em estudo obteve resultados similares
ao método de Holt Winters Assim, evidencia-se que as duas metodologias de modelagem
foram capazes de descrever os padrões comportamentais da série estudada, obtendo resultados
aceitáveis, próximos aos valores reais observados.
Os métodos de Holt Winters, Sazonal Aditivo de Winters e Box-Jenkins também foram
considerados em um estudo para previsão de vendas de uma rede de lojas varejistas. O

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

21
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

método Box-Jenkins teve resultado superior usando a proposta SARIMA (0,1,1) (0,1,0),
apesar de muito próximo aos resultados do método de Holt-Winters (Silva, 2008).
A análise dos resultados destes trabalhos possibilitou a conclusão de que os métodos de
Suavização Exponencial de Holt-Winters e Box-Jenkins, em geral, apresentam os melhores
resultados quando executados individualmente. Ao comparar os dois métodos, Lemos (2006)
ressalta que as maiores vantagens dos métodos de suavização são sua simplicidade de
implementação e baixo custo de execução, pontos importantes quando há a necessidade de
previsão de milhares de itens, como no caso de sistemas de controle de estoque.
A escolha do método de Holt-Winters em detrimento ao método de Box-Jenkins, bem
como dos métodos de Média Móvel e Análise de Regressão para compor o modelo que
combina os diferentes resultados, deve-se a simplicidade e rapidez com que os cálculos destes
métodos são realizados.

3. MATERIAIS E MÉTODOS

Este trabalho propõe uma abordagem para tratamento de um problema específico, por
meio de uma pesquisa aplicada, com abordagem quantitativa (Silva, 2008). Para os
procedimentos metodológicos adotou-se uma pesquisa bibliográfica, com o intuito de
selecionar os tipos de modelos de previsão a serem utilizados, e realizou-se um estudo de
caso, para que os modelos pudessem ser implementados e avaliados.

3.1 Coleta e Importação dos Dados

O estudo de caso foi iniciado coletando-se os dados de venda em uma das lojas
pertencente a uma rede de supermercados, que conta com mais de 20 lojas distribuídas na
região Sul do Brasil. Foram selecionados aleatoriamente oito dentre os vinte produtos com
maior recorrência de problemas com vencimento por data de validade, além de outros cinco
produtos sem problemas de vencimento, com o objetivo de avaliar as previsões para produtos
com diferentes comportamentos referentes à perda por vencimento de validade. Os registros
são referentes ao período de abril de 2015 até abril de 2019, totalizando um histórico de 4
anos. Após a consulta, separou-se um intervalo de três anos (abril de 2015 a abril de 2018)
para treinamento do sistema, reservando o período do último ano dos dados para a
comparação dos resultados previstos.
Na consulta realizada no sistema de controle de estoque do supermercado, foram obtidos
os registros de todas as movimentações de entrada e saída (vendas), suas datas e quantidades
envolvidas. Os dados foram salvos em um arquivo CSV que foi importado para o sistema em
desenvolvimento. Com a série temporal real disponível para análise, seguiu-se com a
implementação dos modelos de previsão já citados.

3.2 Implementação dos métodos

Esta seção apresenta a implementação dos métodos de análise de séries temporais


utilizados neste trabalho.

3.2.1 Análise de Média Móvel

A fim de estabelecer uma previsão inicial de venda para cada produto contido na série
analisada, faz-se o cálculo da média móvel contemplando os três últimos anos de vendas, a
partir da Eq. (1).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

22
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(1)
onde V corresponde aos valores das observações e n ao período.

Como o uso de média móvel não é adequado para séries que possuem o componente de
sazonalidade, três cálculos de médias móveis adicionais foram feitos de forma a contemplar
apenas o período de vendas entre o cadastro do produto e a sua data de validade, nos três
últimos anos.
No recebimento de um produto são inseridas a data de entrada e data de validade, sendo
esse intervalo usado para consultar o mesmo período dos registros de venda dos três anos
anteriores. Por exemplo, se a entrada de um produto ocorrer em 01/05/2018 e seu vencimento
em 15/07/2018, será calculada a média de vendas de 01/05/2017 à 15/07/2017 (média 1),
01/05/2016 à 15/07/2016 (média 2) e 01/05/2015 à 15/07/2015 (média 3). Por fim, uma média
aritmética é calculada considerando a média móvel do período completo e as médias dos
últimos três anos. O objetivo é obter um valor que represente o componente sazonal do
produto.

3.2.2 Análise de Regressão

A análise de regressão consiste na verificação da existência de uma relação funcional


entre uma variável dependente e uma variável independente. Neste trabalho utilizou-se o
método de Regressão Linear Simples, que considera uma relação linear entre Y e X como
mostra a Eq. (2) (Makridakis, Wheelwright e Hyndman, 1997).

(2)

Onde:
: Valor da observação prevista no período t;
: Coeficiente linear (ponto que intercepta o eixo y);
: Coeficiente angular (declividade da reta);
: erro aleatório no período t (desvio da observação em relação ao modelo linear);
: Variável preditora X no período t.

No modelo proposto, o objetivo foi acrescentar o componente de tendência, que não é


capturado pela média móvel, e é facilmente expresso pela Análise de Regressão por meio dos
coeficientes da equação. Adotou-se como variável dependente os valores diários de venda do
produto analisado e como variável independente a sequência de dias da série. No ajuste, foi
usada a abordagem dos mínimos quadrados que é uma das técnicas mais usuais para regressão
linear (Werner, 2004).

3.2.3 Suavização Exponencial de Holt-Winters

Modelos de suavização calculam uma média ponderada das observações de uma série
temporal. Os pesos aplicados são determinados em progressão geométrica, atribuindo pesos
maiores às informações mais recentes (Archer, 1980).
Existem abordagens diferentes, de acordo com o tipo de série de dados a ser analisada
(Makridakis, Wheelwright e Hyndman, 1997). No caso de séries que apresentam um
comportamento mais complexo, com os componentes de tendência e sazonalidade, deve-se
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

23
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

utilizar o método multiplicativo de Holt-Winters. Essa técnica envolve três equações com três
constantes de suavização que são associados a cada componente da série: nível, tendência e
sazonalidade. Tendo em vista que as vendas de supermercados são fortemente influenciadas
pelo componente de sazonalidade, este é o modelo utilizado neste trabalho. Suas fórmulas de
cálculo estão definidas nas equações 3 a 6:
Modelo Holt-Winters (método multiplicativo):

(3)
(4)
(5)
(6)

Onde:
: Valor da observação prevista no instante t;
: Estimativa do nível da série temporal no instante t;
: Demanda real no instante t;
: Estimativa de tendência da série temporal no instante t;
: Componente sazonal t;
s: Comprimento da sazonalidade;
: Estimativa do nível da série temporal no instante anterior;
: Estimativa de tendência da série temporal no instante anterior;
, e Constante de suavização (com valores entre 0 e 1, não correlacionados, que
controlam o peso relativo ao nível, à tendência e à sazonalidade, respectivamente).

As constantes de suavização exponencial devem ser escolhidas de forma apropriada já


que, quanto maior seu valor, maior o peso atribuído às últimas observações. Constantes de
suavização baixas geram resultados que tendem ao valor médio da série e constantes altas
produzem uma maior variabilidade dos resultados. Alguns valores da constante de suavização
exponencial devem ser testados para cada série, a fim de determinar a sensibilidade da
previsão comparada aos valores reais (McClave, Benson, e Sincich, 2004).
Inicialmente, os testes foram realizados com os três parâmetros de suavização com o
valor de 0,5. Na conclusão deste artigo são apresentados resultados obtidos com outros
parâmetros testados, com o intuito de ilustrar a importância do ajuste dos mesmos.

3.3 Modelo Combinado

Além de calcular e comparar os resultados de cada um dos três métodos citados, propõe-
se neste trabalho a criação de um modelo, denominado modelo Combinado, que considere os
resultados gerados pelos três métodos com o objetivo de melhorar o valor previsto. Este
modelo consiste na média ponderada entre os resultados dos métodos já citados, conforme Eq.
(7):

(7)
Onde:
EF: Estimativa final
MM: Estimativa resultante do método de média móvel
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

24
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

a: Fator de poderação do método de média móvel


AR: Estimativa resultante do método de análise de regressão
b: Fator de poderação do método de análise de regressão
HW: Estimativa resultante do método de suavização exponencial de Holt-Winters
c: Fator de poderação do método de suavização exponencial de Holt-Winters.

Considerando as informações obtidas durante o levantamento bibliográfico sobre os


diferentes métodos e a precisão de seus resultados, adotou-se um peso maior para o resultado
do método de Holt-Winters (c = 4), para a Análise de Regressão adotou-se o segundo maior
peso (b = 3) e para o resultado da média móvel adotou-se o menor peso (a = 2).

3.4 Medidas de Avaliação

Com o objetivo de avaliar o desempenho dos modelos ao prever os valores reais, foram
examinadas as propriedades das medidas de erro utilizadas nos trabalhos citados na seção 2,
assim como sua adequação às séries temporais analisadas nesse estudo. Um dos principais
pontos a serem analisados é a diversidade do volume de vendas dos diferentes produtos, o que
torna mais importante a análise percentual do que em quantidades absolutas.
O erro médio absoluto percentual (MAPE) expressa precisão como uma porcentagem do
erro, sendo ele calculado como a média do erro percentual, como demonstra a Eq. (8):

(8)

O MAPE indica quanto, em média, o modelo está errando sem compensar erros negativos
e positivos (Belge, 2012).

4. RESULTADOS

Para avaliar o desempenho obtido pelos métodos implementados, foram registradas


entradas de 13 produtos, sendo oito produtos com histórico de problema com vencimento
(itens que já tiveram duas ou mais ocorrências de quebra por data de validade expirada em um
intervalo de um ano) e cinco produtos sem recorrência de problema com vencimento (itens
selecionados aleatoriamente entre todos os produtos da base).
Para cada produto cadastrou-se uma entrada, com as mesmas datas de cadastro, validade
do produto e quantidades compradas de registros reais do período entre abril de 2018 a abril
de 2019. Os dados de abril de 2015 a abril de 2018 foram utilizados para treinar os modelos e
calcular a previsão de vendas dos produtos e este valor foi comparado com as vendas reais
realizadas no período de abril de 2018 a abril de 2019 para verificar seu grau de precisão.
Assim, pôde-se avaliar o resultado de previsão dos diferentes modelos para os diferentes
produtos.
A Tabela 1 apresenta a quantidade vendida de cada um destes produtos no período
compreendido entre o seu cadastro e a sua data de validade entre abril de 2018 e 2019. Ela
apresenta, também, a quantidade estimada pelos modelos, após serem treinados com os dados
de abril de 2015 a abril de 2018. Analisando este tabela percebe-se uma diferença
significativa entre as previsões dos diferentes métodos, bem como entre as previsões de um
mesmo método para diferentes produtos. Estas diferenças são atenuadas com a combinação
dos resultados dos diferentes métodos, como pode ser visto na última coluna da Tabela 1.
A Tabela 2 apresenta os valores mínimo, médio e máximo do MAPE de cada um dos
métodos.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

25
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1 - Estimativa de vendas pelos diferentes métodos dos produtos com histórico
recorrente de perda por vencimento

Código Venda Real Holt-Winters Regressão Média Móvel Método


Combinado
1 8199 6199 7271 9510 7292
2 158 252 170 297 235
3 620 411 246 974 481
4 5296 4563 5714 5591 5175
5 338 389 448 517 437
6 90 92 99 105 97
7 5375 5638 4802 8080 5902
8 1193 1403 1283 1279 1335

Tabela 2 - MAPE dos diferentes métodos para produtos com histórico recorrente de
vencimentos

Erro MAPE Holt-Winters Regressão Média Móvel Método


Combinado
Médio 21,40 18,48 36,72 17,90
Mínimo 2,22 7,54 5,57 2,28
Máximo 59,49 60,322 87,97 48,73

Como pode ser visto na tabela 2, a Média Móvel apresentou o pior resultado. O cálculo
realizado com o intuito de acrescentar o aspecto de sazonalidade em seu resultado não surtiu o
efeito desejado. Diferentemente do esperado, a Análise de Regressão apresentou um resultado
um pouco melhor que a Suavização Exponencial de Holt-Winters. Um aspecto importante a
ser destacado é que o método com os três resultados combinados obteve um erro médio e
máximo menor que todos os outros. Este fato indica que, além de gerar resultados melhores
que os métodos individualmente quando se considera todos os produtos, ele é capaz de
reduzir o erro nos produtos com as piores estimativas.
Embora tenha-se conseguido um bom ajuste para alguns produtos em todos os métodos,
em termos gerais o erro médio ainda é significativo. Isto pode estar relacionado ao fato de que
as séries temporais dos produtos com histórico de problemas por vencimento contêm
características que não favorecem um melhor resultado. Como eles já possuem ocorrências
em que houve vencimento do produto em estoque, a venda deixa de ocorrer durante períodos
variados devido a estes eventos, impactando na análise desses períodos e distorcendo os
indicadores de tendência e sazonalidade. Além disso, nesse tipo de produto é comum a
ocorrência de promoções e outras ações que promovam uma venda acentuada em um curto
período, novamente distorcendo os resultados dos métodos.
Para confirmar esta hipótese, foram selecionados cinco produtos aleatórios, sem histórico
de problemas com vencimento e com registros de vendas em todo o período analisado. Desta
forma, os componentes nível, tendência e sazonalidade podem ser considerados os
protagonistas do comportamento da série.
Essa classe de produtos apresentou resultados melhores que os produtos com histórico de
vencimento. Na Tabela 3 pode-se visualizar o desempenho de cada um dos métodos.
É possível avaliar que todos os métodos conseguem um ajuste melhor em séries que não
contenham produtos com histórico de vencimento. Após analisar os resultados das duas
classes de produtos, pode-se afirmar que os diferentes comportamentos das séries temporais
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

26
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

provenientes do caso estudado compõem um desafio para que os modelos de previsão


encontrem uma aderência adequada.

Tabela 3 - Estimativa de vendas pelos diferentes métodos dos produtos sem histórico
recorrente de perda por vencimento

Código Venda Real Holt-Winters Regressão Média Móvel Método


Combinado
9 6385 5143 4105 10425 5971
10 6936 5934 5580 8143 6307
11 6549 6900 7166 7084 7030
12 910 764 726 1206 850
13 672 600 580 980 678

A Tabela 4 apresenta os valores do MAPE dos quatro métodos implementados para este
conjunto de produtos.

Tabela 4 – MAPE dos diferentes métodos para produtos sem histórico recorrente de
vencimentos

Erro MAPE Holt-Winters Regressão Média Móvel Método


Combinado
Médio 13,20 19,71 33,44 6,07
Mínimo 5,35 9,42 8,16 0,89
Máximo 19,45 35,70 63,27 9,06

De maneira geral, percebe-se que todos os métodos apresentaram resultados melhores


para o MAPE máximo, o que indica uma maior homogeneidade de resultados. O MAPE
médio da Análise de Regressão e da Média Móvel são semelhantes aos obtidos por estes
métodos com o outro conjunto, contudo os métodos de Holt-Winters e Combinado
apresentaram resultados bem menores para os produtos sem histórico de recorrência de
vencimentos. Além de um MAPE médio menor, percebe-se que a amplitude do intervalo
entre o MAPE mínimo e máximo do método Combinado também é menor, o que torna o
método mais seguro para previsões gerais.
Contudo, a diferença do erro gerado pelo método Combinado para cada produto indica a
necessidade de maiores estudos sobre as características das séries de cada produto, de forma a
identificar qual método é mais adequado para cada um com o intuito de atualizar
dinamicamente os pesos do método Combinado, atribuindo valores mais altos ao método mais
adequado conforme as características da série de cada produto.

5. CONCLUSÃO

O uso de modelos combinados de previsão para apurar de forma preditiva o prognóstico


do volume de vendas de uma empresa é testado neste artigo. Estas estimativas auxiliam a
prever a possibilidade do estoque não ser vendido antes que a data de validade do produto
expire ou que ele acabe antes que a reposição seja feita pelo fornecedor.
Os dados de treze produtos foram analisados e os resultados obtidos comprovam que os
modelos implementados têm boa capacidade de prever a demanda futura. Individualmente, os
método que obtiveram o melhor resultado foi a Análise de Regressão - MAPE médio de
18,48% - no conjunto de produtos com histórico de vencimento e Holt-Winters - MAPE
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

27
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

médio de 13,20% - no conjunto de produtos sem histórico de vencimento. Em ambos os casos


o método Combinado apresentou valores melhores que os métodos individualmente – MAPE
médio de 17,90 no primeiro conjunto de dados e MAPE médio de 6,07 no segundo. Porém,
cabe mencionar que as taxas de erro podem não refletir o ajuste dos modelos a qualquer
produto, visto que ainda são necessários estudos para que se possa desenvolver um modelo de
previsão adequado a toda variedade existente em um estabelecimento comercial.
Como resultado deste trabalho, conclui-se que o modelo desenvolvido pode ter êxito em
auxiliar na redução das ocorrências de produto vencido e ruptura de estoque. Em uma situação
de uso real por uma empresa, cada modelo de previsão precisa ser avaliado e melhorado
continuamente através de métodos que contribuam para identificar erros. Com isso, os
resultados do modelo podem ser ajustados, tornando-se adaptáveis as mudanças que vão
ocorrendo na empresa.
Um exemplo de ajuste é a identificação e tratamento de outliers. Por exemplo, quando um
produto deixa de ser vendido por ruptura no estoque, ao invés de considerar a venda como
zero naquele dia, pode-se atribuir a média de vendas do período, o que torna a série mais
consistente.
Outra possibilidade de melhoria refere-se aos coeficientes do Método de Holt-Winters.
Nos testes realizados, utilizou-se 0.5 para as três constantes α, β e γ. Um teste realizado com
produto diferente dos utilizados nos exemplos anteriores, usando estes mesmos valores para
as constantes, previu a venda de 6041 unidades enquanto o valor real das vendas foi de 7609,
gerando um MAPE de 20,6%. Para o mesmo período e produto o cálculo foi refeito, com os
valores de α, β e γ de respectivamente, 0,9; 0,59 e 0,29. A alteração dos valores dos
coeficientes proporcionou um melhor ajuste da série, visto que o novo valor de previsão foi de
6950 unidades, reduzindo o MAPE para 8,66%, comprovando o potencial de ajuste que a
escolha de coeficientes adequados a série analisada promove. Assim, a implementação de um
algoritmo para determinar o valor dos coeficientes do método de Holt-Winters, tomando
como base a série história de vendas de cada produto apresenta-se como uma estratégia de
melhoria promissora.
Para o modelo de análise de regressão, sugere-se incorporar outras variáveis
independentes, como por exemplo o preço do produto, criando um modelo de regressão
múltipla, o que deve levar a melhores resultados.
Por fim, a construção de um algoritmo que ajuste de forma dinâmica os pesos do método
Combinado, de acordo com as características da série que está sendo analisada é outra
pesquisa futura que deve culminar com a melhoria dos resultados obtidos.

Agradecimentos

Os autores agradecem ao IFSC pela disponibilização da estrutura para realização da pesquisa.

REFERÊNCIAS

Abras, P. (2018). “Perdas do setor supermercadista somaram R$ 6,4 bilhoes em 2017”. Disponível em:
http://www.abras.com.br/economia-e-pesquisa/perdas/pesquisa-2018.
Archer, A. (1980). “Forecasting demand: quantitative and intuitive techniques”. International Journal of
Tourism Management, 1, 5-12.
Armstrong, J. (1988). “Research needs in forecasting”. Inter. Journal of Forecasting, 4, 449–465.
Belge, C. (2012). “Avaliando e aprimorando previsões com base nos erros”. Disponível em:
http://belge.com.br/blog/2012/02/01/ avaliando-e-aprimorando-previsoes-com-base-nos-erros/
Favero, E. P. (2015). “Método de previsão de vendas: um estudo de caso numa rede varejista”, Monografia de
Graduação. Universidade de São Paulo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

28
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Lemos, F. O. (2006). “Metodologia para seleção de métodos de previsão de demanda”, Dissertação de


Mestrado. Escola de Engenharia – UFRGS.
Makridakis, S., Wheelwright & Hyndman, R. J. (1997). “Forecasting: Methods and applications”, John Wiley, .
New York.
McClave, J., Benson, P., & Sincich, T. (2004). “Statistics for Business and Economics”, Prentice Hall, New
Jersey.
Schrippe, P., Santos, S. R., Vincenzi, S. L., Moreira Junior, F. J. e Iarczewski, A. M. W. (2015). “Estratégia
empresarial para a natura: análise de correlação e previsão dos lucros por meio do modelo holt-winters”.
Reuna, 20, 5–26.
Silva, A. F. (2008). “Definição de um modelo de previsão das vendas da rede varejista Alphabeto”, Monografia
de Graduação. Universidade Federal de Juiz de Fora
Siqueira, A. C. (2016). “Previsão da demanda por meio de técnicas de séries temporais em empresa de serviços
de transporte rodoviário”, Monografia de Graduação. Centro Universitário Univates.
Wanke, P. and Julianelli, L. (2006). “Previsão de Vendas: Estratégias”, Atlas, São Paulo.
Werner, L. (2004). “Um modelo composto para realizar previsão de demanda através da integração da
combinação de previsões e do ajuste baseado na opinião”, Tese de doutorado, Universidade Federal do Rio
Grande do Sul.

SALES FORECAST USING TIME SERIES: A CASE STUDY IN A SUPERMARKET


Abstract. This paper presents a model used to forecast how many items of a product are
expected to be sold in each period of time. From these data, you can estimate if the units in
stock of such product have the possibility to expire the expiration date and if there is a
rupture risk in the stock due to the replacement schedule. Moving Average, Simple Linear
Regression and Holt-Winters Exponential Smoothing methods were implemented. Sales
forecast has been made by combining the results of these methods. Time series extracted from
a real company were used in order to test the model. The results show an average hit rate of
up to 86.87% for the Holt-Winters method, 80.29% for Simple Regression Analysis, 66.56%
for the Moving Average and 93.93% for the model which combines the results of the three
methods.

Keywords. Sales forecast. Holt-Winters Method. Simple linear regression. Moving average.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

29
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DE DEFEITOS EM REVESTIMENTOS METÁLICOS ASPERGIDOS


TÉRMICAMENTE POR ARCO ELÉTRICO EM SUBSTRATOS DE GEOMETRIAS
DISTINTAS

Frederico Garcia Bindi de Lacerda1 – fredericogarcia@live.com


Bruno Reis Cardoso2 – brunorc@cepel.br
Marília Garcia Diniz1 – diniz@uerj.br
1
Universidade do Estado do Rio de Janeiro, Programa de Pós-Graduação em Engenharia Mecânica,
UERJ – Rio de Janeiro, RJ, Brasil
2
Centro de Pesquisa de Energia Elétrica, CEPEL – Rio de Janeiro, RJ, Brasil

Resumo. Revestimentos obtidos por aspersão térmica (AT) podem ser utilizados na proteção
de componentes da indústria que atuam sob condições severas de abrasão, impacto de
partículas e corrosão. O objetivo deste trabalho foi avaliar a quantidade de defeitos (poros e
trincas) de dois revestimentos metálicos obtidos pela técnica de AT por arco elétrico (Ligas A
e B) aplicados sobre duas geometrias de substratos distintas, chapas e tubos. Os tubos
revestidos permaneceram expostos às condições reais de trabalho em uma caldeira de central
termelétrica movida à carvão mineral pelo período de um ano. Foram utilizadas técnicas de
microscopia óptica (MO), microscopia eletrônica de varredura (MEV), análise química semi-
quantitativa por Energy Dispersive Spectroscopy (EDS) e análise e processamento digital de
imagens (PDI). Após exposição dos tubos em campo, a elevada rugosidade de superfície
característica do processo de AT, foi reduzida. Os resultados revelaram maior percentual de
trincas e poros nos revestimentos dos tubos (7,6% e 14,9% paras as ligas A e B,
respectivamente) em relação às chapas (5,0% e 5,6% paras as ligas A e B, respectivamente).

Palavras-chave: Aspersão térmica; Revestimento metálico; Processamento digital de


imagem; Geometria do Substrato.

1. INTRODUÇÃO

As condições reais de operação em caldeiras que utilizam o carvão mineral como


combustível incluem: elevado desgaste abrasivo causado pelas partículas duras presentes nas
cinzas (resíduo da queima do carvão), alta temperatura de operação e ação corrosiva dos
produtos da combustão. Isso impõe a necessidade do uso de técnicas de proteção das
tubulações e prevenção, como tratamento da água e/ou aplicação de materiais de revestimento

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

30
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

com características específicas, como alta dureza, resistência ao desgaste abrasivo e à


corrosão, baixa porosidade e boa aderência ao substrato (Krzysztof et al., 2016).
O reforço de superfície com o uso de revestimentos surge como opção para proteção
contra o desgaste mecânico e a corrosão para componentes mecânicos em condições adversas
(Kalsi et al., 2013). Diversas técnicas são utilizadas para modificação de superfícies com o
objetivo de evitar ou retardar a deterioração de sistemas. Dentre estas técnicas, a aspersão
térmica (AT) ganha destaque por ser um processo que pode utilizar grande variedade de ligas
para deposição e possibilidade de aplicação em diversos tipos de substrato (Moskal et al.,
2016).
Nos processos de AT, os materiais para deposição são fundidos ou aquecidos em uma
tocha de aspersão através da queima de um gás combustível ou da geração de um arco
elétrico. Após fusão, o material é finamente atomizado e acelerado por gases sob pressão
contra a superfície do substrato e o atinge no estado fundido ou semifundido. Ao choque com
a superfície, as partículas achatam-se formando uma fina estrutura lamelar que adere ao
material base, e na sequência, às partículas já aspergidas anteriormente. Como característica
do processo, a estrutura formada apresenta a presença de poros, trincas, inclusões de óxidos e
falta de aderência em alguns pontos. Todos são defeitos típicos do processo, porém, podem
ser controlados a níveis aceitáveis mediante a escolha adequada da técnica de aspersão e dos
parâmetros de aspersão (Sá Brito, 2012; Menezes, 2007).
Considerando as técnicas de AT mais usuais, àquela que utiliza o arco elétrico como
fonte de energia possui a maior taxa de deposição, fácil operação tanto manual quanto
automatizada, baixo custo relativo de consumíveis para deposição e baixo custo geral, bons
níveis de aderência e coesão interlamelar, possibilidade de aplicação mesmo em temperaturas
próximas de 0°C, além de boa adesão para aplicação de selantes ou sistemas de pintura
subsequentes, consistindo num processo de fácil e rápida manutenção. Os equipamentos
necessários são relativamente pequenos, permitindo sua aplicação em campo, o que no caso
de caldeiras de centrais termelétricas vem a ser uma grande vantagem. Algumas desvantagens
do processo a arco ficam por conta dos revestimentos que têm tipicamente altos níveis de
porosidade, óxidos e partículas não fundidas, que podem influenciar diretamente na
resistência mecânica e química do revestimento. Os revestimentos apresentam maior
rugosidade do que aqueles obtidos por outros processos de aspersão, mas que pode ser
diminuido através de modificações no controle dos parâmetros. Os tipos de materiais que
podem ser aplicados pelo processo a arco estão limitados a arames sólidos ou tubulares que
sejam condutores (Gomes, 2018; Antunes, 2013; Brito, 2010; Santos et al., 2007; Lima e
Trevisan, 2007; Schiefler, 2004; Dorfman, 2002).
A quantidade e distribuição de descontinuidades na microestrutura dos revestimentos
obtidos por AT arco elétrico (poros, óxidos e trincas) podem limitar de maneira considerável
a vida útil e o desempenho destes em serviço. Partículas não fundidas aprisionadas no
revestimento reduzem a área de contato entre lamelas promovendo a formação de vazios,
trincas e poros. A presença de poros e fissuras podem gerar uma permeabilidade com efeitos
deletérios para o substrato, como perda de aderência na interface substrato-revestimento, falha
na proteção contra corrosão e diminuição na condutibilidade térmica do mesmo. A presença
de redes de óxidos por sua vez pode reduzir a adesão entre lamelas e elevar substancialmente
a dureza do revestimento, tornando-o frágil e quebradiço (ASM, 2013; Paredes, 2012;
Schiefler, 2004). Dentro deste contexto, é importante avaliar e quantificar com precisão a
presença de trincas e poros em revestimentos obtidos por AT.
Para este estudo foram escolhidas ligas metálicas ferrosas e com altos teores de Cromio e
Níquel para os revestimentos, com intuito de serem utilizadas na proteção de elementos mais
afetados pelo impacto de cinzas leves de caldeiras de centrais termelétricas e evitar a
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

31
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

necessidade de manutenção corretiva. Segundo Szymánsk et al. (2014) ligas à base de Ferro
com elevados teores de Cromio e Níquel são indicadas para produção de revestimentos com
elevada resistência ao desgaste abrasivo e corrosão, muito embora as ligas à base de Níquel
sejam as mais usadas para esta finalidade.

2. METODOLOGIA

Os revestimentos testados foram aplicados sobre chapa de aço carbono com 8 mm de


espessura, e em tubo de aço carbono com composição química igual à da chapa, com diâmetro
nominal externo de 2 polegadas (50,8 mm) e espessura de 6 mm. A composição química da
chapa é apresentada na Tabela 1.

Tabela 1- Composição química da chapa de aço utilizada como substrato.

Elemento C Mn P S Cr Si Mo Ni Fe
% em
0,173 1,1 0,015 0,007 <0,05 <0,05 <0,05 <0,05 Balanço
peso

Os substratos foram previamente preparados por jateamento abrasivo grau Sa2½ (ISO
8501-1, 2007), usando alumina angular G16/20 mesh (1,19/0,84 mm) para limpeza superficial
e obtenção de um padrão de rugosidade que favorecesse a aderência do material aspergido.
Foi utilizado equipamento da Praxair Surface Technologies, modelo TAFA 8835, operado
manualmente para AT por arco elétrico dos arames das ligas metálicas. Os parâmetros
utilizados para produção de todas as amostras revestidas são apresentados na Tabela 2 e foram
determinados com base na experiência técnica da empresa parceira que realizou o processo. A
combinação de parâmetros utilizada buscou obter um tamanho de partícula considerado
“ótimo”, pois partículas atomizadas grandes promovem a formação de poros e partículas
muito finas favorecem a oxidação (KROMER et al., 2016). O gás atomizante foi ar
comprimido. Para revestir externamente o tubo, este foi fixado em torno e permaneceu
girando com velocidade controlada, enquanto o operador manuseava a pistola de aspersão.

Tabela 2- Parâmetros utilizados para a produção dos revestimentos por AT.

Tensão (V) 30
Corrente (A) 100
Pressão do ar atomizante (psi) 70
Distância de projeção (mm) 100
Ângulo de projeção 90°
Taxa de deposição (kg/h) 5

Foram utilizadas duas ligas metálicas distintas aqui nomeadas como A e B (Tabela 3)
para confecção de dois diferentes revestimentos, ambos com espessura média de 500 µm. As
amostras foram denominadas como Chapa Liga A (CA), Chapa Liga B (CB), Tubo Liga A
(TA) e Tubo Liga B (TB).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

32
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3- Composição química dos consumíveis metálicos utilizados no processo de AT.

Elemento (% em peso) Cr Nb Ni B Al Mn Si Fe
Liga A 13,2 6,0 5,5 4,2 2,0 1,3 1,2 Balanço
Liga B 29,0 - - 3,75 - 1,65 1,6 Balanço

As amostras obtidas das chapas metálicas revestidas com as Ligas A e B foram


caracterizadas e testadas sem que fossem expostas às condições reais de trabalho. Já as
amostras dos tubos revestidos foram submetidas à caracterização e testes apenas após a
exposição, não sendo realizada nenhuma análise anterior ao período de um ano em que
permaneceram expostos no interior da caldeira. Os tubos de aço carbono da caldeira possuem
tempo de operação médio estimado em 20 anos, porém, as partes mais afetadas pelo impacto
das partículas de cinzas leves falham com menos de três meses de operação. Considerando
esta informação, não foram realizados testes com o material dos tubos sem revestimento.
Foi utilizado um microscópio eletrônico de varredura (MEV) com detector de elétrons
secundários (SEI), modelo JSM-6510LV da JEOL, operando a 15 kV. O MEV estava
equipado com sistema de microanálise do tipo EDS modelo 6742A-1UUS-SN da marca
Thermo Scientific com resolução especificada de 132 eV, que foi utilizado para análise
química semi-quantitativa dos revestimentos.
Para a quantificação de defeitos dos revestimentos (trincas, poros e redes de óxidos) foi
usada a técnica de processamento digital de imagens (PDI) de seções transversais polidas e
preparadas por diversas etapas de lixamento e polimento metalográfico até obtenção de
superfície altamente especular. Foram utilizadas 30 imagens obtidas por microscopia óptica
(MO) através de um microscópio Axio Imager 1M da ZEISS, para cada condição CA, CB,
TA e TB, sem superposição de campos, com magnificação de 500x. A espessura média das
amostras foi calculada a partir de medidas realizadas através do software Axiovision Zeiss
(Figura 1).

Figura 1- Medidas de espessura realizadas através do software Axiovision Zeiss. TA,


MO, 50x.

O PDI foi realizado o software FIJI ImageJ, com etapas de pré-processamento (para
obtenção de uma imagem em tons de cinza e correção de contraste - Figura 2a e 2b),
segmentação (para gerar uma imagem binária e selecionar os objetos de interesse - Figura 2c),
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

33
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

pós-processamento (para eliminação de ruídos, pixels isolados e preenchimento de vazios


dentro das áreas de interesse - Figura 2d) e extração de atributos (para obtenção de resultados
quantitativos da fração de área dos elementos segmentados na imagem, conforme o fator de
forma aplicado, entre 0,0 e 0,7 para contagens de defeitos alongados e entre 0,7 e 1,0 para
contagem de defeitos arredondados - Figura 2e e 2f).

Figura 2 – Sequência das etapas do PDI para uma imagem do revestimento. Imagens obtidas
por MO, 500x

3. RESULTADOS

A Figura 3 apresenta a chapa revestida com a liga B e exemplifica uma situação


observada para todas as condições testadas. Ela mostra a presença de regiões onde a adesão
com o substrato não foi total (em destaque), isso devido à solidificação da partícula antes do
perfeito escoamento da mesma e preenchimento das irregularidades superficiais. Também
foram observadas as presenças típicas de descontinuidades nos revestimentos, tais como poros
e trincas (regiões escuras no revestimento) e a morfologia irregular da rugosidade
característica em ligas aspergidas por arco elétrico. Estes defeitos e morfologias comuns em
AT já foram reportados por diversos trabalhos (Darabi e Azarmi, 2020; Zhang et el.; 2019;
Boronenkov e Korobov, 2016; Kromer et el.; 2016; Thiyagarajan e Senthilkumar, 2016).

Revestimento

Substrato
Figura 3- Estrutura típica dos revestimentos obtidos por AT a arco elétrico. CB, MO,
100x.

A falta de adesão total do revestimento com o substrato é característica do processo de


deposição utilizado, isto é, a adesão mecânica se dá em pontos determinados entre substrato e
revestimento. No entanto, se isso ocorrer de maneira elevada, pode promover o seu
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

34
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

descolamento. A presença de descontinuidades também é intrínseca à técnica e sempre


associado com os parâmetros de aspersão. Porém, quanto menor possível for, melhor para a
resistência do depósito (ASM, 2013; Schiefler, 2004).
A Figura 4 apresenta uma região do revestimento liga B depositado sobre o tubo, onde a
estrutura lamelar típica deste processo ficou bastante evidente. Além das características já
citadas, pôde-se identificar a presença de cavidades interconectadas que, segundo Zhang et al.
(2019), podem permitir o transporte de fluidos do ambiente no qual o revestimento está
exposto até o substrato e este mecanismo pode acarretar em processos de corrosão e
aceleração da degradação do revestimento e/ou do substrato.

Figura 4- Estrutura típica de revestimento obtido por AT a arco elétrico TB. MO,
100x.

Com um ano de permanência na caldeira, os revestimentos dos tubos analisados


apresentaram uma suavização da superfície do revestimento. Na Figura 4 é possível perceber,
de forma qualitativa, que a rugosidade característica do processo de AT por arco elétrico
diminuiu, sem que houvesse redução da espessura do revestimento, que permaneceu em torno
de 500 µm. Isto ocorreu devido ao impacto de partículas duras de cinzas do carvão mineral
sobre o revestimento dentro da caldeira, que eliminaram as diferenças entre picos e vales da
rugosidade inicial (Thiyagarajan e Senthilkumar, 2016).
A Figura 5 apresenta o mapeamento da composição química obtido por EDS da amostra
CB e que exemplifica a presença de redes óxidos, identificadas pelas regiões ricas dos
elementos Silício e Alumínio em locais com partículas aglomeradas. O sinal obtido para o
Oxigênio também é mais elevado nos aglomerados de Silício e Alumínio. Partículas não-
fundidas são identificadas como um corpo esférico aprisionado entre as lamelas depositadas,
mas que no mapa obtido por EDS apresenta composição química balanceada semelhante ao
revestimento.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

35
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 5- Identificação de redes de óxidos. CB, MEV-EDS, 500x.

A Figura 6 apresenta o revestimento liga B aplicado sobre chapa e identifica com maior
detalhe os defeitos típicos de revestimentos obtidos por AT a arco elétrico, tais como poros,
trincas, partículas não fundidas e possíveis redes de óxidos (Gomes, 2018; Tang et al., 2016;
Citbor et al., 2003). Estes defeitos se mostraram presentes em todas as amostras e ligas
testadas, independentemente da geometria do substrato.

Figura 6- Defeitos típicos dos revestimentos. CB, MO, 500x.

Em todos os casos houve predominância de defeitos alongados, em sua maioria formados


por poros interlamelares (classificados como tipo 1 segundo VREIJLING, 1998).

Tabela 4- Comparativo do percentual médio de defeitos totais (trincas, poros e redes de


óxidos), para todas as condições testadas.

Defeitos Defeitos Defeitos


Totais Alongados Arredondados
CA 5,0 ± 2,0 4,0 ± 2,0 1,0 ± 0,5
CB 5,6 ± 3,0 5,0 ± 2,9 0,6 ± 0,5
TA 7,6 ± 5,5 7,0 ± 5,2 0,6 ± 0,3
TB 14,9 ± 5,8 14,4 ± 5,5 0,6 ± 0,3
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

36
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Outras ligas metálicas depositadas por arco elétrico já apresentaram fração volumétrica
de defeitos medidos por técnicas de PDI entre 3 – 7%. Este valores foram confirmados através
da utilização de diversas outras técnicas, tais como a porosimetria por mercúrio, método de
Archimedes e tomografia. As pequenas diferenças verificadas podem ser atribuídas ao uso de
diferentes ajustes nos parâmetros de processamento utilizados (Darabi e Azarmi, 2020;
Pereira, 2018; Montani, 2016).
Os resultados mostraram valores bem próximos para a quantidade total de defeitos nas
amostras do tipo CA e CB, o que sugere uma significativa influência da morfologia do
substrato nos parâmetros de aspersão no resultado final destes revestimentos. As amostras TA
e TB apresentaram valores de defeitos totais maiores em relação às chapas, o que corrobora
na conclusão de uma provável influência da geometria do substrato no aumento deste
percentual, tendo em vista que foram utilizados os mesmos ajustes no processo.
Este fato provavelmente está relacionado ao ângulo em que permaneceu a pistola de
aspersão durante a deposição e a direção dos passes de deposição das camadas aspergidas, em
cada um dos casos, tubo ou chapa. Ângulos menores que 90º favorecem a presença de
defeitos, podendo isso ser mais acentuado pela geometria do substrato. Outro fator a ser
ressaltado é o aprisionamento de partículas (óxidos ou partículas não fundidas) provenientes
da extremidade do cone de aspersão pelo efeito da rotação do tubo, que lança estas partículas
para o centro do cone. As partículas na extremidade do cone de aspersão resfriam mais
rapidamente e mantêm maior contato com o ar da atmosfera ao redor, fazendo com que
muitas cheguem ao substrato já solidificadas e/ou oxidadas. Um dispositivo auxiliar pode ser
utilizado de modo que os detritos sejam expelidos da superfície por uma corrente de ar
comprimido suplementar antes de serem incorporados ao revestimento. No caso de superfícies
planas, estes dispositivos de ar devem ser posicionados em ambos os lados do jato de
pulverização para ajudar a remover a poeira e resíduos (Figura 7) (ASM, 2013).

Rotação

Detritos
Corrente
de ar

Figura 7- Detritos da extremidade do cone de aspersão que podem incorporados ao


revestimento devido à rotação do tubo e dispositivo de ar suplementar.

4. CONCLUSÃO

Todos os revestimentos testados apresentaram defeitos típicos, tais como: partículas


parcialmente fundidas, redes de óxidos, trincas e porosidades. A presença de poros e trincas
interconectadas pode reduzir a efetividade da camada aspergida protetora e é um parâmetro a
ser observado. A frações de defeitos foram 5,0 ± 2,0%, 5,6 ± 3,0%, 7,6 ± 5,5% e 14,9 ± 5,8%
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

37
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

para as condições CA, CB, TA e TB, respectivamente, estes valores encontram-se dentro do
esperado para revestimentos metálicos obtidos por AT por arco elétrico.
Os revestimentos sobre chapa apresentaram percentual de defeitos semelhantes, que pode
ser atribuído exclusivamente a técnica e parâmetros utilizados, tendo em vista as diferenças na
composição química das ligas. Os revestimentos obtidos sobre tubo, para ambas as ligas,
apresentaram maior percentual de defeitos. Quando comparadas entre si, apesar da diferença
percentual de defeitos entre as amostras TA e TB, estas possuíram também alto desvio
padrão, fazendo com que exista uma zona em comum onde os valores percentuais são
semelhantes.
A maior quantidade de defeitos nas amostras TA e TB em relação a CA e CB foi
atribuída ao modo como foi realizada a aspersão e à geometria do substrato. A aspersão
realizada sobre o tubo enquanto girava promoveu o aumento dos defeitos totais devido ao
aprisionamento de detritos provenientes da extremidade do cone de aspersão. A aspersão
realizada de modo manual é uma variável com baixo controle técnico que pode influenciar
nos resultados. Alterações nos parâmetros de aspersão na busca da diminição dos defeitos nos
revestimentos serão testadas em trabalhos futuros.

Agradecimentos

Este trabalho foi financiado em parte pela Coordenação de Aperfeiçoamento de Pessoal


de Nível Superior – Brasil (CAPES) – Código de financiamento 001 e foi conduzido em
parceria com o Centro de Pesquisa de Energia Elétrica – CEPEL e a Empresa VGK
Engenharia, esta última representada por seu Diretor, Guilherme W. Bungner.

REFERÊNCIAS

Antunes, F.J. Avaliação da adesão e da resistência à corrosão de revestimentos de Cr e Co obtidos através da


técnica de aspersão térmica. Dissertação de Mestrado, Centro Federal de Educação Tecnológica Celso
Suckow da Fonseca - CEFET/RJ. Rio de Janeiro, 2013.
ASM Handbook, Volume 5A, Thermal Spray Technology. R.C. Tucker, Jr., editor. ASM International. Ohio,
2013.
Boronenkov, V.; Korobov, Y. Fundamentals of Arc Spraying. Physical and Chemical Regularities. Springer,
2016.
Brito, V.R.S.S.; Bastos, I.N.; Costa, H. R. M. Corrosion resistance and characterization of metallic coatings
deposited by thermal spray on carbon steel. Materials & Design, 2010.
Ctibor, P.; Roussel, O.; Tricoire, A. Unmelted particles in plasma sprayed coatings. Journal of the European
Ceramic Society, 2003.
Darabi, A.; Azarmi F. Investigation on Relationship Between Microstructural Characteristics and Mechanical
Properties of Wire-Arc-Sprayed Zn-Al Coating. Journal of Thermal Spray Technology. v.20. 2020.
Dorfman, M.R. Thermal Spray - Processes. Advanced Materials & Processes, v.160, 2002.
Gomes, D.L. Caracterização de cinzas leves e de revestimento para caldeiras de central termelétrica brasileira.
Dissertação de Mestrado. Faculdade de Engenharia, Universidade do Estado do Rio de Janeiro, 2018.
Kalsi, S.S.; Sidhu, T.S.; Singh, H. Characterization of NiCrAIY coatings on Ni- and Fe- based superalloys by the
cold spray process. i-manager’s Journal on Material Science, v.1. Índia, 2013.
Kromer, R.; Cormier, J.; Costil, S. Role of Powder Granulometry and Substrate Topography in Adhesion
Strength of Thermal Spray Coatings. Journal of Thermal Spray Technology, 2016.
Krzysztof, S.; Hernas, A.; Moskal, G.; Myalska, H. Thermally sprayed coatings resistant to erosion and
corrosion for power plant boilers - A review. Elsevier. Polônia, 2016.
Lima, C.C.; Trevisan, R. Aspersão Térmica - Fundamentos e Aplicações. 2ed. Artliber, São Paulo, Brasil, 2007.
Menezes, D.D. Avaliação da Resistência à Corrosão de Revestimentos de Alumínio aplicados pelas técnicas de
Arco Elétrico e Chama Convencional em meio cloreto. Tese de Doutorado, Universidade Federal do Rio de
Janeiro, Rio de Janeiro, 2007.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

38
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Montani, U.R.S. Quantificação de Defeitos por Processamento Digital de Imagens em Revestimentos obtidos
por Aspersão Térmica. Dissertação de Mestrado. Faculdade de Engenharia, Universidade do Estado do Rio
de Janeiro, Rio de Janeiro, 2016
Moskal, G.; Krzysztof, S.; Hernas, A.; Myalska, H. Thermally sprayed coatings resistant to erosion and
corrosion for power plant boilers - A review. Silesian University of Technology, Institute of Materials
Science. Elsevier. Polônia, 2016.
Paredes, R.S.C. Aspersão Térmica. Departamento de Engenharia Mecânica, Universidade Federal do Paraná.
Curitiba, 2012.
Pereira, E.S. Quantificaçâo de defeitos através da tècnica de processamento de Imagem em revestimentos
metálicos aspergidos termicamente por arco Elétrico. Dissertação de Mestrado. Centro Federal de Educação
Tecnológica Celso Suckow da Fonseca - CEFET/RJ. Rio de Janeiro, 2018.
Sá Brito, V.R.S.; Bastos, I.N.; Costa, H.R.M. Corrosion resistance and characterization of metallic coatings
deposited by thermal spray on carbon steel. Materials & Design, 2012.
Santos, E.F., Toledo, L.B., Carrilho, M.S. Comparativo entre os processos de aspersão térmica na manutenção.
Universidade Federal do Paraná. Artigos Infosolda. Brasil, 2007.
Schiefler, M.F.O.F., Estudos Microestrutural e Eletroquímico de Revestimentos Metálicos Depositados por
Aspersão Térmica. Tese de Doutorado, Centro Tecnológico, Universidade Federal de Santa Catarina.
Florianópolis, 2004.
SZYMAŃSKI, K., HERNAS, A., MOSKAL, G., & MYALSKA, H. Thermally sprayed coatings resistant to
erosion and corrosion for power plant boilers - A review. Surface and Coatings Technology, 2014.
Tang, J. J.; Bai, Y.; Zhang, J. C.; Liu, K.; Liu, X. Y.; Zhang, P.; Yang, J. F. Microstructural design and oxidation
resistance of CoNiCrAlY alloy coatings in thermal barrier coating system. Journal of Alloys and
Compounds, 2016.
Thiyagarajan, B.; Senthilkumar, V. Experimental studies on fly-ash erosion behavior of Ni-Cr based
nanostructured thermal spray coating in boiler tubes. Materials and Manufacturing Processes, 2016.
Vreijling, M.P. W. Electrochemical Characterisation of Metallic Thermaly Sprayed Coatings. Ph.D – TNO
Institute of Industrial Technology. Netherlands, 1998.
Zhang, X.L.; Jiang, C.P.; Zhang, F.Y.; Xing, Y.Z. The evaluation of microstructure characteristic and corrosion
performance of laser-re-melted Fe-based amorphous coating deposited via plasma spraying. Materials
Express, 2019.

EVALUATION OF DEFECTS IN METALLIC COATINGS SPRAYED


THERMICALLY BY ELECTRIC ARC IN SUBSTRATES OF DIFFERENT
GEOMETRIES

Abstract. Coatings obtained by thermal spray (TS) can be used to protect industry
components that operate under severe conditions of abrasion, particle impact and corrosion.
The objective of this work was to evaluate the amount of defects (pores and cracks) of two
metallic coatings obtained by the technique of TS by electric arc (Alloys A and B) applied on
two different substrate geometries, plates and tubes. The coated tubes remained exposed to
the real working conditions in a coal-fired thermal power plant boiler for a period of one
year. Optical microscopy (OM), scanning electron microscopy (SEM), semi-quantitative
chemical analysis by Energy Dispersive Spectroscopy (EDS) and digital image processing
(DIP) techniques were used. After exposure of the tubes in the field, the high surface
roughness characteristic of the TS process was reduced. The results revealed a higher
percentage of cracks and pores in the pipe coverings (7.6% and 14.9% for alloys A and B
respectively) compared to plates (5.0% and 5.6% for alloys A and B respectively).

Keywords: Thermal spray; Metallic coating; Digital image processing, Substrate Geometry.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

39
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DE DESEMPENHO DOS MODELOS HOLT WINTERS NA


MODELAGEM DA DEMANDA DE ENERGIA ELÉTRICA PARA O ESTADO DO
RIO GRANDE DO SUL

Tuane P. Pereira1 – tuanepp@gmail.com


Viviane L. D. de Mattos2 – vivianeldm.furg@gmail.com
Andrea C. Konrath3 – andreack@gmail.com
Antonio Cezar Bornia4 – cezar.bornia@gmail.com
Luiz R. Nakamura5 – luiz.nakamura@ufsc.br
Vera do Carmo C. de Vargas6 – veradocarmo@gmail.com
1
Universidade Federal do Rio Grande – Rio Grande, RS, Brasil
2
Universidade Federal do Rio Grande – Rio Grande, RS, Brasil
3
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil
4
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil
5
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil
6
Universidade Federal de Santa Catarina – Florianópolis, SC, Brasil

Resumo. Dada a necessidade de atender o crescimento da demanda por energia elétrica, a


previsão do comportamento da demanda se tornou imprescindível para o planejamento do
setor. O presente trabalho analisa dados mensais de energia elétrica no período de janeiro
de 2004 até dezembro de 2019, no estado do Rio Grande do Sul, com o objetivo de criar
modelos de previsão a partir dos modelos aditivo e multiplicativo de Holt Winters, e
determinar o melhor modelo de previsão entre eles. O modelo gerado pelo método
multiplicativo com o segundo conjunto de dados foi identificado como o melhor modelo de
previsão, embora tenha sido incapaz de eliminar a autocorrelação dos resíduos.

Palavras-chave: Demanda. Energia Elétrica. Previsão. Holt Winters. Desempenho.

1. INTRODUCÃO

A demanda de energia elétrica, item considerado imprescindível para a sobrevivência


humana e para a qualidade de vida do homem moderno, está diretamente relacionada com o
produto interno bruto (PIB) do país (Nunes, 2019). Segundo a Empresa de Pesquisa
Energética [EPE] (2017), as taxas de crescimento do PIB estão associadas ao crescimento da
demanda de energia elétrica no Brasil.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

40
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tendo em vista a particularidade do setor elétrico, que lida com o fato de o produto final
não poder ser estocado, e a necessidade de atender o crescimento da demanda, Thomaz (2017)
adverte que o planejamento do setor é fundamental, a fim de minimizar o risco de
desequilíbrios entre oferta e demanda de energia elétrica. Em função disso, a previsão do
comportamento da demanda se tornou instrumento importante para o planejamento do setor,
onde são aplicadas técnicas para analisar séries temporais e identificar estruturas e padrões ao
longo dos anos e assim construir modelos que tenham capacidade de gerar bons resultados
futuros (Pontes, 2018).
Neste trabalho são analisados dados mensais de energia elétrica da classe consumidora
residencial no estado do Rio Grande do Sul no período de janeiro de 2004 até dezembro de
2019, sendo o objetivo criar modelos de previsão de demanda de energia elétrica, a partir da
modelagem de Suavização Exponencial empregando dois cenários com os conjunto de dados
observados, e assim, comparar suas previsões a fim de determinar o melhor modelo. Para tal,
foram aplicadas duas variações do método Holt Winters.

2. REFERENCIAL TEÓRICO

Segundo Hyndman e Athanasopoulos (2018), o método de suavização exponencial


produz suas previsões a partir de médias ponderadas, onde os pesos das observações decaem
exponencialmente conforme as observações sejam mais antigas, ou seja, observações mais
recentes possuem maiores pesos associados. Ainda segundo o autor, o embasamento para a
escolha do método de previsão comumente vem do reconhecimento dos principais
componentes da série temporal, como tendências e sazonalidade.
Dentre diversos métodos de modelagem por suavização exponencial, destacam-se dois
métodos empregados em séries que apresentam sazonalidade: Holt-Winters aditivo, o qual é
eleito quando as variações ao longo da série são aproximadamente constantes; e Holt-Winters
multiplicativo, preferido quando as variações sazonais ao longo da série são alteradas
proporcionalmente (Hyndman e Athanasopoulos, 2018).
Na literatura são encontrados inúmeros trabalhos onde os métodos de Holt Winters foram
utilizados. Jere et al. (2019) avaliaram a performance de dois modelos, sendo um deles o
modelo de suavização exponencial de Holt Winters, para a previsão da chegada de turistas
internacionais na Zâmbia. Os autores encontraram que este é um modelo apropriado com
razoável precisão de previsão e que pode ser usado para modelar a chegada de turistas
internacionais no país. Thomaz e Mattos (2019) criaram modelos para previsão do
comportamento de um indicador econômico da indústria da construção brasileira, chegando à
conclusão de que apesar de ser incapaz de eliminar totalmente a autocorrelação dos resíduos,
o modelo multiplicativo de Holt Winters produziu bons resultados. Já Hassan e Mohamed
(2019) buscaram prever a demanda de energia elétrica no Sudão, utilizando os métodos
ARIMA e Holt Winters, o que reforça que previsões obtidas a partir da modelagem de
suavização exponencial pelo método de Holt Winters pode ser uma boa opção para situações
onde existe sazonalidade.

2.1 Método Holt Winters

O método Holt Winters compõe-se de uma equação de previsão e três equações de


suavização, sendo uma para o nível, uma para a tendência e uma para o componente sazonal,
as quais apresentam parâmetros de suavização correspondentes (Hyndman e Athanasopoulos,
2018).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

41
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Conforme Hyndman e Athanasopoulos (2018), as equações componentes do método


aditivo são apresentadas nas Eq. (1-4).

(1)

(2)

(3)

(4)

onde: , e são respectivamente o nível, a tendência e a sazonalidade no tempo; éo


valor observado no tempo ; indica a frequência de sazonalidade, nesse caso, para dados
mensais é utilizado ; α, β e 𝛾𝛾 são constantes de suavização, com valores entre 0 e 1; e
é o valor previsto h passos à frente.
As equações componentes do método multiplicativo também são explicitadas por
Hyndman (2018), e estão dispostas nas Eq. (5-8).

(5)

(6)

(7)

(8)

Os métodos aditivo, Eq. (1-4), e multiplicativo de Holt Winters, Eq. (5-8), são escritos
similarmente, com algumas modificações nos componentes. A Equação 5 apresenta a
previsão para o método multiplicativo, enquanto que as Eq. (6-8) representam soluções de
nível, tendência e sazonalidade. A equação de tendência ( ) não se altera, pois é linear em
ambos os métodos e não inclui a sazonalidade.
Para o diagnóstico dos modelos podem ser utilizados os Critério de Informação Akaike
(IAC) e o Critério de Informação Bayesiana (BIC), entre outros, conforme apresentado por
Bueno (2011) e Cryer e Chan (2008). Segundo os autores, esses critérios podem ser utilizados
para auxiliar na seleção daquele que seria o melhor modelo, por ser mais parcimonioso,
evitando que sejam utilizados modelos com muitos parâmetros. Segundo Emiliano (2009),
esses critérios penalizam a verossimilhança em função do número de parâmetros do modelo.
A análise dos resíduos permite verificar se os modelos selecionados satisfazem as
suposições de independência, normalidade e homocedasticidade. O teste de Ljung-Box (LB)
verifica a hipótese nula de que os resíduos são independentes, enquanto o teste de Jarque-Bera
(JB) verifica a hipótese nula de que os resíduos seguem uma distribuição normal. Já o teste
ARCH averigua a hipótese nula de que os resíduos são homocedásticos (Bueno, 2011;
Gujarati e Porter, 2011).
Segundo Baltar (2009), entre essas propriedades, a aceitação da normalidade e da
homocedasticidade são desejáveis, enquanto que a independência apresenta caráter
indispensável e eliminatório na escolha do modelo. Isso porque a presença de resíduos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

42
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

autocorrleacionados significa que o modelo não conseguiu captar todas as informações


necessárias para realizar a previsão.
Muito mais importante do que escolher um modelo que possa ser utilizado na previsão, é
verificar se tal modelo escolhido é adequado ao estudo proposto, já que as estimativas
precisas são essenciais para futuras tomadas de decisão (Levenbach, 2017). Neste seguimento,
é relevante determinar os indicadores de qualidade a fim de auxiliar na identificação do
melhor modelo tanto para a fase de ajuste, como para a validação do modelo (Thomaz e
Mattos, 2019).
Segundo Scheidt et al. (2020), o Erro Médio Percentual Absoluto (MAPE – Mean
Absolute Percentage Error) e Raiz do Erro Quadrático Médio (RMSE – Root Mean Squared
Error), estão entre os inidcadores de qualidade mais utilizados na identificação do melhor
modelo. O MAPE é uma medida relativa e representa a média da diferença absoluta entre os
valores previstos e observados, expresso em porcentagem dos valores observados. Já o RMSE
é proveniente da soma das estimativas de erro elevadas ao quadrado, dividido pelo número de
períodos analisados, seguido da extração de sua raiz quadrada, sendo mais influenciado pelos
resíduos de maior magnitude. O U de Theil avalia a acurácia do modelo para a previsão em
relação à acurácia da previsão do método ingênuo (Levenbach, 2017; Scheidt et al., 2020).
Mais detalhes sobre as técnicas apresentadas podem ser encontradas em Cryer e Chan
(2008), Morettin (2011), Gujarati e Porter (2011), Levenbach (2017), Hyndman e
Athanasopoulos (2018) e Morettin e Toloi (2018).

3. METODOLOGIA

Os dados empregados nesse estudo foram obtidos a partir do banco de dados da EPE
(2020) e se referem ao período de janeiro de 2004 até dezembro de 2019, com periodicidade
mensal, totalizando 192 observações. Foram abordados dois cenários de modelagem, a fim de
evidenciar que pequenas mudanças no conjunto de dados, utilizados na fase de ajuste, podem
acarretar em modelos de previsão totalmente distintos.
A primeira análise utiliza os 12 primeiros anos (144 observações) dos dados para a fase
de ajuste, ou calibração do modelo, e para a fase de validação os 4 últimos anos (48
observações). Já a segunda análise considera os 13 primeiros anos (156 observações) para a
fase de ajuste e 3 anos (36 observações) para a fase de validação. Além disso, esses dois
arranjos de conjunto dos dados são analisados empregando o método Holt Winters Aditivo
(HWA) e o método Holt Winters Multiplicativo (HWM).
A qualidade do ajuste do conjunto de dados foi analisada em termos das medidas de
acurácia RMSE e MAPE. Além disso, também foram empregados os critérios de informação
AIC e BIC. Já os resíduos dos modelos foram analisados a partir do teste de Jarque-Bera (JB),
Ljung-Box (LB) e ARCH. É importante ressaltar que para o presente estudo o nível de
significância adotado para os testes foi de 5%. A definição do melhor modelo de previsão se
deu a partir das medidas de erro: MAPE e RMSE, bem como do parâmetro U de Theil.
Destaca-se que todas as análises desse estudo foram realizadas através do software R,
utilizando os pacotes forecast, fpp, fpp2, tseries, ggplot2, expsmooth, fma, lmtest, zoo e
aTSA.

4. RESULTADOS E DISCUSSÕES

Apresenta-se na Fig. 1 o comportamento da série temporal utilizada neste estudo. Os


eixos x e y representam, respectivamente, o tempo em anos e a demanda de energia elétrica,
em MWh, para a classe consumidora residencial no estado do Rio Grande do Sul. É possível
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

43
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

observar que existem picos característicos de sazonalidade na série temporal, associados ao


período de verão, além de uma tendência de crescimento, que pode estar associada ao
crescimento do PIB, por exemplo.

Figura 1- Demanda de energia elétrica no período de janeira de 2004 a dezembro de 2019.

Além disso, no ano de 2015 percebe-se uma diminuição brusca da demanda logo após o
pico, o que se supõem ser devido à alta do valor da energia elétrica no país. À vista disso, foi
proposta a modelagem de dois conjuntos de dados diferentes. O primeiro conjunto de dados
(Conjunto 1) não considerou o período de decaimento na fase de ajuste do modelo, enquanto
que o segundo conjunto de dados (Conjunto 2) considerou o período em questão na fase de
ajuste do modelo.
Duas variações do método Holt Winters (HW) foram consideradas para cada conjunto de
dados: Holt Winters Aditivo (HWA) e Holt Winters Multiplicativo (HWM). A Tab. 1
apresenta as medidas de acurácia RMSE e MAPE, assim como os critérios de informação
AIC e BIC.

Tabela 1- Desempenho da modelagem HW para fase de ajuste.

Modelo RMSE MAPE (%) AIC BIC


HWA
26804,12 3,175943 3686,191 3736,677
(Conjunto 1)
HWA
27788,1 3,232452 4014,275 4066,122
(Conjunto 2)
HWM
25617,12 3,186936 3645,009 3695,496
(Conjunto 1)
HWM
26678,03 3,130967 3961,894 4013,742
(Conjunto 2)

Analisando os dados da Tab. 1 verificou-se que os modelos ajustados com o Conjunto 1


apresentaram os menores índices para a fase de ajuste do modelo, com exceção do parâmetro
MAPE para o método multiplicativo, que indicou valores menores para o Conjunto 2. A
seguir, a Tab. 2 apresenta a análise dos resíduos para os modelos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

44
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2- Análise dos resíduos dos modelos.

Modelo JB(p-valor) LB(p-valor) Homocedasticidade


HWA
<0,0001 <0,0001 0,001387
(Conjunto 1)
HWA
<0,0001 <0,0001 0,001132
(Conjunto 2)
HWM
<0,0001 <0,0001 0,3903
(Conjunto 1)
HWM
<0,0001 <0,0001 0,1482
(Conjunto 2)

Os resultados do teste de autocorrelação de Ljung-Box, contidos na Tab. 2, indicam que


todos os modelos gerados apresentam resíduos autocorrelacionados, ou seja, informações
importantes sobre os dados não foram captadas pelos modelos em questão. Já os resultados do
teste de normalidade de Jarque Bera, apontam para a não normalidade dos dados em todos os
modelos. Ainda, é possível observar o teste que verifica a homocedasticidade dos resíduos de
cada modelo e, neste caso, o método multiplicativo para ambos os conjuntos, apresentam
dados homocedásticos.
Todos os modelos gerados foram comparados, levando em consideração seus
desempenhos, tanto na fase de ajuste quanto na fase de validação, sendo os resultados
dispostos na Tab. 3. Conclui-se então, que para a fase de ajuste, os modelos ajustados com o
método HWM apresentam o melhor desempenho, com exceção do parâmetro MAPE onde o
valor para HWM do Conjunto 1 é superior ao HWA para o mesmo arranjo de conjunto
analisado. Para a fase de validação, os modelos ajustados com os dados do Conjunto 1
apresentam o pior desempenho, inclusive, com valores do parâmetro U de Theil maiores que
1, o que indica que as previsões geradas por esses modelos são piores que as previsões
geradas pelo método ingênuo. Os modelos que consideram os dados do Conjunto 2
apresentam pior desempenho na fase de ajuste, entretanto revelam melhor desempenho na
fase de validação.

Tabela 3- Comparação dos modelos para os dados de ajuste e validação.

Ajuste Ajuste Validação Validação Validação


Modelo
RMSE MAPE (%) RMSE MAPE (%) U de Theil
HWA
26804,12 3,175943 58934,28 6,230783 1,01086
(Conjunto 1)
HWA
27788,1 3,232452 43571,75 5,034302 0,7682572
(Conjunto 2)
HWM
25617,12 3,186936 320371,28 39,988075 5,858439
(Conjunto 1)
HWM
26678,03 3,130967 38433,80 3,856711 0,646982
(Conjunto 2)

Esses desfechos se devem à divisão da série temporal para as fases de ajuste e


validação. O Conjunto 1 não considerou para a fase de ajuste o período de brusca queda na
demanda no ano de 2015, fazendo com que os dados atípicos fossem incluídos na fase de
validação e, assim, apresentassem pior desempenho nessa fase. Já o Conjunto 2 incluiu os
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

45
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

dados atípicos na fase de ajuste do modelo, o que acarretou numa fase de validação com
melhor desempenho. Outro ponto importante é que o horizonte de previsões, ou seja, a
quantidade de dados utilizados para validação, foi mais amplo no Conjunto 1, o que também
pode ter contribuído para diminuir a precisão da previsão. Quanto maior o horizonte de
previsão, maiores serão os erros, diminuindo sua precisão.
No geral, considera-se que o método multiplicativo apresenta melhores resultados se
comparado ao método aditivo. Ademais, conclui-se que considerando os modelos
apresentados nesse estudo, o melhor modelo de previsão para a série temporal é o gerado a
partir dos dados do Conjunto 2 pelo método Multiplicativo de Holt Winters, ainda que este
apresente autocorrelação nos resíduos.
Dado que o modelo HWM (Conjunto 2) apresentou os melhores resultados, o mesmo
foi escolhido para prever a demanda de energia elétrica da classe consumidora residencial no
estado do Rio Grande do Sul. A Fig. 2 apresenta a comparação entre a série temporal original
e o modelo HWM (Conjunto 2). Já a Fig. 3 apresenta os intervalos de confiança para
previsões do modelo. A região sombreada mais escura representa o intervalo de confiança de
80%, enquanto que a região sombreada mais clara representa o intervalo de confiança de
95%.
Por fim, a partir de análise visual das Fig. 2 e 3 é razoável admitir que os valores
observados se encontram dentro dos intervalos de confiança, sendo assim, pode-se concluir
que a curto prazo as previsões apresentam boa precisão.

Figura 2- Valores observados e modelo HWM (Conjunto 2) em vermelho

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

46
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Valores observados e intervalos de confiança

5. CONCLUSÕES

Este estudo se dispôs a elaborar um modelo de previsão da demanda de energia elétrica


para a classe consumidora residencial no estado do Rio Grande do Sul. Em virtude da
necessidade de atender à crescente demanda por energia elétrica, a previsão do
comportamento dessa variável se tornou aliada no processo de planejamento do setor, a fim
de minimizar riscos de desequilíbrios entre oferta e demanda. Visto que a série temporal
apresenta tendência e sazonalidade, optou-se pelo emprego de duas variações do método de
Holt Winters.
Os resultados mostraram que para a fase de ajuste, os melhores desempenhos foram
alcançados pelos modelos que utilizaram os dados do Conjunto 1, enquanto que para a fase de
validação, os modelos ajustados com o mesmo conjunto de dados apresentaram desempenho
pior até mesmo que de previsões geradas pelo método ingênuo.
De maneira geral, dentre os modelos propostos, o elaborado pelo método multiplicativo
com o Conjunto 2 apresentou melhor desempenho e entende-se que a curto prazo suas
previsões apresentaram boa precisão. No entanto, todos os modelos gerados apresentaram
resíduos autocorrelacionados, o que é inadequado. Dessa forma, destaca-se a necessidade de
entender a incapacidade dos modelos de eliminar a autocorrelação dos resíduos, visto que essa
característica foi percebida anteriormente em outros estudos, como por exemplo Thomaz e
Mattos (2019).
Em continuidade a este estudo, esta metodologia está sendo aplicada aos dados de
demanda de energia elétrica em outras classes consumidoras: comercial e industrial, para em
sequência, ser analisado o desempenho de outra metodologia, proposta por Box-Jenkins
(1996), que faz uso de modelos autoregressivos de médias móveis (ARMA).

REFERÊNCIAS

Baltar, B. P. (2009), “Análise temporal dos preços da commodity cobre usando o Modelo Box e Jenkins”,
Dissertação de Mestrado, PUC-Rio, Rio de Janeiro.
Box, G.E.P.; Jenkins, G.M. (1996), “Time series analysis forecasting and control”, San Francisco: Holden-Day.
Bueno, R. D. L.S. (2011), “Econometria de séries temporais”, 2° ed., Editora Cengage Learning, São Paulo.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

47
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Cryer, J.D.; Chan, K.(2008), “Time Series Analysis Whit Applicatons in R”, 2° ed., Spring, New York.
Emiliano, P. C. (2009), “Fundamentos e aplicações dos critérios de informação: Akaike e Bayesiano”,
Dissertação de Mestrado, UFLA, Lavras.
EPE, Empresa de Pesquisa Energética. (2017), Nota Técnica DEA 03/15. “Projeção da demanda de energia
elétrica 2015-2024”.
EPE, Empresa de Pesquisa Energética (2020). Dados abertos. Recuperado em 20 de agosto, 2020, de
http://www.epe.gov.br/pt
Gujarati, D.N.; Porter, D.C. (2011), “Econometria Básica”, Editora AMGH, Porto Alegre.
Hassan, H. M., & Mohamed, T. (2019), “Modelling Electricity Demand in Sudan Using Multiplicative Seasonal
ARIMA and HOLT-WINTERS”. Available at SSRN 3321016.
Hyndman, R. J., & Athanasopoulos, G. (2018), “Forecasting: principles and practice”. OTexts.
Jere, S., Banda, A., Kasense, B., Siluyele, I., & Moyo, E. (2019), Forecasting Annual International Tourist
Arrivals in Zambia Using Holt-Winters Exponential Smoothing. Open Journal of Statistics, 9(2), 258-267.
Levenbach, H.(2017), “Change&Chance Embraced”, Editora: David Coen Freelance copy editor.
Morettin, P. A., Toloi, C. M. C.(2018), “Análise de séries temporais”. vol 1, 3ª. ed, Editora Blucher, São Paulo.
Morettin, P. A.(2011), “Econometria financeira”. 2ª. ed., Editora Blucher, São Paulo.
Nunes, G. S. (2019), “O uso dos métodos ARIMA e VAR-REC no estudo da demanda de energia elétrica no Rio
Grande do Sul”, Dissertação de Mestrado, FURG, Rio Grande.
Pontes, L. P. (2018), “Previsão de séries temporais: produção industrial e demanda de energia elétrica
residencial no Brasil”, Tese de Doutorado, UCB, Brasília.
Scheidt, F; Medinová, H; Ludwig, N; Richter, B; Staudt, P; Weinhardt, C. (2020), “Data analytics in the
electricity sector –A quantitative and qualitative literature review”. Energy and AI
Thomaz, R. A. (2017), “Demanda de energia elétrica no Brasil: 1995-2015”, Dissertação de Mestrado, UFPR,
Curitiba.
Thomaz, P. S., Mattos, V. L. D. (2019), “Predicting the GFCF of the Brazilian Construction Industry: A
comparison between Holt Winters and SARIMA models”. Revista Gestão Industrial, vol. 15, 180-196.,
Paraná.

PERFORMANCE ANALYSIS OF HOLT WINTERS MODELS IN THE MODELING


OF ELECTRICITY DEMAND FOR THE STATE OF RIO GRANDE DO SUL

Abstract. Given the need to meet the growing demand for electricity, forecasting the behavior
of demand has become essential for sector planning. This work analyzes monthly electricity
data from January 2004 to December 2019, in the state of Rio Grande do Sul, with the
objective of creating forecast models based on the additive and multiplicative models of Holt
Winters, and determining the best forecasting model among them. The model generated by the
multiplicative method with the second data set was identified as the best prediction model,
although it was unable to eliminate the autocorrelation of the residues.

Keywords: Demand. Electricity. Prediction. Holt Winters. Performance.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

48
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

APROXIMAÇÃO DA SOLUÇÃO DE ONDAS SÍSMICAS (3D) PELO MÉTODO DE


DIFERENÇAS FINITAS

Vinicius T. Jorges1 - vinicius.tj@gmail.com


Marcio Borges2 - mrborges@lncc.br
1 Universidade Federal do Rio de Janeiro - Rio de Janeiro, RJ, Brazil
2 Laboratório Nacional de Computação Cientı́fica - Petrópolis, RJ

Abstract. A inversão de dados sı́smicos tem papel preponderante na descoberta de novos reser-
vatórios de petróleo, bem como, na caracterização das rochas e monitoramento destes reser-
vatórios. A simulação do comportamento das ondas sı́smicas no subsuperfı́cie é parte inte-
grante do processo de inversão de dados em uma abordagem estocástica. Neste sentido, o
objetivo desse trabalho foi estudar e implementar métodos numéricos para a aproximação da
equação da onda em um domı́nio tridimensional heterogêneo.

Keywords: Sı́smica, diferenças finitas, reservatórios de petróleo, inversão de dados

1. INTRODUÇÃO

A geofı́sica desempenha papel crucial na descoberta de novos reservatórios de petróleo e,


ainda hoje, o principal uso de dados sı́smicos é identificar a geometria dos refletores. Isso é
possı́vel porque as ondas sı́smicas são refletidas nas interfaces entre materiais de diferentes pro-
priedades acústicas [Frazer et al., 2008]. Entretanto, recentemente, estudos sı́smicos tem sido
usados para a caracterização das rochas e monitoramento dos reservatórios (sı́smica 4D), pela
transformação de dados de reflexão em propriedades de rochas. Portanto, a inversão de dados
sı́smicos é uma ferramenta essencial na determinação das propriedades elásticas do subsolo.
O problema de inversão de dados geofı́sicos pode ser resolvido de forma determinı́stica ou
estocástica. Devido ao fato dos dados serem incompletos a inversão é um problema tipica-
mente mal posto (não possui solução única) e, portanto, na abordagem determinı́stica alguma
regularização deve ser imposta na função objetivo introduzindo uma “suavização” não realista
na solução. Para quantificar essa ausência de unicidade de solução, métodos estocásticos podem
ser utilizados. Por exemplo, a introdução dinâmica dos dados nos modelos pode ser formal-
izada em termos de métodos Bayesianos e simulações de Monte Carlo via cadeias de Markov
(MCMC - Markov Chain Monte Carlo methods, veja Liu [2001], Robert and Casella [2005]). A
inferência Bayesiana é conveniente na quantificação da informação inserida no modelo a partir
de diversas fontes. Já os métodos MCMC por sua vez, fornecem uma estrutura computacional
para o processo de amostragem necessário à inferência Bayesiana.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

49
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

No processo de inversão de dados sı́smicos, utilizando uma abordagem estocástica [Sen and
Biswas, 2017], é imprescindı́vel o uso de um simulador do comportamento das ondas sı́smicas
em subsuperfı́cie. Desta forma, o objetivo principal deste trabalho é o estudo de métodos
numéricos para aproximação da equação da onda em um domı́nio tridimensional heterogêneo.

2. METODOLOGIA

O modelo fı́sico considerado é um meio elástico heterogêneo pelo qual o som é propagado
através de pequenas vibrações elásticas. O modelo matemático para descrever as deformações
em um meio elástico é baseado na segunda lei de Newton:

∂2
ρ ~u = ∇· σ + ρf~, (1)
∂t2
e na lei constitutiva linear (Lei de Hooke) que relaciona o tensor de tensões (σ) e o campo de
deslocamentos (~u):
 
T 2
σ = K∇· ~u I + G ∇~u + (∇~u) − ∇· ~u I , (2)
3
onde, I é o tensor identidade, ρ é massa especı́fica do meio, f~ representa as forças de corpo, K
é o módulo elástico e G o módulo de cisalhamento.
Assumindo que o segundo termo à direita da Lei de Hooke, Eq. (2), representando as
deformações que dão origem as tensões de cisalhamento, e as forças de corpo podem ser negli-
genciados, temos, a partir das Eq. (1) e Eq. (2):
∂2
ρ~u = ∇ (K∇· ~u) . (3)
∂t2
Em seguida, introduzindo a pressão como:
p = −K∇· ~u (4)
e dividindo Eq. (3) por ρ, temos
∂2 1
2
~u = − ∇p. (5)
∂t ρ
Agora, tomando a divergência desta última equação, usando o resultado dado pela Eq. (4) e
adicionando um termo de fonte (ϕ), temos a equação linear da onda
∂2
 
1
p (~x, t) = K∇· ∇p (~x, t) + ϕ (~x, t) . (6)
∂t2 ρ (~x)
Finalmente, assumindo que o gradiente da massa especı́fica (ρ) pode ser negligenciado,
temos que:

∂2
p (~x, t) = c2 (~x) ∇2 p (~x, t) + ϕ (~x, t) , (7)
∂t2
p
onde, c (~x) = K (~x)/ρ (~x) é a velocidade de propagação, K é o módulo elástico e ϕ o termo
de fonte. Em conjunto com a Eq. (7), condições iniciais e de contorno devem ser fornecidas.
Foi implementado e testado um código computacional, escrito em FORTRAN 90, para
aproximar a solução da equação (7), em um domı́nio tridimensional, utilizando o método de
diferenças finitas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

50
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. APROXIMAÇÃO NUMÉRICA

Para aproximar a solução da Eq. (7) foi utilizado o método de diferenças finitas centradas de
segunda e quarta ordens no espaço (ambos de segunda ordem no tempo). O domı́nio temporal
[0, T ] é discretizado por um número N t finito de pontos igualmente espaçados: 0 = t0 < t1 <
· · · < tN t−1 < tN t = T , com ∆t = tn − tn−1 . De forma similar, discretizamos as componentes
espaciais, onde ∆x = xi − xi−1 , ∆y = yj − yj−1 e ∆z = zk − zk−1 . Definindo Pni,j,k como uma
aproximação para p(xi , yj , zk , tn ), onde os ı́ndices i, j, k se referem aos pontos da malha nas
direções x, y, z, respectivamente, enquanto ı́ndice n representa o número do passo de tempo da
simulação. A seguir, apresentamos a aproximação obtida usando o método de segunda ordem:

2
∆t
Pn+1
 n 
= C
i,j,k Pi+1,j,k − 2Pni,j,k + Pni−1,j,k +
 ∆x 2
∆t  n 
C Pi,j+1,k − 2Pni,j,k + Pni,j−1,k +
(8)
 ∆y 2
∆t  n 
C Pi,j,k+1 − 2Pni,j,k + Pni,j,k−1 +
∆z
2Pni,j,k − Pn−1 2
i,j,k − ∆t δ(i, iϕ )δ(j, jϕ )δ(k, kϕ )ϕ
n

 2
2 K(xi , yj , zk )
onde C = ci,j,k = . Os pontos iϕ , jϕ , kϕ indicam a posição da fonte nos nós
ρ(xi , yj , zk )
da malha, portanto, δ(α, αϕ ) = 1 caso α = αϕ e δ(α, αϕ ) = 0, caso contrário, onde α = i, j, k.

4. RESULTADOS E DISCUSSÃO

Nesta seção, apresentamos os resultados numéricos obtidos para 2 experimentos descritos a


seguir.

4.1 Problema 1D
s
K
Considere um material elástico, com velocidade de propagação c = , no domı́nio uni-
ρ
dimensional [L0 , L1 ]. Com base na Eq. (7), o seguinte problema matemático foi utilizado para
os testes:
ptt = c2 pxx + ϕ, (9)
em conjunto com as seguintes condições iniciais e de contorno:

p(x, 0) = f (x), x ∈ [L0 , L1 ]


px (x, 0) = 0, x ∈ [L0 , L1 ]
. (10)
p(L1 , t) = 0, t ∈ (0, T ]
p(L2 , 0) = 0, t ∈ (0, T ]
De forma semelhante ao que foi realizado para a Eq. (8), a solução da Eq. (9), associada
com condições dadas na Eq. (10), foi aproximada utilizando o método de diferenças finitas
centradas. Desconsiderando o termo de fonte e utilizando aproximações de segunda ordem no
tempo e segunda e quarta ordens no espaço, obtemos:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

51
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• Segunda ordem:

Pin+1 = −Pin−1 + 2Pin + Ci2 Pi+1


n

n
− 2Pin + Pi−1 (11)

• Quarta ordem:

Ci2 
Pin+1 = −Pin−1 + 2Pin + n n
− 30Pin + 16Pi+1n n

−Pi−2 + 16Pi−1 − Pi+2 , (12)
12
onde C = c∆t/∆x, L0 = −10, L1 = 10 e f (x) = exp[−(x + 5)2 ].
Para visualizar a reflexão e transmissão das ondas, utilizamos dois valores de velocidade de
propagação:

c1 = 1, L0 6 x 6 0,
c(x) = (13)
c2 = 1/4, 0 < x 6 L1 .

O domı́nio foi discretizado em uma malha de 501 nós e, para garantir estabilidade do método,
1 ∆x
consideramos ∆t = .
2 max{c}
Quando uma onda propagante se depara com uma barreira, ou uma interface entre dois
meios diferentes (mudança de velocidades dada em (13)), podem ocorrer dois fenômenos: re-
flexão e transmissão. As relações entre a onda incidente (Ai) e as ondas transmitida (At) e
refletida (Ar) são dadas por:

Ar At
=R e = T, (14)
Ai Ai
onde R e T são os coeficientes de reflexão e transmissão, respectivamente, determinados por:
Ar c2 − c1
=R=
Ai c1 + c2
e
At 2c2
=T = .
Ai c1 + c2
Aqui, c1 e c2 são as velocidades de propagação da onda nos dois meios. Essas relações foram
usadas para prever o comportamento das ondas e são representadas na Figura 1. Podemos ver
que as soluções aproximadas das ondas comportaram-se segundo as previsões teóricas, ou seja,
as ondas refletida e transmitida alcançaram as alturas dadas pela Eq. (14) e representadas no
gráfico pelas linhas pontilhadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

52
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R

Pressão
Pressão

0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(a) Condição inicial (b) t=0.72
1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R
Pressão

Pressão
0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(c) t=0.80 (d) t=0.88
1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R
Pressão

Pressão

0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(e) t=0.96 (f) t=1.04
1 1
segunda ordem segunda ordem
quarta ordem quarta ordem
T T
0.5 R 0.5 R
Pressão
Pressão

0 0

-0.5 -0.5

-1 -1
-10 -5 0 5 10 -10 -5 0 5 10
x x
(g) t=1.12 (h) t=1.20

Figure 1- Solução aproximada da pressão em diferentes instantes de tempo.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

53
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.2 Problema 3D

Neste experimento numérico, consideramos um domı́nio Ω = [1000m × 1280m × 1000m],


discretizado em uma malha de 251 × 321 × 251 pontos. O domı́nio Ω apresenta quatro camadas
de materiais com diferentes velocidades (Figura 2).

Figure 2- Velocidades das camadas do domı́nio Ω.

Uma fonte sı́smica, descrita matematicamente por


2
ϕ (~x, t) = 1 − 2π (πfc td )2 e−π(πfc td ) ,
 
(15)

foi localizada na posição
√ (x, y, z) = (500m, 1280m, 500m). Aqui fc = fr /3 π é a frequência
de corte, td = t − 2 π/fr e fr a frequência da onda (neste exemplo, fr = 50Hz). Nas fronteiras
do domı́nio foram consideradas condições de contorno absorventes.
A Figura 3 mostra a propagação da onda sı́smica em vários instantes de tempo obtida uti-
lizando o método descrito na Eq. (8). Podemos observar que a onda, ao atingir uma camada
com propriedade diferente, parte dela é refletida e parte é transmitida com velocidade diferente,
conforme esperado.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

54
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

(a) Condição inicial (b)

(c) (d)

(e) (f)

Figure 3- Pressão em tempos destintos.

5. Conclusões

O método de diferenças finitas (de segunda e quarta ordens) proporcionou uma boa aproxi-
mação da solução da Eq. (7), capturando o comportamento fı́sico esperado para os problemas
estudados. Portanto, temos um simulador que está qualificado para ser usado no processo de
inversão de dados sı́smicos reais.

Acknowledgements

Ao Programa Institucional de Bolsas de Iniciação Cientı́fica e Tecnológica PIBIC/PIBITI


do LNCC.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

55
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

B. Frazer, A. Bruun, K. B. Rasmussen, J. C. Alfaro, A. Cooke, D. Cooke, D. Salter, R. Godfrey,


D. Lowden, S. McHugo, H. Özdemir, S. Pickering, F. G. Anderson Pineda, J. Herwanger,
S. Volterrani, A. Murneddu, A. Rasmussen, and R. Roberts. Seismic inversion: Reading
between the lines. Oilfield Rev, 20(1):42–63, 2008.
J. S. Liu. Monte Carlo Strategies in Scientific Computing. Springer, 2001. ISBN 0387952306.
C. P. Robert and G. Casella. Monte Carlo Statistical Methods (Springer Texts in Statistics).
Springer-Verlag New York, Inc., Secaucus, NJ, USA, 2005.
M. K. Sen and R. Biswas. Transdimensional seismic inversion using the reversible
jump hamiltonian monte carlo algorithm. Geophysics, 82(3):119–134, 2017. doi:
https://doi.org/10.1190/geo2016-0010.1.

APPROXIMATION OF THE SEISMIC WAVE SOLUTION (3D) BY THE FINITE


DIFFERENCE METHOD

Abstract. The inversion of seismic data plays a major role in the discovery of new oil reservoirs
as well as in the characterization of rocks and in the monitoring of these reservoirs. The simula-
tion of the behavior of seismic waves on the subsurface is an integral part of the data inversion
process in a stochastic approach. In this sense, the aim of this work was to study and implement
numerical methods for approximating the wave equation in a heterogeneous three-dimensional
domain.

Keywords: Seismic, finite differences, oil reservoirs, data inversion

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

56
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

An experimental evaluation of an ant colony hyper-heuristic approach for evolving


low-cost heuristics for profile reductions

L. M. Silva1 - liberio@posgrad.ufla.br
S. L. Gonzaga de Oliveira1 - sanderson@ufla.br
1 Universidade Federal de Lavras, Departamento de Ciência da Computação - Lavras, MG, Brazil

Abstract. The profile minimization problem is a well-known N P-hard problem. State-of-the-art


low-cost heuristics for profile reduction rely on graph theory concepts. This paper describes
our experience in implementing an ant colony hyper-heuristic approach that evolves and selects
three low-cost heuristics for the profile reduction of symmetric matrices. Specifically, the hyper-
heuristic algorithm used the principal structure of Sloan’s, MPG, and NSloan heuristics. This
paper evaluates the resulting heuristics for profile reduction from the ant colony hyper-heuristic
approach in two application areas against six low-cost heuristics for solving the problem.
The results obtained on a set of standard benchmark matrices taken from the SuiteSparse
sparse matrix collection indicate that the resulting heuristics from the ant colony hyper-
heuristic approach does not compare favorably with the low-cost heuristics for profile reduction
evaluated.

Keywords: Profile reduction, sparse matrices, ant colony optimization, hyper-heuristic,


reordering algorithms

1. Introduction

The solution of large-scale sparse linear systems Ax = b, where A = [aij ] is an n × n sparse


matrix, x is the unknown n–vector solution and b is a known n–vector, is central in various
application domains in science and engineering, such as 2-D/3-D and thermal problems. The
solution of large-scale sparse linear systems is commonly the step of the simulation that requires
long execution times. A useful graph labeling is desirable for the low-cost solution of large-scale
linear systems by iterative and direct methods [7, 10, 9]. Thus, the corresponding coefficient
matrix A will have a small profile.
Palubeckis [20] identified several other applications for the profile reduction problem. Berry
et al. [2] dealt with the problem in the information retrieval setting for cluster identification.
Higham [11] considered the profile reduction problem in the context of small-world networks.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

57
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Additionally, Mueller et al. [19] used profile reduction techniques in the graph visualization
domain. Bolanos et al. [3] considered the problem to a new approach for computing entropy
rate for undirected graphs. Meijer and de Pol [18] applied heuristics for profile reduction in
symbolic model checking.
Heuristics for profile reduction place nonzero coefficients of a sparse matrix as close to
the main diagonal as possible. Let A = [aij ] be an n × n symmetric adjacency matrix
associated with an undirected graph G = (V, E) composed of a set ofPvertices V and a
n
set of edges E. The profile of matrix A is defined as prof ile(A) = i=1 βi (A), where
βi (A) = i − min [j : aij 6= 0]. Equivalently, the profile of G for a vertex labeling
1≤j≤i
S = {s(v1 ), s(v2P
), . . . , s(v|V | )} (i.e. a bijective mapping from V to the set {1, 2, . . . , |V |})
is prof ile(G) = max [|s(v) − s(u)|]. The profile minimization problem is N P-hard [16].
v∈V {v,u}∈E
Koohestani and Poli [13, 14] proposed a genetic programming hyper-heuristic for profile
reduction. The resulting heuristic from the genetic programming hyper-heuristic uses the
Fiedler vector to yield reasonable profile results. The Fiedler vector is the eigenvector
corresponding to the smallest positive eigenvalue of the Laplacian matrix of graph G = (V, E).
The resulting heuristic from the genetic programming hyper-heuristic is a slow algorithm,
however. For example, the algorithm computed a matrix with a size of 2,680 in more than
one hour [14]. This high computational effort limits the applicability of the algorithm. A slow
algorithm is not desirable, especially in a situation in which the execution time is of critical
importance.
The authors of the present study presented another version of a genetic programming hyper-
heuristic for profile reduction [22]. The resulting heuristics from the genetic programming
hyper-heuristic are fast algorithms. However, an existing heuristic dominated the profile results
of the proposed algorithm [22].
Recently, the authors of the present study showed that the resulting heuristics from an
ant colony hyper-heuristic (ACHH) approach yielded better results than several state-of-the-art
reordering algorithms did [9, 8]. The authors conducted experiments with symmetric positive
definitive matrices to reduce the execution costs of a linear system solver [9]. The same authors
performed experiments with symmetric and nonsymmetric matrices to a similar combinatorial
problem [8]. The ACHH system evolves and selects heuristics for a specific application area.
This paper applies the ACHH approach for evolving and selecting heuristics for the profile
reduction of symmetric matrices. Specifically, this paper evaluates the resulting heuristics for
profile reduction in two application fields against Sloan’s [23], MPG [17], NSloan [15], Sloan-
MGPS [21], and Hu-Scott [12] heuristics.
The remainder of this paper is structured as follows. In Section 3., we introduce the hyper-
heuristic method for profile reduction. In Section 4., we describe how this paper conducted the
tests. In Section 5., the results are discussed. Finally, we address the conclusions in Section 6..

2. Heuristics evaluated

Sloan [23] proposed an important heuristics in this field. The heuristic is inexpensive
(in terms of execution times and storage costs) and generates high-quality solutions. Sloan’s
heuristic [23] uses two weights in its priority scheme in order to label the vertices of the
instance: w1 , associated with the distance d(v, e) from the vertex v to a pseudo-peripheral
(target end) vertex e that belongs to the last level of the level structure rooted at a starting
vertex s, and w2 , associated with the degree of each vertex. The priority function p(v) =

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

58
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

w1 · d(v, e) − w2 · (deg(v) + 1) employed in Sloan’s heuristic [23] presents different scales for
both criteria. The value of deg(v) + 1 ranges from 1 to m + 1 [where m = max[deg(v)] is the
v∈V
maximum degree found in the graph G = (V, E)], and d(v, e) ranges from 0 (when v = e) to
the eccentricity `(e) (of the target end vertex e).
MPG [17], NSloan [15], and Sloan-MGPS [21] are based on Sloan’s heuristic [23].
Specifically, Sloan-MGPS [21] is the Sloan’s heuristic [23] with the starting and target end
vertices provided by an algorithm named modified GPS [21].
MPG [17] employs two max-priority queues: t contains candidate vertices to be labeled, and
q contains vertices belonging to t and also vertices that can be inserted to t. Similarly to Sloan’s
heuristic [23] (and its variations), the current degree of a vertex is the number of adjacencies
to vertices that neither have been labeled nor belong to q. A main loop performs three steps.
First, a vertex v is inserted into q to maximize a specific priority function. Second, the current
degree cdeg(v) of each vertex v ∈ t is observed: the algorithm labels a vertex v if cdeg(v) = 0,
and the algorithm removes from t a vertex v (i.e., t ← t − {v}) if cdeg(v) > 1. Third, if t is
empty, the algorithm inserts into t each vertex u ∈ q with priority pu ≥ pmax (q) − 1 where
pmax (q) returns the maximum priority among the vertices in q. The priority function in MPG is
p(v) = d(v, e) − 2 · cdeg(v).
Kumfert and Pothen [15] normalized the two criteria used in Sloan’s algorithm with the
objective of proposing the Normalized Sloan (NSloan) heuristic [15]. These authors used the
priority function p(v) = w1 · d(v, e) − w2 · bd(s, e)/mc · (deg(v) + 1).
Regarding Sloan’s [23], NSloan [15], and Sloan-MGPS [21] heuristics, this study set the
two weights as described in the original papers. When the original publications recommended
more than one pair of values, a previous publication performed exploratory investigations to
determine the pair of values that obtain the best profile results [6]. Thus, the two weights are
set as w1 = 1 and w2 = 2 for Sloan’s and Sloan-MGPS [21] heuristics, and as w1 = 2 and
w2 = 1 for the NSloan heuristic [15]. Hu-Scott [12] is a multilevel algorithm that uses a
maximal independent vertex set for coarsening the adjacency graph of the matrix and employs
Sloan-MGPS [21] on the coarsest graph.

3. An ant colony hyper-heuristic approach for the profile reduction of symmetric


matrices

This section presents the implementation of an ant colony hyper-heuristic approach for
generating or selecting heuristics for the profile reduction of symmetric matrices [9, 8]. We
followed the main steps of the ant colony metaheuristic [5] to design the ant colony hyper-
heuristic approach for profile reduction.
We established the ACHH approach with the central structure of Sloan’s [23], MPG [17],
and NSloan [15] heuristics. Furthermore, the hyper-heuristic strategy generates random weights
for the priority formula employed in these three heuristics. We implemented the codes in the
C++ programming language.
An individual program in the ACHH system is a set of three components: the base heuristics
used and its two weights (see Section 2.). The initial heuristics are randomly generated, except
for three individual programs, which are precisely the original weights (1 and 2) of Sloan’s,
NSloan, MPG, and NMPG heuristics. The fitness function employed is the sum of the difference
between the original profile and the profile of the labeling produced by the heuristic associated
with the individual program in each matrix used in the learning process. Thus, the objective is

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

59
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

to maximize the fitness value.


We used real symmetric matrices arising from 2-D/3-D and thermal problems contained in
the SuiteSparse matrix collection [4] in the learning process. Table 1 shows the matrices used
in the learning process.

Table 1: Matrices used in the learning process for the ant colony hyper-heuristic.

Problem Matrices and their size


Matrix mario001 wathen120 nd12k aug3dcqp helm3d01
2–D/
n 38,434 36,441 36,000 35,543 32,226
3–D
|E| 204,912 565,761 14,220,946 128,115 428,444
Matrix ted B ted B unscaled
thermal n 10,605 10,605
|E| 144,579 144,579

We executed the ACHH approach with the training sets listed in Table 1 and recorded the
best-of-run individual program for each application domain. As a result of the learning process,
the ACHH approach generated the weights (1 and 2) 0.052322 and 0.66025 (0.666888 and
0.776618) for Sloan’s algorithm to apply the resulting heuristic to matrices originating from
2-D/3-D (thermal) problems.

4. Description of the tests

Hu-Scott [12] is a high-quality heuristic for profile reduction. We used the Hu-Scott (MC73
routine) heuristic contained in HSL [24]. Furthermore, we employed the Fortran programming
language to use these routines. We took the profile results of the heuristic when applied to the
matrices Dubcova3 and BenElechi1 from [1].
This computational experiment used the C++ programming language to implement the other
low-cost heuristics for profile reduction evaluated. The g++ version 5.4.0 compiler was used,
with the optimization flag -O3.
The implementations of the heuristics for profile reductions appraised in this study
employed binary heaps to code the priority queues (although the original Sloan’s algorithm
[23] used a linked list in its implementation). A previous publication [6] presented the testing
and calibration performed to compare the codes with the ones used by the original proposers
of the low-cost heuristics (Sloan’s [23], MPG [17], NSloan [15], and Sloan-MGPS [21]) to
ensure that the codes employed in the present study were comparable to the formerly proposed
algorithms.
The experiments used eight real symmetric matrices taken from the SuiteSparse matrix
collection [4]. The profile reduction depends on the choice of the initial ordering, and this
paper considers the original labeling given in the matrix.
The workstation used in the executions of the simulations featured an Intel R
CoreTM i7-
4770 [CPU 3.40 GHz (3.9 GHz with the max turbo frequency), 8 MB Cache, 8 GB of main
memory DDR3 1.333 GHz] (Intel; Santa Clara, CA, United States). This machine used the
Ubuntu 16.04.4 LTS 64-bit operating system with Linux kernel-version 4.2.0-36-generic.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

60
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. Results and analysis

Tables 2 and 3 show the results of several low-cost heuristics for profile reductions when
applied to eight matrices with sizes ranging from 102,158 to 1,228,045 [up to 13,150,496
nonzero coefficients (|E|)]. The tables show the name, size, and original profile (Profile0 ) of
matrices used in this computational experiment. Also, Tables 2 and 3 show the profile results
and CPU times obtained by Sloan’s [23], MPG [17], NSloan [15], Sloan-MGPS [21], Hu-Scott
[12], GPHH [22], and the resulting heuristics from the ACHH approach when applied to eight
matrices arising from thermal and 2-D/3-D problems, respectively.

Table 2: Profile results delivered by several heuristics when applied to four matrices arising from thermal
problems.

Matrix n |E| Profile0 Heuristic Profile t(s)


thermomech TC 102,158 711,558 Hu-Scott 13,477,995 0.6
GPHH 15,329,403 0.2
2,667,823,445
MPG 15,412,663 0.2
NSloan 15,446,340 0.3
ACHH-Sloan 15,446,340 1.2
Sloan 16,021,130 0.3
Sloan-MGPS 16,109,532 1.5
thermomech TK 102,158 711,558 Hu-Scott 13,372,590 0.4
GPHH 15,329,403 0.2
2,667,823,445

NSloan 15,493,278 0.3


MPG 15,504,258 0.3
Sloan 15,906,569 0.2
ACHH-Sloan 15,916,340 1.6
Sloan-MGPS 16,109,532 1.1
thermomech dM 204,316 1,423,116 Hu-Scott 28,549,159 0.7
10,671,293,780

GPHH 30,811,966 0.4


MPG 30,825,327 0.4
NSloan 30,939,618 0.4
ACHH-Sloan 30,939,618 1.1
Sloan 31,984,980 0.4
Sloan-MGPS 32,276,780 1.2
thermal2 1,228,045 8,580,313 Hu-Scott 577,408,773 3.2
53,657,335,080

MPG 583,834,354 8.0


NSloan 587,246,981 1.6
ACHH-Sloan 587,246,981 1.9
GPHH 587,662,601 17.0
Sloan 593,981,740 1.6
Sloan-MGPS 609,179,419 1.6

Table 2 shows that Hu-Scott dominated the other algorithms when applied to the four
matrices arising from thermal problems. Table 3 shows that this heuristic also delivered the best
profile result when applied to the matrix Dubcova3. The same table shows that MPG provided
the best profile result when applied to the matrix BenElechi1, which is, among the matrices
used in this study, the matrix with the highest number of edges. Table 3 also shows that NSloan

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

61
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 3: Profile results delivered by several heuristics when applied to four matrices arising from 2-D/3-D
problems.

Matrix n |E| Profile0 Heuristic Profile t(s)


Dubcova3 146,689 3,636,643 Hu-Scott 60,600,000 1.4

10,367,243,917
MPG 64,619,423 0.4
NSloan 64,910,306 0.3
Sloan-MGPS 65,670,386 1.0
Sloan 65,193,272 0.3
ACHH-Sloan 234,879,724 0.3
BenElechi1 245,874 13,150,496 MPG 145,959,826 0.9
Sloan-MGPS 14,810,8894 1.2

153,291,019
Sloan 150,344,408 0.7
NSloan 152,615,098 0.7
Hu-Scott 152,700,000 3.7
ACHH-Sloan 193,244,096 0.7
ecology2 999,999 4,995,991 NSloan 526,494,427 1.1
GPHH 667,163,809 1.5
998,998,001

Sloan-MGPS 667,163,817 1.4


Sloan 667,163,920 1.5
MPG 667,163,923 1.5
ACHH-Sloan 921,519,151 1.3
Hu-Scott 924,354,061 2.1
ecology1 1,000,000 4,996,000 NSloan 526,494,436 1.5
Sloan-MGPS 667,163,839 1.4
998,998,013

GPHH 667,165,500 1.5


MPG 667,163,912 1.3
Sloan 667,163,929 1.1
ACHH-Sloan 921,519,208 1.3
Hu-Scott 936,696,940 2.0

returned the best profile results when applied to the matrices ecology2 and ecology1.
Table 2 also shows that the GPHH approach (in three problem cases) and MPG (in one
test problem) yielded the second-best profile results when applied to matrices originating from
thermal problems. MPG also provided the second-best profile result when computed the
matrix Dubcova3 (see Table 3). Sloan-MGPS yielded the second-best results when applied
to two matrices (BenElechi1, ecology1) arising from 2-D/3-D problems. The GPHH approach
delivered the second-best profile result when applied to the matrix ecology2.
Table 2 shows that, in general, the resulting heuristic from the ACHH approach yielded
better profile results than Sloan’s and Sloan-MGPS heuristics when applied to thermal
problems. On the other hand, Table 3 shows that the resulting heuristic from the ACHH
approach delivered unsatisfactory profile results when applied to matrices originating from
2-D/3-D problems. The table shows that the resulting heuristic from the ACHH approach
only returned better profile results than Hu-Scott when applied to the matrices ecology1 and
ecology2. Furthermore, Tables 2 and 3 show that, in general, Hu-Scott, GPHH, MPG, and
NSloan dominated the resulting heuristics from the ACHH system. Thus, we did not use
instances arising from other domain fields in the computational experiment.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

62
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

6. Summary and conclusions

This paper implemented an ant colony hyper-heuristic for profile reduction. The hyper-
heuristic approach employed the principal structure of Sloan’s, MPG, and NSloan heuristics.
Furthermore, the ACHH system evolved heuristics for the profile reduction of symmetric
matrices by specific application domains. We used instances arising from thermal and 2-D/3-D
problems.
This paper compared the heuristics for profile reduction evolved by the ACHH approach
with six low-cost algorithms for this problem. The experiments conducted in this study relied
on eight matrices arising from two application domains. Moreover, the resulting heuristics
generated by the ACHH approach did not compare favorably with existing heuristics for profile
reductions. Specifically, Hu-Scott, MPG, and NSloan yielded better profile results than did the
resulting heuristics from the ACHH algorithm.
We intend to design new hyper-heuristics based on different metaheuristics. A previous
publication reported a description of parallel algorithms in this field [7]. Concerning massively-
parallel SIMD processing, the next step of this work is to evaluate the low-cost heuristics for
profile reductions implemented using parallel libraries (e.g., OpenMP, Galois, and Message
Passing Interface systems) and in GPU-accelerated computing. Similarly, regarding massively
parallel computing, an evaluation of these heuristics for profile reduction implemented within
Intel
R
Math Kernel Library running on Intel R
Xeon R
Many Integrated Core Architecture,
Scalable and Cascade processors is another future step of this investigation.

Acknowledgements

The CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nı́vel Superior (Coordination


for the Improvement of Higher Education Personnel - Brazil) supported this work.

REFERENCES

[1] S. Acer, E. Kayaaslan, and C. Aykanat. A hypergraph partitioning model for profile
minimization. SIAM Journal on Scientific Computing, 41(1):A83–A108, 2019.
[2] M. W. Berry, B. Hendrickson, and P. Raghavan. Sparse matrix reordering schemes
for browsing hypertext. In J. Renegar, M. Shub, and S. Smale, editors, Lectures in
Applied Mathematics. The Mathematics of Numerical Analysis, volume 32, pages 99–123.
American Mathematical Society Press, Park City, Utah, USA, 1996.
[3] M. Bolanos, S. Aviyente, and H. Radha. Graph entropy rate minimization and the
compressibility of undirected binary graphs. In Proceedings of IEEE Statistical Signal
Processing Workshop (SSP), pages 109–112, Ann Arbor, MI, 2012. IEEE.
[4] T. A. Davis and Y. Hu. The University of Florida sparse matrix collection. ACM
Transactions on Mathematical Software, 38(1):1–25, 2011.
[5] M. Dorigo and T. Stützle. The ant colony optimization metaheuristic: Algorithms,
Applications, and Advances. In F. Glover G. A. Kochenberger, editor, Handbook of
Metaheuristics. International Series in Operations Research & Management Science,
volume 57, pages 250–285. Springer, Boston, MA, Jan 2003.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

63
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

[6] S. L. Gonzaga de Oliveira, J. A. B. Bernardes, and G. O. Chagas. An evaluation of low-


cost heuristics for matrix bandwidth and profile reductions. Computational & Applied
Mathematics, 37(1):641–674, 2018.
[7] S. L. Gonzaga de Oliveira, J. A. B. Bernardes, and G. O. Chagas. An evaluation
of reordering algorithms to reduce the computational cost of the incomplete Cholesky-
conjugate gradient method. Computational & Applied Mathematics, 37(3):2965–3004,
2018.
[8] S. L. Gonzaga de Oliveira and L. M. Silva. An ant colony hyperheuristic approach for
matrix bandwidth reduction (to appear), doi: https://doi.org/10.1016/j.asoc.2020.106434.
Applied soft computing, 2002.
[9] S. L. Gonzaga de Oliveira and L. M. Silva. Evolving reordering algorithms using an ant
colony hyperheuristic approach for accelerating the convergence of the ICCG method (to
appear), doi: https://doi.org/10.1007/s00366-019-00801-5. Engineering with Computers,
2019.
[10] S. L. Gonzaga de Oliveira, L. M. Silva, and A. A. A. M. Abreu. Efeitos de permutações
simétricas no tempo de execução de um método direto para resolução de sistemas
de equações lineares esparsos e assimétricos. In LI Simpósio Brasileiro de Pesquisa
Operacional (SBPO), volume 2, page 104518, Limeira, SP, 2019. Sociedade Brasileira
de Pesquisa Operacional.
[11] D. J. Higham. Unravelling small world networks. Journal of Computational and Applied
Mathematics, 158(1):61–74, 2003.
[12] Y. Hu and J. A. Scott. A multilevel algorithm for wavefront reduction. SIAM Journal on
Scientific Computing, 23(4):1352–1375, 2001.
[13] B. Koohestani and R. Poli. Evolving an improved algorithm for envelope reduction using
a hyper-heuristic approach. IEEE Transactions on Evolutionary Computation, 18(4):543–
558, 2014.
[14] B. Koohestani and R. Poli. Addressing the envelope reduction of sparse matrices using
a genetic programming system. Computational Optimization and Applications, 60:789–
814, 2015.
[15] G. Kumfert and A. Pothen. Two improved algorithms for envelope and wavefront
reduction. BIT Numerical Mathematics, 37(3):559–590, September 1997.
[16] Y. X. Lin and J. J. Yuan. Profile minimization problem for matrices and graphs. Acta
Mathematicae Applicatae Sinica, 10(1):107–122, 1994.
[17] S. R. P. Medeiros, P. M. Pimenta, and P. Goldenberg. Algorithm for profile and wavefront
reduction of sparse matrices with a symmetric structure. Engineering Computations,
10(3):257–266, 1993.
[18] J. Meijer and J. van de Pol. Bandwidth and wavefront reduction for static variable ordering
in symbolic model checking. In Proceedings of the 8th International Symposium on NASA
Formal Methods. Lecture Notes in Computer Science book series (LNCS), volume 9690,
pages 255–271, Minneapolis, MN, USA, June 2016. Springer-Verlag New York, Inc.
[19] C. Mueller, B. Martin, and A. Lumsdaine. A comparison of vertex ordering algorithms for
large graph visualization. In Proceedings of the 6th International Asia-Pacific Symposium
on Visualization (APVIS), pages 141–148, Sydney, Australia, 2007.
[20] G. Palubeckis. A variable neighborhood search and simulated annealing hybrid for the
profile minimization problem. Computers and Operations Research, 87:83–97, 2017.
[21] J. K. Reid and J. A. Scott. Ordering symmetric sparse matrices for small profile and

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

64
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

wavefront. International Journal for Numerical Methods in Engineering, 45(12):1737–


1755, 1999.
[22] L. M. Silva and S. L. Gonzaga de Oliveira. An experimental analysis of a gp hyperheuristic
approach for evolving low-cost heuristics for profile reductions (to appear). In SEMISH -
Seminário Integrado de Software e Hardware, 2020, Cuiabá. Anais do SEMISH, 2020.
[23] S. W. Sloan. A Fortran program for profile and wavefront reduction. International Journal
for Numerical Methods in Engineering, 28(11):2651–2679, 1989.
[24] STFC. The Science and Technology Facilities Council. HSL. A collection of Fortran codes
for large scale scientific computation. http://www.hsl.rl.ac.uk, Accessed: June,
2020.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

65
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

CENÁRIO APÓS A VACINAÇÃO DA POPULAÇÃO BRASILEIRA CONTRA A


COVID-19 ATRAVÉS DA MODELAGEM MATEMÁTICA

Elaine Bernine1 - elaineb@lncc.br


Thays Rocha1 - tferreira@lncc.br
Diogo Pereira1 - dpereira@lncc.br
Fábio Borges1 - borges@lncc.br
1 Laboratório Nacional de Computação Científica (LNCC), Petrópolis, RJ, Brasil

Resumo. O estudo e desenvolvimento da fabricação e aplicação da vacinação contra doenças


epidemiológicas tem contribuído para a erradicação de diversas doenças, evitando a dizimação
de milhares de indivíduos. Porém, a vacina contra a COVID-19 ainda está em fase de testagem,
onde são verificadas a existência de efeitos colaterais e o tempo de imunidade da doença,
fator este que impede a aplicação imediata da vacina na população. Este trabalho tem como
objetivo construir e comparar dois modelos matemáticos, sem e com a inserção da vacinação,
a fim de constatar a importância da vacinação da população brasileira. Para a obtenção das
soluções numéricas dos dois modelos, utilizamos o método de Diferenças Finitas, comprovando
a necessidade de investimentos, testagens e campanhas de aplicação da vacina contra a doença,
evitando a infecção de indivíduos, internações, sequelas e o alto índice de mortalidade dos
infectados.

Keywords: COVID-19, Modelo matemático, Vacinação, Erradicação

1. INTRODUÇÃO

As doenças epidemiológicas já dizimaram milhares de pessoas no Brasil, tais como


a Dengue, Sarampo, Febre Amarela, Hanseníase, Tuberculose, Malária, dentre outras.
Decorrentes da existência destas doenças e os seus impactos, tem-se uma grande necessidade de
avanço nos estudos e desenvolvimentos de modelos matemáticos, a fim de conhecer as origens,
obter previsões, período de início da imunidade de rebanho e formas de prevenção e controle
da doença. Com base nestas características em estudo, surgiu o conceito Epidemiologia
Matemática, veja (Bernine et al., 2019).
Hamer (1906), a fim de compreender o comportamento de algumas epidemias, postulou
que o “desenvolvimento de uma epidemiologia depende da taxa de contato entre indivíduos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

66
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

que podem contrair a doença e os infectados pela doença", isto é, a propagação de uma doença
epidemiológica depende proporcional ao produto da densidade de indivíduos suscetíveis pela
densidade de indivíduos infectados, conforme Gemaque e Araujo (2011). Segundo Kermack e
Mckendreick (1927), a inserção de indivíduos infectados em uma região só a leva a um surto
caso a densidade de indivíduos suscetíveis desta região esteja abaixo do que um certo valor
crítico. Estes conceitos são fundamentais para a construção de modelagens matemáticas do
processo de transmissão de doenças epidemiológicas.
Os primeiros estudos sobre Epidemiologia Matemática foram desenvolvidos pelo
matemático suíço Daniel Bernoulli no século XVIII. As suas pesquisas visavam determinar um
modelo matemático capaz de avaliar o processo de transmissão da varíola. Todavia, avanços nos
estudos em busca de melhores modelos matemáticos ocorreu apenas um século depois, devido
ao progresso na área da saúde acerca das causas das doenças infecciosas, baseados em (Ramon,
2011).
Vivenciamos no Brasil, assim como em outros diversos países, um momento de calamidade
pública com a epidemia da COVID-19, devido ao aumento no índice de mortalidade e sequelas
nos recuperados da doença. Consequentemente, estão sendo desenvolvidos estudos através
das modelagens matemáticas, a fim de determinar os estágios da contaminação, período de
imunidade, fração da população que deve ser vacinada etc.
Devido à alta taxa de infecção da COVID-19 e sua rápida circulação pelo mundo,
tem-se diariamente uma quantidade elevada de indivíduos infectados, fazendo com que a
população necessite imediatamente do desenvolvimento e aplicação da vacina contra a doença.
Contudo, buscamos desenvolver neste trabalho a construção de dois modelos matemáticos
que visam comparar os resultados de previsões dos cenários sem e com a inserção da
vacinação da população. Contudo, modelos matemáticos sem a inserção da vacinação já foram
desenvolvidos, veja (Franco e Dutra, 2020; Dias et al., 2020; Dias e Araújo, 2020; Ferreira et
al., 2020), reforçando a importância deste trabalho para visualização do cenário brasileiro com
a inserção da vacinação.
Na Seção 2, são apresentadas informações sobre a doença, tais como o contexto histórico,
formas de transmissão e prevenção do vírus, estudos sobre vacinas desenvolvidas e métodos
para o tratamento da COVID-19. A Seção 3 é composta pela construção dos dois modelos
matemáticos (sistema de Equações Diferenciais Ordinárias) do processo de transmissão da
COVID-19 e a discretização destes dois sistemas de Equações, a fim de utilizar o método
de Diferenças Finitas Regressivas para obtenção dos resultados numéricos. Os resultados
numéricos e discussões dos dois modelos são expostas na Seção 4. Posteriormente, na Seção 5,
concluímos o artigo e apresentamos os trabalhos futuros.

2. COVID-19

A COVID-19, originalizado do termo “Corona Virus Disease”, é a doença gerada pelo vírus
SARS-CoV-2 pertencente à família Coronavírus. Sua primeira aparição ocorreu no final do ano
de 2019 em Wuhan, China, e desde então vem despertado interesse de diversos pesquisadores,
principalmente devido sua alta taxa de propagação.

2.1 Transmissão e Prevenção

Um dos pontos preocupantes da doença é sua rápida circulação pelo mundo, já que em
apenas 21 dias após o seu primeiro registro, a epidemia já era considerada pela Organização

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

67
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Mundial da Saúde (OMS) como uma emergência internacional, veja (Quintella et al., 2020).
Quanto ao modo de transmissão da COVID-19, é possível analisá-la de forma ampla ou
individual.
Em termos demográficos, de acordo com Platero e Gomes (2020); Netto et al. (2020), essa
transmissão está voltada para a realidade de cada região em que o infectado se encontra podendo
ocorrer de forma importada, local e comunitária, isto é, quando um infectado se encontra em
uma região que não havia registro da doença antes, quando se consegue fazer o rastreio de
pessoas infectadas e as quais ela teve contato e quando este rastreio já não é mais possível,
respectivamente.
Já em termos de transmissão individual, temos que ela pode ocorrer de forma direta através
da fala, tosses ou espirros, devido as gotículas de salivas expelidas por pessoas contaminadas
ou indireta por meio do contato com objetos ou superfícies que foram contaminadas por estas
gotículas.
Inicialmente, a doença teve tamanha dispersão devido os primeiros indivíduos infectados
serem assintomáticos, ou seja, não desenvolveram sintomas. Uma pessoa infectada pode
transmitir o vírus por até 14 dias após se contaminar, sendo mais contagioso nos primeiros
dias, como afirma Netto et al. (2020).
Após a declaração de emergência internacional emitida pela OMS, alguns países declararam
quarentena, a fim de tentar controlar a circulação do vírus pelo país, já que limitaram as
atividades não-essenciais. Algumas localidades aderiram também ao Lockdown, sendo está uma
forma mais rígida da quarentena. Porém, a OMS recomendou o distanciamento físico entre as
pessoas, até mesmo nas atividades essenciais, e o isolamento para pessoas que desenvolveram
alguns sintomas, pessoas que vieram de lugares com altos índices de contágio ou que tiveram
contato com algum indivíduo infectado.
A OMS também recomenda, para prevenção individual, lavar as mãos regularmente com
água e sabão por, no mínimo 20 segundos, certificando-se que toda a área da mão foi lavada
de forma correta: das pontas dos dedos até o punho, incluindo entre os dedos. Caso não possa
lavar as mãos regularmente, o uso do álcool em gel 70% se faz recomendado; usar máscara
ao sair de casa, onde a mesma não deve ser compartilhada e sim de uso individual; evitar
locais lotados e manter um distanciamento físico de 1 metro; proteger nariz e boca ao tossir
ou espirrar; evitar tocar olhos, nariz e boca; não compartilhar objetivos de uso pessoal, como
copos, talheres e toalhas; desinfetar objetos e lugares de contato frequente e manter ambientes
limpos e ventilados.

2.2 Vacina e Tratamento

Até o presente momento, não há vacina ou medicação para prevenir ou tratar a COVID-19,
apesar de ter várias pesquisas em andamento, como garante a OMS. De acordo com Milken
Institute (MI) 1 , até o dia 27 de agosto de 2020, há 316 possíveis tratamentos e 203 candidatas
a vacinas, que estão sendo estudadas e testadas contra a COVID-19 a nível global.
A OMS lançou um ensaio clínico internacional intitulado de “Solidarity" 2 , com o objetivo
de auxiliar na descoberta de ferramentas para tratamentos eficazes contra a COVID-19 e seus
efeitos.

1
Disponível em: https://covid-19tracker.milkeninstitute.org, Acesso em 27 de agosto de 2020.
2
Disponível em: https://www.who.int/emergencies/diseases/novel-coronavirus-2019/global-research-on-
novel-coronavirus-2019-ncov/solidarity-clinical-trial-for-covid-19-treatments, Acesso em: 27 de agosto de 2020.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

68
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

As vacinas que estão sendo desenvolvidas são divididas nas seguintes categorias: Vírus
Inativo, composto pelo vírus inteiros não-vivos ou pedaços dele, suficiente para não multiplicar
e gerar imunidade contra; Vírus Atenuado Vivo, composto por vírus enfraquecido vivo, busca
resposta imunológica mais forte; Subunidade de Proteína, composto por fragmento do vírus,
busca desencadear uma resposta imunológica e estimular a imunidade; Baseado no DNA,
induzem uma variedade de tipos de resposta imunológica através da introdução do material
genético viral (DNA); Baseado no RNA, fornecem imunidade por meio da introdução do
material genético (RNA); Replicando o Vetor Viral, tem o intuito de produz cópias da proteína
viral, que desencadeia uma resposta imune; Vetor Viral Não-replicante, é semelhante a anterior,
porém o vírus é não replicante; Partículas Semelhantes a Vírus, se assemelham a vírus, mas
não são infecciosas; outras vacinas, onde sua característica ou detalhamento não se encaixa
com as já citadas. Na Figura 1(b) é apresentada a quantidade de vacinas contra a COVID-19,
referentes a cada categoria descrita anteriormente.
Das candidatas a vacina, se destacam devido ao nível de desenvolvimento mais avançado
as seguintes, de forma decrescente: Universidade de Oxford - AstraZeneca, Sinovac - Instituto
Butantan, Instituto Wuhan - Sinopharm, Instituto Beijing - Sinopharm, Moderna, BioNTech
- Fosun - Pfizer, CanSino Biologics, Instituto de Biologia Médica, Anhui Zhifei Longcom e
Novavax. Na Figura 1(a), é apresentada a divisão das principais candidatas a vacina contra a
COVID-19, separadas
Vacinas mais avançadaspor
paracategoria.
COVID-19 Vacinas mais avançadas para COVID-19

19 14
2 4
Vírus inativo
15
Vírus Atenuado Vivo
Subunidade de proteína
4 Vírus inativo
Baseado no DNA
Subunidade de proteína 24
66 Baseado no RNA
Baseado no RNA
Replicando o Vetor Viral
2 Vetor viral não-replicante
Vetor viral não-replicante
18
Partículas Semelhantes a Vírus
Outras vacinas
27 16
2

(a) Vacinas contra a COVID-19 mais avançadas. (b) Vacinas contra a COVID-19, separadas por
categorias.

Figura 1- Vacinas contra a COVID-19.

3. MODELAGEM MATEMÁTICA E COMPUTACIONAL

A fim de obter os dois modelos matemáticos que representem o processo de transmissão da


COVID-19, dividimos a população em quatro classes compartimentais que informam a situação
de cada indivíduo com relação a doença, sendo elas

1. Suscetível (S): constituída pelos indivíduos sadios que estão sujeitos a serem
contaminados pelo vírus da doença;

2. Infectado (I): formada pelos indivíduos que se contaminaram com a doença e estão aptos
a transmitir o vírus a outros indivíduos;

3. Recuperado (R): composta pelos indivíduos que se recuperaram da doença e contraíram


imunidade temporária a ela;

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

69
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4. Vacinado (V ): integrado por todos os indivíduos que se vacinaram contra a doença e


obtiveram imunidade ou temporária ou permanente a doença.
Denotaremos por N a quantidade total de indivíduos da população brasileira, onde está varia
com o tempo t, visto que, a quantidade de indivíduos que nascem é diferente da quantidade dos
que morrem. Dado que um indivíduo pode permanecer em apenas uma classe compartimental
no tempo t, tem-se
N (t) = S(t) + I(t) + R(t) + V (t).
Decorrente do curto tempo de surgimento da COVID-19, diversos estudos, experimentos,
medicamentos e vacinas ainda estão em desenvolvimento. Contudo, a ocorrência de re-
contaminação pela doença tem alarmado ainda mais a população brasileira que acreditava-se
estar perto de obter a imunidade de rebanho. Portanto, é de extrema necessidade a fabricação e
aplicação da vacina na população, a fim de evitar maiores sequelas e perdas de indivíduos, visto
que, o tempo de imunidade da vacina acredita-se ser superior a dois anos.
Para o desenvolvimento deste trabalho, utilizaremos parâmetros, tais como,
• α: representa a taxa de natalidade da população brasileira;
• β: simboliza a taxa de mortalidade da população brasileira nas classes Suscetível,
Recuperado e Vacinado;
• µ: corresponde a taxa de mortalidade da população brasileira na classe Infectado;
• σ: denota a taxa com que os indivíduos suscetíveis entram em contato com os indivíduos
infectados;
• γ: representa a taxa de recuperação da população de brasileira da doença;
• λ: simboliza a taxa com que os indivíduos são vacinados;
• ε: corresponde a taxa com que os indivíduos perdem a imunidade e passam da classe
Recuperado para a Suscetível.
Durante a modelagem, consideramos mortes de indivíduos nas quatro classes
compartimentais, sendo a taxa de mortalidade da classe Infectado maior do que a taxa das
demais classes, que possuem o mesmo valor, e consideramos apenas nascimento de indivíduos
na classe Suscetível. Consideramos também que a imunidade temporária é adquirida após o
indivíduo se recuperar da doença ou ao ser vacinado. As Figuras 2 e 3 apesentam os diagramas
dos processos de transmissão do vírus da COVID-19 sem e com a inserção da vacinação na
população, respectivamente.

αS(t)

S(t) I(t) R(t)

βS(t) µI(t) βR(t)

Figura 2- Processo de transmissão da COVID-19 com três classes compartimentais.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

70
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

αS(t)

V (t) S(t) I(t) R(t)

βV (t) βS(t) µI(t) βR(t)

Figura 3- Processo de transmissão da COVID-19 com quatro classes compartimentais e com a inserção
da vacinação.

Para as duas modelagens, a transmissão do vírus da doença na população tem início


assim que os indivíduos da classe Infectado entram em contato com os da classe Suscetível.
Posteriormente, os indivíduos infectados passam a pertencer a classe Infectado, em média por
três a quatro semanas até se recuperarem. Assim que os indivíduos se recuperam da doença,
estes passam a possuir imunidade temporária ao vírus da doença, podendo variar de indivíduo
para indivíduo. Contudo, quando os indivíduos da classe Recuperado perdem a imunidade, eles
retornam para a classe Suscetível. No segundo modelo, temos a que a vacinação da população
pode ocorrer enquanto os indivíduos são ou membros da classe Suscetível ou Recuperado.
Matematicamente, para a modelagem sem a inserção da vacinação, a taxa de variação
temporal da classe Suscetível é expressa pelo ganho dos indivíduos que nascem no Brasil,
αS(t), e dos indivíduos da classe Recuperado que deixaram de possuir imunidade a doença,
εR(t), e pela perda dos indivíduos que morrem nesta classe, βS(t), e dos que se infectaram,
σS(t)I(t); a taxa de variação temporal da classe Infectado é dada pelo ganho dos indivíduos
infectados, σS(t)I(t), e pela perda dos indivíduos que se recuperaram, γI(t), e dos que
morreram por conta da doença, µI(t); a taxa de variação temporal da classe Recuperado é
representada pelo ganho dos indivíduos infectados que se recuperaram, γI(t), e pela perda dos
indivíduos que deixaram de possuir imunidade, εR(t), e dos indivíduos que morreram nesta
classe, βR(t). Contudo, para o modelo com a inserção da vacinação, a taxa de variação temporal
da classe Suscetível também tem a perda dos indivíduos que receberam a vacina, λS(t); a
taxa de variação temporal da classe Recuperado perde também os indivíduos recuperados que
receberam a vacina, λR(t); já a taxa de variação temporal da classe Vacinado é expressa pelo
ganho dos indivíduos vacinados da classe Suscetível e Recuperado, λ(S(t)+R(t)), e pela perda
dos indivíduos mortos nesta classe, βV (t).
Desta forma, representamos o processo de transmissão da COVID-19 na população, sem e
com a inserção da vacinação, pelos sistemas de EDOs 1 e 2, respectivamente.
 dS(t)

 dt
= αS(t) + εR(t) − σS(t)I(t) − βS(t);
 dI(t) = σS(t)I(t) − γI(t) − µI(t);

dt
dR(t) (1)


 dt
= γI(t) − εR(t) − βR(t),

S(0) = S0 ; I(0) = I0 ; R(0) = R0 .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

71
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO


dS(t)

 dt
= αS(t) + εR(t) − σS(t)I(t) − λS(t) − βS(t);
 dI(t)
 dt = σS(t)I(t) − γI(t) − µI(t);



dR(t)
dt
= γI(t) − λR(t) − εR(t) − βR(t); (2)
dV (t)

 dt = λ(S(t) + R(t)) − βV (t),




S(0) = S ; I(0) = I ; R(0) = R ; V (0) = V ,
0 0 0 0

sendo α, β, µ, σ, γ, λ, ε, S0 , I0 , R0 e V0 parâmetros dados e T é o tempo final, também dado.

3.1 Discretização Numérica

Dadas u : (I = [0, T ]) → R n vezes derivável em todo o intervalo [0, T ]. A discretização


do intervalo [0, T ] é dada pela divisão deste em m subintervalos igualmente espaçados, onde
T
∆t = . Desta forma, t0 = 0, t1 = ∆t, t2 = 2∆t, · · · , tm = m∆t = T. Segue daí,
m
[0, T ] = [t0 , t1 ] ∪ [t1 , t2 ] ∪ · · · ∪ [tm−1 , tm ] .

Neste trabalho, é utilizado o método de Diferenças Finitas Regressivas para aproximar


as derivadas de primeira ordem das funções S, I, R e V , visto que, este método é
incondicionalmente estável, veja (Richard et al., 2015). Além disso, considera-se que todas
as funções são de classe C 1 em [0, T ]. Desta forma, as funções S, I, R e V são denotadas
conforme

Si ≈ S(ti ), Ii ≈ I(ti ), Ri ≈ R(ti ) e Vi ≈ V (ti ), comi = 0, 1, · · · , m.

Assim, a discretização do sistema de equações diferenciais ordinárias que representa a


transmissão da COVID-19 sem e com a inserção da vacinação, dados pelas Equações ((1)) e
(2), são expressos pelos sistemas (3) e (4), respectivamente.

(1 − α∆t + β∆t)Si − (1 − σIi−1 ∆t)Si−1 = εRi−1 ∆t;

(1 + γ∆t + µ∆t)Ii − (1 + σSi−1 ∆t)Ii−1 = 0; (3)

(1 + β∆t)Ri − (1 − ε∆t)Ri−1 = γIi ∆t.



 (1 − α∆t + λ∆t + β∆t)Si − (1 − σIi−1 ∆t)Si−1 = εRi−1 ∆t;

(1 + γ∆t + µ∆t)I − (1 + σS ∆t)I = 0;
i i−1 i−1
(4)


 (1 + λ∆t + β∆t)R i − (1 − ε∆t)Ri−1 = γIi ∆t;
(1 + β∆t)Vi − Vi−1 = λ∆t(Si + Ri ).

As condições iniciais e as constantes dos dois modelos são as mesmas, e foram construídos
com base nos dados publicados pelo Ministério da Saúde do Brasil (https://covid.saude.gov.br/)
até o dia 28 de agosto de 2020. Os parâmetros são dados pela Tabela 1 e as condições iniciais
são:

V (0) = 0, R(0) = 2947250, I(0) = 858376 e S(0) = 205721209.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

72
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Valores dos parâmetros utilizados na simulação do modelo proposto, em dia−1 , baseados nos
dados divulgados pelo Ministério da Saúde do Brasil.

Parâmetros Valor considerado na simulação

α 2890000
205721209·365
= 38488050 × 10−12
β 1279948
205721209·365
= 17045917 × 10−12
µ 119633
(I0 +R0 )·184
= 170846 × 10−9
R0
γ (I0 +R0 )·184
= 4208943 × 10−9
(I0 +R0 )
σ S0 ·I0 ·184
= 1171255 × 10−16
3/(σ·I0 ·184)
ε R0
= 5502466 × 10−12
λ 400000
S0 +R0
= 1916916 × 10−9
T 800

No modelo matemático com a inserção da vacinação a taxa de vacinação foi construída a


fim de vacinar, no primeiro dia de campanha, um total de 400 mil indivíduos.

4. RESULTADOS E DISCUSSÕES

Nesta seção, são exibidos os resultados numéricos dos dois modelos matemáticos descritos
nos sistemas de equações (1) e (2), modelos sem e com a vacinação, respectivamente.
Para as resoluções numéricas utilizamos o método de Diferenças Finitas Regressivas e 200
subintervalos. Buscamos prever a quantidade máxima de indivíduos infectados em cada um
dos dois modelos matemáticos e identificar qual o melhor cenário do processo de transmissão
da COVID-19 na população brasileira. As Figuras 4(a) e 4(b) representam o processo de
transmissão da COVID-19 na população brasileira sem e com a inserção da vacinação.

2.5e+08 2.5e+08

2e+08 2e+08
Numero de pessoas

Numero de pessoas

1.5e+08 1.5e+08
N
N
S
S
I
I
R
R
V
1e+08 1e+08

5e+07 5e+07

0 0
0 200 400 600 800 0 200 400 600 800
tempo (dias) tempo (dias)

(a) Sem a vacinação. (b) Com a vacinação.

Figura 4- Solução numérica do processo de transmissão da COVID-19 na população brasileira.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

73
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na Figura 4(a) constatamos um período de crescimento, estabilidade e queda entre os dias


de 1 a 350, 351 a 400 e de 401 a 800 respectivamente. Já na Figura 4(b), estes períodos ocorrem
entre os dias 1 a 300, 301 a 500 e de 501 a 800, respectivamente. É observado também, que a
quantidade de indivíduo da população total (cor amarela) tem uma queda maior no modelo sem
a inserção da vacinação, isto é, a taxa de mortalidade da população total é maior do que a do
modelo com a inserção da vacinação.
Nas duas figuras vemos o crescimento da quantidade de infectados (cor vermelha). Contudo,
a quantidade de infectados no modelo matemático com a inserção da vacinação é menor do que
a metade da quantidade de infectados no modelo matemático sem a inserção da vacinação, a
saber, aproximadamente 40 milhões e 110 milhões, respectivamente. Portanto, é nítido que a
inserção da vacinação na população é de extrema importância devido ao alto índice de sequelas
e mortalidade dos indivíduos infectados.
A quantidade de indivíduos da classe Recuperado (cor azul) depende do número de
indivíduo da classe Infectado, vemos na Figura 4(b) que estas duas classes não ultrapassam
40 milhões de indivíduos, quantidade muito menor do ocorrido na Figura 4(a). Contudo, a
quantidade de indivíduos da classe Suscetível (cor verde) decai muito mais rápido no modelo
com a inserção da vacinação do que no modelo sem. Porém, após o tempo de 400 dias, no
modelo com a vacinação tem-se uma quantidade maior na classe Suscetível, decorrente da baixa
quantidade de indivíduos infectados, da perda de imunidade dos indivíduos recuperados e do
total de indivíduos infectados somados os recuperados e vacinados serem menores do que esta
mesma quantidade no modelo sem a inserção da vacinação.

5. CONCLUSÃO

Decorrente das análises dos resultados numéricos, obtidos dos dois modelos matemáticos
apresentados neste trabalho, concluímos a importância de investimentos no desenvolvimento,
fabricação e campanhas de aplicação da vacina, visto que, a quantidade de infectados no modelo
matemático sem a inserção da vacinação na população é mais que o dobro comparado a esta
quantidade no modelo com a inserção da vacinação. Também mostramos o progresso de
transmissão da doença, em ambos os casos, enfatizando a importância dos métodos de controle
e prevenção da doença, principalmente enquanto não temos a ocorrência de campanhas de
vacinação contra a COVID-19.
Como trabalhos futuros, pretendemos continuar os estudos acerca dos dados dos indivíduos
infectados, recuperados, com e sem sequelas, e os mortos pela doença, a fim de aprimorar
os modelos expostos neste trabalho e ampliar para o cenário mundial. Também serão
desenvolvidos modelos epidemiológicos com a aplicação do método de Criptografia Totalmente
Homomórfica (FHE), visando a integridade dos dados acerca da doença.

REFERÊNCIAS

Bernine, E., Vignatti, A. e Santos, P. I., (2019), “Um Estudo do Processo de Transmissão da
Dengue Através da Modelagem Matemática”, XXII ENMC – Encontro Nacional de Modelagem
Computacional e X ECTM – Encontro de Ciências e Tecnologia de Materiais, Juiz de Fora, MG.
Dias, G. M. S. e Araújo, L. H. C., (2020), Modelagem Matemática para Epidemia de COVID-19 e
Estimativa de Casos no Brasil no Curto Prazo, Instituto Militar de Engenharia, Seção de Ensino de
Engenharia de Computação.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

74
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Dias, Neylan Leal et al., (2020), Predição da propagação do SARS-CoV-2 no Estado do Amapá,
Amazônia, Brasil, por modelagem matemática, Revista Científica Multidisciplinar Núcleo do
Conhecimento.
Ferreira, T. R. N., Bernine, E., Santos, D. P. S., Borges, F. (2020). "Processo de Transmissão da
COVID-19 na população Brasileira”,I ERMAC MS - Encontro Regional de Matemática Aplicada e
Computacional de Mato Grosso do Sul, Mato Grosso do Sul, MS.
Franco, C. M. R. e Dutra, R. F., (2020), Modelos Matemáticos em Epidemiologia e Aplicação na
Evolução da COVID-19 no Brasil e no Estado da Paraíba, Educação, Ciência e Saúde, v. 7, n.
1.
Gemaque, A. O. e Araujo, P. M., (2011), Modelo Matemático de Transmissão da Dengue, Universidade
Federal do Amapá, Macapá, AP.
Hamer, W. H., (1906), Epidemic disease in England: the evidence of variability and of persistency of
type, Bedford Press.
Kermack, W. O. e Mckendreick, A. G., (1927), A contribution to the mathematical theory of epidemics,
Proceedings of the royal society of london. Series A, Containing papers of a mathematical and
physical character, v. 115, n.772, p. 700-721.
Netto, F., et al., (2020), “SARS-COV-2 e a COVID-19: O vírus, seus aspectos patológicos
e suas manifestações respiratórias e extrapulmonares", Universidade Estadual de Ponta
Grossa e Governos do Estado do Paraná, Disponível em: https://www2.uepg.br//proex/wp-
content/uploads/sites/8/2020/07/Aspectos-patológicos06-07.pdf, Acesso em: 11 de agosto de 2020.
Platero, K. e Gomes, F. (2020), “Números estatísticos e realidades: Uma proposta de reflexão sobre
a pandemia de Covid-19 no Brasil", DILEMAS: Revista de Estudos de Conflito e Controle Social-
Reflexões na Pandemia, p. 1-11.
Quintella, C. M., da Mata, A. M. T., Ghesti, G. F., e Tavares, P. M. D. A. L., (2020), “Vacinas para
Coronavírus (COVID-19; SARS-COV-2): mapeamento preliminar de artigos, patentes, testes clínicos
e mercado", Cadernos de Prospecção, v. 13, n. 1, p. 3.
Ramon, R., (2011), “Modelagem Matemática Aplicada a Epidemiologia”, Universidade Federal de
Santa Catarina (UFSC), Chapecó, SC.
Richard, L., Burden, J., Faires, D. e Burden, A., (2015), “Análise Numérica", 3a ed., Cengage Learning,
São Paulo.

SCENARIO AFTER VACCINATION OF THE BRAZILIAN POPULATION AGAINST


COVID-19 THROUGH MATHEMATICAL MODELING

Abstract. The study and development of the application of vaccination against epidemiological
diseases has contributed to the eradication of several diseases and has prevented the decimation
of thousands of individuals. However, the vaccine against COVID-19 is still in the testing phase,
where the existence of effects and the immunity time of the disease are verified, a factor that
prevents the immediate application of the vaccine in the population. This work aims to present
the scenario after the insertion of vaccination in the Brazilian population, being constructed
and compared two mathematical models, without and with the insertion of vaccination. To
obtain the numerical solutions of the two models, we used the Finite Differences method,
realizing the importance of investments, tests and campaigns to apply the vaccine against the
disease in the population, avoiding the infection of individuals with the diseases, and sequelae
and mortality of those infected.

Keywords: COVID-19, Mathematical model, Vaccination, Eradication

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

75
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

NUMERICAL ANALYSIS COMPARING PERFORMANCE PARAMETERS OF


HORIZONTAL AND VERTICAL SHAPES OF EARTH-AIR HEAT EXCHANGERS

Igor Silva Vaz1 – igorsilvaz@furg.br


Joaquim Vaz1 – joaquimvaz@furg.br
Lucas Costa Victoria1 – lucasvitoria@furg.br
1
School of Engineering, Federal University of Rio Grande – FURG, Itália Ave., km 8, Rio Grande –
Brazil.

Luiz Alberto Oliveira Rocha2 – luizor@unisinos.br


2
Graduate Program in Mechanical Engineering, University of Vale do Rio Sinos, Unisinos Ave., 950,
São Leopoldo – Brazil.

Vinicius de Freitas Hermes3 – vini.hermes@gmail.com


Elizaldo Domingues dos Santos3 – elizaldosantos@furg.br
Michel Kepes Rodrigues3 – michelkrodrigues@gmail.com
Liércio André Isoldi3 – liercioisoldi@furg.br
3
Graduate Program in Ocean Engineering (PPGEO), School of Engineering, Federal University of Rio
Grande – FURG, Itália Ave., km 8, Rio Grande – Brazil.

Abstract. Earth-Air Heat Exchanger (EAHE) is an equipment employed to energy saving.


These devices are constituted by ducts buried in the ground, in which the ambient air is
forced to pass through. Taking advantage of the temperature gradient among the surface and
layers of the soil with the ambient air, the EAHE outlet air temperature tends to be milder. In
the present work, analytical solutions and computational modeling were combined to evaluate
operating parameters of three different geometric configurations of EAHE: Conventional
Horizontal (adopted as reference), Horizontal T-shaped (with one inlet and two outlets), and
Vertical 3U-shaped (operating in series). The operating conditions were evaluated for a city
in the south of Brazil named Rio Grande, in which the soil is composed by sand and saturated
sand. The comparison parameters were the occupied soil volume, head loss and thermal
potential. It was observed a concordance of the thermal potentials in the simulated devices,
and significant differences for the other parameters. For instance, the soil volume demanded
by the Vertical EAHE was 60 % less than the Horizontal disposal. However, the T-shaped
EAHE present greater similarity with the reference installation, and enables the air
conditioning of two environments at the same time.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

76
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Keywords: Earth-Air Heat Exchanger (EAHE), Thermal analysis, Computational modeling,


Vertical EAHE, T-shaped EAHE.

1. INTRODUCTION

The dependence on fossil fuels generates several negative environmental effects, for this
reason it has become even more concerning the current global increase of energy demand.
Hence, it is necessary to improve energy use methods, mainly from renewable and universal
sources (Lee et al., 2010). An indispensable action is to make engineering projects feasible,
which consume as little electricity as possible, meeting the resulting social, economic and
environmental demands. Among the renewable energy sources are the wind, solar,
geothermal, hydroelectric and biomass (Bordoloi et al., 2018; Wu et al., 2010).
The sun is an inexhaustible source of heat and light, and part of that energy is absorbed
by the surface of the soil. This temperature gradient between the topsoil and the ambient air
enables the ground to store the energy during hot days, and deliver it to the environment on
cold days (Ramadan, 2016; Vaz et al., 2011). Earth-Air Heat Exchangers (EAHE) are systems
that operate based on this principle to assist in the thermal comfort of buildings. The
functioning of these devices is extremely simple and does not change according to the
geometry of the ducts. An air-flow is imposed in the inlet of the duct, which is buried in the
ground, and the temperature increases or decreases (Hermes et al., 2020).
In numerical analysis, the Computational Fluid Dynamics (CFD) area allows the analysis
of behavior in systems that involve fluid flow and heat transfer (Çengel & Cimbala, 2014;
Versteeg and Malalasekera, 2007). Among the commercial CFD packages, the ANSYS Fluent
has been used to numerically simulate and investigate the operational principle of EAHE in
several works found in the literature (e.g. Vaz et al., 2011; Brum et al., 2012; Lee et al., 2010;
Ramadan, 2016; Rodrigues et al., 2019). The Fluent software is based on the Finite Volume
Method (FVM), being this a discretization technique responsible to represent partial
differential equations in the form of algebraic equations (Versteeg & Malalasekera, 2007).
Regarding the EAHE installation, physical space issues are related to ducts arranged
mainly in horizontal (such as the Horizontal and T-shaped EAHEs). In addition, the assembly
of these ducts below buildings is restricted to projects under construction. Also, the
maintenance and the necessary excavations imply high costs (Patel & Ramana, 2016; Wu et
al., 2012). Moreover, soil properties at the installation site must be evaluated, since in places
with saturated soil the water table compromises deeper digging to install the horizontal
EAHEs (Liu et al., 2020).
Due to these problems, an alternative is the adoption of a Vertical EAHE, considering
that this equipment demands minimum space (Patel & Ramana, 2016). Also, it is possible to
employ manual tools to perform the drilling required for placing the ducts under the ground.
The gasoline drill and the hand auger are used for shallow perforations, and for the deeper
ones, the rotary and percussion drilling machines (Brito, 1999; Gunaratne & Manjriker,
2014).
Therefore, the present study aims to computationally model and evaluate performance
parameters of a Horizontal T-shaped EAHE (one inlet and two outlets), Vertical 3U-shaped
EAHE (three U-tube operating in series, with one inlet and one outlet), and compare their
results with the Conventional Horizontal EAHE (a straight duct, with one inlet and one
outlet). The required soil volume for installation, head loss of airflow, and thermal potential
were considered. As a case of study two cities placed in the state of Rio Grande do Sul, in the
south of Brazil, were considered: Viamão and Rio Grande. However, the city of Viamão was

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

77
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

used only to validate the computational model with experimental data from Vaz et al. (2011).
Highlighting that all numerical simulations were performed through the Fluent software.

2. MATERIAL AND METHODS

2.1 Soil and air thermo-physical properties

Standard Penetration Tests (SPT) provide information related to the soil, such as the size
of its layers, types, and also the water table depth. This current study used data provided by
SPT bulletins demonstrated in Vaz et al. (2011), and Hermes et al. (2020), which present
information about the soil in Viamão and Rio Grande, respectively. In Viamão the soil has
clayey characteristics (Vaz et al., 2011; Brum et al., 2013). In other hand for Rio Grande,
more specifically in the local of the Federal University of Rio Grande - FURG it has saturated
and sandy characteristics.
Figure 1 illustrates the geotechnical profiles of both cities, to a depth of 15 m along with
the properties of each layer. States such as density (ρ), thermal conductivity (k), and specific
heat (cp) were assumed as isotropic and homogeneous, as in Vaz et al. (2011) and Hermes et
al. (2020).

Figure 1- Geotechnical profiles of Viamão and Rio Grande (FURG).

In its turn, the air thermo-physical properties were assumed as constant values and in
agreement with Brum et al. (2013); Lee et al. (2010) and Vaz et al. (2011). Being: ρ = 1.16
kg/m³; cp = 1010 J/kg.K; k = 0.0242 W/m.K; and ν, which is the absolute viscosity,
equivalent to 1.7894×10-5 kg/m·s.

2.2 Computational Modeling

Using the software Solid Edge, parallelepipeds that represent the soil were drawn. The
dimensions of these blocks varied according to the type of EAHE to be simulated (Fig. 2). As
presented by Rodrigues et al. (2015a), a distance of 2.0 m (in plan) must be maintained
between the ducts and the walls of the computational domain. This is done to avoid
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

78
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

interference in the results caused by boundary conditions in the walls. In addition, the size and
diameter of the ducts were based on the total length of Vertical 3U-shaped EAHE operating in
series as presented in Vaz et al. (2020). Thus, the Conventional Horizontal and T-shaped
EAHE were built with a total dimension of 18.0 m each, and diameter d = 0.05 m.

Figure 2- Computational domains (with dimensions in m) representing the


Conventional Horizontal EAHE (a), Horizontal T-shaped EAHE (b), and the Vertical 3U-
shaped EAHE (c).

Concerning the soil height of 15 m adopted for the computational domains, this is a
recommendation of Vaz et al. (2011) and also used in other works (such as Brum et al., 2012;
Rodrigues et al., 2019; Hermes et al.; 2020).
Regarding the Conventional Horizontal and the Horizontal T-shaped EAHE simulations,
those were considered buried at a depth equivalent to 2.0 m, which provides the best results as
presented in Hermes et al. (2020) for the city of Rio Grande. It is important to highlight that
for the T-shaped EAHE (Fig. 2b) the chosen length of the main (L0) and each of the bifurcated
branches (L1) was: L0 = 0.93 m and L1 = 6.53 m. Such values satisfy the L1/L0 = 7 ratio,
which generates a better relation between head loss and thermal efficiency in Rodrigues et al.
(2019).
Regarding the 3U-shaped arrangements the height of each the U-tube is equal to 3.0 m to
facilitate the installation in saturated soil regions (Vaz et al., 2020). The distance between the
straight sections in each U-tube (see Fig. 2c) was chosen as 0.4 m to reduce the influence of
heat transfer from one stretch to the other (Lee et al., 2010). While the spacing between each
of the U-tubes is 1.0 m to facilitate the installation of the three equipment in series.
It is important to highlight that to validate the numerical model a very similar domain to
the Conventional Horizontal EAHE shown in Fig. 2a, was considered. Although with
some changes subsequently presented in section 2.5.
Furthermore, to discretize the computational domains presented in Fig. 2, the Meshing
Tool, which is available on the ANSYS Workbench, was adopted for the mesh generation.
The spatial discretization was done by tetrahedral elements with sizes equivalent to three
times the diameter of the EAHE duct for the soil, and the diameter divided by three for the
flow domain (Rodrigues et al., 2015b).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

79
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Based on several references, such as Vaz et al. (2011), Brum et al. (2012); Rodrigues et
al. (2018); Hermes et al. (2020), the duct thickness was disregarded to avoid mesh generation
issues. This simplification can only be assumed due to the small thickness of the pipes in
these installations (Ascione et al., 2011).
The transient air flow in the ducts, and the heat diffusion along the soil layers were
described with the time-averaged conservation equations of mass, momentum and energy
(Bergman et al., 2011; Çengel & Cimbala, 2014). Also, the equations of the Reynolds
Average Navier-Stokes (RANS) k-𝜀 turbulence model (Versteeg & Malalasekera, 2007), were
employed and solved by the software Fluent The transient pressure-based solver was used to
obtain the convergence of the simulations. In order to control the instabilities of advective
terms the Upwind scheme was used, and the residuals for the energy equation equivalent to
1×10-6, while for the rest it was 1×10-3. The number of time steps for all simulations was
17520, each one with the size of 1 h (3600 s). This value represents two simulated years,
being the first one discarded because according to Brum et al. (2013), the results in the first
twelve months are jeopardized by the initial established conditions.

2.4 Boundary and initial conditions

As in Vaz et al. (2011), the initial conditions specified in all cases consisted of 3.3 m/s,
which is the velocity assumed for the airflow at the inlet of the duct, and 18.1°C as the initial
temperature of the simulation domain (which is the average soil temperature reached 15 m
deep) . The air inlet and soil surface temperatures along the year were obtained in distinct
ways for each case of study. In Viamão these values were set as a function fitted as of
experimental data from the year of 2007, presented in Vaz et al. (2011). For Rio Grande they
were considered as in Hermes et al. (2020); being the temperature variations from the year of
2016 and acquired with a project called ERA-Interim/LAND, developed by the European
Center for Medium-Range Weather Forecasts (ECMWF). This project is indicated by many
studies in the literature, such as Namaoui et al. (2017) and Qin et al. (2016), due to its
accurate results.

2.5 Validation and verification of the numerical methodology

With regard to the validation of the computational model, a domain representing a


Conventional Horizontal EAHE as shown in Fig. 2 (a) was simulated. Some dimensional
modifications were made to adapt to those of the experimental installation of Vaz et al.
(2011). Thus, the duct was considered buried at 1.60 m, and its diameter was 0.11 m. The soil
characteristics, thermophysical properties and boundary conditions were set as previously
mentioned data of Viamão in Sections 2.1 and 2.4, respectively.
Figure 3 illustrates the comparison between the results obtained in the present study with
numerical and experimental ones from Vaz et al. (2011). The difference between the results
of the present study and experimental data attained an average value of 2.4 °C. Hence
validating and verifying the numerical methodology, as already performed in Brum et al.
(2012), Rodrigues et al. (2015b), and Hermes et al., (2015).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

80
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 3- Validation of the computational model.

3. RESULTS AND DISCUSSION

3.1 Occupied Soil Volume

Table 1 shows the values of required soil volume for installations, which are calculated
by multiplying the dimensions of the soil in each of the simulated domains (see Fig. 2). The
height value H was kept constant, while the length L, and the width W varied as previously
presented by Section 2.2. One can observe that the volume of soil occupied by the Vertical
3U-shaped EAHE is quite reduced when compared to the Conventional Horizontal EAHE,
with 60% reduction in the portion of soil. On the contrary, the Horizontal T-shaped
installation demands about 15.6% more soil than the installation adopted as reference.

Table 1 – Dimensions and soil volume occupied.

EAHE Installation L (m) W (m) H (m) Volume (m³)


Conventional Horizontal 18.0 4.1 15.0 1107.0
Horizontal T-shaped 17.06 5.0 15.0 1279.5
Vertical 3U-shaped 7.2 4.1 15.0 442.8

3.2 Head Loss

Defined as the necessary increase of height that must be applied to the fluid due to
frictional forces from the flow (Çengel & Cimbala, 2014). The total head loss Eq. (1), is given
by a sum of the losses in the straight sections of the ducts, and minor losses related to the
accessories that change the flow direction.

𝑉
ℎ , = 𝑓𝐿 (1)
2𝑔

where: ℎ , represents the total head loss in meters, 𝑓 is the friction factor, 𝐿 is the
equivalent length of straight duct plus the localized losses, 𝑉 is the average velocity of the
flow, and 𝑔 the acceleration of gravity.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

81
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The friction factor f was obtained in the Moody Chart. It is a function of the Reynolds
number Re and the relative roughness related to the flow (Çengel & Cimbala, 2014). The f
and the Re values are equal to 0.03034 and 10696.3, respectively, in all cases, except for the
bifurcated branches in the T-shaped EAHE, due to airflow division. However, in these
branches f is 0.03668 and the Re is 5348.2, number which as well as the former also
characterizes the airflow as turbulent.
Concerning the localized losses due to curves and bifurcations in the airflow, their values
of equivalent length were considered based on Macintyre (2017). The Conventional
Horizontal EAHE is constituted by two 90° elbows that represent 3.4 m each, which are
located in the inlet and outlet sections. In the Horizontal T-shaped EAHE case, only one of
the bifurcated branches is considered in the head loss. For this reason, beyond the two 90°
elbows there is a T-shaped 90° bilateral outlet, which has an equivalent length of 7.6 m. The
curves in the Vertical arrangement were considered in two ways due to their sizes: two
elbows of 90° connected by a straight duct of 0.35 m for the union of the sections in each of
the U-tubes, and two curves of 90° (equal to 1.3 m each) connected by a duct of 0.32 m
between one exchanger and another. The sum of the equivalent length in the localized losses
(𝐿 ), and the length of the straight duct sections (𝐿 ) is equal to the 𝐿 .
Table 2 shows the total head loss of the installations. One can note that when compared
to the Conventional Horizontal EAHE (adopted as reference), the Horizontal T-shaped device
present a significant drop in head loss (almost 30%). Nonetheless, the Vertical 3U-shaped
EAHE gives an increase of 61.9%, due to its many curves along the flow.

Table 2 – Total head losses.

EAHE Installation 𝐿 (m) 𝐿 (m) 𝐿 (m) 𝒉𝑳,𝒕𝒐𝒕𝒂𝒍 (m)


Convetional Horizontal 18.0 6.8 24.8 8.35
Horizontal T-shaped 11.47 14.4 13.94; 11.93* 5.91
Vertical 3U-shaped 12.84 27.29 40.13 13.52

*For the Horizontal T-shaped there are two 𝐿 due to the bifurcation in the airflow. The Re
has a lower value in the bifurcated branch, and therefore the value of f is different. Because
of that, in this installation the head loss is measured by the sum of two parcels.

3.3 Thermal Potential

Defined as the temperature difference between the inlet and outlet of the EAHE, the
thermal potential TP can be measured in different periods of time (Rodrigues et al., 2019).
Table 3 presents the best average monthly thermal potentials for heating and cooling
conditions.

Table 3 – Best average monthly thermal potentials of heating and cooling.

EAHE Installation TP (°C) of heating TP (°C) of cooling


Conventional Horizontal 5.99 -5.26
Horizontal T-shaped 5.50 -4.75
Vertical 3U-shaped 5.21 -4.44

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

82
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The best thermal potentials of heating and cooling were reached in the same month for
all devices, being June and February, respectively. Additionally, from Tab. 3 it is possible to
infer a good level of concordance among the values of TP. It is also important to note that
only one outlet was considered in the case of the T-shaped EAHE. Because of that, this
equipment is able to serve two buildings with practically the same outcomes.
As it will be subsequently presented in Section 3.4, the average value of the thermal
potential in the entire simulated year was used to normalize this parameter and reach the
overall performance of the EAHEs.

3.4 Overall Performance

A vector analysis was performed to compare the three functional parameters previously
presented and with that find the ideal geometric configuration. The processes of normalization
for the occupied soil volume, head loss, and thermal potential were done, respectively, as
follows:

𝑉
𝑉 = (2)
𝑉


ℎ =
ℎ (3)

𝑇𝑃
𝑇𝑃 = (4)
𝑇𝑃

being: 𝑉 the soil volume occupied, ℎ the head loss, and 𝑃𝑇 the thermal potential. The
subscripts 𝑁, 𝐼, 𝐻, represent the normalized value, the installation of analysis, and the
installation of reference, in that order.
Besides that, it is desirable that the thermal potential of the Horizontal T-shaped or the
Vertical 3U-shaped devices be the same or superior when compared to the Conventional
Horizontal EAHE. For this reason, 𝑃𝑇 ≥ 1, and to enable the comparison with the other two
parameters the value was assumed as:

1
≤1 (5)
𝑇𝑃

In addition, it is possible to infer that the occupied volume soil, and the head loss are
parameters that must be the same or inferior regarding the Conventional Horizontal EAHE.
Hence, 𝑉 ≤ 1, and ℎ ≤ 1.
With the normalized values, the module of the vector |𝑣| was calculated by Eq. (6)
(Steinbruch & Winterle, 1987). The lowest vector magnitude represents among the three
EAHE installations evaluated the one with the better performance considering in concomitant
way the three adopted performance parameters. In other words, the best EAHE installation is
the one is closer the origin of the coordinate system.

1
|𝑣| = (𝑉 ) + (ℎ ) + (6)
𝑇𝑃

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

83
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 4 – Vector magnitudes for the general performance analysis.

From Fig. 4, one can note that the Conventional Horizontal EAHE with |𝑣| = 1.73 has
the better overall performance; followed by the Horizontal T-shaped EAHE which achieved
|𝑣| = 1.74. The worst overall performance among the studied cases was the Vertical 3U-
shaped EAHE with |𝑣| = 2.03.

4. CONCLUSIONS

The present study aimed to compare performance parameters of a Horizontal T-shaped


EAHE and a Vertical 3U-shaped EAHE, with a Conventional Horizontal EAHE. A validated
and verified numerical model was employed to evaluate the thermal potentials. At the same
time analytical methods were used to attain the occupied soil volume by EAHE installation
and airflow head losses. Finally, adopting as reference the Horizontal T-shaped EAHE to
normalize the performance parameters, an overall performance analysis was promoted by
means a vector approach.
Regarding the occupied soil volume, the best case is the U-tube arrangement, with 442.8
m³ of required soil volume. This value represents a 65.4% drop when compared to the worst
case, which is the Horizontal T-shaped EAHE. In spite of this, the Vertical 3U-shaped
presents itself with the lowest thermal potentials for heating and cooling, and the highest head
loss among the simulated cases. For instance, the head loss in the T-shaped achieves only
43.7% of the same parameter in the Vertical installation. It is also important to note that the
Conventional Horizontal EAHE attains the best thermal potential, with a maximum average
monthly value of 5.99°C for heating and -5.26°C for cooling.
In addition, the Horizontal T-shaped and the Vertical 3U-shaped EAHEs perform
similarly thermal potentials when compared to the Conventional Horizontal EAHE. Thus, the
use of one or the others depends on limitations and needs of the installation site, such as:
number of constructions to be served and lack of physical space.

Acknowledgements.

The project was supported by FAPERGS (Fundação de Amparo à Pesquisa do Rio Grande
do Sul), by the financial support (Edital 03/2019 - Programa Institucional de Bolsas de
Iniciação Científica e de Iniciação Tecnológica e Inovação – PROBIC/PROBITI and Edital
02/2017 - Pesquisador Gaúcho, process 17/2551-0001-111-2). L. A. O Rocha, E. D. dos
Santos and L. A. Isoldi also thank to CNPq (Conselho Nacional de Desenvolvimento
Científico e Tecnológico, process 307791/2019-0, 306024/2017-9, and 306012/2017-0,
respectively) for their research grants.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

84
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

Ascione, F., Bellia, L., Minichiello, F., (2011). “Earth-to-air heat exchangers for Italian climates”. Renew
Energy; 36:2177–88.
Bergman, T.L., Lavine, A.S., Incropera, F.P., Dewitt, D.P.,(2011). Fundamentals of Heat and mass transfer.
7th Edition Hoboken: John Wiley & Sons Inc.
Bordoloi, N., Sharma, A., Nautiyal, H., Goel, V., (2018). “An intense review on the latest advancements of
Earth Air Heat Exchangers”. Renewable and Sustainable Energy Reviews, 89, pp .261-280.
Brito, J.D. “Micro-Estacas” I.S.T - Mestrado em Construção, Cadeira de Tecnologia de Contenções e
Fundações. Lisboa, Novembro de 1999.
Brum, R.S., Rocha, L.A.O., Vaz, J., Dos Santos, E.D., Isoldi, L.A., (2012). “Development of simplified
numerical model for evaluation of the influence of soil-air heat exchanger installation depth over its thermal
potential”. Int J Adv Renew Energy Res; 1:505–14.
Brum, R.S., Vaz, J., Rocha L.A. O., Dos Santos, E. D., Isoldi, L.A., (2013). “A new computational modeling
to predict the behavior of earth-air heat exchangers”. Energy Build; 64:395–402.
Çengel, Y.A., Cimbala, J.M., (2014). Fluid Mechanics: Fundamentals and Applications. McGraw Hill
Companies, New York, 3rd edition.
Gunaratne, M., 2014. The Foundation Engineering Handbook. Taylor & Francis Group, Boca Raton, 2nd ed.
Hermes, V.D., Ramalho, J.V., Rocha, L.A., Santos, E.D., Marques, W.C., Costi, J., Rodrigues, M.K., &
Isoldi, L.A., (2020). “Further realistic annual simulations of earth-air heat exchangers installations in a coastal
city”.Sustainable Energy Technologies and Assessments, 37, 100603.
Lee, C., Gil, H., Choi, H. et al., (2010). “Numerical characterization of heat transfer in closed-loop vertical
ground heat exchanger.” Sci. China Ser. E-Technol. Sci. 53, 111–116 https://doi.org/10.1007/s11431-009-0414-8
Liu, Zhengxuan & Yu, Zhun (Jerry) & Yang, Tingting & Roccamena, Letizia & Sun, Pengcheng & Li,
Shuisheng & Zhang, Guoqiang & El Mankibi, Mohamed, (2019). "Numerical modeling and parametric study of
a vertical earth-to-air heat exchanger system," Energy, Elsevier, vol. 172(C), pages 220-231.
Macintyre, Archibald Joseph. Instalações hidráulicas prediais e industriais. LTC, Rio de Janeiro, 4th edition.
Namaoui, H., Kahlouche, S., Bebachir, A.H., Malderen, R., Brenot, H., Pottiaux, E., (2017). “GPS water
vapor and its comparison with radio sonde and ERA-Interim data in Algeria”. Adv Atmos Sci; 34(5):623–34.
Patel, R.D., & Ramana, P.V. (2016). “Experimental Analysis of Horizontal and Vertical Buried Tube Heat
Exchanger Air Conditioning System”. Indian journal of science and technology, 9.
Qin Y, Wu T, Li R, Yu W, Wang T, Zhu X, et al., (2016). “Using ERA-Interim reanalysis dataset to assess
the changes of ground surface freezing and thawing condition on the Qinghai-Tibet Plateau”. Environ Earth Sci;
75(9):1–13.
Ramadan, Abdelrahman S., (2016). "Parametric Study of Vertical Ground Loop Heat Exchangers for Ground
Source Heat Pump Systems". Electronic Thesis and Dissertation Repository. 3521.
Rodrigues, G.C., Rodrigues, M.K., Rocha, L.A., Santos, E.D., Estrada, E.D., Isoldi, L.A., (2019). Simulação
numérica e método constructal design aplicados à avaliação geométrica de um trocador de calor solo-ar com
formato T. Revista Cereus, 11, n°1.
Rodrigues, M.K., Souza, J.A., Vaz, J., Junior, C.A., Rocha, L.A., Santos, E.D., Isoldi, L.A, (2015a). Estudo
numérico de condições de contorno na modelagem computacional de trocador de calor solo-ar. Sci Plena ;11(8).
Rodrigues, M.K., Brum, R.S., J.A., Vaz.,Rocha, L.A., Santos, E.D., Isoldi, L.A, (2015b). “Numerical
investigation about the improvement of the thermal potential of an Earth-Air Heat Exchanger (EAHE)
employing the Constructal Design method”. Renewable Energy, 80: 538-51.
Rodrigues, M.K., Coswig, F.S., Camargo, K.R., Isoldi, L.A., Brum, R.S., Ramalho, J.V.A., et al., (2018).
“Thermal performance simulations of Earth-Air Heat Exchangers for different soils of a coastal city using in-situ
data”. Sustain Energy Technol Assess; 30:224–9.
Steinbruch, A., Winterle, P., (1987). Álgebra linear. Pearson Makron Books, São Paulo, 2nd edition.
Vaz, I. S., Vaz, J., Vitoria, L.C., Rocha, L.A., Hermes, V.D., Santos, E.D., Rodrigues, M.K., & Isoldi, L.A.,
(2020). Numerical analysis comparing the thermal performance of vertical and horizontal earth-air heat
exchangers. 18th Brazilian Congress of Thermal Sciences and Engineering, ENCIT 220.
Vaz, J., Sattler, M.A., Santos, E. D., Isoldi, L. A., (2011). “Experimental and numerical analysis of an earth-
air heat exchanger”. Energy Build; 43(9): 2476–82.
Versteeg, H.K., Malalasekera, W., (2007). An Introduction to Computational Fluid Dynamics: The Finite
Volume Method. Pearson Education Limited Edinburgh Gate Harlow, Essex CM20 2JE England, 2nd edition.
Wu, Y., Gan, G., Verhoef, A., Vidale, P.L., Gonzalez, R.Q., (2010). “Experimental measurement and
numerical simulation of horizontal-coupled Slinky Ground Source Heat Exchangers”. Applied Thermal
Engineering, Elsevier, 30 (16), pp.2574.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

85
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

CLASSIFICAÇÃO DE TRÁFEGO EM REDES DEFINIDAS POR SOFTWARE


UTILIZANDO SVM E MLP: UM ESTUDO COMPARATIVO

Victor de Freitas Arruda1 – victorf.arruda@outlook.com


Nilton Alves Maia1 – nilton.maia@unimontes.br
Maurílio José Inácio1 – maurilio.inacio@unimontes.br
Marilée Patta1 – marilleep@unimontes.br
1
Universidade Estadual de Montes Claros, UNIMONTES - Montes Claros, MG, Brazil
Resumo. A adoção de Redes Definidas por Software facilita a criação de novas técnicas que
podem melhorar o gerenciamento das redes atuais. Como a SDN é definida pela separação
do plano de dados e controle, a lógica de encaminhamento é centralizada em controladores,
os quais possuem uma visão de grande parte da rede, ou mesmo global quando eles são
utilizados em conjunto. Baseando-se na classificação do fluxo de tráfego entrante pode-se
implementar políticas de segurança, controle de QoS e engenharia de tráfego, visando a
melhoria do gerenciamento da rede. O objetivo deste trabalho foi realizar um estudo
comparativo dos algoritmos SVM e MLP usando ADAM e LBFGS para classificação de
tráfego entrante em uma rede SDN. Os desempenhos dos classificadores foram avaliados
considerando-se os valores da acurácia, precisão, revocação e F1-score. Verificou-se que o
SVM obteve os melhores resultados.
Palavras-chave: Redes Definidas por Software, Redes Neurais Artificiais, MLP, SVM,
Classificação de Tráfego

1. INTRODUÇÃO
As redes de computadores são essenciais, sendo utilizadas em quase todo lugar e por
muitas pessoas. Por outro lado, o desenvolvimento de novas tecnologias que melhoram o
desempenho das redes IP tradicionais é dificultado, visto que elas são constituídas por
dispositivos de encaminhamento de tráfego que geralmente são compostos por software
fechado e hardware proprietário. A configuração de regras na rede é individual para cada
dispositivo, na qual os usuários utilizam comandos de gerenciamento que são específicos de
cada fabricante. Isto dificulta a evolução das tecnologias utilizadas nas redes, tornando-as
engessadas (Cardoso et al., 2017).
As Redes Definidas por Software (Software Defined Networking - SDN) podem auxiliar
no enfrentamento de problemas de gerenciamento das redes IP atuais. As redes SDN são
caracterizadas pela separação do plano de dados e de controle, sendo que a lógica de
encaminhamento de pacotes é centralizada no plano de controle. A estrutura das redes SDN é
formada por três componentes principais: plano de dados associado aos comutadores no nível
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

86
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mais baixo; plano de controle no nível intermediário; e plano de aplicação no nível mais alto.
A comunicação entre controladores e o plano de dados é realizada via interface southbound,
localizada nos comutadores. A comunicação entre aplicações de rede e controladores é
mantida pela interface northbound, localizada no plano de controle. O plano de dados atua
apenas no encaminhamento de pacotes. Isto possibilita que os comutadores se tornem
dispositivos mais simples. O controlador é o responsável pelas decisões a serem tomadas,
construindo e renovando a tabela de fluxos. O controlador também pode ser considerado um
sistema operacional de rede que possui sua visão global, podendo estar disposto local ou
remotamente (Cardoso et al., 2017). O administrador não necessita configurar os dispositivos
de rede individualmente sendo que as decisões de roteamento e encaminhamento são
implementadas através do controlador (Kokila, 2014). As decisões tomadas pelo controlador
são reguladas por softwares específicos instalados no plano de aplicação. São exemplos de
rotinas de software: métodos de segurança, gerência de QoS, engenharia de tráfego e soluções
para medição e monitoramento de rede (Masoudi & Ghaffari, 2016). As alterações na lógica
da rede são realizadas pelos controladores (Bisol et al., 2016). A adoção do paradigma SDN
facilita a introdução de novas técnicas de gerenciamento que podem ser implementadas a
partir da análise do tráfego da rede. Uma das atividades importantes nessa análise é a
classificação do tráfego.
De acordo com Zhang et al. (2013), a classificação do tráfego de rede (Traffic
Classification - TC) visa classificar os fluxos de tráfego por seus aplicativos de geração. Ela
pode desempenhar um papel importante na segurança e gerenciamento da rede, como controle
de qualidade de serviço (QoS), interceptação legal (LI) e detecção de intrusão. A classificação
de tráfego e a caracterização de aplicações de rede estão se tornando cada vez mais
importantes para aplicações de engenharia de tráfego, monitoramento de segurança e
qualidade de serviço (QoS) (Fan & Liu, 2017).
Os métodos de classificação de tráfego fazem a análise dos dados que trafegam na rede
para se obter o tipo de tráfego (classe) correspondente ao fluxo analisado. Eles podem ser
baseados em números de porta, payload e técnicas de machine learning. No passado, a
classificação baseada em número de portas foi uma das técnicas mais usadas e bem-sucedidas,
pois muitas aplicações usavam números fixos atribuídos pela Internet Assigned Numbers
Authority - IANA. Esse tipo de classificação depende de aplicativos que mapeiam os números
de porta conhecidos. Infelizmente, com o passar do tempo as técnicas de classificação
baseadas em números de portas se tornaram imprecisas e algumas limitações se tornaram
obvias. Surgiu um alto número de aplicações que não possuem números de porta registrados e
muitas delas utilizavam mecanismos dinâmicos de negociação de portas para se esconderem
de firewalls e ferramentas de segurança de rede. (Fan & Liu, 2017; Amaral et al., 2016).
A classificação baseada em inspeção de payload, também conhecida por Deep Packet
Inspection - DPI é uma das técnicas mais utilizadas (Amaral et al., 2016). Os sistemas de DPI
utilizam de assinaturas predefinidas de pacotes ou fluxos para descobrir a qual tipo de tráfego
o pacote ou fluxo pertence. Como os métodos baseados em payload, como o DPI, necessitam
examinar o payload de cada um dos pacotes, às vezes há alguns problemas, no caso das leis
de privacidade e criptografia que podem levar a um payload de tráfego inacessível. Além
disso, o DPI possui altos custos computacionais e requer manutenção manual de assinaturas
(Fan & Liu, 2017).
Os métodos de classificação baseados em aprendizado de máquina (Machine Learning)
podem superar algumas das limitações de abordagens baseadas em porta e payload. Mais
especificamente, as técnicas de aprendizado de máquina podem classificar o tráfego da
Internet usando estatísticas independentes do protocolo da aplicação, como duração do fluxo,
variação do comprimento do pacote, tamanho máximo ou mínimo do segmento, tamanho da
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

87
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

janela, tempo de ida e volta, e tempo de chegada de pacotes. Além disso, pode levar a custos
computacionais mais baixos e identificar o tráfego criptografado (Fan & Liu, 2017). A
classificação do tráfego pode ser realizada usando aprendizado supervisionado ou não
supervisionado. No aprendizado supervisionado, é necessário obter conjuntos de dados de
treinamento rotulados, algo que pode ser um empecilho em redes de computadores devido à
dificuldade em obter amostras de fluxo de rede anotadas com precisão em uma ampla gama
de aplicações e na taxa em que novas aplicações podem aparecer. Já, o aprendizado de
máquina não supervisionado é normalmente usado para tarefas de clustering, no qual os
algoritmos agrupam os dados em diferentes clusters de acordo com as semelhanças nos
valores dos recursos, sendo, o objetivo, encontrar relacionamentos desconhecidos nos dados,
encontrando padrões de similaridade entre as várias observações (Amaral et al., 2016). A
classificação do tráfego realizada neste trabalho utiliza o aprendizado supervisionado. Mais
especificamente, são utilizados a rede neural artificial do tipo MLP (Multilayer Perceptron) e
o SVM (Support Vector Machine).
As redes MLP possibilitam a resolução de problemas complexos não possíveis de serem
resolvidos por um único neurônio. Os neurônios da camada escondida são muito importantes
na rede MLP. Sem eles é impossível a resolução de problemas não linearmente separáveis
(Ferreira, 2004). Nas redes MLP, cada uma das camadas tem sua função específica. Assim,
cada neurônio calcula uma soma ponderada das entradas e a passa na forma de uma função
não-linear limitada. Em nível de mesoestrutura, tem-se duas ou mais camadas com conexão
feedforward (Vieira & Bauchspiess, 1999). Pode-se afirmar ainda que com a adição de uma
ou mais camadas intermediárias (ocultas), o poder computacional de processamento não-
linear e de armazenamento da rede é aumentado. O conjunto de saídas dos neurônios de cada
camada intermediária é utilizado como entrada para a camada posterior.
O SVM foi desenvolvido por Vapnik (1995), a partir dos estudos de Vapnik e
Chervonenkis (1971) e Boser et al. (1992). A classificação através da SVM consiste na
separação ótima de um grupo de dados, independentemente da sua dimensionalidade, através
de um problema de programação quadrática que permite boa generalização (Vapnik, 1998).
Esse processo faz com que a SVM encontre um mínimo global na superfície de custo,
podendo ser considerado como uma vantagem do método (Haykin, 2001).
O objetivo deste trabalho foi realizar um estudo comparativo do SVM com os algoritmos
L-BFGS (Limited-Memory Broyden-Fletcher-Goldfarb-Shanno) e ADAM da Rede Neural
Artificial do tipo MLP para a classificação do tráfego entrante em uma topologia SDN.
As próximas seções deste artigo são organizadas da seguinte maneira: na seção 2 são
apresentados os trabalhos relacionados. Na seção 3 fez-se estudo do modelo de coleta e
classificação do tráfego. Na seção 4 exibem-se os resultados obtidos com os experimentos, e
em seguida, são apresentadas as conclusões sobre o trabalho.

2. TRABALHOS RELACIONADOS
Na literatura existem pesquisas propondo a implementação da classificação de tráfego em
redes de computadores. Algumas propostas utilizam redes SDN e algoritmos de Machine
Learning. Breves descrições de algumas destas propostas são apresentadas a seguir.
Parsaei et al. (2017) configuraram uma rede SDN com um comutador, um controlador e
dois hosts. Eles fizeram um estudo dos algoritmos MLP, NARX (Non-linear Autoregressive
Exogenous Multilayer Perceptron with Levenberg-Marquardt) e NARX (Non-linear
Autoregressive Exogenous Multilayer Perceptron with Naïve Bayes) sobre a arquitetura SDN
selecionada. Os resultados obtidos pelos algoritmos com relação a acurácia foram: 97% para a
MLP, 97% para o NARX (Non-linear Autoregressive Exogenous Multilayer Perceptron with
Levenberg-Marquardt) e 97,6% para o NARX (Non-linear Autoregressive Exogenous
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

88
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Multilayer Perceptron with Naïve Bayes). O desempenho dos algoritmos foi parecido, com
leve superioridade do NARX (Non-linear Autoregressive Exogenous Multilayer Perceptron
with Naïve Bayes). Como trabalhos futuros eles propuseram implementações em diferentes
plataformas de dispositivos (iOS, Windows, Linux) e detecção de fluxos pertencentes a novas
aplicações que não fazem parte do classificador treinado.
Xu et al. (2018) implementaram um algoritmo de Deep Learning que utiliza apenas o
recurso de tráfego baseado no tempo. As simulações foram realizadas no Mininet, propondo
um mecanismo que faz a colaboração entre o algoritmo de Deep Learning e a rede SDN para
realizar um gerenciamento inteligente de recursos de rede. No experimento, o modelo de
classificação proposto utilizou as Redes Neurais Profundas (Deep Neural Networks - DNN) e
eles definiram a duração dos fluxos como 5, 10, 15 e 30 segundos. O Tensor Flow e o scikit-
learn foram usados para executar os experimentos. Para a comparação foram selecionados o
K-Nearest Neighbors - KNN, Support Vector Machine - SVM e o Decision Tree, sendo que o
DNN obteve melhor precisão com duração acima de 15 segundos. Como trabalhos futuros, a
ideia é de realizar melhorias no artigo e a discussão da implementação da Virtualização das
Funções da Rede.
Zhai & Zheng (2018) propuseram uma versão do Random Forest para classificação de
Tráfego. Eles fizeram a comparação do algoritmo proposto com outros dois algoritmos, o
Logistic Regression e o Support Vector Machine (SVM). Neste trabalho foi constatado que os
resultados do Random Forest foram relativamente melhores, com 98% de acurácia, enquanto
que o Logistic Regression obteve 88% de acurácia e o SVM obteve 91%. No trabalho optou-
se por um método, no qual a coleta de dados não é realizada em tempo real. Esta proposta foi
deixada para trabalhos futuros.
Bakker et al. (2019) relata a experiência em uma rede SDN ativa, utilizando métodos de
Machine Learning para classificação de Tráfego. Este trabalho avaliou cinco classificadores:
Random Forest; Quadratic Classifier (Qda); Naive Bayes;k-Nearest Neighbors (kNN); e
Support Vector Machine (SVM). Nesta pesquisa foi adotado um método próximo a
comparação entre uma rede SDN offline e uma rede SDN online. Primeiro eles estabeleceram
um valor de referência padrão para os cinco classificadores e os utilizaram para comparar com
os classificadores selecionados. Os classificadores foram testados em modo passivo e ativo,
sendo que a acurácia média no modo passivo diferiu do padrão de referência entre 6,9% -
11,2%, enquanto a acurácia no modo ativo está mais próxima do padrão de referência 6,2% -
8,3%. A acurácia de cada classificador no modo ativo ficou entre 91% e 93%, e a acurácia dos
classificadores em modo passivo ficou entre 89% e 92%.

3. MODELO DE COLETA E CLASSIFICAÇÃO DO TRÁFEGO


O modelo de coleta e classificação do tráfego utilizado neste trabalho é formado pelas
seguintes etapas: medição do tráfego; seleção e extração dos atributos; seleção das amostras
de treinamento e testes; e implementação dos algoritmos.
3.1 Medição do tráfego na topologia SDN
A rede utilizada neste trabalho é formada por quarenta e oito (48) hosts, vinte e um (21)
comutadores (switches) e um controlador. Os hosts foram divididos entre clientes e servidores
(receptores), sendo vinte e quatro (24) clientes e vinte e quatro (24) servidores. A largura de
banda dos enlaces entre os hosts e os comutadores foi configurada em 100Mbps.
A simulação da rede SDN foi realizada utilizando o software Mininet (Mininet Team,
2020), executado na plataforma SND Hub (SDN Hub, 2020). O código para implementação
da topologia SDN no Mininet, apresentada na Figura 1, foi escrito em linguagem Python.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

89
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 1 - Topologia SDN

O software Distribuited Internet Traffic Generator - D-ITG (Botta, Dainotti &


Pescapè, 2012) foi utilizado para a geração do tráfego das aplicações a partir dos hosts da
topologia SDN apresentada na Figura 1. O D-ITG é baseado na API libpcap, que captura
pacotes de rede durante seu tráfego. Com a captura do tráfego, o tcpdump gera um arquivo no
formato pcap, que é transformado em csv pelo tshark. O tshark é uma implementação do
Wireshark em modo texto muito similar ao tcpdump, porém permite a conversão do arquivo
pcap para csv (utilizada neste trabalho).
Os passos utilizados para a execução da medição do tráfego na topologia SDN são os
seguintes. Primeiro é iniciado o controlador floodlight. Em seguida a topologia SDN é
também iniciada no software mininet. A aplicação tcpdump começa a capturar o tráfego que
trafega pelas interfaces de rede. Com a topologia SDN em funcionamento, o D-ITG gera o
tráfego na rede. Como o tcpdump não converte o arquivo pcap em csv, utilizam-se o tshark
para converter o arquivo gerado em csv. Após a geração do arquivo csv é utilizado o promed
(programa de medição) para gerar a medição do tráfego. A Figura 2 resume os passos para a
execução da medição de tráfego na topologia SDN.

Figura 2 - Passos para execução da medição de tráfego na topologia SDN


Os hosts clientes geraram na entrada da topologia SDN os seguintes tipos de tráfegos:
Voip; Telnet; Quake3; DNS; CounterStrike inactive; CounterStrike active; Vídeo e Web. O
Voip é a aplicação de voz sobre IP. O Telnet, que é uma aplicação que permite acesso remoto
à qualquer máquina que esteja rodando o módulo servidor. O Quake3 é um jogo eletrônico de
tiro em primeira pessoa. O DNS simula uma aplicação responsável por localizar e traduzir
para números IP os endereços dos sites que são digitados nos navegadores. O CounterStrike
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

90
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Ativo - CSa também é um jogo de tiro em primeira pessoa que simula quando o usuário está
ativo. O CounterStrike Inativo - CSi é um jogo de tiro em primeira pessoa que simula quando
o usuário está inativo. O tráfego Web simula aplicações web e o Vídeo, aplicações de vídeo.
3.2 Seleção dos atributos e definição das amostras de treinamento e testes
No programa de medição de tráfego utilizou-se a biblioteca pandas (Pandas, 2020) para o
processamento dos dados. Ao final do processamento foi gerado um arquivo, contendo as
informações de duração do fluxo de tráfego, vazão, quantidade de pacotes transmitidos,
quantidade de pacotes por segundo, atraso médio e jitter médio. Esse arquivo de medição foi
utilizado pelos algoritmos de classificação. Os atributos foram selecionados com base no
trabalho de Ding et al. (2013). A topologia SDN ficou em funcionamento durante 1 hora,
sendo que cada medição do tráfego teve duração de 10 segundos, sendo obtidas trezentos e
sessenta (360) amostras de medições de cada tipo de tráfego. Para o treinamento dos
algoritmos SVM e MLP foram utilizadas setenta e cinco por cento (75%) das amostras de
medições enquanto que vinte e cinco por cento (25%) foram utilizados para a execução dos
testes.
3.3 Implementação dos algoritmos de Classificação
Os algoritmos implementados nesta fase do trabalho foram o SVM e a RNA do tipo MLP
com os algoritmos ADAM e LBFGS. Posteriormente, na continuação do trabalho, pretende-
se selecionar novos métodos de classificação para se efetuar testes e comparações. As
entradas das topologias dos algoritmos de classificação são os valores do delay médio, jitter
médio, bytes recebidos, vazão e taxa de pacotes média. As saídas são as classes de medição de
tráfego identificadas. As redes MLP com os algoritmos ADAM e LBFGS utilizaram taxa de
aprendizado adaptativa e foram configuradas com três (3) camadas escondidas, sendo que
cada uma delas contêm cento e quarenta e quatro(144) neurônios. No SVM, para os
parâmetros C e gamma foram adotados o valor cem (100). O parâmetro C é a complexidade
do modelo e gamma define a relevância dos dados mais próximos a fronteira de separação. Os
algoritmos foram implementados utilizando a linguagem Python e a biblioteca Scikit-learn.

4. RESULTADOS E DISCUSSÃO
Nesta seção são apresentados os resultados da classificação do tráfego com a utilização
dos algoritmos SVM e MLP. Os algoritmos de classificação foram avaliados considerando-se
a acurácia, precisão, revocação, F1-score. Nesta fase do trabalho, foi definido que cada um
dos algoritmos fosse executado 10 (dez) vezes, mas posteriormente serão realizadas analises
para verificar qual seria a quantidade ideal de execuções. A Figura 3 apresenta os resultados
da Acurácia obtidos pelos algoritmos SVM e MLP com LBFGS e ADAM.

100
90
Acurácia (%)

adam
80
lbfgs
70
svm
60
50
1 2 3 4 5 6 7 8 9 10
Execuções

Figura 3 - Acurácia dos algoritmos SVM e MLP com LBFGS e ADAM

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

91
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Analisando a acurácia dos algoritmos selecionados pode-se afirmar que o algoritmo SVM
obteve melhores resultados, seguido da rede neural MLP com ADAM e da rede neural MLP
com o LBFGS.
A Figura 4 apresenta os resultados do F1-Score por classe obtidos pela Rede MLP com
ADAM.

100
Quake3
90 Video
Precisão (%)

80 Csi
70 Csa
60 Telnet
Web
50
1 2 3 4 5 6 7 8 9 10 VOIP
DNS
Execuções

Figura 4 – F1-Score por classe quando utilizado a Rede Neural MLP com ADAM
Pode-se observar na Figura 4 que as classes Csi, Csa, Telnet, Web, Voip e DNS
alcançaram excelentes resultados, enquanto que as classes Quake3 e Vídeo obtiveram
respectivamente o F1-Score médio de 80,5% e 88%.
A Figura 5 apresenta os resultados do F1-Score por classe obtidos pela Rede MLP com
LBFGS.

100
Quake3
90
Revocação (%)

Video
80 Csi
70 Csa
60 Telnet
Web
50
1 2 3 4 5 6 7 8 9 10 VOIP
DNS
Execuções

Figura 5 – F1-Score por classe quando utilizado a Rede Neural MLP com LBFGS

Pode-se observar na Figura 5 que as classes Csi, Csa, Web e DNS alcançaram resultados
próximos a cem por cento (100%), enquanto que a classe Quake3, Vídeo, Telet e Voip
obtiveram respectivamente o F1-Score médio de 64,3%, 87,9%, 94,2% e 96,1%.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

92
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 6 apresenta os resultados do F1-Score por classe quando é utilizado o SVM.

100
Quake3
90 Video
F1-Score (%)

80 Csi
70 Csa
60 Telnet
Web
50
1 2 3 4 5 6 7 8 9 10 VOIP
DNS
Execuções

Figura 6 – F1-Score por classe quando utilizado o SVM


Pode-se observar na Figura 6 que todas as classes alcançaram resultados próximos a cem
por cento (100%), sendo que as quatro (4) classes que obtiveram o pior F1-Score foram
Quake3, Vídeo, Csi, Telnet, com respectivamente 97,3%, 98,9%, 98,7% e 96,9% de média.
Apenas como ilustração, apresenta-se na Tabela 1 a Matriz de confusão do resultado de
uma das execuções do SVM. O SVM foi selecionado, pois obteve melhores resultados dentre
os algoritmos avaliados.

Tabela 1- Matriz de confusão do algoritmo SVM


Predito
Real CSa CSi DNS Quake3 Telnet Voip Video Web
CSa 128 0 0 0 1 0 0 0
CSi 1 272 0 0 0 0 0 0
DNS 0 0 275 0 4 0 0 0
Quake3 0 0 0 270 0 0 0 0
Telnet 0 0 1 0 189 0 0 0
Voip 0 0 0 0 3 303 0 0
Video 0 0 0 0 4 0 256 0
Web 0 0 0 0 1 0 255

Com o objetivo de comparar o desempenho dos classificadores de tráfego utilizados neste


trabalho, apresenta-se na Tabela 2 um resumo dos resultados obtidos pelos algoritmos SVM e
MLP com ADAM e L-BFGS durante as dez (10) execuções realizadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

93
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 2 - Valores médios da Acurácia, Precisão, Revocação e F1-Score dos algoritmos SVM
e MLP com LBFGS e ADAM.

SVM MLP com ADAM MLP com LBFGS


98,96% 97,24% 95,13%
Acurácia
99,00% 97,70% 95,30%
Precisão
99,00% 97,20% 95,10%
Revocação
99,00% 97,20% 94,90%
F1-Score

Observando-se os resultados apresentados na Tabela 2, pode-se afirmar que o SVM


obteve os melhores resultados com relação a Acurácia, Precisão, Revocaçãoe F1-Score.

5. CONCLUSÃO
O objetivo deste trabalho foi realizar um estudo comparativo dos algoritmos SVM e MLP
usando ADAM e LBFGS para classificação de tráfego entrante em uma rede SDN. Foi
apresentado um modelo de coleta e classificação do tráfego para a topologia SDN proposta.
A ferramenta D-ITG foi utilizada para a geração de tráfego entrante na rede. Através dos
dados coletados pelo tcpdump e processados pelo programa de medição foi construído um
arquivo com os padrões de treinamento e testes utilizados pelo SVM e pela MLP usando
ADAM e LBFGS. Os desempenhos dos classificadores foram avaliados levando em conta os
valores da acurácia, precisão, revocação e F1-score. Verificou-se que o SVM obteve os
melhores resultados.
Uma limitação deste trabalho refere-se ao fato de não terem sido registrados os tempos de
treinamento e testes dos algoritmos de classificação avaliados. Estas informações são
importantes para avaliar a viabilidade da aplicação destes algoritmos numa topologia de rede
real.
Como trabalho futuro pretende-se identificar outras técnicas de classificação existentes na
literatura visando a comparação com os algoritmos utilizados neste trabalho. Como exemplo,
pode-se citar C4.5, Naive Bayes, Bayes net e ELM. Serão implementadas também funções
para registro dos tempos de treinamento e testes dos algoritmos de Classificação. Finalmente,
os classificadores serão testados em um cenário do mundo real com a utilização de uma
topologia SDN formada por um maior número de comutadores e hosts.

REFERÊNCIAS
Amaral, P. et al. Machine Learning in Software Defined Networks: Data Collection and Traffic Classification.
Ieee 24th International Conference On Network Protocols. 2016.
Bakker J., Ng B.; Seah W. K. G.; Pekar A. Traffic Classification with Machine Learning in a Live Network.
Ifip/ieee International Symposium On Integrated Network Management (IM2019), p.488-493, 2019.
Bisol, R. V.; Silva, A. S.; Machado, C. C.; Granville, L. Z.; Schaeffer-Filho, A. E. Coleta e Análise de
Características de Fluxo para Classificação de Tráfego em Redes Definidas por Software. XXXIV Simpósio
Brasileiro de Redes de Computadores e Sistemas Distribuídos. 2016.
Boser, B. E.; Guyon, I. M.; Vapnik, V. N. A training algorithm for optimal margin classifiers. In: WORKSHOP
ON COMPUTATIONAL LEARNING THEORY, 5., 1992, Pittsburgh. Proceedings... New York: ACM
Press, 1992. p. 144-152.
Botta, A., Dainotti, A., & Pescapè, A. (2012). A tool for the generation of realistic network workload for
emerging networking scenarios. Computer Networks (Elsevier), 56, 3531-3547.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

94
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Cardoso, W. S.; Silva, F. J. A.; Rocha U. V.; SOUSA, M. P. Implantação de um Patch Panel Virtual Utilizando
Redes Definidas por Software. Anais do XXIII Simpósio Brasileiro de Sistemas Multimídia e Web:
Workshops e Pôsteres, Gramado, p.95-98. 2017.
Chaves, B. B., ESTUDO DO ALGORITMO ADABOOST DE APRENDIZAGEM DE MÁQUINA APLICADO
A SENSORES E SISTEMAS EMBARCADOS. Orientador: Delson Torikai. 2012. 119 p. Dissertação
(Mestrado em Engenharia Mecânica) - Escola Politécnica da Universidade de São Paulo. Departamento de
Engenharia Mecatrônica e de Sistemas Mecânicos, São Paulo, 2012.
Ding, L.; Yu, F.; Peng, S.; Xu, C. A Classification Algorithm for Network Traffic based on Improved Support
Vector Machine. JOURNAL OF COMPUTERS, 8(4), p.1090-1096. 2013.
Fan, Z.; Liu, R. Investigation of machine learning based network traffic classification. 2017 International
Symposium On Wireless Communication Systems (iswcs), ago. 2017.
Haykin, S. Redes Neurais: princípios e práticas. 2.ed. Porto Alegre: Bookman, 2001. 900 p.
Kokila, R.; Somasundaram, T. S.; Kannan, G. (2014). DDoS detection and analysis in SDN-based environment
using support vector machine classifier. 205-210.
Masoudi, R., & Ghaffari, A. Software defined networks: A survey. Journal of Network and Computer
Applications, 67, 1–25, 2016.
Mininet Team. Mininet: An Instant Virtual Network on your Laptop (or other PC) - Mininet. Documentation.
2020. Disponível em: <http://mininet.org>. Acessado em: 29/07/2020.
Pandas. pandas - Python Data Analysis Library. 2020. Disponível em: <https://pandas.pydata.org/>. Acessado
em: 03/09/2020.
Parsaei, M. R.; Sobouti, J.; Khayami, S. R.; Javidan, R. Network Traffic Classification using Machine Learning
Techniques over Software Defined Networks. (IJACSA) International Journal of Advanced Computer
Science and Applications, 8(7), p.220-225. 2017.
SDN Hub. All-in-one SDN App Development Starter VM | SDN Hub. 2020. Disponível em:
<http://sdnhub.org/tutorials/sdn-tutorial-vm/>. Acessado em: 29/07/2020.
Vapnik, V. N. The nature of statistical learning theory. New York: Springer-Verlag, 1995. 188 p.
Vieira, Z. P. & Bauchspiess, A. (1999). Implementação do Servocontrole Auto-Sintonizado em Tempo-Real
Utilizando Rede Perceptron Multicamadas. IV Congresso Brasileiro de Redes Neurais, 308-313.
Vapnik, V. N.; Chervonenkis, A. Y. On the uniform convergence of relative frequencies of events to their
probabilities. Theory of Probability and its Applications. v. 16, n. 2, p. 264-280, 1971.
Vapnik, V. N. Statistical Learning Theory. New York: John Wiley and Sons,1998. 768 p.
Xu, J.; Wang, J.; Qi, Q.; Sun, H. & He, B. DEEP NEURAL NETWORKS FOR APPLICATION AWARENESS
IN SDN-BASED NETWORK, 2018 IEEE 28th International Workshop on Machine Learning for Signal
Processing (MLSP), Aalborg, 2018, pp. 1-6.
Zhang, J., Xiang, Y., Zhou, W., & Wang, Y. Unsupervised traffic classification using flow statistical properties
and IP packet payload. Journal of Computer and System Sciences, 79(5), 573–585. 2013.
Zhai, Y. & Zheng, X. Random Forest based Traffic Classification Method In SDN, 2018 International
Conference on Cloud Computing, Big Data and Blockchain (ICCBB), Fuzhou, China, 2018, pp. 1-5.

Abstract. The adoption of Software Defined Networks, facilitates the creation of new
techniques that can improve the management of current networks. As the SDN is defined by
the separation of the data and control plan, the routing logic is centralized in controllers,
which have a view of a large part of the network, or even global when they are used together.
Based on the classification of the incoming traffic flow, security policies, QoS control and
traffic engineering can be implemented, aiming at improving the network management. The
objective of this work was to carry out a comparative study of the SVM and MLP algorithms
using ADAM and LBFGS to classify incoming traffic in an SDN network. The classifiers'
performances were evaluated taking into account the values of accuracy, precision, recall
and F1-score. It was found that the SVM obtained the best results.

Keywords: Software Defined Networks, SDN, Artificial Neural Networks, MLP, SVM, Traffic
Classification

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

95
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ESTIMATIVA DO CUSTO DE MANUFATURA DA EXTRAÇÃO COM


DIÓXIDO DE CARBONO SUPERCRÍTICO DO ÓLEO DE CASCA DE
LARANJA

Thais Schmidt Silva Almeida1 – thaisschmidt10@gmail.com


Sarah Arvelos 1 – sarah.arvelos@ufu.br
1
Universidade Federal de Uberlândia – Uberlândia, MG, Brazil

Resumo. A extração de óleos essenciais por CO2 como fluido supercrítico é uma tecnologia
verde, a qual tem chamado a atenção da indústria mundial. O Brasil é um dos maiores
produtores de suco de laranja. O resíduo da produção do suco engloba a casca da fruta,
insumo onde se concentra uma quantidade substancial de óleos. O presente trabalho visa
realizar uma avaliação econômica classificada como “de estimativa” do processo de
extração com CO2 supercrítico do óleo essencial de laranja. Através de curvas cinéticas de
extração em escala piloto consultadas na literatura, foram calculados os parâmetros de
“scale-up” do processo. Foi realizado o cálculo do custo de manufatura do processo de duas
plantas de processamento de 10 e 3 toneladas de laranja. Para avaliação do gasto com
utilidades (vapor de aquecimento e fluido de resfriamento), foram realizadas simulações com
o “software” UniSim Design. Os resultados mostraram que quanto maior o tamanho do
empreendimento, menor o custo de manufatura. Contudo, um maior investimento inicial será
necessário para a compra dos equipamentos da planta. Processar 10 ou 3 toneladas de
laranja mostra-se viável sob o ponto de vista da margem bruta, podendo o empreendedor
lucrar até US$ 37,21 por tonelada de óleo produzido.

Palavras-chaves: Limoneno, extração, fluido supercrítico, resíduo, laranja.

1. INTRODUÇÃO

A extração por fluido supercrítico de compostos bioativos é uma técnica efetiva e rápida.
Seu emprego têm crescido na indústria por poder evitar o uso de solventes tóxicos. O dióxido
de carbono (CO2) é o solvente ideal para esta extração quando os compostos de interesse são
de baixa polaridade. O CO2 é não-explosivo, não-tóxico e fácil de purificar após a extração
(KNEZ et al., 2019) .
A incorporação do uso de subprodutos da indústria alimentícia para a produção de
óleos essenciais de alta qualidade a partir de sementes e cascas pode aumentar o valor de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

96
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

mercado da empresa. Isto porque muitos destes óleos têm perfis lipídicos que são similares
aos tradicionalmente consumidos e também são fontes alternativas de compostos bioativos
(SANCHO et al., 2015). No Brasil, a indústria alimentícia e a de produção agrícola são a
principal fonte da economia do país. A indústria alimentícia é a que gera mais resíduos a
serem descartados. No mundo, aproximadamente 55 milhões de toneladas de resíduo de suco
de laranja são produzidos e o Brasil lidera a produção deste resíduo (OKINO DELGADO;
FLEURI, 2016). Estima-se que das 70 mega toneladas de laranja produzidas no mundo
anualmente, de 50 a 60% do peso total da fruta seja referente à casca (OZTURK;
WINTERBURN; GONZALEZ-MIQUEL, 2019).
Em virtude do que foi apresentado, o objetivo geral do presente trabalho foi realizar uma
estimativa do custo de manufatura (COM, cost of manufacturing), em escala industrial, do
processo de extração supercrítica do óleo de casca de laranja.

2. METODOLOGIA

2.1 Avaliação do COM


Para avaliar o COM utilizou-se a metodologia proposta por TURTON et al. (2012). A
metodologia estipula o COM como a soma de cinco itens multiplicados por suas respectivas
constantes empíricas: custo fixo de investimento (FCI - fixed capital of investment), custo da
mão-de-obra (COL - cost of operational labor), custo da matéria-prima (CRM - cost of raw
material), custo do tratamento de resíduos (CWT - waste treatment) e custo das utilidades
(CUT - cost of utilities). O custo pode ser determinado pelo uso Eq. (1):

COM (US $ / ano)  0,208FCI  2,73COL  1,23(CWT  CUT  CRM ) (1)

O gasto com energia elétrica pode ser calculado através do informe da potência dos
equipamentos, seu tempo de funcionamento e o custo $/ kWh. O custo de matéria-prima
(CRM) é calculado a partir da informação da quantidade total de matérias-primas utilizadas no
processo como um todo, como solventes, reagentes químicos etc. Enfim, o custo de
tratamento de resíduos (CWT) representa a estimativa do total gasto com o tratamento de cada
um dos resíduos sólidos, líquidos ou gasosos liberados.
O estudo do processo de extração em estado estacionário do óleo essencial da laranja
Citrus Sinensis foi realizado o simulador de processos UniSim Design. O uso do simulador de
faz necessário para a contabilização dos gastos com vapor e fluido de resfriamento, itens
indispensáveis para o cálculo do CUT.

2.2 Síntese do processo de extração


O processo de extração supercrítica com CO2 de oleorresinas e óleos vegetais já é um
processo muito bem conhecido. De forma geral, o processo conta com um extrator, no qual o
CO2 e a matriz sólida são inseridos. A fase leve é rica em CO2 e o extrato desejado. Para que o
CO2 seja separado do extrato, é necessário que a mistura seja despressurizada. Uma forma
simples de se realizar este processo é pela destilação tipo flash (KING; BOTT, 1993).
A Figura 1 apresenta o processo proposto para o presente trabalho. Neste processo, o CO2
obtido na separação flash (V-100) é reciclado pela corrente RYC-2. O extrator é representado
por um equipamento denominado splitter (X-101), este equipamento permite que o
programador fixe as massas que saem pela corrente de topo (extrato) e pela corrente de fundo
(rafinado). A adoção deste equipamento foi necessária em virtude de não haver equipamento
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

97
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

adequado para representação de equipamentos que trabalham com sólidos. O equipamento X-


100 realiza a purga do sistema, de modo a que a corrente 12 contenha apenas CO2 puro.
Na Figura 1, a corrente de alimentação de CO2 (sCO2) está a temperatura ambiente (25
°C e 60 bar). O trocador de calor E101 leva o CO2 puro à temperatura de 5 C° para que o
mesmo se liquefaça e possa ser bombeado. A bomba subsequente (P-100), eleva à pressão de
trabalho (200 bar) e o equipamento E102 à temperatura de trabalho (40°C). 200 bar e 40 °C
foram as condições de trabalho selecionadas. Estes valores são típicos para extração de óleos
vegetais (DE MELO; SILVESTRE; SILVA, 2014). E100 representa o equipamento
responsável por elevar a temperatura do extrato até a temperatura de extração (40 °C).
Foram realizadas duas simulações, a primeira considerando o processamento diário de 3
toneladas de laranja por hora (Projeto 1) e a segunda considerando 10 toneladas por hora
(Projeto 2). Considerando-se que 20% do peso total da fruta seja referente ao flavedo, que é
porção colorida da casca, rica em óleos essenciais (BERNA et al., 2000), o extrator processa
0,6 e 2 toneladas por hora de matéria-prima, respectivamente. Estas toneladas de laranja
diárias foram selecionadas tendo por base a produtividade brasileira de uma grande planta de
processamento de suco de laranja.

Figura 1 - Diagrama proposto para o processo representado no software UniSim

2.3 Definição dos compostos modelo e propriedades físicas


O componente majoritário do óleo extraído da casca de laranja é o limoneno, o qual
compõe pelo menos 90% do óleo essencial da casca de laranjas tipo Citrus Sinensis e outras
variedades comuns na produção de suco (BERNA et al., 2000; VALLE; CALDERÓN;
NÚÑEZ, 2019). Então, o limoneno foi selecionado como composto modelo para representar o
extrato oleoso obtido durante as simulações com o UniSim Design.
A celulose foi selecionada como pseucomposto para representar a matriz sólida nas
simulações deste trabalho. Os parâmetros necessários para sua modelagem foram consultados
no trabalho de Wooley e Putsche (1996). No software, a molécula foi criada como um
componente hipotético sólido, o qual não passa para a fase líquida ou gasosa.
Para o cálculo das não idealidades das fases em escoamento nos equipamentos em
questão, utilizou-se a equação de estado de Peng-Robinson para representar a fase vapor e o
modelo UNIFAC para a fase líquida.

2.4 Operação unitária do descascamento

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

98
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na indústria brasileira, o suco de laranja é extraído da fruta inteira sem que haja
descascamento, em extratores tipos mandril ou tipo espremedor (PEREIRA et al., 2018).
Portanto, para que haja a alocação de uma unidade de extração supercrítica do flavedo, o
mesmo deve ser separado da fruta, anteriormente à extração.
A separação do flavedo pode ser realizada utilizando-se um ralador ou descascador
industrial, anteriormente à obtenção do suco. Para realização deste trabalho, considerou-se a
compra descascador LXZZJ-10 (XINXIANG, 2019), cotado em US$15000 (valor cotado em
dezembro de 2019). Tal equipamento, segundo o fabricante, tem um motor de potência de 15
kW e capaz de processar até 10 toneladas por hora de laranja.

2.5 Detalhes sobre as estimativas de custos

Usando o valor atual do CEPCI, os dados de custo puderam ser ajustados pela inflação.
O CEPCI utilizado foi de 603,1 (valor para 2018). Outros dados necessários para determinar
os custos de material e energia foram obtidos nos fluxogramas simulados no UniSim. O
material de construção de todos os equipamentos foi aço inoxidável.
Somando-se a incerteza associada aos custos, adotação de equações de estado e a
ausência de maiores detalhes sobre tubulações e acessórios, a avaliação econômica realizada é
classificada como “de estimativa”, com estimativas precisas na faixa de + 40% a –25%.
(TURTON et al., 2012). O tempo de operação foi fixado em 24 h por dia durante 320 dias por
ano (ALBUQUERQUE; MEIRELES, 2012; SANTANA et al., 2017). O custo da terra foi
considerado nulo, tendo em vista que esta proposta visa à construção de uma pequena unidade
anexa à indústria de produção de suco. As eficiências das bombas foram assumidas em 75%.
Vapor foi usado como meio de aquecimento e a etilenoglicol foi o meio de resfriamento. Foi
considerada a contratação de 3 funcionários para a fiscalização da planta (1 por turno).

2.5.1 Cálculo do custo dos equipamentos

Bombas: De acordo com Vetter (1993), os solventes usados na extração supercrítica


requerem bombeamento sob condições em que mostram uma compressão substancial do
fluido e, associado a isso, haverá mudanças de temperatura. Devido ao seu design compacto,
alta velocidade e desempenho não pulsante, para o presente trabalho, os cálculos foram
realizados para bombas centrífugas.
Para o cálculo do custo das bombas, utilizou-se os modelos ajustados por Couper, Fair e
Penney (2005), tendo em vista que os equipamentos não foram encontrados no mercado
brasileiro. Em geral, estima-se uma precisão de 20 a 25% nos custos calculados, de acordo
com Couper, Fair e Penney (2005). Os custos das bombas foram calculados pela Eq. (2):

C  FM FT CB (2)

Na qual C é custo do equipamento em 2005 e é um fator de material, que para aço


inoxidável é igual a 2. Os termos CB e FT são calculados a partir da vazão de fluido ( V ) em
galão por minuto e da altura manométrica ( H ) em pés. Para o cálculo da altura manométrica
deve-se realizar o balanço de energia no equipamento, e que após algumas simplificações
relaciona a queda de pressão no equipamento (P) com o peso específico () (SILVA, 2010;
VETTER, 1993):

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

99
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

P
H  (3)

Os modelos possíveis cotados por Couper, Fair e Penney (2005) têm uma potência
máxima permitida. A potência de uma bomba centrífuga ( ) pode ser estimada como função
de sua eficiência (η) pela Eq. (4) (SILVA, 2010):

VH
w (4)

Trocadores de Calor: Trocadores de calor são equipamentos usados exclusivamente


para transferência de energia na forma de calor entre 2 ou mais fluidos, entre um fluido e uma
substância sólida, entre partículas sólidas que se encontram em diferentes temperaturas e em
contato térmico. O modelo tubo-carcaça consegue atingir maiores pressões, sendo elas de até
300 bar do lado do tudo e temperaturas de até 600 °C, dependendo do material de construção.
Os tubos variam de 10 a 1000 m². O modelo tubo-carcaça é o mais indicado para o processo
em análise (HEWITT; PUGH, 2007).
Convencionalmente, segundo Hewitt e Pugh (2007), o custo aproximado dos trocadores
de calor pode ser obtido em termos do custo por unidade de área. Estes autores
correlacionaram de forma gráfica materiais de construção, área de troca térmica e tipo de
escoamento (contracorrente ou concorrente). Se o coeficiente global de troca térmica (U), o
calor de troca (Q) e a diferença média de temperatura ( ) são conhecidos, então a área de
troca térmica (A) pode ser calculada como:

Q
A (5)
UFTm

Na qual F é um fator de correção que depende do número de passes. Neste estudo foi
utilizado F = 1, pois não se trata de um modelo de escoamento misto. é igual à média
logarítmica da temperatura. O valor de U pode ser estimado via correlações ou mesmo
consultado em literatura técnica especializada.
Vasos Extrator: Para estimar a quantidade de material passível de ser carregada no vaso
de extração perfeitamente cilíndrico, faz-se necessário calcular/estimar/medir a densidade
aparente do flavedo seco. Considerando-se a densidade aparente como sendo de 0,5 g.cm-³
(CHEGINI; GHOBADIAN, 2007), é possível estimar-se tamanhos razoáveis para o extrator.
Para um tempo de enchimento de 30 minutos e taxa mássica de flavedo de 0,6 (Projeto 1) ou
2 t/h (Projeto 2), obtém-se o volume do extrator.
Para o cálculo da composição das correntes de extrato e rafinado adotou-se as
considerações descritas a seguir. Realizando-se a extração a 40 °C e 200 bar, considerou-se
para o scale up que a razão vazão de solvente (S) por vazão de alimentação (FAL) igual a 10
(BERNA et al., 2000) para um processo controlado pela transferência de massa externa.
Segundo as curvas cinéticas de extração consultadas, a temperatura e pressão informadas,
para S/FAL=10, é possível obter 0,08 toneladas de extrato por tonelada alimentada de flavedo
Neste projeto foi considerado que o vaso é perfeitamente cilíndrico com uma proporção
de altura/diâmetro (L/D) de 4,5 por razões econômicas (DEL VALLE, JOSÉ M.; NÚÑEZ;
ARAVENA, 2014). A partir de um valor conhecido “1” pode-se estimar o valor de um novo
equipamento “2” conforme a Eq. (6), correlacionando seus volumes (COUPER; FAIR;
PENNEY, 2005; TURTON et al., 2012).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

100
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

0, 6
 volume2 
custo2  custo1   (6)
 volume 1 

Tanque Flash: O separador líquido-vapor mais simples empregado comumente na


indústria é o destilador flash. Neste processo parte da corrente alimentada se vaporiza na
câmara do separador e parte se condensa. Vapor e líquido em equilíbrio são separados em
duas correntes, uma leve (de topo) e uma pesada (de fundo). O componente mais volátil será
concentrado na fase vapor (WANKAT, 2012).
As composições das correntes vapor e líquido e as vazões foram calculadas pelo software
UniSim. A partir delas adotou-se o procedimento indicado por Wankat (2012) para o seu
dimensionamento. Este procedimento é empírico e se baseia no cálculo da velocidade
permissível de vapor, :

 L  V
u perm  K drum (7)
V
Na Equação (7), é a máxima velocidade permissível de vapor na máxima área
transversal do tanque. e são as densidades do líquido e do vapor. é uma constante
empírica que depende do tipo de tanque. Usando a taxa de vapor conhecida, V, calcular área
da seção transversal, , a partir de pois:

V MWV 
Ac  (8)
u perm V

Assim, o diâmetro do flash (D) pode ser calculado, considerando um vaso perfeitamente
cilíndrico. Selecionar a razão altura/diâmetro (L/D). Para flashs verticais, a regra de ouro (rule
of thumb) é a de que L/D varia entre 3 e 5. Para o presente trabalho, por tratar-se de um estudo
de estimativa, adotou-se o valor de 4,5, assim como o utilizado para o extrator.

3 RESULTADOS E DISCUSSÃO

3.1 Efeito do tamanho do empreendimento sobre o custo da manufatura


Sumarizando as informações apresentadas na metodologia, a Tabela 1 apresenta as taxas
mássicas utilizadas nos Projeto 1 e 2.

Tabela 1 - Taxas mássicas de insumos e produtos nos Projetos realizados.


Item [t/h] Projeto 1 Projeto 2
Quantidade de laranja processada 3 10
Flavedo processado 0,6 2
Solvente no processo 6 20
Quantidade de extrato produzida 0,048 0,16

Dimensionamento de bombas: Utilizando-se os seguintes valores: (para


2
T=15,84°C e P=200 bar) e g = 9,789 m/s ; então: H= 1497,364 m = 4912,612 ft para ambos
os Projetos por se encontrarem nas mesmas condições de operação. É importante ressaltar que
a compressão resulta em leve aumento da temperatura na descarga. A temperatura simulada
foi aquela prevista pelo software UniSim Design.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

101
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Adotando o rendimento máximo da bomba de 85%, e usando todos os valores no


Sistema internacional de medidas, tem-se que = 29930,4161 watts = 40,14 HP, para o
Projeto 1 e = 99768,0535 watts = 133,79 HP, para o Projeto 2. Aplicando-se uma margem
de segurança de 10%, a potência da bomba recomendada é de 45 HP para o Projeto 1 e de 150
HP para o Projeto 2.
Projeto de Trocadores de Calor: O coeficiente global de troca térmica para um trocador
de calor de finas camadas de aço inox está próximo de 300 Wm-2K-1 (DRESCHER et al.,
2013). Na Tabela 2 estão representadas as temperaturas de entrada e saída dos trocadores de
calor (T representa a temperatura, os subscritos h e c indicam os fluidos quente e frio). O
custo de E100 foi negligenciado, uma vez que os custos de aquecimento e compressão do CO2
são os mais elevados para o projeto em questão (ROSA; MEIRELES, 2005).
Tabela 2 - Dados de Projeto dos trocadores de calor.
Projeto 1 Projeto 2
Variável de interesse
E101 E102 E101 E102
[°C] 15,84 -10 15,84 -10
[°C] 40 15 40 15
[°C] 90 25 90 25
[°C] 25 5 25 5
[°C] 46,99 44,60 46,99 44,60
A [m²] 25,42 6,59 84,55 21,99
C [US$/m²] – em 1994 309,44 312,56 225,04 312,56
C [US$/m²] – corrigido CEPCI]a 507,13 512,24 368,81 512,24
C[US$] – corrigido CEPCI]a 12891,24 3375,66 31182,89 11264,16
a
– CEPCI de 1994 = 368

Dimensionamento de Vasos de Extração: Berna et al. (2000) reportaram diversas curvas


cinéticas de extração a partir de casca de laranja com CO2 supercrítico utilizando um
equipamento em escala de piloto. A 200 bar e 40 °C, os dados experimentais indicam que em
~42 minutos a etada controlada pela transferência de massa externa é finalizada. Para o scale
up do processo considerou-se que o tempo de extração da escala real está próximo ao da
escala piloto. Logo, admitiu-se na simulação que em 42 minutos o processo necessitaria ser
interrompido para esvaziamento do leito fixo e subsequente reposição do material.
Logo, faz-se necessário instalar 2 ou 3 extratores para que haja a geração contínua de
produto se estes trabalharem em paralelo. A escolha de 2 ou 3 dependerá do tempo requerido
para esvaziar o tanque, limpar (se necessário) e recarregar os extratores. Para realização deste
trabalho, idealizou-se a escolha de 3 extratores para o processo. O volume do extrator foi
estimado considerando-se 30 minutos para o enchimento do vaso com flavedo.
O valor utilizado como base para a cotação do vaso extrator foi o utilizado por Prado et
al. (2012) que é de US$ 575000,00 para um extrator de 0,5 m3. Pelo o uso da Eq. 6 foi
possível calcular o valor dos extratores para ambos os Projetos. Tais valores são apresentados
na Tabela 3.
Tabela 3 - Custos unitários por extrator.
Variável Projeto 1 Projeto 2
Volume [m³ 0,6 2
C [US$] – em 2012 641470,35 1321003,10
C [US$] – em 2018a 661770,05 1362807,00
a
– CEPCI de 2012 = 584,6
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

102
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Projeto de Tanque Flash: Através dos dados retirados do software UniSim e do método
empírico descrito por Wankat (2012) obteve-se os resultados dispostos na Tabela 4.

Tabela 4 - Custos unitários por separador


Variável Projeto 1 Projeto 2
Volume [m³] 0,03 0,17
C [US$] – em 2012 102302,41 302280,01
C [US$] – em 2018 105539,83 311845,83

Custo de Manufatura – COM: Por fim, o Projeto 1 teve investimento inicial com
equipamentos cotado em US$ 2368116,88 e o Projeto 2 US$ 4703713,88. Considerado sem
custo, uma vez que é um rejeito do processo. O custo de pré-tratamento (secagem) do flavedo
foi considerado desprezível, tendo em vista a baixa umidade do material. Na sequência estão
explicitados valores que auxiliam no cálculo do custo de utilidades – CUT. Uma vez que a
bomba utiliza de eletricidade, um dos trocadores de calor utiliza vapor de aquecimento e o
outro etileno glicol (para resfriamento). Neste projeto, considerou-se que o flash utiliza
etileno glicol também para seu resfriamento. Na Tabela 5 encontram-se os valores base para o
cálculo. Quanto ao cálculo do tratamento de efluentes, o mesmo foi considerado sem custo,
uma vez que o material é orgânico pode ser compostado e não é resíduo perigoso. A água de
limpeza dos extratores foi considerada desprezível.

Tabela 5 - Resultados obtidos referentes ao CUT, CRM e COM


Custos [US$/ANO] Projeto 1 Projeto 2
Eletricidade 15966,72 53089,34
Vapor 44578,51 148595,04
Resfriamento 128764,42 428610,68
CUT 189309,65 630295,06
CRM = CO2 10488912 34893080

Para o Projeto 1, totalizou-se US$ 14148819,34 por ano e US$ 45194162,21 por ano.
Isto totaliza, por tonelada de extrato produzida, valores de US$ 37,21 e 35,66. Logo, um
aumento de escala do Projeto, passando do processamento de 3 para 10 toneladas de laranja
(vide Tabela 1), diminui o custo de manufatura.
Avaliar o preço de comercialização do produto em questão não é uma tarefa fácil uma
vez que este depende do uso e das flutuações intrínsecas do mercado. Considerando-se o uso
em aromaterapia, foram consultados valores relativos a óleos obtidos via extração à frio. Estes
valores estão dispostos na Tabela 6. Estes valores indicam um preço médio de mercado de
US$ 24 por kg.
A margem bruta (MB) é um indicador econômico que mede a rentabilidade de um
negócio, ou seja, qual a porcentagem de lucro que se ganha com cada venda (TURTON et al.,
2012). Então,
(9)
Assim, a MB para Projeto 1 e 2 seria muito atrativa, tendo em vista que o preço de
venda é muito maior que o preço de produção.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

103
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 6 - Preço de mercado do óleo essencial de laranja.


Fabricante Preço [US$/kg]
1
Jedwards International, Inc. 17
Xi'an Sonwu Biotech Co., Ltd.2 35
3
Jian Hairui Natural Plant Co., Ltd. 19
Borg Export4 25
MÉDIA 24

4 CONCLUSÕES

Uma avaliação econômica do processo de extração do óleo essencial da casca de laranja a


partir do processo de extração supercrítica com CO2 foi realizada neste trabalho. A extração à
200 bar e 40 ºC foi simulada utilizando-se o software UniSim Design para estimar o custo de
manufatura (COM) para duas escalas de produção (3 e 10 toneladas de laranjas processadas).
Para estimar o COM, considerou-se os rendimentos experimentais obtidos em escala de piloto
que foram consultados na literatura. O COM foi estimado em US$ 35,66 e 37,21 por 1000 kg
de óleo essencial, respectivamente. Estes valores são superiores ao preço de venda do produto
que foi consultado como sendo de US$ 24 por kg. Logo, por uma análise preliminar, o
processo é altamente viável economicamente e a escala de produção depende da demanda
pelo produto.

REFERÊNCIAS
ALBUQUERQUE, Carolina L.C.; MEIRELES, M. Angela A. Defatting of annatto seeds using supercritical
carbon dioxide as a pretreatment for the production of bixin: Experimental, modeling and economic
evaluation of the process. Journal of Supercritical Fluids, v. 66, p. 86–94, 2012.
BERNA, A. et al. Supercritical CO2 extraction of essential oil from orange peel; effect of the height of the bed.
Journal of Supercritical Fluids, v. 18, n. 3, p. 227–237, 2000.
CARVALHO, Raul N. et al. Supercritical fluid extraction from rosemary (Rosmarinus officinalis): Kinetic data,
extract’s global yield, composition, and antioxidant activity. Journal of Supercritical Fluids, v. 35, n. 3, p.
197–204, 2005.
CHEGINI, G R; GHOBADIAN, B. Spray Dryer Parameters for Fruit Juice Drying. World Journal of
Agricultural Sciences, v. 3, n. 2, p. 230–236, 2007.
COUPER, James R.; FAIR, James R.; PENNEY, W. Roy (Org.). Costs of Individual Equipment. Chemical
Process Equipment. 2th. ed. [S.l.]: Elsevier, 2005. p. 719–728.
DEL VALLE, José M.; NÚÑEZ, Gonzalo A.; ARAVENA, Raúl I. Supercritical CO2 oilseed extraction in multi-
vessel plants. 1. Minimization of operational cost. Journal of Supercritical Fluids, v. 92, p. 197–207, 2014.
DEL VALLE, José Manuel; CALDERÓN, Diego; NÚÑEZ, Gonzalo A. Pressure drop may negatively impact
supercritical CO2 extraction of citrus peel essential oils in an industrial-size extraction vessel. Journal of
Supercritical Fluids, v. 144, n. October 2018, p. 108–121, 2019. Disponível em:
<https://doi.org/10.1016/j.supflu.2018.09.005>.
HEWITT, Geoff F.; PUGH, Simon J. Approximate design and costing methods for heat exchangers. Heat
Transfer Engineering, v. 28, n. 2, p. 76–86, 2007.
Histórico das Taxas Cambiais. Disponível em: <https://fxtop.com/pt/historico-das-taxas-de-
cambio.php?A=200&C1=GBP&C2=USD&DD1=31&MM1=12&YYYY1=1994&B=1&P=&I=1&DD2=04&M
M2=03&YYYY2=2020&btnOK=Pesquisar>.
KING, M. B.; BOTT, T. R. (Org.). Extraction of Natural Products Using Near-Critical Solvents. Dordrecht:
Springer Netherlands, 1993.

1
https://bulknaturaloils.com/1-gallon-orange-oil-cold-pressed-128-fl-oz.html
2
https://m.alibaba.com/amp/product/60738929112.html
3
https://m.alibaba.com/amp/product/60852560805.html
4
https://www.alibaba.com/product-detail/Citrus-sinensis-Orange-Oil-Orange-
Essential_50012263753.html?spm=a2700.7724857.normalList.43.6f30504dVeT1NG
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

104
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

KNEZ et al. Industrial applications of supercritical fluids: A review. Energy, v. 77, p. 235–243, 2014.
KNEZ, Željko et al. Are supercritical fluids solvents for the future? Chemical Engineering and Processing -
Process Intensification, v. 141, n. December 2018, 2019.
MOSS, Dennis; BASIC, Michael. Pressure Vessel Design Manual (Fourth Edition). [S.l: s.n.], 2012.
OKINO DELGADO, Clarissa Hamaio; FLEURI, Luciana Francisco. Orange and mango by-products: Agro-
industrial waste as source of bioactive compounds and botanical versus commercial description—A review.
Food Reviews International, v. 32, n. 1, p. 1–14, 2016. Disponível em:
<http://dx.doi.org/10.1080/87559129.2015.1041183>.
OZTURK, Baranse; WINTERBURN, James; GONZALEZ-MIQUEL, Maria. Orange peel waste valorisation
through limonene extraction using bio-based solvents. Biochemical Engineering Journal, v. 151, n. July, p.
107298, 2019. Disponível em: <https://doi.org/10.1016/j.bej.2019.107298>.
PENG, Ding-Yu; ROBINSON, Donald B. A New Two-Constant Equation of State. Industrial & Engineering
Chemistry Fundamentals, v. 15, n. 1, p. 59–64, 1976.
PEREIRA, ISABELLA BORDINHÃO TORRES et al. Indústria de suco de laranja integral. 2018. 165 f.
Universidade Tecnológica Federal do Paraná, 2018.
PRADO, Juliana M. et al. Supercritical fluid extraction of grape seed: Process scale-up, extract chemical
composition and economic evaluation. Journal of Food Engineering, v. 109, n. 2, p. 249–257, 2012.
Disponível em: <http://dx.doi.org/10.1016/j.jfoodeng.2011.10.007>.
SANCHO, Soraya De Oliveira et al. Characterization of the Industrial Residues of Seven Fruits and. v. 2015,
2015.
SANTANA, Ádina L. et al. Kinetic behavior , mathematical modeling , and economic evaluation of extracts
obtained by supercritical fluid extraction from defatted assaí waste. Food and Bioproducts Processing,
2017.
SILVA, Rosineide Gomes Da. Transporte de fluidos. 1st. ed. São Carlos: EdUFSCar, 2010.
TURTON, Richard et al. Analysis, Synthesis, and Design of Chemical Processes. 4th ed ed. Ann Arbor
(Michigan-USA): Pearson Education, 2012.
VETTER, G. Pumps and compressors for supercritical extraction: design, characteristics and installation. In:
KING, M. B.; BOTT, T. R. (Org.). . Extraction of Natural Products Using Near-Critical Solvents.
Dordrecht: Springer Netherlands, 1993. p. 261–298.
WANKAT, Phillip C. Separation Process Engineering: Includes Mass Transfer Analysis. 3th. ed. [S.l.]: Prentice
Hall International Inc., 2012.
WOOLEY, R.J.; PUTSCHE, V. Development of an ASPEN PLUS physical property database for biofuels
components. . Golden, CO: [s.n.], abr. 1996.
YOUSEFI, Mohammad et al. Supercritical fluid extraction of essential oils. TrAC - Trends in Analytical
Chemistry, v. 118, p. 182–193, 2019.

MANUFACTORING COST OF SUPERCRITICAL CARBON


DIOXIDE EXTRACTION OF ORANGE PEEL OIL.
Abstract. The extraction of essential oils by CO2 as a supercritical fluid is a green technology,
which has attracted the attention of the worldwide industry. Brazil is one of the largest
producers of orange juice. The residue from the production of juice includes the skin of the
fruit that contain a substantial amount of oils. The presente work aims to carry out an
economic evaluation of the extraction process with supercritical CO2 of the orange essential
oil. Through pilot scale extraction kinetic curves consulted in the literature, the scale-up
parameters of the process were calculated. The process manufacturing cost was calculated
for two processing plants of 10 and 3 tons of orange. To evaluate the cost of utilities (heating
steam and cooling fluid), simulations were performed with the UniSim Design Software. The
results showed that the larger the size of the enterprise, the lower the manufacturing cost.
However, a larger initial investment will be required to purchase the plant’s equipment.
Processing 10 or 3 tons of oranges proves to be viable from the point of view of the gross
margin, and the entrepreneur can profit up to US$ 37,21 per ton of oil produced.

Keywords: Limonene, extraction, supercritical fluid, residue, orange.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

105
ANÁLISE DE VIBRAÇÕES E DETECÇÃO DE FALHA DE DESBALANCEAMENTO
NO SISTEMA ROTOR EM UM MOTOR DE INDUÇÃO TRIFÁSICO POR MEIO DE
REDES NEURAIS ARTIFICIAIS

Autor- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Autor- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brasil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brasil.

Resumo. As vibrações mecânicas consistem em oscilações de um corpo acerca de sua


posição de equilíbrio, sendo o desbalanceamento de sistemas dinâmicos o fenômeno onde o
centro de massa do objeto não coincide com seu centro de rotação, gerando vibrações
radiais e axiais que ocasionam instabilidades no sistema e esforços com potencial de danos
permanentes. No processo de monitoramento e análise de vibrações é necessário o uso de
sensores e micro controladores que captam determinadas grandezas físicas associadas às
vibrações mecânicas e as convertem em informações quantitativas que podem ser analisadas
externamente. A aplicação da Inteligência Computacional viabiliza que um sistema
eletrônico ou computador digital acompanhe as condições nas quais a máquina está sendo
exposta durante sua utilização e, através dos dados disponíveis, apresente resultados para
controle ou correção de processos. Este trabalho teve como objetivo realizar a análise
vibracional e detecção de desbalanceamento em um sistema rotor por meio da aplicação de
duas arquiteturas neurais artificiais, com análise dos sinais coletados em um modelo
experimental, visando o treinamento do sistema de detecção. Após coletados, os dados
passaram por um tratamento computacional e constituíram a base de programação das redes
neurais artificiais, objetivando a identificação das falhas de desbalanceamento no
componente.

Palavras-chave: Feedforward. Neurodinâmica. Rede Neural Artificial. Rotores. Vibrações.

1. INTRODUÇÃO

A aplicação da inteligência computacional para análise de falhas de vibrações em


sistemas dinâmicos se dedica à aplicação de ferramentas e algoritmos para resolução de
situações envolvidas nas etapas de processamento, análise dos dados e tomada de decisões,
quanto ao estado do modelo estudado. Os sistemas inteligentes computacionais dinamizam as
metodologias de seleção dos valores primordiais para o reconhecimento dos padrões e
obtenção dos sinais que oferecerão as informações centrais a serem aplicadas na distinção de
estados, conferem celeridade ao processo de determinação da real situação do equipamento,
com o uso de ferramentas adaptativas que se encaixam no contexto de funcionamento da
máquina, além de disporem de um nível de erro final baixo, se comparado aos modelos
convencionais, nos processos envolvidos em análises, classificações e tomadas de decisões.

1.1 Vibrações Mecânicas

Um fenômeno vibracional trata-se do modelo físico embasado na transformação da


energia potencial em energia cinética e da energia cinética em potencial, apresentando meios
de armazenamento de energia potencial (k), de conservação da energia cinética (m) e um meio
de dissipação gradual da energia total do sistema (c).
Conforme afirma Rao (2012), o desbalanceamento de massas em um sistema mecânico
consiste na não distribuição uniforme das massas deste através da sua seção, com seu eixo de

106
rotação não sendo coincidente ao seu centro de massa, ou de força. Na literatura são citadas
três categorias básicas de desbalanceamento em sistemas de trem alternativo, sendo estas o
desbalanceamento estático, o desbalanceamento parelho (ou por par de forças) e o
desbalanceamento dinâmico. No desbalanceamento estático ocorre o deslocamento do centro
de massa do corpo paralelamente à linha de centro do eixo, com concentração de esforços
sobre os apoios (mancais), gerando uma força centrífuga na frequência (1x RPM), com forte
pico no espectro de vibrações. O desbalanceamento parelho existe quando o centro de massa
intercepta a linha de centro do eixo até seu centro de gravidade, com o equipamento
aparentando estar balanceado estaticamente, mas produzindo forças centrífugas nos mancais
de rolamento, em fase oposta, gerando elevado nível de vibrações axiais e radiais. O
desbalanceamento dinâmico é a combinação dos dois tipos de desbalanceamento
anteriormente descritos, com o centro de massa não sendo paralelo nem interseccionado pelo
eixo de rotação. A correção do desbalanceamento requer um trabalho de correção, em um
plano ou mais, a depender do tipo, geralmente com aplicação de pesos corretivos ou remoção
de massas do corpo desbalanceado. Os sinais são processados visando à captação das fases,
deslocamento e velocidade do sistema, auxiliando na identificação e correção de falhas.
Se a posição angular das massas é medida em relação ao seu eixo horizontal, a
componente vertical total da excitação de desbalanceamento, ou F(t), será obtida a partir da
Eq. (1) para formulação do movimento geral de um modelo de massas desbalanceadas.

(1)

1.2 Redes Neurais Artificiais

As Redes Neurais Artificiais, de acordo com Haykin (1999), representam um sistema


dinâmico altamente paralelizado com um gráfico direcionado à sua topologia que pode
receber a informação de saída por meio de uma reação de seu estado em ações de entrada. Os
seus elementos de processamento e os canais direcionados são chamados, respectivamente, de
neurônios artificiais e nós da rede (ou conexões sinápticas). A Fig. 1 representa a estrutura
básica de uma Rede Neural Artificial multicamadas com retropropagação do erro.

Figura 1 - Rede Neural Artificial MLP (Multilayer Perceptron).

A aprendizagem de sistemas neurais, segundo Jang et al. (1997), é um processo pelo qual
os parâmetros livres de uma rede são adaptados através de um processo de estímulos pelo
ambiente no qual a mesma está inserida. O tipo de aprendizagem é determinado pela maneira
sobre a qual a modificação de parâmetros ocorre, onde a rede neural programada é estimulada
por um ambiente, sofre modificações nos seus parâmetros livres como resultado desta
situação e responde de uma maneira nova ao ambiente, devido às modificações ocorridas na
sua arquitetura interna. Os algoritmos de aprendizagem são compreendidos como um
conjunto pré-estabelecido de regras definidas para a solução de um problema de
aprendizagem da rede neural, sendo que estes algoritmos basicamente se diferem de acordo
com a formulação nos ajustes dos pesos sinápticos (wji) de um neurônio, com relação à sua
função de ativação (φ), que pode ser linear ou não, e seu campo local induzido (vj). Assim, o

107
sinal de entrada (yi) é convertido em um novo sinal na saída (yj), numa rede neural Perceptron
multicamadas, por exemplo, de acordo com as relações da Eq. (2), da Eq. (3) e da Eq. (4).

(2)

(3)

(4)

Uma rede feedforward de múltiplas camadas apresenta uma ou mais camadas ocultas de
processamento, cujos nós computacionais são conhecidos como unidades ocultas, ou
neurônios ocultos. Nesta arquitetura a rede neural apresenta uma perspectiva global do
problema, com sua configuração conectiva local conferindo aos neurônios capacidade de
extração de informações estatísticas de ordem elevada. Os nós da fonte fornecem os vetores
de entrada, e os sinais de saída de uma camada são utilizados como entrada da camada
subsequente. O conjunto de sinais fornecidos pela camada de saída da rede constitui sua
resposta global ao padrão de ativação fornecido pelos nós de fonte da camada de entrada.
De acordo com Feldkamp e Puskorius (1998), a programação neurodinâmica permite que
um sistema aprenda tomar decisões a partir do retorno do seu próprio comportamento, com
melhora em suas ações através de um dispositivo de reforço em um mecanismo incorporado.
A arquitetura neurodinâmica mostrada na Fig. 2, utilizada na aproximação e predição de
padrões temporais e respostas em sistemas dinâmicos, é chamada na literatura de NARX
(Nonlinear AutoRegressive models with eXogenous input), sendo características de uma rede
NARX sua efetividade, capacidade de generalização e velocidade de aprendizagem. Nesta
estrutura neural são inseridas entradas em séries temporais, vetores de pesos sinápticos,
entradas exógenas, camadas ocultas e saídas desejadas, onde o modelo utiliza as series
temporais das entradas na geração do retorno dinâmico dos neurônios e aumento da taxa de
aprendizado dos elementos de processamento, tornando-se uma poderosa ferramenta para
modelagem não linear, frequentemente utilizada na Engenharia de Controle.

Figura 2 - Rede Neural Artificial Neurodinâmica NARX.

2. MATERIAIS E MÉTODOS

Os sinais utilizados no treinamento, validação e testagem das Redes Neurais Artificiais se


originaram a partir das variáveis físicas vibracionais captadas em um modelo físico
experimental específico para as análises de vibração e detecção das falhas descritas neste
trabalho. Esta fase contou com o auxílio estrutural fornecido pelo CEPEAGE (Centro de

108
Prática de Engenharia, Arquitetura e Gestão), unidade educacional pertencente à instituição de
ensino superior Centro Universitário FipMoc). O sistema de instrumentação proposto foi
implementado em uma bancada de análises de vibrações, mostrada na Fig. 3, já instalada no
CEPEAGE, desenvolvida previamente por acadêmicos da instituição.

2.1 Coleta dos sinais de vibração e treinamento das redes neurais

A obtenção dos dados de vibração se fundamentou na coleta e processamento dos sinais


de aceleração, velocidade angular e frequência de rotação do sistema rotor, em situações
distintas de balanceamento, com a aplicação de um sistema de instrumentação construído
pelos autores, formado por um Sensor Acelerômetro Triaxial (microelectromechanical
system), um Microcontrolador, modelo Arduino Uno-R3, um dispositivo de condicionamento
de sinais, fornecido pela estrutura do CEPEAGE, e um sensor indutivo de captação metálica,
voltado à coleta dos dados da frequência rotativa e velocidade angular do equipamento. Para
validação dos sinais obtidos com o sensor proposto pelos autores, foram feitas análises com
um equipamento de controle e detecção de falhas, pertencente à estrutura das FipMoc, modelo
Teknikao-NK820. Este conjunto consiste em um sensor acelerômetro piezelétrico e um sensor
indutivo, além do software SDAV, que permite a visualização gráfica dos resultados.

Figura 3 – Sistema de instrumentação proposto pelos autores e bancada de testes.

Foram realizados três procedimentos de simulação dinâmica no rotor instalado sobre o


eixo de rotação do motor trifásico, visando à obtenção dos sinais de vibrações para
treinamento das Redes Neurais Artificiais. O primeiro caso envolveu uma simulação de
balanceamento teórico do rotor, sem adição de nenhuma massa de desbalanceamento ao
mesmo, onde ambos os sistemas de instrumentação indicaram o balanceamento do
equipamento. No segundo caso foi simulado o desbalanceamento no rotor, pela adição de uma
massa total de 18,24 gramas, dividida em duas massas distintas com 11,16 gramas e 7,08
gramas, instaladas em pontos defasados do rotor em 180º, distantes 1,5 cm do ponto de raio
zero do rotor, sendo reconhecido o desbalanceamento pelo sensor de validação e resultado
inconclusivo para o sistema proposto pelos autores. Já no terceiro caso foi simulado o
desbalanceamento do equipamento, com adição de uma massa total de 23,36 gramas, dividida
em duas massas distintas de 11,16 gramas e de 12,20 gramas, situadas em pontos com 180° de
defasagem, cada uma distante 2,25 cm do ponto de raio zero do corpo dinâmico analisado,
onde ambos os modelos de instrumentação indicaram o desbalanceamento do rotor.
Após a aquisição dos sinais de vibração, os mesmos foram processados, por meio da
filtragem analógica de passa-baixa, digitalização, filtragem digital de passa-faixa e
janelamento, no software MATLAB r2011-b, para formarem as bases de treinamento e
validação na programação da Rede Neural Dinâmica e da Rede Multicamadas feedforward.

109
Os sinais representados no domínio do tempo apresentam sua amplitude em função de
intervalos temporais. Porém, certas situações requerem que sua representação seja feita em
função do domínio das frequências, através da obtenção do espectro dos sinais. Um dos
algoritmos aplicáveis para a transposição de um sinal do domínio do tempo ao domínio da
frequência é a Transformada Rápida de Fourier (ou FFT), efetuando a correlação estabilizada
entre o sinal no domínio do tempo e sua representação no domínio da frequência. Os sinais
obtidos pelo modelo de instrumentação formulado, após processamento, estão na Fig. 4. Os
sinais da Fig. 5 tratam-se dos dados obtidos a partir de cada componente de sinais por
frequência de operação. Os mesmos foram analisados pela rede neurodinâmica e aplicados no
treinamento do classificador gerado a partir da rede Multilayer Perceptron feedforward.

Figura 4 – Sinais temporais de vibração obtidos pelo sistema de instrumentação proposto.

Figura 5 – Assinaturas espectrais dos casos simulados de desbalanceamento.

2.2 Programação das redes neurais artificiais

A modelagem dos programas de análise e classificação desenvolvidos (rede


neurodinâmica NARX e rede Multilayer feedforward) envolveu a disposição dos padrões de
entrada, de acordo com duas classes rotuladas como Teoricamente Balanceado e
Desbalanceado (com adição da massa total de 23,36 gramas), para que cada arquitetura
verificasse as tendências dos conjuntos de sinais, diferenciando os casos, sendo que um
terceiro conjunto de sinais, sem rótulos, foi utilizado em ambas as redes, após seu treinamento
e validação. Foram inseridas, durante a implementação total dos modelos, quatro bases de
dados rotuladas, com 1940 padrões de entrada cada, representando os casos de balanceamento
teórico e desbalanceamento, além das respectivas assinaturas espectrais. Duas bases de dados
não rotuladas, com 970 padrões de entrada cada, foram utilizadas na testagem dos sistemas,
após sua modelagem. A divisão dos dados, durante o treinamento das redes neurais, seguiu o

110
padrão de 70% dos dados separados para o treinamento, 15% separados para validação e 15%
dos dados separados para testagens. Como avaliação do desempenho e capacidades de
aproximação e generalização das redes foram utilizados os métodos do Erro Médio
Quadrático, do Gradiente Descendente, a análise de Regressão (Teste R) e do Histograma de
Erros. Os sinais de vibração em dois eixos de análise (x e y) e a velocidade angular do sistema
rotativo formaram os dados de treinamento e validação do classificador que, de acordo com
os padrões, formulou sua resposta binária ao desbalanceamento no equipamento, onde a
matriz [1 0 1] é sua resposta ao sistema balanceado e [0 1 0] ao desbalanceamento, sendo
calculada a acurácia na classificação do sistema de detecção de falhas, nos dados rotulados.

3. RESULTADOS E DISCUSSÃO

A Rede NARX (01) efetuou o diagnóstico temporal dos padrões do sistema, com uso dos
valores de alvo e verificação das entradas, para execução das análises de vibrações e geração
das respostas neurais aos estímulos. A arquitetura resultante da rede (01) é apresentada na Fig.
6. A correlação entre a saída da rede (01) e os padrões desejados, de acordo com o Teste de
Regressão (ou Teste R), durante seu treinamento, validação e testagem, foi de 0,998 para o
sinal Teoricamente Balanceado e 0,990 para o sinal Desbalanceado. Este resultado indica uma
relação próxima entre as respostas da rede e os alvos, sendo que valores baixos obtidos neste
teste indicam respostas aleatórias da rede. Considerando os sinais de teste, a rede (01)
apresentou valor de 0,997 para o sinal balanceado e 0,966 para o sinal desbalanceado, de
acordo com o Teste R. O Erro Médio Quadrático da rede (01) foi 0,00003815 na resposta aos
estímulos do sinal balanceado e 0,00077928 aos estímulos de desbalanceamento.

Figura 6 – Arquitetura neurodinâmica implementada no processo de análise temporal.

A Fig. 7 apresenta a resposta do sistema neurodinânico aos estímulos dos sinais de teste,
não rotulados quanto ao seu balanceamento, com a representação temporal ilustrada. A Fig. 8
ilustra os resultados da avaliação das respostas fornecidas pela rede aos estímulos de teste.

Figura 7 – Resposta da Rede (01) aos estímulos do sinal de teste.

111
Figura 8 – Resultados das respostas da Rede (01) aos sinais de teste não rotulados.

A Rede MLP feedforward (02) efetuou sua metodologia de classificação e detecção, com
a execução analítica dos sinais, após o seu treinamento e validação. Seu nível de reposta aos
estímulos gerados pelos sinais, de acordo com o Teste de Regressão, durante o treinamento,
validação e testagem, foi de 0,949 para o sinal Teoricamente Balanceado e 0,962 para o sinal
Desbalanceado. Considerando os sinais de teste rotulados, a rede (02) apresentou um valor de
0,952 para o sinal balanceado e 0,885 para o sinal desbalanceado, de acordo com o Teste R,
ocorrendo nesta arquitetura uma resposta correlativa ligeiramente inferior à rede 01, situação
prevista, por esta arquitetura não haver sido implementada visando exclusivamente o
comportamento de um sistema de modelagem dinâmica temporal. O Erro Médio Quadrático
da rede (02) foi de 0,0021017 na resposta aos estímulos do sinal balanceado e de 0,0010587
para o sinal desbalanceado. A arquitetura resultante da rede (02) é detalhada na Fig. 9.

Figura 9 – Arquitetura da rede feedforward (02).

Nesta arquitetura foi calculada a acurácia do classificador, considerando as respostas


preditas pela rede, a partir dos vetores de treinamento e validação, e os resultados rotulados,
sendo que a rede (02) apresentou acurácia geral de 96,55% na classificação dos sinais de
treinamento e validação balanceados, de 92,25% em sua acurácia geral no treinamento e
validação com os sinais desbalanceados e uma acurácia de 90,50% na classificação em testes
efetuados com dados rotulados, mas que não foram inseridos em nenhuma das etapas prévias
de treinos. A Fig. 10 apresenta o histograma de erros das respostas geradas aos estímulos na
rede (02), constituído com base nos sinais de treinamento, teste e validação rotulados.

112
Figura 10 – Histograma de Erros das respostas da Rede (02) aos estímulos dos sinais.

A Tabela 1 dispõe os resultados principais obtidos a partir das respostas fornecidas pela
rede neurodinânica (01) e pela rede feedforward (02), aplicadas na classificação e predição de
estado do equipamento, durante a modelagem de ambas, nas fases de treinamento e testes.

Tabela 1 – Resultados das redes neurais modeladas.

4. CONCLUSÃO

A aplicação de ambas as arquiteturas neurais e a junção destas aos recursos de estimação


de padrões dinâmicos não lineares objetiva níveis de aproximação aos dados de treinamento,
com respostas minimamente discrepantes dos sinais reais captados pelos sensores e
fornecidos pelos sistemas de validação. Este estudo objetivou modelar um sistema de análise
e detecção de falhas vibracionais para verificação de desbalanceamento em rotores instalados
sobre eixos de motores trifásicos, com o fornecimento a resposta temporal dos sinais de

113
comportamento dinâmico gerados pelo equipamento físico. Com base nos dados inseridos no
treinamento, foi programada uma metodologia de verificação para entradas não rotuladas e
testes, com relação aos mesmos, visando à execução da análise do sistema monitorado e o
desenvolvimento da metodologia inicial proposta de análise e detecção, com a verificação dos
valores de testagem e mapeamento dos sinais e comportamento do sistema, sendo avaliados
os níveis de acurácia nas fases de implementação da rede multicamadas de classificação.
Ambas as arquiteturas neurais geradas apresentaram níveis satisfatórios de aproximação
aos padrões de treinamento e sinais, com respostas próximas aos valores reais captados pelos
sensores de vibração utilizados. De acordo com os resultados obtidos, pode-se concluir que os
modelos aqui propostos conseguiram efetuar uma análise de vibrações confiável e também
confiável detecção de desbalanceamento em rotores de motores de indução trifásicos. A Rede
Neurodinâmica (01) forneceu sua resposta temporal ao comportamento do sistema físico, se
valendo dos dados inseridos nos valores de alvo, desenvolvendo a verificação das entradas
não rotuladas e dos testes, com relação aos mesmos, para execução da sua análise. Os níveis
de aproximação da mesma foram considerados satisfatórios, com base nos resultados das
análises apresentadas para sua avaliação, descritas nas seções de metodologia e resultados. A
Rede MLP feedforward (02), assim como a primeira, desenvolveu sua metodologia proposta
de análise e detecção, com a verificação dos valores de testagem, após seu treinamento e
validação. Além de a mesma efetuar, com aproximação, sua resposta aos estímulos dos sinais
de entrada e comportamento do sistema, também apresentou elevada acurácia do
classificador, em todas as fases de sua implementação, comprovando sua capacidade de
generalização e a confiabilidade dos resultados por ela fornecidos para casos não rotulados.
Finalizando este trabalho, suas principais contribuições podem ser relacionadas à
fundamentação conceitual por ele proposta para modelagem de sistemas de inteligência
computacional e sua implementação estruturada em um problema de análise de vibrações,
visando aliar capacidades de processamento, classificação e aprendizagem, vindas da
programação neural, junto às funções de estimação temporal de estados para sistemas
dinâmicos não lineares, da programação neurodinâmica, representando ganhos nos processos
de treinamento e aprendizagem em modelos computacionais de modelagem.

Agradecimentos

Os autores agradecem ao Centro Universitário FipMoc pela estrutura fornecida e pessoal


disponibilizado nas etapas de levantamento dos dados e simulações dinâmicas para análises.

5. REFERÊNCIAS

ANSI. “Balance Quality of Rotating Rigid Bodies”. Specifications ANSI- 52.19.


Bentley- Nevada Corporation. “Catálogo de especificações para Analisadores de Vibrações e dispositivos de
Balanceamento de Máquinas”. Minden, Nevada. USA, 1991.
Bruel & Kjaer. "Espectros de Sinais, Filtros e Analisadores". Naerum, Dinamarca, 1988.
Feldkamp, L. A., Puskorius, G. V. ‘‘A signal processing framework based on dynamic neural networks with
application to problems in adaptation, filtering and classification.’’ IEEE, v.86, 2259–2277 (1998).
Haykin, Simon S. “Neural networks: a comprehensive foundation . 2nd ed.” New Jersey, EUA: Prentice Hall,
1999. 842 p.
Helfrick, Albert D., Cooper, William D. "Instrumentação Eletrônica Moderna e Técnicas de Medição".
Prentice- Hall do Brasil. São Paulo, 2011.
Jang, J. S. R. et al. Neuro-Fuzzy and Soft Computing: a computational approach to learning and machine
intelligence. Upper Saddle River: Prentice-Hall, Inc., 1997.
Papoulis, A. “Signal Analysis”. McGraw-Hill, New York, 1997.
Rao, Singiresu S. “Vibrações mecânicas. Quinta edição”. PEARSON Educacional. São Paulo, 2012.

114
VIBRATION ANALYSIS AND DETECTION OF UNBALANCING FAILURE IN THE
ROTOR SYSTEM IN A THREE-PHASE INDUCTION MOTOR THROUGH
ARTIFICIAL NEURAL NETWORKS

Author- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Author- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brazil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brazil.

Abstract: Mechanical vibrations consist of oscillations of a body about an equilibrium


position, with the imbalance of dynamic systems being a phenomenon where the center of
mass of the object does not coincide with its center of rotation, generating radial and axial
vibrations that can cause instabilities in the system and efforts with the potential for
permanent damage. In the process of monitoring and analyzing vibrations, it is necessary to
use sensors and microcontrollers, which capture physical quantities associated with the
analyzed vibrations and convert them into quantitative information that can be analyzed
externally. The application of Computational Intelligence makes it possible for an electronic
system or digital computer to follow the conditions in which the machine is being exposed
during its use and, through the available data, present results for process control or
correction. This work aimed to perform vibrational analysis and detection of unbalance in a
rotor system through the application of two artificial neural architectures, with analysis of
signals collected in an experimental model, aiming at training the detection system. After
being collected, the data underwent a computational treatment and formed the basis for the
programming of artificial neural networks, with the identification of unbalance failures in the
equipment.

Keywords: Artificial Neural Network. Feedforward. Neurodynamics. Rotor. Vibration.

115
APLICAÇÃO DE ARQUITETURA NEURODINÂMICA E NEUROFUZZY NA
ANÁLISE DE SINAIS DE VIBRAÇÕES E DETECÇÃO DE FALHA DE
DESBALANCEAMENTO EM UM ROTOR SEMIRRÍGIDO

Autor- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Autor- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brasil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brasil.

Resumo. As vibrações consistem em oscilações mecânicas de um corpo acerca de sua


posição de equilíbrio, sendo o desbalanceamento o fenômeno onde o centro da massa de um
objeto não coincide com seu centro de rotação, gerando vibrações radiais e axiais que
ocasionam instabilidades e esforços com potencial de danos. O objetivo deste trabalho foi
implementar um sistema para análise de sinais vibratórios e detecção de desbalanceamento
em um rotor semirrígido com aplicação de arquiteturas Neurodinâmica e NeuroFuzzy,
através do mapeamento dos sinais coletados em um equipamento experimental. Foram
realizados três procedimentos distintos de simulação dinâmica em um rotor semirrígido
montado sobre o eixo de um motor trifásico, visando à obtenção dos sinais vibracionais para
treinamento das arquiteturas. Estes sinais extraídos passaram por tratamentos
computacionais de filtragem e janelamento, constituindo a base de dados processada para
treinamento das redes voltadas à identificação das falhas de desbalanceamento. A
implementação das arquiteturas Neurodinâmica e NeuroFuzzy feedforward envolveu a
disposição das entradas, de acordo com classes de balanceamento previamente rotuladas,
para que os modelos verificassem o comportamento dos sinais, diferenciando casos distintos.
Um conjunto de sinais não rotulados foi utilizado na execução do teste comparativo das
redes, após seu treinamento e validação.

Palavras-chave: Desbalanceamento. Neurodinâmica. NeuroFuzzy. Rotores. Vibrações.

1. INTRODUÇÃO

O uso da inteligência computacional na análise de falhas vibracionais em sistemas


dinâmicos envolve a aplicação de ferramentas e algoritmos para resolução de situações
envolvidas nas etapas de processamento e análise dos sinais e da tomada de decisões, quanto
ao estado do modelo estudado. Os sistemas computacionais dinamizam as metodologias de
seleção dos valores primordiais para o reconhecimento dos padrões e obtenção dos sinais que
oferecerão as informações centrais a serem aplicadas na distinção de estados, conferem
celeridade ao processo de determinação da real situação do equipamento, com o uso de
ferramentas adaptativas que se encaixam no contexto de funcionamento da máquina, além de
disporem de um nível de erro final baixo, otimizando os modelos convencionais, nos
processos envolvidos em análises, classificações e tomadas de decisões.

1.1 Dispositivos rotores semirrígidos

Genta (2005) define um dispositivo rotor como um corpo dinâmico instalado em um


apoio cilíndrico (eixo) e sobre mancais de rolamento que o permitem executar o movimento
rotatório em torno de um eixo fixado no espaço. A classe dos rotores semirrígidos apresenta o
modelo de análise dinâmica que permite o balanceamento em baixas velocidades
operacionais, configurando, assim, relativa independência entre a correção do
desbalanceamento e a velocidade angular máxima do equipamento, nesta classe.

116
1.2 Vibrações Mecânicas

Um fenômeno vibracional trata-se do modelo físico embasado no conceito dinâmico


transformação da energia potencial em energia cinética e da energia cinética em potencial,
apresentando meios de armazenamento de energia potencial (k), de conservação da energia
cinética (m) e um meio de dissipação gradual da energia total do sistema (c).
Conforme afirma Rao (2012), o desbalanceamento de massas em um sistema mecânico
consiste na não distribuição uniforme das massas deste através da sua seção, com seu eixo de
rotação não sendo coincidente ao seu centro de massa, ou de força. Existem três categorias
básicas de desbalanceamento em sistemas de trem alternativo, sendo estas o
desbalanceamento estático, o desbalanceamento parelho (ou por par de forças) e o
desbalanceamento dinâmico. No desbalanceamento estático ocorre o deslocamento do centro
de massa do corpo paralelamente à linha de centro do eixo, com concentração de esforços
sobre os apoios (mancais), gerando uma força centrífuga na frequência (1x RPM), com forte
pico no espectro de vibrações. O desbalanceamento parelho existe quando o centro de massa
intercepta a linha de centro do eixo até seu centro de gravidade, com o equipamento
aparentando estar balanceado estaticamente, mas produzindo forças centrífugas nos mancais
de rolamento, em fase oposta, gerando elevado nível de vibrações axiais e radiais. O
desbalanceamento dinâmico é a combinação dos dois tipos de desbalanceamento
anteriormente descritos, com o centro de massa não sendo paralelo nem interseccionado pelo
eixo de rotação. Se a posição angular das massas é medida em relação ao eixo horizontal, a
componente vertical total da excitação de desbalanceamento, ou F(t), será aplicada a partir da
Eq. (1) para obtenção do movimento geral de um modelo de massas desbalanceadas.

𝐹(𝑡) = 𝑚𝑥̈ + 𝑐𝑥̇ + 𝑘𝑥


(1)

1.3 Redes Neurais Artificiais

As Redes Neurais Artificiais representam um sistema dinâmico altamente paralelizado,


com um gráfico direcionado à sua topologia que permite a obtenção da informação de saída
por meio de uma reação de seu estado às ações de entrada. Os seus elementos de
processamento e canais direcionados são chamados, respectivamente, de neurônios artificiais
e nós da rede (ou conexões sinápticas). O tipo de aprendizagem é determinado pela maneira
pela qual a modificação de parâmetros ocorre, onde a rede neural programada é estimulada
por um ambiente, sofre modificações nos seus parâmetros livres como resultado desta
estimulação e responde de uma maneira nova ao ambiente, devido às modificações ocorridas
na sua estrutura interna. A aprendizagem em sistemas neurais, segundo Haykin (1999), é um
processo pelo qual os parâmetros livres de uma rede são adaptados através de um conjunto de
estímulos pelo ambiente no qual a mesma está inserida. Os algoritmos de aprendizagem são
compreendidos como um conjunto pré-estabelecido de regras definidas para a solução de um
problema de aprendizagem da rede neural, sendo que estes algoritmos basicamente se diferem
de acordo com a formulação nos ajustes dos pesos sinápticos (wji) de um neurônio, com
relação à sua função de ativação (φ), que pode ser linear ou não, e seu campo local induzido
(vj). Assim, o sinal de entrada (yi) é convertido em um novo sinal na saída (yj), em uma rede
neural multicamadas, de acordo com a relação da Eq. (2) e da Eq. (3).

𝑦𝑗 (𝑛) = 𝜑(𝑣𝑗 (𝑛))


(2)

117
𝑚

𝑣𝑗 (𝑛) = ∑ 𝑤(𝑗𝑖) (𝑛)𝑦𝑖 (𝑛)


𝑖=0
(3)

De acordo com Feldkamp e Puskorius (1998), a programação neurodinâmica permite que


um sistema aprenda tomar decisões a partir do retorno do seu próprio comportamento, com
melhora em suas ações através de um dispositivo de reforço em um mecanismo incorporado.
Uma das arquiteturas neurodinâmicas utilizadas na aproximação e predição de padrões
temporais e respostas em sistemas dinâmicos, é chamada na literatura de NARX (Nonlinear
AutoRegressive models with eXogenous input), sendo características de uma rede NARX sua
efetividade, capacidade de generalização e velocidade de aprendizagem. Nesta estrutura
neural são inseridas entradas em séries temporais, vetores de pesos sinápticos, entradas
exógenas, camadas ocultas e saídas desejadas, onde o modelo utiliza as series temporais das
entradas na geração do retorno dinâmico dos neurônios e aumento da taxa de aprendizado dos
elementos de processamento, tornando-se uma poderosa ferramenta para modelagem não
linear, frequentemente utilizada na Engenharia de Controle.

1.4 Sistemas Fuzzy

Como afirmado por Jang et al. (1997), um sistema de inferência Fuzzy é representado a
partir de um conjunto de regras (SE/ENTÃO) e por conectores (E/OU) agregados em uma
função de pertinência única multivariada, ou relação Fuzzy. A aplicação das entradas Fuzzy ou
discretas (crisp) em uma relação Fuzzy, para geração de uma saída Fuzzy ou crisp (por meio
da defuzzificação), é a base da metodologia de tomada de decisões em sistemas nebulosos, ou
inferência Fuzzy. A regra composicional de inferência aponta que, se a relação Fuzzy que
representa um sistema é conhecida, a resposta deste sistema pode ser determinada a partir de
uma excitação também conhecida. Para junção do conjunto de regras e extração dos valores
discretos em operações que envolvem conjuntos Fuzzy, é necessária a aplicação,
respectivamente, dos recursos de agregação e defuzzificação. A lógica nebulosa de inferência
permite a representação sistemática do comportamento de determinado modelo analisado, a
partir de conjuntos de regras extraídas das bases de dados de entradas e saídas. O resultado
final, assim, é obtido a partir da extração, por meio de um mecanismo próprio, da resposta do
sistema Fuzzy aos dados inseridos, funções de pertinência, conjuntos de regras e algoritmo de
inferência dispostos durante a programação.

1.5 Redes NeuroFuzzy

Segundo Klir e Yuan (1995), a metodologia NeuroFuzzy representa uma classe chamada
na literatura de sistema inteligente híbrido, que visa combinar as valências principais de
modelos distintos, neste caso, das Redes Neurais Artificiais com as pertencentes aos sistemas
Fuzzy. Esta metodologia procura atenuar as dificuldades e desafios encontrados em modelos
Fuzzy, como a aproximação e modelagem de sistemas representados por bases numéricas, ou
em redes neurais, em casos de análises de informações representadas por variáveis linguísticas
vagas, fora do âmbito geral de compreensão do algoritmo. Alguns aspectos diferenciam um
sistema NeuroFuzzy de uma rede neural artificial, como suas entradas e saídas que se tratam
de números Fuzzy, assim como os pesos sinápticos utilizados, sendo estes pesos atualizados
nas interações, ou ciclos, por operações de agregação Fuzzy. Assim, a lógica Fuzzy fornece os
fundamentos para captura de incertezas presentes em torno das formas de expressão humana,
através da aplicação de conjuntos de regras que visam à interpretação de conceitos que podem
não ser bem compreendidos, ou representados, pela linguagem padrão de uma máquina. Por
outro lado, os sistemas neurais apresentam recursos que permitem a extração de padrões, a
partir de informações inseridas para treinamento, que permitem mapear o comportamento de

118
modelos altamente complexos, com nível considerável de confiabilidade, a depender da
arquitetura idealizada. A junção destas capacidades confere ao modelo computacional híbrido
funções neurais de processamento aliadas ao gerenciamento Fuzzy de intervalos e incertezas.
Uma Inferência Adaptativa NeuroFuzzy, ou rede ANFIS, configura-se como um sistema
híbrido que apresenta um grupo de funções de pertinência, um conjunto de regras similar aos
encontrados em sistemas de inferência Fuzzy e camadas neurais para processamento de sinais,
com retroalimentação. Para efeito do conteúdo abordado neste trabalho, a observação
detalhada de um modelo ANFIS se dará em uma inferência de Sugeno, de ordem zero ou de
primeira ordem, com a saída sendo obtida a partir do método weighted average defuzzication.

2. MATERIAIS E MÉTODOS

Os sinais utilizados no treinamento, validação e testagem dos programas de análise e


diagnóstico implementados tiveram origem nas variáveis dinâmicas vibracionais captadas em
um modelo físico experimental específico para as análises de vibração e detecção das falhas
descritas neste trabalho. Esta fase contou com o auxílio estrutural fornecido pelo CEPEAGE
(Centro de Prática de Engenharia, Arquitetura e Gestão), unidade educacional pertencente à
instituição de ensino superior Centro Universitário FipMoc. O sistema de instrumentação
proposto foi implementado em uma bancada de análises de vibrações, mostrada na Fig. 1, já
instalada no CEPEAGE, desenvolvida previamente por acadêmicos da instituição.

2.1 Coleta dos sinais de vibração e treinamento

A obtenção dos dados de vibração se fundamentou na coleta e processamento dos sinais


de aceleração em dois eixos, velocidade angular e frequência do sistema rotor, em situações
distintas de balanceamento, com a aplicação de um sistema de instrumentação implementado
pelos autores, formado por um Sensor Acelerômetro Triaxial (microelectromechanical
system), um Microcontrolador, modelo Arduino Uno-R3, um dispositivo de condicionamento
de sinais, fornecido pela estrutura do CEPEAGE, e um sensor indutivo de captação metálica,
voltado à coleta dos dados da frequência rotativa e velocidade angular do equipamento. Para
validação dos sinais obtidos com o sistema anteriormente descrito, foram feitas análises com
um equipamento de controle e detecção de falhas, pertencente à estrutura das FipMoc, modelo
Teknikao-NK820. Este conjunto consiste em um sensor acelerômetro piezelétrico e um sensor
indutivo, além do software SDAV, que permite a visualização gráfica dos sinais e resultados.

Figura 1 – Sistema de instrumentação implementado pelos autores e bancada de testes.

Foram realizados três procedimentos de simulação dinâmica no rotor instalado sobre o


eixo de rotação do motor trifásico, visando à obtenção dos sinais de vibrações para
treinamento dos programas de análise e detecção. O primeiro caso envolveu uma simulação
de balanceamento teórico do rotor, sem adição de nenhuma massa de desbalanceamento ao
mesmo, onde ambos os sistemas de instrumentação indicaram o balanceamento do

119
equipamento. No segundo caso foi simulado o desbalanceamento no rotor, pela adição de uma
massa total de 18,24 gramas, dividida em duas massas distintas com 11,16 gramas e 7,08
gramas, instaladas em pontos defasados do rotor em 180º, distantes 1,5 cm do ponto de raio
zero do rotor, sendo reconhecido o desbalanceamento pelo sensor de validação, com resultado
inconclusivo para o sistema implementado pelos autores. Já no terceiro caso foi simulado o
desbalanceamento do equipamento, com adição de uma massa total de 23,36 gramas, dividida
em duas massas distintas com 11,16 gramas e 12,20 gramas, situadas em pontos com 180° de
defasagem, cada uma distante 2,25 cm do ponto de raio zero do corpo dinâmico analisado,
onde ambos os modelos de instrumentação indicaram o desbalanceamento do rotor.
Após a aquisição dos sinais de vibração, os mesmos foram processados, por meio da
filtragem analógica de passa-baixa, digitalização, filtragem digital de passa-faixa e
janelamento, no software MATLAB r2011-b, para formarem as bases de treinamento e
validação na programação da Rede Neural Dinâmica e da Rede NeuroFuzzy. Os sinais obtidos
pelo modelo de instrumentação formulado, após seu processamento, estão na Fig. 2.

Figura 2 – Sinais temporais levantados pelo sistema de instrumentação implementado.

Os sinais representados no domínio do tempo apresentam sua amplitude em função de


intervalos temporais. Porém, certas situações requerem a representação em função do domínio
das frequências, com a obtenção do espectro dos sinais. Um dos algoritmos aplicáveis para
esta transposição é a Transformada Rápida de Fourier, ou FFT, que efetua a correlação
estabilizada entre o sinal no domínio do tempo e sua representação no domínio da frequência.
Os sinais da Fig. 3 tratam-se dos dados obtidos a partir de cada componente de sinais por
frequência de operação. Os mesmos foram mapeados pela Rede Neurodinâmica e usados no
treinamento do classificador de desbalanceamento, gerado a partir da Rede NeuroFuzzy.

120
Figura 3 – Assinaturas espectrais dos casos simulados de desbalanceamento.

2.2 Programação das redes dinâmica e ANFIS

A modelagem dos programas de análise e classificação implementados (Rede NARX


Levenberg-Marquardt e arquitetura ANFIS feedforward com treinamento híbrido) envolveu a
disposição dos padrões de entrada, de acordo com classes rotuladas como Teoricamente
Balanceado e Desbalanceado (com adição da massa de 23,36 gramas), para que cada modelo
verificasse as tendências dos sinais, diferenciando os casos, sendo que um terceiro conjunto
de sinais, sem rótulos, foi utilizado em ambas as redes, após seu treinamento e validação.
Foram inseridas, durante a implementação total dos modelos, quatro bases de dados rotuladas,
com 1940 padrões de entrada cada, representando os casos de balanceamento teórico e
desbalanceamento, além das respectivas assinaturas espectrais. Duas bases de dados não
rotuladas, com 970 padrões de entrada cada, foram utilizadas na testagem dos sistemas, após
sua modelagem. A divisão dos dados, durante o treinamento das redes, seguiu o padrão de
70% dos dados separados para o treinamento, 15% separados para validação e 15% dos dados
separados para testagens. Como critérios de avaliação do desempenho e capacidades de
aproximação e generalização das redes foram utilizados os métodos do Erro Médio
Quadrático, da análise de Regressão (Teste R) e da Quantificação dos Erros de Classificação.
Os sinais de espectros das vibrações em dois eixos de análise (x e y) e a velocidade
angular do sistema rotativo formaram os dados de treinamento e validação do classificador
que, de acordo com os padrões, formulou sua resposta binária ao desbalanceamento no
equipamento, onde a classificação [1] é sua resposta ao sistema balanceado e [0] ao
desbalanceamento, sendo calculada a acurácia na classificação do sistema de detecção de
falhas, nos dados rotulados.

3. RESULTADOS E DISCUSSÃO

A arquitetura NARX, com algoritmo de treinamento Levenberg-Marquardt, atraso


temporal nas entradas de 1:5 e camada interna de cem neurônios, efetuou o mapeamento dos
padrões, com os valores de alvo e entradas, para execução das análises dinâmicas e geração
das respostas aos estímulos de sinais. A correlação entre a saída da rede (01) e os padrões
desejados, de acordo com o Teste de Regressão (ou Teste R), durante sua implementação, foi
de 0,998 para o sinal Teoricamente Balanceado e 0,995 para o sinal Desbalanceado. Este
resultado indica relação próxima entre as respostas da rede e as desejadas, já que valores
baixos de “R” indicam respostas neurais aleatórias. Considerando os sinais de teste, a rede
(01) apresentou valor de 0,997 para o sinal balanceado e 0,966 para o sinal desbalanceado, de

121
acordo com o Teste R. O Erro Médio Quadrático da rede (01) foi 0,00003815 na resposta aos
estímulos de balanceamento e 0,00077928 aos de desbalanceamento.
A Fig. 4 apresenta as respostas temporais do sistema neurodinânico aos estímulos dos
sinais colhidos no modelo balanceado, enquanto a Fig. 5 ilustra as respostas temporais
fornecidas pela rede aos estímulos de sinais obtidos no modelo desbalanceado.

Figura 4 – Resposta da rede 01 aos estímulos temporais do sinal de balanceamento.

Figura 5 – Resposta da rede 01 aos estímulos temporais do sinal de desbalanceamento.

A arquitetura ANFIS (02) de mapeamento do sinal efetuou a verificação dos padrões do


sistema balanceado e desbalanceado, através dos valores de alvo e verificação das entradas
temporais de sinais de vibração e das velocidades angulares do equipamento, com execução
das análises de vibrações e geração das respostas neurais aos estímulos. Sua arquitetura
envolveu a disposição de cinco conjuntos com função de pertinência Bell Generalizada
(gbellmf) em cada uma das entradas crisp da rede, gerando cento e vinte e cinco regras Fuzzy
que modularam o comportamento e a resposta final da rede.
A Fig. 6 apresenta as respostas geradas pela rede ANFIS aos estímulos dos sinais de
entrada de balanceamento do rotor. A Fig. 7 apresenta as respostas desta rede aos estímulos
dos sinais de entrada obtidos com desbalanceamento simulado sobre o rotor.

122
Figura 6 – Resposta da rede 02 aos estímulos temporais do sinal de balanceamento.

Figura 7 – Resposta da rede 02 aos estímulos temporais do sinal de desbalanceamento.

A correlação entre as saídas da rede ANFIS (02) de mapeamento e os valores desejados,


de acordo com o Teste de Regressão, durante seu treinamento e validação foi de 0,9997 para o
sinal Teoricamente Balanceado e 0,9961 para o sinal Desbalanceado, indicando uma relação
próxima entre as respostas da rede e os alvos. Considerando os sinais de teste, a rede (02)
apresentou valor de 0,9981 para o sinal balanceado e 0,9752 para o sinal desbalanceado, de
acordo com o teste regressivo. O Erro Médio Quadrático geral da rede (02) foi 0,000022749
na resposta aos estímulos do sinal balanceado e 0,00011875 do sinal desbalanceado.
A geração do sistema de análise e classificação de desbalanceamento foi iniciada a partir
da disposição de quatro funções de pertinência gbellmf para fuzzificação de cada uma das três
entradas de sinais distintos, além da constituição de um conjunto de sessenta e quatro regras
Fuzzy nas camadas internas de processamento do modelo ANFIS. Estas entradas referem-se
aos sinais colhidos durante o regime de simulação do modelo experimental e aplicação do
sistema de instrumentação utilizado pelos autores, tocantes às grandezas de aceleração axial e
radial do corpo rotativo (em milímetros/segundo2 ), inseridos para conversão Fuzzy com os
respectivos nomes de “Acelerometro 𝑥 ” e “Acelerometro 𝑦 ” e a velocidade angular (ω) do
equipamento motor em seu eixo de rotação (em radianos/segundo), denominada
“Velocidade 𝐴 ”, conforme ilustrado na Fig. 8 que apresenta as superfícies Fuzzy geradas pela
Inferência de Sugeno, relacionando as três entradas, em pares de velocidade e aceleração, à
saída, considerando o balanceamento do equipamento, de acordo com os sinais obtidos no
modelo experimental.

123
Figura 8 - Superfícies da Inferência de Sugeno geradas.

A acurácia do classificador ANFIS foi obtida, em seu cálculo, com uso das respostas
preditas a partir dos vetores de sinais de treinamento e validação, e a resposta fornecida pela
rede comparada aos resultados previamente rotulados de desbalanceamento, seguindo o
disposto na Eq. 4.

Número de classificações corretas


Acurácia =
Número total de Classificações

(4)

Assim, considerando a acurácia como a métrica adotada para avaliação do desempenho


da rede ANFIS (02), a mesma apresentou avaliação geral de 99,22% na classificação dos
sinais de treinamento e validação balanceados, de 98,88% na fase de treinamento e validação
com os sinais desbalanceados, e uma acurácia de 96,44% na classificação dos sinais de testes,
obtidos através de uma base de 970 elementos rotulados quanto ao balanceamento, mas que

124
não foram inseridos em nenhuma das etapas prévias de treinamento e validação do programa
ANFIS, comprovando, assim, a capacidade de generalização da rede implementada.Com base
nos dados inseridos no treinamento, foi programada uma metodologia de verificação para
entradas não rotuladas e testes, com relação aos mesmos, visando à execução da análise do
sistema monitorado e o desenvolvimento da metodologia inicial proposta de análise e
detecção, com a verificação dos valores de testagem e mapeamento dos sinais e
comportamento do sistema, sendo avaliados os níveis de acurácia nas fases de implementação
da rede ANFIS de classificação detalhada anteriormente.
A Tabela 1 apresenta os resultados principais de avaliação dos programas gerados,
obtidos a partir das respostas fornecidas pelas arquiteturas aplicadas na classificação e
predição de estado do equipamento, durante sua modelagem, no treinamento e testes.

Tabela 1 – Resultados dos programas de análise modelados.

4. CONCLUSÃO

A aplicação de ambas as arquiteturas, e a junção destas aos recursos de estimação de


padrões dinâmicos não lineares, objetiva níveis de aproximação aos dados de treinamento,
com respostas minimamente discrepantes dos sinais reais captados pelos sensores e
fornecidos pelos sistemas de validação. Este estudo objetivou modelar sistemas de análise e
detecção de falhas vibracionais para verificação de desbalanceamento em rotores instalados
sobre eixos de motores trifásicos, com o fornecimento a resposta temporal dos sinais de
comportamento dinâmico gerados pelo equipamento físico.
Ambas as arquiteturas geradas apresentaram níveis satisfatórios de aproximação aos
padrões de treinamento e sinais, com respostas próximas aos valores reais captados pelos
sensores de vibração utilizados. De acordo com os resultados obtidos, pode-se concluir que os
modelos aqui propostos conseguiram efetuar uma análise de vibrações confiável e também
confiável detecção de desbalanceamento em rotores de motores de indução trifásicos. A Rede
Neurodinâmica (01) forneceu sua resposta temporal ao comportamento do sistema físico, se
valendo dos dados inseridos nos valores de alvo, desenvolvendo a verificação das entradas
não rotuladas e dos testes, com relação aos mesmos, para execução da sua análise. Os níveis
de aproximação da mesma foram considerados satisfatórios, com base nos resultados das
análises apresentadas para sua avaliação, descritas nas seções de metodologia e resultados. A
Rede ANFIS (02), assim como a primeira, desenvolveu sua metodologia proposta de análise e
detecção, com a verificação dos valores de testagem, após seu treinamento e validação. Além

125
de a mesma efetuar, com aproximação, sua resposta aos estímulos dos sinais de entrada e
comportamento do sistema, também apresentou elevada acurácia do classificador, em todas as
fases de sua implementação, comprovando sua capacidade de generalização e a confiabilidade
dos resultados por ela fornecidos para casos não rotulados.

Agradecimentos
Ao Centro Universitário FipMoc pela estrutura fornecida e pessoal disponibilizado nas
etapas de levantamento de dados e testes dinâmicos no modelo experimental.
5. REFERÊNCIAS

Feldkamp, L. A., Puskorius, G. V. ‘‘A signal processing framework based on dynamic neural
networks with application to problems in adaptation, filtering and classification.’’ IEEE,
v.86, 2259–2277 (1998).
Genta, G. “Dynamics of rotating systems.” New York, USA: Springer, 2005. 660 p.
Haykin, Simon S. “Neural networks: a comprehensive foundation . 2nd ed.” New Jersey,
EUA: Prentice Hall, 1999. 842 p.
Jang, J. S. R. et al. “Neuro-Fuzzy and Soft Computing: a computational approach to learning
and machine intelligence.” Upper Saddle River: Prentice-Hall, Inc., 1997.
Klir, G. J., Yuan, B. K. “Fuzzy sets and Fuzzy logic. Theory and applications.” Upper Saddle
River: Prentice-Hall, Inc., 1995.
Rao, Singiresu S. “Vibrações mecânicas. Quinta edição”. PEARSON Educacional. São
Paulo, 2012.

APPLICATION OF NEURODYNAMIC AND NEUROFUZZY ARCHITECTURE IN THE


ANALYSIS OF SIGNALS OF VIBRATIONS AND DETECTION OF UNBALANCING
FAILURE IN A SEMIRRIGID ROTOR

Author- Alessandro Evair Oliveira Silva¹ - alessandroevairaeos@gmail.com


Author- Vinícius Fernandes Medeiros² - viniciusmvs50@gmail.com
1
Universidade Estadual de Montes Claros - Montes Claros, MG, Brazil.
²Faculdades Integradas Pitágoras - Montes Claros, MG, Brazil.

Abstract. Mechanical vibrations consist of oscillations of a body around an equilibrium


position, with the imbalance of dynamic systems being the phenomenon where the center of
mass of the object does not coincide with its center of rotation, generating radial and axial
vibrations that cause instabilities in the system and efforts with the potential for permanent
damage. The objective of this work was to implement a system for analysis of vibratory
signals and detection of unbalance in a semi-rigid rotor with the application of
Neurodynamic and NeuroFuzzy architectures, through the mapping of the signals collected in
an experimental equipment. In order to obtain the vibrational signals for the training of the
architectures three different dynamic simulation procedures were performed on a semi-rigid
rotor mounted on the axis of a three-phase motor. These extracted signals went through
computational filtering and windowing treatments, constituting the processed database for
the training of the networks used to identify unbalance failures. The implementation of the
Neurodynamic and NeuroFuzzy feedforward architectures involved the disposition of the
inputs, according to previously labeled balancing classes, so that the models could verify the
behavior of the signals, differentiating different cases. A set of unlabeled signals was used in
the execution of a comparative test of the networks, after their training and validation.

Keywords: Neurodynamics. NeuroFuzzy. Rotor. Unbalance. Vibration.

126
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

SOUTH AMERICA ENERGY MATRIX: A DECISION TREE APPROACH

Paulo Rossi Croce 1 – paulorossicroce@gmail.com


Renato Gomes de Souza Vale Júnior 1 – renatosouzavale@yahoo.com.br
Henrique Rego Monteiro da Hora 1 – henrique.dahora@iff.edu.br
João José de Assis Rangel 1 – joao@iff.edu.br
1
Instituto Federal de Educação, Ciência e Tecnologia Fluminense – Campos dos Goytacazes, RJ,
Brazil

Abstract. The global energy matrix is in the process of transformation, as new technologies
are being developed. The International Energy Agency (IEA) provides data that makes it
possible to better analyze a country from the analysis of its total energy produced. With data
mining tools, this article aims to analyze the energy matrix of the countries of South America
in order to discover some pattern among the data. Orange was used to develop the decision
tree and it was possible to conclude that the total energy produced by hydropower is essential
for the growth of non-fossil energy, contributing to an ecologically correct future.

Keywords: Energy Matrix, Clean Energy, Decision Tree, Data mining, Electrical energy

1. INTRODUCTION

The information on the graphics and numbers on recent reports of International Energy
Agency (IEA) can be observed as that electric energy production worldwide by using
renewable ways has reached second position, above natural gas, what comes clear such as its
importance in the energetic matrix of the countries (IEA, 2019). The use of appropriate
technology to treat renewable sources is yet a challenge for countries in development, even
though its substitution of fossil fuels for renewable energy is still in development around the
globe.
Data mining is a method widely used to perceive patterns, anomalies, changes,
association and relevant structures in a big volume data. Being a multidisciplinary subject, the
data mining represents a big advance of analytical tools, combining machine learning,
database, statistics and artificial intelligence (Kaur & Chhabra, 2014).
Eldahab et al. (2019) studied hybrid renewable energy matrix optimization through
statistic calculation and data mining. Initially, the authors gather articles about hybrid

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

127
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

renewable energy, defining the components typically used in this system. In sequence,
defined the techniques and optimization algorithms (APRIORI and FP-Growth)
Coban and Onar (2020) predicted the solar radiation in Istanbul, Turkey using the
principles of machine learning. The authors accumulated meteorological data and applied the
prediction method, which are used to estimate the quantity of energy produced by the system.
The irrigation models are elaborated and then a classic machine learning model ARMA (auto
regressive mobile average) is used.
Prusa et al. (2019) utilized data mining algorithm to predict the value and purchases of
crude oil on western Texas region with data provided by IEA between 2003 and 2015. The
authors affirm that is almost impossible to predict the market situations, since there are many
external forces like natural disasters and geopolitics crisis. In order to increase the reliability
of their results, they used four algorithms that have a 95% statistical reliability and random
guessing strategies to simulate the market’s hypothetical effects.
With so many applications provided by data mining, until now there are no studies about
energy productions regarding South America countries. This way, the main objective of this
research is to analyze the energy production growth of South America countries with decision
tree data mining algorithm.

2. THEORICAL FRAMEWORK

2.1 Data mining

Data mining is a way to extract information from a big volume of data, with a help of
software, like Weka, developed in Waikado University in New Zeeland, it is possible to find
consistencies and patterns in a set of data. Among various data mining techniques, it is
possible to cite (Bhargava et al., 2013): Association Learning Rule: used to discover the
relationship rules and association between variables; Clustering: also known as unsupervised
classification, this technique creates and discover a group of similar data; Classification: also
known as supervised classification, it is possible to classify the data according to its class;
Regression: tries to find a function that describes the model of the data with minimum error;
Summarization: provides an easy analysis to understand the data through visual resources and
reports.

2.2 Decision Tree

The Decision Tree is a support for decision-making in ramifications with possible effects,
including the event probability, cost and usefulness. Also known as classification decision
tree, is used to learn a function of classification, which concludes the value of the depending
attribute and the variable according to the values of the independent attribute are accounted
(input variables). It is known as supervised classification because the dependent attribute and
the classes are provided (Korting, 2006).
According Rokach and Maimon (2005), the decision tree is one of the most powerful data
mining approach, it makes possible to research with a high complexity degree and a big
number of data, in order to acknowledge relevant patterns. This principal is very important,
since it permits to model and extract information efficiently, low cost and more precise. It
gathers lots of areas, like text mining, information extraction, machine learning and patter
recognition. As advantages, it is possible to cite: easy understanding for the final user; gathers
a great variety of data, like nominal, numerical and textual; it is possible to process a set of
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

128
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

erroneous data and missing values; multiplatform. A decision tree has the following items:
root node, leaf node (representing the class), internal nodes (representing the tested
condition).
In order to elaborate a decision tree efficiently, it is primordial to avoid a complex
understanding, it may cause inaccuracies, measured by the node number, total leaf numbers,
tree’s depth and utilized attributes used. The tree must be relatively small to be controlled by
a technique named pruning, analogous to gardening methods. The rules of the decision tree
may be easily generated, in which root’s way and the end of a leaf represents a rule (Rokach
& Maimon, 2008).
There are many tools to create a decision tree, one popular open-source software is
Orange, developed on the Ljubljana University it offers lots of modeling tasks and evaluation,
such as (Demšar et al., 2004): data management and data pre-processing for input and output
data, discretization, normalization; classification, implemented from many supervised
machine learning algorithms; regression, includes linear regression and lasso, partial least
squares regression and others; association, it includes association rules and set of resource of
mining; clusters, includes k-means and hierarchies clusters; evaluation, ranks the prediction
methods qualities and procedures of a trustworthy estimative; projections, implements the
main analysis, multidimensional scale and self-organizing maps.

3. METHOD

In this research the IEA database regarding the electricity production of South America
countries was consulted, which includes: Paraguay, Uruguay, Bolivia, Colombia, Peru,
Ecuator, Chile, Brazil, Argentina and Venezuela. Trinidad and Tobago, Suriname and
Curaçao were excluded since their the production of electric energy in GWh of each country
was collected according with its origin, separated in two groups: originated from fossil
sources (coal, petroleum and natural gas) and non-fossil (considering the remaining energy
sources). Graphs elaborated from the data obtained illustrates the evolution of the electric
energy production across the years.
The Invariable Decision Tree approach was used, implementing the j48 algorithm,
applying the energy production data and analyzing the results. In order to elaborate the
decision tree, the open-source software Orange was used to achieve a more interactive
visualization (Demšar et al., 2013).
The values of the energy production were divided with five-year periods, in order to
explicit if there was growth, degrowth or it maintained constant. As a parameter, when the
interval is less than 0, it was considered degrowth; when it equals 0, maintains; between 0.1
and 0.49, growth and; when bigger or equal to 0.5, a great growth. Considering these
parameters and treatments a decision tree was elaborated through the Orange software and the
results discussed.
The Invariable Decision Tree approach separates data using attributes on its internal
nodes. There are many algorithms for this kind of tree, e.g. IDE3, c4.5 (also known as j48 on
the software Weka). The algorithm j48 is an extension of ID3 and make it possible the
creation of a decision tree (Quinlan, 1996).

4. RESULTS AND DISCUSSIONS

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

129
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

From the IEA database, the produced energy data were collected from 1990 until 2017
and displayed on Figure 1. With the collected information, it is possible make an analysis.

Figure 1 - South America Energy Production


Source: IEA (2019)

In Argentina, on the beginning of the 2000 decade, the fossil-based energy started to
develop in a far mor superior way than the non-fossil production. The petroleum and natural
gas are the most important sources on the argentine electric production. In 2006, the sum of
both kinds of energies sources represented 88.7%, 49% being Natural Gas and 39%
Petroleum. With their consumption pattern, Argentina goes through a natural gas scarcity,
impacting in their national electricity system, consequently affecting their economy
(Guzowski & Recalde, 2008). Politics formulation to sustainable national development are
still in early steps, however, Roberts (2015) proposes the utilization of solid residues as a
potential alternative energy source.
With a lack of industries, Bolivia isn’t a great energy consumer, which can be seen when
comparing the energy production with other countries (Pansera, 2012). Fossil fuels dependent
(primarily natural gas), only 5.4 of its primary production is from renewable sources,
furthermore 80% of its produced natural gas is exported to Argentina and Brazil (CBHE,
2018). Even if this energy source made the Bolivian economy better, it still expected that
natural gas still lingers (Morato et al., 2019).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

130
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The Brazilian strategy focuses in finding more efficient ways to use the energy in
different sectors of the society, also to diversify its energy matrix. There are a great project
perspective, programs and technology development in the country. Brazil have the highlight
in hydroelectric-based energy production in a major infrastructure (Pottmaier et al., 2013).
Comparing with the other southern america countries, the Brazilian energy matrix is the major
non-fossil energy producer.
The Chilean energetic politics have been envoving in the recent years due the need of
institutional and infrastructural changes, which motivates the world design to solar and Eolic
production, with innovative politics and as regional solar energy exporter, the northern Chile
presents unique favorable condition as the one of the few regions of the world with more than
2,500 kWh-m² of radiation. The potential estimated value of electric production on Atacama
Desert gathers approximately 1,000 GW or five times more than the entire South America
(Jimenez-Estevez et al., 2015).
The Colombian Energy Plan 2050, launched in 2016 have the goal of diversify the energy
plan and elaborate a secure energy supply, moderation and independent from fossil fuels,
besides the Eolic power plants, geothermic energy and solar energy. The Eolic technology
offshore in Colombia could suffice the needed demand when the hydroelectric system had
low generation during drought seasons, like El Niño and oscillatory events (Rueda-Bayona et
al., 2019).
The Ecuadorian electric sector confronted many changes in the last decade, which
represents lots of projects to hydroelectric production, its capacities grew approximately 81%
in 2017, presenting nearly 1.8% of biomass and biogas from the total produced energy, only
0.6% representing the Eolic and solar energy (PONCE-JARA et al., 2018).
The Paraguayan energetic sector was founded in renewable sources and have the cheapest
taxes of electrical consummation of Latin America, which stabilized new energy plans in its
national politics between 2014 and 2030, with the goal of achieve about 60% of renewable
energy consumption and reduce about 20% of fossil fuels usage until 2030 (Blanco et al.,
2017).
Peru is the emergent country with a growth of the electric demand with a major
dependence of fossil fuel. It has a good macroeconomy, comparing the economical crisis
faced. Although the need of fossil fuels for the energy production, renewable sources have
been exploring in the last years, for instance: hydroelectric and biomass (López et al., 2015).
Uruguay is a country with a growing annual electric demand of 3.5%, in 2017 about
11,200 GWh were used in order to maintain the country. The Energy Minister in 2010
approved a decree to promote renewable energy with the goal to drastically level up the
electric production by renewable sources, so until 2010, in order to satisfy the electric
demand, hydroelectric installations with 1450 MW capacities were constructed, about 70 MW
regards biomass and 700 MW for fossil fuels (Figoli et al., 2018).
Venezuela has abundant energy resources that are directly part of the economic
development of the country, the biggest per-capita consumer of energy Latin America. Its
petroleum production cannot be exceeded since Venezuela is an active OPEC member, this
way its exacerbated internal consumption causes penalties for its exports (Robalino-López et
al., 2015).
With the data collected from IEA database, the decision tree on Figure 2 was elaborated
with the software Orange.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

131
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2 - Decision Tree

In order to know the non-fossil energy production behavior, the same was use as goal to
create the decision tree. On the root it is possible to observe that the energy that most
collaborates is from hydroelectric sources. When the hydro energy grows, the non-fossil
energy production also grew. Following to another knot, on the other situations the changes
on hydroelectric in case of a degrowth, the non-fossil electric energy production depends on
Eolic sources, when it is constant, the total production decreases. On the other hand, when the
Eolic production grows, it collaborates significantly with the non-fossil production in this
scenary.
In the event of a great growth or constant of hydroelectric sources, the dependent source
is Biofuel, if its production decreases in this interval, the non-fossil energy productions
decrease and in the others cases, the Eolic source is again responsible for the clean energy
growth. If this source maintains or decreases, it proceeds to another knot. So, if the biofuel
growth remains constant, the reduction of clean energy production decrease, and at last, if it
grows or have a great growth, the production of non-fossil energy grows a lot.
Observing the tree, it is possible to identify the main actors and collaborators for the
South America energy production. The contribution of hydroelectric is very significant,
together with Eolic and biofuel. According with this analysis, these technologies are ideal to
be explored and develop, considering each country conditions and resources.

5. CONCLUSIONS

The South America energy production energy decision tree was generated from its entire
energy production. The energetic sources that most collaborated with a cleaner growth were
from hydric, Eolic sources and biofuel. Green politics have been the focus of debates between
governors, even with the high technology cost. In order to reach a cleaner energy matrix, the
South America countries enjoyed many incentives mechanisms, such as certificates, subsidies

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

132
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

and tax reduction. Regardless the stimulus, it is the country’s Government obligation to
adequate to your own reality.
With a cleaner energy growth, the world energetic scenery tends to transform itself, and
for future projects the authors suggest an evaluation in another regions around the world, in
order to know more about the global energy matrix tendencies.

REFERENCES
Bhargava, N., Sharma, G., Bhargava, R., & Mathuria, M. (2013). Decision tree analysis on j48 algorithm for
data mining. Proceedings of International Journal of Advanced Research in Computer Science and Software
Engineering, 3(6).
Blanco, G., Amarilla, R., Martinez, A., Llamosas, C., & Oxilia, V. (2017). Energy transitions and emerging
economies: A multi-criteria analysis of policy options for hydropower surplus utilization in Paraguay. Energy
Policy, 108, 312–321. https://doi.org/10.1016/j.enpol.2017.06.003
CBHE. (2018). Cámara Boliviana de Hidrocarburos y Energía—Informes Cbhe.
http://www.cbhe.org.bo/index.php/informacion-de-la-industria/informes-cbhe
Çoban, V., & Onar, S. Ç. (2020). Solar Radiation Prediction Based on Machine Learning for Istanbul in Turkey.
In C. Kahraman, S. Cebi, S. Cevik Onar, B. Oztaysi, A. C. Tolga, & I. U. Sari (Eds.), Intelligent and Fuzzy
Techniques in Big Data Analytics and Decision Making (Vol. 1029, pp. 197–204). Springer International
Publishing. https://doi.org/10.1007/978-3-030-23756-1_25
Demšar, J., Curk, T., Erjavec, A., Gorup, Č., Hočevar, T., Milutinovič, M., Možina, M., Polajnar, M., Toplak,
M., & Starič, A. (2013). Orange: Data mining toolbox in Python. The Journal of Machine Learning
Research, 14(1), 2349–2353.
Demšar, J., Zupan, B., Leban, G., & Curk, T. (2004). Orange: From experimental machine learning to interactive
data mining. European Conference on Principles of Data Mining and Knowledge Discovery, 537–539.
Eldahab, Y. E. A., Zekry, A., & Saad, N. H. (2019). Enhancing the Optimization of Hybrid Renewable Energy
Systems by Using Statistical Calculations and Data Mining Analysis. 19.
Figoli, I., Perna, V., Horta, G., Perco, L., Reyes, A., & Sierra, W. (2018). The role of biomass in Uruguay’s
energy transformation. 2018 IEEE 9th Power, Instrumentation and Measurement Meeting (EPIM), 1–6.
https://doi.org/10.1109/EPIM.2018.8756374
Guzowski, C., & Recalde, M. (2008). Renewable energy in Argentina: Energy policy analysis and perspectives.
International Journal of Hydrogen Energy, 33(13), 3592–3595.
https://doi.org/10.1016/j.ijhydene.2007.11.032
IEA. (2019, December 9). IEA – International Energy Agency. IEA. https://www.iea.org
Jimenez-Estevez, G., Palma-Behnke, R., Roman Latorre, R., & Moran, L. (2015). Heat and Dust: The Solar
Energy Challenge in Chile. IEEE Power and Energy Magazine, 13(2), 71–77.
https://doi.org/10.1109/MPE.2014.2380012
Kaur, G., & Chhabra, A. (2014). Improved J48 Classification Algorithm for the Prediction of Diabetes.
International Journal of Computer Applications, 98(22), 13–17. https://doi.org/10.5120/17314-7433
Korting, T. S. (2006). C4. 5 algorithm and multivariate decision trees. Image Processing Division, National
Institute for Space Research–INPE Sao Jose Dos Campos–SP, Brazil.
López, M., Veigas, M., & Iglesias, G. (2015). On the wave energy resource of Peru. Energy Conversion and
Management, 90, 34–40. https://doi.org/10.1016/j.enconman.2014.11.012
Morato, T., Vaezi, M., & Kumar, A. (2019). Assessment of energy production potential from agricultural
residues in Bolivia. Renewable and Sustainable Energy Reviews, 102, 14–23.
https://doi.org/10.1016/j.rser.2018.11.032
Pansera, M. (2012). Renewable energy for rural areas of Bolivia. Renewable and Sustainable Energy Reviews,
16(9), 6694–6704. https://doi.org/10.1016/j.rser.2012.08.015
Ponce-Jara, M. A., Castro, M., Pelaez-Samaniego, M. R., Espinoza-Abad, J. L., & Ruiz, E. (2018). Electricity
sector in Ecuador: An overview of the 2007–2017 decade. Energy Policy, 113, 513–522.
https://doi.org/10.1016/j.enpol.2017.11.036
Pottmaier, D., Melo, C. R., Sartor, M. N., Kuester, S., Amadio, T. M., Fernandes, C. A. H., Marinha, D., &
Alarcon, O. E. (2013). The Brazilian energy matrix: From a materials science and engineering perspective.
Renewable and Sustainable Energy Reviews, 19, 678–691. https://doi.org/10.1016/j.rser.2012.11.063
Prusa, J. D., Sagul, R. T., & Khoshgoftaar, T. M. (2019). Extracting Knowledge from Technical Reports for the
Valuation of West Texas Intermediate Crude Oil Futures. Information Systems Frontiers, 21(1), 109–123.
https://doi.org/10.1007/s10796-018-9859-2
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

133
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Quinlan, J. R. (1996). Improved use of continuous attributes in C4. 5. Journal of Artificial Intelligence Research,
4, 77–90.
Robalino-López, A., Mena-Nieto, Á., García-Ramos, J.-E., & Golpe, A. A. (2015). Studying the relationship
between economic growth, CO2 emissions, and the environmental Kuznets curve in Venezuela (1980–2025).
Renewable and Sustainable Energy Reviews, 41, 602–614. https://doi.org/10.1016/j.rser.2014.08.081
Roberts, J. J., Cassula, A. M., Osvaldo Prado, P., Dias, R. A., & Balestieri, J. A. P. (2015). Assessment of dry
residual biomass potential for use as alternative energy source in the party of General Pueyrredón, Argentina.
Renewable and Sustainable Energy Reviews, 41, 568–583. https://doi.org/10.1016/j.rser.2014.08.066
Rokach, L., & Maimon, O. (2005). Decision trees. In Data mining and knowledge discovery handbook (pp. 165–
192). Springer.
Rokach, L., & Maimon, O. Z. (2008). Data mining with decision trees: Theory and applications (Vol. 69).
World scientific.
Rueda-Bayona, J. G., Guzmán, A., Eras, J. J. C., Silva-Casarín, R., Bastidas-Arteaga, E., & Horrillo-Caraballo,
J. (2019). Renewables energies in Colombia and the opportunity for the offshore wind technology. Journal of
Cleaner Production, 220, 529–543. https://doi.org/10.1016/j.jclepro.2019.02.174

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

134
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas – TO

CLASSIFICAÇÃO DE PASSAGEIROS DOMÉSTICOS DE LINHAS AÉREAS


UTILIZANDO REDES NEURAIS ARTIFICIAIS DO TIPO MLP

Sidnei Gouveia Junior1– sidneigouveiajr@gmail.com


Narciso Ferreira dos Santos Neto2 – narciso.ferreira@unimontes.br
Nilton Alves Maia3– nilton.maia@unimontes.br
1
Universidade Estadual de Montes Claros, Programa de Pós-Graduação em Modelagem
Computacional e Sistemas – Montes Claros, MG, Brasil
2
Universidade Estadual de Montes Claros, Departamento de Administração – Montes Claros, MG,
Brasil
3
Universidade Estadual de Montes Claros, Departamento de Ciências da Computação – Montes
Claros, MG, Brasil

Resumo. Este experimento investigou o potencial da aplicação de uma rede neural artificial
(Multilayer Perceptron) para a classificação de perfis de passageiros no setor aéreo
brasileiro, mais precisamente na conexão do par de aeroportos mais relevante em várias
métricas do país. A partir de uma revisão bibliográfica sobre o assunto, foram elencados dois
perfis distintos de passageiros, cada um com características específicas, em relação ao seu
comportamento de consumo. Após alguns ajustes e testes na ligação escolhida, foi
estabelecida uma arquitetura e parametrização satisfatórias para a classificação dos
passageiros com dados variáveis que podem ser adquiridos pelas empresas aéreas no
momento da compra da passagem. O resultado dos experimentos revelou-se muito promissor,
o que possibilitaria a futura aplicação desse método pela indústria aérea.

Palavras-Chave: Planejamento Aéreo, Segmentação de Demanda Aérea, Gerenciamento de


Receita, Rede Neural Artificial

1. INTRODUÇÃO

Independentemente do mercado de negócios de uma empresa, torna-se importante


identificar os motivos pelos quais um consumidor adquire um produto ou serviço, não apenas
do ponto de vista das estratégias de marketing, fidelização do mesmo ou experiência do
consumo. Esses fatores são relevantes, mas entender os motivos que o levaram a tomar a
decisão de consumo está intrinsecamente ligado ao planejamento da produção e das operações
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro 2020

135
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

da empresa. Já que a determinação dos custos de produção que garantem a sustentabilidade


das operações é relativa às receitas esperadas; portanto, entender o comportamento da
demanda é um ponto chave na projeção de receita. Os diferentes padrões e razões pelas quais
eles foram levados ao consumo, estabelecem a relação de valor para o cliente e o preço pelo
qual está disposto a pagar.
No contexto de uma companhia aérea, a área de planejamento responsável por esse
processo é chamada de Revenue Management. E o entendimento clássico do gerenciamento
de receita pode ser simplificado em três linhas amplas para melhor entendimento, a saber:
demanda (passageiros), oferta (assentos) e preço, que é a relação entre demanda e oferta.
Segundo Reyes (2006), estabelecer a maior receita possível para um determinado voo é o
resultado do equilíbrio desse relacionamento.
Segundo Talluri e van Ryzin (2004), o gerenciamento de receita difere-se do simples
gerenciamento do inventário de assentos de uma aeronave em um voo. Esses autores veem em
uma constituição conceitual que precisa entender alguns aspectos, como a natureza
multidimensional da demanda em dimensões como locais, canais de aquisição de serviços e
adiantamentos; a ligação entre efeitos não diretos das decisões relacionadas ao gerenciamento
da demanda; condições favoráveis à implementação da gestão e compreensão da
heterogeneidade da demanda; a necessidade de tornar o serviço mais flexível, o preço cobrado
como sinal de qualidade e o monitoramento constante de dados e informações do setor.
Portanto, o gerenciamento de receita é visto para eles como o gerenciamento de valor do
produto.
Conforme Kayser (2008), o Revenue Management, na prática, para que seja eficaz,
precisa de uma previsão da demanda por esses dois conjuntos diferentes de passageiros:
negócios e lazer. Os viajantes a negócios são caracterizados por compras próximas à partida,
com notável sensibilidade ao horário e à frequência dos voos, tendendo à aversão à maioria
das restrições tarifárias e à propensão de pagar por tarifas mais altas. Por outro lado, os
passageiros a lazer geralmente planejam com antecedência e podem comprar bilhetes no
início do período de vendas de reservas, não são sensíveis à programação ou à frequência do
voo e não são tão sensíveis às restrições tarifárias e, portanto, estão propensos a comprar
bilhetes com preços mais baixos. Assim, todo o processo de segmentação e precificação de
tarifas será em torno de subconjuntos derivados desses dois conjuntos majoritários, que
determinam a captura de receita diretamente por meio de seu comportamento. Embora o
gerenciamento de receita às vezes possa ser confuso entre viajantes a lazer e a negócios, eles
desempenharam um papel importante na alocação e sustentabilidade financeira das
companhias aéreas em todo o mundo.
Sendo que a importância em identificar o motivo da viagem está diretamente associada ao
preço que um passageiro está disposto a pagar pelo serviço de transporte aéreo. Logo, o
motivo da viagem implica padrões de consumo muito complexos para a elaboração de algum
modelo matemático convencional, que os interpreta e resulta na identificação objetiva do
motivo da viagem.
A rede neural artificial é uma técnica computacional que apresenta um modelo inspirado
na estrutura neural natural que simula a capacidade do cérebro humano de adaptar ou
aprender, generalizar, agrupar e organizar dados. Que estão incluídos em unidades simples e
adaptáveis chamadas neurônios. O modelo de rede artificial usado neste trabalho é do tipo
MLP (MultilayerPerceptron). A MLP é uma generalização do perceptron, sendo constituída
de uma camada de entrada, uma ou mais camadas ocultas de nós computacionais e uma
camada de saída. Nesse tipo de rede, cada uma das camadas tem funções específicas. Assim,
cada neurônio computa uma soma ponderada de suas entradas e passa essa soma na forma de
uma função não-linear limitada. Em nível de mesoestrutura, tem-se duas ou mais camadas
com conexão feedforward (Vieira & Bauchspiess, 1999). De acordo com Duarte (2009),
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

136
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

adicionando-se uma ou mais camadas intermediárias (ocultas), aumenta-se o poder


computacional de processamento não-linear e armazenagem da rede.
Assim, este trabalho tem como objetivo avaliar a eficiência do uso de Redes Neurais
Artificiais do tipo MLP para a classificação do tipo de viagem aérea realizada pelos
passageiros. Para isso, utilizou se dados reais de uma Pesquisa de Origem e Destino do
Transporte Aéreo de Passageiros de 2014, onde também se incluíam dados relativos ao
motivo da viagem dos indivíduos.

2. MATERIAIS E MÉTODOS
A Pesquisa de Origem e Destino do Transporte Aéreo de Passageiros, foi realizada em
2014, e teve como principal objetivo aprimorar, complementar e detalhar o sistema de
informações da Aviação Civil no Brasil. Sendo realizada em quatro etapas distintas, coletou
informações em mais da metade dos aeroportos que operavam voos regulares no Brasil em
2012. Registra-se que, em termos de fluxo de passageiros, esse grupo de aeroportos
correspondia quase que pela totalidade do número total de passageiros embarcados naquele
ano. Segundo a Empresa Brasileira de Logística (2014) a pesquisa subsidiou informações
coletadas, que foram utilizadas como base para o estudo do comportamento atual e futuro do
transporte aéreo.

2.1. Dados utilizados


Os dados utilizados para este experimento foram coletados em 2014 pela “Pesquisa de
Origem e Destino do Transporte Aéreo de Passageiros. Para viabilizar o experimento, foram
utilizados os registros de passageiros que voavam entre o par dos aeroportos: Aeroporto de
Congonhas, localizado na cidade de São Paulo, e Aeroporto Santos Dumont, localizado na
cidade do Rio de Janeiro. Segundo a Agência Nacional de Aviação Civil (2014), essa foi a
principal rota doméstica aérea do país, tanto em número de operações quanto em passageiros
transportados. Dos 1.937 entrevistados para esta rota, 1.036 foram selecionados por
fornecerem informações suficientes para a condução do experimento. Das sete perguntas
selecionadas, uma é o motivo da viagem, as outras perguntas são relativas ao voo selecionado,
se tem ou não uma conexão, data e horário do voo, antecedência da compra e preço pago pelo
bilhete. Para o motivo da viagem entre as seis respostas possíveis, foram organizados dois
grupos que correspondem a viagens a negócios ou a lazer, como é mostrado na Figura 1.

Figura 1- Motivos específicos da viagem e perfil do passageiro.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

137
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

As perguntas realizadas na pesquisa e os dados correspondentes às variáveis de entrada


são apresentados na Tabela 1.

Tabela 1: Variáveis de entrada

Pergunta (Variável)

Com que antecedência adquiriu a passagem aérea?


Quanto custou a passagem aérea deste trecho da viagem (só um trecho, individual,
incluindo taxa de embarque - em R$)?
Quantas escalas até o destino?

Dia da semana

Horário de partida do voo

Mês da partida do voo

2.2. Análise dos Dados


Antes do experimento, os dados foram analisados, para verificar se o seu comportamento
se assemelhava com o descrito na revisão literária, presente na introdução deste artigo. O
primeiro passo foi analisar se os dados de antecedência da compra e o preço do bilhete tinham
uma relação mínima com o motivo da viagem. O gráfico apresentado na Figura 2 permite
analisar essa relação:

Figura 2 - Motivos específicos da viagem e perfil do passageiro.

O motivo da viagem corresponde ao valor de saída da rede, onde foi utilizada a seguinte
codificação binária; para negócios e para lazer. O comportamento de consumo
desses grupos de passageiros descrito na literatura pode ser observado no gráfico elaborado
com os dados selecionados na pesquisa. Outro ponto importante no comportamento da
demanda descrito na literatura, que caracteriza passageiros de negócios é a preferência
sensibilidade notável ao horário e à frequência dos voos. A Figura 3 mostra o gráfico de
preferência dos passageiros viajando a negócio.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

138
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Figura 3 –Preferência dos passageiros viajando a Negócio.

Este perfil de passageiros viajando a negócios é caracterizado por uma maior preferência
de voos com partidas programadas às 7:00 e 18:00, representados pelos picos observados na
Figura 3. Por outro lado, os passageiros a lazer não são tão sensíveis à programação ou à
frequência do voo, como pode ser visto no gráfico apresentado na Figura 4.

Figura 4 –Preferência dos passageiros viajando a Lazer.

Na Figura 4 pode ser observada a dispersão na distribuição dos passageiros a lazer por
voos em horários intermediários àqueles preferidos por viajantes a negócios.

2.3. Topologia da Rede Neural Artificial


A rede MLP utilizada neste trabalho foi implementada no software Python 3.7 com o
pacote Sklearn. Todas as execuções foram feitas em um notebook DELL I15-5566-A50P com
um processador Intel Core i7-7500U 2.90GHz com 8GB de RAM no sistema operacional
Windows 10 64bits. A arquitetura da MLP é formada por seis entradas, três camadas
escondidas com três neurônios em cada uma delas e uma saída. A Figura 5 mostra a
arquitetura da rede MLP.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

139
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Entradas Camadas escondidas Saída

Figura 5 – Arquitetura da Rede Neural Artificial Utilizada.

A função de ativação utilizada nos neurônios da MLP foi a tangente hiperbólica. A


tangente hiperbólica é definida pela equação (1):

(1)

onde é a função sigmóidal definida pela equação (2):

(2)

A rede utilizou uma taxa de aprendizagem inicial de 0,01 adaptável que a cada duas
épocas consecutivas sem variação tolerável no erro dividia a taxa de aprendizagem por 5.
Tolerância da variação do erro de , por 1.000 épocas consecutivas. O número máximo de
iterações suportado pelo algoritmo é 10.000 épocas. Outro ponto importante foi a necessidade
de normalização dos valores assumidos por a uma escala entre 0 e 1. Já que os intervalos
de valores assumidos pelas variáveis de entrada, onde , eram discrepantes entre si,
conforme mostrado na Tabela 2.

Tabela 2: Intervalo dos valores assumidos por

Intervalo

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

140
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Para a normalização dos dados, utilizou-se do método min-máx onde o valor


normalizado de cada membro do conjunto é dado pela seguinte formula da equação (3):

(3)

onde min e max são respectivamente o menor e o maior valor do intervalo de .

Para avaliar a capacidade de treinamento da rede, os dados foram selecionados


aleatoriamente com 70% de probabilidade de serem utilizados para treinamento e 30% de
probabilidade de serem utilizados para teste. O pseudocódigo da rede MLP é apresentado na
Figura 6:

Algoritmo 1: pseudocódigo da rede MLP


1. Rede_MLP()
2. Carregardados
3. dados_treinamento = dados 0.7
4. dados_teste = dados 0.3
5. taxa_aprendizagem = 0.01
6. épocas = 0
7. Enquanto alteração ≤ 1000 outolerância_erro faça:
8. forward(dados_treinamento)
9. backward(taxa_aprendizagem)
10. épocas =+ 1
11. fim enquanto
12. testar_rede(dados_teste)
13. Fim

Figura 6 –Pseudocódigo da Rede MLP.

2.4. Métricas de avaliação da classificação

Os resultados da classificação realizada pela rede MLP foram avaliados levando em conta
os valores da Acurácia, Precisão, Recall e F1-score. A Acurácia tem como objetivo identificar
o percentual de amostras classificadas corretamente, e é calculada a partir da soma do número
de verdadeiros positivos e verdadeiros negativos, dividido pelo total de dados da amostra. A
Precisão é uma medida de quão exata foi a classificação. Ela tem como objetivo identificar a
taxa de amostras que foram classificadas como positivas que são realmente positivas. O
Recall é a medida de quão correta foi a predição para a classe. Ele tem como objetivo
identificar a taxa de amostras positivas que foram classificadas como positivas. O F1-score é
a média harmônica entre a precisão e o recall. A adoção dessas métricas permite uma melhor
compreensão dos resultados do experimento além do entendimento de quão acurada a rede foi
em classificar os dados.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

141
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

3. RESULTADOS
Nesta seção são apresentados os resultados da classificação do tipo de viagem realizada
pelos passageiros utilizando a rede MLP. A classificação foi avaliada levando em conta a
Acurácia, Precisão, Recall e F1-score. Para a validação do experimento foram realizadas dez
execuções do classificador. A Figura 6 apresenta um box-plot com a distribuição dos
resultados obtidos com para a Acurácia.

Figura 6 –Box-plot dos resultados de acurácia.

Observando-se a Figura 6, nota-se que foi obtida uma Acurácia média de 70% para as
execuções. A Figura 7 apresenta um box-plot com a distribuição dos resultados da precisão,
recall e score para as classes Negócios e Lazer.

Figura 7 –Box-plot’sdos resultados das métricas de qualidade, por tipo de passageiro.

Pode ser observado na Figura 7 que a rede MLP obteve um resultado melhor na
classificação de passageiros viajando a negócios do que a lazer. Para viajantes a negócios, a
precisão média foi de 75%, contra uma precisão média de 74% para viajantes a lazer. Em
ambas as figuras foi possível constatar a maior aptidão da rede MLP em classificar
passageiros a negócios, podendo se considerar certa simetria na distribuição dos valores de
recall para as duas classes, e consequentemente um melhor desempenho do score para a
classe de Negócios.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

142
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

4. CONCLUSÕES
Este trabalho teve como objetivo avaliar a eficiência do uso de Redes Neurais Artificiais
do tipo MLP para a classificação do tipo de viagem aérea realizada pelos passageiros. Durante
as execuções da rede MLP foi obtida uma Acurácia média de 70%. A rede MLP obteve um
resultado melhor na classificação de passageiros viajando a negócios do que a lazer. Para
viajantes a negócios, a precisão média foi de 75%, contra uma precisão média de 64% para
viajantes a lazer. Os resultados iniciais obtidos com esse trabalho para a classificação do tipo
de passageiro são promissores. Em um serviço essencialmente ofertado para massas, como é o
caso da indústria de transporte aéreo, a identificação do motivo pelo qual um determinado
cliente está adquirindo aquele serviço fornecido simplesmente com base no seu
comportamento de aquisição, pode vir a ser uma vantagem estratégica considerável para o
prestador de serviço que detém o uso dessa tecnologia. Em termos práticos, essa informação
quando usada para a precificação do serviço pode fazer com que o preço cobrado seja mais
próximo do preço máximo ao qual o passageiro está disposto a pagar por aquela viagem.
Outro ponto é que a percepção da qualidade do serviço ofertado pode ser melhorada, com
base nas expectativas de cada um desses grupos para aquele serviço.
Sugere-se para trabalhos futuros o emprego de redes neurais artificiais em um universo
maior de voos e consequentemente de passageiros, além da adoção de mais variáveis de
entrada, que possam contribuir na melhoria da acurácia dos resultados já obtidos nesse
trabalho, além de comparações com outros métodos de classificação de dados.

REFERÊNCIAS

ANAC. (2012). Agência Nacional de Aviação Civil. Anuário do Transporte Aéreo. Brasília, DF, Brasil.
Bittencourt, G. (1998). Inteligência artificial - Ferramentas e Teorias. Universidade Federal de Santa Catarina.
Braga, A. P., Carvalho, A. P., & Ludermir, T. B. (2000). Redes Neurais Artificiais: Teoria e Aplicações. Rio de
Janeiro, RJ: LTC – Livros Técnicos e. Científicos Editora S.A.
Buitinck, L., Louppe, G., Blondel, M., Pedregosa, F., Mueller, A., Grisel, O., . . . Varoquaux, G. (2013). API
design for machine learning software: experiences from the scikit-learn. ECML PKDD Workshop:
Languages for Data Mining and Machine Learning, 108-22.
Duarte,, V. R. (2009). MP-Draughts - Um Sistema Multiagente de Aprendizagem Automática para Damas
Baseado em Redes Neurais de Kohonen e Perceptron Multicamadas. Uberlândia, MG, Brasil:
Dissertação de Mestrado, Universidade Federal de Uberlândia.
EPL, Empresa de Planejamento e Logística. (2014). Pesquisa de Origem/Destino do Transporte Aéreo de
Passageiros. Brasília, DF.: Relatório Técnico.
Haykin, S. (1994). Neural Networks: A Comprehensive Foundation. Macmillan College Publishing.
Kayser., M. R. (2008). RM Methods for Multiple Fare Structure Environments. Dissertação (Master of Science
Department of Civil and Environmental Engineering, Massachusetts Institute of Technologies.
Cambridge, MA.
Lai-Ying, L., Teck-Soon, H., Voon-Hsien, L., & Keng-Boon, O. (2015). An SEM–artificial-neural-network
analysis of the relationships between SERVPERF, customer satisfaction and loyalty among low-cost
and full-service airline. Expert Systems with Applications, Vol. 42, N.19, pp. 6620-6634.
Otwell, K., Hormby, S. S., & Hutchison, W. (1994). A Large-Scale Neural Network Application for Airline Seat
Allocation. International Neural Network Society Annual Meeting, Vol.1, pp. 145-150.
Reyes, H. M. (2006). Hybrid Forecasting for Airline Revenue Management in Semi-Restricted Fare Structures.
Dissertação (Master of Science). Department of Civil and Environmental Engineering, Massachusetts
Institute of Technologies. Cambridge, MA.
Slack, N., Chambers, S., Johnston, R., & Betts, A. (2008). Operations and Process Management. London, UK:
FT Prentice-Hall.
Talluri, K. G., & van Ryzin, G. (2004). The Theory and Practice of Revenue Management. Dordrect,
Netherlands: Kluwer Academic. Publishers.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

143
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas – TO

Vieira, Z. P., & Bauchspiess, A. (1999). Implementação do Servocontrole Auto-Sintonizado em Tempo-Real


Utilizando Rede Perceptron Multicamadas. IV Congresso Brasileiro de Redes Neurais, pp. 308-313.
Weatherford, L., Gentry, T., & Wilamowski, B. (2003). Neural network forecasting for airlines: A comparative
analysis. Journal of Revenue and Pricing Management, Vol. 1, 319-331.

AIRLINES DOMESTIC PASSENGERS CLASSIFICATION USING ARTIFICIAL


NEURAL NETWORKS OF THE TYPE MLP

Abstract. This experiment investigated the potential of applying an artificial neural network
(Multilayer Perceptron) for the classification of passenger profiles within the Brazilian
airline industry, more precisely on the connection of the most relevant airport pair in several
metrics in the country. From a bibliographical review on the subject it was listed two different
passenger profiles each with specific characteristics, in relation to their consumption
behavior. After some adjustments and tests on the chosen network, a satisfactory topology
and parameterization was established for the classification of the passengers with variable
data that can be acquired by the airlines at the time of ticket purchase. The result of the
experiments turned out to be very promising, which would enable the future application of
this method by airline industry.

Keywords: Airline Planning, Airline Demand Segmentation, Revenue Management, Artificial


Neural Network

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30Outubro2020

144
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DAS CONFIGURAÇÕES DE TROCA TÉRMICA NO PROCESSO DE


DESIDRATAÇÃO DE ETANOL EM REATOR DE LEITO FIXO

Hiago Vieira de Miranda1 – hiago_vm@hotmail.com


Fabrício Thiengo Vieira2 – thiengovieira@gmail.com
Julio Cesar Sampaio Dutra2 – juliosdutra@yahoo.com.br
1
Mestre em Engenharia Química
2
Universidade Federal do Espírito Santo, Centro de Ciências Agrárias e Engenharias – Alegre, ES,
Brazil

Resumo. Etileno é um dos monômeros mais utilizados na produção de petroquímicos. Por


conta da crise do petróleo nos anos 70, a expansão de novas rotas de obtenção de etileno foi
necessária, e processos anteriormente pouco explorados industrialmente começaram a serem
explorados, em particular o processo de desidratação catalítica do etanol em reator de leito
fixo. A principal vantagem desse processo recai em questões ambientais, principalmente
quanto à emissão de gases responsáveis pelo efeito estufa, ao contrário de processos
convencionais, como o craqueamento de nafta. Para processos em reator de leito fixo, a
necessidade de promover a troca térmica adequada pode ser um desafio, uma vez que o
controle de temperature pode resultar em sérios problemas operacionais, como terminação
da reação, baixa conversão ou favorecimento de reações secundárias. Nesse context, esse
trabalho tem como objetivo a simulação da desidratação catalítica de etanol a etileno em
reator de leito fixo utilizando o método da colocação ortogonal para solução do modelo e a
verificação do efeito do sentido da troca térmica (cocorrente e contracorrente). Os resultados
mostraram que a configuração contracorrente promoveu maior conversão de etanol a etileno
sob as condições operacionais avaliadas.

Palavras chave: reator de leito fixo, desidratação do etanol, etileno, colocação ortogonal,
troca térmica.

1. INTRODUÇÃO

O eteno é um monômero utilizado na produção de cerca de 75% dos produtos


petroquímicos, tais como polietileno de alta e baixa densidade, policloreto de vinila (PVC),
polietileno tereftalato (PET), poliésteres, entre outros (ZHANG; YU, 2013). Os processos
industriais para produção de eteno se baseavam fortemente no craqueamento de frações do
petróleo e gás natural na década de 1960. Contudo, devido à crise do petróleo de 1973,
processos até então pouco explorados industrialmente passaram a ser estudados, entre eles a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

145
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

produção de eteno pela desidratação catalítica de biomassa, principalmente o etanol, em


reatores de leito fixo (LIMA et al., 2012; FAN et al., 2013).
De acordo com Zhang e Yu (2013), até então 99% da produção mundial de eteno era via
craqueamento térmico de hidrocarbonetos. Contudo, atualmente muitos estudos têm sido
realizados sobre a desidratação catalítica de etanol, e novas plantas industriais têm sido
construídas. Pelo fato da demanda de eteno ser muito grande, torna-se importante a
exploração de novas fontes de obtenção dessa olefina (LIMA et al., 2012; FAN et al., 2013).
A produção de eteno via desidratação de etanol tem como principal vantagem a questão
ambiental, principalmente devido à diminuição das emissões de gases de efeito estufa.
Enquanto o processo convencional a partir do craqueamento de nafta é responsável pela
emissão de milhões de toneladas de CO2 por ano na atmosfera, a reação de desidratação do
etanol tem como produtos somente água e substâncias de interesse econômico. Além disso, o
bioetanol utilizado como reagente, oriundo da fermentação da glicose de biomassa, auxilia na
diminuição de CO2 na atmosfera. O gás é fixado nas plantas por fotossíntese, podendo ser
futuramente transformado em bioetanol, que por sua vez é convertido em eteno, o qual é
posteriormente polimerizado (HUBER et al., 2006, DA ROS, 2012).
A reação para a desidratação do etanol é endotérmica e ocorre por meio da remoção
de uma molécula de água do etanol (desidratação intramolecular), tendo como produtos uma
molécula de eteno e uma de água (CHOOPUN; JITKARNKA, 2016). A reação de
desidratação do etanol com formação de éter etílico (desidratação intermolecular) é a
principal concorrente da reação que leva à formação de eteno, sendo uma reação exotérmica
(PHUNG et al., 2015).
Reatores catalíticos de leito fixo, utilizados nesse processo são empregados em uma
grande parcela dos processos catalíticos industriais em fase gasosa, apresentando grande
relevância nas indústrias químicas e petroquímicas, devido à importância econômica e às
grandes quantidades dos produtos neles gerados. (TOLEDO et al., 2011).
Neste trabalho, a reação de interesse é endotérmica, e segundo Froment, Bischoff e De
Wilde (2011), a queda de temperatura no reator pode levar à extinção da reação antes de se
alcançar a conversão desejada ou ao favorecimento de uma reação secundária de menor
interesse. Nesse sentido, as configurações de troca térmica exercem grande importância sobre
o andamento do processo.

2. MATERIAIS E MÉTODOS

2.1 Modelo cinético

De acordo com Kagyrmanova et al. (2011), os principais produtos da desidratação de


etanol, na presença de catalisador a base de alumina, são eteno, éter etílico, etanal, hidrogênio
e buteno. Desse modo, as reações consideradas para o processo de desidratação de etanol
neste trabalho foram dispostas, juntamente às suas variações de entalpia padrão, nas Equações
1 a 5, respectivamente.

(1)
(2)
(3)
(4)
(5)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

146
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Os modelos cinéticos utilizados se baseiam na lei da ação das massas. A velocidade


específica de reação é uma função exponencial da temperatura (do tipo lei de Arrhenius) e a
constante 𝐾𝐶𝑗 está relacionada com a constante termodinâmica de equilíbrio químico, 𝐾𝑗,
conforme as Equações 5 e 6.

𝐾𝐶𝑗 = 𝐾𝑗𝐶°𝐷𝑂 (5)


𝑘𝑗,𝐷 = 𝑘0𝑗,𝐷𝑇𝑂𝐷𝑒-𝐸𝑎𝑗,𝐷/𝑅𝑇𝐶𝑐𝑎𝑡 (6)

em que 𝐶° é a concentração do gás ideal nas condições padrão (1 atm e 25ºC), 𝑂𝐷 é


a ordem da reação direta, 𝑘0𝑗,𝐷 é o fator pré-exponencial da reação, 𝐸𝑎 é a energia de
ativação da reação, 𝐶𝑐𝑎𝑡 é a concentração mássica do catalisador e 𝐷𝑂 é a diferença entre a
ordem de reação reversa e a ordem direta.

2.2 Modelo do Reator

Para a análise e simulação foi utilizada uma adaptação do modelo pseudo-homogêneo


unidimensional com dispersão axial proposto por Schwaab et al. (2009), que foi descrito para
o processo industrial de reforma a vapor de metano em leito fixo. As adaptações foram
realizadas com base na estrutura do modelo de Maia (2015).
Pela simplicidade e menor esforço para a implementação computacional do modelo,
foi realizada a simulação de um modelo unidimensional, considerando também a
dispersão na direção axial, com o Péclet mássico entre 80 e 100. Contudo, para aumentar o
nível de detalhamento do modelo, o efeito difusivo foi mantido no equacionamento.
As Equações 7 a 9 descrevem o balanço de massa por componente; a equação do fluxo
molar por componente; o balanço de energia para o reator, e; a equação para a massa
específica do gás.

Balanço de Massa por Componente:


(7)

Balanço de Energia:

(8)

Equação para a massa específica do gás:

(9)

em que 𝐶𝑖 é a concentração molar do componente, 𝐹𝑖 é o fluxo molar do componente, 𝐷𝑀 é o


coeficiente efetivo de difusão mássica na direção radial no leito fixo, 𝑣𝑖,𝑗 é o coeficiente
estequiométrico da espécie i na reação química j, 𝐶𝑝𝑠 é a capacidade calorífica do sólido à
pressão constante, 𝐶𝑃,𝑀 é a capacidade calorífica da mistura à pressão constante, 𝑣𝑓 é a

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

147
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

velocidade da mistura reacional na direção axial, 𝑘𝐻 é o coeficiente efetivo de condutividade


térmica e 𝑀 é a massa molar da mistura.
Para a obtenção do modelo foi considerado: coeficiente efetivo de difusão mássica, e de
condutividade térmica constantes; gás ideal; solução ideal; fluido newtoniano; dissipação de
calor pelas forças viscosas desprezíveis; atividade do catalisador constante e fração de vazios
do leito (𝜀) uniforme. As condições iniciais do modelo são dadas pela Equação 10, em que o
índice 0 representa o valor inicial da variável.

(10)

As condições de contorno de Danckwerts para o balanço de massa por


componente são apresentadas na Equação 11 e para o balanço de energia
na Equação 12.

(11)

(12)

em que 𝐶𝑖𝑓(𝑡) é a concentração da espécie i na alimentação e 𝑇𝑓(𝑡) é a temperatura na


alimentação. As condições de contorno na entrada do reator indicam que ocorrem os
processos de transporte de advecção e dispersão axial, resultando em condições de contorno
do terceiro tipo (condições de Robin). Na saída do reator, as condições de contorno são do
segundo tipo (condições de Neumann).
Para a temperatura da camisa ao redor do reator foi considerada uma corrente de fluido
térmico ao redor do reator, que entra com uma determinada temperatura de alimentação e tem
sua temperatura variando ao longo do eixo axial. A simulação do processo foi realizada
considerando as configurações de fluido aquecedor com fluxo com correntes paralelas e em
contracorrente. A Equação 13 corresponde ao balanço de energia para o fluido térmico para a
configuração em correntes paralelas. Para a configuração contracorrente difere apenas o
primeiro termo após a igualdade, que é simétrico ao apresentado na Equação.

Balanço de Energia do Fluido Térmico (Correntes Paralelas):

(13)

em que 𝑣𝑣 é a velocidade axial de escoamento do fluido térmico, 𝑈 é o coeficiente de troca


térmica do fluido térmico, 𝜌𝑣 é a massa específica do fluido térmico e 𝐶𝑝𝑣 é a capacidade

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

148
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

calorífica do fluido térmico. As condições de contorno para a temperatura do fluido térmico


para as configurações correntes paralelas e contracorrente são dadas pela Equação 14.

(14)

em que 𝑇𝑣,𝑓 é a temperatura de alimentação do fluido térmico.


Para o cálculo da capacidade calorífica e entalpia de reação foram utilizadas as equações
descritas no trabalho de Miranda (2017). A fração de vazios do leito (𝜀) foi calculada por
meio da equação empírica de Haugley e Beveridge (FROMENT; BISCHOFF, 1990 apud
MAIA, 2015), conforme a Equação 15.

(15)

em que 𝐷𝑝 é o diâmetro equivalente de uma partícula de catalisador (Equação 16), obtido com
base no diâmetro de uma esfera perfeita com o mesmo volume da partícula de catalisador,
𝑉𝑐𝑎𝑡.
(16)

em que 𝑑𝑐𝑎𝑡 é o diâmetro do catalisador e 𝐿𝑐𝑎𝑡 é o comprimento da partícula de catalisador.


Os coeficientes efetivos de difusão mássica e de condutividade térmica para gases
escoando em leitos porosos foram obtidos por meio das expressões semi-empíricas da
Equação 17 (MAIA, 2015).

(17)

em que 𝐷0𝑀 é o fator de difusividade mássica efetiva (m².Pa.s-1.K-3/2) e 𝑘0𝐻 é o fator


efetivo de condutividade térmica (W.m.K-3/2).

2.3 Adimensionamento do modelo

Antes de proceder com a solução numérica das equações, foi necessário realizar o
adimensionamento do modelo matemático, a fim de viabilizar a correta implementação da
técnica da colocação ortogonal (RICE; DO, 1995), aplicada de modo que as raízes do
polinômio ortogonal estejam no intervalo de 0 a 1.

2.4 Simulação do processo

Após o adimensionamento das equações do modelo, foi realizada a discretização do


mesmo pela técnica da colocação ortogonal e a integração ao longo do tempo por meio da
aplicação do Método das Linhas. Este método consiste em discretizar as derivadas parciais no
espaço (pelo método da colocação ortogonal), para então resolver o sistema de equações
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

149
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

diferenciais temporais resultantes por meio de uma ferramenta de solução numérica (LANA,
2011).
A simulação do processo foi realizada no software MATLAB, em um computador com
processador Intel Core i5-5200U 2,20 GHz, memória RAM 8 GB e sistema operacional
Windows10 64 bits. O modelo foi resolvido para diferentes quantidades de pontos de
colocação interiores e, então, foi avaliado a partir de qual número de pontos de colocação a
solução do modelo passa a convergir, isto é, o grau de refinamento da malha espacial a partir
do qual o aumento de precisão da solução não é significante. Os pontos de colocação para a
aplicação da técnica de colocação ortogonal foram determinados pelas raízes do polinômio
ortogonal de Legendre.

2.4 Convergência da malha

Ao promover a discretização de um eixo espacial contínuo, quanto maior for o número


de pontos no domínio, menor é o erro entre a solução aproximada obtida pelo método
numérico e a solução analítica do problema. Contudo, cada ponto considerado para a solução
do sistema resulta em uma equação diferencial adicional, que deve ser integrada ao longo do
tempo de simulação. Logo, ao aumentar a acurácia da solução pela utilização de um número
maior de pontos de discretização, há um inerente aumento do custo computacional para a
solução do problema.
Neste contexto, torna-se usual encontrar uma quantidade mínima de pontos de
discretização que garanta uma solução precisa e viável do modelo matemático, com um custo
computacional reduzido. Para isso, um estudo de convergência de malha foi proposto. Como
no problema em estudo, uma solução analítica para o modelo matemático não se encontra
disponível, a convergência foi obtida por um critério quantitativo.
Foi empregado o erro relativo percentual máximo entre malhas com diferentes pontos de
colocação. Dessa forma, as soluções obtidas para o problema com números menores de
pontos de colocação foram comparadas com a solução alcançada ao se utilizar uma malha
mais refinada. A Equação 18 compreende a relação matemática utilizada para essa análise,
conforme proposta por Maia (2015).

(18)

em que é o máximo percentual de erro relativo entre as malhas para a variável de


estado , é a variável de estado adimensional obtida com a malha mais refinada e éa
variável de estado adimensional obtida com a malha com N pontos de colocação.

3. RESULTADOS E DISUSSÃO

3.1 Convergência de malha

A análise da convergência de malha foi realizada por meio dos perfis de temperatura
estacionários. A malha mais refinada continha 20 pontos de colocação internos e, portanto, 22
pontos no total, incluindo as condições de contorno. Foi estipulado que o erro percentual
máximo não deveria ser maior que 0,5% em relação à malha mais refinada.
Para a configuração de troca térmica com correntes paralelas, definiu-se 15 pontos de
colocação internos nas simulações numéricas. Na configuração em contracorrente, o erro
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

150
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

máximo já é menor que 0,5% com um número de pontos de colocação maior que oito.
Entretanto, para manter um padrão na quantidade de pontos de colocação, foi determinado o
uso de 15 pontos internos para ambas as configurações.

3.2 Perfis estacionários

Os perfis estacionários de temperatura do reator e do fluido térmico de aquecimento estão


dispostos nas Figuras 1 e 2. Ao se observar os perfis de temperatura, deve-se levar em conta a
direção dos fluxos ao longo do eixo axial. Pelos perfis de temperatura apresentados, em
ambas as configurações, a mistura reacional dentro do reator se move da esquerda para a
direita, assim como o fluido térmico na configuração com correntes paralelas. Já na
configuração contracorrente, a direção do fluido térmico é da direita para a esquerda.
Apesar de a temperatura de alimentação da mistura reacional ser a mesma para ambos os
sistemas em estudo, a temperatura no início do reator difere nos perfis de temperatura
estacionários. Isso ocorre devido aos efeitos de dispersão da condição de contorno na entrada
do reator, além das mudanças na temperatura até atingir o estado estacionário.
Na configuração com correntes paralelas, a temperatura na entrada do reator sofre um
aumento repentino de 6ºC, evidenciando a prevalência de uma reação exotérmica dentro do
reator, com liberação de calor. De acordo com as reações consideradas na simulação, pode-se
inferir que a reação que ocorre com maior predominância nessa região é a desidratação de
etanol para formação de éter etílico. A partir dessa posição, passa a se observar uma queda
permanente na temperatura até alcançar 356ºC na saída do reator.
A diminuição da temperatura ao longo do perfil axial do reator é característica da
preponderância de reações endotérmicas, que consomem a energia alimentada ao sistema.
Logo, é possível concluir que as reações endotérmicas de desidratação de etanol para
formação de eteno e desidratação de éter etílico para geração de eteno passam a ser
predominantes ao longo de todo o restante do comprimento do reator. Também é possível
observar que em torno da posição de 0,5 m do eixo axial, as temperaturas do reator e do fluido
térmico passam a entrar em equilíbrio, mantendo-se iguais até a saída.
Para a configuração de troca térmica em contracorrente (Figura 2), observa-se na região
inicial uma brusca queda da temperatura, principalmente devido à corrente de fluido térmico
que está consideravelmente mais fria do que a temperatura de alimentação do reator.

440 440

430 430

420 420
Reator Reator
Fluido Térmico Fluido Térmico
410 410
Temperatura (ºC)
Temperatura (ºC)

400 400

390 390

380 380

370 370

360 360

350 350

340 340
0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2
Comprimento do reator (m) Comprimento do reator (m)

Figura 1 - Perfis estacionários de temperatura Figura 2 - Perfis estacionários de temperatura


configuração correntes paralelas. configuração contracorrente.

Além disso, a menor temperatura no início do reator é um indicativo de que reações


endotérmicas estão ocorrendo na região, consumindo o calor transferido pela corrente de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

151
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

fluido térmico. A partir do entorno da posição de 0,1 m, a temperatura do reator passa a


aumentar constantemente, à medida que recebe calor proveniente da corrente de aquecimento,
que, por sua vez, apresenta maiores temperaturas ao passo que se aproxima da saída do reator.
Os perfis estacionários de percentuais molares em base seca das principais espécies
químicas envolvidas no processo estão apresentados nas Figuras 3 e 4, para as configurações
com correntes paralelas e contracorrente, respectivamente.
100 100

90 90

80 80
Percentual Molar (%)

Percentual Molar (%)


70 70
Etanol Etanol
Eteno Eteno
60 60
Éter Éter
50 50

40 40

30 30

20 20

10 10

0 0
0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2
Comprimento (m) Comprimento (m)

Figura 3 - Perfis estacionários de percentuais Figura 4 - Perfis estacionários de percentuais


molares em base seca - correntes paralelas. molares em base seca – contracorrente.

Nas Figuras 5 e 6, estão apresentados os perfis axiais estacionários de conversão de


etanol e de rendimento percentual de eteno e éter etílico. Pela curva de conversão de etanol,
na Figura 5, é possível observar que a conversão na configuração com correntes paralelas
ocorre principalmente nos primeiros 30% do eixo axial do reator. A partir dessa posição, a
conversão aumenta apenas em pequenas proporções. Pelas curvas de rendimento, é possível
inferir que o etanol sofre processos de desidratação para formar eteno e éter etílico.
Além disso, o rendimento do éter é inicialmente maior que o de eteno. Em geral, esse
comportamento é observado devido à influência das energias de ativação. Kagyrmanova et al.
(2011) obtiveram para a reação que forma éter etílico (101 kJ/mol), menor do que a da reação
que gera eteno (147,7 kJ/mol), o que decorre na maior formação inicial de éter etílico.
Contudo, a concentração de eteno passa a aumentar continuamente (Figura 3), com o mesmo
sendo formado em grandes quantidades na entrada do reator e mais lentamente após a posição
de 0,4 m. A concentração de éter etílico chega a 2,8 mol/m³ próximo à entrada do reator e, em
seguida, este componente passa a ser consumido para formar eteno, por meio da reação de
desidratação do éter etílico.
100 100 100 100

80 80

Conversão Etanol Conversão Etanol


Rendimento (%)

Rendimento (%)
Conversão (%)

Conversão (%)

Rendimento Eteno Rendimento Eteno


60 60
Rendimento Éter Rendimento Éter
50 50

40 40

20 20

0 0 0 0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Comprimento adimensional Comprimento adimensional

Figura 5 – Conversão de etanol e rendimento Figura 6 - Conversão de etanol e rendimento


configuração correntes paralelas. configuração contracorrente.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

152
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Na configuração contracorrente (Figuras 4 e 6), observa-se na saída do reator percentuais


molares próximos aos obtidos para correntes paralelas. Entretanto, os perfis axiais apresentam
diferenças marcantes. O etanol alimentado no reator passa a ser consumido mais
proporcionalmente ao longo da primeira metade do eixo axial e o éter etílico é produzido em
maiores proporções do que eteno no início do reator. Este efeito na seletividade é decorrente
da temperatura na entrada do reator ser menor nesta configuração (Kagyrmanova et al., 2011).
À medida que a temperatura começa a atingir níveis mais elevados, a formação de éter
etílico diminui significativamente, ao passo que a de eteno aumenta continuamente. Segundo
Kagyrmanova et al. (2011), com o aumento da temperatura, o éter etílico sofre uma reação de
desidratação para formação de eteno, o que também pode ser observado nos resultados das
simulações. Os efeitos combinados desta reação e o da reação de desidratação de etanol
ocasionam um aumento pronunciado na concentração de eteno. A partir da metade do reator,
cerca de 92% do etanol já foi consumido, de modo que a concentração de eteno aumenta
levemente, até chegar a um percentual molar de 98,4% em base seca na saída do reator.
Diante dos resultados apresentados, é possível afirmar que a configuração de troca
térmica em contracorrente é mais apropriada para o processo de desidratação de etanol para
formação de eteno. Isso se deve à maior conversão de etanol e à consequente maior produção
de eteno na saída do reator. Além disso, a seletividade para eteno foi maior, o que, mesmo
que em pequenas proporções, demonstrou que a configuração em contracorrente dá maior
propensão à formação de eteno em relação aos produtos secundários do que a configuração
com correntes paralelas. As temperaturas acima de 400ºC, atingidas ao final do reator na
configuração em contracorrente, possibilitaram que a reação de desidratação de etanol
ocorresse em maior proporção, o que não foi observado para correntes paralelas.

4. CONCLUSÕES

Estes resultados contribuem para a sugestão de uma configuração térmica para aplicações
práticas. Muitos estudos consideram a temperatura da camisa de aquecimento constante,
contudo, em processos reais, essa pode ser uma condição difícil de se alcançar. A simulação
deste processo com comportamento dinâmico de troca de calor, com fluxos em correntes
paralelas e em contracorrente, ainda não foi explorada na literatura, de modo que esses
resultados mostram as principais características da operação de um reator de desidratação de
etanol, além da melhor forma de operação, nessas condições operacionais.

Acknowledgements

Os autores agradecem a CAPES pelo apoio financeiro envolvido no projeto de mestrado


que resultou nesse trabalho.

REFERÊNCIAS

Choopun, W.; Jitkarnka, S. Catalytic activity and stability of HZSM-5 zeolite and hierarchical uniform
mesoporous MSU-SZSM-5 material during bio-ethanol dehydration. Journal of Cleaner Production, v. 135,
p. 368-378, 2016.
Da Ros, S. Produção de Eteno a partir de Etanol Utilizando Aluminas. 2012. 135 f. Dissertação (Mestrado em
Engenharia de Processos) – Universidade Federal de Santa Maria, Santa Maria, 2012.
Fan, D.; Dai, D. J.; Wu, H. S. Ethylene Formation by Catalytic Dehydration of Ethanol with Industrial
Considerations. Materials, v. 6, p. 101-115, 2013.
Froment, G. F.; Bischoff, K. B.; De Wilde, J. Chemical Reactor Analysis and Design. 3. ed. New York: John
Wiley & Sons, 2011.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

153
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Huber, G. W.; Iborra, S.; Corma, A. Synthesis of Transportation Fuels from Biomass: Chemistry, Catalysts, and
Engineering. Chemical Reviews, v. 106, p. 4044-4098, 2006.
Kagyrmanova, A. P.; Chumachenko, V. A.; Korotkikh, V. N.; Kashkin, V. N.; Noskov, A. S. Catalytic dehydration
of bioethanol to ethylene: Pilot-scale studies and process simulation, Chemical Engineering Journal, v. 176,
p. 188-194, 2011.
Lana, L. D. M. Convecção forçada transiente em regeneradores utilizando o método das linhas e volumes
finitos. 2011. 162 f. Dissertação (Mestrado em Engenharia Mecânica) - Universidade Federal Fluminense,
Niterói, 2011.
Lima, A. M.; Assis, A. J.; Hori, C. E.; Reis, M. H. E.; Machado, A. E. H. Thermodynamic Analysis of Ethanol
Dehydration to Ethylene through Equilibrium Constant Method Using Classic Thermodynamics and
Quantum Chemistry. International Review of Chemical Engineering, v. 4, p. 466-473, 2012.
Maia, J. G. S. S. Modelagem e Simulação do Processo de Desidratação do Etanol. 2015. 148 f. Dissertação
(Mestrado em Engenharia Química) – Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de
Engenharia, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2015.
Miranda de, H. V. Simulação, Controle e Avaliação das Configurações de Troca Térmica no Processo de
Desidratação de Etanol em Reator de Leito Fixo. 2017. 109f. Dissertação (Mestrado em Engenharia
Química) – Universidade Ferderal do Espírito Santo, Alegre, 2017.
Phung, T. K.; Hernández, L. P.; Lagazzo, A.; Busca, G. Dehydration of ethanol over zeolites, silica alumina and
alumina: Lewis acidity, Brønsted acidity and confinement effects. Applied Catalysis A: General, v. 493, p.
77-89, mar. 2015.
Rice, R. G.; Do, D. D. Applied Mathematics and Modelling for Chemical Engineers, John Wiley & Sons, Inc.
1995.
Schwaab, M.; Alberton, A. L.; Fontes, C. E.; Bittencourt, R. C.; Pinto, J. C. Modeling of Methane Reformers –
Modeling of the Industrial Reactors. Industrial & Engineering Chemistry Research. v. 48, n. 21, p. 9376-
9382, nov. 2009.
Toledo, E. C. V. T.; Morais, E. R.; Melo, D. N. C.; Mariano, A. P.; Meyer, J. F. C. A.; Maciel Filho, R. Suiting
Dynamic Models of Fixed-Bed Catalytic Reactors for Computer-Based Applications. Engineering, v. 3, p.
778-785, 2011.
Zhang, M.; Yu, Y. Dehydration of Ethanol to Ethylene. Industrial & Engineering Chemistry Research, v. 52, p.
9505-9514, 2013.

SIMULATION, CONTROL AND EVALUATION OF THERMAL EXCHANGE


SETTINGS IN THE PROCESS OF ETHANOL DEHYDRATION IN FIXED BED
REACTOR

Abstract. Ethylene is one of the most used monomers in the production of petrochemicals.
Due to the oil crisis in the 1970s, the expansion of new ways of obtaining ethylene was
necessary, and processes previously little explored industrially began to be studied, in
particular the process of catalytic dehydration of ethanol in fixed bed reactors.The major
advantaje of this process relies on environmental issues, especially on the reduction of gas
emissions that are responsible for the greenhouse effect, as opposed to more conventional
processes, such as the cracking of naphtha. For processes in fixed bed reactors, the need to
promote heat transfer properly can be a challenge, since a deficiency in the temperature
regulation can lead to serious operating problems, such as termination of the reaction, low
conversions or favoring secondary reactions. In this context, this work has as objectives the
simulation of a fixed bed reactor model for ethanol dehydration reaction to ethylene using the
orthogonal collocation method, the verification of the effect of thermal fluid settings (co-
current and countercurrent). The resuls show that the countercurrent configuration provided
higher conversion of ethanol and ethylene production under the evaluated operational
conditions.

Keywords: fixed bed reactor, ethanol dehydration, ethylene, orthogonal collocation, heat
exchange.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

154
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

MODELAGEM MATEMÁTICA E RESOLUÇÃO EXATA DE UM PROBLEMA


OPEN SHOP APLICADO A UM ESTUDO DE CASO NO SETOR
AUTOMOBILÍSTICO

Caroline Maruchi de Oliveira1 – carolinemaruchi07@gmail.com


Mariana Kleina2 – marianakleina11@gmail.com
1
Universidade Federal do Paraná – Curitiba, PR, Brasil
2
Universidade Federal do Paraná – Curitiba, PR, Brasil

Resumo. O objetivo deste estudo é adaptar um problema de programação e sequenciamento


de caminhões em um problema open shop, propor um modelo matemático de modo a minimizar
o tempo dos motoristas dentro da empresa e resolvê-lo de maneira exata com a utilização de
técnicas e algoritmos de Pesquisa Operacional. O trabalho foi estruturado em etapas
sequenciais. Primeiramente, os métodos e algoritmos mais utilizados para este tipo de
problema foram identificados. Na sequência, o modelo matemático foi desenvolvido,
implementado computacionalmente no software LINGO e validado de acordo com as restrições
do estudo de caso. O software LINGO apresentou limitações na obtenção da solução ótima
devido às dimensões dos problemas. Os resultados ótimos obtidos pelo software mostraram
que o modelo proposto atendeu as condições do problema real no qual foi baseado.

Palavras-chave: Programação de caminhões. Chegada de caminhões. Janela de tempo. Setor


Automobilístico. Open Shop.

1. INTRODUÇÃO

A importância do Planejamento e Controle da Produção (PCP) tem se mostrado cada vez


maior em todos os ambientes. O uso eficiente de recursos humanos, materiais e produtivos
aliado a redução de custos e aumento na qualidade de atendimento aos clientes tem sido fatores
chave para manter a competitividade das empresas. Segundo Slack (2006), o sequenciamento
e a programação da produção são duas das atividades que estão incluídas no escopo do PCP.
A necessidade do sequenciamento surge quando diversos itens são processados no mesmo
equipamento e existe um estado de preparação diferente para cada item. A programação não é
aplicada apenas à produção, outros setores também podem se beneficiar desta atividade, como
o setor de transportes. Uma das aplicações para este setor, é a programação de veículos
(Arenales et al., 2007).
Considerando as restrições envolvidas nos processos de sequenciamento e programação, o
tempo de espera pode ter um alto impacto no fluxo de produção, desde o impacto nos tempos

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

155
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

que os fornecedores levam dentro das empresas para descarregar os materiais necessários para
a produção, até o momento em que os produtos finais saem para entrega aos clientes. Além de
aumentar os tempos de processamentos, tempos de espera podem aumentar também os custos
de produção. A partir deste cenário, destaca-se a importância de uma boa programação da
produção.
Este trabalho baseia-se em um problema de programação e sequenciamento de caminhões
em uma empresa automobilística situada na região metropolitana de Curitiba, com foco no setor
de transporte e logística de todo o complexo industrial da fábrica. O objetivo deste artigo é
adaptar o caso para um problema de sequenciamento e programação, mais especificamente um
problema open shop, e propor um modelo matemático de modo a minimizar o tempo dos
motoristas dentro da empresa e resolvê-lo de maneira exata. O trabalho está estruturado em 7
seções iniciando pela introdução com a finalidade de contextualizar o tema e definir os objetivos
deste estudo, seguido da revisão da literatura. A seção 3 apresenta o problema, a seção 4, a
metodologia adotada no desenvolvimento do trabalho e a seção 5, o modelo matemático
proposto. A seção 6 abrange os resultados obtidos e a última seção, as principais considerações
sobre o estudo.

2. REVISÃO DA LITERATURA

2.1 Planejamento e Controle da Produção

O Planejamento e Controle da Produção (PCP) é classificado como um setor de apoio que


analisa informações vindas de diversas áreas e a partir disso gerencia os recursos produtivos e
suas operações (Tubino, 2009).
De acordo com Slack et al. (2006), o Planejamento e Controle da Produção busca conciliar
fornecimento e demanda nos quesitos volume, tempo e qualidade. Esta conciliação envolve três
atividades:
 Carregamento: refere-se ao volume permitido para uma operação produtiva;
 Sequência: estabelece prioridade das tarefas a serem executadas;
 Programação: especifica o tempo de início e fim para cada tarefa. Esta atividade é uma
das mais complexas no PCP, pois o número de possíveis programações cresce
rapidamente em função do número de atividades e processos.
As principais medidas de desempenho relacionadas à programação da produção são:
makespan, tempo de fluxo total, atraso máximo, atraso total, lateness e número de tarefas
atrasadas. Makespan representa o instante de término de processamento das tarefas; enquanto
o tempo de fluxo total é a soma destes instantes. As demais medidas de desempenho são
associadas à data de entrega das tarefas e podem ser conflitantes entre si em muitos casos. Por
isso, quando consideradas em um problema, geralmente opta-se por uma otimização com
múltiplos objetivos (Arenales et al., 2007).

2.2 Sequenciamento e Programação de Caminhões

O gerenciamento de caminhões e plataformas pode ser uma atividade muito complexa, pois
de acordo com Ladier e Alpan (2016a), os gestores buscam atender requerimentos de
fornecedores quanto aos horários de chegada e saída da indústria, a fim de melhorar o
relacionamento com todos os stakeholders envolvidos.
De acordo com Ladier e Alpan (2016b), o gerenciamento de caminhões e plataformas pode
subdividir-se em três diferentes problemas:

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

156
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

• Designação de caminhão à entrada da doca: o número de caminhões geralmente é menor


que o número de docas. Busca-se definir qual caminhão será designado à qual doca,
considerando-se apenas dimensão espacial;
• Sequenciamento de caminhões: o número de caminhões é maior que o número de docas
e objetiva-se determinar a ordem de processamento dos caminhões em cada doca;
• Programação de caminhões: incorporação da dimensão temporal ao problema de
sequenciamento. Além da ordem, define-se também o tempo de chegada e saída do caminhão
em cada doca.
Berghman et al. (2014) apresentam uma situação em um armazém da Toyota na Bélgica.
O problema envolve trailers que chegam a um armazém e precisam descarregar seus produtos
e trailers que precisam carregar produtos antes de deixarem o armazém. O objetivo é minimizar
o tempo de entrega dos operadores logísticos destes trailers. O problema foi modelado como
um flow shop de 3 estágios flexíveis. Os autores consideraram um tempo de deslocamento fixo,
independente da distância e propuseram três diferentes formulações inteiras para serem
aplicadas ao problema da Toyota, sendo elas formulação baseada na designação, no fluxo e na
indexação de tempo.
Cota et al. (2016) apresentam um problema de sequenciamento de dois estágios, para
caminhões que chegam e caminhões que saem, com o objetivo de minimizar o makespan. Os
autores modelaram o problema como um flow shop híbrido de dois estágios com a apresentação
de uma formulação linear inteira mista com indexação de tempo e testaram uma heurística
polinomial construtiva para resolução de instâncias médias e grandes.
Wirth e Emde (2018) abordam um problema de programação no qual caminhões precisam
visitar algumas docas específicas para entregar peças. Cada caminhão tem um tempo individual
de chegada e previsão de saída da fábrica. O objetivo é minimizar a penalidade para aqueles
caminhões que não respeitam o tempo de saída da fábrica. Os autores propuseram um modelo
de programação linear mista baseado no problema open shop para resolução de problemas
pequenos e utilizaram a meta-heurística conhecida por procedimento de busca adaptativa
aleatória ou GRASP (greedy randomized adaptive search procedure).

2.3 Open Shop

Os problemas de sequenciamento e programação geralmente baseiam-se nas


características de número de tarefas, número de máquinas e rota de processamento de tarefas.
Os problemas de sequenciamento e programação mais citados na literatura são o flow shop e o
job shop.
Existe um terceiro problema de sequenciamento, menos conhecido que os dois citados
anteriormente, chamado de open shop. Segundo Naderi e Zandieh (2014), este problema é
aplicado para casos em que as rotas de processamento não são previamente determinadas.
Considerando 𝑛 tarefas e 𝑚 máquinas, cada tarefa tem que ser processada em cada uma
das 𝑚 máquinas. De acordo com Pinedo (2016), as principais diferenças do open shop são:
 O tempo de processamento em algumas máquinas pode ser zero;
 As rotas de processamento das tarefas são abertas. Isso significa que além da decisão
sobre as sequências de tarefas em cada máquina, o problema também tem o objetivo de
decidir a rota de processamento das tarefas.

3. DESCRIÇÃO DO PROBLEMA

O problema abordado neste trabalho é baseado nas operações de uma empresa do setor
automobilístico. Diariamente, a empresa recebe vários caminhões que irão percorrer algumas
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

157
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

docas para descarregar materiais. Alguns caminhões, após descarregar todos os materiais,
percorrerão algumas docas coletando embalagens. A empresa já sabe quais docas devem ser
percorridas por cada caminhão de acordo com o fornecedor e os materiais que serão entregues.
As docas possuem diferentes horários de funcionamento. Algumas docas operam somente
um turno, algumas operam dois turnos e outras operam em três turnos. Além dessas diferenças
de turnos, as docas também possuem alguns horários de intervalos para café, almoço, janta e
ceia. Por possuir estes intervalos nos quais as docas não funcionam, a modelagem do problema
deverá considerar janelas de tempo.
Para simplificar o problema, os tempos de deslocamento, descarga e carga de materiais são
fixados em 5, 30 e 15 minutos, respectivaments. A fixação destes tempos baseou-se nos valores
utilizados pela empresa que serviu como exemplo para este trabalho.
Alguns caminhões também irão carregar embalagens além de descarregar materiais. Nestes
casos, a empresa impõe uma restrição de que antes de carregar, o caminhão já deve ter
descarregado materiais em todas as docas programadas. A empresa possui outra condição de
que antes de iniciar o percurso pelas docas, cada caminhão deve passar pela recepção para
realizar algumas atividades administrativas como cadastro dos dados do motorista e horário da
entrada do caminhão na empresa. Esta informação também deve ser considerada no modelo e
o tempo na recepção também foi fixado em 10 minutos.

4. METODOLOGIA

Após um estudo das situações reais enfrentadas pela empresa que serviu de exemplo para
este trabalho, realizou-se um levantamento bibliográfico das características do problema de
sequenciamento e programação de caminhões de modo a identificar modelagens matemáticas
aplicadas em problemas similares.
A partir da revisão da literatura, inicou-se a formulação do modelo matemático baseado
em um problema open shop, seguida da implementação computacional do modelo no software
LINGO. O modelo exato foi executado para alguns conjuntos de dados e verificado se as
restrições matemáticas atendiam e respeitavam as reais condições que o problema deve
considerar.
Com o modelo validado, o código foi executado para bases de dados desenvolvidas de
modo a simular as reais condições do problema. Os resultados foram traduzidos para um gráfico
de Gantt de modo a possibilitar a análise da sequência dos roteiros dos caminhões, janelas de
tempos e tempos de términos das operações nas docas.

5. MODELO MATEMÁTICO

Este capítulo tem o objetivo de apresentar o problema mediante a modelagem matemática,


com o detalhamento das variáveis, parâmetros e restrições utilizados.

5.1 Índices e Parâmetros

Nesta seção são apresentados os índices e parâmetros utilizados na formulação matemática


do problema. A seguir encontram-se os índices aplicados aos parâmetros e variáveis:

𝑗, 𝑘: í𝑛𝑑𝑖𝑐𝑒𝑠 𝑑𝑜𝑠 𝑐𝑎𝑚𝑖𝑛ℎõ𝑒𝑠 {1, 2, … , 𝑛};


𝑖, 𝑙: í𝑛𝑑𝑖𝑐𝑒𝑠 𝑑𝑎𝑠 𝑑𝑜𝑐𝑎𝑠 {0, 1, 2, … , 𝑚};
𝑣: í𝑛𝑑𝑖𝑐𝑒𝑠 𝑑𝑎𝑠 𝑗𝑎𝑛𝑒𝑙𝑎𝑠 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜;

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

158
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O índice 𝑖 = 0 representa uma doca fictícia que possui tempos de processamento igual a
zero. Com a finalidade de garantir o atendimento das condições impostas ao problema, optou-
se por definir a recepção como uma doca, sendo representada por 𝑖 = 1.
Os parâmetros são definidos a seguir:

𝑛: 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑚𝑖𝑛ℎõ𝑒𝑠;
𝑚: 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑑𝑜𝑐𝑎𝑠;
𝑏: 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑗𝑎𝑛𝑒𝑙𝑎𝑠 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜;
𝑝𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑎𝑚𝑒𝑛𝑡𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;
𝑑: 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑑𝑒𝑠𝑙𝑜𝑐𝑎𝑚𝑒𝑛𝑡𝑜 𝑒𝑛𝑡𝑟𝑒 𝑎𝑠 𝑑𝑜𝑐𝑎𝑠;
𝑟: 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑎𝑡𝑒𝑛𝑑𝑖𝑚𝑒𝑛𝑡𝑜 𝑛𝑎 𝑟𝑒𝑐𝑒𝑝çã𝑜;
𝑤𝑖,𝑣 : 𝑖𝑛í𝑐𝑖𝑜 𝑑𝑎 𝑗𝑎𝑛𝑒𝑙𝑎 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜 𝑣 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;
𝑑𝑤𝑖,𝑣 : 𝑑𝑢𝑟𝑎çã𝑜 𝑑𝑎 𝑗𝑎𝑛𝑒𝑙𝑎 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜 𝑣 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;

5.2 Variáveis

1, 𝑠𝑒 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 é 𝑑𝑒𝑠𝑖𝑔𝑛𝑎𝑑𝑜 𝑝𝑎𝑟𝑎 𝑎 𝑑𝑜𝑐𝑎 𝑖 𝑎𝑝ó𝑠 𝑎 𝑜𝑝𝑒𝑟𝑎çã𝑜 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑙


𝑋𝑗,𝑖,𝑙 = {
0, 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜
1, 𝑠𝑒 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 é 𝑑𝑒𝑠𝑖𝑔𝑛𝑎𝑑𝑜 𝑎𝑝ó𝑠 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑘 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖
𝑌𝑗,𝑖,𝑘 = {
0, 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜
1, 𝑠𝑒 𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖 é 𝑑𝑒𝑠𝑖𝑔𝑛𝑎𝑑𝑜 𝑎𝑝ó𝑠 𝑎 𝑗𝑎𝑛𝑒𝑙𝑎 𝑑𝑒 𝑡𝑒𝑚𝑝𝑜 𝑣
𝑍𝑗,𝑖,𝑣 = {
0, 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜
𝐶𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑡é𝑟𝑚𝑖𝑛𝑜 𝑑𝑎 𝑜𝑝𝑒𝑟𝑎çã𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖;
𝑇𝑗 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑡é𝑟𝑚𝑖𝑛𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗;
𝑆𝑗 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑖𝑛í𝑐𝑖𝑜 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗;
𝑈𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑎𝑡𝑖𝑣𝑖𝑑𝑎𝑑𝑒 𝑑𝑜 𝑐𝑎𝑚𝑖𝑛ℎã𝑜 𝑗 𝑛𝑎 𝑑𝑜𝑐𝑎 𝑖 𝑐𝑜𝑛𝑠𝑖𝑑𝑒𝑟𝑎𝑛𝑑𝑜 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑑𝑒𝑠𝑙𝑜𝑐𝑎𝑚𝑒𝑛𝑡𝑜;
𝑅𝑗,𝑖 : 𝑡𝑒𝑚𝑝𝑜 𝑑𝑒 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑎𝑚𝑒𝑛𝑡𝑜 𝑟𝑒𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑜;

Os possíveis valores de 𝑈𝑗,𝑖 são 0, 10, 20 e 35. Esta variável busca garantir que o tempo de
deslocamento até uma doca será considerado apenas para os casos em que há uma operação de
carregamento ou descarregamento na doca. Para a recepção e para os casos em que o tempo de
processamento é igual a zero, então 𝑈𝑗,𝑖 = 𝑝𝑗,𝑖 .
As variáveis 𝑅𝑗,𝑖 podem assumir os valores 15, 30 e 𝑀. Para as docas nas quais o caminhão
𝑗 realiza uma operação de carregamento ou descarregamento, 𝑅𝑗,𝑖 assumirá os mesmos valores
de 𝑝𝑗,𝑖 , 15 e 30, respectivamente. Para as docas que possuem um tempo de processamento 0 e
a doca que representa a recepção, 𝑅𝑗,𝑖 assumirá um valor alto, representado por 𝑀. Na
modelagem do problema, este valor alto forçará com que estas docas sejam processadas antes
de docas que possuem uma operação de carregamento ou descarregamento.

5.3 Modelagem Matemática


𝑛

𝑀𝑖𝑛 ∑ 𝑇𝑗 (1)
𝑗=1
𝑌𝑗,𝑖,𝑘 + 𝑌𝑘,𝑖,𝑗 ≤ 1 ∀ 𝑖, 𝑗, 𝑘 ≠ 𝑗 (2)
𝑋𝑗,𝑖,𝑙 + 𝑋𝑗,𝑙,𝑖 ≤ 1 ∀ 𝑗, 𝑖, 𝑙 ≠ 𝑖 (3)
𝑅𝑗,𝑖 = 𝑝𝑗,𝑖 + 𝑀 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 ≤ 𝑟 (4)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

159
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

𝑅𝑗,𝑖 = 𝑝𝑗,𝑖 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 > 𝑟 (5)


𝑋𝑗,𝑖,𝑙 = 0 ∀ 𝑗, 𝑖, 𝑙 ≠ 𝑖 | 𝑅𝑗,𝑙 < 𝑅𝑗,𝑖 (6)
𝐶𝑗,0 = 0 ∀𝑗 (7)
𝐶𝑗,𝑖 = 𝐶𝑗,0 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 = 0 (8)
𝑆𝑗 = 𝐶𝑗,1 − 𝑟 ∀𝑗 (9)
𝑈𝑗,𝑖 = 𝑝𝑗,𝑖 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 ≤ 𝑟 (10)
𝑈𝑗,𝑖 = 𝑝𝑗,𝑖 + 𝑑 ∀ 𝑗, 𝑖 | 𝑝𝑗,𝑖 > 𝑟 (11)
𝐶𝑗,𝑖 ≥ 𝐶𝑗,𝑙 + 𝑈𝑗,𝑖 − 𝑀 ∗ (1 − 𝑋𝑗,𝑖,𝑙 ) ∀𝑗, 𝑖, 𝑙 ≠ 𝑖 (12)
𝐶𝑗,𝑙 ≥ 𝐶𝑗,𝑖 + 𝑈𝑗,𝑙 − 𝑀 ∗ 𝑋𝑗,𝑖,𝑙 ∀𝑗, 𝑖, 𝑙 ≠ 𝑖 (13)
𝐶𝑗,𝑖 ≥ 𝐶𝑘,𝑖 + 𝑈𝑗,𝑖 − 𝑀 ∗ (1 − 𝑌𝑗,𝑖,𝑘 ) ∀𝑖, 𝑗, 𝑘 ≠ 𝑗 (14)
𝐶𝑘,𝑖 ≥ 𝐶𝑗,𝑖 + 𝑈𝑘,𝑖 − 𝑀 ∗ 𝑌𝑗,𝑖,𝑘 ∀𝑖, 𝑗, 𝑘 ≠ 𝑗 (15)
𝐶𝑗,𝑖 − 𝑤𝑖,𝑣 − 𝑑𝑤𝑖,𝑣 + 𝑀 ∗ (1 − 𝑍𝑗,𝑖,𝑣 ) ≥ 𝑈𝑗+𝑖 ∀𝑗, 𝑖, 𝑣 (16)
𝑤𝑖,𝑣 + 𝑀 ∗ 𝑍𝑗,𝑖,𝑣 ≥ 𝐶𝑗,𝑖 ∀𝑗, 𝑖, 𝑣 (17)
𝑇𝑗 ≥ 𝐶𝑗,𝑖 ∀𝑗, 𝑖 (18)
𝑋𝑗,𝑖,𝑙 ∈ {0,1} ∀𝑗, 𝑖, 𝑙 ≠ 𝑖 (19)
𝑌𝑗,𝑖,𝑘 ∈ {0,1} ∀𝑖, 𝑗, 𝑘 ≠ 𝑗 (20)
𝑍𝑗,𝑖,𝑣 ∈ {0,1} ∀𝑗, 𝑖, 𝑣 (21)

A função objetivo (1) é de minimizar a soma dos tempos gastos pelos caminhões para
realizar suas operações nas docas. As restrições (2) declaram que, para qualquer doca 𝑖, um
caminhão não pode ser sucessor e predecessor de outro caminhão ao mesmo tempo. As
restrições (3) possuem a mesma finalidade das restrições (2), mas voltada para o
sequenciamento de docas.
As restrições (4) e (5) definem os possíveis valores da variável auxiliar 𝑅𝑗,𝑖 . Essa variável
receberá um valor alto para a doca 1, que representa a recepção, e também para aquelas docas
que possuem tempo de processamento 0. Para as outras combinações de docas e caminhões que
não se enquadram nas condições anteriores, a variável assumirá o mesmo valor do tempo de
processamento do caminhão 𝑗 na doca 𝑖.
Com os valores de 𝑅𝑗,𝑖 definidos, as restrições (6) irão forçar a condição de que as docas
com maiores tempos de processamento sejam visitadas antes. Com isso as docas que possuem
tempo de processamento igual a 0 deverão ser visitadas antes, seguidas da recepção e das docas
que realizam operações de descarregamento, finalizando com as operações de carregamento.
As restrições (7) determinam que o tempo de término de todos os caminhões na doca
fictícia (doca 0) será sempre 0. As restrições (8) forçam que as combinações de caminhões e
docas que possuem tempo de processamento 0, tenham um tempo de término igual ao tempo
de término da doca fictícia.
As restrições (9) determinam o tempo de chegada dos caminhões. Como a recepção (doca
1) deve ser a primeira doca a ser visitada por todos os caminhões, determinou-se que o tempo
de chegada de cada caminhão será o tempo de término na doca 1 menos o tempo de
processamento desta doca. Ao chegar na empresa, o caminhão seguirá direto para o atendimento
na recepção, evitando um tempo de espera nesta etapa inicial.
As restrições (10) e (11) calculam um novo de tempo de processamento das operações com
a finalidade de garantir que não será considerado o tempo de deslocamento até a recepção e até
às docas nas quais os caminhões não realizam nenhuma operação e que consequentemente
possuem um tempo de processamento zero. Para as docas nas quais os caminhões realizam uma
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

160
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

operação de carregamento ou descarregamento, o tempo de deslocamento será acrescido ao


tempo de processamento.
As restrições (12) e (13) são restrições disjuntivas e buscam garantir que o caminhão só irá
para a próxima doca depois de finalizar a atividade na doca anterior. As restrições (14) e (15)
também são disjuntivas e garantem que uma doca receberá o próximo caminhão apenas após a
finalização das operações do caminhão anterior.
As restrições (16) e (17) tratam sobre as janelas de tempo e buscam assegurar que nenhum
caminhão será designado para iniciar suas operações em uma doca durante as janelas de tempo,
bem como garantir que as operações dos caminhões terminem antes de iniciar as janelas de
tempos. As restrições (18) calculam o tempo total de término de cada caminhão, que representa
o tempo de término da última doca visitada por cada caminhão. As restrições (19) - (21)
definem os tipos das variáveis.

6. RESULTADOS

Esta seção apresenta alguns resultados da aplicação do modelo proposto obtidos pelo
software LINGO. O primeiro conjunto de dados testado considera 5 caminhões e 5 docas, sendo
uma doca fictícia e uma doca representando a recepção (doca 1). Como o software LINGO não
possibilita a utilização do índice 0, a doca fictícia foi representada neste modelo pelo índice 5.
Os dados do problema foram criados de modo a atender as condições impostas pela
empresa atualmente. As operações dos caminhões nas docas têm os tempos de processamento
apresentados na Tabela 1.

Tabela 1 – Tempos de processamento – 5 caminhões (C) e 5 docas (D)

D1 D2 D3 D4 D5
C1 10 15 0 30 0
C2 10 30 30 15 0
C3 10 0 15 30 0
C4 10 30 30 0 0
C5 10 15 30 0 0

O problema também considera janelas de tempo. Foi simulado que as docas 2 e 3 têm
duas janelas de tempo cada uma. Os instantes de início das janelas de tempo, bem como a
duração das janelas para cada doca podem ser observados na Tabela 2. A doca 2 inicia a
primeira janela de tempo no instante 55 e a segunda janela inicia no instante 95. A doca 3
também possui duas janelas de tempo iniciando nos instantes 45 e 120.

Tabela 2 – Instantes de início das janelas de tempo

Início do Início do Duração do Duração do


Intervalo 1 Intervalo 2 Intervalo 1 Intervalo 2
D1 0 0 0 0
D2 55 95 5 5
D3 45 120 5 5
D4 0 0 0 0
D5 0 0 0 0

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

161
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

A Figura 1 ilustra um gráfico de Gantt com o sequenciamento dos caminhões nas docas,
início e fim das operações de cada caminhão em cada doca. A função objetivo para este
problema foi de 610, representando o tempo total gasto por todos os caminhões para realizarem
suas operações de carregamento e descarregamento nas docas.

Figura 1 – Gráfico de Gantt – 5 caminhões e 5 docas

Pode-se observar que as condições impostas pela empresa são atendidas pelo modelo
matemático. Todos os caminhões iniciam seu roteiro na recepção, doca 1, e a programação das
docas respeita a restrição de que docas que recebem operação de descarregamento sejam
designadas antes de docas que realizem operações de carregamento. Por exemplo, o caminhão
5, representado pela cor verde na Figura 1, realiza uma operação de descarregamento na doca
3 e uma operação de carregamento na doca 2, além de ter que passar obrigatoriamente pela doca
1. Observando a programação de docas para este caminhão na Figura 1, pode-se visualizar que
a doca 1 é a primeira a ser visitada pelo caminhão. Em seguida, o caminhão desloca-se para a
doca 3 e finaliza seu roteiro na doca 2.
As restrições de janelas de tempo também são respeitadas pelo modelo. Observando por
exemplo a doca 2 na Figura 1, a operação do caminhão 4 termina antes do início da janela de
tempo que se inicia no instante 55. O caminhão 5 é o próximo designado para esta doca; se não
houvesse a janela de tempo, a operação deste caminhão poderia ser iniciada no instante 55.
Entretanto, a duração da janela de tempo foi respeitada, e a operação é iniciada apenas no
instante 60.
Os testes continuaram sendo realizados para conjuntos maiores. A maior base de dados
para a qual o software LINGO encontrou a solução ótima possuía 8 caminhões e 5 docas. Os
resultados para essa base de dados podem ser observados na Figura 2. Para bases de dados a
partir de 9 caminhões e 5 docas, o software não foi capaz de encontrar a solução ótima em um
tempo inferior a 24 horas.

Figura 2 – Gráfico de Gantt – 8 caminhões e 5 docas

Os tempos de processamento de cada caminhão para cada doca são apresentados na Tabela
3. Como no exemplo anterior, a doca 5 também representa uma doca fictícia. Além disso, o
problema possui as mesmas janelas de tempo do exemplo anterior, com tempos de início e de
duração apresentados na Tabela 2.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

162
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 3 – Tempos de processamento – 8 caminhões (C) e 5 docas (D)

D1 D2 D3 D4 D5
C1 10 15 0 15 0
C2 10 15 30 0 0
C3 10 30 15 30 0
C4 10 30 30 15 0
C5 10 30 15 30 0
C6 10 15 30 30 0
C7 10 15 30 15 0
C8 10 0 15 30 0

A função objetivo para este problema foi de 1365. Este valor é obtido pela soma dos
maiores valores de cada linha da Tabela 4, que representam os instantes de término da última
doca percorrida por cada caminhão. Considerando o caminhão 2 como exemplo, além da
passagem obrigatória pela doca 1, este caminhão deve percorrer somente as docas 2 e 3, nas
quais realiza operações de carregamento e descarregamento, respectivamente. Como o
caminhão não realiza nenhuma operação na doca 4, pode-se visualizar na Tabela 4, que o tempo
de término nesta doca é igual a zero, bem como o tempo de término na doca 5, que representa
a doca fictícia.
Analisando a programação do caminhão 2 na Figura 2, pode-se observar o cumprimento
das restrições uma vez que o roteiro se inicia pela doca 1 e a operação de descarregamento é
designada antes da operação de carregamento, ou seja, a doca 3 é visitada antes da doca 2. A
programação deste caminhão também respeita a janela de tempo da doca 3, pois a operação
nesta doca termina antes do início da janela tempo.

Tabela 4 – Instantes de término – 8 caminhões (C) e 5 docas (D)

D1 D2 D3 D4 D5
C1 30 55 0 95 0
C2 85 155 120 0 0
C3 75 225 245 190 0
C4 40 135 170 210 0
C5 95 190 225 155 0
C6 50 265 205 245 0
C7 10 95 45 75 0
C8 20 0 75 55 0

7. CONCLUSÃO

O sequenciamento e a programação das atividades apresentam uma grande importância


para a empresa e não se restrigem apenas à produção, podendo ser aplicadas em outros setores,
como o de transportes. Estas etapas do Planejamento e Controle da Produção podem oferecer
um fluxo de atividades mais fluído, sem presença de gargalos e desperdícios. No caso da
programação de caminhões, um dos benefícios obtidos é a redução do tempo que os motoristas
passam dentro da empresa para realizar suas operações, por meio da redução dos tempos de
espera entre operações.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

163
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O presente artigo buscou adaptar um problema de programação e sequenciamento de


caminhões em um problema open shop, além de propor um modelo matemático de modo a
minimizar o tempo de permanência dos motoristas dentro da empresa e resolvê-lo de maneira
exata.
O modelo matemático proposto respeita as condições impostas ao problema, como as
restrições de janelas de tempo e precedência de atividades de descarregamento antes de
carregamento. Entretanto, o software LINGO apresentou limitações em obter a solução ótima
para os problemas. O problema de maior dimensão, para o qual o software foi capaz de
encontrar a solução ótima, possuía 8 caminhões e 5 docas. Para problemas de maiores
dimensões, o software não retornou a solução ótima em um tempo inferior a 24 horas.
Ponderando-se estas considerações, a adaptação de um problema de programação e
sequenciamento de caminhões em um problema open shop mostrou-se viável para problemas
pequenos. Pesquisas futuras devem considerar a utilização de heurísticas ou meta-heurísticas
como alternativa de resolução, de modo a viabilizar a aplicação do modelo a problemas de
maiores dimensões, ou até mesmo a problemas reais.

REFERÊNCIAS

Arenales, M.; Armentano, V.; Morabito, R.; Yanasse, H. H. (2007), “Pesquisa operacional para cursos de
engenharia”, Elsevier: ABREPRO, Rio de Janeiro.
Berghman, L.; Leus, R.; Spieksma, F.C.R. (2014), “Optimal solutions for a dock assignment problem with trailer
transportation”, Annals of Operations Research, Bélgica, vol. 213, 3-25.
Cota, P.M.; Gimenez, B. M. R.; Araújo, D. P. M.; Nogueira, T. H.; Souza M. C.; Ravetti, M. G. (2016), Time-
indexed formulation and polynomial time heuristic for a multi-dock truck scheduling problem in a cross-
docking centre. Computers & Industrial Engineering, 95, 135-143.
Ladier, A.; Alpan, G. (2016a), Robust cross-dock scheduling with time windows. Computers & Industrial
Engineering, 99, 16-28.
Ladier, A.; Alpan, G. (2016b), Cross-docking operations: Current research versus industry practice. Omega, 62,
145-162.
Naderi, B.; Zandieh, M. (2014), Modeling and scheduling no-wait open shop problems. International Journal of
Production Economics, 158, 256-266.
Pinedo, M. L. (2016), “Scheduling: Theory, Algorithms and Systems”, 5ª ed, Springer, Nova York.
Tubino, D. F. (2009), “Planejamento e controle da produção: teoria e pratica”, 2º ed., Atlas, São Paulo.
Slack, N.; Chambers, S.; Harland, C.; Harrison, A.; Johnston, R. (2006), “Administração da Produção”, 1ª ed - 10
reimp, Atlas.
Wirth, M.; Emde, S. (2018), Scheduling trucks on factory premises. Computers & Industrial Engineering, 126,
175-186.

MATHEMICAL MODELING AND EXACT RESOLUTION OF AN OPEN SHOP


PROBLEM APPLIED TO A CASE STUDY IN THE AUTOMOTIVE INDUSTRY

Abstract. The aim of this study is to adapt a truck scheduling problem into a open shop problem,
propose a mathematical model to minimize the time spent by drivers within the company and
solve this modeling exactly with the application of Operational Research algorithms and
techniques. The work was structured in sequential phases. First, the most used methods and
algorithms for this problem were identified. Next, the mathematical model was developed,
implemented in LINGO software and validated according to the restrictions of the case study.
The LINGO software presented limitations in obtaining the optimal solution due to problems
dimensions. The optimal results obtained by the software showed that the proposed model met
the conditions of the real problem on which it was based.

Keywords: Truck scheduling. Truck arrivals. Time window. Automotive industry. Open Shop.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

164
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

OTIMIZAÇÃO MULTI-OBJETIVO BASEADA EM CONFIABILIDADE PARA O


PROJETO DE HIDROCICLONES

Vitor Alves Garcia1 – v.alvesgarcia@gmail.com


Fran Sérgio Lobato1 – fslobato@ufu.br
Luiz Gustavo Martins Vieira1 – luizgustavo@ufu.br
1
Universidade Federal de Uberlândia, Faculdade de Engenharia Química – Uberlândia, MG, Brasil

Resumo. Hidrociclones são equipamentos usados para realizar separações sólido-líquido


através da ação centrífuga. O desempenho desses separadores é altamente dependente de sua
geometria e pode ser quantificado através de respostas como eficiência total, razão de
líquido, número de Euler, diâmetro de corte e concentração volumétrica do underflow. Em
algumas aplicações é desejável que o hidrociclone apresente bons desempenhos em todas
essas respostas, contudo algumas delas apresentam comportamento conflitante entre si.
Dessa forma, o presente trabalho tem por objetivo determinar a geometria de hidrociclones
considerando a otimização multi-objetivo associada a uma técnica de confiabilidade para
análise de incertezas. Os resultados obtidos demostram que o efeito da inserção de
confiabiliade provoca deteriorações na curva de Pareto em relação à curva nominal (sem
análise de incertezas).

Palavras-chave: Hidrociclone, Otimização multi-objetivo, Confiabilidade.

1. INTRODUÇÃO

Os hidrociclones são equipamentos que promovem a separação de um material


particulado em suspensão líquida do fluido no qual ele se encontra. Eles podem ser utilizados
em diversas aplicações, dentre elas a concentração do sólido e a clarificação do líquido
(Salvador, 2017). Nesses dois casos, é desejável que o equipamento tenha, simultaneamente,
um alto poder de separação para que a maior parte do sólido seja coletado e não saia na
corrente diluída, um alto poder de concentração para que o mínimo de líquido seja perdido na
corrente concentrada, tornando-a mais diluída, e um baixo consumo energético. Do ponto de
vista físico, esses três objetivos apresentam caráter conflitante entre si, isto é, a melhora em
um causa a deterioração nos outros e vice-versa.
Dessa forma, a busca por hidrociclones que apresentem boa performance nesses três
quesitos pode ser feita através da aplicação da formulação e resolução de um problema de

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

165
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

otimização, neste caso, multi-objetivo de modo a atender as restrições que garantam um


desempenho satisfatório em todos os aspectos desejados. Tradicionalmente, neste tipo de
formulação, nenhum tipo de análise de incertezas é considerada. A presença de incertezas é
inerente à realidade dos processos de engenharia e áreas afins e deve ser considerada para a
obtenção de uma solução com menor sensibilidade no que tange a sua implementação prática
(Lobato et al., 2017). Neste cenário, dois tipos de abordagem tem sido empregados para
análise de incertezas, a saber, a otimização robusta e a otimização baseada em confiabilidade.
Cabe ressaltar que ambas tem o mesmo objetivo, mas considerando caminhos distintos para
essa finalidade (Lobato et al., 2017). Em linhas gerais, a otimização baseada em
confiabilidade tem por objetivo reescrever um problema de otimização que apresenta
restrições de desigualdade em um equivalente em que estas se tornam restrições
probabilísticas. Neste caso, as variáveis de projeto ou variáveis de interesse no problema são
descritas em função de um tipo particular de distribuição de probabilidade (Lobato et al.,
2017).
Diante do que foi apresentado, este trabalho tem como objetivo a determinação da
geometria de hidrociclones considerando análise de incertezas no contexto multi-objetivo.
Para essa finalidade, o algoritmo MODE (Multi-objective Optimization Differential
Evolution), proposto por Lobato (2008), é associado à técnica de inserção de confiabilidade
IRA (Inverse Reliability Analysis), proposto por Du (2005), para obter hidrociclones com
bons desempenhos nos quesitos separação, concentração e consumo energético. Além disso,
deseja-se ainda avaliar os efeitos da inserção de confiabilidade nos resultados da otimização
multi-objetivo. Este trabalho esta estruturado como segue: na seção 2 é apresentada a
fundamentação teórica dos tópicos envolvidos neste trabalho, na seção 3 é descrita a
metodologia empregada, na seção 4 são mostrados os resultados e sua discussão e, por fim, na
seção 5 é feita a conclusão do trabalho.

2. FUNDAMENTAÇÃO TEÓRICA

2.1 Hidrociclones

Os hidrociclones são equipamentos empregados na indústria com a função de promover a


separação entre uma fase discreta, geralmente um sólido particulado, e uma fase contínua
líquida (Svarovsky, 2000). Esse processo de separação ocorre devido à ação centrífuga gerada
pelo movimento helicoidal realizado pela suspensão ao ser alimentada sob pressão no
equipamento. Dessa forma, resultam do processo de separação duas correntes de saída: uma
concentrada e rica em partículas maiores e mais densas, chamada de underflow, e a outra
diluída contendo sólidos mais finos e menos densos, nomeada como overflow (Svarovsky,
2000).
Na operação dos hidrociclones, algumas variáveis resposta são analisadas com o objetivo
de avaliar o desempenho da operação. Dentre esses parâmetros tem-se a eficiência total (η),
que representa fração de sólido alimentado que é capturado pela corrente de underflow, o
diâmetro de corte (d50), que corresponde ao tamanho de partícula que é capturada com 50% de
eficiência granulométrica, a razão de líquido (RL), que representa a fração de líquido
alimentado que sai com a corrente de underflow, a concentração volumétrica do underflow
(Cvu), que significa a fração de sólidos na composição volumétrica dessa corrente, e o número
de Euler (Eu), que é a razão entre a queda de pressão no equipamento e a energia cinética do
fluido por unidade de volume (Svarovsky, 2000). As respostas η e d50 estão relacionadas com
o poder de separação do hidrociclone, sendo que quanto maior η e menor d50, maior é o poder
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

166
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de separação do equipamento. Já os parâmetros RL e Cvu estão vinculados ao poder


concentrador do hidrociclone, de forma que quanto menor RL e maior Cvu, maior é a
capacidade concentradora do equipamento. Por fim, a resposta Eu está diretamente
relacionada com o consumo energético do hidrociclone.
Ademais, os valores das respostas mencionadas, que definem as características de
desempenho do hidrociclone, são altamente dependentes das relações entre as dimensões de
sua geometria. Assim, na Fig. 1 é apresentada a estrutura de um hidrociclone. Esta é composta
por uma parte cilíndrica e uma parte cônica, e suas principais dimensões são: diâmetros da
seção cilíndrica (Dc), do duto de alimentação (Di), do tubo de overflow (Do) e do orifício de
underflow (Du), comprimentos da seção cilíndrica (h), da seção cônica (H), total (L) e do
vortex finder (l) e ângulo da seção cônica (θ).

Figura 1- Representação esquemática da geometria de um hidrociclone.

2.2 Análise de Confiabilidade Inversa

A análise de confiabilidade inversa (IRA – Inverse Reliability Analysis) consiste em uma


técnica para o tratamento de incertezas em problemas de otimização em que, dada uma
variável aleatória (x), que segue um determinado tipo de distribuição com média (μx) e desvio
padrão (σx), seleciona-se uma confiabilidade alvo e, então, verifica-se a probabilidade da
variável x atender uma dada restrição probabilística (P(g(x) ≤ 0)), em que P é a probabilidade
e g(x) é uma restrição.
Em linhas gerais, a técnica inicia-se com a transformação da variável aleatória x na
variável normalizada u via Eq. (1).

x  x
u (1)
x

Então, define-se o valor do índice de confiabilidade β, que está associado à confiabilidade


alvo (R) através da Eq. (2), em que Φ-1 corresponde à inversa da função de distribuição
acumulada padrão.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

167
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

   1 ( R ) (2)

Dessa forma, inicia-se um procedimento de busca pelo ponto mais provável de falha (u*),
que é aquele com distância em relação à origem igual a β e cujo valor da função de restrição
transformada G(u) é máximo, sendo G(u) uma função diferenciável de pelo menos uma
variável. Tal procedimento é composto pelas seguintes etapas (Du, 2005; Lobato et al., 2017):
1 - Define-se os parâmetros iniciais: k = 0 e u0 = 0;
2 - Obtém-se a direção de busca ak através da Eq. (3);

G(uk )
ak  (3)
G(uk )

3 - Calcula-se uk 1   ak e atualiza-se o contador k = k+1;


4 - Repete-se os passos 2 e 3 até a convergência ( uk  uk 1  tolerância ).
Assim, com o ponto mais provável de falha (u*) obtido, é possível determinar se a
variável aleatória x tem probabilidade maior ou igual a R de respeitar a restrição colocada.
Caso G(u*) ≤ 0, então a probabilidade de x atender à restrição é maior ou igual à
confiabilidade alvo, caso contrário essa probabilidade é menor que a confiabilidade desejada.
É importante destacar que, diferentes tipos de distribuição de probabilidades podem ser
convertidos em uma distribuição padrão, a saber, a normal, conforme descrito por Rosenblatt
(1952).

2.3 MODE+IRA

O algoritmo de Evolução Diferencial é uma técnica proposta por Storn e Price (1997) e
que se diferencia dos demais métodos heurísticos pela forma como é feita a operação de
cruzamento, a saber, via realização de operações vetoriais entre os indivíduos da população.
Devido ao sucesso alcançado por esse algoritmo, Lobato (2008) propôs a sua extensão para o
contexto multi-objetivo - MODE (Multi-Objective Optimization Differential Evolution). Em
linhas gerais, essa estratégia faz uso de um sistema de classificação dos indivíduos baseado
em ranks via critério de dominância de Pareto associado a um operador de distância de
multidão para priorizar a manutenção na população de indivíduos mais distantes dos demais,
favorecendo, assim, a diversidade das soluções.
No contexto da confiabilidade, o algoritmo MODE é associado ao IRA para fins de
análise de confiabiliadade no contexto multi-objetivo. A abordagem resultante, denominada
de MODE+IRA, apresenta os seguintes passos:

1 – gera-se uma população inicial, de forma aleatória, considerando N indivíduos dentro


do domínio estabelecido pelo usuário;
2 – aplica-se o operador de cruzamento, no qual são realizadas operações vetoriais entre
indivíduos pertencentes à população, sendo estas ponderadas por um fator de perturbação (F)
e seguindo uma determinada probabilidade de cruzamento (Cr) para gerar novos indivíduos;
3 – avaliam-se os indivíduos gerados, um a um, segundo as restrições probabilísticas
usando o algoritmo IRA, de forma que o ponto mais provável de falha seja encontrado. Em
seguida, de posse desses valores, o vetor de funções objetivo é avaliado;
4 – aplica-se o operador de rankeamento e de distância de multidão, selecionando os N
melhores indivíduos segundo esses critérios e originando, assim, uma nova geração;
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

168
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5 – repete-se os passos de 2 a 4, até que o número máximo de gerações (Ngen) seja


alcançado.

3. METODOLOGIA

No presente trabalho, para aplicação da metodologia proposta foram utilizadas as


equações empíricas ajustadas nominalmente por Garcia (2018), a partir das informações
experimentais obtidas por Salvador (2017). Tais equações, descritas nas Eqs. (4), (5), (6), (7)
e (8), correlacionam as variáveis resposta do hidrociclone (η, RL, Eu, d50 e Cvu) com as
variáveis geométricas (Di, Do, L e θ) em suas formas codificadas (X1, X2, X3 e X4,
respectivamente), conforme mostrado na Tab. 1. As medidas correspondentes às demais
dimensões (Dc, Du e l) são constantes com valores respectivamente iguais a 30 mm, 5 mm e
12 mm, sendo essas as dimensões usadas nos experimentos de Salvador (2017).

  73, 26  X ' a1  X ' A1 X (4)

 X1   0, 60 
X   5, 05 
Sendo X    a matriz das variáveis codificadas e X’ a sua transposta, a1    e
2

 X3   0, 69 
   
X4   2,35 
 0, 61 0, 47 0,33 0, 28
 0, 47 0, 71 0, 40 0, 78 
A1   .
 0,33 0, 40 1, 65 0,91
 
 0, 28 0, 78 0,91 1, 67 

RL  18, 43  X ' a2  X ' A 2 X (5)

 0, 29   0,10 0, 06 0, 07 
0, 03
 10, 03  0, 06 2,81 0, 29 
0,16
Sendo a2    e A2   .
 1,17   0, 03 0,16 0, 60 0,36 
   
 0,90   0, 07 0, 29 0,36 0,19 

Eu  1857,71  X ' a3  X ' A 3 X (6)

 1360, 04  662, 09 46, 2 64,81 36,85


 444, 64   
Sendo a3    e A3   46, 2 50,90 45,15 12,99  .
 346,57   64,81 45,15 153, 05 0, 06 
   
 153,15   36,85 12,99 0, 06 15, 27 

d50  7, 43  X ' a4  X ' A 4 X (7)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

169
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

 0,32   0, 45 0, 06 0,16 0, 04 


 2,94   0,15 
Sendo a4    e A4   0, 06 0, 41 0,12
.
 0, 04   0,16 0,12 0, 29 0, 28 
   
 0,94   0, 04 0,15 0, 28 0, 21

Cvu  3,84  X ' a5  X ' A 5 X (8)


 0,18   0,14 0,11 0,13 0, 00 
 1,85   
Sendo a5    e A5   0,11 0,17 0, 22 0,18  .
 0, 48   0,13 0, 22 0,31 0,11 
   
 0,16   0, 00 0,18 0,11 0, 21 

Tabela 1- Equações de codificação das variáveis geométricas do hidrociclone.

( Di / Dc )  0, 21 ( Do / Dc )  0, 27 ( L / Dc )  5,8   14,5
X1  X2  X3  X4 
0, 05 0, 05 1,1 3,3

Para a obtenção dos resultados considera-se o seguinte domínio para as variáveis de


projeto codificadas: -1,66 ≤ Xi ≤ 1,66 (i = 1, ..., 4), e que corresponde ao intervalo de validade
das equações empíricas utilizadas (Salvador, 2017). Além disso, quatro estudos de caso foram
analisados: Caso 1 (maximizar η e minimizar RL), Caso 2 (maximizar η e minimizar Eu), Caso
3 (minimizar RL e minimizar Eu) e Caso 4 (maximizar η, minimizar RL e minimizar Eu). Para
cada um destes foram estabelecidas restrições com o objetivo de garantir um desempenho
satisfatório dos hidrociclones otimizados, além de garantir a viabilidade física dos
equipamentos. Estas são resumidas como: i) a eficiência total maior ou igual a 70% (η ≥
70%), ii) a razão de líquido menor ou igual a 30% (RL ≤ 30%), iii) o número de Euler menor
ou igual a 5000 (Eu ≤ 5000), iv) o diâmetro de corte menor ou igual a 10 μm (d50 ≤ 10 μm), v)
a concentração volumétrica do underflow maior ou igual a 4% (Cvu ≥ 4%) e vi) o
comprimento total do hidrociclone maior que o comprimento de sua seção cônica (L > H).
Para avaliação das restrições probabilísticas no algoritmo IRA, definiu-se como valor
médio (  X i ) o próprio valor da variável de projeto, e o desvio padrão (  X i ) foi definido a
partir de um coeficiente de variação igual a 10% para todas as variáveis de projeto. Sendo
assim, o desvio padrão é obtido multiplicando-se o referido coeficiente de variação pelo valor
médio de cada variável. Para fins de comparação, cada um dos estudos de caso foram
resolvidos de forma nominal (β = 0) e com confiabilidade (β = 4). Os parâmetros utilizados na
execução do algoritmo MODE+IRA foram: 100 indivíduos na população (N = 100), 500
gerações (Ngen = 500), probabilidade de cruzamento igual a 0,9 (Cr = 0,9), fator de
perturbação igual a 0,9 (F = 0,9), tolerância do erro na busca pelo ponto mais provável de
falha no IRA igual a 1×10-9 com estimativas iniciais iguais a 0.

4. RESULTADOS E DISCUSSÃO

Na Fig. 2 são apresentadas as curvas de Pareto obtidas considerando β = 0 e β = 4 para


cada um dos casos, 1(a), 2(b), 3(c) e 4(d). De maneira geral, é possível observar em cada uma
das curvas o comportamento conflitante entre cada um dos objetivos, isto é, na medida que
um objetivo é favorecido, os outros são prejudicados e vice-versa. Ainda nessa figura, fica
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

170
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

evidente o efeito da inserção de confiabilidade no problema de otimização. As curvas de


Pareto obtidas considerando confiabilidade apresentam uma deterioração em relação às curvas
nominais para os casos estudados. Na prática, essa degradação representa uma maior garantia
de atendimento às restrições probabilísticas impostas, isto é, uma solução confiável implica, a
priori, em um "pior" resultado em relação ao resultado nominal.
É importante ressaltar que tal deterioração manifesta-se de forma diferente em cada
estudo de caso. No Caso 1, a inserção de confiabilidade provocou uma redução da curva de
Pareto no lado direito e um afastamento em relação à curva nominal no lado esquerdo. No
Caso 2, houve um encurtamento da curva com confiabilidade no lado esquerdo e um
afastamento em relação à curva nominal no lado direito. Por sua vez, no Caso 3, o efeito da
inserção de confiabilidade no problema de otimização foi um completo descolamento da
curva de Pareto com confiabilidade em relação à nominal. Por fim, no Caso 4, ocorreu uma
redução da região de espalhamento dos pontos da curva com confiabilidade em relação à
nominal.
2000
30  HONC1-C  HONC2-C
 1800 
25 HOCC2-C
HOCC1-C 1600
20 1400
HOCC1-B
RL (%)

Eu

15 HOCC1-A 1200 HOCC2-A HOCC2-B


HONC1-B 1000 HONC2-A
10 HONC2-B
800
5 HONC1-A
600
75 80 85 90 95 100 75 80 85 90 95 100
 (%)  (%)
(a) Caso 1 (max η e min RL) (b) Caso 2 (max η e min Eu)

5000
HONC4-B HOCC4-B
HONC3-A  5000
HOCC3-A  =0
4000 4000 = 4
3000 3000
Eu

HOCC3-B HOCC4-C HONC4-C


Eu

2000
2000
1000 HOCC4-A
HOCC3-C
1000 HONC3-B 5
HONC3-C 10 HONC4-A 100
15 90
5 6 7 8 9 10 11 12 R 20
L (
% 25 80 %)
RL (%) )
30 70 (

(c) Caso 3 (min RL e min Eu) (d) Caso 4 (max η, min RL e min Eu)

Figura 2- Curvas de Pareto obtidas nas otimizações nominal e com confiabilidade.

Para compreender melhor os diferentes efeitos da inserção de confiabilidade nas curvas


de Pareto e para analisar melhor os hidrociclones obtidos foram destacados alguns
separadores em cada uma das curvas da Fig. 2. Os equipamentos destacados nas curvas
obtidas por otimização convencional foram denominados Hidrociclones Otimizados
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

171
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Nominalmente dos Casos 1, 2, 3 e 4 (HONC1, HONC2, HONC3 e HONC4), já aqueles


destacados nas curvas com confiabilidade foram nomeados como Hidrociclones Otimizados
com Confiabilidade dos Casos 1, 2, 3 e 4 (HOCC1, HOCC2, HOCC3 e HOCC4). Além disso,
nas curvas de Pareto do Caso 1 foram destacados os hidrociclones de menor RL (A), de maior
η (C) e um que apresenta um compromisso entre os dois objetivos (B). No Caso 2, os
hidrociclones destacados em cada curva eram os de menor Eu (A), maior η (C) e aquele que
apresenta um compromisso entre esses objetivos (B). Já no Caso 3, os separadores de cada
curva em destaque são os de menor RL (A), menor Eu (C) e um que concilia as duas respostas
(B). Por fim, no Caso 4, em que as três respostas são otimizadas, são destacados em cada
curva os hidrociclones de melhor valor de cada resposta, Eu (A), RL (B) e η (C). Os valores
das variáveis de projeto e das respostas dos separadores destacados são mostrados na Tabela
2.

Tabela 2- Hidrociclones destacados da Figura 2.

Ponto X1 X2 X3 X4 η (%) RL (%) Eu d50 (μm) Cvu (%)


HONC1-A -1,10 1,16 -1,66 -0,74 77,7 5,2 4794 9,9 10,6
HONC1-B -1,57 1,66 1,65 -1,65 92,0 11,2 4951 8,7 7,9
HONC1-C 1,66 -0,68 1,65 -1,66 96,1 29,9 1867 1,4 4,0
Caso 1
HOCC1-A -0,88 1,16 -1,66 1,65 78,7 6,8 3763 8,5 8,6
HOCC1-B -1,09 1,62 1,65 -1,66 91,1 11,6 3590 7,8 7,6
HOCC1-C 1,66 -0,18 1,66 -1,66 94,5 23,6 1754 3,0 4,6
HONC2-A 0,89 1,65 0,55 -1,08 75,4 10,7 779 10,0 7,4
HONC2-B 1,04 1,66 1,66 -1,66 90,6 12,3 1137 6,7 7,4
HONC2-C 1,66 -0,65 1,65 -1,66 95,9 29,5 1856 1,5 4,1
Caso 2
HOCC2-A 0,85 1,63 0,95 -1,60 83,7 11,4 888 8,4 7,6
HOCC2-B 1,00 1,64 1,66 -1,66 90,6 12,3 1129 6,6 7,4
HOCC2-C 1,66 -0,18 1,65 -1,66 94,4 23,6 1751 3,0 4,6
HONC3-A -0,92 1,19 -1,66 -0,76 77,0 5,1 4273 10,0 10,6
HONC3-B 0,49 1,51 -1,64 1,63 70,8 7,0 1427 10,0 8,1
HONC3-C 0,90 1,65 0,54 -1,09 75,5 10,7 780 10,0 7,4
Caso 3
HOCC3-A -0,88 1,17 -1,65 1,66 78,7 6,9 3748 8,5 8,6
HOCC3-B 0,47 0,85 -1,61 1,65 75,8 9,0 1675 8,8 6,6
HOCC3-C 0,89 1,47 0,80 -1,57 82,4 11,4 884 8,5 7,3
HONC4-A 0,85 1,55 0,75 -0,73 73,3 11,1 794 9,9 6,7
HONC4-B -1,12 1,16 -1,61 -0,76 77,6 5,3 4824 10,0 10,6
HONC4-C 1,65 -0,56 1,64 -1,66 95,5 28,3 1826 1,8 4,1
Caso 4
HOCC4-A 0,91 1,38 0,81 -1,42 80,8 11,6 886 8,6 7,0
HOCC4-B -0,88 1,15 -1,64 1,64 78,6 6,9 3764 8,5 8,5
HOCC4-C 1,62 -0,16 1,65 -1,66 94,2 23,3 1715 3,1 4,6

Na Tabela 2 observa-se que todos os hidrociclones apresentam suas respostas dentro dos
intervalos definidos nas restrições, sendo que os separadores obtidos com confiabilidade
possuem os valores dessas respostas mais distantes dos limites de cada restrição, contando,
assim, com uma maior garantia de que tais restrições serão respeitadas na prática. Além disso,
observa-se que o separador HONC1-C é o hidrociclone de maior eficiência total dentre os
obtidos, possuindo um valor de η igual a 96,1%. Por sua vez, o equipamento HONC3-A é
aquele de menor RL, apresentando um valor dessa resposta igual a 5,1%. Por fim, o
hidrociclone de menor número de Euler é o HONC2-A, com valor de Eu igual a 779. Assim,
as diferentes características desses três hidrociclones mostram a ampla diversidade dos pontos
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

172
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

obtidos nas otimizações, que compreende equipamentos altamente separadores, fortemente


concentradores e econômicos em consumo energético.
Ainda nessa tabela, observa-se que o hidrociclone de maior η da curva de Pareto nominal
do Caso 1 (HONC1-C) apresenta valores de RL e Cvu próximos dos limites das restrições
dessas duas respostas. Sendo assim, na otimização com confiabilidade, pontos com essas
características não podem ser alcançados, pois as restrições probabilísticas seriam feridas.
Portanto, como RL é um dos objetivos da otimização, a curva de Pareto com confiabilidade
apresenta um encurtamento no lado direito, na região que se aproxima do limite da restrição
para essa resposta. Por sua vez, no lado esquerdo da curva nominal do Caso 1, o ponto de
menor RL (HONC1-A) apresenta valores de Eu e d50 próximos aos limites de suas respectivas
restrições. Tal fato faz com que os pontos da curva com confiabilidade nessa região
apresentem valores mais distantes desses limites e, como Eu e d50 não são objetivos da
otimização no Caso 1, o efeito provocado pela inserção de confiabilidade, no lado esquerdo
da curva, é o distanciamento em relação à curva nominal.
Uma análise similar pode ser realizada para os demais casos. Dessa forma, no Caso 2, o
ponto de maior η da curva nominal (HONC2-C) apresenta valores de RL e Cvu próximos aos
limites das restrições dessas respostas. Assim, como RL e Cvu não são objetivos da otimização
do Caso 2, acontece um distanciamento da curva com confiabilidade em relação à nominal
nesta região (lado direito). Já no lado esquerdo, o ponto de menor Eu da curva nominal
(HONC2-A) apresenta valores de η e d50 próximos aos valores limite determinados nas
restrições. Portanto, como η corresponde a um dos objetivos da otimização, ocorre um
encurtamento da curva nessa região, próxima ao valor limite dessa resposta.
Já no Caso 3, todos os pontos destacados da curva de Pareto nominal (HONC3-A,
HONC3-B e HONC3-C) apresentam d50 igual ao valor limite determinado na restrição dessa
resposta. Sendo assim, como essa resposta não é um dos objetivos da otimização do Caso 3,
esse fato explica o distanciamento da curva com confiabilidade em relação à nominal.
Por fim, nos pontos destacados da curva nominal do Caso 4, o hidrociclone de menor Eu
(HONC4-A) apresenta η e d50 com valores próximos aos limites das restrições, o separador de
menor RL (HONC4-B) possui valores de Eu e d50 nas proximidades dos limites impostos nas
restrições dessas duas respostas e o ponto de maior η (HONC4-C) apresenta RL e Cvu com
valores próximos aos limites definidos nas restrições. Tal fato indica que, em todas as regiões
da curva de Pareto, alguma restrição envolvendo ao menos um dos objetivos da otimização é
ativada ao inserir-se confiabilidade no procedimento. Isso justifica a redução na região de
espalhamento dos pontos da curva com confiabilidade em relação à nominal no Caso 4.

5. CONCLUSÕES

No presente trabalho foram realizadas análises considerando o projeto de hidrociclones


nos contextos nominal e confiável. Para essa finalidade o algoritmo MODE foi associado à
técnica para análise de confiabilidade IRA. Os resultados obtidos demostram que a inserção
de confiabilidade no problema de otimização provoca uma deterioração da curva de Pareto em
relação à curva nominal, sendo esse o "preço que se paga" para garantir uma menor
sensibilidade do vetor de variáveis de projeto em relação ao atendimendo das restrições
probabilísticas. Além disso, também observa-se que a forma dessa deterioração depende das
restrições que são ativas durante a análise do estudo de caso. De forma geral, caso essas
restrições envolvam respostas que são objetivos, a tendência é que ocorra um encurtamento da
curva nas proximidades dos limites das restrições desses objetivos. Mas, caso os objetivos da

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

173
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

otimização não estejam dentre as restrições ativas, a forma da deterioração tende a ser um
distanciamento da curva com confiabilidade em relação à nominal.
Em resumo, conclui-se que os hidrociclones obtidos apresentam, de fato, um desempenho
satisfatório em todas as respostas consideradas, uma vez que eles possuem valores dessas
respostas dentro das restrições estipuladas, e as mesmas são coerentes fisicamente.
Finalmente, os hidrociclones obtidos usando a técnica com confiabilidade apresentaram
valores mais distantes em relação aos limites estipulados nas restrições, o que indica que eles
representam, de fato, uma solução mais confiável em relação à correspondente nominal.

Agradecimentos

Os autores agradecem à CAPES, à FAPEMIG e ao CNPQ pelo suporte financeiro


necessário para a realização deste trabalho.

REFERÊNCIAS

Du, X. (2005), “First order and second reliability methods”, in Probabilistic Engineering Design, University of
Missouri, Rolla.
Garcia, V.A. (2018), “Projeto de hidrociclones usando otimização robusta e evolução diferencial”, Dissertação
de Mestrado, FEQUI/UFU, Uberlândia.
Lobato, F.S. (2008), “Multi-objective optimization for engineering system design”, Tese de Doutorado,
FEMEC/UFU, Uberlândia.
Lobato, F. S.; Gonçalves, M.S.; Jahn, B.; Cavalini Jr, A.A.; Steffen Jr, V.S. (2017), Reliability-Based
Optimization Using Differential Evolution and Inverse Reliability Analysis for Engineering System Design.
Journal of Optimization Theory and Applications, 174, 894–926.
Rosenblatt, M. (1952), Remarks on a multivariate transformation. Annals of Mathematical Statistics, 23, 470-
472.
Salvador, F.F. (2017), “Otimização geométrica de hidrociclones com cilindros e cones permeáveis”, Tese de
Doutorado, FEQUI/UFU, Uberlândia.
Storn, R.; Price, K. (1997), Differential Evolution – A Simple and Efficient Heuristic for global Optimization
over Continuous Spaces. Journal of Global Optimization, 11, 341–359.
Svarovsky, L. (2000), “Solid-liquid separation”, 4º ed., Butterworth-Heinemann, Oxford.

RELIABILITY-BASED MULTI-OBJECTIVE OPTIMIZATION TO


HYDROCYCLONE DESIGN

Abstract. Hydrocyclones are equipment used to accomplish the solid-liquid separation


through the centrifugal action. The performance of these separators is highly dependent on
geometry and can be measured by parameters such as total efficiency, underflow-to-
throughput ratio, Euler number, cut size and underflow volumetric concentration. In some
applications, it is desirable that the hydrocyclone presents good performance in all these
parameters, however some of them have a conflicting beahavior among each other. In this
contribution, the aim is to determine the hydrocyclone geometry using multi-objective
optimization associated with reliability analysis. The obtained results demonstrates that the
insertion of reliability causes deteriorations in Pareto's curve in relation to nominal curve
(without analysis of uncertainties).

Keywords: Hydrocyclone, Multi-objective Optimization, Reliability.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

174
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

AVALIAÇÃO DE ESTIMATIVAS INICIAIS CAÓTICAS PARA O ALGORITMO DE


EVOLUÇÃO DIFERENCIAL NA ESTIMAÇÃO DE PARÂMETROS DE MODELOS
TERMODINÂMICOS

Gustavo Mendes Platt1 - gmplatt@furg.br


Jéssica Morgan1 - jehmorgan.jm@gmail.com
1 Universidade Federal do Rio Grande, Escola de Quı́mica e Alimentos
Santo Antônio da Patrulha, RS, Brasil

Resumo. A estimação de parâmetros é uma etapa fundamental para a previsão de equilı́brio


lı́quido-vapor empregando-se modelos termodinâmicos. A previsão acurada da coexistência
de fases é, por sua vez, subsı́dio para o projeto de separadores (colunas de destilação, por
exemplo). Métodos determinı́sticos clássicos (como o algoritmo Simplex de Nelder-Mead) são
comumente empregados para tais finalidades; por outro lado, a qualidade das estimativas ini-
ciais para os parâmetros de interação binária do modelo em questão são fundamentais para
a identificação de ótimos globais – já que, em diversos casos, há multimodalidade. Com base
neste cenário, mais recentemente, metaheurı́sticas vêm sendo empregadas em problemas de
estimação de parâmetros, com destaque para o método de Evolução Diferencial. Neste traba-
lho, propõe-se avaliar o efeito de estimativas iniciais – geradas aleatoriamente ou seguindo um
modelo caótico – nos resultados para a estimação de parâmetros do modelo de Wilson em dois
sistemas binários, empregando-se o algoritmo de Evolução Diferencial. Os resultados indicam
que estimativas inicias caóticas produziram, em ambos os casos, maior aderência aos dados
experimentais do que as estimativas iniciais aleatórias, sem acréscimo de custo computacional.

Palavras-chave: Estimação de parâmetros, Evolução Diferencial, Modelos caóticos, Proble-


mas multimodais.

1. INTRODUÇÃO

A estimação de parâmetros de modelos termodinâmicos tem importância fundamental para


a aderência de tais modelos a dados experimentais e, em última análise, no projeto de proces-
sos de separação que envolvem equilı́brios lı́quido-vapor, lı́quido-lı́quido etc. Um dos pontos
centrais no processo de estimação de parâmetros — além da formulação de ı́ndices de mérito
apropriados (Bonilla-Petriciolet et al., 2007) — é a escolha do método de otimização a ser
empregado. Métodos determinı́sticos clássicos (e diretos, ou seja, que não envolvem deriva-
das da função-objetivo) vêm sendo empregados costumeiramente, por conta de sua facilidade

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

175
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

de implementação (além da existência de códigos prontos disponı́veis) e velocidade de con-


vergência. Dentre tais métodos, destaca-se o algoritmo Simplex de Nelder & Mead (1965),
largamente empregado no contexto da Engenharia Quı́mica (Xiong & Jutan, 2003). Por outro
lado, é sabido que metodologias determinı́sticas convencionais são sensı́veis às estimativas ini-
ciais fornecidas. Em outras palavras, a qualidade do ótimo obtido é consequência de uma boa
escolha de estimativas iniciais. De modo geral, a concepção das metaheurı́sticas pressupõe que
tal classe de algoritmos não é dependente, ao menos teoricamente, de boas estimativas iniciais.
Por outro lado, tal situação não se verifica em casos práticos (Yüzgeç & Eser, 2018).
O presente trabalho propõe avaliar o efeito das estimativas iniciais de uma metaheurı́stica
– o algoritmo de Evolução Diferencial (Storn & Price, 1995) – no problema de estimação de
parâmetros para o modelo de Wilson (1964) considerando duas misturas binárias. Será feita
uma comparação entre estimativas iniciais aleatórias (como classicamente é feito) e mapas
caóticos. Tal análise pode ser útil quando se considera a possibilidade de “hibridizar” o algo-
ritmo de Evolução Diferencial com alguma técnica determinı́stica – que é afetada pela qualidade
das estimativas iniciais.

2. METODOLOGIA

2.1 O problema de estimação de parâmetros

Para os casos abordados neste trabalho será considerado o modelo de Wilson (1964), tendo
em consideração a baixa pressão do sistema, o que permite considerar a fase vapor como gás
ideal. Portanto, as relações de equilı́brio lı́quido-vapor serão expressas como:

P yi = Pisat xi γi (1)

com Pisat representando a pressão de vapor para a substância i e P indicando a pressão do


sistema. γi refere-se ao coeficiente de atividade para o componente i. As frações molares para
as fases lı́quida e vapor são expressas, como usual, por xi e yi , respectivamente. Deste modo, o
coeficiente de atividade experimental será dado por:
P yi
γiexp = (2)
Pisat xi
As relações para o coeficiente de atividade para o modelo de Wilson (1964), em uma mistura
binária, são dadas por:
 
calc
 Λ12 Λ21
ln γ1 = − ln (x1 + Λ12 x2 ) + x2 −
x1 + Λ12 x2 x2 + Λ21 x1
  (3)
calc
 Λ12 Λ21
ln γ1 = − ln (x2 + Λ21 x1 ) − x1 −
x1 + Λ12 x2 x2 + Λ21 x1
com o ı́ndice calc indicando o valor calculado pelo modelo. Mais ainda, os parâmetros Λ12 e
Λ21 são calculados por:
   
V2 −θ1 V1 −θ2
Λ12 = exp ; Λ21 = exp (4)
V1 RT V2 RT
onde Vi é o volume molar para a substância i, R é a constante universal dos gases e T é a tempe-
ratura absoluta em Kelvin. Portanto, os parâmetros a serem estimados são θ1 e θ2 , denominados

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

176
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

parâmetros de interação binária (assimétricos). Propõe-se o uso da expressão objetivo a seguir,


de modo a minimizar os desvios quadráticos entre os coeficientes de atividade experimentais e
calculados:
p c exp
!2
calc
X X γi,j − γi,j (θ1 , θ2 )
F (θ1 , θ2 ) = exp (5)
i=1 j=1
γ i,j

onde p é o número de pontos experimentais e c é o número de componentes na mistura (nesse


caso, c = 2).
O problema de estimação de parâmetros será tratado aqui como um problema irrestrito, uma
vez que não há restrições fı́sicas plausı́veis para os parâmetros θ1 e θ2 .

2.2 O Algoritmo de Evolução Diferencial

O algoritmo de Evolução Diferencial (DE) é uma metaheurı́stica populacional proposta


por Storn & Price (1995) que vem sendo extensivamente aplicada em problemas de diversas
áreas da Engenharia. A DE, em sua versão canônica, baseia-se em três operadores: mutação,
recombinação (crossover) e seleção. De forma resumida, a etapa de mutação seleciona, para
cada elemento da população, três indivı́duos (vetores representados por x1 , x2 e x3 , distintos
entre si e distintos do elemento corrente xi ) e efetua uma operação vetorial dada por vi =
x1 + F (x2 − x3 ), produzindo um vetor-mutante vi . Após esse passo, os elementos do vetor
mutante vi são “misturados”, em uma operação de recombinação, com os elementos do vetor
original xi , gerando um chamado vetor-tentativa ui . Nesta etapa, um parâmetro de controle CR,
indicado uma crossover rate, é empregado. Finalmente, em uma etapa final de seleção, uma
operação “gulosa” seleciona, entre xi e ui , aquele que apresenta melhor fitness para continuar
na população em uma nova geração. A descrição detalhada do algoritmo pode ser consultada
em Storn & Price (1995). O algoritmo de Evolução Diferencial foi aplicado com o seguinte con-
junto de parâmetros: 25 indivı́duos na população, CR = 0, 8 (constante de crossover), F = 0, 5
(parâmetro para etapa de mutação). O número de gerações G foi selecionado especificamente
para cada problema, de modo a ilustrar o efeito das estimativas iniciais no problema.

2.3 Estimativas iniciais caóticas

Usualmente, o algoritmo de Evolução Diferencial emprega estimativas inicias aleatórias


uniformemente dispersas pelo domı́nio do problema. O que se pretende avaliar nesse trabalho é
justamente o efeito das estimativas iniciais no desempenho da metaheurı́stica. Conforme Zhang
& Feng (2018), a conversão entre o mapa caótico e as variáveis será dada pela expresssão:
(n)
θi = a + (b − a)x(n) (6)

onde x(n) será dada pelo mapa logı́stico:

x(n+1) = µx(n) (1 − x(n) ), n = 0, 1, . . . (7)

com 0 < x(0) < 1 e µ = 4. Ademais, x(0) será considerado um número aleatório com
distribuição uniforme 0-1. As estimativas iniciais serão geradas com a = 0 e b = 2000.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

177
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

3. RESULTADOS E DISCUSSÕES

A presente seção detalha os resultados obtidos para duas misturas binárias, formadas por
tert-butanol (1) + 1-butanol (2) e ácido acético (1) + anisol (2). Os dados de equilı́brio lı́quido-
vapor, bem como outros parâmetros necessários à estimação de parâmetros — como constantes
da equação de Antoine para cálculo de pressões de saturação de componentes puros e volumes
molares de substâncias puras — estão disponı́veis em Wisniak & Tamir (1976) e Mali et al.
(2017), respectivamente.

3.1 Sistema tert-butanol (1) + 1-butanol (2)

Para o sistema binário tert-butanol (1) + 1-butanol (2) considerou-se uma pressão de 760
mmHg, com dados experimentais publicados por Wisniak & Tamir (1976). Deve-se ressaltar
que este problema especı́fico apresenta um mı́nimo local e um mı́nimo global na estimação
de parâmetros, o que justifica o uso de metaheurı́sticas. As coordenadas do mı́nimo local são
(θ1 , θ2 ) = (852.2, −607.8), com uma função objetivo F = 0.0333. Por outro lado, o mı́nimo
global do problema está em (θ1 , θ2 ) = (−865.1, 2419.9), com F = 0.0111.
Para as estimativas inicias caóticas empregou-se, na Eq. (6), a = 0 e b = 2000 (escolhidos
arbitrariamente, uma vez que o problema é intrinsecamente irrestrito). De modo similar, as
estimativas inicias aleatórias também foram geradas no intervalo [0, 2000].
As Figuras 1(a) e 1(b) apresentam estimativas iniciais tı́picas para as versões caótica e
aleatória do algoritmo, respectivamente. Deve-se notar que, apenas por uma inspeção visual
de tais figuras, não é possı́vel notar uma diferença significativa entre tais estimativas iniciais.

(a) Caóticas (b) Aleatórias

Figura 1- Estimativas iniciais: exemplo tı́pico.

A Figura 2 apresenta o mapa de resposta para a coordenada θ1 para os elementos da população


inicial da Evolução Diferencial. Neste caso, para a estimativa inicial caótica, os elementos
consecutivos são obtidos pelas Eqs. (6) e (7). Para a população inicial aleatória, os pontos
consecutivos representam somente a indiciação da população. Os resultados da Fig. 2 apon-
tam claramente as diferenças entre as estimativas inicias caótica e aleatória, que não podem ser
facilmente percebidas nas Figs. 1(a) e 1(b).
Os resultados para 1000 execuções de cada versão do algoritmo de Evolução Diferencial
— com estimativas iniciais caóticas e aleatórias — são apresentados na Tabela 1. Nota-se que

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

178
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Mapas de resposta para estimativas iniciais caóticas (em vermelho) e aleatórias (em azul).

estimativas iniciais caóticas produzem um menor valor médio para a função-objetivo, o que é
desejável para o problema em questão. Mais ainda, o pior valor para a versão caótica também
produz um resultado mais favorável do que a versão aleatória. Foram empregadas 50 gerações
para o algoritmo da Evolução Diferencial, de modo a ressaltar o efeito das diferenças entre as
estimativas iniciais. Valores maiores para o número de gerações acabam por implicar em valores
finais muito próximos (ou “agrupados”), tornando as possı́veis diferenças menos evidentes.

Tabela 1- Resultados da Evolução Diferencial com estimativas iniciais aleatórias e caóticas – Sistema
tert-butanol (1) + 1-butanol (2)

Média Pior Melhor


Estimativas aleatórias 0.0224518 0.0395008 0.0111469
Estimativas caóticas 0.0207987 0.0389460 0.0111469

Uma visão gráfica dos resultados das 1000 execuções para as duas versões do algoritmo é
apresentada na Fig. 4, considerando-se o melhor elemento da população para cada execução do
algoritmo, ao final das 50 gerações.

3.2 Sistema ácido acético (1) + anisol (2)

Os dados de equilı́brio lı́quido-vapor para o sistema ácido acético (1) + anisol (2) a 96.15
kPa foram publicados por Mali et al. (2017). As pressões de vapor para componentes puros
foram calculadas pela equação de Antoine, com coeficientes também disponı́veis em Mali et al.
(2017).
Neste exemplo, o número de gerações no algoritmo da Evolução Diferencial foi G = 30.
Conforme já ressaltado, a ideia é não permitir que o algoritmo localize, de forma acurada, o
ótimo do problema, mas se aproxime das vizinhanças da solução; assim, as diferenças entre as
estimativas iniciais aleatórias e caóticas podem ser facilmente evidenciadas.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

179
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Resultados finais (1000 execuções) para o sistema tert-butanol (1) + 1-butanol (2).

Os resultados para 1000 execuções estão apresentados na Tabela 2. Nota-se uma melhor
performance do algoritmo com estimativas iniciais caótica frente àquele com estimativas iniciais
aleatórias. Além de um valor médio menor para a função-objetivo para o modelo caótico, o pior
resultado para a versão caótica é mais próximo do ótimo global do que aquele calculado pela
versão aleatória. Os melhores resultados, para ambas as versões, correspondem ao ótimo global
do problema.

Tabela 2- Resultados da Evolução Diferencial com estimativas iniciais aleatórias e caóticas – Sistema
ácido acético (1) + anisol (2)

Média Pior Melhor


Estimativas aleatórias 0.0315422 0.1817227 0.0312987
Estimativas caóticas 0.0313244 0.0554251 0.0312987

4. CONCLUSÕES

Esse trabalho avaliou o efeito das estimativas iniciais na estimação de parâmetros de um


modelo termodinâmico empregando uma metaheurı́stica, o algoritmo de Evolução Diferencial.
Os resultados obtidos para as duas misturas binárias estudadas indicam que estimativas iniciais
caóticas produzem melhores resultados do que estimativas iniciais aleatórias para o problema
em questão.
Sugere-se, portanto, maiores investigações sobre o uso de tais estimativas caóticas princi-
palmente nos casos onde há hibridização de algoritmos do tipo estocástico + determinı́stico.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

180
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 4- Resultados finais (1000 execuções) para o sistema ácido acético (1) + anisol (2).

Agradecimentos

A estudante Jéssica Morgan agradece à Universidade Federal do Rio Grande – FURG pela
bolsa de Iniciação Cientı́fica (EPEC-Pesquisa) durante o perı́odo de realização deste trabalho.

Referências

Bonilla-Petriciolet, A.; Bravo-Sánchez, U. I.; Castillo-Borja, F.; Zapiain-Salinas, J. G.; Soto-Bernal, J. J.


(2007), The performance of simulated annealing in parameter estimation for vapor-liquid equilibrium
modeling, Brazilian Journal of Chemical Engineering, 24(1), 151-162.
Zang, X.; Feng, T. (2018), Chaotic bean optimization algorithm. Soft Computing, 22, 67-77.
Nelder, J. A.; Mead, R. (1965), A simplex method for function minimization. Computer Journal, 7(4),
308-313.
Xiong, Q.; Jutan, A. (2003), Continuous optimization using a dynamic simplex method. Chemical En-
gineering Science, 58, 3817-3828.
Platt, G. M.; Aragão, M. E.; Borges, F. C.; Goulart, D. A. (2020), Evaluation of a New Multimodal
Optimization Algorithm in Fluid Phase Equilibrium Problems. Inginerı́a e Investigación, 40(1), 1-7.
Platt, G. M. (2016), Numerical experiments with new metaheuristic algorithms in phase equilibrium
problems. International Journal of Mathematical Modelling and Numerical Optimisation, 7(2), 189-
211.
Platt, G. M.; Lobato, F. S.; Moura Neto, F. D.; Libotte, G. B.; Goulart, D. A. (2021), Geometri-
cal Tools to Teaching Azeotropy Using Simplified Thermodynamic Models. International Journal
of Continuing Engineering Education and Life-Long Learning (em impressão) doi: 10.1504/IJCE-
ELL.2021.10029662.
Yüzgeç, U.; Eser, M. (2018), Chaotic based differential evolution algorithm for optimization of baker’s
yeast drying process. Egyptian Informatics Journal, 19, 151-163.
Storn, R.; Price, K. (1997), Differential evolution – a simple and efficient heuristic for global optimiza-
tion over continuous spaces. Journal of Global Optimization, 11(4), 341-359.
Wilson, G. M. (1964), Vapor-liquid equilibrium. XI. A new expression for the excess free energy of
mixing. Journal of The American Chemical Society, 86(2), 127-130.
Wisniak, J.; Tamir, A. (1976), Correlation of boiling points of mixtures. Chemical Enginering Science,
31(8), 631-635.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

181
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Mali, N. A.; Mali, P. W.; Patil, A. P.; Joshi, S. S. (2017); Vapor-Liquid Equilibrium Data for Binary
Mixtures of Acetic Acid + Anisole, Acetone + Anisole, and Isopropanol + Anisole at Pressure 96.15
kPa. Journal of Chemical & Engineering Data, 62(3), 947-953.

EVALUATION OF CHAOTIC INITIAL ESTIMATES FOR THE DIFFERENTIAL


EVOLUTION ALGORITHM IN THE PARAMETER ESTIMATION FOR
THERMODYNAMIC MODELS

Abstract. Parameter estimation is a crucial step for the prediction of vapor-liquid equilibrium
employing thermodynamic models. The accurate prediction of the phase coexistence is, in turn,
a basis for the design of separation processes (for instance, distillation columns). Classical
deterministic methods (such as the Nelder-Mead Simplex) are commonly employed for these
tasks; on the other hand, the quality of the initial estimates for the binary interaction para-
meters to the model under discussion is fundamental for the identification of global optima –
since we can observe, in several cases, a multimodal problem. Considering this scenario, more
recently, metaheuristics have been used in parameter estimation problems, with emphasis on
the Differential Evolution algorithm. In this work, we propose to evaluate the effect of initial
estimates – randomly generated or following a chaotic model – in the results of a parameter
estimation problem for the Wilson model in two binary mixtures, employing the Differential Evo-
lution algorithm. The results indicated that chaotic initial estimates produced, in both cases,
more adherence to the experimental data than the random initial estimates, without increase of
computational cost.

Keywords:Parameter Estimation, Differential Evolution, Chaotic Models, Multimodal Problems.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

182
28 a 30 de Outubro de 2020
Universidade Federal de Tocantins
Palmas - TO

PROJETO DE SISTEMAS DE ENGENHARIA UTILIZANDO O ALGORITMO DE


BUSCA FRACTAL ESTOCÁSTICA

Renata Bernardes1 - renata.bernardes@ufu.br


Fran Sérgio Lobato2 - fslobato@ufu.br
1,2 Universidade Federal de Uberlândia - Uberlândia, MG, Brasil

Resumo. O projeto de sistemas de engenharia tem um papel importante no desenvolvimento


no mundo como conhecemos hoje. Para essa finalidade, a otimização configura-se como um
conjunto de ferramentas que auxiliam a tomada de decisões durante a etapa de projeto. Neste
contexto, o estudo de Métodos Heurı́sticos é imprescindı́vel para novas e versáteis ferramentas
possam ser desenvolvidas. Diante do que foi apresentado, este trabalho tem como objetivo
aplicar o algoritmo de Busca Fractal Estocástica (BFE), que é baseado na teoria dos fractais,
para o projeto de sistemas de engenharia. Os resultados obtidos com a aplicação do algoritmo
em dois estudos de caso demonstram o potencial desta nova abordagem evolutiva.

Keywords: Projeto de sistemas de engenharia, Busca Fractal Estocástica, Otimização.

1. INTRODUÇÃO

Durante décadas, o uso de métodos baseados no uso de informações sobre a derivada da


função objetivo e das restrições foram exaustivamente estudados e avaliados em estudos de
caso com diferentes nı́veis de complexidade. Com o surgimento dos métodos heurı́sticos, uma
série de algoritmos com diferentes fundamentações teóricas têm sido propostos e desenvol-
vidos. Devido as caracterı́sticas bem particulares que podem ser encontradas no projeto de
sistemas de engenharia, tais como não linearidades, multi-modalidade, presença de restrições e
de variáveis mistas (contı́nuas, binárias, discretas e reais), a aplicação deste tipo de abordagem
nestes estudos tem-se mostrado bastante promissora. O interesse por problemas de projeto se
deve a grande importância que este tipo de estudo tem nos dias atuais, como por exemplo, em
aplicações industriais.
Os projetos são necessários em qualquer ramo da atividade humana, visto que objetiva-se
extrair o maior potencial dos processos ao mesmo tempo que minimiza-se os recursos dis-
ponı́veis. Para essa finalidade, a otimização surge como um ferramental que auxilia a tomada
de decisões de modo que o tempo dedicado ao processo possa ser reduzido. Os algoritmos
de otimização podem ser classificados em duas grandes classes, a saber, os métodos clássicos

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM - Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO - 28 a 30 Outubro 2020

183
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

(também chamados de determinı́sticos) e os métodos heurı́sticos (também denominados como


não determinı́sticos) (Lobato, 2008). Os primeiros são baseados no uso de informações sobre
o gradiente da função objetivo e das restrições para atualizar uma estimativa inicial. Para essa
finalidade, estratégias baseadas em derivadas de primeira ou segunda ordem podem ser empre-
gadas. Estes apresentam algumas limitações, dentre as quais pode-se citar (Medeiros & Kripka,
2012): i) são métodos de busca local; ii) apresentam dificuldades em trabalhar com variáveis
mistas e iii) não são capazes de lidar com funções não diferenciáveis. Já os métodos heurı́sticos
são baseados em algoritmos probabilı́sticos e que buscam imitar o comportamento de espécies,
bem como os fenômenos que podem ser observados na natureza. Estes apresentam como princi-
pal caracterı́stica o fato de não fazerem uso de informações sobre o gradiente da função objetivo
e das restrições, diferentemente dos clássicos (Lobato, 2008). São reconhecidamente métodos
de busca global, todavia, requerem um grande número de avaliações da função objetivo e das
restrições, em comparação com os clássicos.
Nas últimas décadas, a otimização tem-se consagrado como metodologia base para o projeto
de sistemas de engenharia, sendo que nos últimos anos os pesquisadores têm buscado formas
de sistematizar tais processos via uso de recursos computacionais cada vez mais sofisticados.
Na prática, isso implica no uso cada vez mais frequente dos reconhecidos métodos, visto que
a redução do tempo de processamento de problemas realı́sticos favorece a aplicação deste tipo
de abordagem. Como um dos representantes mais recentes desta classe de abordagens, destaca-
se o algoritmo de Busca Fractal Estocástica - BEF (Stochastic Fractal Search), proposto por
Salimi (2015). Em linhas gerais, o BEF é uma estratégia de otimização baseada na teoria dos
fractais para definir uma relação para a atualização do vetor de variáveis de projeto. Apesar dos
bons resultados apresentados até o presente momento, inúmeras são as questões envolvendo o
desempenho desta abordagem evolutiva no que tange a sua aplicabilidade em sistemas comple-
xos.
Diante do que foi apresentado, a presente contribuição tem por objetivo aplicar o algoritmo
de BFE no projeto de sistemas de engenharia. Este trabalho está estruturado como segue. Na
Seção 2. é apresentada uma breve descrição do algoritmo de BFE. A metodologia é apresen-
tada na Seção 3. Os resultados obtidos com a aplicação da referida técnica de otimização são
apresentados na Seção 4. A última seção apresenta as conclusões deste trabalho.

2. BUSCA FRACTAL ESTOCÁSTICA

2.1 Concepção Conceitual

Conforme descrito anteriormente, o algoritmo de BEF é fundamentado na teoria dos fractais.


De forma geral, fractal é a propriedade que um objeto possui para explicar sua auto-similaridade
em todas as escalas, bem como é caracterizar a geometria de objetos e de processos reais por
meio de uma geometria fractal (Salimi, 2015). Como exemplo, tomando uma pequena porção
de um todo de um objeto, i.e., uma célula de um corpo, podemos perceber nessa mesma célula
as caracterı́sticas presentes no corpo todo (cor da pele, dos olhos, do cabelo, além de apresentar
caracterı́sticas que não são manifestadas no organismo inteiro, mas que se encontram presente
no DNA).
As principais caracterı́sticas dos Fractais são (Salimi, 2015):

• Extensão infinita dos limites: os limites fractais são enrugados e complexos, mantendo o
padrão em várias escalas, desde as mı́nimas partes até o todo. Apesar dos limites serem

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

184
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

enrugados, são medidos linearmente com retas e a extensão dos seus limites depende do
tamanho da unidade-padrão de medida. Sendo assim, quanto mais se reduz o tamanho da
unidade-padrão, maior é a extensão do que se mede, gerando um aumento do alcance de
detalhes;

• Permeabilidade dos limites: é a esta caracterı́stica que permite uma troca de energia e de
matéria no meio ambiente ou nos processos humanos, o que proporciona um intercâmbio
de dados gerando informação, conhecimento e aumento da melhoria dos relacionamentos
em todas as escalas. A mudança de estado e as alterações de um padrão fractal para outro
são propiciadas por essa caracterı́stica;

• Auto-similaridade das formas e caracterı́sticas: é a semelhança presente nas formas e nas


caracterı́sticas dos objetos e nos processos que podem ser observadas em várias escalas,
do todo em relação aos seus componentes, exprimindo uma invariância de escala.

2.2 O Algoritmo de BEF

De forma geral, o algoritmo proposto Salimi (2015) considera as seguintes caracterı́sticas:

• Cada partı́cula da população possui uma energia potencial elétrica;

• Cada partı́cula se difunde, criando outras partı́culas aleatórias e a energia potencial da


partı́cula mãe é dividida entre as partı́culas geradas;

• Apenas as melhores partı́culas são mantidas em cada geração, sendo o restante delas
desconsiderado.

Conforme descrito por Salimi (2015), embora a busca fractal apresente um bom desempe-
nho, ela possui algumas desvantagens. Além do inconveniente de todos os parâmetros precisa-
rem ser bem definidos, não existe troca de informações entre as partı́culas numa clara tentativa
de acelerar o processo de convergência do processo. Outro ponto é que a BFE apresenta um
aumento no número de partı́culas durante as gerações, o que implica naturalmente no aumento
do tempo de processamento. Khalilpourazari et al. (2019) utilizou o algoritmo de BEF para
resolver problemas multi-objetivos complexos. Já Khalilpourazari & Khalilpourazary (2018)
aplicou este algoritmo em um problema de engenharia para a retificação de superfı́cie. Hino-
josa et al. (2018) utilizou esse algoritmo para a segmentação de imagens para o procedimento de
histologia em mamas. Chen et al. (2019) propôs a variante desse método a partir da perturbação
de soluções em potencial para a determinação de um parâmetro fotovoltaico.
De acordo com Salimi (2015), o algoritmo de BEF possui duas fases distintas, a saber, a
difusão e a difusão estática. A primeira permite que cada partı́cula se difunda em torno da sua
posição, aumentando desta forma a capacidade de exploração e, consequentemente, maximize
as chances de encontrar o mı́nimo global e evita a estagnação em um ponto de mı́nimo local.
Já na difusão estática, ao invés de aumentar o número de partı́culas na geração atual, este ope-
rador apenas considera o melhor ponto gerado na difusão, descartando o restante. Na etapa de
atualização, o algoritmo simula como um ponto atualiza sua posição baseando-se na posição
dos outros pontos do grupo, promovendo uma exploração eficiente do espaço de busca. Para
criar novas partı́culas a partir do processo de difusão, o algoritmo de BEF faz uso de um ca-
minho Gaussiano que é uma abordagem mais promissora para encontrar os mı́nimos globais,
apesar da convergência mais rápida de trabalhos envolvendo estratégias evolutivas baseadas no

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

185
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

vôo de Levy (Chen et al., 2019). Baseando-se nestas informações, Salimi (2015) propôs dois
tipos diferentes de caminhadas Gaussianas, a saber, as descritas pela Eq.(1) e pela Eq.(2).

GW1 = Gaussian(µBP , σ) + ( × BP − 0 × Pi ) (1)


GW2 = Gaussian(µP , σ) (2)

em que  e 0 são números aleatórios distribuı́dos uniformemente no intervalo [0,1], BP é a


posição do melhor ponto, Pi é o ponto i-ésimo do grupo. Na Equação (1), µBP corresponde a
|BP | e na Eq.(2), µP é igual a |Pi |. O parâmetro σ é definido como:

log(g)
σ= × (Pi − BP ) (3)

g

A inicialização da população P do algoritmo ocorre conforme a Eq.(4):

Pj = LB =  × (U B − LB) (4)

em que LB e U B são os limites inferiores e superiores do vetor de variáveis de projeto,  é


um número aleatório distribuı́do uniformemente no intervalo [0,1] e j = 1, 2, ..., D, sendo D
a dimensão do problema em análise. Após a geração da população inicial, cada indivı́duo é
avaliado segundo o valor da função objetivo e a melhor solução é armazenada.
O objetivo do processo de difusão é a exploração do espaço de busca por cada partı́cula da
população. Para melhorar essa capacidade, dois procedimentos estatı́sticos são aplicados. O
primeiro procedimento atua em cada indivı́duo da população, e é realizado um ordenamento
desses pontos baseados no valor da função objetivo, conforme Eq.(5):
rank(Pi )
P ai = (5)
N
em que rank(Pi é o ordenamento de Pi e N é o número total de pontos.
Para cada ponto que satisfaz a condição Pi < , sendo  um número aleatório distribuı́do
uniformemente no intervalo [0,1], é aplicada a Eq.(6) para atualizar cada componente de Pi ,
garantindo assim uma maior diversificação da população, conforme a seguinte relação:

Pi0 (j) = Pr (j) −  × (Pt (j) − Pi (j)) (6)

em que Pr e Pt são pontos escolhidos aleatoriamente na população e  um número aleatório


distribuı́do uniformemente no intervalo [0,1].
O segundo procedimento modifica a posição de cada vetor e é realizado o ordenamento dos
pontos obtidos no primeiro procedimento estatı́stico. Se P ai <  é satisfeito para cada ponto
criado Pi0 , a posição de Pi0 é modificada segundo as Eq.(7) e Eq.(8):

P ”i = Pi0 − ˙ × (Pt0 − BP ) se 0 ≤ 0, 5 (7)


P ”i = Pi0 + ˙ × (Pt0 − Pr0 ) se 0 > 0, 5 (8)

em que Pt0 e Pr0 são pontos aleatórios selecionados no primeiro procedimento e ˙ são números
aleatórios gerados pela distribuição Normal Gaussiana. O novo ponto P ”i substitui Pi0 se tiver
um custo melhor que Pi0 .
Mais detalhes sobre o desenvolvimento matemático do algoritmo de BEF podem ser encon-
trados no trabalho de Salimi (2015).

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

186
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

3. METODOLOGIA

Para um bom entendimento da metodologia proposta neste trabalho, os seguintes pontos


devem ser destacados:

• Parâmetros considerados pelo algoritmo de BEF: número de gerações (45), tamanho da


população (20) e número de difusões (3) (Projeto de uma Mola) e número de gerações
(140), tamanho da população (35) e número de difusões (4) (Projeto de uma Viga En-
gastada). O algoritmo de BEF foi executado 20 vezes considerando diferentes sementes
iniciais no gerador de números aleatórios. Os parâmetros apresentados foram definidos a
partir de simulações preliminares.
• O tratamento de restrições em cada um dos estudos de caso foi realizado considerando o
Método da Penalidade Estática com parâmetro de penalidade da ordem de 1010 .
• Para avaliar a qualidade dos resultados obtidos pelo algoritmo de BEF, dois problemas
clássicos no projeto de sistemas de engenharia são avaliados.

4. RESULTADOS E DISCUSSÕES

4.1 Projeto de uma Mola de Tensão/Compressão

Esse problema, estudado por Mirjalili & Lewis (2016), consiste na minimização do volume
de uma mola de tensão/compressão sujeito à restrições de deflexão mı́nima, tensão de cisalha-
mento, frequência de surto e limites no diâmetro externo. As variáveis de projeto são: diâmetro
do fio (d), diâmetro médio da espiral (D) e número de espirais (N ), como observado na Fig.1.
O diâmetro do fio (d) e o diâmetro médio da espiral (D) são representados em polegadas (in)
enquanto o número de espirais (N ) é um valor adimensional (Arora, 1989).

Figura 1- Mola Tensão/Compressão. Adaptado de Coello & Montes (2002).

Considerando a seguinte notação (→



x =[x1 x2 x3 ]=[d D N ]), o problema pode ser definido
como:
min f (x) = (x3 + 2)x2 x21 (9)
sujeito às seguintes restrições:
x32 x3
g1 (x) ≡ 1 − ≤0 (10a)
71785x41
4x22 − x1 x2 1
g2 (x) ≡ + −1≤0 (10b)
12566(x2 x1 − x1 ) 5108x21
3 4

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

187
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

140, 45x1
g3 (x) ≡ 1 − ≤0 (10c)
x22 x3
x2 + x1
g4 (x) ≡ −1≤0 (10d)
1, 5
0, 05 ≤ x1 ≤ 2, 00; 0, 25 ≤ x2 ≤ 1, 30; 2, 00 ≤ x3 ≤ 15, 00 (10e)
Esse problema foi resolvido por Coello & Montes (2002) usando novo método derivado do
Algoritmo Genético com estratégia de nichos baseado em Pareto, por Mirjalili & Lewis (2016)
usando o Algoritmo de Otimização de Baleias e por He & Wang (2007) usando o Método de
Enxame de Partı́culas. Na Tabela 1 são apresentados os melhores resultados (variáveis de pro-
jeto, função objetivo e número de avaliações da função objetivo - ∆) considerando os métodos
citados e o algoritmo de BEF.

Tabela 1- Resultados obtidos para o problema do projeto de uma mola considerando diferentes aborda-
gens.

BFE Coello & Montes (2002) Mirjalili & Lewis (2016) He & Wang (2007)
x1 (in) 0,0517 0,0520 0,0512 0,0517
x2 (in) 0,3568 0,3640 0,3452 0,3576
x3 (-) 11,2819 10,8905 12,0040 11,2445
f (in3 ) 0,0127 0,0127 0,0127 0,0127
∆ 920 80000 4410 5460

A partir dos resultados apresentados nesta tabela pode-se concluir que a metodologia pro-
posta foi capaz de encontrar a mesma solução obtida por outras estratégias. Todavia, o algo-
ritmo SFS requereu um menor custo computacional quando comparado com os outras aborda-
gens. Cabe ressaltar que, como este método faz uso de geradores de números aleatórios, a sua
solução varia de execução para execução, assim como todas as outras estratégias heurı́sticas.
Neste cenário, os resultados referentes a média, desvio padrão e o melhor resultado são apre-
sentados na Tab.2. De forma geral percebe-se que os valores do desvio padrão e da média
indicam que o algoritmo BEF se mostrou robusto, i.e., o mesmo sempre foi capaz de convergir
para a solução do problema, o que evidencia a qualidade de solução em termos de convergência
e custo computacional.

Tabela 2- Melhor valor, valor médio e desvio padrão o problema do projeto de uma mola considerando o
algoritmo de BFE.
Melhor Média Desvio Padrão
x1 (in) 0,0517 0,0517 0,0000
x2 (in) 0,3566 0,3568 0,0004
x3 (-) 11,2926 11,2819 0,0253
f (in3 ) 0,0127 0,0127 1,9148×10−8

4.2 Projeto de uma Viga Engastada

Considere a viga engastada que deve ser projetada a partir da determinação das dimensões
(h, l, t e b) via minimização do seu custo (f (x)), conforme a Fig.2 (Coello & Montes, 2002).

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

188
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

O sistema está sujeito à limitações de tensão de cisalhamento (τ ), tensão de flexão na viga


(σ), carga de flambagem na barra (Pc ), deflexão na barra (δ) e restrições, que são descritas nas
Eq.(12a) à Eq.(12g).

Figura 2- Viga engastada. Adaptado de Coello & Montes (2002).

Matematicamente, considerando a seguinte notação (→



x =[x1 x2 x3 x4 ]=[h l t b]) (in), o
problema pode ser definido como:

min f (x) = 1, 10471x21 x2 + 0, 04811x3 x4 (14, 0 + x2 ) (11)

Sujeito às seguintes restrições:

g1 (x) ≡ τ (x) − τmax ≤ 0 (12a)

g2 (x) ≡ σ(x) − σmax ≤ 0 (12b)


g3 (x) ≡ x1 − x4 ≤ 0 (12c)
g4 (x) ≡ 0, 10471x21 + 0, 04811x3 x4 (14, 0 + x2 ) − 5 ≤ 0 (12d)
g5 (x) ≡ 0, 125 − x1 ≤ 0 (12e)
g6 (x) ≡ δ(x) − δmax ≤ 0 (12f)
g7 (x) ≡ P − Pc (x) ≤ 0 (12g)
0, 1 ≤ x1 ≤ 2, 0; 0, 1 ≤ x2 ≤ 10, 0; 0, 1 ≤ x3 ≤ 10, 0; 0, 1 ≤ x4 ≤ 2, 0. (12h)
em que:

r
x2
τ= τ 02 + 2τ 0 τ ” + τ ”2 (13a)
2R
P
τ0 = √ (13b)
2x1 x2
MR
τ” = (13c)
J

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

189
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

!
x2
M =P L+ (13d)
2
v !2
u
u x2 x + x
1 3
R=t 2 + (13e)
4 2
!2 !!
√ x22 x1 + x 3
J =2 2x1 x2 + (13f)
12 2
6P L
σ= (13g)
x4 x23
4P L3
δ= (13h)
Ex33 x4
r
x23 x64
4, 013E r !
36 x3 E
Pc = 1− (13i)
L2 2L 4G
Esse problema foi resolvido por Coello & Montes (2002) usando novo método derivado do
Algoritmo Genético com estratégia de nichos baseado em Pareto, por Mirjalili & Lewis (2016)
usando o Algoritmo de Otimização por Baleias e por Rashedi et al. (2009) usando o Algoritmo
de Busca Gravitacional. Na Tabela 3 são apresentados os melhores resultados (variáveis de pro-
jeto, função objetivo e número de avaliações da função objetivo - ∆) considerando os métodos
citados e o algoritmo de BEF e os seguintes parâmetros (Coello & Montes, 2002): P =6000 lb,
L=14 in, E=30×106 psi, G=12×106 psi, τmax =13600 psi, σmax =30000 psi e δmax = 0,25 in.

Tabela 3- Resultados obtidos para o problema do projeto de uma viga considerando diferentes aborda-
gens.

BEF Coello & Montes (2002) Mirjalili & Lewis (2016) Rashedi et al. (2009)
x1 (in) 0,2057 0,2060 0,2054 0,1821
x2 (in) 1,9650 3,4713 3,4843 3,8570
x3 (in) 9,0366 9,0202 9,0374 10,0000
x4 (in) 0,2057 0,2065 0,2063 0,2024
f ($) 1,5198 1,7282 1,7305 1,8800
∆ 4935 80000 9900 10750

Nesta tabela observa-se que o valor da função objetivo obtido pelo algoritmo de BEF foi
inferior aos apresentados por outros autores. Este menor valor foi encontrado as custas de um
menor valor para a variável x2 , cujo valor foi bem inferior à destacada na literatura. De maneira
geral, pode-se concluir, assim como observado para o estudo de caso anterior, que a metodo-
logia proposta foi capaz de encontrar uma boa solução em termos da função objetivo, todavia,
as custas de um menor custo computacional quando comparado com os outras abordagens. A
Tabela 4 apresenta os resultados referentes a média, desvio padrão e o melhor resultado, res-
pectivamente. De forma geral percebe-se que os valores do desvio padrão e da média indicam

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

190
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

que o algoritmo BEF se mostrou robusto, i.e., o mesmo sempre foi capaz de convergir para a
solução do problema.

Tabela 4- Melhor valor, valor médio e desvio padrão o problema do projeto de de uma viga considerando
o algoritmo de BFE.
Melhor Média Desvio Padrão
x1 (in) 0,2057 0,2057 0,0119×10−9
x2 (in) 1,9650 1,9650 0,1606×10−9
x3 (in) 9,0366 9,0366 0,0484×10−9
x4 (in) 0,2057 0,2057 0,0013×10−9
f ($) 1,5198 1,5198 9,2342×10−12

5. CONCLUSÕES

A presente contribuição teve como objetivo avaliar a aplicação do algoritmo de BFE para o
projeto de dois sistemas de engenharia. Os resultados obtidos demonstraram que o algoritmo
sempre foi capaz de encontrar uma boa solução em termos do valor da função objetivo. Com
relação ao custo computacional, observa-se que a metodologia utiliza requereu um número me-
nor de avaliações da função objetivo em comparação com outras estratégias evolutivas. Como
trabalhos futuros pretende-se: estudar a influência dos parâmetros do algoritmo de BEF, avaliar
a sua aplicação em sistemas de engenharia com maior complexidade, bem como propor a sua
extensão para o contexto multi-objetivo.

Agradecimentos

Os autores agradecem o apoio financeiro da FAPEMIG, da CAPES e do CNPq.

REFERÊNCIAS

Arora, J. S. “Introduction to optimum design”. New York: McGraw-Hill; 1989.


Chen, X.; Yue, H.; Yu, K. “Perturbed Stochastic fractal search for solar PV parameter estimation”.
Energy, China, 189, 1-12, 2019
Coello, C. A. C; Montes, E. M. “Constraint-handling in genetic algorithms through the use of
dominance-based tournament selection”. Advanced Engineering informatics, Mexico, n. 16, p. 193-
203, 2002.
He, Q; Wang, L. “An effective co-evolutionary particle swarm optimization for constrained engineering
design problems. Eng Appl Artif Intell, 20, 89-99, 2007.
Hinojosa, S.; Dhal, K. G. G.; Elaziz, M. A., Oliva, D., Cuevas, E. “Entropy-based imagery segmentation
for breast histology using the Stochastic Fractal Search”. Neurocomputing, 321, 1, 201-215, 2018.
Khalilpourazari, S.; Khalilpourazary, S. “A Robust Stochastic Fractal Search approach for optimization
of the surface grinding process”. Swarm and Evolutionary Computation, 38, 173-186, 2018.
Khalilpourazari, S.; Naderi, B.; Khalilpourazary, S. “Multi-objective Stochastic Fractal Search: a power-
ful algorithm for solving complex multi-objective optimization problems”. Soft Computing, 24, 3037-
3066, 2019.
Lobato, F. S. “Otimização Multi-Objetivo para o Projeto de Sistemas de Engenharia”. Tese, Universidade
Federal de Uberlândia, Uberlândia, MG, 2008.
Medeiros, G. F. D; Kripka, M. “Algumas Aplicações de Métodos Heurı́sticos na Otimização de Estrutu-
ras”. CIATEC - UPF, Passo Fundo, 4, 19-32, 2012.
Mirjalili, S.; Lewis, A. “The Whale Optimization Algorithm”. Advances in engineering software, Aus-
tralia, 95, 51-67, 2016.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

191
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Rashedi, E., Nezamabadi-Pour, H., Saryazdi, S. “GSA: a gravitational search algorithm”. Inf Sci. 179,
2232-2248, 2009.
Salimi, H. “Stochastic Fractal Search: A powerful metaheuristic algorithm”. Knowledge-Based Systems,
75, 1-18, 2015.

ENGINEERING SYSTEMS DESIGN USING THE STOCHASTIC FRACTAL SEARCH


ALGORITHM

Abstract. Engineering systems design has an important role in development of world as we


know it today. In this context, the optimization is configured as a set of tools that help the
decision making during the design stage. In this scenario, the study of Heuristic Methods is
essential for new and versatile tools to be developed. In this contribution the aims is to apply
the Stochastic Fractal Search (SFS) algorithm, which is based on fractal theory, to engineering
systems design. The results obtained with the application of the optimization procedure in two
case studies demonstrates the potential of this new evolutionary approach.

Keywords: Engineering systems design, Stochastic Fractal Search, Optimization.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

192
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

TRACKING COVID-19 SPREAD USING AN EPIDEMIOLOGICAL MODEL AND


MAXIMUM A POSTERIORI ESTIMATION

Vinicius V.L. Albani1 - v.albani@ufsc.br


1 Universidade Federal de Santa Catarina, Departamento de Matemática - Florianópolis, SC, Brazil

Abstract. We propose an epidemiological Susceptible-Exposed-Infected-Recovered-type (SEIR)


model to describe the dynamics of Covid-19 in a population. The population is distributed into
seven compartments, namely, susceptible (S), exposed (E), three infective classes (IM , IS and
IS ), recovered (R) and deceased D. The disease severity is accounted through the infective
classes, mild, severe and critical. The transmission parameters are time-dependent and the
model is tested with real data. A maximum a posteriori technique is used to estimate model
parameters. A series of numerical examples are presented to illustrate the model capability to
track changes in transmission regimes.

Keywords: Epidemiological Models, SEIR-type Models, Model Calibration

INTRODUCTION

Since December 2019, Covid-19 has caused major disease outbreaks all around the world,
and, by the end of August-2020, it has infected more than 23 million individuals and caused
more than 820 thousand deaths. Due to the absence of an effective vaccine, only contention
measures, like quarantine and social distance, can be undertaken to control disease spread.
This has been causing unprecedented economical issues, leading to massive unemployment and
bankruptcy of small businesses.
By August 2020, after controlling transmission, many countries started to reopen their
economies, under strict social distance measures. However, new waves of infections have been
observed in Europe, Israel, China and New Zealand, that have successfully contained Covid-19
spread earlier.
In order to appropriately track disease spread in a population and the effectiveness of con-
tention measures, the epidemiological model must account for dynamic change in transmission.
Moreover, Covid-19 has a well-documented disease severity distribution, where only individ-
uals under critical conditions are most likely to die. To address all these issues, we propose
a SEIR-type model that accounts for time-dependent transmission parameters and three main
disease severity conditions, namely, mild, severe and critical. Following Verity et al. (2020), by
severe individuals we mean those hospitalized and by in critical conditions we mean those ones
in an intensive care unity (ICU).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

193
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

SIR- and SEIR-type models have been using to model infectious diseases since the seminal
work of Kermack and McKendrick (1927). For a nice review on this subject, see Keeling and
Rohani (2008).
One of the main issues of SEIR-type models is the sensitivity of parameters to noise. Thus,
to estimate the model parameters, a maximum a posteriori approach in combination with a
gradient-descent optimization tool is proposed. 95% confidence intervals are provided by 200
samples generated by bootstrap Chowell (2017).
Besides the transmission parameters, that shall be estimated, other parameters, like rates of
recovery, death and hospitalization, the mean time from infection to onset, onset to hospital-
ization, hospitalization to ICU admission and ICU admission to death or recovery are obtained
from recent medical studies Lauer et al. (2020); Grasselli et al. (2020); Guan et al. (2020);
Huang et al. (2020); Wu and McGoogan (2020); WHO (2020).
An extensive set of numerical examples, with real data from Blumenau-SC, Florianopolis-
SC and Rio de Janeiro-RJ in Brazil, as well as New York City-NY, in the United States, are
presented. The time-dependent basic reproduction rate, obtained through the next-generation
matrix technique Diekmann et al. (1990), is used to track the transmission pattern, indicating
whether transmission is contained or uncontained.
Therefore, the main contributions of the present work can be summarized as follows: (i)
The introduction of a SEIR-type model that accounts for disease severity. (ii) The use of
time-dependent transmission parameters. (iii) The model calibration technique. (iv) Numer-
ical examples with real data. (v) Tracking disease transmission using the time-dependent basic
reproduction rate.

THE SEIR-TYPE MODEL

The epidemiological model accounts for seven compartments, namely, susceptible (S), ex-
posed (E), mild and infective (IM ), severe and infective (IS ), critical and infective (IC ), recov-
ered (R) and deceased (D). The movement between compartments is governed by the system
of ordinary differential equations below:

Ṡ = −S(βM IM + βS IS + βC IC ) (1)
Ė = S(βM IM + βS IS + βC IC ) − σE (2)
I˙M = σE − (γR,M + αS )IM (3)
I˙S = αS IM − (γR,S + αC )IS (4)
I˙C = αC IS − (γR,C + δD )IC (5)
Ṙ = γR,M IM + γR,S IS + γR,C IC (6)
Ḋ = δD IC . (7)

The parameters βM , βS and βC stand for the time-dependent rates of infection of mild,
severe and critical infective individuals, respectively. σ is the inverse of the mean time of
infection to onset of symptoms. γR,M , γR,S and γR,C are the recovery rates of mild, severe and
critical infective individuals, respectively. The rates of hospitalization and ICU admission are
denoted by αS and αC , respectively. The rate of death of critical individuals is αS . According
to the study WHO (2020), in general, only people in critical conditions die by Covid-19. This
is the reason why there are no rates of death in the infective compartments IM and IS .

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

194
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

To reduce the problem dimensionality and to simplify model estimation, the transmission
parameters for severe and critical classes satisfy: βS = aβM and βC = bβM , where a and b
are constants.
The set of parameters of the model in Eqs. (1)–(7) can be summarized into three sets:

1. Initial Conditions: S(0), E(0), IM (0), IS (0), IC (0), R(0) and D(0).

2. Time-independent parameters: a, b, σ, γR,M , γR,S , γR,C , αS , αC and δD .

3. Time-dependent parameter: βM .

The parameters that must be estimated from the curves of daily new infections are βM , a, b
and IM (0), the other ones are known. The rates in the model are given directly by the recent
studies Lauer et al. (2020); Grasselli et al. (2020); Guan et al. (2020); Huang et al. (2020);
Wu and McGoogan (2020); WHO (2020). The initial susceptible population is set as the total
population size minus the initial infective individuals. Besides IM (0), the initial population in
the other infective classes, recovered and deceased are set as zero.

MODEL CALIBRATION TECHNIQUES

Model calibration is performed using maximum a posteriori techniques. It is divided into


two steps, in the first one, the time-independent parameters, represented by the vector

Θ = (β, a, b, IM (0))T

are estimated, where β is the time-independent version of βM , and in the second one, βM (t) is
calibrated recursively.
All parameters, Θ and βM , are estimated from the curves of daily reports of new infections.
To address the model sensitivity to noise, Gaussian priors are included in the posterior densities.
Let Y = (Y1 , . . . , YM ) denote the set of daily reports of new Covid-19 infections. In the
estimation of Θ, the log-posterior density below is maximized:

ΠP OST (Θ|Y ) ∝ Π(Y |Θ) + ΠP RIOR (Θ), (8)

where the log-likelihood density is given by the logarithm of the Poisson distribution with
mean given by σE(ti ), where ti with i = 1, . . . , M is some date in the time-series:
M
X
Π(Y |Θ) ∝ [Yj log(σE(ti )) − σE(ti ) − log(Yj !)] , (9)
i=1

where log(Yj !) is approximated by the Stirling’s formula:

1
log(Yj !) ≈ log(2πY ) + Y log(Y ) − Y.
2
The prior is given by
α
ΠP RIOR (Θ) ∝ − kΘ − Θ0 k2 , (10)
2
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

195
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

with Θ0 equal to the initial state of the referred model parameters and α is a regularization
parameter.
The estimation of the time-dependent transmission rate βM is performed as follows: For
each i = 1, . . . , M , maximize the log-posterior density below:

ΠP OST,i (βM,i |Yi ) ∝ Π(Yi |βM,i ) + ΠP RIOR (βM,i , βM,i−1 ), (11)

where the log-likelihood is given by

Π(Y |βM,i ) ∝ Yj log(σE(ti )) − σE(ti ) − log(Yj !), (12)

and the prior is defined as


α
ΠP RIOR (βM,i , βM,i−1 ) ∝ − kβM,i − βM,i−1 k2 . (13)
2
Optimization is performed by the LSQNONLIN function from the Optimization Toolbox of
MATLAB. To generate the means σE(ti ), with i = 1, . . . , M , the system in Eqs. (1)–(7) is
numerically solved by the ODE45 function of MATLAB.

NUMERICAL RESULTS

In the present section, the proposed SEIR-type Model and the estimation method are tested
with reported curves of daily new infections from the cities of Blumenau-SC, Florianopolis-SC
and Rio de Janeiro-RJ, in Brazil, as well as New York City-NY (NYC), in the United States.
The time series of the reports from Brazilian cites were downloaded from https://github.
com/wcota/covid19br, on 28-Aug-2020, and the data from NYC was downloaded from
https://github.com/nychealth/coronavirus-data, on 22-Aug-2020.
Covid-19 outbreak has been addressing quite differently in these places, however, all four
cities implemented lockdown and now, they are reopening, with social distance measures. Due
to a series of reasons, the effectiveness of implementation of contention strategies is quite dif-
ferent in such places.
Figure 1 presents the model predictions and the reported cases for all four cites. 95% confi-
dence intervals were generated with bootstrap (Chowell, 2017). The model was estimated from
the curves of daily reports of new infections, smoothed-out by a 7-days moving mean. The
7-day moving mean of the corresponding basic reproduction rates R(t) (Diekmann et al., 1990)
for Florianopolis, Blumenau, Rio de Janeiro and NYC can be found in Fig. 2. Since such quan-
tities are quite sensitive to noise, moving means are better to see their qualitative behaviour.
Notice that, an epidemic dies out whenever the basic reproduction rate stays below one, which
means that each infective individual infects, in mean, less than one susceptible person.
Table 1 presents the calibrated parameters for the four considered cities, with their 95%
confidence intervals, obtained using bootstrap. The original time series was divided into two
smaller sets. The first one considers the daily reports of new infections for the first 20 days and
the second one, the reports for the remaining dates. In general, the disease spread dynamics
may change considerably from the first days of an epidemic to the remaining period, due to the
implementation of mitigation or contention measures.
As Figs. 1-2 show, NYC faced a major outbreak between March and May-2020, and by 22-
Aug-2020, transmission is contained. Even after reopening, NYC authorities managed to keep
the basic reproduction rate close to one. However, since it is not away below one, there is always

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

196
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 1- Reported and model predictions of daily new infections for Florianopolis-SC, Blumenau-SC,
Rio de Janeiro-RJ and New York City-NY (USA). The envelops represent 95% confidence intervals.

a risk of new waves of infections. So, social distance measures must be kept while the disease
is not eradicated. Despite some spikes in the reports, by 28-Aug-2020, the Covid-19 outbreak
in Florianopolis seems also to be under control, since R(t) is also close to one. According
to the results, by 28-Aug-2020, Covid-19 transmission still uncontained in Rio de Janeiro and
Blumenau. It is illustrated by the shape of the curves of daily new infections in Fig. 1 and since,
for both cities, R(t) stays away above one, as Fig. 2 shows. This means that, public authorities
must enforce population to follow social distance measures to control transmission and block
disease spread.
It is worth mentioning that, these results are subject to a large amount of uncertainties due
to a series of reasons, but the main one is sub-notification. In general, only symptomatic cases
are tested, and, in some places, there is no policy of contact trace, which could help to identify
infective asymptomatic individuals. In addition, different tests, with different accuracy levels
have been using in reports. All these issues were not taken into account since they are beyond
the scope of the present work.

CONCLUSIONS

This article presents a SEIR-type model that includes different levels of disease severity and
time-dependent parameters to describe the dynamics of some infectious disease, such as Covid-

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

197
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2- Moving-mean of seven consecutive days of the time-dependent basic reproduction rate for
Florianopolis-SC, Blumenau-SC, Rio de Janeiro-RJ and New York City-NY (USA). The envelops rep-
resent 95% confidence intervals.

19, in a susceptible population. The model is tested with daily reports of new infections from
Blumenau-SC, Florianopolis-SC and Rio de Janeiro-RJ, in Brazil, as well as New York City-
NY, in the United States. The model is calibrated from the reported data using a maximum a
posteriori approach, where the posterior density is maximized using a gradient-based technique.
95% confidence intervals were obtained by bootstrap. The calibrated model is adherent to
the reported curves, and the corresponding time-dependent basic reproduction rates indicates
precisely whether transmission is contained or not. According to the results, by 28-Aug-2020,
Florianopolis and NYC authorities managed to control Covid-19 spread, whereas, in Blumenau
and Rio de Janeiro, disease spread still need to be contained. The effective implementation of
social distance seems to play a major role in spread control, as Florianopolis and NYC illustrate.
Notice that, since, in all cases, the basic rate of transmission stays close to one, there is always
a risk of new waves of infections, which means that strict social distance measures must be kept
while there is no effective vaccine or the disease is eradicated.

REFERENCES

Chowell, G. (2017). Fitting dynamic models to epidemic outbreaks with quantified uncertainty:
a primer for parameter uncertainty, identifiability, and forecasts. Infectious Disease Mod-

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

198
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Florianopolis
Parameter Time Series 1 Time Series 2
IM (0) 2 (1–50) -
β 1.81 (0.85–1.81) 1.01 (0.79–1.02)
a 0.63 (2.4e-14–0.63) 2.6e-14 (2.3e-14–0.31)
b 0.60 (2.4e-14–0.60) 4.5e-13 (2.6e-14–0.98)
Blumenau
IM (0) 26 (42–50) -
β 0.94 (0.86–1.01) 1.06 (0.59–1.06)
a 0.18 (2.2e-14–0.21) 1.1e-13 (2.8e-14–1)
b 0.23 ( 2.2e-14–0.25) 1.9e-13 (2.7e-14–1)
Rio de Janeiro
IM (0) 21 (15–50) -
β 2.25 (2.02–2.61) 1.04 (1.03–1.05)
a 0.89 (1.2e-11–1.00) 4.0e-14 (2.34e-14–4.0e-14)
b 0.85 (3.8e-12–1.00) 4.0e-14 (2.34e-14–4.0e-14)
New York City
IM (0) 50 (50–50) -
β 4.57 (4.57–4.59) 0.85 (0.85–0.86)
a 2.9e-14 (2.5e-14–1.4e-13) 2.3e-14 (2.3e-14 4.0e-14)
b 4.0e-14 (2.3e-14–1.2e-13) 2.3e-14 (2.3e-14 4.0e-14)
Table 1- Calibrated parameters for each city, Florianopolis, Blumenau, Rio de Janeiro and New York
City. The numbers in parentheses are 95% confidence intervals obtained using bootstrap.

elling, 2(3):379–398.
Diekmann, O., Heesterbeek, J. A. P., and Metz, J. A. J. (1990). On the definition and the compu-
tation of the basic reproduction ratio R0 in models for infectious- diseases in heterogeneous
populations. Journal of Mathematical Biology, 28(4):365–382.
Grasselli, G., Zangrillo, A., Zanella, A., Antonelli, M., Cabrini, L., Castelli, A., Cereda, D.,
Coluccello, A., Foti, G., Fumagalli, R., et al. (2020). Baseline characteristics and outcomes
of 1591 patients infected with SARS-CoV-2 admitted to ICUs of the Lombardy region, Italy.
JAMA, 323(16):1574–1581.
Guan, W.-j., Ni, Z.-y., Hu, Y., Liang, W.-h., Ou, C.-q., He, J.-x., Liu, L., Shan, H., Lei, C.-l.,
Hui, D. S., et al. (2020). Clinical characteristics of coronavirus disease 2019 in China. New
England journal of medicine, 382(18):1708–1720.
Huang, C., Wang, Y., Li, X., Ren, L., Zhao, J., Hu, Y., Zhang, L., Fan, G., Xu, J., Gu, X., et al.
(2020). Clinical features of patients infected with 2019 novel coronavirus in Wuhan, China.
The Lancet, 395(10223):497–506.
Keeling, M. and Rohani, R. (2008). Modeling Infectious Diseases in Humans and Animals.
Princeton University Press.
Kermack, W. O. and McKendrick, A. G. (1927). A contribution to the mathematical theory of
epidemics. Proc. R. Soc. Lond. A, 115(772):700–721.
Lauer, S. A., Grantz, K. H., Bi, Q., Jones, F. K., Zheng, Q., Meredith, H. R., Azman, A. S.,
Reich, N. G., and Lessler, J. (2020). The Incubation Period of Coronavirus Disease 2019
(COVID-19) From Publicly Reported Confirmed Cases: Estimation and Application. Annals
of Internal Medicine, 172(9):577–583.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

199
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Verity, R., Okell, L. C., Dorigatti, I., Winskill, P., Whittaker, C., Imai, N., Cuomo-Dannenburg,
G., Thompson, H., Walker, P. G., Fu, H., et al. (2020). Estimates of the severity of coronavirus
disease 2019: a model-based analysis. The Lancet Infectious Diseases.
WHO (2020). Report of the who-china joint mission on coronavirus disease 2019 (covid-19).
Wu, Z. and McGoogan, J. M. (2020). Characteristics of and important lessons from the coron-
avirus disease 2019 (covid-19) outbreak in china: summary of a report of 72 314 cases from
the chinese center for disease control and prevention. JAMA, 323(13):1239–1242.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

200
28 a 30 de Outubro de 2020
Universidade Federal de Tocantins
Palmas - TO

RESOLUÇÃO DE EQUAÇÕES DIFERENCIAIS ORDINÁRIAS FRACIONÁRIAS


USANDO O MÉTODO DA COLOCAÇÃO ORTOGONAL

Juliana Veiga Cardoso Fernandes de Lima1 - julianaveiga@ufu.br


Fran Sérgio Lobato2 - fslobato@ufu.br
Valder Steffen Jr3 - vsteffen@ufu.br
1,2,3 Universidade Federal de Uberlândia - Uberlândia, MG, Brasil

Resumo. Neste trabalho, o Método da Colocação Ortogonal é empregado para a resolução


de equações diferenciais ordinárias fracionárias. Em linhas gerais, a metodologia proposta
consiste na associação entre o Método da Colocação Ortogonal com a definição da derivada
fracionária do tipo Caputo. Neste cenário, a equação diferencial ordinária fracionária original
é transformada em um problema puramente algébrico não linear, cuja resolução é obtida a par-
tir da aplicação do Método de Newton. Os resultados obtidos com a aplicação da metodologia
proposta em equações puramente matemáticas demonstram a capacidade desta estratégia.

Keywords: Equação Diferencial Ordinária Fracionária, Método da Colocação Ortogonal,


Funções Matemáticas.

1. INTRODUÇÃO

O estudo do cálculo fracionário surgiu a quase trezentos anos atrás em uma troca de corres-
pondências em que Leibniz questiona L’Hôpital sobre a generalização da ordem inteira de uma
derivada. Ao analisar a pergunta, L’Hôpital responde Leibniz com um outro questionamento, a
saber, qual seria a interpretação se a ordem da derivada tivesse valor meio? (Oldham & Spa-
nier, 1974). A partir daı́, inúmeros matemáticos, dentre os quais destacam-se Euler, Lagrange,
Laplace, Lacroix e Fourier, se sentiram motivados a tentar estender o significado de uma ordem
inteira para uma ordem arbitrária (Camargo & Oliveira, 2015).
Neste contexto, começou-se o desenvolvimento de abordagens para o tratamento de de-
rivadas que apresentavam ordens fracionárias. A derivada de Grünwald-Letnikov, que é um
somatório de uma série infinita onde a ordem inteira foi substituı́da por uma arbitrária α,
configura-se como uma boa ferramenta para a resolução de problemas numéricos (Lorenzo
& Hartley, 1998). Em termos analı́ticos, as derivadas de ordens arbitrária de Riemann-Liouville
e Caputo são duas das definições mais usuais para aproximar termos diferenciais fracionários.
Em linhas gerais, a proposta de Caputo consiste em uma modificação na definição de derivada

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM - Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO - 28 a 30 Outubro 2020

201
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

fracionária proposta por Riemann-Liouville. Neste caso, a ordem referente aos operadores de
derivada e integral foram trocados. Assim, a definição de Caputo para uma derivada fracionária
passa pela avaliação de uma integral fracionária, que é representada por uma derivada de or-
dem inteira (Caputo, 1993). Além das citadas, também destacam-se as derivadas de Marchaud,
Chen, Hadamard, Riesz, Weyl, Osler, Hilfer, Davidson-Essex, Coimbra, Canavati, Cossar, Ju-
marie, Caputo-Hadamard, Hilfer-Katugampola, derivada pk, ρq-fracionária (Oliveira & Oli-
veira, 2018) e Ψ-Hilfer, sendo essa última uma generalização de vinte e duas outras derivadas
(Oliveira & Machado, 2014).
Na literatura especializada, inúmeros métodos analı́ticos e numéricos podem ser encon-
trados para a resolução de uma Equação Diferencial Ordinária Fracionária (EDOF) (Lin &
Liu, 2007). Numericamente, em linhas gerais, cada uma destas abordagens consiste no uso de
aproximações para as derivadas fracionárias de modo a reescrever o problema original em um
puramente algébrico, inerentemente, não linear (Podlubny, 1999).
Diante do que foi apresentado, a presente contribuição tem por objetivo desenvolver uma
ferramenta numérica para a resolução de EDOFs. Em linhas gerais, esta consiste da associação
entre o Método da Colocação Ortogonal (MCO) e a derivada do tipo Caputo. A metodologia
proposta é empregada para resolver problemas puramente matemáticos e que possuem solução
conhecida na literatura. Este trabalho está estruturado como segue. Na Seção 2. é apresen-
tada uma breve descrição matemática de algumas das principais aproximações para derivadas
fracionárias. A descrição do MCO para ambos os contextos inteiro e fracionários são apresen-
tados na Seção 3. A metodologia é apresentada na Seção 4. Os resultados são apresentados na
Seção 5., respectivamente. A última seção apresenta as conclusões deste trabalho.

2. DERIVADAS FRACIONÁRIAS

Nessa seção são apresentadas algumas definições básicas empregadas para a avaliação de
derivadas fracionárias.

2.1 Grünwald-Letnikov

A derivada fracionária segundo Grünwald-Letnikov (GL Dxα f (x)) de uma função genérica
f (x) foi introduzida por Anton Karl Grünwald (1867) e por Aleksey Vasilievich Letnikov (Mil-
ler & Ross, 1993). Essa formulação tem grande importância em problemas numéricos e está
baseada na generalização da diferenciação ordinária de ordem n ∈ N. A derivada fracionária
de Grünwald-Letnikov de ordem α (α ∈ R) de uma função f é definida através do limite de
uma série (Miller & Ross, 1993):
∞   !
α 1 X k α
GL Dx f (x) = lim (−1) f (x − kh) (1)
h→0 hα k
k=0

em que h é o tamanho do passo de integração e α é a ordem fracionária.

2.2 Riemann-Liouville

A derivada de Riemann-Liouville (RL Dxα f (x)) de uma função genérica f (x) é uma das
aproximações mais empregadas no cálculo fracionário. Esta é definida como segue (Miller &

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

202
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Ross, 1993):
 
n Zx
α d  1
RL Dx f (x) = n
(x − t)n−α−1 f (t)dt (2)
dt Γ(n − α)
0

em que Γ é a função Gamma e n é um número inteiro, definido como sendo n=[α]+1, em que
[α] é a parte inteira da ordem fracionária.

2.3 Caputo

A definição da derivada de Caputo (C Dα f (x)) de uma função genérica f (x) é baseada


na proposta por Riemann-Liouville, todavia, sendo mais restriva, visto que, por exemplo, a
derivada de uma constante é zero (Camargo & Oliveira, 2015), ao contrário do que ocorria na
derivada de Riemann-Liouville. As duas formulações são similares onde a diferença encontra-
se na ordem dos operadores de derivação ordinária e de integração fracionária, i.e., Caputo
propõe uma derivada de ordem não inteira utilizando o operador integral de Riemann-Liouville
de uma forma diferente à da definição da derivada de Riemann-Liouville. A derivada fracionária
segundo Caputo (C Dα f (x)) de uma função genérica f (x) é dada por (Miller & Ross, 1993):
Zx
α 1 dn f (t)
C D f (x) = (x − t)n−α−1 dt (3)
Γ(n − α) dtn
0

em que n é um número inteiro, definido conforme a derivada de Riemann-Liouville.

2.4 Chen

A derivada fracionária (Ch Dxα f (x)) de uma função genérica f (x) de acordo com a proposta
de Chen é (Miller & Ross, 1993):
 x 
Z
1 d 
α
Ch Dx f (x) = f (t)(x − t)−α dt (4)
Γ(1 − α) dx
0

3. COLOCAÇÃO ORTOGONAL

O MCO é baseado na definição de uma função de aproximação (geralmente uma função


polinomial), na qual sua solução numérica é avaliada considerando um determinado número
de pontos dentro do domı́nio de interesse, i.e., o Número de Pontos de Colocação ou N P C
(Villadsen & Michelsen, 1978). A equação original deve satisfazer a função de aproximação
nos pontos considerados, bem como nas condição inicial e de contorno (caso o problema em
questão seja de valor no contorno). Uma função ortogonal é usada para determinar a posição
ótima desses pontos no domı́nio X. Para esse objetivo, considere a seguinte relação recursiva
(Villadsen & Michelsen, 1978):
(ψ,η)
Πi (X) = (X + ψi )Πi−1 (X) + ηi Πi−2 (X) (5)

em que Π é uma função polinomial e ψ e η são coeficientes definidos a partir da aproximação


considerada.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

203
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

As raı́zes desta equação são obtidas considerando um polinômio ortogonal de grau N P C,


o peso W (X) e a seguinte condição de Galerkin (Villadsen & Michelsen, 1978):
Z1
(ψ,η)
W (X)(ψX + η)Πi (X) dX = 0, i = 0, ..., N P C − 2 (6)
0

Multiplicando a Eq.(5) por Πi−2 e integrando, a seguinte relação é obtida:


R1
XW (X)Πi−1 (X) Πi−2 (X) dX
0
ηi = − (7)
R1
W (X)Π2i−2 (X) dX
0

Analogamente, multiplicando a Eq.(5) por Πi−1 e integrando, o parâmetro ψ pode ser obtido,
i.e.:
R1
XW (X)Π2i−1 (X) dX
ψi = − 0 1 (8)
R
W (X)Π2i−1 (X) dX
0

Considerando, por exemplo, Πi−2 =0, Πi−1 =1, W (X)=1 e η1 =0, o procedimento acima pode
ser usado para calcular ψ e η e, consequentemente, determinar o polinômio ortogonal em N P C,
(ψ,η)
i.e., ΠN P C (X) (Laranjeira & Pinto, 2001). As raı́zes deste polinômio são tomadas como sendo
os pontos de colocação.
Sabe-se que a função de aproximação e os pontos de colocação podem ser escolhidos usando
abordagens diferentes. A metodologia do polinômio de Lagrange (PL) tem sido tradicional-
mente usada como uma função de aproximação. Essa escolha se deve à redução do custo
computacional associado à aproximação numérica dos derivativos em comparação com outras
aproximações (Laranjeira & Pinto, 2001).
Considerando o conjunto de pontos de dados (X1 , Y1 ), (X2 , Y2 ), ..., (XN P C+1 , YN P C+1 ),
uma fórmula de interpolação que passa por esses pontos (um polinômio de interpolação de
N P C-ésimo grau) é dada por:
NX
P C+1
YN P C (X) = Yi li (X) (9)
i=1

em que li (X) é o polinômio de interpolação de Lagrange definido como:


NP C+1
Y X − Xj
li (X) = (10)
j=1
Xi − Xj

Se o subscrito i for igual a j, li (X) é igual a 1. Caso contrário, li (X) é igual a 0. Como essa
aproximação é uma função contı́nua, ela pode ser diferenciada e integrada. Assim, a primeira
derivada para uma raiz especı́fica Xj pode ser expressa como:
NX
P C+1
dYN P C (Xj ) dli (Xj )
= Yi ,j = 1, 2, ..., N P C + 1 (11)
dX i=1
dX

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

204
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Substituindo essas aproximações no modelo original, é possı́vel obter expressões (residu-


ais) para cada ponto de colocação. Estes resı́duos devem ser minimizados para cada raiz do
polinômio ortogonal, i.e., devem ser zerados em cada ponto de colocação, bem como devem
satisfazer as condições iniciais e de contorno (caso o problema seja de valor no contorno).
O sistema algébrico resultante, geralmente não linear, deve ser resolvido considerando uma
técnica numérica apropriada, como por exemplo, o Método de Newton.
A seguir é apresentado um consolidado dos passos necessários para a aplicação do MCO
para a resolução de equações diferenciais ordinárias com ordem inteira:

1. Definir os parâmetros de entrada: domı́nio do problema, função peso para a determinação


do polinômio ortogonal, grau N P C da aproximação (o polinômio tem N P C+1 coefici-
entes);

2. Calcular o polinômio ortogonal de grau N P C+1-N C, onde N C é o número de condições


que precisam ser satisfeitas;

3. Calcular as N P C raı́zes (pontos de colocação) do polinômio ortogonal;

4. Determinar as equações (resı́duo nos pontos de colocação);

5. Resolver o sistema de equações resultantes;

6. Verificar se a solução obtida não é modificada com o aumento do grau da aproximação.

É importante ressaltar que, como o MCO apresentado é fundamentado no uso de um po-


linômio ortogonal, a variável independente no modelo diferencial ordinário deve estar definida
no intervalo [0 1] para que o MCO possa ser empregado. Caso isso não aconteça, inicialmente
deve-se realizar uma mudança de variável de modo que o modelo seja sempre integrado no
intervalo [0 1].
Finalmente, cabe ressaltar que a qualidade do resultado obtido é função da aproximação
considerada, sendo que um aumento excessivo do grau da mesma não, necessariamente, im-
plica na melhora da qualidade da solução obtida. Além disso, esse aumento pode ocasionar
um comportamento oscilatório nas proximidades de regiões onde a solução não experimenta
variações pronunciadas (Villadsen & Michelsen, 1978).

3.1 Extensão do MCO para o Contexto Fracionário

Na subseção anterior foi apresentado o algoritmo para a resolução de uma equação diferen-
cial ordinária com ordem inteira. Para a sua aplicação em um problema em que o termo dife-
rencial apresenta ordem fracionária, é necessária uma pequena adaptação no algoritmo. Neste
caso, a partir da definição da derivada fracionária a ser considerada, durante a caracterização
das derivadas considerando o PL no algoritmo, deve-se empregar uma das definições de deri-
vadas fracionárias para a representação deste termo. Com esta mudança, o algoritmo que antes
tratava apenas de derivadas inteiras, agora pode lidar com derivadas fracionárias. Para validar
a metodologia proposta serão analisados problemas puramente matemáticos e que apresentam
solução analı́tica, conforme apresentado e discutido na Seção 4.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

205
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

4. METODOLOGIA

A metodologia proposta neste trabalho é descrita a seguir.


• Para avaliar a qualidade da solução obtida, as quatro definições apresentadas na Seção 2.
são utilizadas para aproximar as derivadas fracionárias;
• Para validar a metodologia proposta para resolver uma EDOF e detalhada anteriormente,
três estudos de caso puramente matemáticos e que apresentam solução conhecida são
considerados. Neste cenário, a influência do número de pontos de colocação (N P C) é
avaliada. O sistema de equações resultantes da aplicação do MCO é resolvido conside-
rando o Método de Newton. Além disso, também calcula-se o somatório do módulo do
erro absoluto (Θ) considerando 100 pontos igualmente espaçados no domı́nio [0 1] em
cada um dos estudos de caso analisados.

5. RESULTADOS E DISCUSSÃO

5.1 Influência do Tipo de Derivada

Para avaliar a influência do tipo derivada considerada para avaliar o operador diferencial
α
d () para uma ordem fracionária arbitrária, seja a seguinte operação:
dα x2
(12)
dxα
Conforme a definição da derivada proposta por S. F. Lacroix (Oldham & Spanier, 1974), a
derivada de uma função polinomial (y m , onde m é o grau do polinômio), é dada por:
dα y m Γ (m + 1)
α
= xm−α (13)
dx Γ (m − α + 1)
Aplicando esta definição, a derivada fracionária para α igual a 1/2 e m igual a 2 da função
polinomial definida na Eq.(12) no intervalo [0 1] é igual a:
dα x2
= 1, 5045056x3/2 (14)
dxα
Para fins de comparação, a Fig.1 apresenta os perfis obtidos considerando as definições
descritas na Seção 2. para a função polinomial x2 . Nesta figura é possı́vel observar que, para a
função analisada, não existem diferenças significativas entre os perfis simulados considerando
cada um dos tipos de derivadas. Assim, como a metodologia proposta neste estudo tem como
objetivo empregar uma aproximação polinomial para a resolução de uma EDOF, qualquer uma
das definições apresentadas anteriormente pode ser empregadas sem prejuı́zo no que tange a
qualidade da solução.

5.2 Funções Matemáticas

Para avaliar a metodologia proposta, nesta seção são apresentados os resultados obtidos com
o MCO associado à aproximação de derivada de Caputo (Eq.(3)). Assim, considera-se a EDOF
de valor inicial genérica:
dα u
= f (t, u), u(0) = u0 (15)
dtα
Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

206
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Figura 1- Influência do Tipo de Derivada.

em que t e u representam os termos independentes e dependentes, respectivamente, α é a ordem


fracionária, f é uma função genérica que depende de ambas as variáveis e u0 é a condição
inicial.
Em termos de aplicação, consideram-se os seguintes estudos de caso:

• Estudo de Caso 1 - α=0,98 e u(0)=0,483648 (Jafari et al., 2013):

f (t, u) = 2u(t) − u(t)2 + 1 (16)

E solução aproximada:

u(t) = 0, 785674t4 − 2, 356597t3 + 1, 548207t2 + 1, 616525t + 0, 483648 (17)

• Estudo de Caso 2 - α=0,5 e u0 =0 (Ghomanjani, 2016):

2t1,5
f (t, u) = − u(t) + t2 (18)
Γ(2, 5)

E solução analı́tica:

u(t) = t2 (19)

• Estudo de Caso 3 - α=0,9999 e u0 =1 (Jafari et al., 2013):

Ta = −0, 98 (20)
√ √ √ √
f (t, u) = −u(t) + (1 + 2Ta ) cosh( 2t) + ( 2 + Ta )(sinh( 2t)) (21)

E solução analı́tica:

u(t) = cosh(21/2 t) − Ta sinh(21/2 t) (22)

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

207
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

A Tabela1 apresenta o somatório do módulo do erro absoluto (Θ) computado considerando


diferentes números de pontos de colocação (N P C). Nesta tabela percebe-se que a metodologia
proposta foi capaz de encontrar boas estimativas para os perfis em cada um dos estudos de caso
avaliados. Além disso, conforme esperado, quanto maior o número de pontos de discretização
(N P C), maior é a ordem do polinômio considerado e, consequentemente, menor é o erro co-
metido.

Tabela 1- Influência do N P C na qualidade da solução obtida pela metodologia proposta.

NP C Θ (Caso 01) Θ (Caso 02) Θ (Caso 03)


2 0,006301 0 0,000041
3 0∗ 0 0
4 0 0 0
5 0 0 0

Erros absolutos menores do que 10−12 .

6. CONCLUSÕES

O presente trabalho teve por objetivo propor uma aproximação numérica do tipo Caputo para
fins da aproximação dos termos fracionários em equações diferenciais ordinárias fracionárias
de valor inicial. Neste contexto, foram apresentados os resultados obtidos com a aplicação
da metodologia em três estudos de caso matemáticos cuja solução analı́tica (ou aproximada) é
conhecida. Em linhas gerais, foi possı́vel observar que a metodologia considerada foi capaz de
obter resultados consistentes com aqueles reportados considerando a comparação com a solução
analı́tica, conforme observado pelo valor do erro encontrado. Além disso, o aumento do número
de pontos de colocação implica na redução do erro obtido.
Finalmente, enfatiza-se que, apesar dos problemas abordados apresentarem caráter pura-
mente matemático, a metodologia apresentada pode ser empregada para modelos baseados em
fenômenos que acontecem na natureza. Como sugestões para trabalhos futuros pretende-se
expandir a metodologia para problemas diferenciais parciais fracionários.

Agradecimentos

Os autores agradecem o apoio financeiro da FAPEMIG, da CAPES e do CNPq.

REFERÊNCIAS

Camargo, R.F. e Oliveira, E. C., “Cálculo Fracionário”, Livraria Editora, São Paulo, 2015.
Caputo, M., “Lectures on Seismology and Rheological Tectonics”, Univ. degli Studi di Roma, La Sapi-
enza, 1993.
Ghomanjani, F., “A numerical technique for solving fractional optimal control problems and fractional
Riccati differential equations”, Journal of the Egyptian Mathematical Society, 24, 638-643, 2016.
Jafari, H., Tajadodi, H., Baleanu, D., “A modified variational iterationmethod for solving fractional
Riccati differential equation by a domain polyno-mials”, Fractional Calculus and Applied Analysis,
16, 109–122, 2013.
Laranjeira, P., Pinto, J.C. “Métodos Numéricos em Problemas de Engenharia Quı́mica”, Editora E-
Papers, 316, ISBN 85-87922-11-4, 1o ed., 2001.
Lin, R., Liu. F. “Fractional High Order Methods for the Nonlinear Fractional Ordinary Differential
Equation”. Nonlinear Analysis, Englewood Cliffs, 66, 856-869, 2007.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

208
XXIII ENMC e XI ECTM
28 a 30 Outubro 2020
Universidade Federal de Tocantins

Lorenzo, C. F.; Hartley, T. T., “Initialization, conceptualization and application in the generalized fracti-
onal calculus”, n.NASA/TP-1998-208415, 1998.
Miller, K. S.; Ross, B. “An Introduction to the Fractional Calculus and Fractional Differential Equati-
ons”, Wiley-Interscience: John Wiley & Sons, 1993.
Oliveira, D. S, Oliveira, E. C., “On the generalized (k, ρ)-fractional derivative”, Progr. Fract. Diff. Appl.,
4, 133-145, 2018.
Oliveira, E. C., Machado, J. A. T., “A review of definitions for fractional derivatives and integral”. Math.
Probl. Eng., 1-6, (2014).
Oldham, K.B., Spanier, J., “The Fractional Calculus”, Academic Press, Nova York-Londres, 1974.
Podlubny, I. “Fractional differential equations”, San Diego: Academic PressSan, 1999.
Villadsen, J., Michelsen, M.L. “Solution of Differential Equation Models by Polynomial Approxima-
tion”. Prentice-Hall, Inc., Englewood Cliffs, N.J., 1978.

RESOLUTION OF FRACTIONAL ORDINARY DIFFERENTIAL EQUATIONS USING


THE ORTHOGONAL COLLOCATION METHOD

Abstract. In this work, to solve fractional ordinary differential equations the Orthogonal Collo-
cation Method (OCM) is used. The proposed methodology is given by the association involving
the OCM and the definition of the Caputo’s fractional derivative. In this scenario, the original
fractional ordinary differential equation is transformed into a non-linear algebraic problem that
is solved by using the Newton Method. The results obtained with the application of the proposed
methodology to mathematical equations demonstrate the efficiency of the strategy conveyed.

Keywords: Fractional Ordinary Differential Equation, Orthogonal Collocation Method, Mathe-


matical Functions.

Anais do XXIII ENMC - Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais
Palmas, TO - 28 a 30 Outubro 2020

209
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

POLYMERIC MORTAR’S DEFICIENCY ANALYSIS

Danyelle Schumanski1 – schumanski@ufpr.br


Juliana Almansa Malagoli1,2 – juliana.malagoli@ufpr.br
Eliane Pereira de Lima1 – eliane.pereira@ufpr.br
1
Universidade Federal do Paraná – Centro de Estudos do Mar, Pontal do Paraná, PR, Brazil
2
Universidade Federal do Paraná – Pós-Graduação em Engenharia Elétrica, Curitiba, PR, Brazil

Abstract. The Covid-19 pandemic had a high influence over the civil construction. Basic
products that were available almost everywhere, are now difficult to find on stores, that’s the
cement’s case. The product is essential to construction, but can be replaced, depending on the
circumstance, as producing mortars, by the polymeric non-cement based mortars, such as
FCC’s Massa DunDun. An analysis using SWOT, PESTEL and GUT matrices showed that the
polymeric mortar is ecologically efficient, but has weaknesses and threats related to market’s
resistance, standards, investments and capability of production. This and other priorities were
reviewed and set in order of priority that considers what is most urgent, tends to pursue and
how severe the factor is. Curiously, some of the higher prioritized factors are related to
science’s outreach to non-scientific community.

Keywords: Polymeric Mortar, SWOT Matrix, PESTEL Matrix, GUT Matrix, Deficiency
Analysis, Material Sciences.

1. INTRODUCTION

Through the centuries, the human being has tried to organize his routine through
mechanical processes, which helps production lines to be faster and efficient. Tools were
developed in order to make the procedures of finding failures, and solving them, faster and
organized, some of this tools are shaped as data matrices, such as SWOT (strengths,
weaknesses, opportunities and threats), GUT (short-term in Portuguese for: severity, urgency
and tendency) and PESTEL (political, economic, social, technological, environmental and legal
factors). This three tools are similar but differently shaped and purposed. The SWOT matrix is
used to discover the problems in an easy viewing chart, for the GUT matrix, all the objects once
recognized can be measured with numbers, and the PESTEL matrix is a very good tool for the
same reasons as the SWOT, but it can give some other important data, that are very helpful to
create an intervention plan (Fernandes, 2012), (Rosero, 2018).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

210
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

The polymeric mortar is an innovation of the construction sector that helps the bricklaying
process to get faster, but this single product is more effective than this: it’s also a good choice
for small repairs, wall paintings and waterproofing. As an innovation of the field, the polymeric
mortar goes through some challenges at the same time, such as the lack of standards to enforce
its quality, as well as to allow scientists and companies to show their clients data based on
researches (Rodrigues, 2017).

2. LITERATURE REVIEW

Cement is becoming a product of high cost: according to the São Paulo Construction
Industry Union’s economy vice-president (Sinduscon-SP), in interview for Valor (2020), the
prices are rising between 3 and 10%, what can cause problems for ongoing projects, due to a
pre-established budget.
The same product faces a difficult reality: cement is the most basic material for any project,
and the industries aren’t able to offer the same demanded amount. This happened because the
sector was expected to show the highest economy losses, due to COVID-19, but, against every
expectation, the civil construction sector is keeping strong and highly demanding of raw
materials. Tecchio also refers to the challenges to be faced by construction companies and
consumers by the lack of cement. Even facing challenges to obtain materials to work, the civil
construction market has risen a lot after the pandemic, some construction companies affirm that
during the first semester of 2020, 84% of all contracts happened after the 20th of March. (Cnn
Brazil1,2, 2020)

2.1 Polymeric mortar

Developed by the FCC group in Brazil and sold under the name of “massa Dundun”, the
polymeric mortars started to be crafted in the country and have its place in the market. A product
once created for bricklaying proved itself as a multitasking material that allow the final
consumer to paint, brick lay, develop small projects and repairs as well as use the product to
provide a waterproofing system to hard systems (hard systems are those without any kind of
movement of the structure when compared to its substrate) (Fcc1, 2020), (Nametala et al.,
2018).
The product is a non-cement mortar, composed by synthetic resins and mineral aggregates,
that uses nanotechnologies and provides better yield, low environmental impact, lower costs,
as well as easy application (Figure 1). It’s use can become an entire revolution in the
construction sector by replacing the conventional mortar for bricklaying processes, because, it
can also represent lower variability and allows the worker to focus on bricklaying without
needing to produce mortar and worrying about losing it in order of the conventional mortar’s
curing (Moreira, Vermelho, Zani, 2017) and (Calçada, 2014).

Figure 1- Application of polymeric mortar. (Reproduced of: Fcc2, 2020)


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

211
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.2 SWOT matrix

The SWOT matrix is a tool of easy viewing that provides the user a clear analysis of the
problems related to the analyzed material, by breaking its main characteristics in 4 groups:
strengths, weaknesses, opportunities and threats (Table 1). For strengths, all the good qualities
and properties of the product must be put in evidence, for weaknesses, everything that might be
a future problem or question the product’s reliability, for opportunities all the arguments that
can provide a better experience to the customer and for threats, everything that might question
the company’s reliability when it’s name is related to the product (Fernandes, 2012).

Table 1- SWOT matrix example.


S W
Quality 1 Problem 1
Quality 2 Problem 2
Quality 3 Problem 3
O T
Possible progress 1 Possible failure 1
Possible progress 2 Possible failure 2
Possible progress 3 Possible failure 3

2.3 GUT matrix

The GUT matrix will allow the user to craft a plan of action based on numbers that represent
how important that problem’s solution is, when compared to all the other issues for a same
subject. This matrix works as a spreadsheet where the analysis happens by attributing points
for each characteristic and multiplying them in the end (Equation 1). (Costa et al., 2017)

GxUxT = Final score (1)

That’s something possible to be done with the SWOT matrix, but the main difference is
between the kind of analysis: the GUT matrix analyses how fast each problem must be solved,
as well as which problem will be more effective of solving first in an easily comprehensible
matrix, what might be a difference when related to the SWOT method (Table 2).

Table 2- GUT matrix example.

Item G U T GxUxT Priority


A 1 2 3 6 1
B 0 2 1 2 2

2.4 PESTEL matrix

A third method can be used in both ways: the PESTEL matrix. This kind of matrix can be
used under the same structure of the SWOT and GUT methods, but using different elements of
analysis, but the PESTEL matrix represents another potential: linking problems from the
previous methods. This matrix is useful when combined to the SWOT method to understand a
same item under diverse perspectives, which can help the building and scoring for the GUT
model (Figure 2).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

212
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Damasceno and Abreu (2017), defends that the method is linked to understanding the
factors and using them as a tool of prioritizing them.

Figure 2- SWOT and PESTEL matrices related.

3. DEVELOPMENT AND DISCUSSION

Determining the points that need to be improved in a product might be a hard task, for that,
tools can be used in order to simplify the process. To analyze the polymeric mortar questions,
all the previous matrices described in the items 2.2, 2.3 and 2.4 will be used. First, the SWOT
and PESTEL matrices will be made, in order to understand the questions about the product,
later, the GUT matrix, where priorities can be defined.
According to Souza and Souza (2017), the polymeric mortar has shown higher resistance
to compression when compared to the conventional mortar (cement, water and sand based) and
it has shown higher resistance even when compared to concrete, as can be seen in the Table 3:

Table 3- Concrete, reference mortar and polymeric mortar’s mechanical properties


(Reproduced of: Souza and Souza, 2017)

Avaliated Properties Concrete Reference Mortar Polymeric Mortar


Medium resistance to
23,8 19,34 25,61
compression after 28 days (MPa)

Medium resistance to diametral


2,51 2 3,5
traction after 28 days (MPa)

Another authors such as Moreira, Vermelho and Zani (2017), affirm that the main problems
faced by the polymeric mortars can be related to the bricklaying workers, who affirms that the
product can be able to extinguish jobs and increase the unemployment rates in the country, but
the same authors see the product as an economic alternative to the conventional system and a
tool that can speed up the construction phase. Rodrigues (2017) comprehends problems beyond
the product: the industries responsible for the polymeric mortar’s production are, in many cases,
small businesses, what can cause difficulties in providing material for bigger enterprises in
reason of the manufacturer's capability, that is related to the human and machinery resources
available. With this information provided, the SWOT matrix can be set (Table 4).
After the exhibition of the items related to the polymeric mortar’s characteristics as a
material and as a product, the PESTEL matrix can be helpful in order to understand where
this items can exert some kind of influence (Table 5).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

213
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Table 4- SWOT matrix analysis about the polymeric mortar.


Strengths Opportunities
a) Resistance; a) New jobs;
b) Low formula variability; b) More constructions;
c) Speed; c) Increase in laborer’s health;
d) Labour quality; d) Reduction of waste.
e) Ecological advantage.
Weaknesses Threats
a) Laborer’s oppinion; a) Company’s low capability of
b) Resistance of the market; production;
c) Habit; b) Low investments in research;
d) Standards. c) Low investments in awareness.

Table 5- PESTEL analysis about the polymeric mortar.

Factor SWOT property


a) The lack of standards and legislation that comprehend the polymeric
mortar can be a space to allow companies to use variations of formula
that doesn’t correspond to the expected standards of quality;
Political
b) When talking about market resistance, in order to keep using the
traditional mortars, the product can’t find it’s path to become more
accessible.
a) For the economical aspects, the main question is the limitation of
production, as well as the increase of unemployment taxes, that can affect
negatively the community in general, what needs to be considered is the
tax resultant of the reason between the jobs that exist now and will be
Economical
extinguished and the new jobs that will be generated by this new industry.
b) Another point to be considered is the economy of resources during the
construction process that can be used as a space to more profit or, to
provide more accessible buildings.
a) The labour quality can be improved by not needing to carry too much
weight, avoiding future problems related, for example, to the spine;
b) Constructions can be finished faster and occupy it’s function earlier
Social than they can at the moment;
c) The investments in research and awareness can cause a new habit,
which is positive for the industries and for the environment, since the
polymeric mortar generates less waste.
a) Investments in research can turn the material into a strong product, as
Technological well as can improve the material to reach higher standards, since the
interest for the subject can show growth.
a) The material waste in constructions is high. Architectural movements
such as passiv haus intend to reduce this losses to zero, the polymeric
mortar can be an option for this kind of systems as well as to be used and
Environmental
avoid costs of recycling, since it generates a very small amount of waste,
mostly related to it’s packing, but, this can be another point of review in
the future.
a) The creation of legislation and standards can assure the costumer that
Legal
the product is safe and worthy of trust.
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

214
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

With the development of all the therms of the matrices, the GUT matrix will be
responsible for creating priorities to solve weaknesses and threats. For that, points from 1 to
10 will be given to each weakness and threat, according to the category. Priorities will be
given to the properties in numbers from 1 to 7 this priority list is a suggestion of order to
solve each problem (Table 6).

Table 6- GUT analysis about the polymeric mortar.

Property Severity (G) Urgency (U) Tendency (T) GxUxT Priority


Laborer’s oppinion 7 8 10 560 2

Resistance of the market 9 6 6 324 4


Habit 4 3 7 84 6
Standards 10 9 4 360 3
Company’s low capability of
6 6 2 72 7
production
Low investments in research 8 7 2 112 5
Low investments in awareness 10 10 7 700 1

Given the results of the matrices, the main suggestion is that each problem is solved in the
corresponding order from number 1 (most urgent, severe and tendentious to continue) to 6 (less
capable of persisting), but the order can be affected by the budget available to solve them. In
the case of low budget, the suggestion is use the priority orther and solve each item according
to the Table 6 from the less to the most urgent.

4. CONCLUSIONS

Polymeric mortar is a material of great perspective, interesting cost in general and if


compared to the traditional cement, sand and water-based mortar, once the product is not
affected by the cement’s prices, it’s qualities are beyond technological advances: they are also
environmentally interesting. According to Engenharia 360 (2013), the polymeric mortar is also
efficient to reduce the emission of CO2 to the atmosphere, to improve yield and labour quality,
this way, the product can be seen as a very good choice to replace different mortars for
bricklaying.
The challenges to be faced are mostly related to population’s consuming habits, but with a
lot of effort, investment in research and awareness, this scenario can be changed soon, which is
a positive step for the polymeric mortar to succeed and become an even more popular material
with lower costs and high accessibility for costumers. Other researches are highly
recommendable, such as: methods to improve polymeric mortar’s production, turning it into a
faster process able to fulfill all the market gaps left by the conventional mortars and a market
analysis to comprehend the evolution of polymeric mortar’s behavior/relationship with
costumers over the years.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

215
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

REFERENCES

Calçada, P; A. B. (2020). “Estudo dos processos produtivos na construção civil objetivando


ganhos de produtividade e qualidade”. 90 p. TCC (Graduation) – Civil Engineering School,
Polytechnic School, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2014. Chap. 4.
Available at: http://monografias.poli.ufrj.br/monografias/monopoli10011841.pdf. Access
in: 30 sept. 2020.
Cnn (Brazil)¹, (2020). “Falta até cimento: lojas de construção sofrem com desabastecimento
de insumos”. Available at: https://www.cnnbrasil.com.br/business/2020/08/28/falta-ate-
cimento-lojas-de-construcao-sofrem-com-desabastecimento-de-insumos. Access in: 30
sept. 2020.
Cnn (Brazil)², (2020). “Construtoras aceleram vendas durante a pandemia, diz pesquisa da
CBIC”. 2020. Available at:
https://www.cnnbrasil.com.br/business/2020/07/01/construtoras-aceleram-vendas-durante-
a-pandemia-diz-pesquisa-da-cbic. Access em: 30 sept. 2020.
Costa, et al. (2017). “GUT matrix application in solid waste integrated management of the city
of Recife-PE”. Vol. 10, No.2. Recife. p. 201-213.
Damasceno, V. S.; Abreu, Y. V. (2020). “Evaluation of wind energy in Brazil using SWOT and
PESTEL analysis”. Interações (Campo Grande), Campo Grande, v. 19, n. 3, p. 503-514,
Sept. 2018. Access on 02 Oct. 2020. http://dx.doi.org/10.20435/inter.v19i3.1649.
Engenharia 360, (2013). “Massa DunDun: a inovação da argamassa”. Available at:
https://engenharia360.com/massa-dundun-a-inovacao-da-argamassa/. Access in: 30 sept.
2020.
Fcc¹. (2020). “O Produto”. [S.I.], Disponível em: <https://massadundun.com.br/o-produto/>.
Fcc². (2020). “Exemplo de aplicação da argamassa”. [S.I.], Available at:
https://massadundun.com.br/>.
Fernandes, D. R. (2012) “A look into the SWOT analysis as a tool of strategic planning”. v.13,
n.2. Londrina. p. 57-68.
Moreira, A. A., Vermelho, L. C., Zani, M. C. (2017) “Estudo da Argamassa Polimérica de
Assentamento de Blocos e Tijolos SegundoAspectos Técnicos, Econômicos, Mercadológicos
e de Clima organizacional”. Vol. 38, n. 53, p.14-14.
Nametala, A. C. L. et al. (2018). “Análise do desempenho da argamassa polimérica em
alvenarias de vedação e pesquisa de mercado pertinente na região de Viçosa- Minas Gerais”.
Revista Científica Univiçosa, Viçosa, v. 1, n. 10, p. 786-792, dec. 2018.
Rodrigues, J. N. (2017) “Empreendedorismo e viabilidade de criação de uma empresa de
impermeabilização na construção civil”. Palhoça-SC. 40 p. TCC.
Rosero, E. I. (2018) “Análises entorno estratégico modelo PESTEL – 5 fuerzas de matriz IFA
– matriz FODA – modelo VRIO PORTER- matriz IFA – matriz FODA – modelo VRIO”.
Bogotá. 38 p. TCC.
Souza, M. H., Souza, R. A. (2017) “Análise das propriedades de uma argamassa de reparo de
base acrílica”. Ed. Especial-Setembro. Paraná, 2017. 10 p. ISSN 2358-5420.
Valor. (2020). “Entidades do setor de construção divulgam manifesto contra aumento do
cimento”. 2020. Available at:
https://valor.globo.com/empresas/noticia/2020/07/15/entidades-do-setor-de-construo-
divulgam-manifesto-contra-aumento-do-cimento.ghtml. Access in: 30 sept. 2020.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

216
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

DATA MINING APPLIED TO SUBSEA OPERATIONS IN THE OIL AND GAS


INDUSTRY

João Durval de Oliveira Alves Machado 1 - joao durval@yahoo.com.br


Gustavo Lemos Schwartz1 - gustavolschwartz@gmail.com
Henrique Rego Monteiro da Hora 1 - dahora@gmail.com
Rogerio Atem de Carvalho1 - ratembr@gmail.com
1 Instituto Federal de Educação, Ciência e Tecnologia Fluminense - Campos dos Goytacazes, RJ, Brazil

Abstract. Contemporary industry is increasingly adding new technologies and methods to


assist in strategic decision making. Offshore oil exploration requires faster and more accurate
decisions to optimize production and meet huge demand. Data mining is a field that allows the
interpretation of databases collected over time, and give them meanings to point out flaws and
optimize processes. In this work, two data mining techniques (Classification and Association)
were used to understand a database of operations carried out by a company in the oil and gas
sector over almost five years. The data were analyzed from the perspective of operations and
possible causes for the low performance in some of these operations have been proposed.

Keywords: Data Mining, Production improvement, Subsea, Oil and gas

1. INTRODUCTION

For the first time in history, the population in the world that has no access to electricity
has dropped to less than a billion people. Since the 1950s, energy consumption has been
increasing annually. It is also predicted that, by 2040, there will be an increase in energy
demand worldwide, most of this growth will occur in Asia and Africa, and more moderately in
South and Central America, and around 32% of all the energy consumed comes from oil and its
derivatives (BAI; BAI, 2010; IEA, 2018).
Oil can be found, basically, in two different environments: onshore wells or in offshore
wells. In 2015, almost 30% of all oil produced in the world came from marine wells (EIA,
2016a).
According to Bai and Bai (2010), the offshore oil and gas industry started in 1947, when
Kerr-McGee successfully completed the first underwater well in the Gulf of Mexico, near
Louisiana, at a depth of only 4.6 meters. At that time the equipment was still kept on the

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

217
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

surface. It was only in early 1970s that the submarine field concept was proposed, so, with all
the technological advances, the equipment started to be installed on the seabed. This was the
beginning of what it is called today Subsea Engineering.
In Brazil, considering the difficulty of finding onshore wells that could meet the demand,
maritime explorations started in the second half of the 1960s. In 1968, explorations began on
the maritime platform of northeastern Brazil and in 1971 in Campos Basin (MORAIS, 2013).
The exploration and production of oil in offshore wells face several technical challenges, as
mentioned by Morais (2013), such as: a) Climatic conditions in the marine environment and in
rocks below the seabed; b) The great distances between the platforms or ships and the seabed,
and from the those to the continent; c) The lack of visibility of operations performed at sea.
Morais (2013) also points out that, all these factors combined make research and
development relevant elements for the exploration and production of oil in increasingly deep
waters. Although technological advances have made it possible to operate in several deep-water
fields, these still have high risks and operational costs.
The distance between the vessel (ship, rig) and the seabed can also be called water depth.
The EIA (2016), classifies these depths in shallow water (up to 125 meters), deep water (from
125 to 1,500 meters) and ultra-deep water (from 1,500 meters). During the years 2005 and
2015, there was an increase in oil production in deep and ultra-deep waters, especially due to
technological advances that made possible investments previously impossible. Brazil stands out
as a leader in investment in deep and ultra-deep-water projects (EIA, 2016b).
According to ANP (2019), subsea fields in Brazil are responsible for 96% of all oil and
83.1% of all gas produced in the national scenario.
Systems comprised of a well and equipment installed below the water’s surface are called
subsea production systems. These systems are associated with different equipment and stages
of the process, such as drilling, operation and intervention. Figure 1 shows the example of a
submarine production system that uses a Wet Christmas Tree - equipment that consists of a set
of valves that guides the flow of production and annular bores.

Figure 1- Subsea production system (Bai e Bai, 2010, p. 8).

Once the production - or injection - of a well starts, the group of interventions carried out
in it with the aim of improving production - or injection - making changes to the equipment, or
abandoning the well, for example, are called workover. For Bai and Bai (2010), although there
are similarities in exploration in shallow and deep water, the depth factor adds an extra element
of complexity, making workover operations more costly.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

218
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

This paper aims to analyze a database of operations of a company in the oil and gas sector
over almost five years, using data mining techniques to find rules and patterns to assist in
decision making in order to improve future operations results.
The article is divided into five chapters, including this Introduction, Methodology, Results
and Discussion, in addition to the Bibliographic References. The Introduction presents a context
about the object of study and the objective of the work, in the subchapter, it presents the research
technique used. The Methodology demonstrates how the technique was applied and subdivided
into the two types of data mining, then subdivided again into the specific applications carried
out. The Results section displays the products of the applied techniques, subdivided in the
same way as the Methodology chapter. The Discussion section debates and analyzes the results
obtained and probable causes of unsuccessful operations, as well as, possible improvements in
the studied processes.

1.1 The research

Data mining is a recent research field that aims to extract information from a structured
database in order to optimize or find flaws in processes, or to recognize consumption patterns,
for example. In most cases, up to 50% of the data mining work is limited to treating the data in
advance so that it can be analyzed by the algorithms (OLSON; DELEN, 2008). Data cleaning
aims to eliminate inconsistencies in the database, such as: incomplete records, wrong or missing
values, etc. (CAMILO; SILVA, 2009). There are several types of algorithms for data mining,
it was applied two of them in this research: a Classification algorithm and an Association one.
The Classification algorithm used was C4.5 for being one of the most used, and the Association
was Apriori, for the same reason mentioned above (WU et al., 2008). The main indicator used
by the Apriori algorithm was the confidence factor, which can be defined as:

P
(X ∪ Y )
conf (X =⇒ Y ) = P (1)
(X)
that is, an estimate of the probability that a rule is correct (HAHSLER et al., 2005).
Association rules are widely applied by the industry to find any relationship between any two
or more attributes of the database, as can be seen in the work of Istrat and Lalić (2017), as well as
to assist the production performance management of a manufacture (LIN et al., 2019), or to find
consumption patterns that assist in the strategic decision making of a company (SULIANTA;
LIONG; ATASTINA, 2013).
The oil and gas industry has accumulated, over the years of its existence, a large volume
of information that is ideal for data mining applications. Although most of this data is related
to seismic, there are opportunities to explore other areas such as the relationship between the
equipment used and the production of oil and gas, although the latter presents greater challenges
(RUIDONG et al., 2018).
This work will try to improve processes based on the detection of recurrent failures that
make evident some problem in the process.

2. METHODOLOGY

In the database used in this work, the data cleaning process was necessary to remove
redundant attributes, which hinder the mining process by revealing obviosities, irrelevant

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

219
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

attributes for the analysis and converting some types of attributes for better performance of
the algorithms. This last step is better known as Data transformation.
The database used describes operations carried out by an Oil and Gas company, which will
be referred as Company X. These operations have several attributes, which have undergone data
cleaning and transformation, leaving the following attributes at the end:

• Management - Sector of the client responsible for the operation. Divided into two, called
Management A and Management B.

• Equipment - Target equipment of the operation. Altogether, there are 10 pieces of


equipment:

1. ANM – Wet Christmas Tree;

2. TH-CS - Tubing Hanger with Simple Completion;

3. BAP - Production Adapter Base;

4. TCAP - Tree Cap;

5. NA - Undefined equipment, appearing only in intervention operations;

6. TH-CI - Tubing Hanger with Intelligent Completion;

7. TH - Tubing Hanger without model definition;

8. ANM Dual - Dual Wet Christmas Tree;

9. TCAP-H - Horizontal Tree Cap;

10. TH-H – Horizontal Tubing Hanger.

• Phase - Refers to the type of operation that will be performed, which may be Installation
(I), Retrieval (R) or Workover (WO), which represents an intervention.

• LDA - Water slide on which the operation was performed. Classified in 4 groups: 1 (up to
500 meters in depth), 2 (from 501 to 1000 meters in depth), 3 (from 1001 to 2000 meters
in depth) and 4 (depth greater than 2000 meters).

• Reference Time - Time used as a reference for the operation, on which the target is based.
It varied between approximately 31 and 202 hours.

• Did it reach the goal? - Main target of the analysis. Describes whether the operation hit
the time target or not.

The data mining software used was Weka (Waikato Environment for Knowledge Analysis),
created by the University of Waikato in New Zealand. This software differs from the others by
its ease of use and learning in the most diverse types of algorithms. It is worth noting that the
C4.5 classification algorithm is called J48 in Weka (“J48”, 2019).
The Database was written in Portuguese, so the attributes on the images are in this language,
however its explanation is made in the body of text in English.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

220
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

2.1 Classification

More than one configuration of the J48 algorithm was used to build decision trees, to try to
obtain the greatest variety of possible results for analysis.

Decision Tree 1 In the first application of the algorithm, the following attributes were used:
Management, Phase, LDA, Reference Time and the outcome “Did it reach the goal?”. In
applying this algorithm, we chose to discretize the “Reference Time” attribute in six groups:
(-inf; 60], (60; 88], (88; 119], (117; 145], (145; 173] and (173; inf).
The configuration of the J48 algorithm was: “weka.classifiers.trees.J48 -C 0.25 -M 2”,
highlighting the confidence factor for tree pruning by 25% and the minimum number of
instances per leaf equal to 2.

Decision Tree 2 Decision Tree 2 was also generated from the following attributes: Phase,
Reference Time, Management, LDA and the outcome “Did it reach the goal?”. This time, it
was decided not to discretize the Reference Time attribute. The J48 algorithm followed the
same configuration as Decision Tree 1, since it delivered a better result when compared to
others.

2.2 Association

The attributes analyzed were: Management, Phase, LDA, Reference Time and the outcome
“Did it reach the goal?”. In applying this algorithm, it was necessary to discretize the
“Reference Time” attribute in six groups: (-inf; 60], (60; 88], (88; 119], (117; 145], (145;
173] and (173; inf).
The association rules were obtained through the Apriori algorithm with the following
configuration: “weka.associations.Apriori -N 500 -T 0 -C 0.6 -D 0.05 -U 1.0 -M 0.1 -S -1.0
-c 5”, highlighting the maximum number of 500 rules and a minimum confidence factor of
60%.

3. RESULTS

This section presents the results obtained with the techniques applied in the previous chapter
and is subdivided according to the type of data mining algorithm applied.

3.1 Classification

Two decision trees were generated using the C4.5 (or J48) algorithm, as explained in the
Methodology section. These trees are explained in the following subchapters.

Decision Tree 1 Figure 2 shows Decision Tree 1 resulting from the application of the J48
algorithm. The branch highlighted in Figure 3 called attention, where it was noticed that when
the reference time was greater than 173 hours, the operation used to not meet the target. This
rule has a reliability of 67.7% (the rule is valid for 21 of the 31 cases).
It was also noticed that when the reference time was less than or equal to 60 hours and the
LDA was equal to 4, the operation had a tendency to hit the target, as highlighted in Figure 4.
This rule has a reliability of 76.9% (a rule is valid for 10 out of 13 cases).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

221
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figure 2- Decision Tree 1. Source: Authors.

Figure 3- First highlight of the Decision Tree 1. Source: Authors.

Figure 4- Second highlight of the Decision Tree 1. Source: Authors.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

222
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Decision Tree 2 Figure 5 represents Decision Tree 2, the result of the application of the
J48 algorithm through the Weka software, using the attributes and configurations previously
mentioned.

Figure 5- Decision Tree 2. Source: Authors.

Among the results obtained with Decision Tree 2, it is highlighted what is represented by
Figure 6.

Figure 6- First highlight of Decision Tree 2. Source: Authors.

The result shown in Figure 6 demonstrates that, in intervention operations in subsea


equipment installed in a water depth of up to 1000 meters, the goal was reached less often.
While, in operations carried out at greater depths, that is, those from 1000 meters of water
depth, the target was reached more regularly. This rule has a reliability of 72.7% (it was valid
in 64 of the 88 cases).
Another relevant data can be found in Figure 7.

Figure 7- Second highlight of Decision Tree 2. Source: Authors.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

223
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

It can be seen in Figure 7 that the Tree Cap Withdrawal operations were directly affected
by the department of the customer responsible for the service. Although few operations were
carried out with Management B, all of them were successful in reaching the goal, while
operations under the responsibility of Management A have mostly negative results.

3.2 Association

The application of the Apriori algorithm returned 90 rules that satisfied its parameters,
however many of them obtained a confidence factor equal to 100%, demonstrating their
triviality. Other rules could also be explained by the context of the operations, not being so
relevant for the analysis.
Rules that were not related to the outcome (reaching the goal) were also discarded, leaving
only two highly relevant rules for analysis:

• Phase = ITH-CS (66) =⇒ Did it reach the goal? = NO (41) < conf : (0.62) >;

• LDA (Legenda) = 2 (63) =⇒ Did it reach the goal? = NO (41) < conf : (0.65) >.

The numbers in parentheses reveal the number of occurrences of the instance and “conf”
represents the confidence from 0 to 1.
The first rule says that in 66 operations of Installation of Tubing Hanger with Simple
Completion, 41 times the target was not reached, indicating that these operations do not reach
the expected result in approximately 62% of the time.
The second rule says that in 63 operations carried out in LDA 2 (between 501 meters and
1000 meters) 41 did not reach the target, that is, 65% of the operations that occur in this water
depth are not successful.

4. DISCUSSION

The volume of data processed refers to 338 operations carried out over almost five years.
Due to this large amount of information, the use of data mining techniques was essential for the
discovery of certain results.

4.1 Classification

The following subsections analyzes the results of the Decision Trees generated by the C4.5
(J48) algorithm.

Decision tree 1 Decision tree 1 provides, in particular, two pieces of information that are not
totally clear at first. The first result, highlighted in Figure 3, indicates that, although there
were operations with a very high Reference Time, above 173 hours, these operations tended not
to have good results. This can happen for a few reasons, such as: a) Lack of more accurate
planning, as it is believed that there will be enough time to carry out the operation; b) The
fact of having a high Reference Time can indicate that the operation to be carried out has great
complexity, being necessary to negotiate with the client an even longer time.
The second relevant result found in this same tree - Figure 4 - points out that the results
obtained in operations where the Reference Time was less than 60 hours tended to be positive
when the service was performed in deeper water depths, with a size greater than 2000 meters.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

224
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Whereas, operations that had this same time range and smaller depths obtained negative results
most of the time. This result was unexpected, since greater depths should bring more complexity
to the operation, the time required to reach the equipment installed on the seabed makes the
operation take longer. Some hypotheses are raised for this outcome: a) As they are considered
more complex operations, since they have a large water depth and a short time, there is more
attention to the planning and selection of the team that will perform the service; b) Operations
carried out at shallower depths tend to be considered simpler, therefore they do not receive due
attention and are more susceptible to failures; c) Operations carried out at shallower depths
are considered less complex by the customer and, thus, less than enough time is available for
execution; d) Tasks performed at great depths are usually serviced by more modern vessels, so
they operate quicker and with fewer problems.

Decision tree 2 As in Decision Tree 1, Decision Tree 2 also presented relevant results.
Highlighted in Figure 6, the first of these results can be seen. It is observed that in interventions
(Workover) performed in water depths up to 1000 meters, the results tended to be negative, not
reaching the goal, while operations of the same type performed in water depths above 1000
meters most often had positive results. This is assumed to be due to the possible factors, such
as: a) Greater attention during the planning period of the operation, due to greater depth, as
well as selection of more experienced staff; b) Modern vessels are selected to perform these
operations; c) Better negotiation with the client, so that the time available is enough to carry out
the work.
Figure 7 presents the second relevant result obtained from Decision Tree 2. It is observed
that the same operation had negative results when carried out with Management A, but presented
positive results when carried out with Management B. the number of operations carried out with
Management B is small, only three, it is worth noting the fact that the results are reversed.
This can happen due to the following factors: a) Better relationship between supplier and
customer with Management B in comparison to Management A; b) Development of a plan
more consistent with what is necessary with Management B.

4.2 Association

Among the ninety rules generated using the Apriori algorithm, two were relevant for this
work. The first rule indicates that Installation of Tubing Hanger with Simple Completion
operations used to not reach the goal 62% of the time. Some reasons can lead to this result,
such as: a) Older equipment since, this type of Tubing Hanger presents an older technology.
Thus, more attention should be paid to the maintenance of these; b) Older inspections carried
out for the release of this equipment for later use may not be sufficient, since in most cases they
are older equipment. A different inspection and testing procedure could solve this problem.
The second rule highlighted during the Association process indicates that in operations
carried out at depths between 501 and 1000 meters, the results were negative, not reaching
the goal, 65% of the time. This value presents a result considered bad, mainly because it refers
to operations performed on relatively small water depths. Some factors can explain this result,
such as: a) Selection of a less experienced team for such operations, as these are considered
less complex; b) Lack of better negotiation with the departments responsible for operations that
occur in that depth range; c) Use of less modern vessels, due to the small depth, which can
impact the result.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

225
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

5. Conclusion

This work differs from the others that use data mining in the industry for allowing the
analysis of probable causes and possible low performance solutions in complex offshore
operations. With this analysis, it becomes possible to improve the performance of these highly
costly operations, optimizing the time and expenditure involved.
For future work, it’s proposed to consider other parameters such as composition of the team
and rig or vessel where the work is performed. It is also suggested to analyse the results of the
application of the knowledge developed here in the planning of next jobs.

REFERENCES

ANP. (2019), Boletim da Produção de Petróleo e Gás Natural. Available in:


<http://www.anp.gov.br/arquivos/publicacoes/boletins-anp/producao/2019-04-boletim.pdf>. Access
in: july 14 2019.
Bai, Y.; Bai, Q. (2010), “Subsea engineering handbook”, Gulf Professional Pub, Burlington, MA.
Camilo, C. O.; Da Silva, J. C. (2009), “Mineração de Dados: Conceitos, Tarefas, Métodos e
Ferramentas”, Universidade Federal de Goiás. Available in:
<http://www.portal.inf.ufg.br/sites/default/files/uploads/relatorios-tecnicos/RT-INF 001-09.pdf>.
Access in: dec 7 2019.
EIA. (2015), “Offshore production nearly 30% of global crude
oil output in 2015”, Today in Energy, U.S. Energy Information Administration (EIA). Available in:
<https://www.eia.gov/todayinenergy/detail.php?id=28492>. Access in: july 14 2019.
EIA. (2019), “Offshore oil production in deepwater and ultra-deepwater is increasing”, Today in
Energy. Available in: <https://www.eia.gov/todayinenergy/detail.php?id=28552>. Access in: july
14 2019.
Hahsler, M. et al. (2005), “Introduction to arules – A computational environment for mining association
rules and frequent item sets”. p. 37.
IEA. (2018), “World Energy Outlook 2018”. p. 17.
Istrat, V.; Lalic, N. (2017), “Association Rules as a Decision Making Model in the Textile Industry”, v.
25, n. 4, p. 8–14.
Weka Documentation. (2019), “J48”. Available in:
<https://weka.sourceforge.io/doc.dev/weka/classifiers/trees/J48.html>. Access in: dec 7 2019.
Lin, H. K. et al. (2019), “Association rules mining in R for product performance management in industry
4.0”, Procedia CIRP, v. 83, p. 699–704.
De Morais, J. M. (2013), “Petróleo em águas profundas: uma história tecnológica da PETROBRAS na
exploração e produção offshore”, IPEA, Brası́lia.
Olson, D.; Delen, D. (2008), “Advanced Data Mining Techniques”.
Ruidong, Z. et al. (2018), “The Research of Big Data Analysis Platform of Oil & Gas Production”,
Offshore Technology Conference Asia, In: OFFSHORE TECHNOLOGY CONFERENCE ASIA,
Kuala Lumpur, Malaysia. Available in: <http://www.onepetro.org/doi/10.4043/28346-MS>. Access
in: nov 3 2019.
Sulianta, F.; Liong, T. H.; Atastina, I. (2013), “Mining food industry’s multidimensional data to produce
association rules using apriori algorithm as a basis of business strategy”, International Conference
of Information and Communication Technology (ICoICT).
Wu, X. et al. (2008), “Top 10 algorithms in data mining”, Knowledge and Information Systems, v. 14,
n. 1, p. 1–37.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

226
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

UM ESTUDO DE CASO DE METAHEURÍSTICAS PARA REALIZAÇÃO DO


REDESPACHO DE POTÊNCIA ATIVA PARA MELHORIA DA ESTABILIDADE
TRANSITÓRIA

Lorrana Faria da Rocha1 – lorrana.faria@engenharia.ufjf.br


Natã Franco Soares de Bem2 - nata.francosoaresdebem@newcastle.edu.au
Marlon José do Carmo3 – marlon@cefetmg.br
1
Universidade Federal de Juiz de Fora, PPEE, José Lourenço Kelmer s//n, 36036-900
Juiz de Fora – MG.
2
Academic School of Electrical Engeneering and Computing – The University of Newcastle –
Austrália. University Drive Callaghan NSW 2308 – Austrália.
3
Centro Federal de Educação Tecnológica de Minas Gerais – Campus III – Departamento de
Eletroeletrônica. Leopoldina, MG, Brasil.

Resumo. A estabilidade transitória é um fator de mérito em um sistema elétrico de potência.


Através deste tipo de estabilidade, se determina a margem de segurança dinâmica do sistema.
Neste sentido, este trabalho propõe a utilização de metaheurísticas no redespacho de
potência ativa visando à melhoria da estabilidade transitória. Foi utilizado um sistema de
teste de 9 barras para verificar a metodologia de busca por metaheurísticas. Para isso,
simulou-se o sistema elétrico para a aplicação do redespacho de potência, onde perturbações
do tipo curto-circuito foram implementadas. Foi determinada uma cofiguração onde se
identifica instabilidade transitória. Foram utilizadas as metaheurísticas: Algoritmo Genético,
Otimização por Enxame de Partícula e Procura Cuco para determinação da quantidade de
gerações necessárias, dentro de certos limites estabelecidos neste trabalho. No algoritmo
genético, utilizou-se uma probabilidade de cruzamento de 60% com uma taxa de mutação de
0,7. Para a procura cuco, utilizou-se uma probabilidade de rejeição de 30%. Já para o
enxame de partículas, as constantes C1 e C2 foram 1,5 e 2,5, respectivamente. Todas as
metaheurísticas convergiram e trouxeram a estabilidade transitória do sistema elétrico
proposto.

Palavras-chave: Metaheurísticas, Otimização, Estabilidade Transitória, Sistemas de elétricos


de Potência.

1. INTRODUÇÃO

Para obedecer aos padrões impostos pela Agência Nacional de Energia Elétrica -
ANEEL, os sistemas elétricos de potência (SEP) precisam operar de forma segura. A análise
de segurança de um SEP é dividida em dois eixos: a análise de segurança estática e análise de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

227
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

segurança dinâmica. Na análise de segurança estática é visto se o sistema continua operando


dentro dos limites de tensão, carregamento e frequência após sofrer uma perturbação. Na
análise de segurança dinâmica é visto se o SEP é capaz de suportar a perturbação imposta a
ele (Theodoro, 2010).
A segurança dinâmica é dividida em três aspectos, relativos à estabilidade do sistema, tais
como: a estabilidade transitória, estabilidade a pequenos sinais e a estabilidade de tensão.
Dentre elas, a estabilidade transitória traz ao sistema a resposta para operar com alto nível de
segurança dinâmica (Corrêa et. al., 2012). Com isso, a análise da estabilidade transitória é um
dos estudos de maior importância nos sistemas elétricos de potência. Ela avalia a robustez do
SEP mediante os vários tipos de distúrbios (Assis, 2007).
A avaliação da estabilidade transitória é onerosa computacionalmente, pois os casos a
serem verificados em um SEP real, chegam a algumas milhares de linhas de transmissão,
barras, centenas de geradores, bem como centenas de equipamentos de proteção. Logo,
busca-se a solução de métodos mais eficientes para a utilização da análise de segurança
dinâmica em tempo real nos centros de operações dos SEP (Theodoro, 2010).
Os SEP estão aptos a sofrerem distúrbios sucessivamente ao longo de sua operação. Com
a ocorrência de tais contingências, é necessário que os sistemas estejam aptos a agirem
automaticamente, de forma a corrigir o problema. Para evitar que esse desligamento aconteça
muitas técnicas estão sendo estudadas para melhorar a estabilidade transitória dos SEP, como
pode ser visto em Corrêa et. al. (2012). Dentre elas existe o redespacho de potência ativa e/ou
reativa (Assis, 2007). Essa técnica consiste em um alívio de sobrecargas nos sistemas
elétricos de potência trazendo uma modificação no fluxo de potência. O uso de algoritmos
baseados em metaheurísticas se faz uma opção interessante para que essas operações não
sejam necessárias, pois possui fácil implementação e traz uma resposta otimizada para o valor
do redespacho. A aplicação de metaheurísticas para a análise da estabilidade dinâmica em
sistemas elétricos vem sendo muito utilizada em vários trabalhos, e a técnica de redespacho
ganha destaque, sobretudo com a popularização da inteligência artificial (IA). No trabalho de
Liang (Corrêa et al., 2012) é proposto o uso de redes neurais para problemas de redespacho de
potência. O algoritmo proposto buscava a solução para um redespacho econômico rastreando
a curva de carga e limites das taxas de respostas das unidades. Nos estudos de Baskar (2009)
foram utilizados algoritmo evolutivo e a otimização por enxame de partículas para o despacho
de carga para o alívio de sobrecargas no sistema. Já no trabalho de Corrêa et al (2012) foi
utilizado algoritmo genético para a otimização do redespacho a fim de minimizar o custo da
geração durante o controle preventivo.
Visando contribuir para o estudo de estabilidade dinâmica dos SEP, focando na avalição
da estabilidade transitória, este trabalho propõe o uso de diferentes metaheurísticas para o
redespacho de potência em um sistema teste de 9 barras, proposto por Anderson (1977).

2. FUNDAMENTAÇÃO TEÓRICA

Os algoritmos de busca trabalham com uma região limitada para encontrar as soluções,
chamada de espaço de busca, que geralmente é definida pela representação escolhida para as
soluções candidatas e pelas restrições do problema (França, 2005). Os indivíduos, partículas,
modelos pontuais baseados na natureza, denominados de população inicial, são evoluídos ou
melhorados de acordo com o tipo de metaheurística utilizada, aproveitando o intercâmbio de
informações entre os indivíduos. A evolução do algoritmo acontece até que se alcance o
critério de parada. Três tipos de metaheurísticas foram utilizados durante o trabalho:
Algoritmo Genético (AG), Otimização por enxame de partícula, do inglês, Particle Swarm
Optimization (PSO) e Busca Cuckoo (BC).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

228
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

O AG utiliza conceitos do princípio de seleção natural para abordar uma série ampla de
problemas com otimização. Robustos, genéricos e facilmente adaptáveis, consistem em uma
técnica amplamente estudada e utilizada em diversas áreas (França, 2005). Este método foi
criado por Holland e baseia-se na seleção, cruzamento e mutação dos indivíduos em uma dada
população. O indivíduo é representado como uma solução do problema e a população é um
conjunto de soluções. Cada indivíduo possui dois cromossomos e estes são constituídos de
genes, que representam as variáveis que se deseja otimizar na busca da melhor solução. Esses
genes caracterizam os indivíduos, pois são diferentes entre si. Os indivíduos mais aptos, os
que mais satisfazem o problema, estão propensos à sobrevivência durante as iterações. A
população inicial dentro do algoritmo genético pode ser com valores aleatórios ou pré-
determinados, porém normalmente são utilizados valores aleatórios. No algoritmo é preciso
definir os limites de máximo e mínimo para cada variável a ser otimizada. A população inicial
contém n indivíduos e cada um dos indivíduos contêm x genes que os diferenciam uns dos
outros. Os melhores indivíduos dessa população são selecionados para a reprodução, onde a
probabilidade de uma dada solução ser selecionada é proporcional à sua aptidão. Entre esses
indivíduos acontece o cruzamento, gerando novos indivíduos com genes recombinados dos
indivíduos da população anterior. Dentro do cruzamento, pode acontecer à mutação para
aumentar a variedade da população. Após isso, verifica-se as especificações necessárias foram
atendidas, voltando para a etapa de cruzamento em caso negativo e encerrando a execução em
caso positivo.
O algoritmo PSO, criada por Kennedy e Eberhart, é uma técnica inspirada na inteligência
coletiva dos animais. Ela é uma metaheurística populacional para funções contínuas inspirada
em mecanismos de simulação do comportamento social de bandos de pássaros. O PSO é
classificado como um algoritmo evolucionário, porém não apresenta a seleção e o cruzamento
de indivíduos mais aptos como no algoritmo genético. O mecanismo de simulação do PSO é
baseado na busca por alimentos e na interação entre aves ao longo do voo. No caso, a área
sobrevoada é equivalente ao espaço de busca e encontrar o local com comida corresponde a
encontrar a solução ótima. Cada partícula, que representa um pássaro, estabelece sua trajetória
combinando suas experiências passadas com as experiências de seus vizinhos, que são outras
partículas com as quais ela se comunica. Cada partícula representa uma solução para o
problema, onde possui a ela associada um vetor posição e um vetor velocidade. O vetor
posição é a localização da partícula no espaço de busca e o vetor velocidade indica as
mudanças de posições durante a execução do código. As partículas possuem comunicação
entre si e cada uma possui a posição e velocidade de seus vizinhos.
O método BC é baseado na reprodução dos pássaros cuco. Ele foi criado por Yang e
Deb e é um dos algoritmos bioinspirados mais recentes existentes. Algumas das fêmeas da
espécie dos pássaros cucos não chocam seus ovos. Elas procuram ninhos de outras espécies
de pássaros esperando que elas criem os filhotes do cuco como sendo os seus. Porém, a fêmea
que receberá o ovo do cuco no seu ninho não pode perceber que o ovo não é seu. Se for
descoberta a diferença entre os ovos, ou o ovo do cuco é descartado, ou o ninho é
abandonado. O método de otimização baseado na reprodução dos pássaros cuco possui três
regras básicas. A primeira regra consiste que cada pássaro coloque um ovo, que representa um
valor da solução do problema, por vez em um ninho que escolhido aleatoriamente. A segunda
ideia básica do algoritmo é que o ninho é o conjunto de soluções do problema e deve ser
melhorado ao longo das gerações. A última regra diz que um número n de ninhos possui uma
probabilidade de serem descobertos pela ave anfitriã. Assim, essas soluções são abandonadas,
o que significa que a ave hospedeira abandonou o ninho ou destruiu o ovo do pássaro cuco. A
quantidade de ninhos anfitriões é valor que se mantém fixo durante as iterações (Arcanjo,
2014). Para que seus ovos não sejam rejeitados ou destruídos, o cuco procura meio de
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

229
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

melhorar sua tática para colocação de ovos e melhorar aparência de seus ovos. Porém, ao
mesmo tempo, a ave hospedeira tenta evitar que o ovo seja colocado no seu ninho ou busca
identificar os ovos que não são seus.

3. METODOLOGIA DESENVOLVIDA

A estrutura da simulação utilizou os softwares de análise de redes ANAREDE e


ANATEM, desenvolvidos pelo CEPEL (Centro de Pesquisas de Energia Elétrica). Foi
montado o sistema elétrico de potência de 9 barras que será utilizado para a simulação do
redespacho de potência. Com o auxílio do ANAREDE foi possível fazer a análise estática do
sistema com o fluxo de potência. No programa para Análise de Transitórios Eletromecânicos
ou ANATEM, foi realizada a análise transitória dos componentes elétricos e eletromecânicos,
onde foram aplicadas perturbações do tipo curto-circuito. No software MATLAB são
executadas as metaheurísticas gerando, assim, os valores das possíveis soluções para o
redespacho de potência. Esses valores são inseridos no ANATEM através da execução dos
VBScripts. Com os resultados obtidos pela análise transitória pelo ANATEM, o MATLAB
faz a avaliação de custo do sistema para cada indivíduo durante as iterações das
metaheurísticas. O SEP utilizado para o presente trabalho foi um estudo de caso contendo 9
barras e 3 unidades geradoras. O caso base montado para as simulações do redespacho de
potência bem como seu fluxo de potência está mostrado na Figura 1. O sistema proposto
possui 9 barras, sendo as barras 1, 2 e 3, as barras de geração. O sistema também possui 3
pontos de carga localizados nas barras 5, 6 e 8. Os dados das barras, redes e geração podem
ser obtidos em Assis (2007).

Figura 1 - Sistema de 9 barras.

A partir do modelo do sistema de 9 barras foi feita a análise transitória no ANATEM. A


contingência aplicada ao caso de estudo foi um curto-circuito na barra 7, seguido da abertura
do circuito 7-5, em 100 ms. A duração da perturbação foi de 100 ms. A reação dos geradores
contidos na barra 2 ao distúrbio aplicado está na Figura 2. Nota-se que o ângulo sofre muita
oscilação crescent e os geradores terão que ser retirados do sistema através de sistemas de
proteção.

Figura 2 - Ângulo de carga do conjunto gerador da barra 2.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

230
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Já a resposta do conjunto de máquinas da barra 3 está contida na Figura 3. O ângulo do


conjunto de máquinas em questão sofre uma oscilação crescente ao longo do tempo,
ocasionando, assim, a perda também desse conjunto de geradores. O ângulo do conjunto das
máquinas da barra 1 foi utilizado como referência para o estudo da simulação da contingência,
sendo esta barra a Swing (barra de referência).

Figura 3 - Ângulo de carga do grupo de geradores da barra 3.

Portanto, para esses valores de geração, o sistema não consegue alcançar a estabilidade,
quando imposto a ele esta perturbação. Assim, propõe-se a otimização dos valores das
unidades geradores por meio das metaheurísticas, fazendo com que se tenha um redespacho
de potência ativa. A quantidade das unidades geradoras utilizadas na simulação foi de 4
unidades na barra 1, 1 unidade na barra 2 e 1 unidade na barra 3 e seus valores podem ser
encontrados em Assis (2007).
A função de custo que avalia cada indivíduo ou partícula nos algoritmos está representada
em (1). Trata-se da fórmula da integral do erro ao quadrado, onde o erro é a diferença entre o
valor do ângulo de máquina atual e o valor do ângulo de máquina no período sem oscilação.
Os algoritmos irão minimizar (1).

(1)

O sistema elétrico de estudo utilizado no presente trabalho possui dois tipos de


controladores incorporados a ele. Estes são: regulador automático de tensão ou AVR e
estabilizador de sistemas de potência ou PSS. Foram utilizados os parâmetros padrões do
ANATEM para esses controladores. A função de transferência dos controladores AVR e PSS,
bem como os parâmetros utilizados podem ser encontrados em Assis (2007).

4. RESULTADOS

A evolução dos algoritmos e a alocação dos indivíduos (ou partículas) ao longo das
iterações foram analisadas. Ao final foi feito uma comparação entre as metaheurísticas e a
verificação da estabilidade angular do sistema proposto. Para a execução dos códigos de
otimização foram utilizadas 50 iterações e 30 indivíduos. Sendo também uma população
inicial igual para as três metaheurísticas. No algoritmo genético, utilizou-se uma
probabilidade de cruzamento de 60% com uma taxa de mutação de 0,7. Para a procura cuco,
utilizou-se uma probabilidade de rejeição de 30%. Já para o enxame de partículas, as
constantes C1 e C2 foram 1,5 e 2,5, respectivamente. Como o sistema elétrico proposto é
pequeno, com geração e cargas bem definidas, o valor otimizado encontrado foi o mesmo
para os três algoritmos nas condições propostas, com a variação da iteração onde este valor
otimizado foi encontrado. Foi investigado o comportamento comparativo dos três algoritmos
para uma mesma população inicial. Não foi investigado neste trabalho a inicialização com
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

231
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

populações diferentes. Os valores otimizados encontrados foram de 3 unidades geradoras para


a barra 1, 20 unidades geradoras para a barra 2 e 4 unidades geradoras para a barra 3.

4.1 Algoritmo Genético

Para esse algoritmo foi utilizada uma taxa de mutação de 1% e uma taxa de reposição de
indivíduos de 60%. A evolução ao longo das iterações dos valores para unidade geradora da
barra 1 é mostrada na Figura 4a. Como foram criados 30 indivíduos por geração, existem
valores para essa barra que são repetidos entre alguns indivíduos. Em vermelho se tem o gene,
que representa o valor da unidade geradora 1, do melhor indivíduo de cada geração. Nota-se
que o melhor valor encontrado, de 3 unidades, já se encontra desde as primeiras gerações. A
partir da geração 6, os indivíduos ficam entre os valores de 1 a 6. Já a evolução dos valores
para unidade geradora da barra 2 se encontram na Figura 4b. Percebe-se que o valor de 20
unidades é encontrado na 13ª iteração e a característica dos indivíduos para essa unidade fica
em torno do melhor valor encontrado de forma mais lenta que para a barra 1. Na Figura 5a se
tem a evolução dos valores utilizados na barra 3. O melhor valor encontrado para a geração
desta barra fica constante a partir da 13ª iteração como acontece na barra 2. Percebe-se que a
aglomeração dos indivíduos em torno do valor de 4 unidades acontece de forma mais rápida
do que para a barra 2. Por fim, a Figura 5b apresenta a função de custo para o AG.

a b
Figura 4 – Comportamento do AG nas unidades geradoras 1 (a) e 2 (b).

a b
Figura 5 – Comportamento do AG na unidade geradora 3 (a) e função de custo (b).
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

232
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.2 Otimização por enxame de partículas

A evolução ao longo das iterações dos valores para unidade geradora da barra 1 se
encontram na Figura 6a. O melhor valor encontrado, de 3 unidades, já se tem desde a primeira
iteração. Os valores para essa barra nos indivíduos variam de 1 a 7 a partir da 7ª iteração. Já a
evolução dos valores para unidade geradora da barra 2 se encontram na Figura 6b. Percebe-se
que o valor de 20 unidades é encontrado na 14ª iteração e a característica dos indivíduos para
essa unidade fica em torno do melhor valor encontrado também de forma mais lenta que para
a barra 1. Na Figura 7a tem-se a evolução dos valores utilizados na barra 3. O melhor valor
encontrado para a geração desta barra fica constante a partir da 14ª iteração como acontece na
barra 2. Percebe-se também que a alocação dos indivíduos em torno do valor de 4 unidades
acontece de forma mais rápida do que para a barra 2. Contudo, apresenta-se a curva da função
de custo para o algoritmo PSO. Comparativamente ao AG, o PSO oscilou mais, mostrando a
tentativa do PSO de sair de um provável ótimo local.

a b
Figura 6 – Comportamento das unidades geradoras 1 (a) e 2 (b) para o algoritmo PSO.

a b
Figura 7 – Comportamento do PSO na unidade geradora 3 (a) e e função de custo (b).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

233
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

4.3 Otimização busca Cucko

A evolução ao longo das iterações dos valores para unidade geradora da barra 1 se
encontram na Figura 8a. O melhor valor encontrado, de 3 unidades, já se encontra desde as
primeiras iterações. A partir da geração 8, percebe-se que os indivíduos ficam com valores
menores que 4. Já a evolução dos valores para a barra 2 se encontram na Figura 8b. Percebe-
se que o valor de 20 unidades é encontrado na 19ª iteração e a característica dos indivíduos
para essa unidade fica em torno do melhor valor encontrado de forma mais lenta que para a
barra 1. Nota-se também, que alguns indivíduos ficam no valor 13 por muitas iterações. Na
Figura 9a se tem a evolução dos valores utilizados na barra 3. O melhor valor encontrado nas
iterações para essa geração varia entre os valores 4, 3 e 2. Percebe-se que a aglomeração dos
todos os indivíduos ficam em torno desses valores também passando pelo valor 1
adicionalmente. O valor da função de custo do melhor indivíduo ao longo das gerações se
encontra na Figura 9b, a qual é ainda mais oscilatória, mostrando que o algoritmo Cuckoo tem
ainda um maior compromisso de sair de um ótimo local.

a b
Figura 8 – Comportamento das unidades geradoras 1(a) e 2(b).

a b
Figura 9 – Comportamento da unidade geradora 3(a) e função de custo (b).

Os resultados otimizados obtidos a partir dos algoritmos bioinspirados foram


semelhantes. Portanto, a análise que se faz necessária é a comparação de qual algoritmo
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

234
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

obteve a melhor resposta na menor iteração. Esses valores foram: AG na 17ª iteração, PSO na
14ª iteração e BC na 19ª iteração. Observa-se que o PSO obteve melhor desempenho
comparado às outras metaheurísticas.
O ângulo do rotor do conjunto de máquinas contidas na barra 2 reagindo ao distúrbio
aplicado com o valor otimizado das unidades geradoras está na Figura 10. Manteve-se a
contingência aplicada, ou seja, curto-circuito na barra 7, com duração de 100 ms, e abertura
do elo 7-5 em 100 ms. Nota-se que a característica de operação da máquina é mudada, pois os
valores de geração foram alterados. Assim, o ângulo obtido na estabilidade do sistema se
difere do seu valor inicial. Percebe-se que a aplicação do redespacho de potência ativa na
barra 2 fez com que a ela conseguisse reagir à contingência, conseguindo assim, a estabilidade
transitória do estudo de caso.

Figura 10 - Ângulo de carga do grupo de máquinas 2.


Já a resposta do conjunto de máquinas da barra 3 está contida na Figura 11. As
mesmas considerações realizadas na barra 2 se aplicam a esta barra, onde se vê a estabilidade
e a mudança do ângulo do rotor da máquina. Nota-se que o período de oscilação da barra 3 é
maior comparado a barra 2. A unidade geradora 2 se estabiliza em 4,7 s e a unidade 3 se
estabiliza em por volta dos 6 s.

Figura 11 - Ângulo de cara do grupo de máquinas 3.

5. CONCLUSÕES
Para o sistema de 9 barras simulado no presente trabalho, a utilização de
metaheurísticas no redespacho de potência ativa para melhoria da estabilidade transitória,
mostrou-se satisfatória. Pois, com os resultados alcançados, o sistema conseguiu reagir à
contingência imposta a ele. Nota-se, que a aplicação da técnica de alívio de sobrecargas,
trouxe ao sistema uma margem de segurança dinâmica em relação às perturbações do tipo
curto-circuito. O sistema proposto para a realização do trabalho foi empregado para a
avaliação do uso das metaheurísticas para obtenção dos valores de redespacho, porém, não se
trata de um sistema elétrico real. A comparação entre as metaheurísticas implementadas se
deu através do número da iteração em que o algoritmo obteve o menor valor da função de
custo. Isso se deve ao fato de que, os algoritmos obtiveram o mesmo valor de F(custo)
Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

235
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

minimizado. A partir disso, o PSO se mostrou mais eficiente, pois apresentou a melhor
resposta na 14ª iteração. Com o uso destes algoritmos em redes de maior porte, como IEEE 14
barras, New England conduzirão a resultados mais ricos e diferenciados em relação ao
sistema de 9 barras. O AG e BC conseguiram os menores valores da função de custo na 17ª e
19ª, respectivamente, o que não mostra uma grande defasagem entre os algoritmos em relação
a este critério.

Agradecimentos
Os autores agradecem à FAPEMIG pela bolsa de iniciação científica, ao CEPEL pelas
licenças educacionais do ANAREDE e ANATEM e ao CEFET-MG.

REFERENCES

Anderson, P.M. et. Al (1977). Power System Control and Stability. 658 f. Institute of Electrical and Electronics
Engineers, The Iowa State University Press, Estados Unidos, 1977.
Arcanjo, D. N. (2014) Metodologia multi-estágio para restabelecimento de sistemas elétricos de distribuição
utilizando algoritmos bio-inspirados. 123 f. Dissertação de Mestrado em Engenharia Elétrica. Universidade
Federal de Juiz de Fora, Minas gerais, 2014.
Assis, T. M. L. (2007) Cálculo da Capacidade de Transmissão Dinâmica em Sistemas de Potência através de
Ferramentas Integradas e Sistemas Inteligentes. 191 f. Tese de Doutorado em Engenharia Elétrica,
COPPE/UFRJ, Rio de Janeiro.
Baskar, G. et. al. (2009) Contingency constrained economic load dispatch using improved particle swarm
optimization for security enhancement. Journal: Electric Power Systems Research, v. 79, p. 615–621.
Corrêa, A. L. B. et al. (2012) Redespacho da Geração para Melhoria da Segurança Dinâmica de Sistemas
Elétricos de Potência Usando Inteligência Computacional. IV Simpósio Brasileiro de Sistemas Elétricos.
França, F. O. (2005) Algoritmos bio-inspirados aplicados à otimização dinâmica. 120 f. Dissertação de
Mestrado apresentada à Faculdade de Engenharia Elétrica e de Computação. Campinas, São Paulo.
Theodoro, E. A. R. (2010) Desenvolvimento de uma ferramenta computacional para análise de segurança
dinâmica, no contexto da estabilidade transitória, de sistemas elétricos de potência via métodos diretos. 109f.
Dissertação de Mestrado em Engenharia Elétrica, Universidade de São Paulo, São Carlos, São Paulo.

A CASE STUDY OF METAHEURISTICS FOR PERFORMING ACTIVE POWER


REDISPATCHING TO IMPROVE TRANSITORY STABILITY

Abstract. Transient stability is a factor of merit in an electrical power system. Through this
type of stability, the dynamic safety margin of the system is determined. In this sense, this
work proposes the use of metaheuristics in active power redispatching in order to improve
transitory stability. A 9-bar test system was used to verify the methodology for searching
metaheuristics. For this, the electrical system was simulated for the application of the power
redispatch, where short-circuit disturbances were implemented. A cofiguration was
determined where transient instability is identified. The metaheuristics were used: Genetic
Algorithm, Particle Swarm Optimization and Cuckoo Search to determine the number of
necessary generations, within certain limits established in this work. In the genetic algorithm,
a 60% crossover probability with a mutation rate of 0.7 was used. For cuckoo demand, a
rejection probability of 30% was used. For the cluster of particles, the constants C1 and C2
were 1.5 and 2.5, respectively. All metaheuristics converged and brought about the transitory
stability of the proposed electrical system.

Keywords: Metaheuristics, Optimization, Transient Stability, Power electrical systems.


Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais.
Palmas, TO – 28 a 30 Outubro 2020

236
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins
Palmas - TO

ANÁLISE DOS POTENCIAIS DE AQUECIMENTO OU RESFRIAMENTO DO SOLO


DE PELOTAS/RS

Ana Maria Bersch Domingues1 - berschdomingues@hotmail.com


Eduardo de Sá Bueno Nóbrega1 - eduardosbnobrega@gmail.com
Ruth da Silva Brum1 - ruth.silva.brum@ufpel.edu.br
Jairo Valões de Alencar Ramalho1 - jairo.ramalho@ufpel.edu.br
Régis Sperotto de Quadros 1 - regis.quadros@ufpel.edu.br
1 Programa
de Pós-Graduação em Modelagem Matemática, Universidade Federal de Pelotas (UFPel),
Campus Capão do Leão s/n, 96160-000 Pelotas, RS, Brasil.

Resumo. O estudo e conhecimento das propriedades térmicas do solo são relevantes, pois
influenciam o desempenho e a economia de sistemas alternativos de refrigeração de ambientes,
como é o caso dos trocadores de calor acoplados ao solo. Este trabalho apresenta estimativas
das variações anuais de temperatura do solo em quatro bairros do municı́pio de Pelotas, Rio
Grande do Sul, onde foram obtidos os perfis de temperatura do ar e dados geotécnicos do solo.
O modelo adotado foi resolvido através de métodos de diferenças finitas. Dentre os resultados
da pesquisa, cabe destacar a descoberta das profundidades que obtém maiores variações e onde
ocorrem os valores dos picos de potencial para aquecimento ou resfriamento locais, sendo estes
cerca de 6◦ C. As maiores variações foram encontradas entre 1 e 2 metros, para solos secos e
saturados, respectivamente, e em 2,5-3 metros a temperatura do solo permaneceu constante.

Palavras-chave: Solos heterogêneos, Potencial térmico do solo, Aquecimento/Resfriamento,


Diferenças finitas

1. INTRODUÇÃO

Pesquisas relacionadas ao solo estão em constante desenvolvimento, uma vez que este tem
grande importância em atividades de plantio e construção civil. Um conceito clássico de solo
diz que este é formado por uma mistura de partı́culas pequenas que se diferenciam pelo tamanho
e pela composição quı́mica (Pinto, 2005). A complexidade do solo e sua importância para uma
grande quantidade de serviços apresentam muitos desafios para a modelagem dos processos
(Vereecken et al., 2016). Em relação à energia térmica, a capacidade de armazenar e transferir
esta energia é determinada por suas propriedades térmicas e pelas condições meteorológicas,
que por sua vez influenciam todos os processos quı́micos, fı́sicos e biológicos do solo (Neto,
2011).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

237
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Em muitas aplicações, é necessário obter a temperatura do solo em diferentes nı́veis para


determinar os parâmetros de projeto a serem seguidos (Ozgener et al., 2013). Como exemplo,
tem-se o sistema de trocadores de calor solo-ar (TCSA), que consiste em um ou mais dutos
enterrados, utilizando o solo como fonte ou sumidouro de calor (Brum, 2016). Nos sistemas
TCSA tem-se ar como fluido principal, que flui pelos dutos e troca calor com o solo ao redor,
sendo que este é mais frio que o ar ambiente no verão e mais quente no inverno, assim o ar
entra nas edificações resfriado no verão e aquecido no inverno (Bisoniya, 2015). Em geral,
sistemas de trocadores de calor acoplados ao solo também são compostos por bombas de calor
geotérmicas que usam lı́quidos como fluido para a transferência de calor. Enquanto os TCSA,
geralmente, são instalados horizontalmente a baixas profundidades, as bombas de calor são
instaladas verticalmente na faixa de 20-200 metros (Agrawal et al., 2019).
Em Ozgener et al., (2013) os autores utilizam dados acessı́veis, como as médias das tem-
peraturas do ar diárias e anuais, para estimar analiticamente a temperatura diária do solo, de-
pendendo da profundidade e do tempo. Em Nóbrega et al., (2020) apresenta-se os estudos
iniciais envolvendo TCSA no municı́pio de Pelotas, mostrando que ele possuiu potenciais de
aquecimento e resfriamento de 6◦ C e -6◦ C, respectivamente.
Diferentemente das pesquisas anteriores, que modelam o solo com propriedades térmicas
homogêneas, este trabalho considera as suas variações conforme os dados geotécnicos locais,
obtidos através de sondagens de simples reconhecimento (SPT). Em particular, observam-se
grandes mudanças entre faixas de solo seco e solo saturado, devido ao lençol freático. Adota-se
aqui uma modelagem numérica, objetivando a determinação das temperaturas do solo em diver-
sas profundidades, de acordo com os tipos encontrados no municı́pio de Pelotas (Rio Grande
do Sul). Analisando as variações das temperaturas com a profundidade, os resultados mostram
que a magnitude do potencial térmico local pode atingir valores próximos a 7◦ C.

2. METODOLOGIA

Para a modelagem do solo elaborou-se um código numérico no programa Octave (versão


5.2.0), sendo que o mesmo também funciona na linguagem Matlab. O código levava em conta
as múltiplas camadas que os solos existentes em Pelotas apresentam, e mostrava como saı́da
médias das temperaturas diárias dos mesmos. As temperaturas do ar foram retiradas do Boletim
Agro climatológico de Pelotas1 , e os dados do solo foram obtidos através de uma sondagem de
simples reconhecimento (SPT) do ano de 2016, um ano bissexto, concedidos pela empresa local
FUNDACON - Fundações e Construções.
A temperatura do ar ajustada no municı́pio de Pelotas para o ano de 2016 é:
 

Ta (t) = 17, 90 − 6, 34Sen t − 1, 85 . (1)
366
Como condições de contorno, os autores adotaram Ts = Ta para z = 0, ou seja, a tempera-
tura do solo é igual a temperatura do ar quando a profundidade é igual a zero e ∂T
∂z
s
= 0 para a
profundidade de 15 metros. Segundo Brum, (2016), pode-se adotar que o fluxo de calor decorre
somente pelo efeito da difusão, assim, o campo de temperaturas é dado por:
∂Ts ∂ 2 Ts
= αs 2 , (2)
∂t ∂z

1
http://agromet.cpact.embrapa.br/estacao/boletim.php (último acesso em 27/08/2020)

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

238
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

onde αs caracteriza-se como a difusividade térmica do solo em (m2 s−1 ), sendo que esta pode
ser calculada através da seguinte equação:
λs
αs = , (3)
ρs Cp,s

onde λs é a condutividade térmica do solo em (W m−1 K−1 ), ρs a densidade do solo em (kg


m−3 ), e Cp,s o calor especı́fico do solo em (J kg−1 K−1 ).
A condição de continuidade dos fluxos térmicos em qualquer ponto de intersecção (ζk ) entre
duas camadas subsequentes (i e j) caracteriza-se como:
   
∂T ∂T
lim − λi = lim+ − λj . (4)
z→ζk− ∂z z→ζk ∂z

Para a condição inicial, a temperatura do solo (Ts ) é aproximada pela função:

 r  √
π π
T0 = Tm + A sin ωt + φ − z e z τ αs . (5)
τ αs
Aqui, Tm , A, ω, e φ são, respectivamente, a média, a amplitude, a frequência angular e a fase
da temperatura do ar, que são calculadas após o ajuste por mı́nimos quadrados. As simulações
cobrem um perı́odo τ de um ano e αs é uma média das difusividades ao longo das camadas
múltiplas.
As equações foram resolvidas por dois anos, mas apenas as soluções do segundo ano foram
adotadas para representar as temperaturas do solo, visto que os efeitos numéricos da condição
inicial foram evitados (Brum, 2016). O código numérico guarda as médias das temperatu-
ras diárias em arquivos do tipo .txt. Posteriormente, estas médias são colocadas no programa
Wolfram Mathematica (versão 8.0) e ajustadas através do método dos mı́nimos quadrados para
funções senoidais (comando FindFit), resultando em uma equação para cada profundidade, va-
riando apenas através do tempo.
As equações são resolvidas utilizando diferenças finitas. O método de Euler implı́cito de
primeira ordem utilizado para a discretização do tempo, e utiliza diferenças centrais de segunda
ordem para a discretização espacial. Na profundidade de 15 metros e nas equações de con-
tinuidade entre camadas, as derivadas de primeira ordem foram aproximadas por diferenças
progressivas ou regressivas de segunda ordem.
Com o objetivo de melhorar a precisão, o teste de independência de malha foi realizado,
cujo erro foi de 1,49%. As simulações apresentaram um intervalo de tempo de 1800 segundos
e dividiram o comprimento do solo em 300 intervalos de 0,05 metros.

3. RESULTADOS E DISCUSSÃO

Em Pelotas existem variados tipos de solo, como arenoso, argiloso, areno argiloso, e ar-
gilo arenoso. Para simplificar este problema, resolveu-se tratar o solo areia argilosa como
simplesmente solo arenoso, e o solo argila arenosa como argiloso, por serem casos extremos
(Nóbrega et al., 2020). Nota-se que a difusividade térmica da areia é maior do que a argila em
mais de 25%. Além disso, um solo saturado tem difusividade muito maior que um solo seco,
com diferença de mais de 68%. A Tabela 1 apresenta as constantes do solo utilizadas para as
simulações numéricas, presentes na literatura (Hermes et al., 2020):

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

239
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Tabela 1- Constantes do solo utilizadas nas simulações.

Densidade Condutividade Térmica Calor Especı́fico


(kg m−3 ) (W m−1 K−1 ) (J kg−1 K−1 )
Areia 1600 0,30 800
Argila 1600 0,25 890
Areia Saturada 2000 2,20 1480
Argila Saturada 2000 1,58 1550

A Figura 1 apresenta o mapa do municı́pio de Pelotas, bem como as regiões analisadas neste
estudo:

Figura 1- Mapa do municı́pio de Pelotas separado por regiões estudadas. Fonte: Autores.

Através das simulações numéricas, foi possı́vel obter as temperaturas em cinco profundi-
dades distintas, para todos os solos estudados, bem como as maiores variações em função da
profundidade.
A seguir, apresenta-se 4 regiões da cidade de Pelotas que melhor representam as carac-
terı́sticas dos tipos de solos existentes.

3.1 Bairro Areal

Sete locais distindos do Bairro Areal foram analisados, dentre eles, Domingos de Almeida,
São Francisco de Paula, Umuharama, Manoel Antônio Peres, Barão de Cotegipe, Alcides Torres
Diniz, e Ferreira Viana. A Figura 2 exibe as curvas das variações da temperatura do solo em (◦ C)
em função da profundidade z em (metros), com estas é possı́vel analisar os picos de potencial
térmico (no verão e no inverno - Janeiro e Julho).

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

240
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 2- Mı́nima e máxima variações da temperatura do solo com a profundidade (Bairro Areal). Fonte:
Autores.

Através da Figura 2 cabe destacar o pico máximo de potencial térmico, sendo que este pode
chegar a quase 7◦ C abaixo de 1 metro de profundidade. Ainda, tem-se o pico médio de 6◦ C para
profundidades maiores que 2 metros, onde a temperatura se aproxima da temperatura média do
ar (17,9◦ C em Pelotas). Este resultado vai ao encontro de Bisoniya, (2015), cujo texto descreve
a temperatura do solo para grandes profundidades, como sendo igual à temperatura média anual
da superfı́cie do solo, que por sua vez, é assumida como igual à temperatura do ar ambiente.
As curvas estão próximas entre si, mas não são totalmente iguais. Ainda, algumas curvas
apresentam variações de temperatura em 1 metro de profundidade, e outras exibem variações
em 2 metros, esta diferença se dá no tipo de solo. Solos com o nı́vel do lençol freático já
nas primeiras camadas variaram até 2 metros, enquanto que solos totalmente secos e/ou com a
presença profunda de saturação, registraram o maior pico de potencial térmico em 1 metro de
profundidade.
É possı́vel notar que as curvas dos locais Domingos de Almeida, Ferreira Viana e Manoel
Antônio Peres, apresentam uma grande proximidade, isto acontece porque a primeira camada
de todos estes locais é composta por um solo argiloso seco, o que diferencia os mesmos são
apenas as suas respectivas profundidades, que tornam-se insignificantes, visto os resultados
encontrados através da Figura 2.

3.2 Bairro Centro

Foram obtidos os dados de dois endereços do Bairro Centro, sendo eles, Pinto Martins e
General Netto. A Figura 3 apresenta as variações da temperatura do solo em função da profun-
didade.

Anais do XXIII ENMC – Encontro Nacional de Modelagem Computacional e XI ECTM – Encontro de Ciências e Tecnologia de Materiais,
Palmas, TO – 28 a 30 Outubro 2020

241
XXIII ENMC e XI ECTM
28 a 30 de Outubro de 2020
Universidade Federal do Tocantins – Palmas - TO

Figura 3- Mı́nima e máxima variações da temperatura do solo com a profundidade (Bairro Centro).
Fonte: Autores.

Tem-se na Figura 3 o pico máximo de potencial térmico, alcançando praticamente 7◦ C em


1 metro de profundidade. Diferentemente do Bairro Areal, no Centro o pico médio de potencial
de 6◦ C já surge em 2 metros, permanecendo constante nas demais profundidades. O leitor pode
notar que as duas curvas encontram-se tão próximas que é praticamente impossı́vel encontrar
qualquer diferença. A proximidade entre as duas curvas se dá pela igualdade de suas camadas,
visto que ambos os locais apresentam argila até 4,5 metros, seguida por areia até 10,5 metros.
A Rua General Netto, apresenta ainda outras camadas como argila e argila saturada, mas estas
não interferiram no resultado final.

3.3 Bairro Três Vendas